По мере развития искусственный интеллект становится все более доступным инструментом для авторитарных режимов, которые с помощью технологий могут притеснять определенные группы граждан. Об этом рассказала исследовательница Microsoft Research Кейт Кроуфорд на фестивале SXSW.
Расцвет искусственного интеллекта пришелся на период расцвета ультранационализма, правого авторитаризма и фашизма, отметила Кроуфорд во время своей презентации «Темные дни: ИИ и подъем фашизма». Исследовательница подчеркнула, что для таких режимов характерна централизация власти, слежка за населением, демонизация чужаков и претензия на авторитет и нейтралитет. Машинное обучение помогает политикам добиваться поставленных целей.
Искусственный интеллект не может считаться нейтральным до тех пор, пока разработчики закладывают в него свои предрассудки. Кроуфорд привела в пример алгоритм, разработанный китайскими учеными, который якобы непредвзято определяет преступников по чертам лица. «Нужно с подозрением относиться к любым системам на базе машинного обучения, которые позиционируются как непредвзятые, но при этом основываются на данных, сгенерированных людьми», — цитирует эксперта The Guardian.
Китайский алгоритм, как оказалось, относил к преступникам обладателей нетипичных черт лица. По мнению Кроуфорд, это пугающая тенденция, которая напоминает о том, как в прошлом френологию использовали для оправдания рабовладения и преследования евреев.
Робот-креативный директор представил свой первый рекламный ролик
Идеи
Другой пример алгоритма-дискриминатора — это платформа Faceception, которая определяет характер по внешности. Разработчики системы не скрывают, что программа считает людей с ближневосточной внешностью и бородой террористами.
Инструментом дискриминации становятся не только алгоритмы, но и реестры, которые и раньше использовались для преследования представителей различных национальностей. Реестр мусульман предлагал создать президент США Дональд Трамп. «Ничего создавать не надо — Facebook уже стал мусульманским реестром», — заметила Кроуфорд. Исследования показывают, что соцсеть определяет религиозные взгляды человека по его лайкам с точностью 82%.
Системы прогнозирования преступлений также не лишены предрассудков. Они не снижают уровень преступности, но чаще преследуют тех, кто живет в опасных районах.
Об использовании алгоритмов в политических целях говорят все чаще. Через несколько лет, по прогнозам исследовательницы, политики без особых усилий смогут управлять взглядами электората. «Это мечта фашиста. Власть без какого-либо контроля», — отметила Кроуфорд.
Мясо из пробирки подешевело в 30 000 раз за 4 года
Технологии
Представительница Microsoft Research создала сообщество AI Now, которое будет бороться за прозрачность и отчетность алгоритмов на базе ИИ. К этому призывает не только Кейт Кроуфорд, но британский учёный и создатель Всемирной паутины Тим Бернерс-Ли. Он считает, что люди должны вернуть себе контроль над данными и не давать доступ к личной информации правительству, которое ограничивает свободу слова своих граждан.