Мнения 15 марта 2017

Эксперт Microsoft: «ИИ может стать настоящей мечтой для фашистов»

Далее

По мере развития искусственный интеллект становится все более доступным инструментом для авторитарных режимов, которые с помощью технологий могут притеснять определенные группы граждан. Об этом рассказала исследовательница Microsoft Research Кейт Кроуфорд на фестивале SXSW.

Расцвет искусственного интеллекта пришелся на период расцвета ультранационализма, правого авторитаризма и фашизма, отметила Кроуфорд во время своей презентации «Темные дни: ИИ и подъем фашизма». Исследовательница подчеркнула, что для таких режимов характерна централизация власти, слежка за населением, демонизация чужаков и претензия на авторитет и нейтралитет. Машинное обучение помогает политикам добиваться поставленных целей.

Искусственный интеллект не может считаться нейтральным до тех пор, пока разработчики закладывают в него свои предрассудки. Кроуфорд привела в пример алгоритм, разработанный китайскими учеными, который якобы непредвзято определяет преступников по чертам лица. «Нужно с подозрением относиться к любым системам на базе машинного обучения, которые позиционируются как непредвзятые, но при этом основываются на данных, сгенерированных людьми», — цитирует эксперта The Guardian.

Китайский алгоритм, как оказалось, относил к преступникам обладателей нетипичных черт лица. По мнению Кроуфорд, это пугающая тенденция, которая напоминает о том, как в прошлом френологию использовали для оправдания рабовладения и преследования евреев.

Робот-креативный директор представил свой первый рекламный ролик

Другой пример алгоритма-дискриминатора — это платформа Faceception, которая определяет характер по внешности. Разработчики системы не скрывают, что программа считает людей с ближневосточной внешностью и бородой террористами.

Инструментом дискриминации становятся не только алгоритмы, но и реестры, которые и раньше использовались для преследования представителей различных национальностей. Реестр мусульман предлагал создать президент США Дональд Трамп. «Ничего создавать не надо — Facebook уже стал мусульманским реестром», — заметила Кроуфорд. Исследования показывают, что соцсеть определяет религиозные взгляды человека по его лайкам с точностью 82%.

Системы прогнозирования преступлений также не лишены предрассудков. Они не снижают уровень преступности, но чаще преследуют тех, кто живет в опасных районах.

Об использовании алгоритмов в политических целях говорят все чаще. Через несколько лет, по прогнозам исследовательницы, политики без особых усилий смогут управлять взглядами электората. «Это мечта фашиста. Власть без какого-либо контроля», — отметила Кроуфорд.

Мясо из пробирки подешевело в 30 000 раз за 4 года

Представительница Microsoft Research создала сообщество AI Now, которое будет бороться за прозрачность и отчетность алгоритмов на базе ИИ. К этому призывает не только Кейт Кроуфорд, но британский учёный и создатель Всемирной паутины Тим Бернерс-Ли. Он считает, что люди должны вернуть себе контроль над данными и не давать доступ к личной информации правительству, которое ограничивает свободу слова своих граждан.