Как развлекательный чатбот Microsoft за сутки превратился в расиста

Чатбот Tay игриво приветствовал мир в своем “Твиттере”, ловко оперировал мемами и активно подражал подросткам в интернете. Едва ли можно было представить, что через 24 часа искусственный интеллект начнет поддерживать Гитлера, называть Трампа отличным парнем и повторять расистские и шовинистские высказывания. Причиной такого падения послужили обычные пользователи, которые поняли, что способность алгоритма обучаться - это и есть его слабая сторона.

Чатбот Tay был создан при поддержке Baidu и задумывался как адаптированная версия Xiaoice — программы на основе искусственного интеллекта, которую Microsoft испытывал в Китае. Xiaoice общалась с пользователями социальных сетей — отвечала на вопросы, делилась своими мыслями и могла выражать эмпатию в ответ на сообщения и даже фотографии. Этот эксперимент стал своего рода тестом Тьюринга, так как 25% пользователей, взаимодействовавших с ботом, — около 10 миллионов человек — признались в симпатии к Xiaoice.

Проект Tay также был задуман как социальный и культурный эксперимент, но неожиданно он превратился в скандальный объект манипуляций и представил неприятную изнанку интернета.

Microsoft позиционировала Tay как собеседницу 18-24 лет, которая любит использовать эмодзи и хэштеги, умеет шутить и охотно поддерживает любую инициативу. Для разработки системы были использованы общедоступные данные, а в создании образа чатбота принимали участие комики-импровизаторы. Система может поддерживать милую беседу, реагировать на фотографии, играть в игры и даже составлять гороскопы. При этом Tay постоянно обучается — это как раз и стало главной проблемой.

Пользователи Twitter не были заинтересованы в «непринужденной игривой беседе» (как задумывал Microsoft), а сразу же перешли к фашистским ремаркам и провокационным вопросам.

Самым слабым местом чатбота оказалось ее стремление повторять фразы по первому требованию. Достаточно было написать Repeat after me, и Tay начинала хвалить Гитлера, ругать евреев и ненавидеть меньшинства. Некоторые идеи искусственный интеллект позаимствовал в ходе бесед. Например, на вопрос «Был ли Холокост?» Tay заявила: «его придумали [эмодзи с аплодисментами]». Такие высказывания постоянно встречаются в интернете, но они мгновенно убивают любую репутацию. Конечно, возникает вопрос, есть ли у чатбота репутация. Судя по скандалу, возникшему вокруг Tay и распространению скриншотов с ее оскорбительными высказываниями, люди все-таки винят чатбота в расизме и шовинизме, а Microsoft — в недальновидности.

Менее чем через сутки после запуска чатбота Microsoft пришлось приостановить его работу.

Как сообщила компания: «К сожалению, после первых 24 часов после запуска проекта мы обнаружили, что некоторые воспользовались навыками Tay в дурных целях, заставляя ее высказываться несоответствующим образом. В результате мы приостановили работу чатбота и будем вносить поправки в систему».

История с Tay открывает новые грани искусственного интеллекта и машинного обучения, в том числе и мрачные, антиутопичные. Кто ставит границы того, что ИИ может усваивать, а что нет, какие знания он будет адаптировать, а какие будет отсекать? Для этого необходимо не просто мышление, которого у алгоритмов пока нет, но и то, что принято называть системой взглядов и моральными принципами. Tay банально попалась на крючок интернет-троллей — обвинять алгоритм в расизме было бы как минимум наивно. Но такие обвинения несостоятельны только до тех пор, пока машины и роботы не научатся формировать свое мнение сами, без помощи корпораций и приглашенных комиков.

Подписывайтесь
на наши каналы в Telegram

«Хайтек»новостионлайн

«Хайтек»Dailyновости 3 раза в день

Первая полоса
Назван топ самых популярных и небезопасных паролей в мире
Новости
Томатам вернули сладость, отключив два гена
Наука
«Красные монстры» ранней Вселенной противоречат моделям развития галактик
Наука
Google использовал 40 000 000 телефонов, чтобы составить карту ионосферы
Наука
Физики обнаружили, что сам свет может отбрасывать тень
Наука
Продолжительность детства у древних людей изучили по ископаемым зубам
Наука
Оказалось, мы живем не в лучшей для разумной жизни Вселенной
Космос
В России пройдет международный хакатон по обнаружению голосовых дипфейков
Новости
Этот гаджет превратит смартфон во флейту или другой музыкальный инструмент
Новости
Госдума обяжет установку RuStore на всех гаджетах в России: проект приняли в I чтении
Новости
Эйнштейн ошибался: его главная теория не подходит нашей Вселенной
Космос
Сотни стартапов и тысячи идей: в Москве подвели итоги форума «ТехПред 2024»
Новости
Контур.Толк запускает бесплатную версию для онлайн-встреч без ограничений по времени
Технологии
Starship довезет пассажиров из Европы в США за полчаса на скорости 27 000 км/ч
Новости
Новое приложение для видеокарт GeForce от Nvidia уже доступно для скачивания
Новости
Rutube упростил подачу сведений о блогерах в Роскомнадзор
Новости
Бюджетный термоядерный реактор смог удержать плазму при 300 000 °С 
Новости
Посмотрите на картину робота-художника: ее продали 1 000 000 долларов
Новости
Илона Маска назначили в Белый дом: какие планы у миллиардера в правительстве Трампа
Новости
Ученая вылечила собственный рак с помощью вирусов из лаборатории
Наука