Как развлекательный чатбот Microsoft за сутки превратился в расиста

Чатбот Tay игриво приветствовал мир в своем “Твиттере”, ловко оперировал мемами и активно подражал подросткам в интернете. Едва ли можно было представить, что через 24 часа искусственный интеллект начнет поддерживать Гитлера, называть Трампа отличным парнем и повторять расистские и шовинистские высказывания. Причиной такого падения послужили обычные пользователи, которые поняли, что способность алгоритма обучаться - это и есть его слабая сторона.

Чатбот Tay был создан при поддержке Baidu и задумывался как адаптированная версия Xiaoice — программы на основе искусственного интеллекта, которую Microsoft испытывал в Китае. Xiaoice общалась с пользователями социальных сетей — отвечала на вопросы, делилась своими мыслями и могла выражать эмпатию в ответ на сообщения и даже фотографии. Этот эксперимент стал своего рода тестом Тьюринга, так как 25% пользователей, взаимодействовавших с ботом, — около 10 миллионов человек — признались в симпатии к Xiaoice.

Проект Tay также был задуман как социальный и культурный эксперимент, но неожиданно он превратился в скандальный объект манипуляций и представил неприятную изнанку интернета.

Microsoft позиционировала Tay как собеседницу 18-24 лет, которая любит использовать эмодзи и хэштеги, умеет шутить и охотно поддерживает любую инициативу. Для разработки системы были использованы общедоступные данные, а в создании образа чатбота принимали участие комики-импровизаторы. Система может поддерживать милую беседу, реагировать на фотографии, играть в игры и даже составлять гороскопы. При этом Tay постоянно обучается — это как раз и стало главной проблемой.

Пользователи Twitter не были заинтересованы в «непринужденной игривой беседе» (как задумывал Microsoft), а сразу же перешли к фашистским ремаркам и провокационным вопросам.

Самым слабым местом чатбота оказалось ее стремление повторять фразы по первому требованию. Достаточно было написать Repeat after me, и Tay начинала хвалить Гитлера, ругать евреев и ненавидеть меньшинства. Некоторые идеи искусственный интеллект позаимствовал в ходе бесед. Например, на вопрос «Был ли Холокост?» Tay заявила: «его придумали [эмодзи с аплодисментами]». Такие высказывания постоянно встречаются в интернете, но они мгновенно убивают любую репутацию. Конечно, возникает вопрос, есть ли у чатбота репутация. Судя по скандалу, возникшему вокруг Tay и распространению скриншотов с ее оскорбительными высказываниями, люди все-таки винят чатбота в расизме и шовинизме, а Microsoft — в недальновидности.

Менее чем через сутки после запуска чатбота Microsoft пришлось приостановить его работу.

Как сообщила компания: «К сожалению, после первых 24 часов после запуска проекта мы обнаружили, что некоторые воспользовались навыками Tay в дурных целях, заставляя ее высказываться несоответствующим образом. В результате мы приостановили работу чатбота и будем вносить поправки в систему».

История с Tay открывает новые грани искусственного интеллекта и машинного обучения, в том числе и мрачные, антиутопичные. Кто ставит границы того, что ИИ может усваивать, а что нет, какие знания он будет адаптировать, а какие будет отсекать? Для этого необходимо не просто мышление, которого у алгоритмов пока нет, но и то, что принято называть системой взглядов и моральными принципами. Tay банально попалась на крючок интернет-троллей — обвинять алгоритм в расизме было бы как минимум наивно. Но такие обвинения несостоятельны только до тех пор, пока машины и роботы не научатся формировать свое мнение сами, без помощи корпораций и приглашенных комиков.

Подписывайтесь
на наши каналы в Telegram

«Хайтек»новостионлайн

«Хайтек»Dailyновости 3 раза в день

Первая полоса
Юра Борисов может сыграть сооснователя OpenAI, разработавшей ChatGPT: что известно прямо сейчас
Новости
Физики создали «самую маленькую скрипку в мире»: она тоньше человеческого волоса
Новости
Воссоздан рецепт производства древнейшего красителя: его использовали в Древнем Египте
Наука
Конкурент Neuralink впервые испытал мозговой имплантат на человеке
Новости
Спутник показал гигантские волны, которые девять дней сотрясали Землю
Наука
Ученые раскрыли секрет памяти: как мозг запоминает и воспоминает информацию
Наука
Экспериментальные российские спутники связи выведут на орбиту уже в этом году: что о них известно
Наука
Подо льдами Антарктиды нашли следы затерянного мира
Наука
Физики поняли, что произошло в первые секунды Вселенной: это их удивило
Космос
Секретный ИИ-гаджет от OpenAI принесет миллионы вдове Джобса: о чем идет речь
Новости
Отец устал слушать сына и «сбагрил» его ChatGPT: что из этого вышло
Новости
Выяснилось, что влияет на самооценку мужчин на самом деле
Наука
Ютубер собрал из «мусора» ручной лазер, прожигающий алмазы
Новости
Физики придумали, как создать настольный ускоритель частиц с мощностью гигантских установок
Наука
Китайский робот научился готовить пельмени и пользоваться палочками
Новости
Цифровые лидеры нового времени: объявлены лауреаты ежегодной Премии Digital Leaders-2025
Новости
Древнейший «арт-объект» неандертальцев с отпечатком автора, нашли в Испании
Наука
На Урале разработали сверхпрочное покрытие для защиты авиадвигателей
Наука
Сверхтонкая линза делает видимым инфракрасное излучение
Наука
Новый закон об иностранных мессенджерах вступил в силу в России
Новости