Новости 14 мая 2024

Чат-боты укрепляют заблуждения, загоняя пользователей в информационный пузырь

Далее

Чат-боты представляют ограниченную информацию, соответствующую существующим убеждениям пользователей, укрепляя их в уверенности в собственной правоте. Об исследовании сообщает пресс-служба Университета Джона Хопкинса.

Исследователи из Университета Джонса Хопкинса проанализировали, как использование чат-ботов влияет на взгляды людей. Анализ показал, что короткие ответы без альтернативных мнений подтверждают уверенность пользователей в собственной правоте, способствуя поляризации взглядов. Внедрение ИИ в поисковые системы может усугубить общественный раскол по острым вопросам и сделать людей уязвимыми для манипуляций.

Перед началом эксперимента ученые попросили 272 участников исследования описать свою точку зрения по различным острым вопросам, в том числе здравоохранению, доступности студенческих кредитов и миграционной политике. После этого испытуемым предложили найти дополнительную информацию в Интернете по этой теме, используя либо чат-бота, либо традиционную поисковую систему.

После поиска исследователи попросили участников написать новое эссе и ответить на вопросы по заданной теме. Также испытуемым представили две статьи с альтернативными мнениями по каждому вопросу. Участники должны были прокомментировать, насколько они доверяют представленной информации.

Исследование показало, что участники, которые пользовались чат-ботами, в результате поиска утвердились в своих взглядах и с явным несогласием реагировали на альтернативные точки зрения. По словам ученых, в этой группе пользователи погружались в эхо-камеру или информационный пузырь, получая только ту информацию, которую они хотели услышать и которая подтверждала уже сформировавшиеся у них взгляды.

Это связано со спецификой работы чат-ботов: такие программы генерируют короткие ответы, основанные на вопросе, в котором уже отражены взгляды пользователя. В отличие от стандартного поиска, в котором по заданным ключам находится широкий спектр статей, чат-бот ограничен вопросом, заданным в простой форме. Например, если спросить «какие преимущества у общедоступного здравоохранения?», ИИ расскажет только про положительные стороны такой системы, опустив, например, информацию о расходах на ее поддержание.

Поскольку люди читают краткий абзац, созданный ИИ, они думают, что получают объективные, основанные на фактах ответы. Даже если чат-бот намеренно не искажает информацию, его ответы отражают склонности человека, задающего вопросы. Так что на самом деле люди получают ответы, которые хотят услышать.

Цзян Сяо, доцент кафедры информатики в Университете Джонса Хопкинса, соавтор исследования

Исследователи представили выводы на Конференции «Человеческий фактор в вычислительных системах» (ACM CHI Conference).

Презентация исследования

Читать далее:

Оказалось, в прошлом Марс был больше похож на Землю, чем все думали

Сибирские «врата в подземный мир» растут: что происходит в Батагайке

Недалеко от нас есть планета, где ветер дует быстрее пули

На обложке: Изображение от freepik, сведения о лицензии