Исследователи из Университета Джонса Хопкинса проанализировали, как использование чат-ботов влияет на взгляды людей. Анализ показал, что короткие ответы без альтернативных мнений подтверждают уверенность пользователей в собственной правоте, способствуя поляризации взглядов. Внедрение ИИ в поисковые системы может усугубить общественный раскол по острым вопросам и сделать людей уязвимыми для манипуляций.
Перед началом эксперимента ученые попросили 272 участников исследования описать свою точку зрения по различным острым вопросам, в том числе здравоохранению, доступности студенческих кредитов и миграционной политике. После этого испытуемым предложили найти дополнительную информацию в Интернете по этой теме, используя либо чат-бота, либо традиционную поисковую систему.
После поиска исследователи попросили участников написать новое эссе и ответить на вопросы по заданной теме. Также испытуемым представили две статьи с альтернативными мнениями по каждому вопросу. Участники должны были прокомментировать, насколько они доверяют представленной информации.
Исследование показало, что участники, которые пользовались чат-ботами, в результате поиска утвердились в своих взглядах и с явным несогласием реагировали на альтернативные точки зрения. По словам ученых, в этой группе пользователи погружались в эхо-камеру или информационный пузырь, получая только ту информацию, которую они хотели услышать и которая подтверждала уже сформировавшиеся у них взгляды.
Это связано со спецификой работы чат-ботов: такие программы генерируют короткие ответы, основанные на вопросе, в котором уже отражены взгляды пользователя. В отличие от стандартного поиска, в котором по заданным ключам находится широкий спектр статей, чат-бот ограничен вопросом, заданным в простой форме. Например, если спросить «какие преимущества у общедоступного здравоохранения?», ИИ расскажет только про положительные стороны такой системы, опустив, например, информацию о расходах на ее поддержание.
Поскольку люди читают краткий абзац, созданный ИИ, они думают, что получают объективные, основанные на фактах ответы. Даже если чат-бот намеренно не искажает информацию, его ответы отражают склонности человека, задающего вопросы. Так что на самом деле люди получают ответы, которые хотят услышать.
Цзян Сяо, доцент кафедры информатики в Университете Джонса Хопкинса, соавтор исследования
Исследователи представили выводы на Конференции «Человеческий фактор в вычислительных системах» (ACM CHI Conference).
Читать далее:
Оказалось, в прошлом Марс был больше похож на Землю, чем все думали
Сибирские «врата в подземный мир» растут: что происходит в Батагайке
Недалеко от нас есть планета, где ветер дует быстрее пули
На обложке: Изображение от freepik, сведения о лицензии