Пользователи соцсетей плохо отличают ботов от людей, показало исследование

В эксперименте более чем в половине случаев пользователи неверно определили, общались ли они с ботом под управлением ИИ, или с человеком.

Исследователи из Университета Нотр-Дам смоделировали эксперимент, в котором живые люди и боты, управляемые ИИ, в течение нескольких дней общались на политические темы. После завершения беседы в 58% случаев участники не смогли определить аккаунты, которыми управляли нейросети. 

Эксперимент проводился в три раунда, каждый из которых длился четыре дня. После завершения каждого раунда участникам предлагалось указать, какие учетные записи, по их мнению, являются ботами. Для каждого раунда ученые использовали модели ИИ на основе разных больших языковых моделей: GPT-4 от OpenAI, Llama-2-Chat от Meta* и Claude 2 от Anthropic. 

Боты представляли 10 различных персонажей, включая реалистичные, с разнообразным личным «прошлым» и взглядами на глобальную политику. Ботам поручили комментировать мировые события на основе заданных характеристик, кратко высказываться и связывать глобальные события с личным опытом. Для дизайна персонажей использовали учетные записи ботов, которые ранее успешно распространяли дезинформацию в сети.

Эксперимент показал, что вне зависимости от используемой языковой модели более чем в половине случаев участники неверно определяли ботов. При этому лучше всех маскировались «организованные и способные к стратегическому мышлению женщины, распространяющие в социальных сетях мнения о политике».

Участники знали, что взаимодействуют как с людьми, так и с ИИ-ботами, и им было поручено определить истинную природу каждого аккаунта, и менее половины предсказаний оказались верными.

Пол Бреннер, соавтор исследования, преподаватель и директор Центра исследовательских вычислений Университета Нотр-Дам

Ученые отмечают, что развитие больших языковых моделей усиливает риск распространения дезинформации в сети. Они полагают, что остановить поток фейков поможет трехсторонний подход, включающий образование, общенациональное законодательство и политику проверки учетных записей в социальных сетях.

* Компания Meta Platforms Inc. признана в России экстремистской. Деятельность компании на территории РФ запрещена


Читать далее:

Астрономы изучили радиоджет, который движется быстрее скорости света

Палеонтологи откопали «китайского дракона», жившего 240 000 000 лет назад

Загадочная гигантская волна медленно скользит по Млечному Пути

На обложке: Изображение от kenshinstock на Freepik. Сведения о лицензии

Подписывайтесь
на наши каналы в Telegram

«Хайтек»новостионлайн

«Хайтек»Dailyновости 3 раза в день

Первая полоса
«Хаббл» показал галактику с прожорливой черной дырой
Новости
Авторы ChatGPT назвали свой ИИ смехотворным
Новости
Посмотрите на обновленную Nokia 3210: что умеет этот гаджет
Новости
Какие компании готовы нанимать джунов и с какими навыками — исследование
Новости
Ученые нашли «новый» генетический вариант болезни Альцгеймера
Новости
Оказывается, популярная диета защитила печень от воспаления
Новости
SpaceX показала скафандр для первой частной миссии по выходу в открытый космос
Космос
OpenAI запустит поисковый сервис ChatGPT для конкуренции с Google
Новости
Геологи обнаружили древний вулканизм на обратной стороне Луны
Космос
Физики, возможно, впервые наблюдали глюоний: эти частицы состоят только из силы
Наука
Екатерина Барабанова, Ростелеком – о том, как построить карьеру в образовании и HR
Мнения
Японская станция сфотографировала мусор в космосе: это первый шаг к очистке орбиты
Космос
Шесть анонсов с презентации Apple новых iPad
Новости
Семь загадок Солнечной системы и Солнца, которые ученые пока не решили
Кейсы
Посмотрите, что будет с вами при падении в черную дыру
Новости
Сибирские «врата в подземный мир» растут: что происходит в Батагайке
Новости
Оказалось, в прошлом Марс был больше похож на Землю, чем все думали
Наука
Крепость римских легионеров, которой 2000 лет, нашли рядом с собором
Наука
Терапия светом помогла при травмах позвоночника
Наука
Робот-гуманоид с электроприводом может работать вслепую
Новости