Неподготовленные участники могут отличить реальное изображение от фейкового менее чем в половине случаев, а после обучения — в трех случаях из пяти. Такие результаты показало исследование Софи Натингейл и Хани Фарида, ученых из Калифорнийского университета в Беркли. Кроме того, люди на поддельных изображениях кажутся зрителям заслуживающими доверия на 8% чаще, чем реальные.
Для проведения исследования авторы отобрали 400 настоящих фотографий и 400 изображений, созданных нейросетью. В каждом наборе были представлены в равной пропорции женщины и мужчины, представители различных рас и возрастов.
Участникам эксперимента показывали 128 случайно выбранных фотографий и просили определить настоящее оно или фейковое. В среднем испытуемые ответили верно в 48,2% случаев. При этом количество ошибок при классификации фотографий белых мужчин было больше чем при анализе фотографий женщин или представителей других рас. По мнению авторов, причина в том, что для машинного обучения ИИ доступно больше изображений белых мужчин, а значит качество подделки возрастает.
Вторая группа участников исследования прошла предварительное обучение распознаванию лиц, сгенерированных компьютером. Им показали примеры следов обработки изображений, которые могут указывать на подделку. Кроме того, после каждого ответа участникам сообщали, правильно ли они классифицировали изображение. В этом случае качество распознавания фальшивых фотографий выросло, но только до 59%.
Исследователи также попросили отдельную группу из 223 участников оценить по шкале от 1 до 7, насколько надежными им кажутся люди на изображениях. Средний уровень доверия к реальным людям составил 4,48, а к поддельным — 4,82. Разница в 8%, по оценке исследователей, превышает погрешность и является существенной. Интересно, что трое из четырех людей, вызывающих наибольшее доверие, были фейками, а все четверо наименее надежных — реальными.
«Мы обнаруживаем, что искусственно созданные лица вызывают больше доверия, чем настоящие, — пишут авторы исследования. — Это, скорее всего, связано с тем, что синтезированные лица больше похожи на среднестатистические, которые, как было доказано ранее, считаются более надежными».
Синтез звука, изображения и видео с использованием ИИ сделал широко доступными спецэффекты голливудского уровня. Синтезированная речь, вымышленные образы и замена одного человека на другого — уже не только развлечение, но и возможность для мошенничества и обмана. «Легкий доступ к таким высококачественным поддельным изображениям будет приводить к различным проблемам, включая, например, более убедительные фальшивые профили в соцсетях, мошенничество и кампании по дезинформации, имеющих серьезные последствия для отдельных людей и общества в целом», — обращают внимание ученые.
Читать далее:
Ученые нашли самых здоровых людей на Земле: все дело в уникальном образе жизни
Физики воссоздали способности Т-1000 из «Терминатора-2» в лаборатории