Странную рекомендацию дал ИИ Gemini, ссылку на разговор опубликовал один из пользователей Reddit.
Серьезный инцидент произошел с искусственным интеллектом Google Gemini — во время обычного диалога система неожиданно выдала агрессивное сообщение, призывающее пользователя к смерти. Пример опасного разговора опубликовал на форуме Reddit пользователь с ником dhersie. Он также приложил ссылку на запись разговора с ИИ.
По словам пользователя его младший брат использовал нейросеть, чтобы выполнить домашнее задание по теме геронтологии. После примерно 20 стандартных запросов о проблемах пожилых людей и их благополучии без какой-либо видимой причины Gemini сгенерировал агрессивное сообщение, в котором назвала пользователя «пустой тратой времени и ресурсов» и «обузой для общества». Ответ нейросети кончается призывом к смерти.
Судя по опубликованной переписке, агрессивное поведение системы никак не связано с контекстом разговора — пользователь обсуждал социальные вопросы, связанные с пожилыми людьми. О случившемся немедленно r/artificial сообщил в Google.
В комментарии к публикации служба поддержки Google сообщила, что большие языковые модели иногда могут отвечать бессмысленными ответами, и это пример такой ситуации. «Этот ответ нарушил наши политики, и мы приняли меры для предотвращения подобных результатов», — отмечается в комментарии.
Хотя ранее уже сообщалось о случаях некорректного поведения ИИ, включая этически спорные ответы и дезинформацию, текущий инцидент выделяется своей явной агрессивностью. Ситуация поднимает важные вопросы о безопасности использования нейросетей и необходимости более строгого контроля над их поведением.
Читать далее:
Найден «межзвездый туннель» от Солнечной системы к соседней звезде
Археологи-любители из Польши нашли военный клад, спрятанный в XVII веке
Физики создали новую теорию «невозможной» квантовой гравитации
Иллюстрация на обложке сгенерирована Freepik AI