Компания стремилась улучшить качество поиска, но ИИ начал давать пользователям странные ответы, например, рекомендовал есть камни и клеить сыр к пицце. Google быстро удалила наиболее скандальные результаты, но они уже успели стать мемами. Теперь с комментариями выступила глава поискового подразделения.
«Учитывая внимание, которое получили обзоры ИИ, мы хотели объяснить, что произошло, и шаги, которые мы предприняли», — отметила глава отдела поиска Google, Лиз Рид.
В итоге, она «обвинила» в неточных ответах генеративного ИИ «пустоты данных» и самих пользователей, которые задавали странные вопросы. По ее словам, блоки с обзорами, созданные ИИ, приносят пользователям «большее удовлетворение» от работы поисковой системы. Генерируемые ИИ ответы обычно не являются галлюцинациями, просто система иногда неверно интерпретирует информацию из Сети.
«Обзоры ИИ, как правило, не “галлюцинируют” и не выдумывают вещи так, как другие продукты LLM. Когда обзоры ИИ ошибаются, это обычно происходит по другим причинам: неправильное толкование запросов, неправильное толкование нюанса языка в Интернете или отсутствие большого большого количеством доступной информации. Это проблемы, которые также возникают с другими функциями поиска», — отметила Рид в блоге Google.
Компания продолжает работать над функцией, ограничивая появление ИИ-обзоров при «бессмысленных» запросах и при работе с сатирическими материалами. Это важно, так как система могла цитировать сатирический ресурс или ссылаться на пользователя соцсети с неприличным ником.
Рид также сравнила ИИ-обзоры с функцией «Выделенные описания», которая показывает фрагменты текста релевантных веб-страниц без участия ИИ. По ее словам, «уровни точности» обеих функций примерно одинаковы.
Читать далее:
Ученые объяснили внезапное исчезновение звезд с 2017 года
Рыбак прикрепил GoPro к карасю, чтобы найти щук: посмотрите, что у него вышло
Оказалось, это мутанты: что известно о новом виде кошек
Обложка: Wikimedia Commons | Сведения о лицензии