Исследователи из Великобритании и Италии проверили, как большие языковые модели реагируют на игру слов, и пришли к простой мысли: структуры шуток они видят, но смысл теряют.
Ученые исследовали, как ИИ распознаёт каламбуры, и сравнила его ответы с реакцией человека. Стало ясно, что модели угадывают форму шутки, но не смысл. ИИ держится за знакомую конструкцию и не понимает, что делает фразу смешной.
Исследователи привели пример:
«Long fairy tales have a tendency to dragon».
Это строится на совпадении звучания «dragon» и «drag on» — «затягиваться».
Когда авторы эксперимента меняли последнее слово на «prolong» или любое другое, человек сразу теряет ощущение шутки. А ИИ продолжает считать фразу каламбуром, потому что видит знакомую структуру, но не понимает, что юмор исчез.
По словам одного из авторов, модели просто запоминают примеры из обучающих данных. Они знают множество каламбуров, но не улавливают, как именно работает игра слов. Если изменить ключевой элемент, они всё равно воспринимают фразу как шутку — замена не кажется им серьёзной.
Когда модель сталкивается с незнакомым каламбуром, она распознаёт его лишь в 20% случаев. Поэтому исследователи советуют осторожно использовать ИИ там, где важны юмор, эмпатия и культурные детали. Уверенность в том, что ИИ «понимает» шутки, по их словам, остаётся иллюзией.
Читать далее:
Вселенная внутри черной дыры: наблюдения «Уэбба» подтверждают странную гипотезу
Испытания ракеты Starship Илона Маска вновь закончились взрывом в небе
Сразу четыре похожих на Землю планеты нашли у ближайшей одиночной звезды
Обложка: freepik