Алгоритмы искусственного интеллекта (ИИ) уже могут генерировать достаточно убедительный текст, который будет похож на человеческий. Ученые беспокоятся, что это станет новым способом производства фальшивых новостей. Однако теперь ИИ может определять и поддельные тексты, которые написал ИИ.
Исследователи из Гарвардского университета и Лаборатории искусственного интеллекта Массачусетского технологического института разработали новый инструмент для обнаружения текста, который создали с помощью ИИ. Он использует то, что генераторы текста ИИ полагаются на стилистические шаблоны в тексте, а не на фактическое значение слов и предложений. Другими словами, инструмент может определить, кажутся ли слова, которые вы читаете, слишком предсказуемыми для человека.
Исследователи отметили, что дезинформация становится все более автоматизированной, и технологии, необходимые для создания фальшивых текстов и изображений, быстро развиваются. Такие инструменты могут стать ценным оружием в борьбе против фальшивых новостей, в том числе, в социальных сетях.
Программа GLTR выделяет слова, которые могут появиться после предыдущего слова в тексте. При тестировании на фрагментах текста, написанных алгоритмом OpenAI, он находит много предсказуемых оборотов. При этом подлинные новости, написанные человеком, статистически содержат меньше оборотов, которые можно угадать из контекста.
Ученые попросили студентов Гарвардского университета идентифицировать текст, сгенерированный ИИ, сначала без этого инструмента, а затем с помощью него. Студенты смогли обнаружить только половину фальшивых текстов самостоятельно, а с помощью ИИ — 72%.