OpenAI около года назад разработала систему для маркировки текста, созданного с помощью ChatGPT, сообщают СМИ со ссылкой на источники в компании. Систему «водных знаков» дополняет метод для проверки такого контента, однако компания не торопится внедрять нововведения, по-видимому, чтобы не потерять пользователей.
Система водных знаков и распознавания контента, созданного с помощью нейросетей, могла бы помочь университетам и учителям выявлять плагиат и сгенерированные ИИ работы, а общественным организациям бороться с дезинформацией и пропагандой в сети. Но в OpenAI, как пишут журналисты, нет единого мнения о том, стоит ли выпускать ее.
The Wall Street Journal сообщает, что в тестировании компания обнаружила, что водяные знаки не повлияли на качество текста. При этом в опросе, заказанном компанией, «люди по всему миру поддержали идею обнаружения ИИ с перевесом четыре к одному», пишут журналисты. При этом около 30% пользователей сказали, что будут реже использовать ChatGPT, если водяные знаки будут реализованы.
После публикации в блоге OpenAI появилась запись, которая подтверждает работу компании над системой водных знаков и дает альтернативное объяснение тому, почему его не внедряют. Компания заявляет, что метод очень точен. Но при этом перефразирование с помощью другой нейросети позволяет обойти проверку. Компания также заявляет, что обеспокоена, что маркировка стигматизирует использование ИИ в деловой переписке при общении на иностранном языке.
Читать далее:
Google сделал заявление после замедления YouTube в России
Окончательно: ученые нашли самую древнюю галактику во Вселенной
Сложная жизнь на Земле сформировалась не сразу: первый подход провалился
На обложке: Image by frimufilms on Freepik