Facebook анонсировала модель на основе ИИ, которая будет выявлять оскорбительные комментарии. Пока она будет работать в связке с живыми модераторами.
Социальная сеть Facebook тестирует модель на основе искусственного интеллекта (ИИ) для выявления негативных комментариев, в том числе в закрытых группах.
Facebook представит несколько новых программных инструментов для помощи более чем 70 млн человек, которые ведут и модерируют группы на этой платформе. Facebook, которым пользуются 2,85 млрд пользователей в месяц, заявил в конце прошлого года, что более 1,8 млрд человек ежемесячно активны в группах, а всего на платформе есть десятки миллионов активных групп.
Наряду с новыми инструментами Facebook, искусственный интеллект будет решать, когда рассылать «предупреждения о конфликтах» тем, кто ведет группы. Предупреждения будут отправляться администраторам, если ИИ определит, что разговор в их группе является «спорным или нездоровым», заявили в компании.
В течение многих лет технологические платформы все больше полагались на искусственный интеллект для определения большей части контента в интернете. Ученые отмечают, что этот инструмент может быть полезен в случае, если информации на сайте так много, что живые модераторы не могут отследить ее всю.
Но ИИ может ошибаться, когда речь касается тонкостей общения и контекста. Способы, которые работают в системах модерации на основе ИИ, также не афишируются.
Представитель Facebook отметил, что ИИ компании будет использовать несколько сигналов, чтобы определить, когда отправлять предупреждение о конфликте, включая время ответа на комментарий и объем комментариев к посту. По его словам, некоторые администраторы уже установили оповещения по ключевым словам, которые могут выявить темы, способные привести к оскорбительным комментариям.
Читать далее
Поражение кожи, мозга и глаз: как COVID-19 проникает в человеческие органы
Выяснилось, что огромные космические нити во Вселенной вращаются как сверла
Ученые выяснили, кто рискует повторно заболеть COVID-19 и когда