Исследователи из Корнельского университета создали алгоритм, который поможет администраторам социальных сетей модерировать сообщения, содержащие ненависть и вражду. Нейросеть способна отличить вежливую беседу от оскорбительной и делает это всего на 7% хуже человека. Исследование опубликовано на сайте университета.
Для обучения алгоритма исследователи использовали базу данных Wikipedia — Talk pages, в которой хранятся диалоги администраторов онлайн-библиотеки о достоверности статей. В нейросеть загрузили 1,2 тыс. бесед, начинающихся с вежливых реплик, а затем добавили сообщения, содержащие язвительные или грубые высказывания.
В результате искусственный интеллект научился распознавать фразы «спасибо за помощь» и «пожалуйста, найди источники к этой правке» как вежливые, а высказывания, подобные «твои источники не имеют значения», как грубые. Ученые заметили, что диалоги, начинающиеся с прямого вопроса или обращения «ты», чаще всего заканчивались оскорблениями.
«Каждый день миллионы людей спорят друг с другом в интернете, и отслеживать их в реальном времени невозможно. Наша система поможет модераторам перенаправлять их внимание в нужную сторону. У людей есть интуитивное ощущение, когда разговор идет наперекосяк, но мы не угадываем в 100% случаев. Нам интересно, сможем ли мы создать такую систему, которая преодолеет наше собственное интуитивное ощущение».
![](https://hightech.fm/wp-content/uploads/2018/10/51857.jpg)
Инженеры научили нейросеть самостоятельно рисовать мультики по тексту. На примере «Флинстоунов»
Технологии
Ранее антитеррористический суд Пакистана вынес смертный приговор 30-летнему мужчине из-за богохульных комментариев о пророке Мухаммеде в Facebook. Это первый случай, когда запись в соцсети стала причиной приговора к смертной казни.