Системы алгоритмических рекомендаций на сайтах социальных сетей, таких как YouTube , Facebook и Twitter ответственны за распространение дезинформации, пропаганды, теорий заговора и другого вредоносного контента. Facebook, в частности, в последние дни подвергся критике за то, что позволил группам заговора QAnon процветать на своей платформе. Сегодня соцсеть пытается бороться с утверждениями о том, что его рекомендательные системы каким-либо образом виноваты в том, как люди сталкиваются с тревожным, нежелательным, опасным, вводящим в заблуждение контентом. Компания впервые обнародовала принцип работы рекомендаций по содержанию, сообщает TechCrunch.
В новой документации, имеющейся в справочном центре Facebook, и справочном центре Instagram, в общих чертах обрисовано, как алгоритмы Facebook и Instagram работают для фильтрации контента, страниц, групп и событий для рекомендаций пользователю.
Предложения могут отображаться в виде страниц, которые могут вам понравиться, сообщений «Рекомендовано для вас» в ленте новостей, людей, которых вы можете знать, или групп, к которым вы должны присоединиться. Предложения Instagram можно найти в Instagram Explore, Accounts You May Like и IGTV Discover.
Компания заявляет, что существующие руководящие принципы Facebook действуют с 2016 года в рамках стратегии, которую она называет «удалять, сокращать и информировать». Эта стратегия фокусируется на удалении контента, который нарушает стандарты сообщества Facebook, сокращении распространения проблемного контента, не нарушающего его стандарты, и предоставлении людям дополнительной информации, чтобы они могли выбрать, на что им кликнуть, что прочитать или чем поделиться, объясняет Facebook.
Facebook в новой документации подробно описывает пять ключевых категорий, которые не могут попасть в рекомендации. Правила Instagram аналогичны. Однако документация не дает глубокого понимания того, как Facebook на самом деле выбирает, что рекомендовать определенному пользователю. Это ключевой момент в понимании технологии рекомендаций, и один Facebook намеренно не упомянул.
Одна очевидная категория контента, которая не может быть рекомендована, включает в себя контент, который препятствует «способности Facebook создавать безопасное сообщество», например контент, посвященный нанесению себе вреда, расстройствам пищевого поведения, насилию, и т.п., а также сексуально откровенный и регулируемый контент — такой как табак, а также контент, которым пользуются нерекомендуемые аккаунты или организации.
Facebook также утверждает, что не рекомендует деликатный или некачественный контент, контент, который пользователи часто не любят, и контент, связанный с некачественными публикациями. Эти дополнительные категории включают в себя такие вещи, как кликбейты, обманчивые бизнес-модели, ссуды до зарплаты, продукты с преувеличенными заявлениями о здоровье или предлагающие «чудодейственные лекарства», контент, продвигающий косметические процедуры, конкурсы, раздачи подарков.
Кроме того, Facebook утверждает, что не будет рекомендовать фальшивый или вводящий в заблуждение контент, например дезинформация о вакцинах и контент, поощряющий использование поддельных документов.
В нем говорится, что он также «попытается» не рекомендовать учетные записи или организации, которые недавно нарушили стандарты сообщества.
Учитывая послужной список Facebook, стоит задуматься о том, насколько хорошо Facebook может соблюдать свои собственные установленные правила. Также стоит отметить, что есть много серых областей, которые не покрывают подобные рекомендации.
Группы о теориях заговора — лишь пара примеров.
Например, быстрый поиск по слову «вакцины» в настоящее время предлагает ряд групп, сосредоточенных на альтернативных методах лечения и групп антипрививочников.
Читать также
Ореол Андромеды приближается к нашей галактике. Рассказываем, почему это важно
Ученые выяснили, что происходит с черной дырой после поглощения звезды
Симптомы коронавируса у детей. На что стоит обратить внимание?