За последний год Facebook была вынуждена расширить свою практику модерации контента в ответ на требования защитников по правам человека, которые утверждали, что компания не защищает «уязвимых» пользователей от языка ненависти. Теперь Facebook подвергся критике из-за непоследовательной модерации контента.
Открытое письмо Марку Цукербергу, подписанное 86 организациями, требует от Facebook обеспечить четкий и быстрый механизм, который позволяет пользователям обжаловать случаи удаления контента и деактивации учетных записей. В тексте также есть призыв ко всем социальным сетям. Авторы требуют улучшить прозрачность и отзывчивость модераторов на обжалованные сообщения и призывы к удалению контента.
В апреле этого года Facebook запустил жалобы на сообщения, которые удаляются по мотивам ненависти или призывам к насилию. Пресс-релиз социальной сети утверждает, что один из рецензентов рассмотрит все апелляции в течение 24 часов и уведомит пользователей об ответе. У Facebook было 4500 модераторов контента в мае 2017 года, а через год их количество удвоилось.
Существует несколько громких примеров удаления контента Facebook и деактивации учетных записей, которые позже признали ошибочными. Например, аккаунт рэпера Lil B приостановили на 30 дней за комментарии о белых людях, которые, по утверждению Facebook, нарушили политику толерантности. После этого пользователи по всей стране заявили, что их учетные записи часто ошибочно отключаются временно или навсегда, а их контент помечается и удаляется за нарушения стандартов сообщества.
Открытое письмо Марку Цукербергу также требует, чтобы все апелляции на удаление и деактивацию контента были рассмотрены модератором-человеком. Однако компания, наоборот, планирует доверить это роботам.
В мае этого года Facebook опубликовал свой первый отчет о соблюдении стандартов сообщества. Согласно нему, компания получила 3,4 миллиона жалоб в первом квартале 2018 года. В докладе также утверждается, что только 14% контента — это жалобы пользователей, 86% же публикаций нашли сами модераторы.