Facebook отключил функцию рекомендаций по темам после того, как ИИ компании принял чернокожих мужчин за «приматов» на видео в социальной сети. Об этом сообщает New York Times.
Пользователям Facebook, которые недавно смотрели видео из британского таблоида с участием чернокожих мужчин, показывали автоматически сгенерированную подсказку с вопросом, хотят ли они «и дальше смотреть видео о приматах».
Видео, датированное 27 июня 2020 года, было опубликовано The Daily Mail и на нем были показаны стычки чернокожих мужчин с белыми гражданскими лицами и полицейскими. Хотя люди относятся к числу многих видов в семействе приматов, видео не имело ничего общего с обезьянами, шимпанзе или гориллами.
Представитель Facebook заявил, что это «явно неприемлемая ошибка», добавив, что программное обеспечение для рекомендаций уже отключили.
«Мы приносим извинения всем, кто, возможно, видел эти оскорбительные рекомендации — заявили в Facebook в ответ на запрос агентства «Франс-Пресс». — Мы полностью отключили функцию рекомендаций по темам, как только поняли, что это происходит. Мы выясним причину и предотвратим повторение этой ошибки».
Программное обеспечение для распознавания лиц подверглось критике со стороны защитников гражданских прав, которые указывают на проблемы с точностью, особенно это касается людей, которые не являются белыми.
Снимком экрана с рекомендацией поделилась в Twitter бывший менеджер по дизайну контента Facebook Дарси Гроувс. «Это предложение „продолжать смотреть“ просто неприемлемо, — написала Гроувс в Твиттере, обратившись к бывшим коллегам в Facebook — Вопиюще».
Напомним, ранее «Хайтек» писал про самые крупные ошибки искусственного интеллекта.
Читать далее
Ученые три года не могут поймать лиса Рэмбо. Он мешает выпустить в лес редких животных
Криптохудожники расскажут, как создавать NFT-искусство и коллекционировать криптоарт
Посмотрите на тяжелый ударный беспилотник, который несет оружие весом в тонну