Кейсы 13 декабря 2016

Рекламные алгоритмы в соцсетях поощряют дискриминацию

Далее

Таргетированная реклама в интернете должна облегчать людям жизнь, но, как показывают исследования, часто она дискриминирует отдельные слои населения. Издание Vox рассмотрело примеры того, как Facebook и Google невольно поощряют расовую сегрегацию в сфере недвижимости.

Независимый новостной ресурс ProPublica в октябре купил рекламные блоки на Facebook с одной целью — доказать факт дискриминации. Дело в том, что специальный алгоритм таргетирования позволяет жестко ограничивать целевую аудиторию рекламы в данном случае жилой недвижимости. Например, отсеивать афроамериканцев, латиноамериканцев и азиатов в качестве покупателей жилья в благополучных «белых» кварталах. Функция нарушает американский закон о справедливом решении жилищных вопросов, согласно которому в рекламе недвижимости запрещено демонстрировать предпочтение определенной расе, религии, полу, семейному статусу и другим факторам.

Между тем, алгоритмы сегрегируют людей, причем делают это незаметно — с помощью персонализации. Разграничение пользователей онлайн отражается и в реальной жизни. Дискриминирующая реклама показывает пользователям соцсетей трудовые вакансии, объявления о продаже жилья или приеме в вузы выборочно, ограничивая доступ людей к информации.

«ИИ займет 80% профессий в IT-сфере»

В США расовая политика прошлых лет привела к формированию так называемых белых и черных районов. Но и после изменения политики эта ситуация мало изменилась — афроамериканцам по-прежнему сложно выбраться за пределы бедных кварталов, и реклама в Facebook только способствует этому.

Ученые из Университета Карнеги — Меллон, в свою очередь, проанализировали работу системы Google Ad, которая собирает данные о пользователе и показывает ему таргетированную рекламу. Исследователи привлекли к эксперименту 500 интернет-пользователей разного пола, которые должны были посещать два одинаковых новостных сайта. Поведение в сети было похожим, но Google Ad почему-то чаще показывала рекламу услуг бизнес-тренеров для получения руководящей должности мужчинам.

Часто дискриминация бывает непреднамеренной. Предположим, рекламодатель решит продвигать жилой комплекс специально для поклонников группы Pearl Jam и обозначит это в алгоритме. Так как статистически среди поклонников группы больше белых, рекламу увидят именно они.

Сбербанк хочет догнать Amazon

В реальности с такими вещами можно бороться традиционными методами — например, подавать иски, как это делали раньше афроамериканцы, когда на рекламных плакатах по продаже недвижимости были исключительно белые лица. С интернетом такой прием не сработает, так как сайты защищены законом о пристойности в телекоммуникациях (CDA). Согласно ему, ресурсы не несут ответственности за публикуемый пользователями контент. Но в некоторых случаях сайты сами дают пользователям инструменты для дискриминации — примером служит Facebook.

Перед учеными стоит непростая задача разработать алгоритм, который предотвращал бы возможность введения дискриминирующих предпочтений на самом раннем этапе, до того, как рекламное объявление начнет охватывать аудиторию. Пока что такие инструменты не разработаны.

Boom возрождает сверхзвуковые «Конкорды»

Об отсутствии этических норм у алгоритмов уже сказано немало. Автоматизированные системы решают судьбу преступников в США. Они определяют вероятность рецидивизма и принимают решение о досрочном освобождении. Этим летом заключенный Эрик Лумис подал иск в Верховный суд штата Висконсин, в котором обвинил алгоритм COMPAS в предвзятости из-за пола и возраста. Ранее издание ProPublica обнаружило, что система COMPAS чаще присуждает высокий риск рецидивизма афроамериканцам. Полицейской программе Beware также не чужда дискриминация. ПО присуждает каждому дому рейтинг опасности на основе больших данных о преступлениях в этом районе и следит за вышедшими на свободу преступниками. Часто решение системы обусловлено опасностью района — чем больше прецедентов было на его территории, тем большему подозрению подвергаются его жители.