Мнения 7 июня 2019

Бертон Раст, Google — об этике ИИ, праве человека на приватность и гендерно-нейтральных голосовых помощниках

Далее

Системы, основанные на искусственном интеллекте, входят во все сферы нашей жизни, и перед их разработчиками появляются серьезные этические вопросы. Часто ИИ может принимать решения, которые основаны на предвзятости, так как система была обучена на данных от людей. Стандарт голосового помощника — голос молодой девушки у Alexa, Siri или «Алисы» — тоже подвергается критике. Вопросы удовлетворения потребностей человека и соблюдения при этом его гражданских прав сегодня особенно остро стоят в ИТ, считает ведущий UX-дизайнер в Google Бертон Раст, участник фестиваля Offf, организованного в Москве онлайн-университетом Skillbox. «Хайтек» поговорил с Растом перед его лекцией на «Стрелке» об этике искусственного интеллекта, дискриминации в голосовых ассистентах и возможности построить систему, которая будет лучше человека.


Бертон Раст — писатель, учитель, ментор и бывший арт-директор дизайн-агентства IDEO, а сегодня — ведущий UX-дизайнер в Google. Он привносит фокус на человекоориентированный подход в разработку и проектирование продуктов, предоставляемых в рамках Google Assistant. Придерживается точки зрения, что разработчики систем с машинным обучением несут ответственность — как индивидуально, так и всей отраслью — за справедливое удовлетворение потребностей человека, уважение частной жизни как основного права человека.


«В США не все знают о GDPR»

— Вы можете говорить о проектах, над которыми работаете сейчас?

— Проекты, над которыми я работаю сейчас, не запустятся до 2020 года, так что не могу рассказывать о них. Но недавно присоединился к команде по обеспечению приватности и защите данных. Мы работаем над разными вещами, например, чтобы наши продукты подходили под GDPR в Европе — это «Общий регламент по защите данных».

— Да, я знаю что такое GDPR.

— Хорошо, не все в Штатах о нем знают! Кроме этого, есть вещи, которые мы анонсировали на IO, например, федеративное машинное обучение. Это защищенное и распределенное машинное обучение. С его помощью улучшают модели без скачивания данных с девайсов пользователей. И потом улучшенная модель загружается в эти же девайсы.

Фото: фестиваль Офф

— Недавно в Google была закрыта комиссия по этике в ИИ…

— Я с ней не связан.

— Но вы можете говорить в целом об этике в ИИ?

— От себя да, но не от лица Google.

— Комиссия по этике была закрыта через неделю после ее создания, так как Google критиковали за включение в нее определенных людей. В принципе вы считаете нормальным, что небольшая группа людей должна решать вопросы этики в ИИ для всех?

— Лично — нет, я не думаю, что маленькая группа людей может формулировать эту этику. В прошлом году мы опубликовали список принципов в ИИ. Они определяют работу в этой сфере. Мы больше не будем работать на армию, над чем-то для оружия, над чем-то, что можем противоречить законам о правах человека. Мне кажется, это может и должно вдохновить другие компании. Этот документ должен развиваться со временем, потому что ИИ тоже развивается. Нужно с чего-то начинать, но вообще это должно быть намного серьезнее, чем попытки одной компании, или, как вы сказали, одной группы людей.

«Во всех наших данных заложена предвзятость людей»

— Можем ли мы вообще избавиться от предвзятости в ИИ?

— Это развивающаяся и довольно сложная проблема. Подумайте, как быстро развивается язык. Спроектировать системы, которые понимают, как это происходит, и убирают новые виды предвзятости и дискриминации, когда они появляются, очень сложно. Этими системами должны управлять люди, нам нужно заложить в них возможность вмешательства человека. Может ли кто-то спроектировать идеальную систему? Которая убирает предвзятость до того, как она возникает? Наверное, нет. Во всех наших данных заложена предвзятость людей. По сути, нам нужно создать систему, которая будет лучше, чем люди.

— Это возможно?

— Можно улучшать системы в этом направлении. Сегодня мы видим множество умных людей, которые думают не только над тем, как разрабатывать системы самим, но также над общими правилами дизайна и разработки, которые могут использовать другие. Мне кажется, это хорошее начало, мы сможем учиться на ошибках прошлого и постепенно создавать системы, в которых не будет места предвзятости данных.

Фото: фестиваль Офф

— ЮНЕСКО недавно опубликовала доклад о гендерной дискриминации в голосовых помощниках — у всех из них женские голоса. Одним из необходимых действий авторы доклада назвали разработку машинного, гендерно-нейтрального голоса. Как вы к этому относитесь?

— Это довольно сложно: должны ли люди иметь возможность выбирать голос своего помощника? Или должно быть принято общее решение, которое повлияет на миллиарды людей? Могут ли три компании принять это решение? Проблема же заключается не только в гендере — почти нет голосов, репрезентирующих людей разных культур, этносов. В этой области еще много работы, и я не уверен, что есть простой ответ.


Доклад ЮНЕСКО называется «I’d blush if I could» («Я бы покраснела, если бы могла» — «Хайтек») — это ответ Siri на многочисленные оскорбления пользователей в ее адрес. Авторы доклада видят проблему в том, что все голосовые помощники используют голоса молодых женщин, и они, в том числе, не отвечают на оскорбления, основанные на гендерной дискриминации. ЮНЕСКО призывает к большей гендерной сбалансированности в командах, которые разрабатывают ИИ: сейчас только 12% исследователей ИИ — женщины.


«Я хочу больше приватности»

— Возвращаясь к вопросу приватности — вам не кажется, что в последнее время люди чересчур паникуют?

— Нет, я давно был активистом в защите данных, это отчасти причина, почему присоединился к команде. Я не тот человек, который считает, что люди слишком паникуют. Я тот человек, которого семья и друзья считают сумасшедшим, на уровне «шапочки из фольги». Мне кажется, люди точно должны быть обеспокоены своей приватностью. Если не обеспокоены, то, по крайней мере, задавать вопросы. И они должны ожидать, что компания, которая использует их данные, будет рассказывать им об этом.

— Сейчас компании уже стараются конкретнее объяснять, что происходит с данными. Какими будут следующие шаги в этом направлении?

— Я не думаю, что люди обязаны понимать во всей сложности, как их данные используют в интернете. У людей есть общее понимание, это подтверждают наши исследования. Например, большинство сервисов бесплатны, потому что данные используют для рекламы. Но когда дело доходит до сомнительных людей и компаний, которые хотят получить доступ к данным, используют цифровые отпечатки устройства, — я не думаю, что люди должны в этом разбираться. Это задача компаний — защитить пользователей.

— Точно не можете рассказать о новых проектах?

— Могу сказать в общих словах: у пользователей должна быть возможность очень простым способом сказать: «Я хочу больше приватности». Мы работаем над тем, чтобы это стало реальностью во всех наших основных продуктах.

— Как? Нажать кнопку «сделать все приватным»?

— Конечно, мы не будем ставить гигантский рубильник с надписью «Приватность» в поиск Google. Довольно трудно заставить команды, работающие над продуктами с аудиторией больше миллиарда пользователей — поиск, карты, Android, YouTube, — делать изменения, которые сильно повлияют на их идеи. Это не происходит за один день. Но мы работаем над этим.