Иннополис 8 ноября 2021

Толерантность, контроль человека и замедление прогресса: к чему приведет принятие кодекса ИИ в России

Далее

В медиа все чаще появляются новости о том, как ИИ начинает самостоятельно принимать решения, но выходит из-под контроля. Он обучает себя на контролируемых данных, но даже это не мешает ему давать пациенту явно вредные советы, грубить в интернете или выражать неполиткорректные взгляды. Специалисты говорят, что мы дошли до критической точки — они считают, что алгоритмы надо регулировать. Поэтому в России появился кодекс этики искусственного интеллекта. «Хайтек» обратился к специалистам в области ИИ, чтобы узнать, может ли документ избавить от всех проблем алгоритмов и не станет ли он тормозить процесс развития технологий.

Искандер Бариев, проректор — начальник управления по проектной и научно-исследовательской деятельности Университета Иннополис

Мы совместно с ведущими игроками в сфере искусственного интеллекта разработали документ с этическими принципами и стандартами поведения для тех, кто работает в этой области. В нем есть этические рекомендации для регуляции отношений, связанных с созданием, внедрением и использованием ИИ. Это нужно, чтобы ИИ не принимал решения, которые противоречат общепринятым нормам и стандартам.

Есть несколько показательных примеров предвзятости ИИ. Например, ученые из Стэнфорда и Университета Чикаго показали, что ИИ кредитного скоринга занижает рейтинги женщин, а алгоритм, анализирующий кандидатов на работу в Amazon, практически всегда отказывает женщинам, претендующим на технические должности. IBM Watson стал рекомендовать опасные препараты, а чат-бот во Франции, снижая нагрузку на врача, порекомендовал пациенту совершить самоубийство. Чат-бот от Microsoft за день перешел все моральные границы и встал на сторону фашистской Германии.

Кодекс подразумевает, что окончательное решение будет за человеком, а самостоятельность ИИ ограничивается. Компании не смогут оставить действия ИИ без объяснений: разработчикам придется тщательнее подходить к созданию и внедрению систем безопасности и следить, чтобы алгоритмы ИИ не были предвзятыми.

Следование положениям кодекса — добровольное. Его исполнение может стать повсеместной практикой, если подписанты покажут, что принятые правила игры — единственная возможность сделать индустрию ИИ прозрачной и безопасной.

Рамиль Кулеев, руководитель Института искусственного интеллекта Университета Иннополис

Кодекс этики ИИ — это не правовое принуждение, поскольку документ ничего не запрещает. В его основе лежит осознанная ответственность разработчиков за свои действия. Это общая договоренность, а не список запретов. Поэтому мы не можем говорить, что соблюдение подписанных правил негативно скажется на работе компаний.

Оставить ИИ без контроля, когда алгоритм предлагает решения, противоречащие этическим нормам — нельзя. Поэтому в кодексе этики ИИ говорится, что окончательное решение принимает человек.

Акторы постарались учесть все аспекты, но очевидно, что кодекс будет дорабатываться — технологии развиваются, и нам нужно под них подстраиваться. Например, в Сингапуре выпускали такой же кодекс в 2019 и в 2020 году. Последняя версия актуальна сейчас, но и в нее будут вносить изменения.

Анна Мещерякова, CEO «Третье Мнение»

Идентификация ИИ при взаимодействии с человеком и ответственность разработчиков должна позитивно повлиять на применения технологии. Разумным выглядит и закрепление риск-ориентированного подхода при отраслевом регулировании ИИ-систем: чем выше цена ошибки, тем сильнее надзор.

Оказывая государственные услуги, например, в сфере здравоохранения, контролировать алгоритмы должна сторона, ответственная за качество услуг. Критерии сильного ИИ следует четко описать. Например, мы в своей практике сталкиваемся с непониманием границ возможностей технологий искусственного интеллекта при анализе медицинских изображений. Даже отраслевые эксперты часто ожидают от алгоритмов сверхвозможностей и полной автономии, хотя системы поддержки принятия врачебных решений — это цифровые помощники с четко очерченным функционалом и ограничениями работы программы.

Поскольку право принятия итогового решения при работе с ИИ-системой остается за человеком, то логично наделить его и ответственностью за последствия применения ИИ-алгоритма. Но это не должно привести к тотальной перепроверке результатов работы ИИ-систем, которые создаются для снижения рутинной нагрузки и вероятности человеческой ошибки. Поэтому стоит отдельно акцентировать и детализировать вопрос ответственности человека за определение границ и условий применения ИИ-сервиса, за донесение точной и полной информации о сервисе до оператора системы.

Нам часто задают вопрос о потенциальном вреде ИИ с точки зрения возможного снижения уровня квалификации медиков из-за «опоры на мнение цифровых помощников». Высшая ценность кодекса — развитие когнитивных способностей человека и его творческого потенциала, это соответствует нашей позиции о принципах и целях развития прикладных технологий ИИ для здравоохранения.

Весьма неоднозначным в кодексе видится рекомендация обеспечения доступности данных для развития технологии. В аналогичном докладе Совета Европы, где предлагают двигаться к максимальной открытости, говорится о необходимости обеспечения публичного доступа к программному коду для аудита и данным для обучения ИИ-решений. Код и размеченные датасеты являются частью ноу-хау, уникальных коммерческих подходов и решений, защищенных режимом коммерческой тайны. Разработки являются результатом рыночной конкуренции и инвестиций. И в этом вопросе должен быть соблюден баланс интересов общества, государства и бизнеса.

Артур Камский, дизайнер цифровых продуктов, сооснователь Anybots

Кодекс описывает очевидные вещи, так специалисты работали и раньше. Многое пересекается с правилами робототехники Азимова: не навреди, механизмы должны подчиняться людям и работать во благо, а процесс — происходить этично. Уверен, что уже сейчас в большинстве компаний придерживаются этих правил.

Там нет пунктов, с которыми я не согласен, но у меня возникают вопросы к их реализации. Например, вопрос контроля того, что делается в компаниях. По-хорошему, государства должны это регулировать, но ни у одного государства нет компетенций, чтобы действительно понимать разработки специалистов в области ИИ. Этим должны заниматься практики, а не люди извне, которые могут оценивать проекты в формате «не нравится — запретить» или «ваш искусственный интеллект должен говорить вот так».

В кодексе есть пункты про дискриминацию. Это неочевидный момент и большое поле для спекуляций. К примеру, в США была история, что ИИ полиции чаще считал преступниками темнокожих граждан. Но те, кто занимается алгоритмами, понимают, что все дело в данных, которые поступали программе. Допустим, если в одном городе темнокожие чаще грабили магазины, то система автоматически будет строить выводы на основе этой информации. Вопрос лишь в том, отражают ли эти данные действительность. Если не отражают — их надо дополнить большей выборкой. Конечно, ИИ должен рассматривать всех одинаково, но он лишь обладает данными о людях, отталкивается от них и делает предположения, а не утверждения.

Главное, чтобы кодекс не препятствовал развитию индустрии. Никто не занимается ИИ, чтобы кого-то дискриминировать. Мне не хочется ситуаций, когда компании судят за то, что их ИИ ущемил людей. К примеру, «Нетфликс» проводил эксперимент, где белым людям показывали обложки фильмов с белыми актерами, а черным — с черными, причем эти актеры действительно играли в этих фильмах. После этого у них выросли метрики про просмотрам. Это оскорбительно по отношению к пользователям? По-моему, нет. У них была задача, чтобы люди больше взаимодействовали с контентом. Они достигли этого и никого не обманули.

Компании-энтузиасты сейчас находятся на передовой развития технологии и будут сталкиваться с проблемами. Вопрос скорее в том, как будет решаться каждый из этих инцидентов. В идеале хотелось бы, чтобы в этом участвовала комиссия из передовых компаний, кто имеет практический опыт использования ИИ и развития, а не люди из условной Государственной думы. И со временем процент инцидентов будет постепенно снижаться.

Чтобы кодекс работал, государство должно понимать эти технологии лучше, чем компании, которые занимаются разработкой и тратят на это миллионы долларов. Если вмешаться в технологию, не разобравшись в ней, то государство не сможет, следуя закону, провести в компаниях нормальный аудит. Соответственно, все будет на совести руководителей компаний и рядовых сотрудников. И тут встает вопрос — что важнее, прибыль или этика?


Первый кодекс в области ИИ, очевидно, не станет последним. В разных формах такой документ есть в США, Европе и других странах, но записать его раз и навсегда невозможно. Именно поэтому специалисты в области медицины, где применяется ИИ, фиксируют алгоритмы в определенный момент их обучения и затем подают документы в регулирующие органы. Но сама технология построена на том, что она с каждой секундой становится лучше и умнее — а значит, регламенты для нее тоже должны меняться.

Но это первый в России случай, когда появляются единые правила в отношении ИИ, а инженерам больше не нужно отвечать на вопрос, несут они ответственность за свои разработки или алгоритмы могут развиваться своими, иногда очень странными путями.


Читать далее:

Посмотрите на огромные огненные вспышки на Солнце

Дайверы нашли сокровища легендарного «Острова золота». Артефакты стоят миллионы долларов

Ученые ищут людей, которые не могут заразиться COVID-19. На основе их данных сделают лекарство