Толерантность, контроль человека и замедление прогресса: к чему приведет принятие кодекса ИИ в России

В медиа все чаще появляются новости о том, как ИИ начинает самостоятельно принимать решения, но выходит из-под контроля. Он обучает себя на контролируемых данных, но даже это не мешает ему давать пациенту явно вредные советы, грубить в интернете или выражать неполиткорректные взгляды. Специалисты говорят, что мы дошли до критической точки — они считают, что алгоритмы надо регулировать. Поэтому в России появился кодекс этики искусственного интеллекта. «Хайтек» обратился к специалистам в области ИИ, чтобы узнать, может ли документ избавить от всех проблем алгоритмов и не станет ли он тормозить процесс развития технологий.

Искандер Бариев, проректор — начальник управления по проектной и научно-исследовательской деятельности Университета Иннополис

Мы совместно с ведущими игроками в сфере искусственного интеллекта разработали документ с этическими принципами и стандартами поведения для тех, кто работает в этой области. В нем есть этические рекомендации для регуляции отношений, связанных с созданием, внедрением и использованием ИИ. Это нужно, чтобы ИИ не принимал решения, которые противоречат общепринятым нормам и стандартам.

Есть несколько показательных примеров предвзятости ИИ. Например, ученые из Стэнфорда и Университета Чикаго показали, что ИИ кредитного скоринга занижает рейтинги женщин, а алгоритм, анализирующий кандидатов на работу в Amazon, практически всегда отказывает женщинам, претендующим на технические должности. IBM Watson стал рекомендовать опасные препараты, а чат-бот во Франции, снижая нагрузку на врача, порекомендовал пациенту совершить самоубийство. Чат-бот от Microsoft за день перешел все моральные границы и встал на сторону фашистской Германии.

Кодекс подразумевает, что окончательное решение будет за человеком, а самостоятельность ИИ ограничивается. Компании не смогут оставить действия ИИ без объяснений: разработчикам придется тщательнее подходить к созданию и внедрению систем безопасности и следить, чтобы алгоритмы ИИ не были предвзятыми.

Следование положениям кодекса — добровольное. Его исполнение может стать повсеместной практикой, если подписанты покажут, что принятые правила игры — единственная возможность сделать индустрию ИИ прозрачной и безопасной.

Рамиль Кулеев, руководитель Института искусственного интеллекта Университета Иннополис

Кодекс этики ИИ — это не правовое принуждение, поскольку документ ничего не запрещает. В его основе лежит осознанная ответственность разработчиков за свои действия. Это общая договоренность, а не список запретов. Поэтому мы не можем говорить, что соблюдение подписанных правил негативно скажется на работе компаний.

Оставить ИИ без контроля, когда алгоритм предлагает решения, противоречащие этическим нормам — нельзя. Поэтому в кодексе этики ИИ говорится, что окончательное решение принимает человек.

Акторы постарались учесть все аспекты, но очевидно, что кодекс будет дорабатываться — технологии развиваются, и нам нужно под них подстраиваться. Например, в Сингапуре выпускали такой же кодекс в 2019 и в 2020 году. Последняя версия актуальна сейчас, но и в нее будут вносить изменения.

Анна Мещерякова, CEO «Третье Мнение»

Идентификация ИИ при взаимодействии с человеком и ответственность разработчиков должна позитивно повлиять на применения технологии. Разумным выглядит и закрепление риск-ориентированного подхода при отраслевом регулировании ИИ-систем: чем выше цена ошибки, тем сильнее надзор.

Оказывая государственные услуги, например, в сфере здравоохранения, контролировать алгоритмы должна сторона, ответственная за качество услуг. Критерии сильного ИИ следует четко описать. Например, мы в своей практике сталкиваемся с непониманием границ возможностей технологий искусственного интеллекта при анализе медицинских изображений. Даже отраслевые эксперты часто ожидают от алгоритмов сверхвозможностей и полной автономии, хотя системы поддержки принятия врачебных решений — это цифровые помощники с четко очерченным функционалом и ограничениями работы программы.

Поскольку право принятия итогового решения при работе с ИИ-системой остается за человеком, то логично наделить его и ответственностью за последствия применения ИИ-алгоритма. Но это не должно привести к тотальной перепроверке результатов работы ИИ-систем, которые создаются для снижения рутинной нагрузки и вероятности человеческой ошибки. Поэтому стоит отдельно акцентировать и детализировать вопрос ответственности человека за определение границ и условий применения ИИ-сервиса, за донесение точной и полной информации о сервисе до оператора системы.

Нам часто задают вопрос о потенциальном вреде ИИ с точки зрения возможного снижения уровня квалификации медиков из-за «опоры на мнение цифровых помощников». Высшая ценность кодекса — развитие когнитивных способностей человека и его творческого потенциала, это соответствует нашей позиции о принципах и целях развития прикладных технологий ИИ для здравоохранения.

Весьма неоднозначным в кодексе видится рекомендация обеспечения доступности данных для развития технологии. В аналогичном докладе Совета Европы, где предлагают двигаться к максимальной открытости, говорится о необходимости обеспечения публичного доступа к программному коду для аудита и данным для обучения ИИ-решений. Код и размеченные датасеты являются частью ноу-хау, уникальных коммерческих подходов и решений, защищенных режимом коммерческой тайны. Разработки являются результатом рыночной конкуренции и инвестиций. И в этом вопросе должен быть соблюден баланс интересов общества, государства и бизнеса.

Артур Камский, дизайнер цифровых продуктов, сооснователь Anybots

Кодекс описывает очевидные вещи, так специалисты работали и раньше. Многое пересекается с правилами робототехники Азимова: не навреди, механизмы должны подчиняться людям и работать во благо, а процесс — происходить этично. Уверен, что уже сейчас в большинстве компаний придерживаются этих правил.

Там нет пунктов, с которыми я не согласен, но у меня возникают вопросы к их реализации. Например, вопрос контроля того, что делается в компаниях. По-хорошему, государства должны это регулировать, но ни у одного государства нет компетенций, чтобы действительно понимать разработки специалистов в области ИИ. Этим должны заниматься практики, а не люди извне, которые могут оценивать проекты в формате «не нравится — запретить» или «ваш искусственный интеллект должен говорить вот так».

В кодексе есть пункты про дискриминацию. Это неочевидный момент и большое поле для спекуляций. К примеру, в США была история, что ИИ полиции чаще считал преступниками темнокожих граждан. Но те, кто занимается алгоритмами, понимают, что все дело в данных, которые поступали программе. Допустим, если в одном городе темнокожие чаще грабили магазины, то система автоматически будет строить выводы на основе этой информации. Вопрос лишь в том, отражают ли эти данные действительность. Если не отражают — их надо дополнить большей выборкой. Конечно, ИИ должен рассматривать всех одинаково, но он лишь обладает данными о людях, отталкивается от них и делает предположения, а не утверждения.

Главное, чтобы кодекс не препятствовал развитию индустрии. Никто не занимается ИИ, чтобы кого-то дискриминировать. Мне не хочется ситуаций, когда компании судят за то, что их ИИ ущемил людей. К примеру, «Нетфликс» проводил эксперимент, где белым людям показывали обложки фильмов с белыми актерами, а черным — с черными, причем эти актеры действительно играли в этих фильмах. После этого у них выросли метрики про просмотрам. Это оскорбительно по отношению к пользователям? По-моему, нет. У них была задача, чтобы люди больше взаимодействовали с контентом. Они достигли этого и никого не обманули.

Компании-энтузиасты сейчас находятся на передовой развития технологии и будут сталкиваться с проблемами. Вопрос скорее в том, как будет решаться каждый из этих инцидентов. В идеале хотелось бы, чтобы в этом участвовала комиссия из передовых компаний, кто имеет практический опыт использования ИИ и развития, а не люди из условной Государственной думы. И со временем процент инцидентов будет постепенно снижаться.

Чтобы кодекс работал, государство должно понимать эти технологии лучше, чем компании, которые занимаются разработкой и тратят на это миллионы долларов. Если вмешаться в технологию, не разобравшись в ней, то государство не сможет, следуя закону, провести в компаниях нормальный аудит. Соответственно, все будет на совести руководителей компаний и рядовых сотрудников. И тут встает вопрос — что важнее, прибыль или этика?


Первый кодекс в области ИИ, очевидно, не станет последним. В разных формах такой документ есть в США, Европе и других странах, но записать его раз и навсегда невозможно. Именно поэтому специалисты в области медицины, где применяется ИИ, фиксируют алгоритмы в определенный момент их обучения и затем подают документы в регулирующие органы. Но сама технология построена на том, что она с каждой секундой становится лучше и умнее — а значит, регламенты для нее тоже должны меняться.

Но это первый в России случай, когда появляются единые правила в отношении ИИ, а инженерам больше не нужно отвечать на вопрос, несут они ответственность за свои разработки или алгоритмы могут развиваться своими, иногда очень странными путями.


Читать далее:

Посмотрите на огромные огненные вспышки на Солнце

Дайверы нашли сокровища легендарного «Острова золота». Артефакты стоят миллионы долларов

Ученые ищут людей, которые не могут заразиться COVID-19. На основе их данных сделают лекарство

Подписывайтесь
на наши каналы в Telegram

«Хайтек»новостионлайн

«Хайтек»Dailyновости 3 раза в день

Первая полоса
Ученые впервые наблюдали, как орангутанг занимается самолечением
Наука
SpaceX не смогла скрыть полет ракеты над Россией: в сети публикуют фото
Космос
Зонд «Эйнштейн» показал первую партию редких космических фото
Космос
Миссию по доставке образцов с загадочной стороны Луны запустили в Китае
Наука
Ученые подтвердили ключевые события из Библии
Наука
Недалеко от нас есть планета, где ветер дует быстрее пули
Космос
Найден необычный способ бороться с хроническим стрессом
Наука
Посмотрите на самый редкий торнадо, который пронесся над США
Наука
Над Землей пролетел астероид, который вращался быстрее всех остальных
Космос
Ученые показали лицо женщины, которая жила 75 000 лет назад
Наука
Анализ генов показал, как древние водоросли вышли на поверхность планеты
Наука
Древняя технология поможет вырастить растения на Марсе, считают ученые
Космос
Физики из MIT добились рекордной близости между атомами для квантовых исследований
Наука
В Германии на ветряную электростанцию впервые установили деревянные лопасти
Новости
Инженеры разработали искусственную пиявку для безболезненного забора крови у детей
Наука
Solar Orbiter запечатлел «пушистую» корону Солнца в завораживающих деталях
Космос
Китай отправляет миссию на обратную сторону Луны: как смотреть онлайн
Космос
ИИ нашел асимметрию материи и антиматерии на Большом адронном коллайдере
Наука
TikTok вернулся в Россию? Что известно прямо сейчас
Новости
В Японии разработали устройство 6G, которое передает данные со скоростью 100 Гбит/с
Новости