Поскольку технология искусственного интеллекта (ИИ) становится повсеместной, Европейский Союз рассматривает вопрос о запрете на использование ИИ среди других приложений, для массового наблюдения и оценки социального кредитования. Что еще регулирует новый закон и что будет, если его примут?
С чего все началось?
Европейский союз обсуждает возможность запрета на использование искусственного интеллекта (ИИ), сообщило издание Politico со ссылкой на разработанный документ. Рассказываем главное.
В рамках проекта постановления «О европейском подходе к искусственному интеллекту» исполнительная власть ЕС предлагает запретить технологии ИИ, которые используются для «массового наблюдения, применяемого в обобщенном виде ко всем физическим лицам без каких-либо различий». В тексте законопроекта подробно описаны такие методы наблюдения, как «мониторинг и отслеживание физических лиц в цифровой или физической среде, а также автоматическое агрегирование и анализ персональных данных из различных источников», — передает ИА REGNUM.
Европейская комиссия стремится объявить вне закона системы искусственного интеллекта (ИИ), используемые для «массового наблюдения за людьми» в рамках новых запретов, которые будут введены на следующей неделе.
Кроме того, Еврокомиссия предусматривает запреты на использование приложений ИИ, которые нарушают ценности Евросоюза или нарушают права человека. К ним относятся системы, которые манипулируют поведением человека и нацеленные на незащищенные слои населения.
Согласно проекту члены ЕС, например, должны будут создать оценочные комиссии для тестирования и проверки систем ИИ с высоким риском. А компании, которые разрабатывают или продают ИИ, подпадающие под ограничения, в том числе из других странах мира, могут быть оштрафованы до 4% их глобального дохода.
А что такое искусственный интеллект «высокого риска»?
Согласно запланированным правилам, те, кто намеревается применить искусственный интеллект, должны будут определить, является ли конкретный вариант использования «высоким риском» и, следовательно, нужно ли им проводить обязательную предварительную оценку соответствия требованиям или нет.
Примеры высокого риска ИИ:
- системы, которые устанавливают приоритет в диспетчеризации экстренных служб,
- системы, определяющие доступ или назначение людей в образовательные учреждения,
- алгоритмы найма,
- те, которые оценивают кредитоспособность,
- для проведения индивидуальных оценок рисков,
- алгоритмы прогнозирования преступлений.
В чем суть законопроекта о контроле ИИ?
Объясняем, что предусматривает новый законопроект.
Сбор данных о гражданах с помощью систем наблюдения, мониторинга социальных сетей, банковской информации и из других источников — «неизбирательное наблюдение за физическими лицами должно быть запрещено, если оно применяется в обобщенном виде ко всем лицам без различия». Иначе говоря, «избирательное» наблюдение, если физическое лицо чем-то заинтересовало компетентные органы, вполне может допускаться, но тотальное слежение «на всякий случай», вероятно, в Европе будет запрещено.
Также законопроектом предусматривается запрет на введение системы социального рейтинга или социального кредитования, когда по гражданам накапливается массив больших данных о связях, поведении, покупках и другой информации, и на основе совокупности данных создается социальный портрет гражданина. В этом также помогают разобраться ИИ или нейронные сети. Подобное любят в банковском секторе, и Европа в этом плане не является исключением. Но дальше всего в создании системы социального кредитования пошли в Китае, где лицам с низким рейтингом отказывают в билетах на междугородний транспорт, в проживании в определенных районах и вводят ряд других ограничений. У таких систем ИИ есть «высокий шанс повлиять на чьи-то средства к существованию», отмечается в документе.
По поводу социального рейтинга в законопроекте сказано: «Системы ИИ, используемые для оценки социальных показателей общего назначения, должны быть запрещены». Голосование по этому законопроекту ожидается 21 апреля. До этого момента представители Европейской Комиссии отказываются комментировать неутвержденный документ.
Также проект предусматривает:
- уведомления о взаимодействии человека с ИИ, если это не «очевидно из обстоятельств и контекста использования»,
- оценку систем с высоким уровнем риска до их ввода в эксплуатацию, в том числе обеспечение того, чтобы эти системы были понятны для надзирателей-людей и что они прошли обучение на «высококачественных» наборах данных, проверенных на предвзятость,
- создание «Европейского совета по искусственному интеллекту», состоящего из представителей всех стран ЕС.
Что думают эксперты о контроле ИИ?
Возможно, наиболее важным разделом документа является статья, которая запрещает определенные виды использования ИИ, включая массовое наблюдение и социальные кредитные рейтинги. Однако реакции на проект со стороны групп по цифровым правам и экспертов по политике говорят, что этот раздел необходимо улучшить.
«Описания запрещаемых систем искусственного интеллекта расплывчаты и содержат непонятные формулировки, которые могут создать серьезные лазейки», — объясняет в интервью The Verge Дэниел Леуфер, аналитик европейской политики Access Now. Этот раздел, по его словам, «далек от идеала».
Как именно национальное законодательство решает, было ли решение ИИ причинено кому-то во вред или нет? С другой стороны, запрет на использование ИИ для массового наблюдения «слишком мягок». Он добавляет, что запрет на системы социального кредитования, основанный на «надежности», также определяется слишком узко. Системы социального кредитования не должны оценивать, заслуживает ли кто-то доверия, чтобы решать такие вопросы, как его право на получение пособий.
В Twitter Омер Тене, вице-президент некоммерческой организации IAPP (Международная ассоциация профессионалов в области конфиденциальности), прокомментировал, что это постановление «представляет собой типичный брюссельский подход к новым технологиям и инновациям. Если есть сомнения, регулируйте». По словам Тене, если предложения будут приняты, это создаст «обширную регулирующую экосистему», которая привлечет не только создателей систем ИИ, но также импортеров, дистрибьюторов и пользователей, и создаст ряд регулирующих советов, как национальных, так и по всему ЕС.
Однако эта экосистема не будет в первую очередь ограничивать «большие технологии, — отмечает Майкл Вил, преподаватель цифровых прав и правил в университетском колледже Лондона. — В его поле зрения в первую очередь входят менее известные поставщики инструментов для бизнеса и принятия решений, чья работа часто ускользает от контроля со стороны регуляторов или их собственных клиентов»
Неизвестно, какие изменения могли быть внесены в этот проект предложения, поскольку политики ЕС готовятся к официальному объявлению 21 апреля. Однако после того, как регулирование будет предложено, оно будет подвергаться изменениям после получения отзывов от депутатов Европарламента и должно быть реализовано отдельно в каждом национальном государстве.
Зачем нужен новый закон?
План по регулированию ИИ уже обсуждался некоторое время. Еще в феврале 2020 года Европейская комиссия опубликовала официальный документ, в котором излагаются планы регулирования приложений искусственного интеллекта «высокого риска». Хотя из нового проекта не совсем ясно, как именно будет определяться «высокий риск».
Согласно черновику проекта, главной целью Комиссии здесь является повышение общественного доверия к ИИ с помощью систем сдерживания и противовесов, основанных на «ценностях ЕС». Цель — стимулировать внедрение так называемого «заслуживающего доверия» и «ориентированного на человека» ИИ. Это касается не только приложений «высокого риска», но и всех, которые взаимодействующих с человеком.
Что будет, если закон примут?
Если проект предложения будет принят, это приведет к тому, что ЕС займет твердую позицию в отношении определенных приложений ИИ. Некоторые варианты использования будут контролироваться аналогично регулированию цифровой конфиденциальности ЕС в соответствии с законодательством GDPR.
Требования ЕС включают в себя обеспечение безопасности и обеспечение стабильной точности работы ИИ — с условием сообщать о «любых серьезных инцидентах или любом сбое в работе системы ИИ, которое представляет собой нарушение обязательств» надзорному органу не позднее, чем 15 дней после того, как стало известно об этом.
Примечательно, что комиссия уклонилась от предложения запретить использование распознавания лиц в общественных местах. Согласно просочившемуся проекту в начале прошлого года, она рассматривала эту идею.
Неизвестно, какие изменения могли быть внесены в этот проект предложения, поскольку политики ЕС готовятся к официальному объявлению 21 апреля. Однако после того, как регулирование будет предложено, оно будет подвергаться изменениям после получения отзывов от депутатов Европарламента и должно быть реализовано отдельно в каждом национальном государстве.
В Европе уже не впервые говорят о регулировании технологической отрасли. Так, власти ЕС хотят заставить Google и Facebook платить издателям за новости, а в начале года европейские политики вызвали глав техгигантов для обсуждения законов, ограничивающих их монополию. Судя по всему, разрабатываемые законы будут предусматривать штраф в 10% дохода для технологических гигантов, чтобы ограничить их монополию.
Читать далее
Создана первая точная карта мира. Что не так со всеми остальными?
В НАСА рассказали, как они доставят образцы Марса на Землю
В России провели испытания двигателя для орбитального самолета