Кейсы 26 сентября 2018

Расист, оружие и предвзятый судья — каким станет искусственный интеллект в будущем

Далее

Искусственный интеллект проникает во сферы жизни человечества и создает проблемы — расовую дискриминацию, предвзятость правосудия, тотальный контроль со стороны государства и правоохранительных органов и военное применение обучаемых систем, которое делает вооружение еще более эффективным и опасным. «Хайтек» перевел и адаптировал статью Брукингского института об этических дилеммах, которые еще только предстоит решить человечеству, чтобы не допустить опасных последствий от внедрения ИИ.

 

Как привить бизнесу этические нормы ИИ

В мире наблюдается колоссальный прогресс в области искусственного интеллекта. Его стали применять в сферах финансов, обороны, здравоохранения, правосудия и образования. Машины модернизируют и улучшают проверку орфографии, работают как системы распознавания голоса, рекламы и обнаружения мошенничества.

Но в то же время общество озабочено вопросом этических ценностей ИИ — насколько техника, управляемая посредством заданных алгоритмов, способна уважать основные человеческие ценности. Специалисты по этике обеспокоены отсутствием прозрачности, плохой подотчетностью, несправедливостью и предвзятостью в этих автоматизированных инструментах. Среди миллионов строк кода в каждом приложении трудно понять, какие значения внедряются в ПО и как фактически принимаются решения.

 

 

Расширяя границы инноваций, технологические компании все чаще становятся цифровыми монополистами, которые определяют правила поведения ИИ, характеристики кода, корпоративную практику ИИ и условия обслуживания. В процессе написания ПО разработчики выполняют огромное количество задач, влияющие впоследствии на работу алгоритмов и принятие решений самой машиной.

 


 

Даррелл М. Уэст — вице-президент и директор по исследованиям в области управления. Является основателем Центра инновационных технологий в Брукингском институте и главным редактором TechTank. Его текущие исследования сосредоточены на образовательных, информационных технологиях здравоохранения и мобильных технологиях. До прихода в Брукингс Уэст был профессором политических наук и государственной политики Джона Хейзена и директором Центра общественной политики Таубмана в Университете Брауна.

 


 

Этические дилеммы ИИ, по мнению Даррелла М. Уэста, делятся на пять групп: использование их в оборонной и военной промышленности, в качестве средства контроля и принуждения правоохранительными органами, для выполнения надзора за государством, для создания систем социального рейтинга, а также вопросы расовой предвзятости ИИ. Как технологические компании занимаются этими вопросами и насколько для них важно наличие принципов и механизмов для решения проблем такого рода. Также отдельно следует рассмотреть пути укрепления этических норм в корпоративных решениях, связанных с ИИ.

 


 

Система социального кредита (англ. Social Credit System; также встречается название «система социального рейтинга») — система оценки отдельных граждан или организаций по различным параметрам, значения которых получают с помощью инструментов массового наблюдения и использования технологии анализа больших данных. Впервые начала реализовываться правительством Китая в 2010-х годах.

 


 

В общем и целом компаниям важно предпринять несколько шагов для обеспечения серьезного восприятия этических вопросов, связанных с ИИ. И вот их примерный план действий, по мнению Уэста:

  1. Нанимайте специалистов по этике, которые работают с корпоративными разработчиками решений и разработчиками ПО.
  2. Разработайте кодекс этики ИИ, в котором будет изложено, как обрабатывать различные проблемы.
  3. Сделайте доску обратной связи и регулярно решайте корпоративные этические вопросы.
  4. Создайте журналы учета ИИ, в которых разработчики будут записывать свои решения по кодированию.
  5. Внедрите учебные программы по ИИ, чтобы сотрудники грамотно применяли этические нормы в своей повседневной работе.
  6. Предоставьте работникам варианты исправления ситуации в случае, если ИИ наносят вред или ущерб людям или организациям.

Этика ИИ

Изменчивость и повсеместность применения ИИ вызвала ряд этических проблем. К ним относятся вопросы предвзятости, справедливости, безопасности, прозрачности и подотчетности. Если не будут созданы системы, регулирующие принципы ИИ, появится вполне реальная угроза того, что машины будут предвзяты, несправедливы, небезопасны, бесконтрольны и безотчетны.

 

 

 

 

Роботы против мигрантов: какой вклад в ксенофобию и расизм делают технологии ИИ

 

 

 

 

Озабоченность по поводу возможных проблем заставила многие неправительственные, академические и даже корпоративные организации выдвинуть декларации о необходимости защиты основных прав человека в области ИИ и машинного обучения. Эти группы изложили принципы развития ИИ и других автоматизированных процессов для защиты человечества.

В 2017 году участники конференции «Будущее жизни», проведенной в Калифорнийском конференц-центре Asilomar, опубликовали заявление, в котором изложили вопросы, затрагивающие ИИ и машинное обучение. Они утверждали, что «полностью автоматизированные системы ИИ должны быть спроектированы таким образом, чтобы их цели и поведение никак не шли вразрез с человеческими ценностями на протяжении всей их деятельности». Кроме того, они заявили, что «технологии ИИ должны приносить пользу и расширять возможности большего числа людей» и «экономическое процветание, созданное ИИ, должно широко использоваться в интересах всего человечества».

 

 

Такие же требования были выдвинуты и в 2018 году посредством «Торонтской декларации», созданной Amnesty International, Access Now и другими организациями. Они сосредоточились на машинном обучении и изложили основной принцип, согласно которому «государства и частные субъекты должны содействовать разработке и использованию технологий ИИ, чтобы помочь людям более свободно пользоваться своими правами». Среди конкретных перечисленных прав были и призывы «защищать людей от дискриминации, поощрять вовлеченность в проблему, разнообразие методов ее решения и беспристрастность и обеспечивать безусловное равенство». В этих целях подписавшие декларацию стороны попросили разработчиков заранее рассчитывать риски, обеспечивать прозрачность и контроль кодирования и привлечь третьих лиц для проверки их действий.

В ряде университетских проектов основное внимание уделялось проблемам ИИ. Их рассматривали в Гарвардском, Оксфордском, Кембриджском, Стэнфордском, Вашингтонском университетах и в других учебных заведениях. Научные эксперты выявили определенные проблемы, способные вызвать беспокойство как у правительства, так и у бизнес-структур. Потому они и должны активно содействовать поддержанию этических устоев в развитии ИИ.

 

 

 

 

БиСи Бирман, Heavy Projects: ИИ должен иметь несовершенства — это элемент случая

 

 

 

 

Некоммерческие организации также активно работают над исследованием соблюдения этики во время разработки технологий ИИ. Например, Королевское общество взяло на себя проект изучения автоматизации, в котором анализируются возможности ИИ на местах, а также препятствия, которые необходимо преодолеть. Его цель — «сделать так, чтобы автоматизация смогла принести максимальную пользу наибольшему числу людей». Ассоциация стандартов IEEE работает над инициативой введения алгоритмов соблюдения основных моральных принципов при разработке автономных систем.

 


 

Институт инженеров электротехники и электроники — IEEE — международная некоммерческая ассоциация специалистов в области техники, мировой лидер в области разработки стандартов по радиоэлектронике, электротехнике и аппаратному обеспечению вычислительных систем и сетей.

 


 

Другие некоммерческие организации сосредоточены на том, как в общем развивать ИИ и формировать его в интересах пользователей. Сэм Альтман, Грег Брокман, Илон Маск и Питер Тиль, а также фирмы Y Research, Infosys, Microsoft, Amazon и Open Philanthropy Project объединили усилия для разработки OpenAI — некоммерческой исследовательской компании ИИ. Ее главная миссия: «изобретение и принятие мер на пути к безопасному ИИ». Инженеры и ученые из OpenAI используют инструменты с открытым исходным кодом для разработки ИИ для общего блага и создают протоколы «для сохранения конфиденциальности технологий, если существуют проблемы с безопасностью».

Корпорации также присоединились к обсуждению. Например, Google опубликовал документ, призывающий к «ответственной разработке ИИ». В нем компания отметила, что ИИ должен быть социально выгодным, а не усиливать несправедливое предвзятое отношение. Он должен быть проверен на предмет безопасности, подотчетен людям, включать в себя конфиденциальность, поддерживать высокие стандарты научного мира и быть доступным для только для использования согласно этих принципов.

 

 

В то же время Microsoft опубликовала развернутый отчет об «ожидаемом будущем», включая негативные последствия от использования ИИ. В нем были описаны возможности ИИ, необходимость «принципов, политики и законов для ответственного использования ИИ».

Несколько компаний объединились в Партнерство в области ИИ в интересах людей и общества. В него вошли Google, Microsoft, Amazon, Facebook, Apple и IBM. Оно направлено на разработку передовой практики в отрасли для руководства над разработкой ИИ с целью поощрения:

  • этики, справедливости и вовлеченности;
  • прозрачности, конфиденциальности и многозадачности;
  • сотрудничества между людьми и системами ИИ;
  • надежности технологий.

Технологии двойного назначения

Рассматривая деятельность ИИ в целом, нетрудно выделить несколько сфер его применения, которые вызывают этические вопросы. Одно дело поддерживать общие цели, такие как справедливость и подотчетность, а другое — применять эти концепции в конкретных областях и политических условиях. Нельзя изолировать обсуждения этики от более широкой политической картины, в которой и развертываются технологии.

Нынешняя разнонаправленность политики усложняет задачи, стоящие перед лицами, принимающими решения. Республиканцы и демократы имеют совершенно разные взгляды на чиновников США, планы на дальнейшее развитие и политические события. Этические проблемы, которые могут и не сталкивать их лбами во время стабильной политики, становятся гораздо более очевидны, когда они не любят или не доверяют должностным лицам, принимающим решения.

К тому же разрешение этических дилемм — проблема технологий двойного назначения. Существует множество алгоритмов и программных приложений, которые можно применять как в благих, так и плохих целях. Функция опознавания лица может быть использована, чтобы найти потерянных детей или облегчить широкомасштабное гражданское наблюдение. Это не та технология, которая создает моральную дилемму, в отличие от человека, использующего приложение. Тот же самый алгоритм может служить для совершенно различных намерений, что делает этику принятия решений очень трудной.

 

 

По этой причине компаниям приходится рассматривать не только этические аспекты новых технологий, но и их возможные варианты использования. Действительно, последние новинки дают интересную возможность подискутировать об этике ИИ, поскольку они иллюстрируют конкретные аспекты этических дилемм. Глубокое знание этих вопросов имеет важное значение для развития ИИ.

Дилемма № 1: развитие оружия и военное применение

Одной из тем, которая привлекла внимание общественности, является применение ИИ, связанное с военной деятельностью. По мере ускорения технологических инноваций все чаще обсуждались вопросы использования ИИ в военных действиях. Например, в кодексе этики Google написал, что он не будет разрабатывать или развертывать ИИ «в целях создания оружия или других технологий, предназначенных для причинения или непосредственного нанесения вреда людям; в технологиях, которые собирают или используют информацию для надзора, нарушающую международно признанные нормы; технологий для любых целей, которые противоречат общепринятым принципам международного права и прав человека». Чтобы прояснить ситуацию, в документе также добавлено: «Для любых применений ИИ, где существует существенный риск нанесения вреда, мы будем действовать только там, где считаем, что выгоды существенно перевешивают риски и будут включать в себя соответствующие правила безопасности».

Конечно, многие компании не разделяют эту позицию. Например, с 2009 года Palantir получил федеральные контракты на сумму не менее $1,2 млрд за счет продуктов, используемых в сфере обороны, спецслужб, национальной безопасности и правоохранительных органов. Одно из их основных приложений, известных как Gotham, импортирует «большие массивы структурированных данных (например, электронные таблицы) и неструктурированных данных (например, изображения) в одну централизованную базу данных, где вся информация может быть визуализирована и проанализирована в одном рабочем пространстве». Цель состоит в том, чтобы использовать технологии для увеличения эффективности военных приложений и помощи специалистам по планированию обороны в достижении поставленных задач.

 


 

Palantir — частная американская компания, разработчик ПО для анализа данных. Основные заказчики — спецслужбы, инвестиционные банки, хедж-фонды. Основана в 2003 году группой инвесторов — выходцев из PayPal во главе с Питером Тилем.

 


 

Военные лидеры давно признали необходимость обновления возможностей, учитывать последние технические новшества для комплектации своих арсеналов. Министерство обороны США создало Объединенный центр интеллекта, призванный улучшить «крупномасштабные проекты с ИИ». Его миссия заключается в том, чтобы работать с частными компаниями и университетскими исследователями и обеспечить использование США последних технологий ИИ для защиты своих интересов.

 

 

Эту тенденцию можно услышать в речах президента Брукингского института Джона Аллена и бизнес-руководителя Амира Хусейна. Они утверждают, что мир движется в направлении «гипервойн», в которых усовершенствованные военные возможности выльются в стремительные схватки, основанные на физических и цифровых атаках. Таким образом, для США важно, чтобы у них были инструменты ИИ для защиты от возможных нападений со стороны противников.

 


 

Брукингский институт — исследовательский институт в США, основанный в 1916 году. Находится в Вашингтоне. Один из важнейших аналитических центров, специализируется на общественных науках, муниципальном управлении, внешней политике и мировой экономике.

 


 

Многие комментаторы отметили, что такие страны, как Россия, Китай, Иран и Северная Корея, обладают возможностями ИИ и не отказываются от внедрения и размещения высокотехнологичных инструментов. В период значительных международных потрясений и глобальных угроз Америка должна быть максимально осмотрительна, чтобы опрометчиво не начинать одностороннее разоружение, в то время как возможные противники будут продвигаться вперед. Споры по поводу развертывания ИИ свидетельствуют о том, что не все согласны с запретом для обеспечения национальной безопасности.

 

 

 

 

Как ИИ меняет медицину: личный помощник для врачей, маршрутизатор в клиниках и разработчик лекарств

 

 

 

 

Американцы остро чувствуют этот момент. В августе 2018 года в соцопросе, проведенном исследователями Брукингского института, 30% респондентов полагали, что США должны разработать технологии ИИ для ведения войны, 39% — что нет, а 31% — затруднялись ответить. Однако когда вопрос дополнили информацией о том, что противники уже разрабатывают ИИ для военных целей, 45% опрошенных сочли, что США все же стоит развивать такие виды оружия, 25% — остались при своем мнении, а 30% — так и не определились.

Существуют существенные демографические различия в данных ответах. Мужчины (51% проголосовали за) гораздо активнее женщин (39% — за) поддерживают применение ИИ в военное сфере, если и противники разрабатывают такие виды оружия. То же самое относится и к пожилым людям (53% проголосовавших) по сравнению с лицами в возрасте от 18 до 34 лет (38%).

Дилемма № 2: право и защита границ

В области внутренней политики США существуют аналогичные проблемы в отношении милитаризации полицейской практики, в частности — недавние случаи расстрелов невооруженных чернокожих мужчин. Эти тенденции привели к тому, что некоторые осудили применение ИИ в правоохранительных органах.

Критики обеспокоены тем, что новые технологии, например, ПО для распознавания лиц, несправедливо ориентированы на расовые и иные меньшинства и приводят к предвзятому или дискриминационному отношению. А это порой заканчивается трагедией.

 

 

Некоторые бизнес-руководители были довольно откровенны в этой теме. Например, Брайан Брэккин, генеральный директор фирмы Kairos, занимающейся разработкой систем опознавания лиц, утверждает, что использование этих систем «развязывает руки аморальным лицам для совершения грубых проступков». Он описывает историю действий правоохранительных органов, направленных против американских меньшинств, и делает вывод: «В Америке нет места для технологий распознавания лиц, которые могут поддерживать фальсифицированные аресты и случайные убийства». Высказываясь от имени своей компании, Брэккин говорит, что его организация не будет работать с правительственными учреждениями: «Любая компания в этой сфере, которая охотно передает свое программное обеспечение правительству, будь то Америка или другая страна, совершенно сознательно ставит жизнь людей под угрозу».

Аналогичная картина наблюдается в отношении иммиграционной политики в силу настроений администрации Трампа. В связи с репрессиями президента Дональда Трампа в отношении нелегального пребывания в США сотрудники некоторых фирм жаловались на сделки их руководств с Агентством по иммиграции и таможенному контролю, которому поручено выполнение административных решений. Они категорически против политики Трампа и утверждают, что фирмы не имеют права использовать свои возможности для сотрудничества с правительственным агентством. McKinsey & Company уже заявили, что больше не будут работать с иммиграционными и таможенными органами, а также с таможенно-пограничной службой США в связи с жалобами сотрудников, касаемых принудительных действий этих агентств.

 


 

McKinsey & Company — международная консалтинговая компания, специализирующаяся на решении задач, связанных со стратегическим управлением. McKinsey в качестве консультанта сотрудничает с крупнейшими мировыми компаниями, государственными учреждениями и некоммерческими организациями.

 


 

Дилемма № 3: правительственная слежка

Правительственный надзор является проблемой во многих отраслях. В последние годы ряд стран имеет тенденцию к возвращению к авторитаризму. Они закрыли интернет, охотятся на диссидентов, арестовывают журналистов или защитников неправительственных организаций и преследуют судей. Все эти мероприятия вызывают озабоченность в отношении возможности использования правительством технологий для необоснованной слежки или лишения свободы невинных людей.

Некоторые компании отказались от каких-либо сделок с правительственными учреждениями. Например, генеральный директор компании Affectiva Рана Эль-Калиуби, которая работает над системой распознавания лиц, уже отказалась от таких предложений. «Мы не заинтересованы в приложениях, которые следят за людьми, — объявила она. Этот отказ касается контрактов со службами безопасности, администрациями аэропорта или для создания приложений, связанных с идентификацией лжи.

 


 

Рана Эль-Калиуби — египетско-американский компьютерный ученый и предприниматель. Ее сфера деятельности — исследование систем распознавания лиц и развитие иных подобных технологий.

 


 

Компания Microsoft заявила, что такие системы «отданы на растерзание технологическим компаниям». Президент компании Брэд Смит говорит, что это ПО «затрагивает ценности, которые являются основой прав человека, такие как конфиденциальность и свобода самовыражения». В результате он поддерживает «правительственную инициативу по регулированию надлежащего использования технологий распознавания лиц, сначала проходящих двухфазную проверку экспертной комиссией».

 

 

Однако другие компании не придерживаются этой позиции. Amazon хладнокровно продает свое ПО для распознавания лиц с помощью Rekognition полицейским отделам и другим правительственным подразделениям, хотя некоторые сотрудники компании возражают против этой практики. Но руководство компании считает, что государственные органы должны иметь доступ к новейшим технологиям. Однако фирма заявила, что «она приостановит … пользовательское разрешение клиента использовать … свои программы [Rekognition], если определит, что это способствуют насилию».

 


 

Amazon Rekognition Video — сервис анализа видео на основе глубокого обучения. Он способен распознавать деятельность, определять движения людей в кадре, идентифицировать указанных людей, знаменитостей, объекты и выявлять недопустимый контент в видеоматериалах, сохраненных в Amazon S3. В результатах указываются временные метки, что позволяет без труда сформировать индекс для максимально подробного поиска по видео. Кроме того, при обнаружении людей и лиц Rekognition Video передает координаты рамок, которые указывают положение человека или лица в кадре.

 


 

В Китае повсеместно внедрены системы распознавания лиц в сочетании с видеокамерами ИИ для тотальной слежки за населением. С помощью технологий правоохранительные органы изучают людей на вокзалах, чтобы найти преступников, находящихся в розыске, или идентифицируют нарушителей, которые переходят дорогу в неположенном месте. По подсчетам, в Поднебесной работает 200 млн видеокамер, что обеспечивает возможность наблюдения космического масштаба. Эти камеры в паре с анализом ИИ, который соотносит изображения с личными данными, дает руководству колоссальную возможность для управления населением.

В своем анализе этики ПО для распознавания лиц исследователь Брукингского института Уильям Галстон отмечает, что должно оставаться «разумное сохранение анонимности». Правительственные органы не имеют морального права внедрять такие технологии, если только у них нет «фактов, достаточных для того, чтобы допустить их использование», и что «этот процесс должен регулироваться законом и быть равным ордеру на обыск». По его мнению, наличие четких правовых норм имеет жизненно важное значение для предотвращения возможных злоупотреблений.

Дилемма № 4: расовые предубеждения

Существует достаточное количество доказательств расовых предубеждений в ПО распознавания лиц. Некоторые системы «неверно идентифицируют женщин с более темной кожей в 35% случаев и темнокожих мужчин в 12%». Это намного чаще, чем такое случается с белокожими.

Большинство систем работает по принципу сравнения с целым рядом изображений из обширной базы данных. Как отметила Джой Буоламвини из Лиги алгоритмической справедливости, «если ваши базы распознавания лиц содержат в основном данные о европейских чертах, их программа научится распознавать максимально точно». Если базы данных не имеют доступа к различным данным, эти программы плохо работают, пытаясь распознать афроамериканские или азиатско-американские особенности.

 

 

Подавляющее большинство данных отражает приоритеты прошлого, которые могут уже не быть столь необходимы в текущей системе. Как отмечает Буоламвини, такой подход рискует дать возможность повторить историческое несправедливое отношение.

«Рост автоматизации и возросшая зависимость от алгоритмов ИИ сейчас требует от нас существенных решений. Это игра с высокими ставками, например, от выбора системы зависит, кто получает страховку, а кто нет, кому одобрят кредит или кто склонен к рецидивам преступлений. Даже решения о допуске становятся все более автоматизированными — в какую школу пойдут учиться наши дети и какие у них есть наклонности. Мы не должны позволять предрассудкам прошлого влиять на будущее, которое создаем».

Это одна из причин, из-за которой так важно увеличить доступность сбора данных, чтобы разработчики ИИ имели доступ к большим наборам данных для написания кодов для систем. Им нужна непредвзятая информация, чтобы правильно проинструктировать системы ИИ о том, как распознавать определенные шаблоны и принимать разумные решения. Правительства могут помочь в этом отношении, содействуя беспрепятственному доступу к своей информации. У государств самые большие базы персональных данных, эта информация может быть крайне ценным ресурсом для обучения ИИ и преодоления столь щепетильных проблем прошлого.

Кроме того, в уязвимых областях, таких как уголовное правосудие, где неточности могут привести к лишению свободы, должны быть установлены минимальные стандарты точности для ПО распознавания лиц, которое будет использовано. Системы должны быть настроены на максимальную точность и взвешивание всех возможных рисков, так что чиновники понимают, какие возможные риски связаны с внедрением ИИ. Дженнифер Линч из Electronic Frontier Foundation утверждает, что «неоткалиброванная до предельной точности система будет привлекать людей к ответственности за преступления, которые они не совершали, и переносить бремя доказывания на невиновных, которым придется самим убеждать судей, что они не те преступники, за которых их выдает техника».

 


 

Фонд электронных рубежей (англ. Electronic Frontier Foundation, EFF) — основанная в июле 1990 года в США некоммерческая правозащитная организация с целью защиты заложенных в Конституции и Декларации независимости прав в связи с появлением новых технологий связи.

Бремя доказывания — обязанность государственного органа (обвинителя) по уголовным делам и делам об административных правонарушениях представить и обосновать доказательства вины правонарушителя.

 


 

Дилемма № 5: социальные кредитные системы

Китай расширяет использование социальных кредитных систем для повседневной жизни. Он собирает данные о деятельности людей в социальных сетях, данные об их нарушениях и уплате налогов, а также использует итоговый балл, чтобы оценивать людей с точки зрения кредитоспособности, путешествий, учебы в школе и занимаемых государственных должностей. Тем, у кого есть высокие баллы, предоставляются специальные скидки и привилегии, в то время как тем, чьи баллы ниже среднего значения, может быть отказано в выезде за рубеж, в регистрации в привилегированных школах или в приеме на государственную службу.

 

 

Главная сложность — отсутствие подотчетности этих систем. Как было отмечено Джеком Карстеном в его блоге, «неясно, какие конкретно факторы влияют на выставление баллов, и поэтому те, у кого они низкие, могут столкнуться с существенными ограничениями, даже не зная, с чем это связано».

Кроме того, учитывая несправедливый доступ к возможности заниматься отдельно взятыми видами деятельности, которая дается только лицам с более высокими баллами, такие системы могут увеличить дискриминацию касательно социально-экономической, этнической категорий или уровня образования. Авторитарные режимы могут обратиться к ИИ, чтобы заручиться их помощью для контроля над населением.

Рекомендации на будущее

Нелегко разрешить любые этические проблемы, связанные с темами, рассмотренными выше. Каждая из них поднимает важные этические, юридические и политические проблемы и, следовательно, их невозможно решить сиюминутно. Лидерам, занимающимся этими проблемами, придется потратить немало времени и сил для работы по основным направлениям.

Но есть организационные и процедурные меры, которые способны стать основой для решения некоторых этических дилемм. Регулирование четких процессов и создание возможностей для обсуждения поможет с решением конкретных проблем. Существует ряд шагов, которые помогут фирмам обеспечить справедливое, безопасное и прозрачное применение ИИ.

Как предполагает Уильям Галстон, если эти реформы окажутся недостаточными, возможно, потребуется особое государственное вмешательство для предоставления соответствующих гарантий. Крайне важно усовершенствовать защиту в области расового предубеждения и дискриминации. Кроме того, решающее значение имеет урегулирование вопроса о том, как США собираются использовать технологии в оборонной промышленности.

1. Найм специалистов по этике. Для компаний важно, чтобы среди их сотрудников были такие специалисты, которые будут помогать им разрабатывать этику развития и внедрения ИИ. Они за столом переговоров помогут обеспечить серьезный подход к такого рода задачам. Более того, будут грамотно вести соответствующие обсуждения, когда возникают этические дилеммы, которые, вероятно, неизбежно будут возникать с завидным постоянством. Также они могут стать правой рукой руководства для создания культуры ИИ и поддержки корпоративной социальной ответственности в своих организациях. Эти специалисты должны составлять ежегодные отчеты для совета директоров или иного руководящего органа с проблемами, которые они затрагивали в течение предыдущего года, и их решением.

2. Разработка кодекса этики ИИ. Компании должны иметь кодекс этики, в котором излагаются принципы, методы и способы решения этических аспектов развития ИИ. Эту информацию необходимо опубликовать на веб-сайтах фирмы, чтобы заинтересованные стороны и внешние стороны видели, что компания думает об этических проблемах и о выборе, который ее руководство делает в борьбе с возникающими неравенством и несправедливостью.

3. Создание надзорных советов по ИИ. Предприятиям следует создать внутренние надзорные советы по вопросам ИИ, которые оценят производственные механизмы и повлияют на процесс принятия решений компанией. Эти советы должны включать репрезентативный сегмент заинтересованных сторон фирмы, а также консультантов по решениям, связанным с ИИ. В их задачи должны включать разработку конкретных производственных методов, заключение государственных контрактов и процедуры, используемые при разработке продуктов ИИ.

 

 

4. Требование проверок ИИ. Компании должны иметь книги учета ИИ, в которых будут описаны процессы составления алгоритмов и разработки. Это придаст внедрению ИИ некоторую степень прозрачности и подотчетности. Такие инструменты особенно важны в тех случаях, когда дело заканчивается судебными разбирательствами, а судьям или присяжным в случае ущерба для потребителей придется рассказывать, почему компания приняла именно такое решение и от чего она отталкивалась. Поскольку закон об ответственности за продукты ИИ, вероятно, будет основным при рассмотрении ущерба, причиненного искусственным интеллектом, необходимо сохранять весь объем проделанной работы, который обеспечивает как внешнюю прозрачность, так и объясняет изначальную мотивацию.

5. Внедрение учебных программ ИИ. Фирмы должны иметь программы обучения ИИ, которые не только затрагивают технические аспекты развития, но и этические, юридические или социальные последствия такого развития. Это помогло бы разработчикам ПО понять, что они не просто действуют в своих интересах, но и отвечают за всех последующих пользователей. ИИ выходит за рамки развития традиционных решений с минимальными социальными последствиями. Технологии — это оружие, которое может разрушить или изменить понятия об основных человеческих ценностях. Потому крайне важно обучать людей тому, как стоит ответственно подходить к разработкам ИИ.

6. Предоставление средств для возмещения убытков или вреда от ИИ. Должны быть денежные фонды для исправления ситуаций, возникающих в случаях, если внедрение ИИ приводит к опасным последствиям для потребителей. Это может быть связано с судебными делами, арбитражем или каким-либо другим переговорным процессом. Это позволит пострадавшим от неразумного кодирования или недостаточного расчета рисков ИИ получить компенсацию и, возможно, исправить возникшие ситуации. Продуманный четкий план поможет в случае наступления стихийных бедствий или непредвиденных последствий появления новых технологий.

Общественный контроль

Данные опроса свидетельствуют о значительной поддержке таких действий. Исследование, проведенное в августе 2018 года на базе Брукингского института, показало: 55% респондентов поддержали наем корпоративных специалистов по этике; 67% предпочтут компании с кодексом этики; 66% считают, что компании должны создавать советы по обзору ИИ; 62% опрошенных считают, что разработчики ПО должны вести книги учета ИИ; 65% высказались за реализацию программ обучения ИИ для персонала компании; 67% хотели бы, чтобы компании имели механизмы посредничества в случаях, когда те или иные решения в сфере ИИ причиняют вред или ущерб людям.

Значительная общественная поддержка этих шагов свидетельствует о том, что люди понимают этические риски, связанные с ИИ и новыми технологиями, а также — необходимость принятия значительных мер, основанных на грамотном подходе к технологиям.

 

 

Лица хотят, чтобы компании делали все возможное для защиты общества от несправедливости, предвзятости, отсутствия отчетности, неадекватных посягательств на сферы частной жизни и непрозрачности. Если эти шаги навстречу ответственному отношению к ИИ потерпят неудачу, изменение законодательства станет единственным вероятным средством разрешения этих проблем.