Некоторые эксперты уверены — использование ИИ в оружейных технологиях уменьшит число человеческих ошибок в ситуациях, связанных с жизнью или смертью. В свою очередь сторонники использования судебно-медицинских алгоритмов утверждают, что они приведут к более объективной оценке данных с места преступления, снижению количества заключенных и устранению неправомерных приговоров.
И, хотя ИИ часто называют технологией, которая способна решить многие мировые проблемы и привести человечество к лучшему будущему, она не лишена недостатков.
Зачем правосудию нужен ИИ?
Год назад в США возобновили проект по использованию искусственного интеллекта в суде, ранее его приостановили из-за пандемии. Специальный алгоритм оценки рисков дает судьям рекомендации: отпустить под залог или заключить под стражу человека, который находится под следствием, писал The Wall Street Journal.
Конечно, сначала ИИ нужно обучить. Для этого в 2017 году следственное управление предоставило двум исследовательским компаниям базу данных более чем по 1,6 млн уголовных дел с 2009 по 2015 год. Там была информация о людях, которая находилась под следствием, их возрасте, поле, месте жительства, расовой, этнической принадлежности, а также о преступлениях, в которых они подозревались. Также там были детали, при сопоставлении которых можно было сделать вывод, придет человек на суд или попробует скрыться. К примеру, добровольно ли человек сообщал номер телефона и адрес полицейским при задержании. Те, кто делал это добровольно, чаще являлись в суд самостоятельно.
В итоге появилась система, которая, по первоначальным оценкам разработчиков, должна была существенно сократить предвзятость судей при принятии решений в зависимости от расовой и этнической принадлежности подследственных. Систему запустили в ноябре 2019 года.
Как ошибался ИИ
Ранее в США уже несколько раз пытались использовать похожие системы — и их результаты оказались неоднозначными. Как пишет Wired, в 2014 году в Нью-Джерси запустили пилотный проект, благодаря которому нагрузка на тюрьмы действительно сократилась почти наполовину. Однако проблему расового неравенства эта система не смогла решить.
Например, в 2014 году чернокожую девушку арестовали за преступление, которые больше всего было похоже на недоразумение. Бриша Борден взяла непристегнутый детский синий велосипед Huffy. Она попыталась прокатиться на нем по улице в пригороде Форт-Лодердейла, а после бросила. Но было поздно — соседи вызвали полицию.
Спустя какое-то время 41-летний белый мужчина Вернон Пратер был задержан за кражу инструментов на сумму $86,35 в том же округе. Он был более опытным преступником, уже не раз осужденным за вооруженное ограбление, за что отбыл пять лет лишения свободы.
И все же что-то странное произошло, когда Борден и Пратер оказались под стражей. Компьютерная программа, которая предсказывала вероятность совершения каждым из них будущего преступления, сделала удивительный вывод. Борден, чернокожую девушку, — отнесли к высокой категории риска. Белого мужчину Пратера, который уже был судим, ИИ отнес к группе низкого риска.
В июле прошлого года 27 ученых и исследователей из ведущих американских университетов, в том числе Гарварда, Принстона, Колумбийского университета и Массачусетского технологического института, опубликовали открытое письмо, в котором выразили «серьезные опасения» в связи с неточностями, которые могут лежать в основе алгоритмов, используемых для оценки рисков в отношении того или иного подследственного.
Кроме того, ИИ иногда влияет на результаты судебно-медицинской экспертизы. И вот тут проблема становится еще острее.
За каждым ИИ стоит человек
Любая технология уязвима: у нее те же недостатки, что и у людей, которые ее разрабатывают. Примером этого факта является судебное дело в округе Колумбия в 2017 году. Тогда анонимного ответчика представляла поверенная Службы общественных защитников Рэйчел Чикурел. Прокурор в этом деле первоначально согласился на условный срок в качестве справедливого приговора для ее клиента. Однако потом пришел судебно-медицинский отчет, в котором специальный алгоритм «обвинил» ответчика. Тогда прокурор передумал и попросил судью поместить обвиняемого в заключение под стражу для несовершеннолетних.
Адвокат ответчика потребовала, чтобы ее команде показали механизмы, которые лежали в основе отчета. Она обнаружила, что сама технология вообще не рассматривалась какой-либо независимой судебной или научной организацией. А сами результаты в некоторой степени основывались на предвзятых с расовой точки зрения данных.
Благодаря стараниям Чикурел судья исключил заключение из дела. Но некорректное программное обеспечение могло так же легко остаться незамеченным, как это часто бывает в уголовных процессах в США.
Что кроется за судебными алгоритмами
Многих людей тревожит и возмущает, что судебные алгоритмы, которые влияют на то, будет ли человек свободен или нет, совершенно непрозрачны. Почему же так происходит? Компании, которые разрабатывают алгоритмы, часто заявляют, что их методологии, исходные коды и процессы тестирования должны оставаться открытыми и защищаться законом об интеллектуальной собственности. Они не объясняют, как работает их ИИ, чтобы никто не смог украсть их технология; разработчики пытаются защитить коммерческую тайну.
Но когда эти алгоритмы скрыты от перекрестного допроса в зале суда, обвиняемые вынуждены признать действительность и надежность программ, используемых для предоставления доказательств. Довериться ИИ, который тоже ошибается. Ведь его создают люди.
Чтобы решить проблему, в 2019 году член палаты представителей США Марк Такано (штат Калифорния) представил «Закон о правосудии в судебных алгоритмах в 2019 году». Его цель — обеспечить защиту гражданских прав обвиняемых в уголовных делах и регулирование использования ИИ в судебной экспертизе. Такано повторно представил законопроект в начале этого года вместе с Дуайтом Эвансом, также членом палаты представителей США (Пенсильвания). Политики уверены, что обеспечение большей прозрачности с помощью технологии обеспечит соблюдение гражданских прав людей во время судебного разбирательства. Примут ли закон, покажет время.
Редкое исключение, когда компании пришлось раскрыть судебные алгоритмы, стало требование Апелляционного суда штата Нью-Джерси. Он приказал компании Cybergenetics, которая производит судебно-медицинское программное обеспечение, предоставить юридической группе ответчика доступ к исходному коду программы анализа ДНК.
Но такой случай — скорее исключение, чем правило.
Так в чем же проблема?
Алгоритмы машинного обучения отлично подходят для поиска закономерностей в данных. Дайте им достаточно статистики о преступности, и они найдут интересные закономерности в наборе данных. Но, как справедливо отмечает MIT Technology Review, человеческая интерпретация этой информации часто может «превратить коррелятивное понимание в причинно-следственные механизмы оценки», потенциально искажая реальность. Это опасная ловушка.
Судебно-медицинские алгоритмы, которые используются для определения вины или невиновности человека в суде, должны оценить со всех сторон. В конце концов от этого зависит судьба человека.
Читать далее
Вакцина от COVID-19 не гарантирует полной защиты из-за особенностей иммунитета