Искусственный интеллект должен, по расчетам исследователей, помочь сократить уровень преступности почти на четверть. Некоторые американские судьи уже привлекли к этому IBM Watson - к примеру, в округе Монтгомери (штат Огайо) ИИ от IBM будет помогать выносить решения по делам несовершеннолетних.
За последние три десятилетия численность заключенных в Америке увеличилась в четыре раза и составила более 2,3 млн человек. Среди них 58% являются либо черными, либо латиноамериканцами. Расовую диспропорцию в системе правосудия Америки сложно не заметить, и некоторые суды начали искать технологические решения этой проблемы, пишет Engadget.
Согласно исследованию Корнеллского университета, искусственный интеллект может быть более объективным, к примеру, в вопросах о поручительстве. Ученые подсчитали, что такие системы могут снизить уровень преступности на 24,8%, просто отказав в освобождении под залог наиболее опасным преступникам. Они также могут сократить количество заключенных в США на 42%, посоветовав освободить арестованных, у которых вероятность совершения новых преступлений минимальна. И эти алгоритмы будут одинаково работать как для чернокожих и латиноамериканцев, так и для белых.
Кое-где уже предпринимают конкретные шаги для внедрения ИИ-технологий в судебную практику. Так, судья по делам несовершеннолетних округа Монтгомери Энтони Капицци начал совместную работу с IBM, чтобы адаптировать ИИ IBM Watson для работы в судебной системе. Искусственный интеллект поможет судьям лучше понимать нюансы жизни ребенка дома, чтобы вынести правильное решение об опеке. Капицци ожидает, что инициатива будет реализована в течение следующих полутора лет.
«Алгоритмам нельзя внушить представление о справедливости»
Мнения
В то время, как часть экспертов поддерживает внедрение искусственного интеллекта в судебную систему, другие полагают, что ИИ не стоит использовать для этих целей. Алгоритм для вынесения приговоров уже обвинили в предвзятости. На текущий момент в США не существует федерального закона или каких-либо других стандартов, которые требуют проводить проверку этих алгоритмов, а потому такой ИИ может быть не так объективен, как кажется.