Ученые из Университета Хартфордшира в Великобритании разработали концепцию “Расширение возможностей” (Empowerment), чтобы помочь роботам и людям работать и жить бок о бок безопасно и эффективно, пишет EurekAlert
Группа ученых из британского Университета Хартфордшира уже несколько лет работает над этической концепцией для роботов. Первый ее вариант вышел в 2005 году, но к настоящему моменту исследователи существенно доработали концепцию, которую они назвали «Расширение возможностей». По сути это облеченные в форму программного кода три закона робототехники знаменитого писателя-фантаста Айзека Азимова. Они были сформулированы еще в 1942 году и гласят, что 1) робот не может навредить человеку или позволить человеку пострадать, 2) роботы должны подчиняться приказам людей и 3) защищать свое существование, если это не наносит вреда человеку.
Проблема в том, что понятие «вреда» крайне противоречиво. Сам Азимов в своих произведениях постоянно ставил роботов перед таким выбором, когда стремление подчиняться и не навредить человеку приводило к катастрофическим последствиям. В нашей реальности вскоре может возникнуть, например, такая дилемма. Как запрограммировать беспилотный автомобиль так, чтобы он делал адекватный выбор между сохранением себя и людей в салоне от повреждений и безопасностью пешеходов или людей в других автомобилях? Чьи жизни ему спасать: своих хозяев и пассажиров или ребенка, выбежавшего на дорогу?
Умная колонка вызвала полицию во время семейной ссоры
Кейсы
Британские исследователи попытались ответить на эти непростые вопросы, предоставив роботам большую свободу выбора. Их концепция, облеченная в форму математической модели, не напрягает машины сложными этическими вопросами. Вместо этого в алгоритм закладывается несколько вариантов дальнейших действий.
Основным условием остается ненанесение вреда человеку. Поэтому простейший бытовой робот в случае возникновения нештатной ситуации просто отправится на станцию подзарядки, отказавшись от каких-либо активных действий. Более сложные роботизированные механизмы, по замыслу авторов концепции, должны обращаться за решением этической проблемы к своим хозяевам-людям. Предполагается записать в алгоритм искусственного интеллекта закон о том, что высшим приоритетом является не сохранение жизни и здоровья человека любой ценой, а защита его права на выбор. «Мы не хотим, чтобы роботы были подчинены непреложному закону безопасности людей, нам хочется жить в мире, где роботы охраняют наше право на выбор», — объясняет Кристоф Солдж, один из авторов этической модели для роботов.
В США построят первую мини-АЭС
Идеи
Концепция первого в мире закона о робототехнике была разработана в России. Согласно ей, роботы не могут быть самостоятельными субъектами права, каковыми являются только люди. Права и обязанности искусственного интеллекта будут схожи с теми, какими обладают юридические лица и животные.