Исследование Института когнитивных наук при Оснабрюкском университете (Германия) утверждает, что беспилотники могут принимать основанные на нравственном выборе решение. Другими словами, что человеческую мораль можно смоделировать.
Участников эксперимента, который проходил в условиях виртуальной реальности, просили вести машину по улицам типичного пригорода в туманный день. Внезапно перед водителем вставал неизбежный выбор — ситуации, в которых он должен был принять решение, направить автомобиль на других людей, на животных или на неодушевленный объект.
Результаты обрабатывались в виде статистики. Оказалось, что принятые водителями в непредвиденных ситуациях решения можно легко объяснить и превратить в модель. По словам Леона Штюфельда, первого автора статьи, опубликованной в Frontiers in Behavioral Neuroscience, до сих пор считалось, что нравственный выбор сильно зависит от контекста и поэтому не может быть смоделирован или описан алгоритмически. «Но мы обнаружили нечто совершенно обратное. Поведение человека в затруднительной ситуации можно уместить в довольно простую модель ценности жизни, которая применяется участниками исследования к каждому человеку, животному и неодушевленному предмету». И этим алгоритмом может воспользоваться машина.
10 предсказаний писателей-фантастов, которые сбылись
Кейсы
Следующий шаг, по мнению ученых, заключается в том, чтобы привлечь общество к обсуждению серьезного вопроса: должны ли автономные системы машин перенимать моральные суждения людей и если да, то должны ли они поступать так, как поступают люди, должны ли придерживаться этических теорий и если да, то каких именно? И главное — если что-то пойдет не так, то кто будет виноват?
Например, если на дорогу выбежал ребенок, который создает серьезный риск для автомобиля и пассажиров, то должна ли система квалифицировать его как менее приоритетную для спасения цель, чем взрослого, стоящего на тротуаре и не мешающего движению?
Автономный транспорт, а также медицинские роботы и другие системы ИИ нуждаются в четких правилах поведения, и если не предоставить им таковых, они изобретут собственные без нашего участия, пишет EurekAlert.
Джек Ма: «Новые технологии могут спровоцировать Третью мировую»
Мнения
О проблемах этики в связи с ИИ ученые и предприниматели задумываются не в первый раз. В декабре прошлого года институт IEEE опубликовал результаты дискуссии более сотни экспертов по ИИ и этике, которые обсудили вопросы нравственности в обучении машинного интеллекта. В январе этого года группа филантропов и специалистов в области ИТ сформировала фонд, призванный привнести в процесс разработки искусственного интеллекта вопросы морали и общечеловеческих ценностей.