Кейсы 6 июля 2017

Беспилотные автомобили способны совершать нравственный выбор

Далее

Исследование Института когнитивных наук при Оснабрюкском университете (Германия) утверждает, что беспилотники могут принимать основанные на нравственном выборе решение. Другими словами, что человеческую мораль можно смоделировать.

Участников эксперимента, который проходил в условиях виртуальной реальности, просили вести машину по улицам типичного пригорода в туманный день. Внезапно перед водителем вставал неизбежный выбор — ситуации, в которых он должен был принять решение, направить автомобиль на других людей, на животных или на неодушевленный объект.

Результаты обрабатывались в виде статистики. Оказалось, что принятые водителями в непредвиденных ситуациях решения можно легко объяснить и превратить в модель. По словам Леона Штюфельда, первого автора статьи, опубликованной в Frontiers in Behavioral Neuroscience, до сих пор считалось, что нравственный выбор сильно зависит от контекста и поэтому не может быть смоделирован или описан алгоритмически. «Но мы обнаружили нечто совершенно обратное. Поведение человека в затруднительной ситуации можно уместить в довольно простую модель ценности жизни, которая применяется участниками исследования к каждому человеку, животному и неодушевленному предмету». И этим алгоритмом может воспользоваться машина.

10 предсказаний писателей-фантастов, которые сбылись

Следующий шаг, по мнению ученых, заключается в том, чтобы привлечь общество к обсуждению серьезного вопроса: должны ли автономные системы машин перенимать моральные суждения людей и если да, то должны ли они поступать так, как поступают люди, должны ли придерживаться этических теорий и если да, то каких именно? И главное — если что-то пойдет не так, то кто будет виноват?

Например, если на дорогу выбежал ребенок, который создает серьезный риск для автомобиля и пассажиров, то должна ли система квалифицировать его как менее приоритетную для спасения цель, чем взрослого, стоящего на тротуаре и не мешающего движению?

Автономный транспорт, а также медицинские роботы и другие системы ИИ нуждаются в четких правилах поведения, и если не предоставить им таковых, они изобретут собственные без нашего участия, пишет EurekAlert.

Джек Ма: «Новые технологии могут спровоцировать Третью мировую»

О проблемах этики в связи с ИИ ученые и предприниматели задумываются не в первый раз. В декабре прошлого года институт IEEE опубликовал результаты дискуссии более сотни экспертов по ИИ и этике, которые обсудили вопросы нравственности в обучении машинного интеллекта. В январе этого года группа филантропов и специалистов в области ИТ сформировала фонд, призванный привнести в процесс разработки искусственного интеллекта вопросы морали и общечеловеческих ценностей.