Исследователи из MIT создали алгоритм, способный определять цели и планы, даже если они могут потерпеть неудачу. Этот тип исследования улучшит работу вспомогательных технологий, роботов для совместной работы или ухода, а также цифровых помощников, таких как Siri и Alexa.
В классическом эксперименте психологов Феликса Варнекена и Майкла Томаселло над человеческим социальным интеллектом 18-месячный малыш наблюдает, как мужчина несет стопку книг к закрытому шкафу. Когда он подходит к шкафу, то несколько раз неуклюже стучит книгами о дверцу шкафа, затем издает озадаченный звук.
Затем происходит нечто удивительное: малыш предлагает помощь. Выявив цель человека, малыш подходит к шкафу и открывает его дверцы, позволяя мужчине поместить внутрь свои книги. Но как малыш с таким ограниченным жизненным опытом может сделать такой вывод?
Недавно компьютерные ученые перенаправили этот вопрос на компьютеры: как машины могут делать то же самое?
Критически важным компонентом для формирования такого понимания являются ошибки. Подобно тому, как малыш может сделать вывод о цели человека только на основании его неудач, машины, которые определяют цели человека, должны учитывать наши ошибочные действия и планы.
В стремлении воссоздать этот социальный интеллект в машинах исследователи из Лаборатории компьютерных наук и искусственного интеллекта Массачусетского технологического института (CSAIL) и Департамента мозговых и когнитивных наук создали алгоритм, способный определять цели и планы, даже если эти планы могут потерпеть неудачу.
Этот тип исследования в конечном итоге может быть использован для улучшения ряда вспомогательных технологий, роботов для совместной работы или ухода, а также цифровых помощников, таких как Siri и Alexa.
«Эта способность учитывать ошибки может иметь решающее значение для создания машин, которые надежно делают выводы и действуют в наших интересах, — объясняет Тан Чжи-Сюань, доктор философии, студент Массачусетского технологического института (MIT) и ведущий автор новой статьи об исследовании. — В противном случае системы ИИ могут ошибочно заключить, что, поскольку мы не смогли достичь наших целей более высокого порядка, эти цели в конце концов были нежелательными».
Для создания своей модели команда использовала Gen, новую платформу программирования ИИ, недавно разработанную в MIT, для объединения символического планирования ИИ с байесовским выводом. Байесовский вывод обеспечивает оптимальный способ объединения неопределенных убеждений с новыми данными и широко используется для оценки финансовых рисков, диагностического тестирования и прогнозирования выборов.
При создании алгоритма «Последовательный поиск обратного плана (SIPS)» ученых вдохновил общий способ человеческого планирования, который в значительной степени неоптимален. Человек может не планировать все заранее, а скорее формировать частичные планы, выполнять их и, исходя из новых результатов, снова строить планы. Хотя это может привести к ошибкам из-за недостаточного обдумывания «заранее», такой тип мышления снижает когнитивную нагрузку.
Ученые надеются, что их исследование заложит новые философские и концептуальные основы, необходимые для создания машин, которые действительно понимают человеческие цели, планы и ценности. Новый базовый подход моделирования людей как несовершенных мыслителей кажется инженерам очень многообещающим.
Читать также
В Андах нашли 20 новых видов животных и растений
В космосе есть магистрали для быстрых перемещений. Как изменятся полеты?
Названо растение, которому не страшно изменение климата. Им питается миллиард человек