;
Новости 16 декабря 2020

Алгоритм, основанный на человеческих ошибках, поможет в обучении ИИ

Далее

Исследователи из MIT создали алгоритм, способный определять цели и планы, даже если они могут потерпеть неудачу. Этот тип исследования улучшит работу вспомогательных технологий, роботов для совместной работы или ухода, а также цифровых помощников, таких как Siri и Alexa.

В классическом эксперименте психологов Феликса Варнекена и Майкла Томаселло над человеческим социальным интеллектом 18-месячный малыш наблюдает, как мужчина несет стопку книг к закрытому шкафу. Когда он подходит к шкафу, то несколько раз неуклюже стучит книгами о дверцу шкафа, затем издает озадаченный звук.

Затем происходит нечто удивительное: малыш предлагает помощь. Выявив цель человека, малыш подходит к шкафу и открывает его дверцы, позволяя мужчине поместить внутрь свои книги. Но как малыш с таким ограниченным жизненным опытом может сделать такой вывод?

Недавно компьютерные ученые перенаправили этот вопрос на компьютеры: как машины могут делать то же самое?

Критически важным компонентом для формирования такого понимания являются ошибки. Подобно тому, как малыш может сделать вывод о цели человека только на основании его неудач, машины, которые определяют цели человека, должны учитывать наши ошибочные действия и планы.

В стремлении воссоздать этот социальный интеллект в машинах исследователи из Лаборатории компьютерных наук и искусственного интеллекта Массачусетского технологического института (CSAIL) и Департамента мозговых и когнитивных наук создали алгоритм, способный определять цели и планы, даже если эти планы могут потерпеть неудачу.

Этот тип исследования в конечном итоге может быть использован для улучшения ряда вспомогательных технологий, роботов для совместной работы или ухода, а также цифровых помощников, таких как Siri и Alexa.

«Агент» и «наблюдатель» демонстрируют, как новый алгоритм MIT способен определять цели и планы, даже если эти планы могут потерпеть неудачу. Здесь агент составляет ошибочный план достижения синего драгоценного камня, который наблюдатель считает возможным. Предоставлено: Массачусетский технологический институт.

«Эта способность учитывать ошибки может иметь решающее значение для создания машин, которые надежно делают выводы и действуют в наших интересах, — объясняет Тан Чжи-Сюань, доктор философии, студент Массачусетского технологического института (MIT) и ведущий автор новой статьи об исследовании. — В противном случае системы ИИ могут ошибочно заключить, что, поскольку мы не смогли достичь наших целей более высокого порядка, эти цели в конце концов были нежелательными».

Для создания своей модели команда использовала Gen, новую платформу программирования ИИ, недавно разработанную в MIT, для объединения символического планирования ИИ с байесовским выводом. Байесовский вывод обеспечивает оптимальный способ объединения неопределенных убеждений с новыми данными и широко используется для оценки финансовых рисков, диагностического тестирования и прогнозирования выборов.

При создании алгоритма «Последовательный поиск обратного плана (SIPS)» ученых вдохновил общий способ человеческого планирования, который в значительной степени неоптимален. Человек может не планировать все заранее, а скорее формировать частичные планы, выполнять их и, исходя из новых результатов, снова строить планы. Хотя это может привести к ошибкам из-за недостаточного обдумывания «заранее», такой тип мышления снижает когнитивную нагрузку.

Ученые надеются, что их исследование заложит новые философские и концептуальные основы, необходимые для создания машин, которые действительно понимают человеческие цели, планы и ценности. Новый базовый подход моделирования людей как несовершенных мыслителей кажется инженерам очень многообещающим. 

Читать также

В Андах нашли 20 новых видов животных и растений

В космосе есть магистрали для быстрых перемещений. Как изменятся полеты?

Названо растение, которому не страшно изменение климата. Им питается миллиард человек

Загрузка...