Новый алгоритм глубокого обучения, разработанный исследователями Массачусетского технологического института, учит системы искусственного интеллекта относиться к вводным данным скептически.
Команда из MIT объединила алгоритм обучения данными с глубокой нейронной сетью, которые используют, например, для обучения алгоритма игре в видеоигры.
Чтобы сделать системы искусственного интеллекта устойчивой к противоречащим данным, исследователи попытались внедрить защиту для контролируемого обучения.
Традиционно нейронная сеть обучается связывать определенные метки или действия с заданными входными данными. Например, нейронная сеть, которая получает тысячи изображений, помеченных как кошки, наряду с изображениями, помеченными как дома и хот-доги, должна правильно обозначить новое изображение как кошку.
В надежных системах искусственного интеллекта те же методы контролируемого обучения могут быть протестированы с частично измененными версиями изображения. Если сеть попадает на одну и ту же метку — кошка — есть высокий шанс, что изобращение и изменениями или без является кошкой.
Чтобы использовать нейронные сети в критических для безопасности сценариях, мы должны были выяснить, как принимать решения в реальном времени, основываясь на наихудших предположениях, объясняют авторы работы.
Поэтому команда стремилась опираться на еще одну форму машинного обучения, которая не требует связывания помеченных входных данных с выходными, а скорее направлена на усиление определенных действий в ответ на входные данные. Этот подход обычно используется для обучения компьютеров игре в шахматы и Го.
Авторы считают, что новый алгоритм CARRL может помочь роботам безопасно справляться с непредсказуемыми взаимодействиями в реальном мире.
Читать далее
Физики создали аналог черной дыры и подтвердили теорию Хокинга. К чему это приведет?
Алгоритм обнаружил новый таинственный слой внутри Земли
Из-за Солнца атмосфера Земли потеряет весь свободный кислород