Исследователи из Массачусетского технологического института (MIT) показали, что вопреки распространенному мнению, роботов и ИИ-агентов не обязательно нужно обучать в условиях, максимально приближенных к реальным для достижения лучшего результата. Это открытие может изменить существующие подходы к тренировке роботизированных систем.
Феномен, который исследователи называют «эффектом тренировок в помещении», показывает, что ИИ-агенты, обученные в среде с минимальным уровнем неопределенности, впоследствии лучше справляются с задачами в сложных реальных условиях. Для подтверждения теории ученые использовали модифицированные версии классических видеоигр Atari, добавив в них элементы непредсказуемости.
Это похоже на обучение теннису в закрытом помещении. Когда мы осваиваем технику в идеальных условиях, у нас больше шансов успешно играть на ветру, чем если бы мы сразу начали тренироваться при сложных погодных условиях.
Серена Боно, соавтор исследования из MIT Media Lab
Ученые обнаружили, что эффективность метода зависит от того, как ИИ исследует тренировочное пространство. Если агенты изучают схожие области, то обученный в «тихой» среде показывает лучшие результаты, вероятно, потому что ему проще усвоить базовые правила без помех.
Это открытие может иметь широкое практическое применение — от разработки домашних роботов до создания промышленных систем автоматизации. Команда планирует продолжить исследования, чтобы проверить, как этот эффект проявляется в более сложных средах и других областях ИИ, включая компьютерное зрение и обработку естественного языка.
Результаты исследования будут представлены на конференции Ассоциации по развитию искусственного интеллекта.
Читать далее:
89 секунд до ядерной войны: почему «Часы Судного дня» только что перевели на рекордное время
Пациент со свиной почкой впервые прожил больше двух месяцев
Посмотрите, как сверхзвуковой самолет Boom Supersonic преодолел звуковой барьер
Иллюстрация на обложке: Jose-Luis Olivares, MIT