Система Deep Mind научилась самостоятельно двигаться по лабиринту и заходить в помещения. При этом она не имела доступа к коду цифрового мира, а использовала свое «видение», совсем как человек.
Лабиринт был создан по принципу видеоигры. DeepMind должна была искать яблоки и порталы и получала за это очки. Задача системы — набрать максимальное количество очков за минуту. Для этого эксперимента была использована нейронная сеть, которая использует так называемое асинхронное подкрепленное обучение. Иными словами, DeepMind учится методом проб и ошибок и может делать выводы на основе своего опыта, но только в рамках одного конкретного сеанса. Пока что асинхронный метод не позволяет анализировать все прошлые сценарии, пройденные системой, а ищет наиболее эффективный выход в каждом отдельном случае.
В прошлом году метод подкрепленного обучения позволил DeepMind успешно проходить классические игры Atari. Теперь система готова к новым игровым свершениям и вполне может проходить игры, сопоставимые по сложности с Doom и GoldenEye 007.
Google приобрела небольшой лондонский стартап DeepMind в 2014 году. DeepMind специализируется на исследованиях в области искусственного интеллекта и алгоритмах машинного обучения.