Подразделения компании Alphabet по исследованию искусственного интеллекта разработало алгоритм AlphaGo в 2014 году. С тех пор ИИ победил лучших игроков в го и одержал 60 побед на двух китайских онлайн-платформах с настольными играми FoxGo и Tygem. Алгоритм состоит из двух нейросетей, которые имитируют работу нейронов в мозге.
Теперь исследователи представили новую AlphaGo — инженеры создали нейросеть, которая, в отличие от предшественника, обучалась не на базе знаний о стратегиях игры, а принимала решения с нуля — без каких-либо знаний кроме правил.
Играя с добровольцами, система анализировала все свои и чужие ходы и постепенно сама выстраивала стратегии и комбинации.
Люди учились играть в шахматы, го, сёги и многие другие игры сотни и тысячи лет. AlphaZero самостоятельно достигла вершин мастерства во всех этих играх без какой-либо помощи с нашей стороны. Моя мечта — создать такую же систему, которая бы не просто умела играть, но и решать повседневные задачи, к примеру, создавала бы новые лекарства.
Дэвид Сильвер, DeepMind
Ранее сообщалось, что DeepMind намерен использовать знания AlphaGo для поиска лекарств от тяжелых болезней, сокращения потребления электроэнергии и разработки новых революционных материалов.