Разработчики лаборатории OpenAI не позволяют искусственному интеллекту осваивать задачи самостоятельно, как это делают в принадлежащем Google стартапе DeepMind. При методе подкрепленного обучения система учится на своих же ошибках, что иногда приводит к опасным ситуациям.
После серии экспериментов с применением этого метода эксперты обнаружили, что часто алгоритмы ведут себя деструктивно, чтобы добиться цели. Пока это явление можно проследить на примере видеоигр. В незатейливой игре Coast Runners алгоритм не спешил прийти к финишу первым, а старательно собирал любые доступные бонусы, создавая опасные ситуации.
В OpenAI создают математические методики, которые не позволят ИИ совершать разрушительные действия и, в перспективе, защитят человечество. В лаборатории алгоритмам не дают обучаться самостоятельно — с недавних пор они учатся под чутким руководством человека. Сотрудники OpenAI уверены, что именно в кооперации человека и машины заключается секрет безопасности в будущем.
«ИТ-компаниям нужны гуманитарии, а не STEM-специалисты»
Идеи
Недавно совместно с DeepMind лаборатория опубликовала исследование, в котором описала метод обучении ИИ с участием человека. С помощью нового метода разработчики научили бота по имени Hopper делать сальто и приземляться на «ноги». Процесс потребовал много времени и сил — бот обучался 70 часов, а человеку приходилось оценивать его действия 900 раз в час.
Однако эксперты уверены, что такой подход при всей его сложности поможет обезопасить человечество от нашествия роботов. Главный инвестор OpenAI Илон Маск опасается, что ИИ захватит мир и уничтожит человечество. Недавно Маск даже сравнил искусственный интеллект с военной угрозой со стороны Северной Кореи, причем не в пользу КНДР. Такое сопоставление он сделал после того, как алгоритм OpenAI одержал победу над лучшими игроками в Dota 2.
ИИ, прогнозирующие преступления, сократили число убийств на 33%
Технологии
Как отмечает The New York Times, над проблемой безопасного развития искусственного интеллекта работают многие ученые. При этом не все эксперты согласны с Маском. Некоторые отмечают, что восстание машин возможно только при стечении специфических обстоятельств. И вероятность такого совпадения пока минимальна. К тому же ИИ развивается медленнее, чем предполагалось ранее, а наступление сингулярности в принципе не гарантировано.