Кейсы 15 августа 2017

«Только кооперация ИИ с человеком предотвратит восстание машин»

Далее

Финансируемая Илоном Маском лаборатория OpenAI помогает искусственному интеллекту обучаться самостоятельно. Однако самообразование часто заставляет алгоритмы вести себя необдуманно и даже рискованно. Главная задача разработчиков компании - научить ИИ получать новые знания и навыки, но при этом держать его под контролем.

Разработчики лаборатории OpenAI не позволяют искусственному интеллекту осваивать задачи самостоятельно, как это делают в принадлежащем Google стартапе DeepMind. При методе подкрепленного обучения система учится на своих же ошибках, что иногда приводит к опасным ситуациям.

После серии экспериментов с применением этого метода эксперты обнаружили, что часто алгоритмы ведут себя деструктивно, чтобы добиться цели. Пока это явление можно проследить на примере видеоигр. В незатейливой игре Coast Runners алгоритм не спешил прийти к финишу первым, а старательно собирал любые доступные бонусы, создавая опасные ситуации.

В OpenAI создают математические методики, которые не позволят ИИ совершать разрушительные действия и, в перспективе, защитят человечество. В лаборатории алгоритмам не дают обучаться самостоятельно — с недавних пор они учатся под чутким руководством человека. Сотрудники OpenAI уверены, что именно в кооперации человека и машины заключается секрет безопасности в будущем.

«ИТ-компаниям нужны гуманитарии, а не STEM-специалисты»

Недавно совместно с DeepMind лаборатория опубликовала исследование, в котором описала метод обучении ИИ с участием человека. С помощью нового метода разработчики научили бота по имени Hopper делать сальто и приземляться на «ноги». Процесс потребовал много времени и сил — бот обучался 70 часов, а человеку приходилось оценивать его действия 900 раз в час.

Однако эксперты уверены, что такой подход при всей его сложности поможет обезопасить человечество от нашествия роботов. Главный инвестор OpenAI Илон Маск опасается, что ИИ захватит мир и уничтожит человечество. Недавно Маск даже сравнил искусственный интеллект с военной угрозой со стороны Северной Кореи, причем не в пользу КНДР. Такое сопоставление он сделал после того, как алгоритм OpenAI одержал победу над лучшими игроками в Dota 2.

ИИ, прогнозирующие преступления, сократили число убийств на 33%

Как отмечает The New York Times, над проблемой безопасного развития искусственного интеллекта работают многие ученые. При этом не все эксперты согласны с Маском. Некоторые отмечают, что восстание машин возможно только при стечении специфических обстоятельств. И вероятность такого совпадения пока минимальна. К тому же ИИ развивается медленнее, чем предполагалось ранее, а наступление сингулярности в принципе не гарантировано.