Системы с ИИ уже сейчас вызывают опасения, особенно те, которые способны управлять другими машинами. Многие ученые занимают осторожную позицию в отношении сверхразумного и неконтролируемого ИИ. Международная группа исследователей, используя теоретические расчеты, доказала, что управлять сверхразумным ИИ попросту будет невозможно.
Предположим, кто-то должен запрограммировать систему искусственного интеллекта с интеллектом, превосходящим человеческий, чтобы она могла учиться независимо от человека. Тогда подключенный к интернету ИИ получит доступ ко всем данным человечества. Он также сможет заменить все существующие программы и взять под контроль все машины по всему миру. Произойдет ли эта утопия или антиутопия? Сможет ли ИИ вылечить рак, установить мир во всем мире и предотвратить климатическую катастрофу? Или уничтожит человечество и захватит Землю?
Ученые-информатики и философы задаются вопросом: сможем ли мы вообще управлять сверхразумным ИИ, чтобы гарантировать, что он не будет представлять угрозу для человечества.
«Сверхразумная машина, которая управляет миром, звучит как научная фантастика. Но уже есть машины, которые выполняют определенные важные задачи полностью независимо, при этом программисты до конца не понимают, как они этому научились. Поэтому возникает вопрос, может ли это в какой-то момент стать неконтролируемым и опасным для человечества», — говорит соавтор исследования Мануэль Себриан, руководитель группы цифровой мобилизации в Центре людей и машин Института развития человека Макса Планка.
Ученые исследовали две разные идеи того, как можно управлять сверхразумным ИИ. С одной стороны, возможности сверхразумного ИИ можно было бы конкретно ограничить, например, отгородив его от интернета и всех других технических устройств, чтобы он не мог контактировать с внешним миром, но это сделало бы сверхразумный ИИ значительно менее мощным и менее способным отвечать на гуманитарные задания. Не имея такой возможности, ИИ с самого начала мог бы быть мотивирован преследовать только цели, отвечающие интересам человечества, например, запрограммировав в него этические принципы. Однако исследователи также показывают, что эти и другие современные и исторические идеи по управлению сверхразумным ИИ имеют свои пределы.
В своем исследовании команда разработала теоретический алгоритм сдерживания, который гарантирует, что сверхразумный ИИ не сможет причинить вред людям ни при каких обстоятельствах, сначала моделируя поведение ИИ и останавливая его, если он считается вредным. Но тщательный анализ показывает, что в нашей нынешней парадигме вычислений такой алгоритм не может быть построен.
«Если разложить проблему на основные правила теоретической информатики, окажется, что алгоритм, который приказал бы ИИ не разрушать мир, может непреднамеренно остановить свои собственные операции. Если бы это произошло, вы бы не знали, будет ли алгоритм сдерживания все еще анализировать угрозу, и остановил ли он ее для сдерживания вредоносного ИИ. По сути, это делает алгоритм сдерживания непригодным для использования», — говорит Ияд Рахван, директор Центра людей и машин.
На основе этих расчетов проблема сдерживания невыполнима, то есть ни один алгоритм не сможет найти решение для определения того, причинит ли ИИ вред миру или нет.
Читайте также
Минздрав Аргентины раскрыл данные о побочных эффектах у получивших «Спутник V»
Утконос оказался генетической смесью млекопитающих, птиц и рептилий