Мнения 22 февраля 2017

«ИИ пока рано считать угрозой»

Далее

Предприниматель Илон Маск, филантроп Билл Гейтс, физик Стивен Хокинг и футуролог Ник Бостром - все они считают, что искусственный интеллект несет человечеству угрозу. Но колумнист Scientific American Майкл Шермер уверен, что опасения пока напрасны, потому что любой сценарий восстания машин допускает слишком много “если”.

Шермер приводит хрестоматийный пример о будущем ИИ из книги «Суперинтеллект» футуролога Ника Бострома. Если искусственный интеллект запрограммировать на производство скрепок, то когда у него закончатся материалы, он начнет использовать для производства любые атомы в зоне доступа, включая людей. Сперва ИИ превратит Землю в огромную фабрику скрепок, а затем начнет осваивать и космос, до тех пор пока вся Вселенная не будет состоять из скрепок и станков по их выпуску.

Этот антиутопичный сценарий, как и другие ему подобные, оставляет слишком много допущений, считает Шермер. Если хотя бы один пункт не будет выполнен, то весь сценарий апокалипсиса развалится на части. Скепсис разделяют и некоторые ученые. Один из них — профессор по электронной инженерии Алан Уинфилд из Университета Западной Англии. По его мнению, проблема возникнет, только если ИИ осознает принцип своей работы, усовершенствует себя до уровня сверхинтеллекта, начнет потреблять все доступные ресурсы, а человечество при этом никак не среагирует. «Риск возможен, но маловероятен», — пишет Уинфилд.

Ученые нашли доказательства того, что Вселенная — это голограмма

Второй аргумент против апокалипсиса машин — это темпы развития ИИ. Технология развивается медленнее, чем предполагалось, поэтому люди с легкостью могут проверять состояние ИИ на каждом этапе. Корреспондент цитирует председателя совета директоров Alphabet Эрика Шмидта: «Неужели вы думаете, что люди не заметят происходящего? И неужели вы полагаете, что люди не отключат компьютеры?» Принадлежащий Google стартап DeepMind уже разрабатывает концепцию «выключателя» для ИИ.

Другой эксперт — вице-президент Baidu и специалист по машинному обучению Эндрю Ын — тоже не поддерживает беспокойства Маска, Хокинга и Бострома. «Это похоже на беспокойство по поводу перенаселенности Марса, когда на планету еще не ступала нога человека».

Марк Цукерберг представил новый план «спасения мира»

Все сценарии конца света по вине ИИ строятся на ложном убеждении, будто естественный интеллект и искусственный интеллект аналогичны друг другу. Эксперт по экспериментальной психологии Стивен Пинкер из Гарвардского университета считает, что многие переносят на ИИ психологию альфа-самца, который захочет свергнуть своих хозяев и захватить мир. Искусственный интеллект вполне может развиваться по «женскому» сценарию и мирно решать проблемы. Еще одна странная черта, которую приписывают ИИ, — это наличие воли.

Более того, за всю историю ни один апокалиптический прогноз не сбылся, поэтому ждать, что ИИ приведет к концу света неразумно, заключает Майкл Шермер.

«Через 10 лет спрос на гуманитариев резко возрастет»

Несмотря на это, обитатели Кремниевой долины уже начали готовиться к концу света, который может быть вызван как глобальной технологической катастрофой, так и гражданскими восстаниями. Миллиардеры и основатели стартапов закупают недвижимость в Новой Зеландии, запасают консервы и учатся стрелять из лука, так как пока не знают, с какой именно стороны ожидать угрозы и какую форму она примет.