Мнения

Стивен Хокинг: глобальная технологическая катастрофа неизбежна

Далее

Знаменитый астрофизик уверен - неконтролируемое технологическое развитие, на пороге которого мир находится сегодня, рано или поздно приведет к глобальной катастрофе. Причем человечество пока просто не понимает, откуда на самом деле может исходить реальная угроза, а потому будет не готово ей эффективно противостоять.

74-летний Стивен Хокинг дал интервью британским журналистам в рамках подготовки к эфиру радиопрограммы об открытии им в соавторстве с Малкольмом Перри и Эндрю Строминжером так называемых мягких волос у черных дыр. Программа выйдет в эфире радиостанции BBC Radio 4 двумя частями — 26 января и 2 февраля. Однако ее анонс уже вызвал ажиотаж в мировых СМИ.

Говоря о стремительном развитии технологий и научного прогресса, профессор Хокинг заявил, что катастрофа, причиной которой станет неконтролируемое технологическое развитие, практически неизбежна. Среди возможных сценариев — ядерная война, глобальное потепление или эпидемия, вызванная сконструированным биоинженерами вирусом. Это наиболее вероятный список угроз сегодня, по мнению Хокинга, но с каждым годом он будет расширяться.

«Вероятность подобной катастрофы на Земле в ближайший год можно оценить как невысокую, но эта вероятность будет расти с каждым годом и станет неизбежной в ближайшие тысячу или десять тысяч лет», — заявил ученый.

Поэтому, считает Хокинг, ключевой задачей должно стать расселение землян по другим планетам и даже звездным системам — их колонизация. «Только в этом случае катастрофа на Земле не будет означать конца человеческой расы, — уверен профессор. — А так как мы пока не можем создавать автономные колонии в космосе, по крайней мере в ближайшие сто лет мы должны быть очень осторожны (с технологическим прогрессом) в этот период».

«Мы не остановим прогресс и не обернём его ход вспять, поэтому мы должны понимать те опасности, что существуют, и контролировать их. Я оптимист, и я уверен — мы способны на это», — сказал Хокинг.

По мнению Хокинга, противостоять технологическим угрозам можно.

«Важно следить за тем, чтобы прогресс шел в правильном направлении. В демократическом обществе это означает, что каждый должен иметь базовое представление о науке, чтобы принимать правильные решения об общем будущем», — пояснил ученый.

Это не первое предупреждение Хокинга об опасностях, которые таит технологический прогресс. Ранее ученый заявил о высокой степени вероятности выхода из под контроля человека искусственного интеллекта, если работы в этой области не будут вестись с большой предосторожностью. Аналогичной позиции придерживается и известный инноватор Илон Маск, считающий, что развитие технологий происходит сегодня настолько быстро, что человечество рискует в любой момент потерять над ними контроль.

Загрузка...