Прогнозы: искусственного интеллекта стоит бояться

Ни один человек в здравом уме не хочет, чтобы искусственный интеллект вышел из-под контроля. Об опасностях такого сценария нас предупреждают Илон Маск, Стивен Хокинг, Билл Гейтс. Проблема в том, считает президент Q/Rrata Док Хьюстон, что нам неизвестны точные границы, выходить за которые опасно.

Базовая идея машинного обучения довольно проста. Вложи в компьютер достаточно примеров того, чему хочешь его научить, и обрубай все лишнее, чтобы правильный результат оказался статистически вероятным и был опознан как наилучшее решение.

Ситуация осложняется, когда речь заходит о более расплывчатых оценках. Например, ни один компьютер не может пока оценить качество или истинность выложенного в интернет материала, не может разобраться в нюансах человеческих диалогов. Но со временем машина научится распознавать оттенки смыслов, а вместе с ними — уровни сокрытия правды и тонкости обмана.

Это приведет к тому, что ИИ сможет не только изучить, но и дать оценку многовековой и не всегда приглядной истории человечества. И сделать собственные выводы.

Принимая это во внимание, организации по профилактике ИИ (OpenAI, The Future of Life Institute, Machine Intelligence Research Institute и др.) и сочувствующие им программисты надеются, что смогут как-то предотвратить формирование у ИИ негативного образа человека. Это сложная задача, ведь за тысячелетия истории мы развили множество противоречивых этических систем с расплывчатыми толкованиями. Сомнительно, что может быть написан такой код, который помог бы машине разобраться в этом. И который не мог бы быть взломан.

Другое соображение касается уже не технической, а политической стороны вопроса. Предположим, что удастся создать механизмы, сдерживающие развитие ИИ в определенных областях. Но какими бы благородными ни были намерения этих организаций, всегда найдутся правительства и военные структуры, которые захотят играть по своим правилам. Опыт противостояний XX века это подтверждает. Они будут пытаться изменить их под себя или сломать совсем, мотивируя это слоганом: «Если не мы, то они».

Основная проблема не в том, что мы не видим угрозы или имеем дурные намерения. Основная проблема где-то между высокомерием человеческой природы и наших общественных институтов. Перефразируя профессора Эдварда Осборна Уилсона, настоящая проблема человечества в том, что у нас варварские эмоции, средневековые институты и богоравные технологии.

Подписывайтесь
на наши каналы в Telegram

«Хайтек»новостионлайн

«Хайтек»Dailyновости 3 раза в день

Первая полоса
«Облако Судного дня» пронеслось над США: что это было
Наука
Посмотрите на Марс перед рассветом: почему это очень редкий пейзаж
Космос
Этот робот собирает кубик Рубика быстрее, чем моргает человек
Новости
Сильнейшая солнечная буря произошла в конце последнего ледникового периода
Космос
Пароль зашифровали внутри молекулы: это альтернатива для хранения данных
Наука
Орангутаны используют сложную структуру речи: считалось, что так могут только люди
Наука
Молодая звезда стремительно тяжелеет: набирает массу двух юпитеров ежегодно
Космос
Врачи с помощью CRISPR «переписали ДНК» ребенка с редким заболеванием
Наука
Разработан чип, похожий на мозг, который позволит роботам видеть и думать
Наука
Почему мы до сих пор не нашли инопланетян: ученые нашли объяснение
Космос
Этот грибок захватит планету к концу столетия: в зоне риска 10 млн человек
Наука
Посмотрите на космическую радугу в зодиакальном свете на небе
Космос
Ученые объяснили необычную активность в недрах Луны
Космос
Мошенники начали использовать схему с самозапретом на кредиты 
Новости
Дуров заплатит $50 000 за вирусный ролик о превосходстве Telegram над WhatsApp
Новости
НАСА починило двигатели «Вояджера-1», которые вышли из строя 21 год назад
Космос
ИИ-агенты формируют собственные социальные нормы без помощи человека
Наука
Мозг мышей увеличился на 6,5%, когда им ввели крошечную часть ДНК человека
Наука
Археологи нашли первую «тату-студию» майя в пещере в Белизе
Наука
Российский алгоритм оптимизирует пропускную способность дорог
Наука