Прогнозы: искусственного интеллекта стоит бояться

Ни один человек в здравом уме не хочет, чтобы искусственный интеллект вышел из-под контроля. Об опасностях такого сценария нас предупреждают Илон Маск, Стивен Хокинг, Билл Гейтс. Проблема в том, считает президент Q/Rrata Док Хьюстон, что нам неизвестны точные границы, выходить за которые опасно.

Базовая идея машинного обучения довольно проста. Вложи в компьютер достаточно примеров того, чему хочешь его научить, и обрубай все лишнее, чтобы правильный результат оказался статистически вероятным и был опознан как наилучшее решение.

Ситуация осложняется, когда речь заходит о более расплывчатых оценках. Например, ни один компьютер не может пока оценить качество или истинность выложенного в интернет материала, не может разобраться в нюансах человеческих диалогов. Но со временем машина научится распознавать оттенки смыслов, а вместе с ними — уровни сокрытия правды и тонкости обмана.

Это приведет к тому, что ИИ сможет не только изучить, но и дать оценку многовековой и не всегда приглядной истории человечества. И сделать собственные выводы.

Принимая это во внимание, организации по профилактике ИИ (OpenAI, The Future of Life Institute, Machine Intelligence Research Institute и др.) и сочувствующие им программисты надеются, что смогут как-то предотвратить формирование у ИИ негативного образа человека. Это сложная задача, ведь за тысячелетия истории мы развили множество противоречивых этических систем с расплывчатыми толкованиями. Сомнительно, что может быть написан такой код, который помог бы машине разобраться в этом. И который не мог бы быть взломан.

Другое соображение касается уже не технической, а политической стороны вопроса. Предположим, что удастся создать механизмы, сдерживающие развитие ИИ в определенных областях. Но какими бы благородными ни были намерения этих организаций, всегда найдутся правительства и военные структуры, которые захотят играть по своим правилам. Опыт противостояний XX века это подтверждает. Они будут пытаться изменить их под себя или сломать совсем, мотивируя это слоганом: «Если не мы, то они».

Основная проблема не в том, что мы не видим угрозы или имеем дурные намерения. Основная проблема где-то между высокомерием человеческой природы и наших общественных институтов. Перефразируя профессора Эдварда Осборна Уилсона, настоящая проблема человечества в том, что у нас варварские эмоции, средневековые институты и богоравные технологии.

Подписывайтесь
на наши каналы в Telegram

«Хайтек»новостионлайн

«Хайтек»Dailyновости 3 раза в день

Первая полоса
Названы специалисты, которых действительно не хватает в ИТ-сфере
Новости
Google раскрыла уязвимость в процессорах AMD: какие из них затронуты
Новости
Трамп придумал, как сохранить TikTok в США
Новости
Появился первый вирус для кражи данных с фото в iPhone
Новости
Шимпанзе используют разные диалекты для общения с самками
Наука
Tesla запустит беспилотные такси с роботами для уборки салона
Новости
Говорят ли женщины больше мужчин, проверили ученые
Наука
Закон Евросоюза позволил обойти запрет Apple на фильмы для взрослых
Новости
Ученые выяснили, на каком расстоянии инопланетяне заметят жизнь на Земле
Космос
На Марсе нашли «сейсмическое шоссе»: оно распространяет марсотрясения
Космос
Ледяной щит Гренландии разрушается быстрее, чем считалось
Наука
В Калтехе создали «умные» биосенсоры для непрерывного мониторинга здоровья
Новости
Немецкие инженеры создали «искусственные жабры» для глубоководных роботов
Наука
Уязвимость DeepSeek R1: китайский ИИ провалил 100% тестов на безопасность
Новости
Под Северным морем нашли гигантский след древнего ледника
Наука
Deep Research от OpenAI набрал рекордный балл в «Последнем экзамене человечества»
Новости
Глава OpenAI публично высказался после запуска DeepSeek
Новости
В России запустят в серийное производство контроллеры «ПЛК-Эльбрус»  
Новости
Гнев может повысить креативность, но с оговорками: новое исследование  
Новости
Только 10% людей могут управлять этими мышцами: как они работают
Наука