Прогнозы: искусственного интеллекта стоит бояться

Ни один человек в здравом уме не хочет, чтобы искусственный интеллект вышел из-под контроля. Об опасностях такого сценария нас предупреждают Илон Маск, Стивен Хокинг, Билл Гейтс. Проблема в том, считает президент Q/Rrata Док Хьюстон, что нам неизвестны точные границы, выходить за которые опасно.

Базовая идея машинного обучения довольно проста. Вложи в компьютер достаточно примеров того, чему хочешь его научить, и обрубай все лишнее, чтобы правильный результат оказался статистически вероятным и был опознан как наилучшее решение.

Ситуация осложняется, когда речь заходит о более расплывчатых оценках. Например, ни один компьютер не может пока оценить качество или истинность выложенного в интернет материала, не может разобраться в нюансах человеческих диалогов. Но со временем машина научится распознавать оттенки смыслов, а вместе с ними — уровни сокрытия правды и тонкости обмана.

Это приведет к тому, что ИИ сможет не только изучить, но и дать оценку многовековой и не всегда приглядной истории человечества. И сделать собственные выводы.

Принимая это во внимание, организации по профилактике ИИ (OpenAI, The Future of Life Institute, Machine Intelligence Research Institute и др.) и сочувствующие им программисты надеются, что смогут как-то предотвратить формирование у ИИ негативного образа человека. Это сложная задача, ведь за тысячелетия истории мы развили множество противоречивых этических систем с расплывчатыми толкованиями. Сомнительно, что может быть написан такой код, который помог бы машине разобраться в этом. И который не мог бы быть взломан.

Другое соображение касается уже не технической, а политической стороны вопроса. Предположим, что удастся создать механизмы, сдерживающие развитие ИИ в определенных областях. Но какими бы благородными ни были намерения этих организаций, всегда найдутся правительства и военные структуры, которые захотят играть по своим правилам. Опыт противостояний XX века это подтверждает. Они будут пытаться изменить их под себя или сломать совсем, мотивируя это слоганом: «Если не мы, то они».

Основная проблема не в том, что мы не видим угрозы или имеем дурные намерения. Основная проблема где-то между высокомерием человеческой природы и наших общественных институтов. Перефразируя профессора Эдварда Осборна Уилсона, настоящая проблема человечества в том, что у нас варварские эмоции, средневековые институты и богоравные технологии.

Подписывайтесь
на наши каналы в Telegram

«Хайтек»новостионлайн

«Хайтек»Dailyновости 3 раза в день

Первая полоса
Найден необычный способ бороться с хроническим стрессом
Наука
Посмотрите на самый редкий торнадо, который пронесся над США
Наука
Над Землей пролетел астероид, который вращался быстрее всех остальных
Космос
Ученые показали лицо женщины, которая жила 75 000 лет назад
Наука
Анализ генов показал, как древние водоросли вышли на поверхность планеты
Наука
Древняя технология поможет вырастить растения на Марсе, считают ученые
Космос
Физики из MIT добились рекордной близости между атомами для квантовых исследований
Наука
В Германии на ветряную электростанцию впервые установили деревянные лопасти
Новости
Инженеры разработали искусственную пиявку для безболезненного забора крови у детей
Наука
Solar Orbiter запечатлел «пушистую» корону Солнца в завораживающих деталях
Космос
Китай отправляет миссию на обратную сторону Луны: как смотреть онлайн
Космос
ИИ нашел асимметрию материи и антиматерии на Большом адронном коллайдере
Наука
TikTok вернулся в Россию? Что известно прямо сейчас
Новости
В Японии разработали устройство 6G, которое передает данные со скоростью 100 Гбит/с
Новости
Климатологи объяснили формирование в Антарктиде полыньи размером с Чехию
Наука
Частые кризисы повысили способность человечества выживать
Наука
Физики наблюдали кота Шредингера — превращение атомов из частиц в волну
Наука
Найдена самая глубокая дыра в мире
Наука
«Вышка» заряжает карьеру в IT
Технологии
Ученые создали клей, который работает как паутина Человека-паука (почти)
Наука