Прогнозы: искусственного интеллекта стоит бояться

Ни один человек в здравом уме не хочет, чтобы искусственный интеллект вышел из-под контроля. Об опасностях такого сценария нас предупреждают Илон Маск, Стивен Хокинг, Билл Гейтс. Проблема в том, считает президент Q/Rrata Док Хьюстон, что нам неизвестны точные границы, выходить за которые опасно.

Базовая идея машинного обучения довольно проста. Вложи в компьютер достаточно примеров того, чему хочешь его научить, и обрубай все лишнее, чтобы правильный результат оказался статистически вероятным и был опознан как наилучшее решение.

Ситуация осложняется, когда речь заходит о более расплывчатых оценках. Например, ни один компьютер не может пока оценить качество или истинность выложенного в интернет материала, не может разобраться в нюансах человеческих диалогов. Но со временем машина научится распознавать оттенки смыслов, а вместе с ними — уровни сокрытия правды и тонкости обмана.

Это приведет к тому, что ИИ сможет не только изучить, но и дать оценку многовековой и не всегда приглядной истории человечества. И сделать собственные выводы.

Принимая это во внимание, организации по профилактике ИИ (OpenAI, The Future of Life Institute, Machine Intelligence Research Institute и др.) и сочувствующие им программисты надеются, что смогут как-то предотвратить формирование у ИИ негативного образа человека. Это сложная задача, ведь за тысячелетия истории мы развили множество противоречивых этических систем с расплывчатыми толкованиями. Сомнительно, что может быть написан такой код, который помог бы машине разобраться в этом. И который не мог бы быть взломан.

Другое соображение касается уже не технической, а политической стороны вопроса. Предположим, что удастся создать механизмы, сдерживающие развитие ИИ в определенных областях. Но какими бы благородными ни были намерения этих организаций, всегда найдутся правительства и военные структуры, которые захотят играть по своим правилам. Опыт противостояний XX века это подтверждает. Они будут пытаться изменить их под себя или сломать совсем, мотивируя это слоганом: «Если не мы, то они».

Основная проблема не в том, что мы не видим угрозы или имеем дурные намерения. Основная проблема где-то между высокомерием человеческой природы и наших общественных институтов. Перефразируя профессора Эдварда Осборна Уилсона, настоящая проблема человечества в том, что у нас варварские эмоции, средневековые институты и богоравные технологии.

Подписывайтесь
на наши каналы в Telegram

«Хайтек»новостионлайн

«Хайтек»Dailyновости 3 раза в день

Первая полоса
Клонированный хорек впервые родил здоровых детенышей
Наука
SpaceX испытает дозаправку ракеты на орбите, объявило НАСА
Космос
Открыта стремительно растущая черная дыра: она меняет представления ученых
Космос
На орбиту вывели первый спутник из дерева: зачем это нужно
Космос
Одно из библейских чудес Иисуса Христа объяснили
Наука
Биологи случайно нашли животное, которое стареет в обратном направлении
Новости
Ученые назвали вариант для идеального свидания: оно поможет сблизиться
Наука
Apple назвала дату выхода iOS 18.2 с ChatGPT 
Новости
Новые правила блокировки в соцсети Х разозлили пользователей
Новости
В России хотят запретить соцсети для подростков и детей: как это будет работать
Новости
Астрономы обнаружили загадочный объект, мерцающий как фейерверк
Космос
Ученые выяснили, как перерыв в тренировках влияет на силу
Наука
Посмотрите на самый южный действующий вулкан на Земле из космоса
Космос
Алгоритм MIT определяет причины и последствия в сложных системах
Наука
Искусственный интеллект ответит, кто победил на выборах в США
Новости
Разработан «фитнес-трекер» для отдельных клеток
Наука
В Национальном центре «Россия» открылся симпозиум «Создавая будущее»
Новости
Посмотрите на странные фото Земли из космоса с расстояния 2 млн километров
Космос
WhatsApp выкатил обновление: оно упростит работу с чатами
Новости
Следы темной материи можно найти на кухне: ученые рассказали, как это сделать
Наука