Прогнозы: искусственного интеллекта стоит бояться

Ни один человек в здравом уме не хочет, чтобы искусственный интеллект вышел из-под контроля. Об опасностях такого сценария нас предупреждают Илон Маск, Стивен Хокинг, Билл Гейтс. Проблема в том, считает президент Q/Rrata Док Хьюстон, что нам неизвестны точные границы, выходить за которые опасно.

Базовая идея машинного обучения довольно проста. Вложи в компьютер достаточно примеров того, чему хочешь его научить, и обрубай все лишнее, чтобы правильный результат оказался статистически вероятным и был опознан как наилучшее решение.

Ситуация осложняется, когда речь заходит о более расплывчатых оценках. Например, ни один компьютер не может пока оценить качество или истинность выложенного в интернет материала, не может разобраться в нюансах человеческих диалогов. Но со временем машина научится распознавать оттенки смыслов, а вместе с ними — уровни сокрытия правды и тонкости обмана.

Это приведет к тому, что ИИ сможет не только изучить, но и дать оценку многовековой и не всегда приглядной истории человечества. И сделать собственные выводы.

Принимая это во внимание, организации по профилактике ИИ (OpenAI, The Future of Life Institute, Machine Intelligence Research Institute и др.) и сочувствующие им программисты надеются, что смогут как-то предотвратить формирование у ИИ негативного образа человека. Это сложная задача, ведь за тысячелетия истории мы развили множество противоречивых этических систем с расплывчатыми толкованиями. Сомнительно, что может быть написан такой код, который помог бы машине разобраться в этом. И который не мог бы быть взломан.

Другое соображение касается уже не технической, а политической стороны вопроса. Предположим, что удастся создать механизмы, сдерживающие развитие ИИ в определенных областях. Но какими бы благородными ни были намерения этих организаций, всегда найдутся правительства и военные структуры, которые захотят играть по своим правилам. Опыт противостояний XX века это подтверждает. Они будут пытаться изменить их под себя или сломать совсем, мотивируя это слоганом: «Если не мы, то они».

Основная проблема не в том, что мы не видим угрозы или имеем дурные намерения. Основная проблема где-то между высокомерием человеческой природы и наших общественных институтов. Перефразируя профессора Эдварда Осборна Уилсона, настоящая проблема человечества в том, что у нас варварские эмоции, средневековые институты и богоравные технологии.

Подписывайтесь
на наши каналы в Telegram

«Хайтек»новостионлайн

«Хайтек»Dailyновости 3 раза в день

Первая полоса
Чрезвычайно молодую планету нашли у звезды с «кривым» диском
Космос
Предложен способ навигации дронов без GPS: по «отпечаткам рельефа»
Новости
Ученые раскрыли тайну гигантских черных дыр ранней Вселенной
Космос
Microsoft и Atom Computing выпустят коммерческий квантовый компьютер в 2025 году
Новости
Создан робот-голубь, который летает как настоящая птица
Наука
На страницах тысячелетнего Голубого Корана нашли скрытый текст
Наука
Уязвимость ИИ: типы атак LLM-injection и способы защиты от них
Технологии
Intel случайно упомянула о планах по разработке ИИ-ускорителя
Новости
S.T.A.L.K.E.R. 2: Heart of Chornobyl вышел спустя 15 лет: цены, патчи, бесплатный контент и концовка
Новости
Посмотрите, как прототип космоплана Aurora разогнали до 1,1 Маха 
Новости
Российских айтишников обяжут преподавать в вузах: кого это коснется
Новости
Киберспорт в России сегодня: плюсы и минусы разных бизнес-моделей
Мнения
Одинокого дельфина нашли в Балтийском море: он «разговаривает» сам с собой
Наука
Физики обнаружили сразу три формы хаоса
Наука
Российского хакера экстрадировали в США за создание вируса-вымогателя
Новости
Ученые впервые раскрыли форму короны черной дыры
Космос
Названы сроки запуска аналога Apple Pay в России
Новости
В России придумали, как искать телефонных мошенников по голосу
Новости
Лазерную связь в космосе предложили использовать, чтобы фотографировать черные дыры
Космос
Чат-бот Google научили запоминать пользователей
Новости