В Google уже испугались непредсказуемости ИИ

Исследователи из команды Google AI, обеспокоенные бесконтрольным развитием ИИ, предложили создать платформу по изучению потенциальных опасностей искусственного интеллекта. “Мы считаем важным начать разрабатывать практические подходы к созданию безопасных и надежных систем ИИ”, - написал в блоге Крис Олах, один из ученых Google AI.

Олах и его коллеги приводят пример робота, который учится убирать помещение. И может научиться тому, чему не следует. Например, как созданный Томом Мерфи бот для игры в Nintendo, который научился постоянно нажимать кнопку паузы, играя в «Тетрис». Что если робот научится сбивать вазы на пол, потому что так проще убираться? Как помешать машине делать глупые и опасные вещи, например, мыть мокрой тряпкой розетки? Как объяснить, что то, что можно делать дома, нельзя делать в офисе?

Ученые Google AI установили несколько конкретных принципов для исследователей ИИ: «избегать негативных побочных эффектов», например, или «безопасное исследование». Это практические советы, но теоретическое обоснование еще не определено. Поскольку ни у кого нет хороших ответов, Олах считает, что пора начать их искать. ИИ не будет нас ждать, пишет Wired.

Системы наподобие AlphaGo учатся анализировать огромный объем данных, но обучается на их основе компьютер самостоятельно. Он играет сам с собой в игры и приходит к решениям, которые человеку в голову не приходили. И ведет себя непредсказуемо.

Аналогии помогут компьютеру сделать правильный нравственный выбор

Пока машины не могут принимать важные решения самостоятельно, потому что моральные вопросы для них непонятны. Но уже ведутся разработки и в этом направлении. Например, Кен Форбус из Северо-Западного университета создал механизм отображения структур, который позволяет компьютеру делать выводы на основе аналогий. «В теории можно научить его вести себя больше как человек», — говорит он.

Но до этого еще далеко, тем более что и люди не могут сойтись во мнении, что такое хорошо, а что — плохо. Тем временем, машины умнеют. И вопрос не в том, смогут ли они когда-нибудь выиграть в «Тетрис», не жульничая. А в том, смогут ли они понять, что жульничать нехорошо.

Подписывайтесь
на наши каналы в Telegram

«Хайтек»новостионлайн

«Хайтек»Dailyновости 3 раза в день

Первая полоса
Врачи пересадили мужчине стволовые клетки для борьбы с бесплодием
Наука
Китайские ученые создали 32-битный процессор толщиной в одну молекулу
Новости
«Пьяные» самцы привлекательнее для самок дрозофил, показало исследование
Наука
Midjourney запустила новый генератор изображений после вирусного обновления ChatGPT
Новости
Самокаты только по биометрии: какие изменения планируют в России
Новости
Студенты разработали приложение для баланса работы и личной жизни
Новости
Неуловимую «обреченную» пару звезд нашли вблизи Солнечной системы
Космос
Как защитить доступ к «Госуслугам» от мошенников: появился новый способ
Новости
«Уэбб» поставил астрономов в тупик: какую аномалию он нашел во Вселенной
Космос
Физики собрали «квантовый сэндвич» из невозможных материалов
Наука
Российский военный спутник выпустил новый объект на орбите: неизвестно, что это
Кейсы
Эта черная дыра поглощает материю и выбрасывает часть еды в космос
Космос
«Уэбб» раскрыл тайну центра Млечного Пути: почему там формируется слишком мало звезд
Космос
Рак распространяется как сеть: российские ученые наблюдали в 3D особенности развития опухолей
Наука
Солнечная буря сдавила магнитное поле Юпитера «как гигантский мяч для сквоша»
Космос
Анализ крови определяет стадию болезни Альцгеймера с точностью 92%: это поможет подобрать терапию
Наука
ИИ впервые прошел тест Тьюринга: GPT-4.5 обманул людей в 73% случаев
Новости
В Сколтехе нашли способ увеличить емкость суперконденсаторов для электромобилей
Наука
ИИ ускорил поиск дефектов трубопроводов в 30 раз
Новости
Под пирамидами Гизы нашли «скрытый город», но с учеными согласны не все
Наука