В Google уже испугались непредсказуемости ИИ

Исследователи из команды Google AI, обеспокоенные бесконтрольным развитием ИИ, предложили создать платформу по изучению потенциальных опасностей искусственного интеллекта. “Мы считаем важным начать разрабатывать практические подходы к созданию безопасных и надежных систем ИИ”, - написал в блоге Крис Олах, один из ученых Google AI.

Олах и его коллеги приводят пример робота, который учится убирать помещение. И может научиться тому, чему не следует. Например, как созданный Томом Мерфи бот для игры в Nintendo, который научился постоянно нажимать кнопку паузы, играя в «Тетрис». Что если робот научится сбивать вазы на пол, потому что так проще убираться? Как помешать машине делать глупые и опасные вещи, например, мыть мокрой тряпкой розетки? Как объяснить, что то, что можно делать дома, нельзя делать в офисе?

Ученые Google AI установили несколько конкретных принципов для исследователей ИИ: «избегать негативных побочных эффектов», например, или «безопасное исследование». Это практические советы, но теоретическое обоснование еще не определено. Поскольку ни у кого нет хороших ответов, Олах считает, что пора начать их искать. ИИ не будет нас ждать, пишет Wired.

Системы наподобие AlphaGo учатся анализировать огромный объем данных, но обучается на их основе компьютер самостоятельно. Он играет сам с собой в игры и приходит к решениям, которые человеку в голову не приходили. И ведет себя непредсказуемо.

Аналогии помогут компьютеру сделать правильный нравственный выбор

Пока машины не могут принимать важные решения самостоятельно, потому что моральные вопросы для них непонятны. Но уже ведутся разработки и в этом направлении. Например, Кен Форбус из Северо-Западного университета создал механизм отображения структур, который позволяет компьютеру делать выводы на основе аналогий. «В теории можно научить его вести себя больше как человек», — говорит он.

Но до этого еще далеко, тем более что и люди не могут сойтись во мнении, что такое хорошо, а что — плохо. Тем временем, машины умнеют. И вопрос не в том, смогут ли они когда-нибудь выиграть в «Тетрис», не жульничая. А в том, смогут ли они понять, что жульничать нехорошо.

Подписывайтесь
на наши каналы в Telegram

«Хайтек»новостионлайн

«Хайтек»Dailyновости 3 раза в день

Первая полоса
Ютубер собрал из «мусора» ручной лазер, прожигающий алмазы
Новости
Физики придумали, как создать настольный ускоритель частиц с мощностью гигантских установок
Наука
Китайский робот научился готовить пельмени и пользоваться палочками
Новости
Цифровые лидеры нового времени: объявлены лауреаты ежегодной Премии Digital Leaders-2025
Новости
Древнейший «арт-объект» неандертальцев с отпечатком автора, нашли в Испании
Наука
На Урале разработали сверхпрочное покрытие для защиты авиадвигателей
Наука
Сверхтонкая линза делает видимым инфракрасное излучение
Наука
Новый закон об иностранных мессенджерах вступил в силу в России
Новости
Больше миллиона Гбит в секунду: японцы побили рекорд скорости передачи данных по оптоволокну
Новости
Хаос во благо: физики создали новый инструмент для квантового мира
Наука
Hugging Face выпустила недорогих человекоподобных роботов с открытым кодом
Новости
Китайский аккумулятор для электромобиля выдержал наезд 36-тонного танка
Новости
Воспитанники детских домов изучат основы работы с нейросетями
Новости
Четвероногий робот из Цюриха научился играть в бадминтон с людьми
Новости
В MIT раскрыли механизм набора веса из-за жирной пищи и как обратить его вспять
Наука
60 000 лет рядом: ученые выяснили, кто стал первым паразитом человека
Наука
Ректора Университета Иннополис избрали членом-корреспондентом РАН
Иннополис
В Корее робопса научили паркуру и бегу по стенам: посмотрите, что он может
Новости
Древний череп «человека-муравья» нашли в Аргентине
Наука
На селфи марсохода попал неожиданный объект: его заметили не сразу
Космос