ИИ станет умнее, научившись сомневаться в себе

Специалисты Uber и Google разрабатывают модификацию двух наиболее популярных платформ глубокого обучения, которые позволят искусственному интеллекту оценивать степень своей уверенности в прогнозе или решении.

Глубокое обучение, ставшее в последние годы чрезвычайно распространенным методом тренировки нейронных сетей, обладает существенным недостатком — оно требует значительных объемов данных и вычислительных мощностей и при этом весь процесс оказывается на удивление хрупким. Парадоксально, но решением может стать неуверенность в себе. Такой подход может оказаться полезным в экстренных ситуациях с участием беспилотных автомобилей или другой автономной техники.

Квантовое превосходство достигнуто. Что дальше?

По мнению Дастина Трана, разработчика из Google, система, которая сообщает о степени своей уверенности, должна понравиться людям. «Если беспилотный автомобиль не знает, насколько он не уверен, он может совершить фатальную ошибку, и последствия будут катастрофическими», — говорит он.

Неуверенность — ключевой аспект человеческого интеллекта, считает Зубин Гахрамани, профессор Кэмбриджа и главный научный специалист Uber.

Если глубокое обучение обогатится возможностью оценки неуверенности, оно сделает нейронные сети умнее по ряду показателей. Например, поможет программе распознавать объекты с определенной степенью уверенности на основании всего пары примеров, а не многих тысяч. Наличие степени уверенности в ответе вместо простого да или нет поможет также конструировать сложные системы, пишет MIT Technology Review.

Для интеграции неуверенности Uber создает язык программирования Pyro, а Колумбийский университет — язык Edward. По словам разработчика Pyro Ноя Гудмана, эти языки сближают две соперничающие школы разработки ИИ, одна из которых ориентирована на нейронные сети, а другая — на вероятности. В последние годы первая школа завоевала настолько большую популярность, что другие идеи остались без внимания. Для того чтобы двигаться вперед, следует тщательнее изучить их.

Идея просто так раздавать деньги нравится уже почти всем

Несколько экспертов по искусственному интеллекту заявили на прошедшей в декабре 2017 конференции, что перестали понимать, как работает ИИ. Опыт показывает, что ИИ имеет склонность принимать предвзятые решения и проводить аналогии там, где их не следовало бы проводить, а цена его ошибки весьма велика. Разумеется, есть у ученых и пути решения этой проблемы.

Подписывайтесь
на наши каналы в Telegram

«Хайтек»новостионлайн

«Хайтек»Dailyновости 3 раза в день

Первая полоса
Предложен способ навигации дронов без GPS: по «отпечаткам рельефа»
Новости
Ученые раскрыли тайну гигантских черных дыр ранней Вселенной
Космос
Microsoft и Atom Computing выпустят коммерческий квантовый компьютер в 2025 году
Новости
Создан робот-голубь, который летает как настоящая птица
Наука
На страницах тысячелетнего Голубого Корана нашли скрытый текст
Наука
Уязвимость ИИ: типы атак LLM-injection и способы защиты от них
Технологии
Intel случайно упомянула о планах по разработке ИИ-ускорителя
Новости
S.T.A.L.K.E.R. 2: Heart of Chornobyl вышел спустя 15 лет: цены, патчи, бесплатный контент и концовка
Новости
Посмотрите, как прототип космоплана Aurora разогнали до 1,1 Маха 
Новости
Российских айтишников обяжут преподавать в вузах: кого это коснется
Новости
Киберспорт в России сегодня: плюсы и минусы разных бизнес-моделей
Мнения
Одинокого дельфина нашли в Балтийском море: он «разговаривает» сам с собой
Наука
Физики обнаружили сразу три формы хаоса
Наука
Российского хакера экстрадировали в США за создание вируса-вымогателя
Новости
Ученые впервые раскрыли форму короны черной дыры
Космос
Названы сроки запуска аналога Apple Pay в России
Новости
В России придумали, как искать телефонных мошенников по голосу
Новости
Лазерную связь в космосе предложили использовать, чтобы фотографировать черные дыры
Космос
Чат-бот Google научили запоминать пользователей
Новости
Ген одноклеточного организма возрастом 422 млн лет помог создать живую мышь
Наука