Кейсы 11 января 2018

ИИ станет умнее, научившись сомневаться в себе

Далее

Специалисты Uber и Google разрабатывают модификацию двух наиболее популярных платформ глубокого обучения, которые позволят искусственному интеллекту оценивать степень своей уверенности в прогнозе или решении.

Глубокое обучение, ставшее в последние годы чрезвычайно распространенным методом тренировки нейронных сетей, обладает существенным недостатком — оно требует значительных объемов данных и вычислительных мощностей и при этом весь процесс оказывается на удивление хрупким. Парадоксально, но решением может стать неуверенность в себе. Такой подход может оказаться полезным в экстренных ситуациях с участием беспилотных автомобилей или другой автономной техники.

Квантовое превосходство достигнуто. Что дальше?

По мнению Дастина Трана, разработчика из Google, система, которая сообщает о степени своей уверенности, должна понравиться людям. «Если беспилотный автомобиль не знает, насколько он не уверен, он может совершить фатальную ошибку, и последствия будут катастрофическими», — говорит он.

Неуверенность — ключевой аспект человеческого интеллекта, считает Зубин Гахрамани, профессор Кэмбриджа и главный научный специалист Uber.

Если глубокое обучение обогатится возможностью оценки неуверенности, оно сделает нейронные сети умнее по ряду показателей. Например, поможет программе распознавать объекты с определенной степенью уверенности на основании всего пары примеров, а не многих тысяч. Наличие степени уверенности в ответе вместо простого да или нет поможет также конструировать сложные системы, пишет MIT Technology Review.

Для интеграции неуверенности Uber создает язык программирования Pyro, а Колумбийский университет — язык Edward. По словам разработчика Pyro Ноя Гудмана, эти языки сближают две соперничающие школы разработки ИИ, одна из которых ориентирована на нейронные сети, а другая — на вероятности. В последние годы первая школа завоевала настолько большую популярность, что другие идеи остались без внимания. Для того чтобы двигаться вперед, следует тщательнее изучить их.

Идея просто так раздавать деньги нравится уже почти всем

Несколько экспертов по искусственному интеллекту заявили на прошедшей в декабре 2017 конференции, что перестали понимать, как работает ИИ. Опыт показывает, что ИИ имеет склонность принимать предвзятые решения и проводить аналогии там, где их не следовало бы проводить, а цена его ошибки весьма велика. Разумеется, есть у ученых и пути решения этой проблемы.