Кейсы 9 июля 2018

Тупик для беспилотников: как мечты разработчиков разбиваются о неожиданности на дорогах

Далее

Tesla, Uber, Delphi и MobileEye обещают в ближайшие два года выпустить на дороги тысячи полностью автономных машин. Но аварии, происходящие с беспилотниками, говорят об обратном. Системы нуждаются в регулярной корректировке, чтобы достичь полной безопасности. Ученые называют грядущую эпоху застоя «зимой искусственного интеллекта» и опасаются, что прорыва с беспилотниками ждать не стоит. «Хайтек» перевел и дополнил статью The Verge, чтобы понять, как сделать беспилотники безопасными, и почему нужно для этого специально обучать пешеходов.

Мучительная работа над ошибками

Полностью автономный автомобиль выпустят уже через несколько месяцев, если, конечно, верить CEO крупных компаний. В 2015 году Илон Маск предсказывал создание полностью автономного Tesla к 2018 году, впрочем и Google тоже. Выпуск системы 4-го уровня от Delphi и MobileEye (согласно классификации автоматизации автомобилей Сообщества автомобильных инженеров (SAE) 4-й уровень предполагает, что водитель может не контролировать машину на дорогах с «предсказуемым» движением — «Хайтек») намечен на 2019 год, в том же году Nutonomy планирует отправить тысячи такси без водителя на улицы Сингапура. GM тоже введет беспилотники в производство в 2019 году. Они будут без рулевого колеса, а также не потребуют вмешательства водителя. За этими прогнозами стоят реальные деньги, вложенные в надежде на то, что подобное программное обеспечение создаст резонанс в обществе и с лихвой окупится.

Полная автоматизация кажется ближе, чем когда-либо. Waymo уже тестирует автомобили на огражденных, но вполне настоящих общественных дорогах в Аризоне. Tesla и множество других их последователей продают ограниченную форму автопилота в расчете на то, что водители вмешаются в управление в случае неожиданностей на дороге. За время тестирования произошло несколько аварий, даже со смертельным исходом. Но пока системы еще на стадии перманентного апгрейда, мы не можем настолько доверять компьютеру, чтобы вообще не вмешиваться в его работу.

Мечта о полностью беспилотной машине возможно не так близка к реализации, как мы думаем. Среди экспертов по ИИ растет беспокойство. Может пройти несколько лет и даже десятилетий, прежде чем системы станут безопасными, а защита от несчастных случаев будет максимальной. Поскольку самонаводящиеся системы сталкиваются с неразберихой реального мира, эксперты, такие как Гэри Маркус из Нью-Йоркского университета, готовятся к мучительной повторной калибровке. Такая корректировка иногда называемой «зимой искусственного интеллекта». Эта отсрочка может иметь катастрофические последствия для компаний, занимающихся предоставлением технологий. Они оставят беспилотники вне досягаемости для целого поколения.


За последние 10 лет глубокое обучение — использование многоуровневых алгоритмов машинного обучения для извлечения структурированной информации из массивов с наборами данных — привело к почти немыслимому прогрессу в искусственном интеллекте и технологической отрасли. Это и Google Search, и Facebook News Feed, диалоговые алгоритмы речи и текста, а также защитные системы Go-play. Вне интернета мы используем глубокое обучение для обнаружения землетрясений, прогнозирования сердечных заболеваний и обнаружения подозрительного поведения на уличных камерах. Существует еще множество других нововведений, которые без глубокого обучения были бы невозможны.


Но глубокое обучение требует значительного количества данных для правильной работы, включая проработку почти каждого сценария, с которым столкнется алгоритм. Такие системы, как Google Images, отлично подходят для распознавания животных, если у них есть данные — как выглядит каждое животное. Маркус описывает эту задачу как «интерполяцию». Например, ИИ берет обзор всех изображений с надписью «оцелот» и определяет — принадлежит ли каждое новое изображение к необходимой группе.

Инженеры используют и творческий подход, решая, откуда будут поступать данные, и как они структурируются. Но это загонит сам механизм в жесткие рамки отбора. Тот же алгоритм не распознает оцелота, если не будет обработано тысячи изображений с хвостатыми. Даже если он видит фотографии домашних кошек и ягуаров и знает, что оцелоты находятся где-то «посередине». Этот процесс, называемый «обобщением», требует качественно других навыков.


Долгое время исследователи считали, что улучшить навыки обобщения можно с помощью создания правильных алгоритмов. Но недавние эксперименты показали: обычное глубокое обучение работает еще хуже при обобщении, чем думали эксперты. Одно исследование доказало, что системы глубокого обучения трудно использовать для обобщения даже при просмотре видео. Они распознают на видео белого медведя, даже если это бабуин, мангуст или ласка, в зависимости от незначительных сдвигов в фоновом режиме. С каждой классификацией, основанной на сотнях факторов, даже небольшие изменения в картинках полностью меняют суждение системы. Ученые показали это в испытательных наборах данных.


Маркус приводит недавнее повальное увлечение чат-ботами в качестве аргумента против методики обобщения.

«Нам обещали чат-ботов в 2015 году, — вспоминает ученый, — но они не оправдали ожиданий, потому что для общения недостаточно только сбора данных». Когда вы разговариваете с человеком онлайн, вы не просто хотите, чтобы он перефразировал предыдущие ваши фразы. Вы хотите, чтобы он реагировал на ваши слова, опирался на более широкие навыки общения, создавал уникальный ответ лично для вас. Глубокое обучение просто не создало бот с подобными опциями. После того, как первоначальная иллюзия успеха исчезла, компании разочаровались в своих бот-проектах, и перестали их столь активно продвигать.


Гэри Маркус

Беспилотные машины — научный эксперимент. Мы сами не знаем, каких результатов ожидать. Нам никогда не удавалось автоматизировать вождение на таком высоком уровне. Технологии должны отвечать поставленным критериям с точки зрения определения знакомых объектов и соблюдения правил дорожного движения. В нашем случае мы создаем новый, удивительный продукт, и его невозможно просто привязать к обычному обобщению.


У Tesla и аналогичных компаний сегодня появляются пугающие вопросы: «Будут ли беспилотные автомобили улучшаться? Придумают ли они правильные механизмы для поиска изображений, распознавания голоса и других успешных функций ИИ? Или они столкнутся с проблемой бездумного обобщения, такой как чат-боты? Главная проблема беспилотников в интерполяции или в трудности обобщения информации? Насколько действительно безопасно ездить на таких авто?». Может быть, нам еще рано знать ответы на все эти вопросы.

Аварии нельзя предсказать, а пешеходов можно обучить

Экспериментальные данные, которые мы получаем, — это общественные отчеты об авариях, каждая из которых вызывает неприятные ощущения. Фатальная авария в 2016 году показала, как беспилотник Model S на полной скорости въехал в заднюю часть трейлера. Причина кроется в том, что систему смутил высокий подъем прицепа и яркое отражение солнца. В марте беспилотная машина Uber убила женщину, толкающую велосипед. ДТП произошло после того, как она вышла на дорогу не на пешеходном переходе. Согласно отчету NTSB, программное обеспечение Uber неправильно идентифицировало женщину — сначала как неизвестный объект, затем как автомобиль, и, наконец, как велосипед. Каждый раз при этом она обновляла свои данные. При аварии в Калифорнии Model X неожиданно повернула в сторону отбойника и ускорилась перед ударом. Причины этого происшествия до сих пор остаются неясными.

Гендиректор Uber Дара Хосровшахи: «Автомобили должны ездить в трех измерениях»

Каждая авария походит на тупиковое дело. Подобные ситуации инженеры не могли предсказать заранее. Почти каждая автомобильная авария связана с каким-то непредвиденным обстоятельством. У разработчиков не было возможности их обобщить. И автомобили без водителя справляются с этими сценариями, как в первый раз. Результатом будет череда случайных несчастных случаев, которые не станут менее распространенными или менее опасными даже по истечению времени. Скептики убеждены, что события, сопровождающиеся «ручным отключением», говорят о том, что этот «сценарий» уже идет полным ходом. А прогресс уже достиг определенного «плато».

Эндрю Нг — бывший исполнительный директор Baidu, член совета директоров Drive.AI и один из самых известных людей в своей отрасли — утверждает, что проблема заключается не только в создании идеальной системы управления. Она касается обучения пешеходов. Фактически, людей нужно научить поведению при встрече с беспилотником, чтобы предвосхищать его неверные решения. Нужно сделать дороги безопасными для автомобилей, а не наоборот. В качестве примера непредсказуемого случая The Verge приводит ситуацию, когда пешеход использует пого-стик. Сможет ли система распознать человека, если она никогда раньше не видела такого.

«Я думаю, что команды-разработчики смогли бы разобраться с пого-стик на пешеходном переходе», — отвечает Нг. «Но в любом случае, прыгать на пого посреди шоссе действительно опасно».

«Вне зависимости от того, решит ли ИИ задачи, связанные с пого-стиком, намного важнее убедить людей — быть собранными и внимательными на дорогах», — резюмировал Нг. Безопасность зависит не только от качества технологий ИИ.

Частичная автономность — не провал

Глубокое обучение — не единственный метод ИИ. Компании уже ищут возможные альтернативы. Эти способы тщательно хранятся в секрете, это связано и с конкуренцией внутри отрасли (достаточно вспомнить недавний судебный процесс Waymo против Uber). Многие компании перешли на более старый метод, основанный на правилах ИИ. Он позволяет инженерам жестко программировать поведение или логику в автономной системе. Систему лишают способности корректировать собственное поведение, просто изучая данные. Этот способ позволит компаниям избежать некоторых ограничений глубокого обучения. Но с основными задачами восприятия, которые сформированы методами глубокого обучения, трудно сказать, насколько успешно инженеры заблокируют потенциальные ошибки.

Энн Миура-Ко, венчурный капиталист Lyft, считает: часть проблемы — это слишком большие надежды на беспилотные автомобили. Что-то меньшее, чем полная автономность, рассматривается сразу как провал.


Энн Миура-Ко

Ожидание, что люди сразу перейдут от нулевого к пятому уровню автономности, — это неправильное восприятие ситуации. Заблуждение, даже большее, чем технологическая неэффективность. Я считаю, что даже все эти микроусовершенствования приближают наши возможности к полной автономии.


Неясно, как долго беспилотные автомобили останутся в их нынешнем подвешенном состоянии. Полуавтономные продукты, такие как автопилот Tesla, достаточно умны, чтобы справляться с большинством ситуаций. Но они все еще требуют вмешательства человека, если происходит что-то слишком непредсказуемое. Когда что-то идет не так, трудно понять, виноват ли в этом автомобиль или водитель. Для некоторых критиков этот гибрид менее безопасен, чем обычный водитель. Даже если в ошибках трудно полностью обвинить машину. Одно из исследований, проведенное корпорацией Rand, показало: автомобили с беспилотным вождением должны будут проехать 275 миллионов миль без смертельного исхода, чтобы доказать — они безопасны так же, как люди за рулем. Первая смерть, связанная с автопилотом Tesla произошла через примерно 130 млн миль. Это значительно меньше указанной отметки.

Но с глубоким обучением повышение уровня безопасности на дорогах сложнее, чем кажется. «Это не простая проблема», — комментирует историю с беспилотником Uber, сбившим пешехода в начале этого года, профессор Мэри Каммингс . «Цикл восприятия и решения часто связан. Это касается и случая со смертью пешехода. Было принято решение ничего не делать по причине двусмысленности в восприятии. И экстренное торможение было отключено, потому что было слишком много ложных срабатываний от датчика».

Но эта авария привела к тому, что Uber приостановил свои испытания беспилотников на лето. Для других компаний их отсрочка стала дурным знаком. Вся отрасль гонится за получением большого объема данных. Компания с наибольшим количеством миль испытаний построит самую сильную систему. Но когда вся загвоздка в загрузке информации, процесс усложняется в разы.

«Они просто используют методы, которые у них есть, в надежде, что это сработает», — уверен Маркус. «Они опираются на данные большинства, полагая, что они максимально достоверны. Но нет никаких доказательств того, что это приведет к уровню точности, который нам нужен».