«Система глубокого обучения — черный ящик. Результат непредсказуем»

Две недавних аварии с участием автопилота Tesla подняли вопрос, как вести расследование ДТП с участием компьютера? Как определить, что именно вышло из строя? Как следует из колонки Уилла Найта, старшего редактора MIT Technology Review, разобраться в ошибках ИИ будет не просто.

В мае во Флориде произошла авария со смертельным исходом. Tesla Model S со включенным автопилотом врезалась в поворачивающий грузовик. Другое ДТП случилось в Пенсильвании. Tesla Model X ударилась об ограждение дороги и перевернулась. Водитель заявил, что режим автопилота был в это время включен.

Tesla не объясняет, как именно работает автопилот. Но технологии машинного обучения используют автоматические системы распознавания визуальной информации. Они учатся отличать транспорт, дорожную разметку, знаки и другие объекты по видеосъемкам.

Произошла первая авария автопилота Tesla со смертельным исходом

Машинное обучение позволяет быстрее и проще научить компьютер выполнять определенные задачи, чем прописывать все команды вручную. Обратная сторона этой технологии — становится сложнее понять, где система дала сбой.

Решение этой задачи требует дополнительных исследований. Toyota, к примеру, финансирует проект в МТИ, который изучает, как беспилотник мог бы объяснить свои действия постфактум.

По словам Карла Ягнемма, главного исследователя в МТИ и основателя nuTonomy, стартапа, работающего над созданием автоматических такси, считает, что систему глубокого обучения сложно расследовать. «Ты разрабатываешь черный ящик, алгоритм, который тренируется на примерах, но его результат — это необъяснимая величина», — говорит он.

Причиной аварии Tesla в режиме автопилота мог стать DVD-плеер

Доцент Стэнфордского университета Сильвио Саварезе, специалист по машинному зрению, сказал, что одним из его недостатков является неспособность делать выводы из различных форм информации. Водитель, даже не видя полностью препятствие, может предположить его наличие по косвенным признакам. «Мы используем множество контекстуальной информации, — говорит Саварезе. — Современные механизмы обучения не умеют этого».

Все разработчики автономных транспортных систем внимательно следят за расследованием аварий Tesla. От их результатов зависит, будут ли эти исследования приостановлены на неопределенный срок, или нет.

Подписывайтесь
на наши каналы в Telegram

«Хайтек»новостионлайн

«Хайтек»Dailyновости 3 раза в день

Первая полоса
Мошенники обманывают россиян через Telegram-ботов: какие сообщения они рассылают 
Новости
Оружие будущего скоро испытают в Японии: что это и как работает 
Новости
В такси будут только российские авто: Госдума приняла новый закон
Новости
Польша провела первый запуск суборбитальной ракеты: как прошли испытания
Новости
Этот символ блокирует сообщения в iOS: в чем причина сбоя
Новости
Посмотрите, что научился делать робот Tesla Optimus
Новости
Вирус-вымогатель впервые встроили прямо в процессор. Удалить его невозможно
Новости
В стерильных комнатах НАСА нашли 26 видов бактерий: они выживают в экстремальных условиях
Космос
Обсидиановые артефакты раскрыли огромную торговую сеть ацтеков
Наука
В России запустили отечественный ИИ-сервис для создания 3D-моделей
Новости
В подвале аргентинского суда нашли 80 коробок с нацистской пропагандой
Наука
НАСА озвучило «крик» умирающей звезды
Космос
Стартап запускает производство древесины, которая прочнее стали
Наука
Уборка перестает быть мучением: обзор моющего пылесоса Trouver X4 Pro
Кейсы
Посмотрите на парового робота, который ползает и цепляется за ветки
Новости
На Юпитере «моросит дождь» из частиц: «Уэбб» раскрыл детали полярных сияний газового гиганта
Космос
В Сколтехе создали «фонарик» для исследования сосудов изнутри
Наука
Большой взрыв мог быть менее «ярким»: другие источники света нашли на заре Вселенной
Космос
В доме в Помпеях нашли следы попытки жителей спастись от катастрофы
Наука
Простое решение заставляет рой роботов двигаться вместе без ИИ и датчиков
Новости