«Система глубокого обучения — черный ящик. Результат непредсказуем»

Две недавних аварии с участием автопилота Tesla подняли вопрос, как вести расследование ДТП с участием компьютера? Как определить, что именно вышло из строя? Как следует из колонки Уилла Найта, старшего редактора MIT Technology Review, разобраться в ошибках ИИ будет не просто.

В мае во Флориде произошла авария со смертельным исходом. Tesla Model S со включенным автопилотом врезалась в поворачивающий грузовик. Другое ДТП случилось в Пенсильвании. Tesla Model X ударилась об ограждение дороги и перевернулась. Водитель заявил, что режим автопилота был в это время включен.

Tesla не объясняет, как именно работает автопилот. Но технологии машинного обучения используют автоматические системы распознавания визуальной информации. Они учатся отличать транспорт, дорожную разметку, знаки и другие объекты по видеосъемкам.

Произошла первая авария автопилота Tesla со смертельным исходом

Машинное обучение позволяет быстрее и проще научить компьютер выполнять определенные задачи, чем прописывать все команды вручную. Обратная сторона этой технологии — становится сложнее понять, где система дала сбой.

Решение этой задачи требует дополнительных исследований. Toyota, к примеру, финансирует проект в МТИ, который изучает, как беспилотник мог бы объяснить свои действия постфактум.

По словам Карла Ягнемма, главного исследователя в МТИ и основателя nuTonomy, стартапа, работающего над созданием автоматических такси, считает, что систему глубокого обучения сложно расследовать. «Ты разрабатываешь черный ящик, алгоритм, который тренируется на примерах, но его результат — это необъяснимая величина», — говорит он.

Причиной аварии Tesla в режиме автопилота мог стать DVD-плеер

Доцент Стэнфордского университета Сильвио Саварезе, специалист по машинному зрению, сказал, что одним из его недостатков является неспособность делать выводы из различных форм информации. Водитель, даже не видя полностью препятствие, может предположить его наличие по косвенным признакам. «Мы используем множество контекстуальной информации, — говорит Саварезе. — Современные механизмы обучения не умеют этого».

Все разработчики автономных транспортных систем внимательно следят за расследованием аварий Tesla. От их результатов зависит, будут ли эти исследования приостановлены на неопределенный срок, или нет.

Подписывайтесь
на наши каналы в Telegram

«Хайтек»новостионлайн

«Хайтек»Dailyновости 3 раза в день

Первая полоса
Посмотрите, что будет с вами при падении в черную дыру
Новости
Сибирские «врата в подземный мир» растут: что происходит в Батагайке
Новости
Оказалось, в прошлом Марс был больше похож на Землю, чем все думали
Наука
Крепость римских легионеров, которой 2000 лет, нашли рядом с собором
Наука
Терапия светом помогла при травмах позвоночника
Наука
Робот-гуманоид с электроприводом может работать вслепую
Новости
Вакцина заставляет иммунитет бороться с раком мозга, показали испытания на людях
Наука
Вольфрамовый токамак WEST удерживал плазму в течение рекордных 6 минут
Наука
Посмотрите, как робопес, обученный ИИ, балансирует на гимнастическом шаре
Новости
Генная терапия улучшила зрение у людей с наследственной слепотой
Наука
Перед презентацией Apple появились подробности о новых iPad Pro и iPad Air
Новости
Астрономы наблюдали свет вокруг гигантских черных дыр, образовавшихся вскоре после Большого взрыва
Наука
В мозге человека нашли «нейронный компас», который помогает определять направление
Наука
Электричество получили из влаги в воздухе с помощью бактериальных «проводов»
Наука
Разработана вакцина, которая защищает от коронавирусов будущего
COVID-19
Ограничения в работе TikTok не повлияли на популярность социальной сети
Новости
Исчезновение «щита» от солнечной радиации совпало с рассветом жизни на Земле 590 млн лет назад
Наука
Крошечные «бессмертные» черные дыры могут заполнять Вселенную и объяснять темную материю
Наука
Ученые впервые наблюдали, как орангутанг занимается самолечением
Наука
SpaceX не смогла скрыть полет ракеты над Россией: в сети публикуют фото
Космос