Хакеры могут взломать голосовые помощники с помощью неразличимых для слуха человека звуков. Такие звуки могут транслироваться по телевидению или радио и маскироваться под привычные — например, под пение птиц. Об этом говорится в исследовании Рурского университета, которое приводит Fast Company.
Уязвимость, обнаруженная учеными, относится к классу критических. Она лежит в основе технологий распознавания речи, которые встроены во все без исключения голосовые помощники.
Злоумышленники могут прятать такие звуки в музыку, скачиваемую или прослушиваемую на пиратских сайтах, в видеозаписи или в любой другой контент, в котором содержится аудиодорожка. С их помощью хакеры могут совершить покупки, заблокировать устройства или полностью отключить все компоненты умного дома, включая сигнализацию и камеры видеонаблюдения.
У Alexa появилась функция для отпугивания воров
Технологии
Исследователи отмечают, что на данный момент им не удалось обнаружить ни одного случая взлома с использованием этой уязвимости. Но для того, чтобы устранить ее, ученым придется заново написать все алгоритмы для распознавания речи, говорится в докладе.
Ранее специалисты Университета Чжэцзяна нашли уязвимое место голосовых помощников. При помощи ультразвука их заставили совершать телефонные звонки, писать сообщения в соцсетях и отключать беспроводные сервисы против воли хозяев.