Исследователи Университета Карнеги-Меллон разработали модель машинного обучения, которая оценивает направление, откуда исходит голос пользователя. Это поможет устройствам не полагаться на специальные фразы и жесты, которые сейчас нужно проговаривать для устройств. Метод основывается на свойственных звуку свойствах, когда он двигается по комнате.
ИИ знает, что самый громкий и чистый звук всегда направлен на заданный предмет. Все остальные голосовые команды же будут звучать тише, задерживаться или приглушаться. Модель также понимает, что речевые частоты варьируются в зависимости от направления, в котором вы находитесь. Нижние частоты имеют тенденцию быть более всенаправленными.
Этот метод не требует большого количества памяти и отправки звуковых данных в облако, отметили исследователи.
Они добавили, что для внедрения системы понадобится еще несколько лет. Команда уже сейчас опубликовала код в общем доступе — его могут использовать любые исследователи. С помощью этой системе умную колонку можно попросить включить музыку, не используя ключевые слова. Устройство также сможет реагировать на команды, даже если пользователь находится в другой комнате.
Читать также
Годовая миссия в Арктике закончилась, и данные неутешительны. Что ждет человечество?
Ученые пытаются понять, сколько живет нейтрон. Почему это так сложно и важно?