Умные устройства научились понимать направление речи
Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.
Какое-то время продолжим трудится на общее благо по адресу
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.
Спасибо, ждём вас на N-N-N.ru
Американские инженеры разработали алгоритм, позволяющий умным устройствам понимать направление речи человека. Это позволяет не использовать фразы активации, такие как «Окей, Google» или «Привет, Siri», поскольку устройство будет понимать, что пользователь обращается к нему. Статья была представлена на конференции UIST 2020.
Голосовые помощники в умных колонках, смартфонах или ТВ-приставках, как правило, все время слушают пользователя в ожидании активационной фразы и начинают слушать сами команды только после ее произнесения. Но между собой люди общаются проще и используют невербальные признаки, такие как направление взгляда, чтобы понять, что другой человек обращается к ним. Использование таких признаков голосовыми помощниками могло бы упростить их использование в доме, где есть несколько устройств с такой функцией, и некоторые разработчики уже работают над этим.
Например, Apple недавно предложила оснащать умные колонки камерами с алгоритмами отслеживания взгляда, чтобы избавить их от активационной фразы и научить понимать, на какие предметы показывает человек. Но камеры потенциально могут раскрыть больше конфиденциальной информации, чем микрофоны, поэтому пока умные колонки в основном работают без них.
Инженеры из Университета Карнеги — Меллона под руководством Криса Харрисона (Chris Harrison) разработали новый метод, который позволяет определять направление речи человека с помощью микрофонов, а не камер.
- Источник(и):
- Войдите на сайт для отправки комментариев