Миниатюрный чип трехмерного распознавания жестов позволит существенно расширить функции смартфонов и "умных" часов

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

Исследователи из двух Калифорнийских университетов, из Беркли и Дэвиса, разработали миниатюрный чип, способный с помощью ультразвуковых акустических колебаний распознавать жесты и движения рук пользователя, которые он совершает в области пространства над этим чипом. Благодаря его малым габаритам и малому количеству потребляемой энергии этот чип идеально подходит для его применения в планшетных компьютерах, смартфонах и «умных» часах, позволяя управлять функциями этих устройств без необходимости совершения непосредственных прикосновений к поверхности их экранов.

Новый чип, по сути, является процессором распознавания жестов в трехмерном пространстве, ближайшим аналогом которого является небезызвестный Microsoft Kinect. Но Microsoft Kinect построен на оптических принципах распознавания жестов, он имеет достаточно большие габариты, а его лазеры и камеры потребляют относительно большое количество энергии. Именно в связи со всем вышеперечисленным, устройства наподобие Microsoft Kinect никогда не смогут использоваться в составе портативных электронных устройств, даже в таких сравнительно больших устройствах, как планшетные компьютеры, не говоря о смартфонах и «умных» часах, имеющих еще меньшие габариты.

Разработка ультразвукового чипа была выполнена в основном исследователями из Центра разработки датчиков университета в Беркли (Berkeley Sensor & Actuator Center).

Опытный образец чипа, получившего название «Chirp», имеет малые габариты и потребляет столь малое количество энергии, что позволит без труда встроить его в «умные» часы, в очки дополненной реальности типа Google Glass, и в другие миниатюрные устройства. Чип работает по принципу звукового локатора, сонара.

Ультразвуковые волны, излучаемые чипом, отражаются от объектов, располагающихся выше его поверхности, и улавливаются акустическими элементами чипа. Измеряя сдвиг фазы принятых ультразвуковых колебаний, можно не только определить наличие некоего объекта и его габариты, но и вычислить направление, скорость его движения.

Благодаря высокой чувствительности акустических датчиков, чип может надежно регистрировать и распознавать движения рук пользователя, находящихся на удалении одного метра от чипа.

В первом опытном образце ультразвукового чипа, который был создан в лаборатории университета в Беркли, имеет простую двухмерную матрицу акустических датчиков. Это значительно сужает возможности чипа, который может отслеживать движения рук пользователя только в одной плоскости. Но и этих возможностей уже хватило исследователям для того, чтобы в качестве демонстрации реализовать управление полетом самолета в виртуальном авиасимуляторе. В своей работе этот чип не требует никаких калибровок и настроек под индивидуальные особенности каждого пользователя.

В настоящее время исследователи уже работают над совершенствованием структуры акустических датчиков чипа, что со временем даст ему возможность следить за жестами человека и в третьем измерении. Кроме этого, исследователи планируют в будущем значительно уменьшить размеры чипа, которые сейчас составляют около пяти миллиметров, новые чипы будут иметь габариты порядка одного-двух миллиметров.

Из-за ограничений диаграммы направленности чип не сможет использоваться для отслеживания движений человеческого тела полностью, но возможностей чипа осуществлять слежение только за руками человека вполне достаточно для существенного расширения функций портативных электронных устройств и реализации кардинально новых технологий их взаимодействия с пользователями.

Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 4.9 (7 votes)
Источник(и):

1. Tg Daily

2. dailytechinfo.org