В начале производится калибровка: на мониторе показываются несколько ключевых положений тела, а человек их воспроизводит. При этом снимается акустическая характеристика помещения - ультразвуковой сигнал сначала излучается, а потом записывается эхо (как у летучих мышей). Можно послать несколько сигналов разной частоты в разных направлениях, а может вообще сгенерировать целый "массив" этих самых сигналов. Записать эхо, запомнить спектры. Записывать, опять же, можно с нескольких разнонаправленных микрофонов. В общем, почти как эхолокатор на подлодке.
Затем можно с какой-то периодичностью переизлучать тот же самый массив сигналов и производить сравнение фактического спектра с записанными ранее образцами.
Можно поставить задачу попроще: человек цепляет на лоб повязку из особого материала, который отражает ультразвук получше кожи. И теперь тем же способом вычислять положение головы и направление "вперед", т.е. куда человек лбом уставился. Глаза, ясное дело, в монитор смотрят. А раз известно положение глаз относительно монитора, картинку можно пересчитать с другой перспективой.
Возможно, инфракрасные лучи во втором случае сработают получше. А вообще у меня такое чувство, что про что-то подобное второму случаю я читал.
Возможно, тех же результатов можно достигнуть с помощью лампочки, вебкамеры и повязки с разноцветными отражающими наклейками.
Комментариев нет:
Отправить комментарий