Ученые из компании Microsoft совместно с коллегами из Университета Вашингтона в Сиэтле и Университета Торонто в Канаде разрабатывают систему управления компьютером при помощи жестов рук и пальцев рук в трехмерном пространстве.
Для того чтобы воспользоваться системой под названием g-speak, пользователю необходимо прикрепить к рукам специальные датчики, осуществляющие регистрацию биоэлектрической активности в мышцах, отвечающих за сгибание и разгибание пальцев, и мышцах предплечья. Сигналы с датчиков направляются в блок управления, подключенный к телу человека. Данный блок при помощи специального программного обеспечения распознает сигналы и посылает команды управления в интерфейс компьютера.
Текущая версия системы включает шесть датчиков для снятия активности в кисти (спрятаны в специальные перчатки) и два – в предплечье (помещаются в специальный ремень, опоясанный вокруг руки).
Программное обеспечение распознает три величины: амплитуду биоэлектрической активности, ее характер и сравнивает сигнал от одного датчика с сигналами, получаемыми с других датчиков в один и тот же момент времени.