Заметка номер два. Пассивный захват движения или скелеты атакуют | Автограф
722-004

Заметка номер два. Пассивный захват движения или скелеты атакуют

В предыдущей заметке мы рассмотрели как устроена активная система захвата движения.

В этот раз речь пойдет о технологии пассивного захвата. Пассивный захват не так широко распространен в сфере создания мультимедиа как активный, но у него есть один большой плюс. Этот способ широко доступен и не требует больших вложений, чтобы начать работать с ним, а благодаря ребятам из iPi Soft эта технология позволяет в домашних условиях создавать модели движений, используя один из следующих вариантов:

  • Обычная веб-камера
  • Microsoft Kinect (подходит любая версия данного контроллера, подробное описание можно найти тут)
  • Sony PlayStation Eye
  • Asus Xtion (данный контроллер, к сожалению, на рынке найти сейчас очень тяжело, но если вам удастся это сделать, то для кросс-платформенной разработки он подходит лучше чем Kinect, надеюсь напишу отдельную заметку об этом).

Итак, давайте посмотрим, как устроен пассивный захват, и кратко взглянем на предлагаемый нам инструментарий.

Главное отличие пассивного захвата от активного, об этом я уже упоминал, но напомню, это отсутствие каких-либо маркеров на теле человека: нет ни гироскопа, ни магнита, ни диодов и отражателей на теле. Но зато у нас в наличии один единственный контроллер и мощный soft, который собирает все данные о передвижении человека, агрегирует и интерпретирует их. В результате на экране компьютера мы видим так называемый skeleton. Как правило это набор из 20 маркеров (если говорить про последнюю версию Kinect, там добавили два маркера на определение позиции большого пальца). Камера считывает контуры тела и вписывает скелетика в очертание объекта захвата, тут есть некие особенности, например, если вы подставите швабру и включите такую систему, то, скорее всего, вы получите сломанного скелетика, так как система направлена именно на то, чтобы считывать контуры человеческого тела. Для наглядности посмотрите, как это выглядит

Как же располагаются маркеры на теле при таком подходе? Для этого давайте обратимся к картинке, созданной Леонардо Да Винчи и дополненной ребятами из  Microsoft.

Из этой схемы можно сделать вывод, что маркеры в системе приблизительно совпадают с суставами на теле человека.

Как это выглядит на уровне передачи данных, рассмотрим на примере Kinect (описание проекта на основе  технологий  Microsoft)Что мы видим. Блок сенсоров передаёт данные через USB Hub в ваш ПК и при помощи драйверов распределяет потоки данных. Затем средствами пакета NUI API  данные интерпретируется и передаются в ваше приложение, и в зависимости от того, чего хотим, на экране мы видим наш скелетик или уже наложенный аватар, повторяющий действия, сделанные нами на камеру.

Что же получается в итоге? А получается следующее: заплатив всего 4500 р. за контроллер и скачав программные пакеты, необходимые для разработки, мы получаем домашнюю студию анимации. Возможно, данная заметка сквозит рекламой Microsoft и iPi soft, но в данный момент на рынке ваш покорный слуга не встречал ничего более дружественного пользователю. Да, есть нюансы – для работы с Kinect необходимо знание языков программирования, таких как  C++ или С#. Это в том случае, если мы говорим о системах аналитики движений или иных способах использования данной технологии, отличных от анимации. Если говорить про анимацию, то тут есть связка таких инструментов как iPi Soft + Blender (3ds Max, Maya 3D — кому что удобней для создания анимационных моделек).

На этом мы закончим подробно изучать отдельные реализации и переходим к разбору сфер применения технологии MoCap. Но это в следующей заметке. Да прибудет с вами root!

Комментариев нет.

Оставить комментарий