Este documento describe el SDK de Kinect y su uso para detectar el movimiento humano y permitir la interacción mediante gestos. Explica cómo el SDK procesa los datos de la cámara de profundidad y la cámara RGB de Kinect para reconocer los puntos esqueléticos del cuerpo humano y hacer posible el control de aplicaciones multimedia a través del movimiento. También compara las versiones 1 y 2 del SDK y sus requisitos técnicos.
4. Movimiento
Kinect SDK
Movimiento
Estado de los
cuerpos mientras
cambian de
posición o de
lugar.
- Diccionario de la Real
Academia de la Lengua
5. Movimiento
Kinect SDK
Motion Computing
Conjunto de estrategias, algoritmos y
recursos que:
• procesan,
• digitalizan,
• detectan posición (o velocidad) de
un objeto o persona.
8. Movimiento
Kinect SDK
Motion Control Computing
Procesamiento del
movimiento de
una persona, con
la finalidad de
interactuar con
una aplicación.
Jenga 3D
11. Movimiento
Kinect SDK
Natural User Interface (NUI)
Son interfaces hombre-máquina
que permiten a
los usuarios interactuar de
manera natural con las
aplicaciones de software.
• Movimientos gestuales.
• Pantallas capacitivas
multitáctiles.
• Voz humana.
“Put that there” – MIT – 1979
15. Movimiento
Kinect SDK
Innovación y la Industria del Entretenimiento
Nuevos dispositivos de control
16. Movimiento
Kinect SDK
Wiimote
Tiene la capacidad de
detectar movimiento gracias a
su giroscopio y acelerómetro.
Además, puede “apuntar” en
la pantalla a través de sensores
ópticos.
Permite al usuario interactuar
con y manipular objetos en la
pantalla a través de gestos y su
señalización.
18. Movimiento
Kinect SDK
Playstation Move
Competencia de la
Wiimote.
Utiliza sensores de
movimiento y ubica su
posición 3D en el plano
gracias a una cámara
que reconoce el color
de la esfera iluminada
sobre el mando.
20. Movimiento
Kinect SDK
Kinect
Dispositivo de
procesamiento
digital de imágenes
que se compone
de una cámara
RGB, un emisor IR y
una cámara de
profundidad.
K4W* v1
* Acrónimo para “Kinect for Windows”
21. Movimiento
Kinect SDK
Power Light
RGB Camera
IR Emitters
IR Emitters
Depth Sensor Depth Sensor
Microphone Array
v2
29. Movimiento
Kinect SDK
Requisitos de Hardware y Software del
SDK 1.8
CPU dual-core, 2.66-GHz (requerido)
RAM: 2 GB (requerido), 4 GB (recomendado)
GPU compatible con Microsoft DirectX 9.0c (requerido)
USB 2.0 (requerido)
OS Windows 7 (recomendado)
Sensor “Kinect for Windows v1”
Microsoft .NET Framework 4
Microsoft Visual Studio 2010
http://www.microsoft.com/en-us/download/details.aspx?id=40278
30. Movimiento
Kinect SDK
Requisitos de Hardware y Software del
SDK 2.0
CPU i7, 3.1-GHz (recomendado)
RAM: 4 GB (requerido), 8 GB (recomendado)
GPU compatible con Microsoft DirectX 11 (requerido)
USB 3.0 (requerido)
OS Windows 8 / 8.1 (requerido)
Sensor “Kinect for Windows v2”
Microsoft .NET Framework 4.5
Microsoft Visual Studio 2012/2013
http://www.microsoft.com/en-us/download/details.aspx?id=44561
39. Movimiento
Kinect SDK
Referencias
Curso “Desarrolla tu primera aplicación para Kinect V2 con Visual Studio“ –
Microsoft Virtual Academy - http://www.microsoftvirtualacademy.com/training-courses/
desarrolla-tu-primera-aplicacion-para-kinect-v2-con-visual-studio
Curso “Programming Kinect for Windows v2 Jump Start“ – Microsoft Virtual
Academy - http://www.microsoftvirtualacademy.com/training-courses/
programming-kinect-for-windows-v2-jump-start
Meet the Kinect – Apress
Beginning Kinect Programming with the Microsoft Kinect SDK – Apress
http://www.kinectfordevelopers.com/
http://www.microsoft.com/en-us/kinectforwindows/develop/downloads-docs.
aspx
http://www.microsoft.com/en-us/kinectforwindows/
Editor's Notes
En la diapositiva se puede ver un ejemplo de “Motion Computing” realizando el seguimiento del camino que toman los objetos reconocidos.
En la diapositiva se puede ver un ejemplo de “Motion Computing”, realizando un seguimiento de los dedos de la mano.
Motion control computing is the discipline that processes, digitalizes, and detects the position and/or velocity of people and objects in order to interact with software systems.
Motion control computing has been establishing itself as one of the most relevant techniques for designing and implementing a Natural User Interface (NUI).
NUIs are human-machine interfaces that enable the user to interact in a natural way with software systems. The goals of NUIs are to be natural and intuitive. NUIs are built on the following two main principles:
- The NUI has to be imperceptible, thanks to its intuitive characteristics: (a sensor able to capture our gestures, a microphone able to capture our voice, and a touch screen able to capture our hands' movements). All these interfaces are imperceptible to us because their use is intuitive. The interface is not distracting us from the core functionalities of our software system.
- The NUI is based on nature or natural elements. (the slide gesture, the touch, the body movements, the voice commands—all these actions are natural and not diverting from our normal behavior). NUIs are becoming crucial for increasing and enhancing the user accessibility for software solution. Programming a NUI is very important nowadays and it will continue to evolve in the future.
A main feature of the Wii Remote is its motion sensing capability, which allows the user to interact with and manipulate items on screen via gesture recognition and pointing through the use of accelerometer and optical sensor technology. Another feature is its expandability through the use of attachments. The attachment bundled with the Wii console is the Nunchuk, which complements the Wii Remote by providing functions similar to those in gamepad controllers.