Constellation, la respuesta de Oculus a Lighthouse
12 JUN 2015 9:41
Hace tiempo, Oculus cambió su decisión inicial de destinar el Rift a experiencias sentadas, y Constellation es el nombre de su sistema de sensores para el posicionamiento absoluto.
El sensor Constellation utiliza un sistema de LEDs infrarrojos para traducir nuestros movimientos al espacio virtual. Incluye una peana de unos 25 cm de altura, pero también podemos montarlo a nuestro antojo, incluso colgarlo de una pared igual que los sistemas Lighthouse, ya que podemos quitar el soporte y atornillarlo directamente en cualquier parte.
Constellation es el fruto de la colaboración con Carbon Design, y con él decimos adiós a la cámara situada encima del monitor utilizada por Oculus en el DK2 y en los prototipos de Crescent Bay. Según afirma Brendan Iribe, "Constellation permitirá el seguimiento en una zona mayor de la habitación, de forma que podrás moverte por la misma, y hay más posibilidades que comentaremos a medida que nos acercamos al lanzamiento". De momento no parece que quieran dar más detalles del sistema, pero Iribe también ha dicho que Oculus soporte múltiples sensores, algo absolutamente necesario si vamos a estar de pie y dando vueltas mientras utilizamos los controladores de mano Oculus Touch. Lo primero que nos viene a la mente es la posible inclusión de un segundo sensor Constellation al comprar Touch, pero aún es pronto para realizar conjeturas.
Moreste87
#31 » Respuesta a Federico #30 12 JUN 2015 21:27
Si solo procesa infrarrojo de alta luminosidad, no hay problema para que el sensor de la cámara trabaje a alta frecuencia.
Y no creo que a esta altura el procesamiento lo haga la PC. Seguro que lo hace la cámara por hardware. solamente envía las coordenadas por USB.
Federico
#32 » Respuesta a Moreste87 #31 12 JUN 2015 21:53
Quizás lo entiendo mal, pero aunque solo capture infrarojo de alta frecuencia, el resultado sería una imagen negra con puntitos de luz, y hay que analizarla pixel por pixel para saber donde está cada uno. Para poder ver los puntos en detalle a distancia, la imagen tiene que ser de alta resolución, o sea, son millones de pixeles por imagen, analizados potencialmente 90 o más veces por segundo.
Moreste87
#33 » Respuesta a Federico #32 12 JUN 2015 22:07
Analiza Pixel por Pixel el primer Frame por primera vez que es detectado. pero en el siguiente no es necesario. Solamente busca en una área alrededor de los puntos del HMD del Frame anterior.
Ademas, creo que los led al estar distribuidos de forma asimétrica (La distancia entre 3 led formando un triangulo) generando un patrón. La cámara solamente detectando los primeros 3, y con el patrón almacenado (distancia entre esos 3) mas la orientación obtenida por los giroscopios, puede detectar rápidamente las posiciones de los demás leds para reducir el tiempo de búsqueda. después si se llegan tapar varios led, no importa porque con el frame anterior, los datos de orientación y la malla virtual plasmada sobre el HMD, es muy complicado que pierda el tracking.
En teoría tendría que seguir rastreando con un mínimo de 3 o 4 leds a la vista.
Pero esto solamente es una teoría mia. seria la forma en como yo lo realizaria .
Federico
#34 » Respuesta a Moreste87 #33 12 JUN 2015 23:12
Interesante, igual cada tanto habría que analizar todo otra vez para detectar la incorporación de nuevos objetos.
feasder
#35 » Respuesta a Moreste87 #31 13 JUN 2015 13:15
Dudo mucho que eso sea así, no tiene sentido complicarse en diseñar y fabricar un hardware así, con el consiguiente encarecimiento y la imposibilidad de usar los datos de los acelerómetros del visor, cuando el procesador puede hacer esa tarea sin ningún problema.
Hay algoritmos muy eficientes para seguimiento de objetos en vídeo, y si encima la imagen de salida son puntos blancos sobre fondo negro es todo mucho mas sencillo.
Se puede trabajar sobre una imagen de baja resolución para buscar la posición aproximada de los puntos y luego afinar ya sobre zonas concretas de la imagen completa. Buscar solo en zonas cercanas a donde estaban los puntos en la imagen anterior como ha dicho Moreste87. Además, el sistema esta mas que probado en el DK2 y funciona perfectamente.
MaximVR
Visores
#36 13 JUN 2015 14:07
¿Están aprovechando la tecnología de motion capture óptica de los estudios de efectos especiales para cine y videojuegos o están desarrollando software y hardware que ya está más avanzado?
En las imágenes que se ven de como se han rodado las últimas películas con motion capture no se ve que utilicen LEDS de infrarrojo, sino pequeñas bolitas reflectoras pegadas con velcro a los trajes de los actores. Supongo que por evitar tener que alimentar los leds y tener más flexibilidad de posicionar las bolitas donde sea necesario.
feasder
#37 » Respuesta a MaximVR #36 13 JUN 2015 17:47
Esas bolitas reflejan luz infrarroja que proyectan unos leds que llevan las cámaras, así que es lo mismo pero ahorrándose la alimentación.
MaximVR
Visores
#38 13 JUN 2015 20:16
Si que tienen elementos en común, sí.
A ver que datos técnicos van soltando en el E3 o el Oculus Connect de este año sobre la superficie que se puede controlar con una cámara, los ángulos que cubre, la frecuencia con que toma las imágenes, ...
Me pregunto si dentro de la carcasa que cubre la cámara de Oculus será la misma tecnología que las cámara que se usan en motion capture como las que se pueden ver en esta web, son un tanto carillas, entre 300 y 6000 $, así que no creo que sea exactamente lo mismo:
www.optitrack.com/hardware/
MaximVR
Visores
#39 13 JUN 2015 20:21
y los trajes, velcro-friendly, los tienen por unos 300 $
www.optitrack.com/products/motion-capture-suits/
gorra, zapatos, guantes y bolitas aparte