Robot Wars, el experimento de escala de habitación para Gear VR
28 FEB 2017 10:00
Hemos tenido ocasión de probar esta experiencia con posicionamiento absoluto para realidad virtual móvil que nos permite ser un robot gigante, aunque parece que no termina de ir del todo fina.
Robot Wars es una experiencia multijugador para Gear VR, desarrollada por un equipo externo a Samsung, que ofrece un experimento de escala de habitación para un dispositivo que de por sí no cuenta con posicionamiento absoluto. Las reglas del juego son fáciles: somos un robot gigante en una ciudad y debemos derrotar a nuestro adversario, controlado por otra persona, a base de tirarle edificios que encontraremos repartidos por nuestro espacio. Para recoger los edificios habrá que agacharse y utilizar las dos manos, luego levantarlas hacia arriba sobre nuestra cabeza y llevarlas atrás para lanzar los edificios al oponente, que podrá verlos venir y tratar de esquivarlos. También podremos ganar puntos pisando los coches que encontremos por el suelo.
Antes de empezar la partida hay que colocarse el equipo necesario, formado por unas cubiertas para nuestros zapatos, unos guantes y, por supuesto, un Gear VR más auriculares. Todos ellos cuentan con una serie de sensores con forma de bolas blancas que sobresalen varios centímetros de las superficies. Estos sensores, junto con los 10 OptiTrack que había repartidos cinco a cada lado, son los encargados de lograr el posicionamiento absoluto.
Llega el momento de la verdad, nos encontramos preparados para la ocasión y empieza la partida, pero como suele ser común en algo así, lo primero que hacemos es fijarnos precisamente en cómo funciona este posicionamiento absoluto en vez de en la experiencia en sí. Lo primero que salta a la vista es que no es del todo preciso en los movimientos, ya que si movemos los brazos lentamente notaremos pequeños saltos en el desplazamiento. Tampoco parece ser muy efectiva la cobertura de los sensores, puesto que al intentar coger edificios de la esquina prácticamente no funcionaba, de hecho ya costaba coger los que teníamos delante, aunque también es cierto que podría ser debido a la programación del juego.
La experiencia con los pies era similar a las manos, aunque en este caso daba la sensación de que, en vez de ser el robot, fuéramos un piloto que va en su interior, y el gran robot tardara un poco en reaccionar a nuestros movimientos, al más puro estilo Pacific Rim. Aunque esto sobre todo se debía a la latencia en las acciones del juego en sí, no tanto en los movimientos sino en los resultados que provocaban en el juego. Lo que hacía que al recoger el edificio tardará un poco en reaccionar, o al pisar un coche al poco saliera la puntuación de haberlo hecho explotar.
Hay que recalcar que se trata de un experimento, como bien nos dejaron claro los desarrolladores que estaban allí presentes, quienes nos confirmaron que se utilizan los mismos sensores que Mark Zuckerberg mostraba en su visita al laboratorio de investigación de Oculus. Unos sensores nada baratos, que seguro pueden dar mucho más de sí. Uno espera siempre lo mejor del posicionamiento, en el cual intervienen muchos factores como el mismo teléfono o incluso el software utilizado, por lo que esas carencias podrían no tener nada que ver con los sensores, y hay que quedarse con lo positivo que es que estén experimentando con esta tecnología.
Ahora bien, la experiencia se puede disfrutar totalmente y tiene el punto a favor de la inmersión que añade la escala de habitación y no tener cables, algo a lo que no estamos acostumbrados los usuarios de PC. El juego en sí resulta divertido para un momento, y es que eso es lo que busca, que los visitantes pasen un buen rato lanzándose edificios unos a otros para ver quién logra más puntos.
jamolo
Visores
#1 28 FEB 2017 11:45
Ya están empezando a experimentar con sensores repartidos por todo el cuerpo, en breve habrá sorpresas para los usuarios de CV1, benditas cámaras!!!!! A lo mejor no ha sido tan mala la elección al final :)
Cdaked
Visores
#2 28 FEB 2017 12:01
¿Lo véis? el guante del Zuckerberg era un guante con montones de bolitas blancas pegadas con adhesivo, para las cámaras OptiTrack , era evidente. Las esferas más pequeñas son de 6,4 mm y un material reflexivo, NO son sensores. 50 dólares las cajas de 10.
Toda la tecnología está en las cámaras, que pueden llegar a valer 6.000€.
Lo que quiero decir es que están muy en las primeras pruebas. Si quieren hacer algo similar con los constellations va a ser bastante más complicado con unas cámaras normales.
Ponerse un guante de cirujano, pegarle un montón de esas bolitas y decir que es un prototipo de oculus esta rayando la tomadura de pelo. Lo digo por los titulares "Mark Zuckerberg muestra un prototipo de guante" que he visto por ahí.
jamolo
Visores
#3 » Respuesta a Cdaked #2 28 FEB 2017 13:14
Toda innovación es buena y sí, se podrían meter más sensores por todo el cuerpo con las constellations actuales, el parche 1.12 ha demostrado que es cuestion de software que el tracking de oculus funcione bien.
Se nos avecina una carrera divertida por el tracking de cuerpo completo :)
El más barato gana :)
PD: No vale ser permisivo con las tomaduras de pelo a 130 eur de la competencia :), están todas las compañias en periodo de pruebas. (TODAS)
Cdaked
Visores
#4 » Respuesta a jamolo #3 28 FEB 2017 13:23
El sistema constellation no distingue que es lo que genera los puntos, al final son solo fotos de puntos del mismo color (supongo que de ahí Constallation), cuantos más puntos más lío se hace. Piensa que se pueden solapar. Ahora tira a base de hacer múltiples pasadas, una para el casco, otra para un controlador y otra para el otro controlador sólo para poderlos diferenciar, por lo que necesitas hacer 3 fotos para poder seguir todo. Y aún así les ha costado arreglar el tema. Imagínate el tener que hacer tracking de todo el cuerpo. Con esos leds y constellations es que no lo veo.
Vamos, que mientras el Vive lee todo en cada pasada, el Rift necesita leer cada cosa traqueada en una pasada diferente, por lo que ir añadiendo elementos van fastidiando el seguimiento, cargando los USB, etc. No es escalable. Al menos con el sistema de leds y constellations de ahora; si hicieran de diferentes colores y la cámara los captase, pero es que no va así.
PD:119,9 de momento, ya les haremos entrar en razón o comerse los mocos.
Cdaked
Visores
#5 28 FEB 2017 13:42
Por otro lado, me parece muy bien que se usen las cámaras para estudiar cómo hacer seguimientos, ver dónde poner los emisores o sensores, etc. Cuanto más pruebas hagan todos, mejor.
jamolo
Visores
#6 » Respuesta a Cdaked #4 28 FEB 2017 14:33
Que no lo veas no quiere decir que no sea posible, e insisto, ya han conseguido 3 trackeos casi perfectos, con lo que optimizando software......sabe dios cuantos trackeos por leds pueden agregarse, y a coste muy muy inferior.