HoloLens 2: IMPRESIONES
1 MAR 2019 10:24
La realidad aumentada (o mixta) de Microsoft da un paso más en su evolución, ofreciendo una gran experiencia gracias a su mejor ergonomía y mayor campo de visión.
La nueva generación de HoloLens
Microsoft estuvo ofreciendo en el MWC19 cuatro demostraciones que permitían experimentar algunas de las nuevas características y posibilidades de la nueva generación de HoloLens que presentaron el domingo pasado en Barcelona con motivo del evento. En nuestro caso, tuvimos ocasión de probar dos de ellas, una creada por Bentley en la que experimentábamos la creación colaborativa de un proyecto de arquitectura, y otra que utilizaba la herramienta Dynamics 365 para mostrar un ejemplo de asistencia remota en la industria.
Vamos a comenzar con la primera de las demos, lo que nos dará pie para ir comentando nuestras impresiones sobre las distintas características de HoloLens 2. Antes de entrar en la sala acondicionada para la ocasión, teníamos fuera unos minutos para examinar y colocarnos el visor. Al sujetarlo con ambas manos, comprobamos el buen acabado que tiene y la calidad de los materiales, así como que la parte trasera pesa más que la frontal, algo lógico ya que es donde se encuentran la batería y el procesador, aunque una vez puesto no molesta y se siente ligero y cómodo en todo momento. En este sentido, HoloLens 2 sin duda ofrece una gran ergonomía, mejorando bastante a su primera generación, que se hacía más pesada e incómoda debido también a su apoyo en la nariz. Aquí los únicos puntos de apoyo son los de la diadema de sujeción que rodea nuestra cabeza. Su ajuste se realiza con la rueda trasera, por lo que resulta sencillo de poner y quitar, además de que podemos levantar el frontal en cualquier momento y en cualquier posición, es decir, se puede quedar medio levantado si así lo queremos.
Jugando con el pájaro azul virtual.
Una vez tenemos colocado HoloLens 2, el primer paso es configurar el seguimiento ocular, ya que es la primera vez que utilizamos el dispositivo (en sucesivas ocasiones, el mismo visor nos reconocería de forma automática, saltándonos este paso). Para ello utilizan un sistema muy intuitivo de puntos a los que hay que ir mirando (sin mover la cabeza) a medida que van apareciendo ante nosotros. Nada más concluir, aparece el pájaro azul con el que interactuaban en la presentación del domingo, así que empezamos a jugar con él para probar el seguimiento de manos. Todo funciona bien, ponemos un dedo o la palma de la mano y el pájaro se posa como si fuera real. Eso sí, la colisión no es perfecta, pero el poner las manos de forma tan natural hace que cause un mayor efecto.
Tras jugar con nuestro diminuto amigo azul, entramos en la sala con otra persona que será con la que interactuaremos en la demo de arquitectura de Bentley. Esta demo cuenta con una mesa real sobre la que van a apareciendo distintas maquetas y objetos virtuales, siendo posible recogerlos para verlos en detalle, redimensionarlos con nuestras propias manos o incluso dárselos a nuestro compañero, y hasta ahí llegará toda la colaboración, más allá de estar ambos viendo el mismo mundo aumentado de forma sincronizada y poder pulsar botones o cambiar barras de desplazamiento comunes para ambos. La interacción, como indicábamos, se realiza de forma natural. Para agarrar un objeto hay que abrir la mano y cogerlo, y no realizar el gesto de pinch, lo mismo con las barras de desplazamiento o botones. Como punto negativo al seguimiento de manos, tenemos que presenta un poco de latencia, sobre todo cuando movemos un objeto virtual que tenemos agarrado.
Imagen de las cámaras empleadas para el seguimiento ocular.
Hasta el momento, la mayoría de hologramas que estamos viendo tienen más transparencia de la que esperábamos, aunque en la parte final aparece un edificio que se muestra de forma totalmente opaca, evitando que veamos la parte que tapa del mundo real. Así que en este sentido, es capaz de darnos esa inmersión de forma correcta, pero es un factor que depende más de los desarrolladores, como veremos más tarde. Y hablando de inmersión, la interacción con las manos y su calidad gráfica hacen que, sumados al incremento del ángulo de visión, nos sintamos más cómodos que nunca para contemplar, desenvolvernos y orientarnos en la experiencia aumentada. Su FOV se percibe como un pequeño salto respecto a visores como Magic Leap (quizás por tener algo más en horizontal), pero en comparación con el primer HoloLens, es un importante paso adelante. Ahora bien, donde más problemas tuve fue en el vertical, ya que debido a mi altura tenía que estar mirando hacia abajo para poder ver muchos de los objetos de la mesa al completo, algo que nos ocurre también con Magic Leap. Cabe destacar que en los laterales del visor, donde terminan las lentes, vemos reflejada la parte posterior del mundo real, algo que no parece molestar al utilizarlo.
Espacio designado para la demo de Bentley.
Otro de los aspectos que podemos comprobar desde el primer momento es el funcionamiento del posicionamiento absoluto, es decir, de la capacidad de movernos e inclinarnos para ver los detalles de los objetos virtuales. La experiencia sigue siendo solida, como ya era en la versión anterior, pero presenta también pequeños saltos de los objetos posicionados sobre el mundo real. Por ejemplo, al contemplar la unión del edificio antes comentado, podemos ver como no es fija y tiembla ligeramente ante nuestros movimientos. Aún así, nos da la sensación de que funciona mejor que en Magic Leap. Respecto al mapeo de la habitación y los objetos, sigue siendo igual de perfecto. Si dejas algo posicionado en un lugar, ahí quedará cuando vuelvas a dirigir la mirada al mismo sitio.
HoloLens 2 dispone también de altavoces en lugar de auriculares, por lo que las personas que estén a nuestro alrededor serán capaces de escucharlos. Una característica que me fue útil en mi primera demo, dado que no funcionaba el audio de mi unidad por algún problema momentáneo del software. En la demo de asistencia remota sí pude disfrutar del sonido, siendo fácil escuchar a la persona que me iba guiando para reparar una máquina de cuyo funcionamiento no tenía la menor idea. Y ahí radica la utilidad de la propuesta Dynamics 365 de Microsoft, pues una persona que veía lo mismo que yo era capaz de guiarme por voz y señales o incluso documentos virtuales que podía posicionar sobre el mundo real. Mi guía utilizaba un PC donde veía la imagen de la cámara frontal de mi HoloLens 2, y marcando sobre la imagen podía colocar, por ejemplo, una flecha que señalará un determinado botón a pulsar, algo que automáticamente se posicionaba en su profundidad correcta, es decir, al lado del botón o lugar designado.
Ruleta de ajuste para fjar la sujeción.
Como ya adelantábamos en el RoVCast del MWC19, pudimos hablar con alguien de Microsoft involucrado en el desarrollo de HoloLens 2, por lo que pudimos confirmar que utilizan un solo foco de profundidad como en la versión anterior, algo que en este sentido Magic Leap innova ofreciendo dos.
A continuación os ofrecemos algunas de las preguntas y respuestas.
¿Solo cuenta con un nivel de foco como la generación anterior?
HoloLens 2 todavía tiene una sola profundidad de enfoque para el sistema de visualización. Tendréis que esperar a algún teardown para saber cómo está construido exactamente.
En este sentido, ¿ofrece alguna mejora más?
Hay algunas cosas que son un tremendo avance, y una de ellas es la estabilización del contenido en el mundo con lo que llamamos reproyección en etapa tardía (late stage reprojection). Y ahora somos capaces de hacerlo en todas las profundidades que ofrece el display, por lo que en realidad se obtienen hologramas mucho más estables en el mundo, incluso en comparación con nuestra generación uno, que ya era un hito en términos de estabilidad de los hologramas, de modo que es una mejora en los términos del sistema visual.
¿Y en cuanto al tracking? ¿alguna mejora?
Es un sistema muy similar a la primera generación, si estás familiarizado con él. Utilizamos SLAM en estas cuatro cámaras que apuntan hacia adelante y hacia un lado (dos delante y dos a los lados).
¿Utilizáis el nuevo sensor de profundidad Azure Kinect para el tracking?
Las cámaras de seguimiento del mundo no se basan en la profundidad, son solo cámaras. En el centro está el sensor de profundidad, detrás de esa ventana negra, y es el mismo sensor de profundidad que encuentras en Azure Kinect. Tenemos cuatro cámaras para el seguimiento, el sensor de profundidad y una cámara RGB situada en el centro para fotos/vídeo.
¿Para que empleáis el eye tracking actualmente? ¿y el desarrollador puede utilizar técnicas como el renderizado foveated?
Detectamos la posición de los ojos con las cámaras de eye tracking, y luego el propio dispositivo soporta una amplia gama de distancias interpupilares sin ningún tipo de ajuste mecánico. Puede utilizarse la autenticación de Windows Hello usando tu iris, y también tenemos el uso para la interacción con la mirada. Y eso en particular es útil. Si pruebas algunas de estas demostraciones verás que podrás leer un documento que se auto desplaza al llegar al final. Como es tan preciso, se siente muy natural poder hacer eso. También estamos experimentando con otro tipo de contextos que también proporcionan otras formas de usar el eye tracking.
¿Qué hay sobre la opacidad de los objetos virtuales?
Mucho de eso depende en realidad del asset que se renderiza, del canal alpha y parámetros del estilo. Lo que vemos es que desde la perspectiva del sistema de contraste, estas pantallas son percibidas como un poco más brillantes que las de nuestra primera generación. Esa demostración (la de Bentley colaborativa) quizás no sea el mejor ejemplo porque en realidad usan algo de transparencia en sus hologramas, aunque al final muestran un edificio completo que ilustra la opacidad total que se puede lograr. El pájaro azul del principio tiene esa transparencia porque su propósito es ser mágico.
¿Qué nos puedes decir sobre el FOV?
Creo que ese crecimiento de más del doble es un gran salto adelante, y hay más por venir, pero por ahora, al menos para un montón de escenarios, ya está empezando a llegar al punto en donde es bastante bueno. Seguiremos trabajando en ampliar el campo de visión en futuro dispositivos.
Hasta aquí llegan las preguntas.
En resumen, la experiencia con ambas demos fue muy positiva, dejándonos una grata impresión. HoloLens 2, gracias a su excelente ergonomía y su mayor amplitud de ángulo de visión, se convierte en un gran aliado para el mundo profesional que seguro que revolucionará muchos sectores. Estamos llegando a un punto en el que este tipo de visores comienzan a ser prácticos y, aunque aún queda por mejorar, suponen un gran paso en el camino. Además, el que todo esté integrado en el dispositivo puede ser un mayor aliciente para su uso por determinados profesionales.
cercata
Visores
#1 1 MAR 2019 11:06
Buen articulo !!!!!
Está aun un poco verde para uso profesional parece, pero lo peor es que Microsoft parece que intenta colar todo su ecosistema con las gafas. Por ejemplo, la aplicacion para asistencia remota, ala, dentro de Dynamics 365, ala, tragate todo su ERP.
Ya so falta que nos metan el always online, y demas de su morralla. Al final me va a gustar mas Magic Leap.
parumerosan
Visores
#2 1 MAR 2019 16:43
lo lógico
nada q ver con esa fluidez scifi q se veía en el anuncio
humo a 3500€
Nerk
Visores
#3 1 MAR 2019 23:36
Gracias Harold,también me ha gustado el artículo,yo pienso que la realidad virtual será un entretenimiento que llegará a mucha gente,pero la realidad aumentada cuando esté preparada para el gran público será tan masiva como lo es hoy el móvil , debido a que al interactuar con el entorno real será todo mas natural,además de tener posibilidades infinitas . ¿Podrías hacer una comparación del fov con algún objeto o situación real para hacernos una idea del ángulo de visión de las nuevas HoloLens?,gracias de nuevo.
gopozgon
Visores
#4 2 MAR 2019 0:25
Me flipa que sea posible conseguir algo parecido a opacidad, la verdad. A ver cuando puedo probar un cacharro de estos, pero si, si esto sigue evolucionando, la AR podría llegar a ser masiva.