LG Display desarrolla un algoritmo para reducir la latencia en contenidos de alta resolución
28 MAY 2018 20:52
La solución, que utiliza técnicas de aprendizaje profundo, se basa en el empleo de imágenes de baja resolución que se transforman en ultra alta resolución, reduciendo así la carga del sistema.
LG Display, junto a la Universidad Sogang de Corea del Sur, ha desarrollado una tecnología que utiliza la inteligencia artificial para reducir la latencia de los contenidos de realidad virtual. La solución se basa, según explica el profesor Kang Seok-ju de Sogang, en un algoritmo capaz de convertir en tiempo real imágenes de baja resolución en otras de ultra alta, utilizando para ello técnicas de aprendizaje profundo. Esto se traduce en una reducción significativa de hasta una "quinta parte" de la latencia (motion to photon), así como también en una mejora del consumo, ya que reduce la carga del hardware. A su vez, la tecnología permite que equipos con menos potencia puedan renderizar mayores resoluciones.
"Como el contenido con mayor resolución exige una mayor capacidad de datos. Esto también provoca una mayor latencia (entre el movimiento de los usuarios y la actualización de la pantalla) en tiempo real", explican.
Básicamente, se trata de una forma de realizar el escalado, donde el ahorro viene por la utilización de la menor calidad de la imagen que se convierte a una mayor calidad mediante el citado algoritmo de inteligencia artificial, que "solo utiliza la memoria interna del dispositivo".
LG está colaborando también con la Universidad para desarrollar un instrumento de medición de latencia en visores de realidad virtual, que funciona con un motor para emular los movimientos del usuario.
El equipo, que ha estado trabajando en esta técnica desde 2015, no ha confirmado si se utilizará en el futuro visor de LG. La semana pasada presentaron, junto a Google, su nueva pantalla de realidad virtual, pero no hacían referencia a esta nueva tecnología de renderización de contenidos de alta resolución.
Cdaked
Visores
#1 28 MAY 2018 22:29
Buenísimo. Supongo que ya nadie duda que LG está haciendo algo en XR para ella y/o Google ¿no?
Si controla el escalado, parece para la pantalla de Google y LG ya que llevaría un chip para controlar la resolución y escalado en una zona.
Parece que, aparte de la latencia, también evita el desenfoque (blur), reduce el consumo energético y a una quinta parte el trabajo de la tarjeta gráfica, usa la memoria del dispositivo, no del PC...
Una fuente extra en inglés, ZDNet.
en VRFocus
y en Road To VR.
raul
Visores
#2 29 MAY 2018 15:13
Lo que no acabo de entender es que la calidad de la imagen será en baja y luego se amplia, o sea, que todo se resume a un reescalado, pero en mejor (??¿¿)
Eso sí, eso que solo usa una quinta parte de la tarjeta, significa que todas las tarjetas acaban de subir en potencia para la vr por la cara, si a eso añadimos el fovateated render, quizas la siguiente generación no exija tanto, igual no va a hacer falta ni comprarse nueva tarjeta
SpAiK
Visores
#3 » Respuesta a raul #2 29 MAY 2018 16:36
Eso podría aplicarse igualmente a cualquier display y así reducir la exigencia gráfica en resolución para amortizarla en otros aspectos.
raul
Visores
#4 29 MAY 2018 20:10
Sí, pero si estas viendo digamos unos arboles a 720, lo que hace esta pantalla es escalarlo a 4k..entonces de donde sale la nueva información visual? de donde salen todos los detallitos de las hojas, y la hierva? se lo inventa?