¿Que nos falta para que funcione el stream VR como ya empieza a funcionar en plano?
No me refiero al stream de la habitación de al lado, si no la de juegos ejecutándose en la nube.
¿Donde está el cuello de botella?, se que en la latencia. , ¿pero donde?. ¿demasiados datos de posicionamiento para enviar? ¿Tasa de refresco alta necesaria?.
¿Se han realizado pruebas de concepto con resultados que podamos ver?
La gente dice que ShadowPC funcionaba bien, tal vez no en los juegos que pidieran muchos reflejos, para para juegos más tranquilos rollo Alyx, se podía jugar en la nube con él. Meta se supone que lleva tiempo probando Avalanche. Se decía que con el 5G (el 5G+ que se supone que era el 5G completo) con latencias muy bajas se podría hacer sin tanto problema (porque sería una latencia inferior al wifi, necesaria para compensar la latencia de generar y transmitir en la nube también).
Creo que uno de los problemas, aparte de lo técnico de latencia y transmisión, es que puede ser una infraestructura muy cara, y si tampoco se espera mucho usuario final, puede que el pago por el servicio sea relativamente caro también.
Yo probé el sistema de streaming en plano de playstation y de la ya muerta stadia y simplemente se pueden jugar a juegos sencillos, los que el input lag no afecte demasiado. realmente se nota, y es un fastidio. creo que hace falta que pasen unos años aún para que el streaming funcione bien en videojuegos. No es lo mismo que el el jeugo vaya de tu pc a tu visor pasando por un router en casa, que el juego vaya por un servidor que con suerte esta en tu continente, y de ahí pasé a tu proveedor de internet, si este es propietario de su red,luego a tu router y luego a tu pc, la velocidad de transmisión es alucinante pero no lo suficiente como para que no notes que hay un retardo, es que le das al botón y tiene que hacer ese camino de ida y de vuelta. y si se nota en plano, no quiero saber lo que se debe de notar en VR.
Yo creo que aquí la IA/algoritmos tienen mucho que ayudar a este tema de latencia.
Un concepto sería que las gafas tuviesen un buffer de memoria que fuese almacenando los 'n' fotogramas posibles que estime pueda a necesitar y que los tenga precargaros todos en la memoria de las gafas.
Seria una especie de buffer de datos como hace netflix para tener ' vídeo de sobra' ante bajadas de cargas de datos de red, pero en el caso se VR guardando las 'n' imágenes más posibles que el usuario vaya a necesitar.
Es decir, lo gordo (la generación de imágenes) se ejecuta en servidor, y las gafas solo necesita 'un poco' procesamiento para gestiónar ese buffer y decidir que imagen utilizar de entre todas las precargadasben base a los movimientos del jugador.
Porque habitualmente, todos aproximadamente miramos a las mismas zonas durante los mismos momentos del juego.
Esto así en concepto parece que podría funcionar, pero claro la realidad está llena de matices y dificultades . Seguro que algo llegará pronto.
No estoy seguro pero creo que ya hacen eso las propias quest para predecir dónde vas a girar la cabeza o donde vas a mover las manos, porque si no habría cierto lag que marea en realidad mixta. pero no me hagas mucho caso que es algo que me pareció entender un día que oscar lo estaba explicando con un paper XD