Pues la duda que tengo es respecto a si esto de los fotogramas funciona para una pantalla como en el caso del DK2 o para dos pantallas como el futuro CV1 me explico;
En el DK2 para disfrutar de una buena VR necesitamos 75FPS pero tenemos una sola pantalla y la imagen partida, o por lo menos es lo que he aprendido en este foro porque yo no tengo ningún DK para probarlo.
En el CV1 No sé cómo va la cosa y supongo que todo lo que hablemos va a quedar como pura especulación, pero la duda me salta con los 90FPS, ¿estos 90 se parten en las dos supuesta pantallas que tendrá? ¿Reparte estos 90 dejando en cada pantalla 45FPS? O ¿necesitaremos 180FPS para que cada pantalla tenga 90FPS?
xekcedomPues la duda que tengo es respecto a si esto de los fotogramas funciona para una pantalla como en el caso del DK2 o para dos pantallas como el futuro CV1 me explico;
En el DK2 para disfrutar de una buena VR necesitamos 75FPS pero tenemos una sola pantalla y la imagen partida, o por lo menos es lo que he aprendido en este foro porque yo no tengo ningún DK para probarlo.
En el CV1 No sé cómo va la cosa y supongo que todo lo que hablemos va a quedar como pura especulación, pero la duda me salta con los 90FPS, ¿estos 90 se parten en las dos supuesta pantallas que tendrá? ¿Reparte estos 90 dejando en cada pantalla 45FPS? O ¿necesitaremos 180FPS para que cada pantalla tenga 90FPS?
La unica diferencia entre dk2 y cv1 (o vive) es que en dk2 con una pantalla es mitad para cada ojo, en el cv1 y vive sera una pantalla para cada ojo, que si las juntas seria lo mismo que el dk2 pero asi se aprovecha mejor y se puede posicionar mejor.
Por tanto cada pantalla tendra que tener 90 hz
Por cierto la pantalla sera (seguramente) a 90 hz, son los juegos (o mejor dicho la grafica) los que tienen que lograr ir a 90 fps
Un ejemplo (por si te sirve): mira tu tv, por un carton en medio y cada ojo vera media television (eso seria el caso de un visor de movil o del dk2), para el caso del cv1 y vive enciende 2 televisores y mira un televisor con cada ojo poniendo el carton entre las 2 tv (en realidad para ligualar seria romper las 2 tv por la mitad para que cada ojo viese una tv de mitad de ancho)
Por aclarar un poco más, al ser 2 pantallas no hay que sumar 90hz + 90hz, al ordenador le da igual cuántas pantallas sean, las trata como si fueran una sola pantalla cuya resolución es la suma de todas ellas, pero con una única tasa de refresco.
Estoy de acuerdo, pienso que será la propia controladora de Oculus Rift y Vive la que se encargue de repartir la imagen en las dos pantallas, y que solo necesitaremos una salida de la gráfica.
Pues aprovechando la duda de xekcedom,la cual yo tambien estoy de acuerdo con lo respondido por jdelalamo y juanlo,me ha surjido a mi una duda con el tema de las 2 pantallas que creo que puede ser bastante interesante,en caso de que lo que pienso este en lo cierto...claro.
Actualmente sabemos que cuando utilizamos nuestros dk2,tenemos en la misma pantalla una imagen para cada ojo ligeramente iguales,que no iguales.Y para esto se hace un doble renderizado,y aparte algunos procesos,lo cual conlleva su correspondiente buen gasto,ok. Ahora bien,si los futuros hmd vienen con 2 pantallas,una para cada ojo,en lugar de una dividida...tengo la mosca detras de la oreja con esta duda.
¿no podria aprovecharse mucho mas el rendimiento del pc ahora con dos pantallas,que cuando usamos una sola pantalla dividida en 2 imagenes? Antes de que alguien piense¿que dice el loco este??Comento esto,porque segun tengo entendido,por ejemplo en el caso de los triple monitor,es diferente el gasto. Osea el pc no tendria que renderizar mas veces la imagen,sino repartirla a otra pantalla,entonces yo pienso que aunque en el rift no son exactamente iguales las 2 imagenes,solo habria que "copiar y ajustar,desplazar" una de ellas(tema 3d). No se si me estoy explicando bien,lo que quiero decir es que si nuestro pc,solo tiene que hacer el esfuerzo de renderizar una ves en este caso,porque la otra imagen va a ir a la otra pantalla,y ademas fuese posible ajustarla,pues el ahorro de recursos podria ser grande a comparacion de como es ahora ¿no? Igual estoy diciendo una tonteria como un castillo,pero por eso mismo me gustaria saberlo,me estoy haciendo un lio en esto
Edito:No sirve lo que he dicho,aunque esto fuese posible,esto supondria precisamente algo que no quiero ni en pintura xD
El caso es que, a efectos prácticos, el ordenador detectará el Rift como una única pantalla. Como ya han comentado los compañeros, es la propia controladora del visor la que se encarga de repartir la imagen que le llega de la fuente (el PC), entre las dos pantallas.
El caso de los tres monitores es completamente distinto, ya que se trata de la fuente enviando señales distintas desde la gráfica, una para cada monitor.
Sea como sea, el consumo de recursos en el renderizado es el mismo, lo hagamos como lo hagamos. Para conseguir la estereoscopía se requieren de dos imágenes renderizadas desde dos puntos de vista distintos. Lo hagamos en dos pantallas, en una, o en veinte, esos dos renders distintos tienen que seguir llevándose a cabo.
Nada entonces,yo pensaba que si uno de los 2 renders,fuese una repeticion del otro pero cabiese una posibilidad de ajustarlo/desplazarlo(separacion e.t.c.) de algun modo quiza podria conseguirse la estereoscopia tambien.Si requiere los 2 render,nada. Tambien estoy pensando ahora,que aunque se pudiese hacer lo que digo,esto traeria otro problema mas aparte,asi que nada,idea desechada. Hoy no es mi dia
No, en las configuraciones de triple monitor el juego renderiza una sola imagen, desde un solo punto de vista, a la resolución total que suman los tres monitores. Esta imagen es posteriormente dividida en la tarjeta gráfica entre los monitores correspondientes.
Para realidad virtual lo que se hace es renderizar desde dos puntos de vista distintos, y por tanto, dos veces. Pasas de tener una sola "cámara" dentro del juego, a tener dos simultáneas, separadas entre sí unos 64mm de media. Posteriormente cada una de esas imágenes es enviada a uno de los ojos, y así obtenemos el efecto de profundidad, como sucede en la vida real, vaya.
imhoNada entonces,yo pensaba que si uno de los 2 renders,fuese una repeticion del otro pero cabiese una posibilidad de ajustarlo/desplazarlo(separacion e.t.c.) de algun modo quiza podria conseguirse la estereoscopia tambien.Si requiere los 2 render,nada. Tambien estoy pensando ahora,que aunque se pudiese hacer lo que digo,esto traeria otro problema mas aparte,asi que nada,idea desechada. Hoy no es mi dia
eso que has descrito tan bien se llama estereoscopía basada en z-buffer, y lleva años utilizandose en wrappers como Tridef, o en el más actual VorpX, incluso en juegos como Crysis 2 para generar el 3D estereoscópico. Las dos imagenes para cada ojo se generan a partir de una sola imagen plana (2D), con la ventaja de que consume mucho menos recursos, ya que no se renderizan realmente las dos imagenes, y la desventaja de que los resultados son mucho peores, generando artifacts y objetos que aparentemente se renderizan a una profundidad erronea.
Vamos, que tiene sentido lo que dices, solo que ya está inventado
Efectivamente,lo uso bastante yo ademas estos driver,aunque me considero algo enemigo de ese metodo z. A mi me gusta la geometria,a pesar de su impacto,y creo que todo lo nativo debe funcionar asi. Aunque esto conlleve esperar a tener un sli (o vr sli en el caso de la vr)para poder llegar al framerate adecuado. Por eso desecho la idea que pense totalmente,ademas de otra causa aun peor que he pensado despues.
Sobre el Z,para mi la "unica"(notese las comillas)ventaja que tiene,es el rendimiento como es logico,y que con las luces y sombras y puntos de mira,hay menos problemas con los que lidiar.Pero son muchos los inconvenientes,el 3d es mucho menor,y como solo hay una vista de la imagen,suele haber distorsion en los bordes de los objetos al estar a una profundidad diferente de la escena detras,la modificacion de la escala por medio de la separacion es limitadisima tambien,problemas con el escalado de hud e.t.c. ya solo por eso,para mi,la idea que comente sobre la imagen en las pantallas seria desechable o nula totalmente.
Creo haberte entendido que no nos libramos de renderizar dos veces, con lo cual el coste es el doble o casi el doble en los mejores casos ya veremos que hace DX12.
No, el consumo de recursos de renderizar dos puntos de vista a renderizar solo uno no es directamente proporcional. Es decir, no es el doble o casi el doble, de hecho creo recordar que era sobre un 25% extra o algo así. Hay muchas cosas que no son necesarias ser calculadas en el renderizado más de una vez, por lo que la necesidad de potencia no se duplica.
Esto es debido a que estos visores personales utilizaban microdisplays, además de aumentos mucho menores. Entre la tecnología distinta de estas pantallas y el menor aumento de la imagen el SDE pasa a ser inapreciable. ¿En que se traduce esto? En una calidad de imagen mucho mejor, pero un fov MUCHO peor.
Desde luego,si el dk2 va corto de fov horizontal para muchas cosas,45º tiene que ser un calvario para mi,al menos para jugar. Para pelis igual es mas soportable,no lo he probado personalmente.
Ten en cuenta que hablamos de un dispositivo concebido en su momento para cine mayoritariamente. Para ver películas, su cometido principal, un fov de 45º no está mal.
Sobre el tema de las conexiones, ancho de banda y cables, en los proyectores todo este sistema funciona con un sólo cable y conexión HDMI 1.4a. El problema es que el ancho de banda está limitado, pero utilizan dos técnicas para poder mostrar 3D. - La primera y la que da más calidad es la que se utiliza en películas 3D ISO (y formato Bluray), que funciona con frecuencias de 24pfs a 1920x1080 y necesita dos fotogramas FullHD secuenciales para crear una imagen 3D (una para cada ojo). - La segunda y la que da menos calidad es la que se utiliza en películas 3D MKV SBS (Side be Side = lado a lado) que funciona con frecuencias de 60fps a 1920x1080 y necesita un fotograma que contine dos imágenes (una para cada ojo), pero con la mitad de resolución horizontal cada uno, que el procesador del proyector se encarga de escalar (perdiendo calidad) y mostrar secuencialmente.
¿A que viene todo este tocho técnico-explicativo de cómo funciona el 3D en los proyectores?
Pues porque las técnicas utilizadas en los proyectores se podrían aprovechar y adaptar a los visores de RV.
Los visores de RV con dos pantallas podrían alternar una imagen con la otra. Es decir, que primero mostrarían la imagen del ojo izquierdo mientras la del derecho está en negro (o resfrescando la siguiente imagen), y viceversa. Este sistema es el que utilizan los proyectores para funcionar a 120 fps (60fps para cada ojo) y va perfecto. No se nota nada de parpadeo. En el caso de los proyectores son las gafas 3D las que van tapando los ojos en negro alternativamente delante de una única pantalla y el proyector va mostrando de forma sincronizada los fotogramas que coinciden con cada ojo. También hay proyectores (los DLPs) que funcionan a 144fps (72fps por ojo).
Creo que con una técnica así también se podrían utilizar dos pantallas de 60hz que funcionando de forma "desincronizada", daría un total de 120hz de una forma económica. Al menos hasta que existan pantallas de 120hz.
Y con un sólo cable HDMI podría funcionar todo, igual que lo hacen en los proyectores. Y os aseguro que el 3D en los proyectores funciona genial.
Saludos.
* Nuestro cerebro es un sistema de simulación que virtualiza todo lo que capta del exterior.