"Franky"Aquí hablan con más detalle del VR Direct:
Para el renderizado de cada ojo por separado en cada GPU, NVIDIA es capaz de aplicar los beneficios de rendimiento del SLI a VR sin crear latencia adicional. Dado el alto rendimiento y baja latencia necesarias para VR, se espera actualmente que la mayoría de juegos de gama alta sean compatibles con HMD's y necesitarán SLI para alcanzar el rendimiento necesario, así que la posibilidad de utilizar SLI sin una penalización de latencia será una parte importante para hacer juegos VR comercialmente viables.
Ahi esta lo que yo decia a Knack!!! nada de tonterias de EYE TRacking y foveteated rendering: es una chapuza.
"Franky"Aquí hablan con más detalle del VR Direct:
Para el renderizado de cada ojo por separado en cada GPU, NVIDIA es capaz de aplicar los beneficios de rendimiento del SLI a VR sin crear latencia adicional. Dado el alto rendimiento y baja latencia necesarias para VR, se espera actualmente que la mayoría de juegos de gama alta sean compatibles con HMD's y necesitarán SLI para alcanzar el rendimiento necesario, así que la posibilidad de utilizar SLI sin una penalización de latencia será una parte importante para hacer juegos VR comercialmente viables.
Ahi esta lo que yo decia a Knack!!! nada de tonterias de EYE TRacking y foveteated rendering: es una chapuza.
Una GPU para cada ojo y fin del problema!!!
Hombre yo tambien recalce mil veces en el foro que el SLI era imperativo, espero que al menos ahora la gente pare de decir "es que no esta optimizado"
De todas formas aparte de eso el eye tracking seguira siendo necesario, creo que seguís subestimando la potencia necesaria para el stereo, lei que en la convención esa las demos de NVIDIA/Oculus iban con 980SLI sin muchos efectos, detalles, y sin shaders pero que al menos ahora tiraban y eran bastantes jugables (ojo con la Dk2 ).
Y si te fijas en la nueva demo de EPIC presentada en el NVIDIA tambien (aunque no se aprecia bien cosas) sospecho que ahí iban todas las demos de Oculus con 980SLI, y la demo de EPIC le faltan detalles aunque el efecto y calidad de imagen esta currado (sigue siendo pro's y una demo) pero no ves a los personajes con sombras dinamicas, no hay reflexiones de luz dinámicas, las reflejos son pre-cocinados (por eso los gamers han apaleado juegos como watch dogs), al igual que todas las sombras que puedas distinguir, y seguramente nada tesa ni aliasing aunque eso ya es más difícil de distinguir dada la calidad del video.
Ahora coge la CV1, 90fps cosa que no alcanza ahora una 980 a 1440 con un juego puntero con aliasing, tesa, efectos y shaders, AO, etc (cosas básicas ahora) y por mucho SLI seguramente (aunque espero equivocarme) no mantenga los fps conseguidos en el monitor. Añádele quizás en vez de 100ºFOV 120ºFOV, eso no se que porcentaje de escena es a más a renderizar pero son bastantes grados y el conste por grado no es proporcional si no bastante más, y cuando más detalles peor, como dije en otro hilo de 90º a 120º cae un 40% de fps sin florituras de efectos y detalles, o sea de 100º actuales a 120º que pudiera tener la CV1 va a caer un porcentaje bastante considerable.
O sea para CV1 suponiendo que sale con 120º fov si vamos a echar de menos o al menos esperar algo como el eye tracking y el futuro de 4k/120hz ya ni te cuento. Así que no lo mates todavía,
Aunque lo más importante ahora mismo era el tema SLI y lo que más salva la vida a la RV ahora mismo. Yo estoy contento, aunque vaya a salirnos un pastón, de todas formas a ver que rendimiento se saca realmente con el SLI no me voy a hacer muchas ilusiones que luego vienen los palos... pero la cosa ciertamente promete ya.
"crom2020"Hombre con una GPU de estas por cada ojo tiene que ir bien,aunque habrá que comprobarlo en realidad que 1440p a 90-95 hz no es ninguna broma
Efectivamente, pero no es 1440p, para la tarjetas estaran haciendo 720p+720p!!! con lo que cada tarjeta puede perfectamente sacar 90fps!!!! y 100!!! y 130!!!!!
Luego queda ver como se sincronizan entre ellas para no meter retardo pero a priori es muuuuuucha mejor solucion que el eye tracking.
El truco es que van a ser 2x720p!!!!! no una 1440p
"crom2020"Hombre con una GPU de estas por cada ojo tiene que ir bien,aunque habrá que comprobarlo en realidad que 1440p a 90-95 hz no es ninguna broma
Efectivamente, pero no es 1440p, para la tarjetas estaran haciendo 720p+720p!!! con lo que cada tarjeta puede perfectamente sacar 90fps!!!! y 100!!! y 130!!!!!
Luego queda ver como se sincronizan entre ellas para no meter retardo pero a priori es muuuuuucha mejor solucion que el eye tracking.
El truco es que van a ser 2x720p!!!!! no una 1440p
1440p (3.686.400 px) son 4 veces 720p (921.600 px), osea 1280x1440 por ojo usando panel 1440p es lo que tiene que renderizar.
Deduccion 2*720p no son 1080p y 2*1080p tampoco son 1440p
Un Saludo
Esta perfecto ya que esta puesto de esa manera para que se sobreentienda la escalada de resoluciones.
Si tu lo dices, pues nada que por mi esta perfecto así, estabamos hablando de la cantidad de pixels que hay que renderizar por ojo , usando 2 tarjetas en SLI.
Tiene que renderizar bastante mas que 720p, pero bueno teniendo un sli de esos tira igual digo yo
Yo creo que si que se podra renderizar a 1440p y a 90fps con esa tarjeta en SLI
Chicos pregunta del millón, cuando hablamos de SLI para beneficiarnos de esta nueva tecnología aplicada a la RV, tiene que ser OBLIGATORIAMENTE dos gráficas físicas o por el contrario nos vale una única gráfica con DUAL-GPU, yo ahora mismo tengo una Gtx690 y en un futuro quisiera tener una sola gráfica DualGpu, la supuesta GTX990, GTX1000, o la que saquen con doble gpu, mi problema va por espacio físico y porque no, también por consumo, desembolso, etc...
Tendrá que ser dos gráficas independendientes o valdrá una sola con doble-gpu ???????
"predator036"Chicos pregunta del millón, cuando hablamos de SLI para beneficiarnos de esta nueva tecnología aplicada a la RV, tiene que ser OBLIGATORIAMENTE dos gráficas físicas o por el contrario nos vale una única gráfica con DUAL-GPU, yo ahora mismo tengo una Gtx690 y en un futuro quisiera tener una sola gráfica DualGpu, la supuesta GTX990, GTX1000, o la que saquen con doble gpu, mi problema va por espacio físico y porque no, también por consumo, desembolso, etc...
Tendrá que ser dos gráficas independendientes o valdrá una sola con doble-gpu ???????
Saludos
No lo sé, pero la lógica es que usen la cabeza y esa gráfica doble la hagan funcionar como una doble-gpu. Me extrañaría mucho que no.
"predator036"Chicos pregunta del millón, cuando hablamos de SLI para beneficiarnos de esta nueva tecnología aplicada a la RV, tiene que ser OBLIGATORIAMENTE dos gráficas físicas o por el contrario nos vale una única gráfica con DUAL-GPU, yo ahora mismo tengo una Gtx690 y en un futuro quisiera tener una sola gráfica DualGpu, la supuesta GTX990, GTX1000, o la que saquen con doble gpu, mi problema va por espacio físico y porque no, también por consumo, desembolso, etc...
Tendrá que ser dos gráficas independendientes o valdrá una sola con doble-gpu ???????
Saludos
No lo sé, pero la lógica es que usen la cabeza y esa gráfica doble la hagan funcionar como una doble-gpu. Me extrañaría mucho que no.
Eso espero compañero, seria una jodienda de las buenas tener que tener dos graficas fisicas para beneficiarte de esto........
Las tarjetas de doble núcleo lo que tienen es un sli interno,a efectos prácticos y de drivers me parece que tienen muchas similitudes y puede que las doble núcleo tengan menos latencia incluso,por lo que supongo que no habrá problemas en lo que comentái,funcionará de la misma manera que funcionaria en dos 980,por ejemplo.
Microsoft aviso que saldrá el nuevo directx12 con varias tecnologías nuevas... esto significa que la.serie gtx900 nació muerta.. no valdra la pena comprarla si no soporta esta API. Nvidia recién la soportara en sus próximas tarjetas de mitad del.2015.
Mejor esperar el soporte dx12 para renovar los graficos
"daniroquai"Microsoft aviso que saldrá el nuevo directx12 con varias tecnologías nuevas... esto significa que la.serie gtx900 nació muerta.. no valdra la pena comprarla si no soporta esta API. Nvidia recién la soportara en sus próximas tarjetas de mitad del.2015.
Mejor esperar el soporte dx12 para renovar los graficos
Demo de Fable corriendo con Unreal 4 bajo dx12 en una GTX 980:
No hay fronteras. No hay límites. No hay reglas. - Bienvenido a la Realidad Virtual. -
.....ademas, Amd/Ati se acojonan y corren a sacar un titular anunciandonos que en breve "nos haran viajar sin necesidad de pildoras", jajajaja, joder como esta el patio chicos.....