AMD retrasa su gráfica dual para coincidir con la realidad virtual
24 DIC 2015 12:50
AMD lleva ya algún tiempo preparando una nueva gráfica con 2 GPUs que podría llegar coincidiendo con los dispositivos comerciales de realidad virtual en PC.
En abril de este mismo año ya comentábamos que AMD podría estar trabajando en una tarjeta gráfica basada en 2 GPUs Fiji, la utilizada en su gama Fury con memoria HBM. Se especulaba que el lanzamiento se realizaría pocos meses después de las tarjetas Fiji de una GPU, pero finalmente parece que el lanzamiento se retrasará hasta coincidir con el de Oculus Rift y HTC Vive, tal y como confirma AnandTech.
Las características de esta tarjeta serían similares a montar dos Radeon Fury en CrossFire, pero en un único PCB. De momento se desconoce si se mantendrán las velocidades de reloj o si se utilizarán ajustes algo más conservadores para que no haya problemas de disipación de calor ni de consumo de energía. Eso sí, no se tratará de un producto apto para todos los bolsillos, pero si finalmente los motores 3D logran un buen rendimiento en realidad virtual aprovechando plenamente la potencia de este tipo de configuraciones con una GPU para cada ojo, seguro que muchos de los usuarios más entusiastas (y pudientes) optan por este tipo de soluciones.
Por el momento, ya sabemos que Epic Games trabaja para dar soporte al VR SLI de nVidia en Unreal Engine 4, y es de esperar que haga lo propio con la solución de AMD bajo LiquidVR. También se rumoreaba que Robinson: The Journey se mostró funcionando en un prototipo del CV1 de Oculus con 2 tarjetas Radeon Fury (antes de convertirse en un título exclusivo de Sony), por lo que parece claro que los desarrolladores están dispuestos a aprovechar al máximo cada gota de rendimiento que puedan aportar las soluciones multiGPU, que en realidad virtual sí van a ofrecer un claro beneficio en cuanto a rendimiento y latencia, algo que muchas veces no está tan claro en un monitor.
Juanlo
#11 26 DIC 2015 11:29
Borrados comentarios anónimos que solo hacen insultar. Por favor, contribuid todos a mantener esto limpio, que es Navidad
#12 » Respuesta a Juanlo #11 26 DIC 2015 17:24
Bok3Ron
#13 » Respuesta a yiahjoe #6 27 DIC 2015 18:21
yo creo que eso que te as comprado es mas de 1000€ xD
Nikolas
#14 » Respuesta a omg #4 28 DIC 2015 17:08
El post no tiene ningún sentido?
Las fury x son compatibles con dx12_1 de manera nativa, montan los fpgas necesarios para la aceleración vía HW entre cores y soportan full tier3, no entiendo en que son malas, si es de lejos la mejor VGA del mercado a día de hoy.
Por otro lado, DX12 ya esta aquí, no entiendo el "si alguna vez llega" en algo que ya esta implementado en w10, falta que el HW se ponga al dia, ahora mismo en w10 tienes el dx12 mono o como lo llaman también dx11.3
Y no es que dx12 soporte sli o xfire, es que lo hace de manera nativa reduciendo mucho la latencia y consiguiendo el mismo rendimiento que en single GPUs.. Es que se sabe que DX12 es vital para la experiencia de RV y por eso las empresas están volando con el desarollo de las VGA 12_1
Esta VGA sin ir más lejos no la aplazan por la VR perse, si no porque la quieren reservar para la api estéreo donde sacaran un 2x sobre el rendimiento que tendrían en "mono"
Fable legends se ha retrasado por la misma razon, necesita partes de la api de dx12 que todavía no están disponibles, y es precisamente un acceso anticipado a la programación en estéreo.
Todo esto tiene montañas de documentación publicada ... La verdad no entiendo este post... Inocentada o fannboy de NVIDIA?
FWagner
#15 28 DIC 2015 17:21
¿y fecha aproximada hay?
gallox
#16 28 DIC 2015 19:16
Se supone que este foro es especializado y se entiende el contexto, pero bueno ¡Aclaración! Yo no hablo de DX12 o AMD, si no de la idea de usar una gráfica para cada ojo, en donde la técnica es distinta a un SLI o CrossFire, de igual manera que lo es Physx. Nombro DX12 por que de alguna manera daría una de las posibilidades en la que se supone que puede aprovechar dos gráficas en DX12 y esto tiene puntos en común con el tema.
Pero supongo que yo no me explique bien (lo mas lógico) o se me malinterpreto. Tampoco importa mucho.
NP: De momento DX12 es humo, se que Win10 tienen el soporte pero su implementación es de momento nula, llegando hasta el punto de que grandes títulos para el 2016 llegan en DX11. Por lógica van apareciendo noticias sobre alguna que otra aplicación o juego en DX12, pero teniendo en cuenta que ya lleva Win10, 6 meses en la calle, los desarrolladores se lo toman con calma el salto a DX12. XD
Nikolas
#17 » Respuesta a gallox #16 28 DIC 2015 21:01
Mucho mejor explicado asi ;) a lo mejor me pillado un poco irritable tambien, perdona por eso.
Pues si, para poder usar la técnica de manera eficaz necesitas una api que te soporte programación en estéreo, o dicho de otra manera que alimente varias pipes de manera simultanea, Dx12_1 soporta esta programación en estéreo.
Ahora mismo estamos clavados en dx11.3 que la api en mono ( sólo una pipe) que las mejoras son básicamente la reducción del overhead de la CPU.
El problema es que las diferentes formas son por decirlo de manera sencilla, incompatibles entre si;
Si programas en estereo para emular en un HW mono (que es que hay en PC a día de hoy) tienes una enorme pérdida de rendimiento, y al revés pasa lo mismo, una tarjeta diseñada para trabajar en estéreo sobre una api mono, pierde el 50% del rendimiento, si la tarjeta tiene una RAW ( potencia lineal) decente, la VGA da buen rendimiento, pero la tienes completamente desaprovechada.
A la fury x le ocurre eso, soporta 12_1, tiene áreas desdobladas, varios CP y los fpgas necesarios para acelerar... Pero los juegos en PC siguen siendo masivamente dx11.3, pero como tiene una burrada de RAW pues sigue corriendo los juegos de lujo ( Ryse corre a 4k/30 bajando algo filtros)
MS con xbox también esta empujando a las desarrolladoras, por que en mono, esa máquina se queda corta y les "comen la tostada", así que también ayudará a que la migración sea más rápida.