Muchas gracias por toda la información, es cierto que se nota bastante sólo con bajarla un poco. El otro día probé el DSR (quitando el antialiasing) y también mejora un poco, pero a expensas de un buen bocado de FPS. Volveré a probar una vez dopada la gráfica.
[size=1]i7 5820K @ 3.8 GHz / Gigabyte GTX 980 Ti G1 Gaming / 16GB DDR4 G.SKill Ripjaws V / Windows 10 x64 / DK2 / CV1[/size]
90fps esta confirmado por las demos de Crescen Bay
4k esta casi complemtante descartado el chip que han supuestamente encargado no soporta 4k@90 al parecer.
Si es cierto ese rumor y sale a un precio más o menos asequible ya me veo comprando un par de 390 para la CV1.
Aunque espero que de aquí a allí nvidia contraataque por que si es cierto ese benchmark las tornas se cambian considerablemente (de hecho le mandaria una buena patada en los eggs) y para nuestros bolsillos es mejor que esten más a la par y que la batalla pase al precio.
Ayer vi una Gigabyete 970 a 299€ en el black friday y a puntito estuve de picar (se han agotado ya por si alguien le interesa), me mantuve fuerte, a esperar que saque AMD las 390x.
Sobre la 390x se rumorea que para ser una 20nm (cambio de arquitectura) el rendimiento no parece tan apabullante, así que puede que sea 28nm, o una 20nm capada. Tampoco se yo que se espera de 8nm menos, mi 6870 de 40nm sigue rindiendo mas o menos bien con la mayoría de juegos quitando algún filtro a 1600x1050, y es casi el doble de los 28nm que hay ahora.
Segun lei 3800 y 4000 y poco shaders cores respectivamente 390/390x. Si es verdad si va a ser notable. Y si el benchmark ese es cierto no se donde interpretas tu que no es apuballente. 15fps por encima de la 980 en un test aunque sea sintético o como quieran que le llamen a esos test es darle una buena ostia a nvidia en los dientes. De todas formas hasta algo oficial...
A 1000 hz o algo así.
Si es cierto sera 28nm, cosa que personalmente me es indiferente que sea a 28nm o 20nm con esos datos. No se por que le dais tanta importancia a ese dato. ¿me lo explica alguien?
Para cuando AMD quiera sacar su nueva gama, NVIDIA sacará el Big Daddy Maxwel (gm200). Al menos nosotros nos beneficiaremos de la competecia entre ambos por fin.
Knack supongo que lo que quiere decir es que si fuera a 20nm no seria un rendimiento apabullante, esto es cierto, ya que solo por el cambio de nodo a 20nm se consigue un rendimiento aprox del +20% por arquitectura.. Así que realmente solo habrían mejorado un 10% respecto a Hawaii, y esos datos no cuadran con 4096SP y HBM (9X GDDR5)
Esto quiere decir que si NVIDIA portara su Maxwell a los 20nm, el GM204 le igualaría y el GM200 se lo comería con patatas.
Claro que nadie sabe lo que hay detrás de Captain Jack.. Yo apuesto a que es, o bien una 390X a 28nm, o bien una 380X a 20nm.. Pero nunca se sabe.
Aun así, el test no es sintético, ahí bien dice que es una batería de juegos, una media de todos ellos.. Y es una buena patada en la boca a NVIDIA de ser cierto. Contando además que los drivers no tendrán soporte oficial y de aquí a su salida pueden mejorar bastante. Como esto sea cierto y NVIDIA tarde mucho con el GM200 o lo saque a un precio desorbitado (650 o mas) me veo quedandome con un par de 390 y subiendolas como burras... Que en la pasada generacion las 290 tuvieron una relacion calidad precio brutal.
Por mi, espero que en el momento de salida los drivers aun hagan mejorar la grafica en otro 10%.. Asi se espabilara nvidia y saldremos ganando todos.
"breaker19"Knack supongo que lo que quiere decir es que si fuera a 20nm no seria un rendimiento apabullante, esto es cierto, ya que solo por el cambio de nodo a 20nm se consigue un rendimiento aprox del +20% por arquitectura.. Así que realmente solo habrían mejorado un 10% respecto a Hawaii, y esos datos no cuadran con 4096SP y HBM (9X GDDR5)
Lo que no entiendo es por que motivo solo por bajar a 20nm vas a conseguir un 20% más de rendimiento.
No se explicarte eso muy bien, solo que es el cambio lógico por reducción de tamaño de nodo.. Puede que tenga mucho que ver con el tamaño del DIE, mientras mas pequeño sea el nodo mas "cosas" caben en el chip.. Por tanto rinde mas, hace tiempo leí un articulo sobre esto, lo que se es que el cambio lógico entre nodos es un 20% de rendimiento hasta que lleguen a un nodo que sea imposible o demasiado costoso de reducir.
Por cierto! Esta 9fps por encima de la 980 no 15 xDDD
De todas formas hay motivos para pensar que es una posible 380X a 20nm.. Con 4096SP y HBM las cifras deberían ser mucho mas bestias.. Y 197w? AMD no es tonta.. Y podría aprovechar un futuro modelo a 250w para ofrecer mas rendimiento (al igual que se espera de NVIDIA con el gm200)
Vamos es evidente y conocido que para conseguir mejor rendimiento por mayor velocidad de reloj que la actual es necesario 20nm, pero que sea 20nm no quiere decir que vayas a conseguir una mejora del 20% por ser 20nm, solo que es más posible sacar mayores velocidades de reloj.
No, no hablo de las frecuencias del reloj.. Te pongo un ejemplo. Que conste que no manejo totalmente este tema, se me escapa un poco pero creo que entiendo el concepto mas o menos como para que se me entienda.. Si alguien sabe mas que yo sobre esto y me corrige mejor para que podamos aclararnos.
A 28nm tienes un DIE de 551mm2
Ese DIE, a 20nm corresponde a unos 400mm2 por tanto te sobra espacio para meter mas "cosas" y a igualdad de DIE la gráfica a 20nm rendiría su 20% mas, ya que puedes introducir más elementos que hagan mas rápida a la gráfica..
Cierto a lo 9fps. Lo vi mal no era tan fuerte la patada.
Vale te explico lo que se yo o CREO saber yo de este tema.
Como lo entiendo yo a más pequeño hay mas eficiencia energética, con peor eficiencia energética los chips se calientan más y las velocidades de reloj tienen que ser menores, por que a más consumo con menos eficiencia más calor desprende y todos sabemos como baja el rendimiento los calentones.
O sea a technologia más reducida se puede aumentar esa velocidad del reloj al desprender menos calor al haber menos consumo y ser más eficientes.
Eso es todo. A 20nm una tarjeta a velocidad de reloj de 1000hz es lo mismo que a 28hz en rendimiento solo baja el consumo/eficiencia energetica y en teoria el calentamiento.
Y ciertamente a más pequeño puedes tener a grosso modo "más cosas"
pero entonces el rendimiento aumenta de esa tarjeta aumenta por tener 4000 shaders cores no por ser 20 o 28nm, es irrelavente lo que sea una vez sabes que va a 1000hz y tiene 4000 shaders cores.
No es irrelavente para el consumo. Pero lo han bajado ya sea 28nm o 20nm. Si sale 28nm quiere decir que en 20nm lo podrian aun bajar más.
Pero ni idea eh yo tambien estoy en pez fuera del agua en esto.
Pero siempre me choco leer tanto de 20nm o 28nm y eso de que por ser 20nm va a ser tener más rendimiento cuando segun lo que yo se no necesariamente y nunca solo por ser 20nm. Y darle tanta relevancia, para mi no tiene ninguna, a mi me importan más las otras cifras. Vamos una vez se que viene con tantos cores, a esa velocidad del reloj y ese consumo me es irrelevante que sea 20nm o 28nm, solo que si es 28nm el futuro aun pinta mejor por que le podran sacar más . ¿se me entiende?
Si bueno, pero es que lo importante no es solo las frecuencias de reloj.. Ahí tienes a las 970 y 980 que las puedes subir a 1500.. Sin embargo una 780ti a 1300 prácticamente iguala o supera a estas. Por lo que no es algo.. Tan importante como lo otro digamos. Lo realmente importante es los avances en arquitectura.. Y esto debe ir ligado a una reducción de nodo para que así tengan mas espacio para implementar todo lo necesario en el chip para rendir correctsmente de la forma en que fue diseñada dicha arquitectura, ¿porque maxwell rinde tan cercano a Kepler? Porque realmente es una arquitectura que fue pensada y diseñada para 20nm, a 20nm rendiría similar a lo que se ven con estas AMD, solo que por los problemas con TSMC se han visto obligados a sacarlas en 28nm.. Y ya es la tercera serie así, el nodo esta demasiado explotado.
Mira el caso de las GTX580 (full chip) a 40nm, y gtx 680 (mid chip gk114 28nm) si lo hubieran sacado a 40nm no rendiría tan bestia respecto a la 580..
"knack"Y ciertamente a más pequeño puedes tener a grosso modo "más cosas"
pero entonces el rendimiento aumenta de esa tarjeta aumenta por tener 4000 shaders cores no por ser 20 o 28nm, es irrelavente lo que sea una vez sabes que va a 1000hz y tiene 4000 shaders cores.
No es irrelavente para el consumo. Pero lo han bajado ya sea 28nm o 20nm. Si sale 28nm quiere decir que en 20nm lo podrian aun bajar más.
Pero precisamente por eso, por tener 4096SP y HBM un rendimiento de 10% de evolución respecto a la anterior arquitectura es por lo que no se podría considerar apabullante..
Bueno creo que nos estamos yendo mucho por las ramas xDDD lo mejor sera esperar a que AMD se pronuncie sin duda.. Pero bueno hasta aquí es donde se y puedo equuvocarme porque estos temas ya son algo mas complejos.
Dirías 15fps al confundirte con que rinde un 15 (16-17%) mas que la 980.. Yo espero que eso se mejore en otro 10% cuando haya drivers maduros.
"knack"Pero ni idea eh yo tambien estoy en pez fuera del agua en esto.
Pero siempre me choco leer tanto de 20nm o 28nm y eso de que por ser 20nm va a ser tener más rendimiento cuando segun lo que yo se no necesariamente y nunca solo por ser 20nm. Y darle tanta relevancia, para mi no tiene ninguna, a mi me importan más las otras cifras. Vamos una vez se que viene con tantos cores, a esa velocidad del reloj y ese consumo me es irrelevante que sea 20nm o 28nm, solo que si es 28nm el futuro aun pinta mejor por que le podran sacar más . ¿se me entiende?
Creo que te entiendo, sin duda seria mucho mejor que estos datos dados fueran a 28nm, porque si fueran a 20nm significaria que se ha avanzado muy poco.. O que sea una 380x a 20nm y quede espacio para una top, que es otra posibilidad.
Si esto es a 28nm significa que hay margen de mejora, y muchisimo de hecho, cuando se pase a 20nm