Tema: ACTUALIZADO:09 Marzo 15:Nvidia lanza Gtx900 series;Gtx1000 2015??..

Página 14 de 25

Mensajes

  • CortadorCesped

    23 Ago 2014 08:16

    Mensajes: 270

    CortadorCesped » 21 OCT 2014  10:21
    "breaker19"http://www.tomshardware.com/news/gigabyte-mini-itx-gtx970-oc,27915.html

    Gigabyte hace la primera "mini" 970.. esto parece una prueba mas de que esta "gama alta" de nvidia era realmente la "gama media" de maxwell.. no es de extrañar viendo el precio de la 970 y ahora sacan una versión mini, ya que, realmente esta debería ser una gtx 950ti/960.

    Pues eso.. los verdaderos bichos llegarán con el GM200.. rendimiento de una 780ti en gama media? A saber como será Big Maxwell, y además su versión en 20nm el año que viene.. la cosa de cara al CV1 se pone muuuuuuy interesante.

     

    Habra que ver el rendimiento de esa mini 970. No puedes comparar la gama anterior con esta, porque sencillamente la 760 en la mayoria de ensambladores son del mismo tamaño que las 770 ¿quiere decir esto que la 770 era como una 760? no, quiere decir que en la anterior gama debido a temperaturas, potencia o lo que sea no fueron capaces de hacer las 760 y las 770 mas pequeñas. Sin embargo, si te vas a la serie 600 ves una 670 mini igual a la que va a sacar gygabite.

     

     

    Ya veras como las GTX 980/970 son gama alta. Esta serie se parece mucho a la 600. La serie 700 estaba a medio camino de Kepler y Maxwell...

     

    De todas formas yo tambien ando con la mosca detras de la oreja, por eso he pillado una GTX 970 y no una 980, estoy seguro que Pascal se nos viene encima el año que viene ya que hay muchos cambios importantes anunciados.

    No hay fronteras. No hay límites. No hay reglas.
    - Bienvenido a la Realidad Virtual. -

    0
  • breaker19

    19 Oct 2013 14:45

    Mensajes: 2384

    Visores

    Pico 4
    breaker19 » 21 OCT 2014  13:35

    No a ver, la 770 ya SI que es 770 realmente porque la serie 7 es la "definitiva" de Kepler: fue 680 anteriormente pero no es una "top" de verdad.. Es una 770 realmente, la tercera mas potente. Por eso, entre la gama de su arquitectura (Kepler) es la tercera mas potente solo que antiguamente se vendió a precio de top (500 eurazos) para sacar mas dinero a la arquitectura xD pero realmente no lo era. La 670 era realmente una 760. Y creó que la 760 si que se pudo hacer en versión mini. Pues lo mismo... Una 970 REAL (osea, si fuese la 980) no se podría hacer en versión mini. Pero esta 970 seguramente sea renombrada el año que viene a 960 como debería haber sido llamada.

     

    Ojo, que yo tampoco estoy en contra de esto.. Pueden vender su gama como quieran, con los nombres que quieran y al precio que quieran para eso es su producto.. Simplemente pienso que es mejor esperar a que este la arquitectura entera en la calle, no a medias, ya que falta el GM200 que es el bicho de verdad, y deberíamos ver desde un 50% a un 75% de aumento en monogpu (top) sobre 780ti y titan black. (Cada vez que hay cambio de arquitectura pasa esto)

     

    Lo que no creo en absoluto es en ver a Pascal en 2015, fue anunciado hace muy poco y aun queda por salir Big Maxwell a 20nm.. Que vida tan corta tendría, no?

    0
  • CortadorCesped

    23 Ago 2014 08:16

    Mensajes: 270

    CortadorCesped » 21 OCT 2014  15:25
    "breaker19"No a ver, la 770 ya SI que es 770 realmente porque la serie 7 es la "definitiva" de Kepler: fue 680 anteriormente pero no es una "top" de verdad.. Es una 770 realmente, la tercera mas potente. Por eso, entre la gama de su arquitectura (Kepler) es la tercera mas potente solo que antiguamente se vendió a precio de top (500 eurazos) para sacar mas dinero a la arquitectura xD pero realmente no lo era. La 670 era realmente una 760. Y creó que la 760 si que se pudo hacer en versión mini. Pues lo mismo... Una 970 REAL (osea, si fuese la 980) no se podría hacer en versión mini. Pero esta 970 seguramente sea renombrada el año que viene a 960 como debería haber sido llamada.

    Ojo, que yo tampoco estoy en contra de esto.. Pueden vender su gama como quieran, con los nombres que quieran y al precio que quieran para eso es su producto.. Simplemente pienso que es mejor esperar a que este la arquitectura entera en la calle, no a medias, ya que falta el GM200 que es el bicho de verdad, y deberíamos ver desde un 50% a un 75% de aumento en monogpu (top) sobre 780ti y titan black. (Cada vez que hay cambio de arquitectura pasa esto)

    Lo que no creo en absoluto es en ver a Pascal en 2015, fue anunciado hace muy poco y aun queda por salir Big Maxwell a 20nm.. Que vida tan corta tendría, no?

     

    Ya veremos como se desarrolla la cosa. Yo solo se que la serie 600 duro en su dia un año hasta que aparecieron las 700, y estas duraron año y medio todo gracias a las buenas ventas de la 780 TI y al parcheo del software, asi que ya digo, yo creo que la 900 va a durar 1 añito a lo sumo en la calle y que la serie 1000 (Pascal) esta predestinada a salir el año que viene con la salida de Directx12 y windows 10.

     

    Los 20nm y el big maxwell lo veo saliendo en esta misma serie 900 en forma de titan.

    No hay fronteras. No hay límites. No hay reglas.
    - Bienvenido a la Realidad Virtual. -

    0
  • breaker19

    19 Oct 2013 14:45

    Mensajes: 2384

    Visores

    Pico 4
    breaker19 » 21 OCT 2014  15:57

    Pero es que precisamente porque se parecen a las 600 es porque digo eso.. todas las arquitecturas se desarrollan en dos series, nunca en una.

     

    GeForce Fermi:

     

    GTX400
    GTX500

     

    GeForce Kepler

     

    GTX600
    GTX700

     

    GeForce Maxwell

     

    GTX900
    GTX¿1000?

     

    Por huevos debe haber una "80" con el chip tope de gama, ya que por historia en nvidia las "80" siempre fueron sus tops (que ahora esten las Ti/Titan es otra cosa) pero la Titan es una gráfica gamer / semiprofesional, y deben sacar su versión gamer full (ti) y no full (no ti) por tanto debe haber como mínimo TRES.

     

    La serie 700 también fue kepler al igual que la 600, solo que en la 600 sacaron las tops (670 y 80) con un nombre que no debían, ya que su nomenclatura real se ve en las 700. La 700 no está a medio camino entre maxwell y kepler, la 700 es Kepler, simplemente que nvidia sacó hace poco los modelos 750 y 750ti en maxwell para experimentar, pero es una serie Kepler.

     

    Por tanto la 900 debe durar su correspondiente año mas lo que dure cuando saquen el chip GM200, entre arquitectura y arquitectura deben pasar al menos dos años, nunca existe un año entre arquitecturas. Ni tampoco en la empresa son tontos para desaprovechar ventas por arquitectura.. crees que iban a desaprovechar una monogpu que rinda un 50-60% mas que Titan Black y consuma menos? Con un bicho así pueden esperar mucho tiempo antes de sacar Pascal, y si realmente sacan Pascal el año que viene, es que destrozan a AMD.. se va a la quiebra.

     

    Las empresas deben seguir un ritmo lógico.. y despues de haber decrecido el ritmo de sus avances respecto a hace tiempo, no van a acelerar tanto de golpe.. Pascal lo veo a partir de Junio de 2016.

    0
  • CortadorCesped

    23 Ago 2014 08:16

    Mensajes: 270

    CortadorCesped » 21 OCT 2014  17:07
    "breaker19"Pero es que precisamente porque se parecen a las 600 es porque digo eso.. todas las arquitecturas se desarrollan en dos series, nunca en una.

    GeForce Fermi:

    GTX400
    GTX500

    GeForce Kepler

    GTX600
    GTX700

    GeForce Maxwell

    GTX900
    GTX¿1000?

    Por huevos debe haber una "80" con el chip tope de gama, ya que por historia en nvidia las "80" siempre fueron sus tops (que ahora esten las Ti/Titan es otra cosa) pero la Titan es una gráfica gamer / semiprofesional, y deben sacar su versión gamer full (ti) y no full (no ti) por tanto debe haber como mínimo TRES.

    La serie 700 también fue kepler al igual que la 600, solo que en la 600 sacaron las tops (670 y 80) con un nombre que no debían, ya que su nomenclatura real se ve en las 700. La 700 no está a medio camino entre maxwell y kepler, la 700 es Kepler, simplemente que nvidia sacó hace poco los modelos 750 y 750ti en maxwell para experimentar, pero es una serie Kepler.

    Por tanto la 900 debe durar su correspondiente año mas lo que dure cuando saquen el chip GM200, entre arquitectura y arquitectura deben pasar al menos dos años, nunca existe un año entre arquitecturas. Ni tampoco en la empresa son tontos para desaprovechar ventas por arquitectura.. crees que iban a desaprovechar una monogpu que rinda un 50-60% mas que Titan Black y consuma menos? Con un bicho así pueden esperar mucho tiempo antes de sacar Pascal, y si realmente sacan Pascal el año que viene, es que destrozan a AMD.. se va a la quiebra.

    Las empresas deben seguir un ritmo lógico.. y despues de haber decrecido el ritmo de sus avances respecto a hace tiempo, no van a acelerar tanto de golpe.. Pascal lo veo a partir de Junio de 2016.

     

    Tesla tuvo 3 series, entiendo que no la hayas puesto en la linea de tiempo que has especificado, como tambien veo muy subjetivo el catalogar las series solo dentro de una arquitectura. La correlacion temporal en series no es aplicable si tenemos en cuenta variables como la evolucion del software y el hardware, y mas en una dinamica tan cambiante y evolutiva como la que estamos tratando.

     

    AMD va a sacar su nueva serie con chips de 20nm y con unas caracteristicas que paradojicamente son similares a las anunciadas por nvidia en Pascal, por lo que Pascal no se puede ir a 2016 en mi opinion. Otra cosa que me incita a pensar en Pascal para la serie 1000 de nvidia es que la van catalogando como tal alli donde hay referencia a ella.

     

    Cuando digo, "veo una titan de la serie 900 con chip 20nm" o "apuesto por una serie 1000 basada en pascal para el año que viene" no deja de ser una opinion, pero me baso en lo mencionado, en lo que he podido leer. Que tambien bien es cierto que me puedo equivocar, porque lo que estamos haciendo es especular, como tu has especulado con el tema de la 970 diciendo que no es gama alta y comparandola con una hipotetica 960. Por lo pronto esa 970 mini segun he podido leer no se puede overclockear, y donde luce esta serie precisamente es en esto mismo.

     

    Por cierto, no entiendo tu afirmacion de que debe de haber una gtx x80 con el chip tope de gama cuando desde la serie 600 se viene montando el de 28nm. Pero que vamos, donde digo una titan con 20nm puedes tambien meter una 980 ti a 20nm.

    No hay fronteras. No hay límites. No hay reglas.
    - Bienvenido a la Realidad Virtual. -

    0
  • breaker19

    19 Oct 2013 14:45

    Mensajes: 2384

    Visores

    Pico 4
    breaker19 » 21 OCT 2014  20:29
    Por cierto, no entiendo tu afirmacion de que debe de haber una gtx x80 con el chip tope de gama cuando desde la serie 600 se viene montando el de 28nm. Pero que vamos, donde digo una titan con 20nm puedes tambien meter una 980 ti a 20nm.

     

    A ver lo que quiero decir con esto no tiene nada que ver con los nm.. los nm no delimitan el tipo de chip (tope de gama o no) por ejemplo, las 7800, 8800, 9800, eran las tope de gama (en cualquiera de sus versiones) por debajo estaban las 6000 etc..

     

    La 280 su chip era el tope de gama.. la GTX 480 su chip era tope de gama (fermi) la gtx 580 su chip era tope de gama (fermi) pero a 40nm.. la gtx 680 su chip NO era tope de gama.. (GK114) el numero 4 en los chips de nvidia siempre indica que NO es tope de gama, porque esto es así (a modo interno, empresarial):

     

    Por orden de importancia:

     

    GX: 100/110/200/210. (TOP)
    GX: 104/114/204/214
    GX: 106/116/206/216
    GX: 108/108/208/218

     

    Los chips 106 etc siempre fueron usados para las gamas medias bajas, y los 108 para las gráficas inferiores o multimedia.

     

    Pues para nvidia, las gráficas que acaban en "80" siempre, por historia fueron su tope de gama, PERO desde la serie 600 no, sino que incluyesen el chip GK114, que realmente es de gama media ya que el verdadero tope de gama es el GK110 (780, ti, Titan) y ya ves la diferencia que hay entre un chip y otro (del 30 al 55%)

     

    Lo que hicieron, es que vieron que podían sacar mayores beneficios PARTIENDO las arquitecturas en lugar de esforzarse el doble.. si pueden vender primero un chip (GK114) como si fuera la gama alta (680) cuando realmente NO lo es, y sacan beneficios (550$) igualmente, para que te iban a sacar esa misma gráfica que se llame 670 a 350€ si con esa pueden sacar mayores beneficios? El año que viene cuando estén bien vendidas te sacan el resto de sus chips (GK110) en otra serie para que parezca novedoso (700) a un mayor precio.

     

    Esa fue la jugada con nvidia respecto a la arquitectura kepler, y de hecho se está repitiendo en Maxwell.

     

    No hay que pensar que las empresas nos van a dar las cosas regaladas..

     

    Lo mas probable es que AMD saque a 20nm sus tarjetas como has dicho, sí, PERO dentro de esto, lo mas probable es que saque solo su chip FIJI, (segundo) que es el que viene a competir con la 980, dejando el Bermuda para mas adelante que es el gordo de verdad.

     

    Del chip Fiji saldrían dos versiones: 380 y 380X.
    Del Bermuda saldrían otras dos: 390 y 390X

     

    Por tanto sabemos que en nvidia aún queda espacio para dos verdaderas tope de gama, que no son estas 970 ni 980, con lo que realmente cobra todo el sentido que la 980 se debería haber llamado 970 dejando lugar a una VERDADERA 980 y después, a una 980ti.

     

    Sin embargo esto no lo han hecho así, como te digo, para sacar mas dinero, porque el año que viene le pondrán el nombre que quieran y venderán la serie al completo.

     

    Lo de las características no tiene nada que ver, AMD fue la primera en contar con GDDR5 en sus HD4000 mientras que nvidia en las GTX200 usaba aún GDDR3 me parece y la diferencia es alucinante entre estas dos memorias, no así en esa serie de gráficas porque esas series se recuerdan como la mas rentable de cara al consumidor.. (fue una época buenísima que tenías tarjetas TOP a muy buen precio, yo mismo tuve una GTX260 y la descambié y me compré una HD4870 que fue la top de ati en su momento)

     

    Por tanto las AMD pueden incorporar nuevas características pero estar inmaduras, y que las desarrollen posteriormente en otras series.

     

    El GM200 pueden sacarlo a 28nm aún en diciembre perfectamente, pero nvidia lo que tiene previsto si has mirado su roadmap es traspasar toda la arquitectura Maxwell a 20nm, después de haberla sacado en 28nm, y sacarían un beneficio extra del 20 al 25% lógico por el cambio de nodo (28nm a 20nm) y estarían compitiendo de tú a tú con las AMD Serie 300.

     

    Por tanto, si en Junio de 2015 deciden traspasar toda la arquitectura Maxwell a 20nm, te encontrarás con que la 980 actual, será la "70" futura, con un rendimiento algo mayor a la 980 dado por el cambio de nodo, y se dejará lugar a una "80 y 80ti" (GM200)..

     

    Nvidia no es tan tonta de invertir tanto tiempo en desarrollo en una nueva arquitectura como para darla por muerta en un año. Kepler lleva entre nosotros desde 2012.. y Fermi empezó en 2010 si mal no recuerdo.. el periodo suele ser siempre dos años - dos años y medio entre arquitectura.

     

    Esto es especulación pura y dura como has dicho.. pero es lo mas lógico.

    0
  • Cdaked

    Moderador

    18 Ene 2014 12:42

    Mensajes: 10408

    Ubicación: Hospitalet de Llobregat (Barcelona)

    Visores

    Cardboard
    Pimax 8K
    Pimax 8K X
    Oculus Go
    Oculus Quest
    Valve Index
    Oculus Link
    Oculus Quest 2
    Meta Quest 3
    Cdaked » 21 OCT 2014  21:08

    ¿Y lo que andan contando de que las que usarán GM200 sólo serán para equipos profesionales? ¿De qué va esto?

    Equipo: AMD Ryzen 9 3900X; Gigabyte Aorus 3080 Ti Master; DDR4 32GB 4GHz C16.

    0
  • breaker19

    19 Oct 2013 14:45

    Mensajes: 2384

    Visores

    Pico 4
    breaker19 » 21 OCT 2014  22:43

    Algo he escuchado aunque no vi mucho sobre eso.. de todas formas eso no me parece viable, nvidia nunca hizo eso.. porqué iba a desaprovechar un chip completo que puede dar un rendimiento buenísimo usandolo solo en gamas profesionales? Lo que se hace, es, primero sacar el chip para gamas profesionales (que valen una pasta, las quadro) y luego las gráficas para gaming las capan en este sentido. La titan está a medio camino entre una y otra (sirve para gaming y también para uso profesional, aunque no como las que están dedicadas para esto completamente)

    0
  • Adel

    3 Jul 2013 11:48

    Mensajes: 1699

    Visores

    Oculus Rift Development Kit 1
    Oculus Rift Development Kit 2
    Oculus Rift
    PlayStation VR2
    Adel » 23 OCT 2014  23:38

    Señores nuevos drivers Nvidia y por lo que leo, el Elite va ahora mil veces mas fino!!!!!!

    0
  • predator036

    7 Sep 2013 12:07

    Mensajes: 541

    Visores

    HTC Vive Pro
    predator036 » 3 NOV 2014  1:22

    Ojo al dato compañeros, Nvidia contraataca de nuevo con una nueva bestia.....

     

    Señoras y señores con todos ustedes Doña Gtx-980 con 8 Gb de video.....

     

    www.ozeros.com/2014/10/nvidia-ta ... cho-al-4k/

     

    ....Nvidia empieza a desplegar tecnologia en los proximos titulos....

     

    www.ozeros.com/2014/10/nvidia-ga ... eed-unity/

     

    saludos

    0
  • breaker19

    19 Oct 2013 14:45

    Mensajes: 2384

    Visores

    Pico 4
    breaker19 » 3 NOV 2014  1:41

    No es ninguna nueva bestia.. Tendrá exactamente el mismo rendimiento que las 980 normales, los 8gb simplemente son por cuestiones de marketing, gilipolleces de AMD y NVIDIA para que la gente compre mas viendo mas = mejor pero en términos de rendimiento serán iguales.

     

    Para lo que si puede servir es para SLIs a resoluciones de 4k o superiores.. El día que los juegos pidan mas de 4k y sobre potencia pero no VRAM pues entonces vendrá bien.

     

    Y las tecnologías en ac unity... Nada que no se haya visto ya mil veces.. Txaa.. Hbao+... En fin, otro contrato de ubi con nvidia para impresionar al personal y que la gente compre gráficas NVIDIA y asassins creed unity. Marketing puro y duro.

     

    Graficamente luce muy bien, pero vamos que no han inventado la rueda. Muchísimo mas impresionante me parece la nueva demo "turneffects" de NVIDIA gameworks en la que simulan física realista en las hierbas.. Eso si que es tremendo.

     

    Lo dicho mil veces... A esperar al GM200 y al Bermuda XTX.. estas son las "chiquitinas" (y además que hablando con NVIDIA me han dicho que no hay nada anunciado aun.. Pero que les gusta la idea de un sli de las "grandes" al referirnos al GM200)

    0
  • CortadorCesped

    23 Ago 2014 08:16

    Mensajes: 270

    CortadorCesped » 3 NOV 2014  16:37

    No es marketing, ya hemos hablado de este tema por otros foros, y para que la gente lo entendiera se utilizaba la eterna comparacion PC/consolas. Han sacado los 8gb... por el tema del 4k. A mi me extrañaba que estas 980/970 no tuvieran al menos 6gb, pense que ese tema se lo dejarian a las Titan de esta generacion (como ya ocurriera en las anteriores). Solo hay que fijarse en lo que pide Shadow of Mordor con el tema de las texturas a 4k (dichos requisitos salieron incluso antes de la salida de las nuevas tarjetas, asi que la gente iba de sobreaviso). Nos resultaba muy raro que Nvidia sacara esto asi, pero mira ahora, en mi opnion esto ha sido una guarrada, pero se entiende que si hubieran sacado las GTX 970 y 980 con 8gb de vram lo mas seguro es que hubieramos acabado pagando mucho mas por ellas, y claro, a dia de hoy casi nadie le va a dar uso. Asi que como decia al principio, solo hay que ver a las consolas para ver que los 4gb se antojaban cortos, es mas, a mi como opinion personal estos 8gb se siguen antojando cortos si vas a utilizar varios monitores a 4k. Si miramos a pasadas generaciones vemos 512mb ram para consolas con juegos a 720p mientras que en PC hemos visto hasta los 3gb por el tema de resoluciones a 1080p/1440p y el tema del numero de pantallas. Que no os extrañe ver para el año que viene o el siguiente graficas Titan con 16gb ram para multi monitor 4k.

     

    Con esto ya tenemos la contestacion de porque son tan baratas estas graficas y rinden tan bien. Estan pensadas para mas resolucion pero las han capado con la vram para venderlas a un precio increible para la mayoria del consumidor actual, ahora Nvidia se inventa el DRS y queda como la reina de la fiesta en futuras entregas cuando la realidad es otra.

     

    Yo no me arrepiento de mi compra (MSI GTX 970), me hacia falta una grafica, juego en TV 1080p y mi intencion es venderla en cuanto aparezca el CV1 para pillar un SLI de algo TOP y asi jugar siempre en ultra durante bastante tiempo a todo. Pero mas de uno seguro que se va a arrepentir de haber ido a por estas graficas con la intencion de no renovar en años y de ir a por juegos en dicha resolucion 4k.

     

    Yo la conclusion que saco pensando siempre en Oculus y la RV, que estas graficas para el CV1 son muy validas actualmente, pero en cuanto se empiecen a ver juegos con texturas a 4k (que tambien es la posible resolucion de la pantalla del Oculus) estas graficas se van a quedar muy justas. Son graficas validas, que van a ir sobradas en otros juegos donde no se pida mucha memoria, pero lo dicho, van a ir justas en cuanto los juegos pidan 4k (aun quedan un parde años para esto).

     

    Mirad los requisitos de juegos que estan saliendo a dia de hoy y decidme que no esta claro a donde nos dirigimos con la Vram, el que menos pide son 3gb... Asassins Creeds Unity, CoD AW, Shadow of Mordor, Dragon Age: Inquisition...

     

    Saludos.

    No hay fronteras. No hay límites. No hay reglas.
    - Bienvenido a la Realidad Virtual. -

    0
  • Lukimator

    14 Abr 2014 00:10

    Mensajes: 1840

    Ubicación: London

    Lukimator » 3 NOV 2014  22:17
    "breaker19"Y las tecnologías en ac unity... Nada que no se haya visto ya mil veces.. Txaa.. Hbao+... En fin, otro contrato de ubi con nvidia para impresionar al personal y que la gente compre gráficas NVIDIA y asassins creed unity. Marketing puro y duro.
    Ubisoft me está empezando a dar un asco que no es ni normal. Y con los 30fps cinemáticos se han coronado ya. Un EMP les mandaba yo a la sede principal si pudiese, valiente panda de sinvergüenzas

     

    "CortadorCesped"a mi como opinion personal estos 8gb se siguen antojando cortos si vas a utilizar varios monitores a 4k
    ¿Y a donde vas con varios monitores a 4k, si ya no damos movido decentemente ni siquiera uno? Todo esto hablando de juegos, claro

     

    "CortadorCesped" pero en cuanto se empiecen a ver juegos con texturas a 4k (que tambien es la posible resolucion de la pantalla del Oculus) estas graficas se van a quedar muy justas.
    No veo yo eso muy posible, por muchas razones, incluyendo precio y que cuando salga el CV1 aún no habrá pantalla 4K en el mercado
    0
  • Cdaked

    Moderador

    18 Ene 2014 12:42

    Mensajes: 10408

    Ubicación: Hospitalet de Llobregat (Barcelona)

    Visores

    Cardboard
    Pimax 8K
    Pimax 8K X
    Oculus Go
    Oculus Quest
    Valve Index
    Oculus Link
    Oculus Quest 2
    Meta Quest 3
    Cdaked » 4 NOV 2014  0:11
    "breaker19"No es ninguna nueva bestia.. Tendrá exactamente el mismo rendimiento que las 980 normales, los 8gb simplemente son por cuestiones de marketing, gilipolleces de AMD y NVIDIA para que la gente compre mas viendo mas = mejor pero en términos de rendimiento serán iguales.

    Para lo que si puede servir es para SLIs a resoluciones de 4k o superiores.. El día que los juegos pidan mas de 4k y sobre potencia pero no VRAM pues entonces vendrá bien.

    Y las tecnologías en ac unity... Nada que no se haya visto ya mil veces.. Txaa.. Hbao+... En fin, otro contrato de ubi con nvidia para impresionar al personal y que la gente compre gráficas NVIDIA y asassins creed unity. Marketing puro y duro.

    Graficamente luce muy bien, pero vamos que no han inventado la rueda. Muchísimo mas impresionante me parece la nueva demo "turneffects" de NVIDIA gameworks en la que simulan física realista en las hierbas.. Eso si que es tremendo.

    Lo dicho mil veces... A esperar al GM200 y al Bermuda XTX.. estas son las "chiquitinas" (y además que hablando con NVIDIA me han dicho que no hay nada anunciado aun.. Pero que les gusta la idea de un sli de las "grandes" al referirnos al GM200)

     

    Turfeffects -> https://developer.nvidia.com/turfeffects

    Equipo: AMD Ryzen 9 3900X; Gigabyte Aorus 3080 Ti Master; DDR4 32GB 4GHz C16.

    0
  • breaker19

    19 Oct 2013 14:45

    Mensajes: 2384

    Visores

    Pico 4
    breaker19 » 4 NOV 2014  1:18
    "CortadorCesped"No es marketing, ya hemos hablado de este tema por otros foros, y para que la gente lo entendiera se utilizaba la eterna comparacion PC/consolas. Han sacado los 8gb... por el tema del 4k. A mi me extrañaba que estas 980/970 no tuvieran al menos 6gb, pense que ese tema se lo dejarian a las Titan de esta generacion (como ya ocurriera en las anteriores). Solo hay que fijarse en lo que pide Shadow of Mordor con el tema de las texturas a 4k (dichos requisitos salieron incluso antes de la salida de las nuevas tarjetas, asi que la gente iba de sobreaviso). Nos resultaba muy raro que Nvidia sacara esto asi, pero mira ahora, en mi opnion esto ha sido una guarrada, pero se entiende que si hubieran sacado las GTX 970 y 980 con 8gb de vram lo mas seguro es que hubieramos acabado pagando mucho mas por ellas, y claro, a dia de hoy casi nadie le va a dar uso. Asi que como decia al principio, solo hay que ver a las consolas para ver que los 4gb se antojaban cortos, es mas, a mi como opinion personal estos 8gb se siguen antojando cortos si vas a utilizar varios monitores a 4k. Si miramos a pasadas generaciones vemos 512mb ram para consolas con juegos a 720p mientras que en PC hemos visto hasta los 3gb por el tema de resoluciones a 1080p/1440p y el tema del numero de pantallas. Que no os extrañe ver para el año que viene o el siguiente graficas Titan con 16gb ram para multi monitor 4k.

    Con esto ya tenemos la contestacion de porque son tan baratas estas graficas y rinden tan bien. Estan pensadas para mas resolucion pero las han capado con la vram para venderlas a un precio increible para la mayoria del consumidor actual, ahora Nvidia se inventa el DRS y queda como la reina de la fiesta en futuras entregas cuando la realidad es otra.

    Yo no me arrepiento de mi compra (MSI GTX 970), me hacia falta una grafica, juego en TV 1080p y mi intencion es venderla en cuanto aparezca el CV1 para pillar un SLI de algo TOP y asi jugar siempre en ultra durante bastante tiempo a todo. Pero mas de uno seguro que se va a arrepentir de haber ido a por estas graficas con la intencion de no renovar en años y de ir a por juegos en dicha resolucion 4k.


    Yo la conclusion que saco pensando siempre en Oculus y la RV, que estas graficas para el CV1 son muy validas actualmente, pero en cuanto se empiecen a ver juegos con texturas a 4k (que tambien es la posible resolucion de la pantalla del Oculus) estas graficas se van a quedar muy justas. Son graficas validas, que van a ir sobradas en otros juegos donde no se pida mucha memoria, pero lo dicho, van a ir justas en cuanto los juegos pidan 4k (aun quedan un parde años para esto).

    Mirad los requisitos de juegos que estan saliendo a dia de hoy y decidme que no esta claro a donde nos dirigimos con la Vram, el que menos pide son 3gb... Asassins Creeds Unity, CoD AW, Shadow of Mordor, Dragon Age: Inquisition...

    Saludos.

     

    Por supuesto que es marketing.. en serio te crees los requisitos de AC Unity, Shadow of Mordor, COD AW?

     

    No lo digo por ti, pero este tipo de malas prácticas las suelen hacer para la gente mas "desinformada". En los juegos lo que se suele hacer la mayoría de las veces es recomendar requisitos por encima de lo que requerirá el juego realmente para "no pillarse los dedos", pero realmente se podría mover con equipos mucho mas bajos.

     

    La ram de las consolas no son 8gb reales, son unificados, y el sistema operativo se come 3gb.

     

    Tu ves normal, que en AC Unity se pida como MÍNIMOS un i5 2500k/fx8350 y una GTX680/770/7970/R9 280X?

     

    Cuando las specs de Xbox One, son una APU de 1.75GHz Jaguar con un IPC penoso y una AMD 7770/R7 260X?

     

    Eso no es que los juegos pidan mas, es que los desarrolladores no optimizan porque no les sale de los huevos.. y los de Ubisoft son unos mamones como la copa de un pino, y perdonad por la expresión pero es que es verdad, son una de las empresas que mas se ríe de los jugadores de PC, de hecho hace un año justo cuando salió el Assassins Creed 4, salió su productor ejecutivo diciendo que "en pc no hace falta optimizar, si no te corre bien te compras una gráfica mejor". No todo el mundo tiene para comprarse una 780ti.

     

    AC Unity luce bonito gráficamente, pero ni miucho menos es para pedir una 680 de MÍNIMO, al contrario, con una 680 se debería correr prácticamente al máximo viendo el juego en PS4 y Xbox One con una gráfica y cpu infinitamente menores que los requisitos mínimos que se piden en pc.

     

    4gb de vram? JÁ. 4GB pide el The Evil Within.. en los requisitos. Se han hecho mediciones con programas específicos y se ha visto que esto, efectivamente, era marketing, puesto que el juego al máximo de calidad no se come mas de 1.3gb de vram a 1080p, ni si quiera llega a los 2gb a 4k. Otro ejemplo de juego en los que los desarrolladores son unos flojos: franjas "cinematográficas" que realmente no es por lo cinematográfico, sino porque CONSUMEN UNA PARTE DE PANTALLA para no tener que renderizar los píxeles.. entonces si a una pantalla 1080p le quitas las bandas de arriba y abajo, ya no son 1080p reales, es una resolución menor con lo que es mas fácil mover el juego, con lo que se han esforzado menos.. y encima capado a 30fps. Ahora lo han arreglado, pero vamos, que tiene tela el asunto.

     

    Shadow of Mordor 6gb? No se lo creen ni ellos.

     

    COD AW? Gráficos impresionantes, aun así es SOLO UN PASILLO donde no se tiene que mover nada fuerte. No hay una Inteligencia Artificial INTELIGENTE, no es un sandbox, no hay que mover muchos elementos en pantalla puesto que solo es un pasillo scripteado con las cosas puestas estratégicamente en la que la carga para cpu y gpu es mínima en comparación con hacer un juego abierto con ese detalle gráfico. Star Citizen por ejemplo tiene mucho mas mérito.

     

    Ninguno de estos juegos le llega a la suela a Crysis 3 gráfica y técnicamente hablando. Ahora mira tu el Crysis 3 a 1080p con una GTX680.. te vas a quedar impactado con la calidad gráfica. Miralo igualmente con una 750ti (gama baja) y te quedarás sorprendido igual por su calidad. ¿Cómo se supone que estos juegos van a exigir mas que el juego que mejor se ve de todos? Esto no es otra cosa que marketing puro y duro, alianza de las empresas desarrolladoras de videojuegos con empresas de hardware como nvidia y amd, para que los usuarios desinformados compren las últimas novedades (980, 970, 290X 8GB) cuando realmente NO hacen falta y menos al 99% de la población que juegan a 1080p, y a 1080p no hay juego que pase de los 2,5gb de vram, el 99% ni llegará a los 2gb.

     

    Con 4gb hoy por hoy se va sobradísimo. Las 980 y 970 no las pueden traer con 6gb por su bus, no porque no quieran: su bus es de 256bit no 384 (ya que el de 384 lo dejan para las "grandes".. una muestra mas de que las 980 y 970 no son realmente la gama alta) y a los 256bits le corresponden 4 u 8gb de vram, no 6. Eso sería para las 384.

     

    Para lo que puede valer, en un FUTURO, esos 8gb, es para resoluciones de 4k o superiores, siempre y cuando se haga un SLI.
    Me explico: este caso ya lo he vivido yo mismo con mis GTX470. Al hacer un sli casi doblas la potencia (0.8x) pero la vram sigue siendo la misma de una sola gráfica (en mi caso 1.25gb) entonces, por "fuerza bruta" mis 470 de 2010 se aproximan a una 780, se encontrarían mas bien entre una 770 y 780, por potencia. El problema es la vram, ya que les hace cuello de botella. Si hubiera versiones de 2gb o 3gb para 1080p serían una opción igual de válida que las 780 para correr hoy en día todo al máximo ya que por potencia no se iban a quedar cortas, y no las delimitaría la vram. En cambio al tener poca vram pues sí que las delimita, pero no por potencia.

     

    Ahora el caso contrario, para una única gráfica está bien (gtx 980 4gb), ya que la vram va acorde con la potencia de la gráfica (incluso tiene mas), pero si haces un sli de 980 PUEDE que en un futuro se te quede corta con 4gb de vram a resoluciones muy bestias como 4k. Por eso los 8gb. Es su ÚNICA utilidad. Para una única tarjeta no tienen sentido, aunque juegues con una única 980 a 4k, se te quedará antes corta de potencia que sin vram.

     

    De hecho en skyrim ya hay mods desde hace tiempo que usan texturas a 4k y ni por asomo exigen GPUs con 4gb vram, con 2/3 se va sobrado para esas texturas 4k. Hace no mucho colgué un post de skyrim con mods, de un usuario de N3D que es modder y movía el juego con dowsampling a 1440p con un sli de 670.

     

    Lo que pasa que por CREENCIA POPULAR.. la gente cuando le dicen tarjeta gráfica ¿de cuantos gigas? 8. Ostias vaya monstruo! Pues mas = mejor.. pero esto no es así. A no ser que uses un sli con tres monitores a 4k estos 8gb no te valen para nada hoy en día.. Esos 4gb de las 980 son MUY AMPLIOS.. y dan para muchísimo y hacer verdaderos juegazos.. si los juegos como Unity, Advanced Warfare, The Evil Within, Shadow of Mordor piden esos requisitos tan bestias es por optimización mala, porque sus desarrolladores son unos flojos (ya que está demostrado que corren en consolas con requisitos inferiores y tienen arquitectura de pc, con lo que en pc no tienen porqué pedir esos mínimos) y por acuerdos con empresas para vender gráficas.

     

    No tienes mas que mirar el ejemplo de desarrolladores que lo hacen bien. Crysis 3 es una bestia gráfica, y aunque a menudo se le tacha de mala optimización esto no es así, es desinformación: si el juego no corre bien en ultra en la mayoría de ordenadores es porque REALMENTE lo requiere: cuando has visto tu esa lluvia en algún videojuego? Jamás. Esos escenarios amplísimos, es que todo.. es impresionante la calidad que ofrece el videojuego, y esto no es que esté mal optimizado, es que es lo que mejor se ve y realmente requiere lo que pide. Pero si no lo pones al máx, lo pones en alto y se sigue viendo mejor que cualquier juego de hoy en día, y te corre en el 99% de pcs, eso es una bestia de la optimización.

     

    Que no os vendan la moto.. a mi me encanta nvidia pero ni mucho menos la defiendo.. de hecho por políticas he defendido mas a AMD muchas veces, pero no todo lo que cuentan las empresas hay que creérselo. Esos 8gb son innecesarios a día de hoy, además que la potencia de la gráfica será la misma.

     

     

    Esos juegos piden 6, 4 y 3gb respectivamente, y para mi no tienen nada que hacer contra esto:

     

     

    "Lukimator"
    "breaker19"Y las tecnologías en ac unity... Nada que no se haya visto ya mil veces.. Txaa.. Hbao+... En fin, otro contrato de ubi con nvidia para impresionar al personal y que la gente compre gráficas NVIDIA y asassins creed unity. Marketing puro y duro.

    Ubisoft me está empezando a dar un asco que no es ni normal. Y con los 30fps cinemáticos se han coronado ya. Un EMP les mandaba yo a la sede principal si pudiese, valiente panda de sinvergüenzas

     

    Pues ya ves.. a mi me gustan mucho los juegos que hace Ubisoft, sin embargo a la empresa le tengo un asco que ni te imaginas.. vaya mierda de manera tienen de tratarnos a los usuarios de PC. Y luego que nos llamen piratas..

    0
  • Lukimator

    14 Abr 2014 00:10

    Mensajes: 1840

    Ubicación: London

    Lukimator » 4 NOV 2014  1:23
    "breaker19"de hecho hace un año justo cuando salió el Assassins Creed 4, salió su productor ejecutivo diciendo que "en pc no hace falta optimizar, si no te corre bien te compras una gráfica mejor". No todo el mundo tiene para comprarse una 780ti.
    Es que es la bomba. Y lo peor de todo, es que luego los tíos se quejan de que no venden como en consolas y lo achacan a la piratería, con dos cojones. Que se autolimiten el abanico de usuarios que pueden mover el juego con su inexistente optimización desde luego no tiene nada que ver

     

    Al menos antes al ser ARM vs x86 tenían "excusa" para no tener que matarse mucho y hacer los míticos cutreports, ahora la única excusa real es que no se le vean las vergüenzas a la generación fail de consolas actual

    0
  • breaker19

    19 Oct 2013 14:45

    Mensajes: 2384

    Visores

    Pico 4
    breaker19 » 4 NOV 2014  1:28

    Exactamente.. a mi es que este tema me indigna que no veas.. porque lo peor de todo es que, aunque pensemos que no, hay gente que se lo cree, la gente que se informa de verdad realmente es poca, pero hay mucha gente que les cree con todo este rollo de lo cinematográfico, que los 30fps son mejores, que esos 4gb que se piden de mínimos son necesarios.. manda huevos cojones.. que un tío que se gaste 2000€ en un pc solo opte a verlo un "poquito" mejor que una consolucha de 400€ que encima han nacido desfasadas?

     

    Hay desarrolladores que ya han demostrado que si lo hacen bien en el pc se vende como el que más.. de hecho hasta hace no mucho el pc tenía mas volúmen de ventas que PS4 y XBOne juntas.

     

    Pero claro, si sacas un juego con una mierda de optimización y es un éxito de ventas (AC) pues.. ¿pa que cambiar?

     

    En el caso de Advanced Warfare es incluso mas fuerte.. porque corre a 1080p y 60fps en consolas..xDDDDDDD así que ya ves donde está la optimización.. APU 1.75ghz + 7770/7850 (one y ps4)..

    0
  • KAELH

    19 Mar 2014 19:12

    Mensajes: 586

    Ubicación: Murcia

    KAELH » 4 NOV 2014  3:43

     

    Crysis 3 es todo un referente en calidad gráfica y optimización. Fue un juego adelantado a su época a nivel gráfico. Fue lanzado el 19 de febrero de 2013.-

     

    Ver a través de unas "RIFT" a 4k (120hz) este nivel de detalle debe dar impresión.-

     

     

    0
  • breaker19

    19 Oct 2013 14:45

    Mensajes: 2384

    Visores

    Pico 4
    breaker19 » 4 NOV 2014  4:00
    Fue un juego adelantado a su época a nivel gráfico.

     

    Exactamente.. al igual que el primer Crysis en 2007, nunca había visto algo así en mi vida, la calidad de sus juegos es bastante cuestionable pero si algo saben hacer en Crytek son buenos motores gráficos y juegos con unos gráficos de infarto y con buena optimización.

     

    El primer Crysis sigue dandole mil patadas a muchos juegos que salen hoy en día.. a mi no me entra en la cabeza como desarrolladores pueden hacer esto (Crysis 3) en 2013 sin la "next-gen" (que ni es next ni es ná) de por medio.. y a finales de 2014 como estamos se lanzan juegos como The Evil Within, AC Unity, Shadow of Mordor, etc etc (sin cuestionar la calidad de los juegos en sí) que tienen gráficos mas bien ATRASADOS.. y unos requisitos infladísimos.

    0
  • SymphonicGamer

    Moderador

    1 Jul 2014 19:03

    Mensajes: 697

    SymphonicGamer » 4 NOV 2014  12:24

    Con una 980 vas perferctamente fluido 60fps asi que puro marketing nomas.

     

    Shadows of mordor

     

     

    Aca uno que esta bastante bien para jugarlo con DSR a 4k

     

     

    Este sin Dsr ufffffffff sobradisimo

     

    Cpu: i7 4790k  Gpu: Msi gtx 980 gaming 4g x2 Ram: 16gb

    0
Página 14 de 25

Usuarios navegando por este foro:

Liberty 7 Anónimo