Nvidia atacara con una arquitectura en 16 nm en el primer semestre de este proximo 2015....
benchmarkhardware.com/noticias/h ... -2015.html
Esto se va animando.
Saludos
La comunidad de realidad virtual y aumentada desde 2013
Mensajes
Nvidia atacara con una arquitectura en 16 nm en el primer semestre de este proximo 2015....
benchmarkhardware.com/noticias/h ... -2015.html
Esto se va animando.
Saludos
Moderador
18 Ene 2014 12:42
Mensajes: 10408
Ubicación: Hospitalet de Llobregat (Barcelona)
Visores
"predator036"Nvidia atacara con una arquitectura en 16 nm en el primer semestre de este proximo 2015....
benchmarkhardware.com/noticias/h ... -2015.html
Esto se va animando.
Saludos
Es de lo que hablábamos; lo que pasa es que las tarjetas pueden llegar en septiembre junto con (o después de) la aparición del CV1, por lo que serán nuevecitas, golosas y... caras.
Eso en el mejor de los casos, si no se atrasan más.
Equipo: AMD Ryzen 9 3900X; Gigabyte Aorus 3080 Ti Master; DDR4 32GB 4GHz C16.
Y yo que había leído que los 16nm y la TI no llegaban hasta 2016...
wccftech.com/tsmc-buys-14b-worth ... q2q3-2015/
¿Ahora a quién nos creemos?
Toma solución para rv a 4k:
Tri-SLI 980 con refrigeracion liquida
elchapuzasinformatico.com/2014/1 ... e-tri-sli/
eso es un engendro macho , yo esperare al año que viene a ver que sacan y ya las refrigerare yo porque si le tengo que poner encima eso en la chepa a mi torre que ya es grande....
Compis importantisima noticia referente a las nuevas generaciones de graficas, leerlo no tiene desperdicio, especialmente para los que estamos aguantando para renovar grafica, en espera de los ases que los de verde y rojo tienen en la manga, lo que nos han mostrado hasta ahora es un aperitivo de lo que esta por venir.........
www.ozeros.com/2014/11/rumor-esp ... ft-sandra/
saludos
Si se confirman esos datos, el año que viene habrá un salto muy gordo de potencia en las GPUs, y no los típicos incrementos de cada año. Fenomenal para la RV.
Ojala bajen de precio las 980 y para ese entonces este bien definida el sli para Rv, para asi hacerme con otra 980.
Cpu: i7 4790k Gpu: Msi gtx 980 gaming 4g x2 Ram: 16gb
"Juanlo"Si se confirman esos datos, el año que viene habrá un salto muy gordo de potencia en las GPUs, y no los típicos incrementos de cada año. Fenomenal para la RV.
Asi es Juanlo, para nuestra querida RV va a significar un empujon enorme, dado que, nos guste o no, las mejores y mas sorprendentes experiencias que estan por venir EN PC, van de la mano de potencia, para disfrutarlas en todo su esplendor, otra cosa sera la via de experiencias que se abra a nivel smartphones, consolas, etc...
En cuanto a lo que se viene leyendo ultimamente, que si paneles 2k, 3k, 4k, en unas futuras y supuestas CV1, si eso llegara a ser una realidad, estas nuevas arquitecturas seran a lo que podremos agarrarnos, y ojo, incluso con estos bicharracos dudo que podramos pasar de una experiencia decente en 2k.
Saludos
¿Un Halflife 2 en 4k con un control tipo stem sin latencia y con un andador sería simplemente una experiencia decente? Poco tienen que ver los gráficos en la calidad global de la experiencia. Ya es así en los juegos tradicionales, y mucho más en RV
Por esto pille una 970 y no un SLI de 980... Estoy seguro de que el año que viene se nos presenta otro salto al nivel de las 970/980.
No hay fronteras. No hay límites. No hay reglas.
- Bienvenido a la Realidad Virtual. -
Moderador
18 Ene 2014 12:42
Mensajes: 10408
Ubicación: Hospitalet de Llobregat (Barcelona)
Visores
Pues parece que empieza una batalla entre "Verdes" y "Rojos" en la que sólo podemos ganar nosotros y la RV.
AMD sería la primera en sacar Stacked Memory. Aquí tenéis una explicación de lo que es (de nVidia, haha): http://devblogs.nvidia.com/parallelforall/nvlink-pascal-stacked-memory-feeding-appetite-big-data/ Los "verdes de nVidia" pensaban sacarla en la siguiente generación (Pascal) pero parece que los "rojos" (AMD) se les van a adelantar. Esto si es importante, porque multiplica sobremanera el ancho de banda de la memoria, añadiendo más capacidad y eficiencia.
Equipo: AMD Ryzen 9 3900X; Gigabyte Aorus 3080 Ti Master; DDR4 32GB 4GHz C16.
Moderador
18 Ene 2014 12:42
Mensajes: 10408
Ubicación: Hospitalet de Llobregat (Barcelona)
Visores
En el peor de los casos, aunque todo resulte ser un rumor, seguro que nVidia se va a tener que poner las pilas "por aquello de". ¿Y si adelantan alguna característica de Pascal, como la Stacked Memory?
Un gran cambio, si ya lo tienen adelantado. En la práctica sería sacar pronto Pascal, por lo que Maxwell duraría un suspiro.
Edito:
¿Pero que usará al final nVidia? ¿28nm, 20nm o 16nm?
Equipo: AMD Ryzen 9 3900X; Gigabyte Aorus 3080 Ti Master; DDR4 32GB 4GHz C16.
"Cdaked"En el peor de los casos, aunque todo resulte ser un rumor, seguro que nVidia se va a tener que poner las pilas "por aquello de". ¿Y si adelantan alguna característica de Pascal, como la Stacked Memory?
Un gran cambio, si ya lo tienen adelantado. En la práctica sería sacar pronto Pascal, por lo que Maxwell duraría un suspiro.
Edito:
¿Pero que usará al final nVidia? ¿28nm, 20nm o 16nm?
La mayoria de las noticias internacionales que he leido, todo apunta a 20 nm.
Moderador
18 Ene 2014 12:42
Mensajes: 10408
Ubicación: Hospitalet de Llobregat (Barcelona)
Visores
Bueno, como mínimo tendríamos los 20nm, pero lo dicho: aunque sea sólo un rumor, nVidia tiene que acelerar sus desarrollos para no correr el riesgo de que resulte ser cierto y se vea atrasada frente a su rival. Si al final AMD saca Stacked Memory en su Fidji, nVidia podría verse obligada a adelantar Pascal.
Equipo: AMD Ryzen 9 3900X; Gigabyte Aorus 3080 Ti Master; DDR4 32GB 4GHz C16.
Nvidia no tendría porqué adelantar Pascal.. si AMD saca sus gráficas con memoria apilada HBM, que todo apunta a que será así, no tienen porqué rendir mucho mas allá que las Maxwell, incluso el GM200 podría estar por encima.
Si no, recordemos cuando ATI introdujo la memoria GDDR5 en la 4870, que yo mismo tuve, y su rival directa (la GTX260) contaba con GDDR3. Y la 4870 no era superior a su rival.. a pesar de que la GDDR5 es muuuucho mas rápida que la GDDR3, lo sé porque tuve las dos. (4870 y GTX260)
En este caso la primera generación de HBM estaría aún muy inmadura, para que le saque una ventaja real y nvidia se sienta amenazada debería de estar madura y evolucionada esta tecnología pero no es así, la van a implementar por primera vez.
Con lo que peligro 0 para nvidia.
Peor aún si contamos que las 390/X serán núcleos FIJI y no BERMUDA.. parece que AMD copia la jugada que hizo nvidia con las 680/780.. las Bermuda le habrán salido demasiado buenas y habrán decidido dejarlas para las 490X, ya que el núcleo FIJI estaba destinado a convertirse en 380/380X.
"Cdaked"Bueno, como mínimo tendríamos los 20nm, pero lo dicho: aunque sea sólo un rumor, nVidia tiene que acelerar sus desarrollos para no correr el riesgo de que resulte ser cierto y se vea atrasada frente a su rival. Si al final AMD saca Stacked Memory en su Fidji, nVidia podría verse obligada a adelantar Pascal.
Por la pagina 27 de este mismo hilo hablabamos del tema. Yo creo que tendremos Pascal para 2015, a ver como evoluciona la cosa.
No hay fronteras. No hay límites. No hay reglas.
- Bienvenido a la Realidad Virtual. -
Moderador
18 Ene 2014 12:42
Mensajes: 10408
Ubicación: Hospitalet de Llobregat (Barcelona)
Visores
Veremos en qué queda todo esto, pero en cualquier caso de hacer algo será beneficiarnos. Ya le irá bien a nVidia oír algún "Hey, que estamos aquí" de AMD para que no se duerma.
Equipo: AMD Ryzen 9 3900X; Gigabyte Aorus 3080 Ti Master; DDR4 32GB 4GHz C16.
"Cdaked"Veremos en qué queda todo esto, pero en cualquier caso de hacer algo será beneficiarnos. Ya le irá bien a nVidia oír algún "Hey, que estamos aquí" de AMD para que no se duerma.
Tienes toda la razón.. Ya tocaba algo así.
"Cdaked"En el peor de los casos, aunque todo resulte ser un rumor, seguro que nVidia se va a tener que poner las pilas "por aquello de". ¿Y si adelantan alguna característica de Pascal, como la Stacked Memory?
Un gran cambio, si ya lo tienen adelantado. En la práctica sería sacar pronto Pascal, por lo que Maxwell duraría un suspiro.
Edito:
¿Pero que usará al final nVidia? ¿28nm, 20nm o 16nm?
Coño, pues parece que se lanzan directamente a por los 16 nm !!!!!!!..........
www.ozeros.com/2014/11/todo-apun ... m-el-2016/