Resulta que lo que veis en el video es el clásico Doom a 20 fps y lo que parecen texturas comprimidas o borrosas peeeeero hay un detalle que lo hace totalmente diferente e inovador y es que no tiene motor gráfico.
Se trata de GameNGen un nuevo modelo de difusión (IA) que sustituye al motor del juego.
Creo que fue Jensen Huang, el CEO de Nvidia que dijo que en el margen de 5 a 10 años, los juegos serian generados totalmente por IA. Creo que si el mundo no se va a la mierda antes, vamos a flipar en colores con lo que van a cambiar los juegos.
Es como si se puede jugar a Doom hasta en un predictor... hagamos a la inversa, usemos nosecuantos servidores con nosecuantas GPU carísimas para generar un Doom de la nada xD fuera bromas, es un flipe. Aunque para flipe, el mod RTX de Doom 2 :P y no necesita una H100
yonmackleinEs como si se puede jugar a Doom hasta en un predictor... hagamos a la inversa, usemos nosecuantos servidores con nosecuantas GPU carísimas para generar un Doom de la nada xD fuera bromas, es un flipe. Aunque para flipe, el mod RTX de Doom 2 :P y no necesita una H100
Lo que cuesta una pasta es entrenar, no usar. Hay muchas IA modernas que se ejecutan en el pc local.
HypernovaLo que cuesta una pasta es entrenar, no usar. Hay muchas IA modernas que se ejecutan en el pc local.
Habria que ver lo que pesa el modelo, y si una 4090 lo puede mover ...
Esas IA modernas que puedes usar en local, ni con una 4090 puedes usar el modelo de 70B de parametros.
Ya discutimos esto hace un año o dos y te lo expliqué. Con mi 1080 SIN tensor cores usaba stable diffusion para generar varias imágenes en pocos minutos. Y ahora estoy usando un chat tipo gpt en local con una 4070, pero al igual que stable diffusion, no requiere tensor cores.
Repito, lo que cuesta es entrenar, no usar. Y generalmente los problemas vienen del lado de la VRAM crasheando sin usar Dram de sistema o memoria virtual de ssd como apoyo. Suele haber parámetros para ahorrar RAM que imagino van por ese camino, pero no los he tenido que usar. Sí que hubo un modelo sin podar que descargué que iba con muchísimo lag y lo borré, pero porque no estaba listo. Digo un módulo para el sistema de chat que uso, que tiene extensiones como llama y otros.
mes_nitEspero que la IA ayude a crear los mapeados de esos juegos grandes en menos tiempo. Digamos lo procedural llevado a lo bestia.
El DOOM raytracing mola pero cada vez que leo RTX o raytracing me duele el bolsillo.
El Elder scroll 2 generaba contenido procedural a lo no man sky, y es de los 90. No se siguió ese camino porque hay que elegir entre buen diseño pero caro y lento de hacer, o kilómetros a granel en un juego malo.
Sí hay algo intermedio, cuando trasteaba con udk hacia 2010, había herramientas como generadores procedurales de ciudades que ahorraban mucho trabajo. Ahora en vez de eso se compran colecciones de assets en la store y se modifican... porque dan más calidad de diseño.
El propio unreal puede generar edificios proceduralmente.
Explicame como correr LLM de 70B de parametros en mi 3080. Stable diffusion tambien me va bien a mi, pero Flux.AI me petardea cosa mala, y los de video que hay no me quiero imaginar, no he conseguido ninguno.
Si usar no cuesta, pq estan todos los grandes de la IA intentando recudir el consumo de sus inferencias ? Usar GPT 4 decian que hacia falta 128 A100, aunque una vez que tienes el modelo en VRAM, pues igual puedes correr varias inferencias a la vez, pero aun así, no es moco de pavo.
Vale que si, que entrenar cuesta mucho mas, en vez de 10 GPUs tochas de NVIDIA como hace falta para correr algunos modelos, hace falta 10.000, pero eso no hace que usarlas "no cueste". Y cuesta menos que la use una persona, pero si quieres 10 millones de jugadores jugando online a este doom, pues seguramente todas esas inferencias cuesten mas que el entrenamiento.
A mi Flux me va bastante lentorro (comparado con Stable Diffusion) en la 4070ti, y de video, el Stable Diffusion de video pues bastante lento aunque lo peor es que está limitado a 2 segundos. Supongo que para estas cosas es mejor una 4090 y su cantidad de RAM.
No sé si alguno vio el video de ayer de DotCSV donde hablaba de 2 empresas, una que está haciendo sus propios chips o cpus, que aceleran la generación de tokens (una GPU generaba 25tk por segundo, y su chip 450tk por segundo, Cerebras se llamaba, y en modelos más sencillos como versiones de ligera de Llama iba a 1800tk por segundo) eso sí, sólo la generación de tokens (no sirve para el aprendizaje), y otra empresa (Magic) que tenía 8000 H100s y presentaba una ventana de 100 millones de tokens... que flipe. Ambas cosas vendrían genial para el supuesto chatGPT 5 que en teoría razonaría las respuestas (consume más tokens y tardaría más en contestar).
cercataExplicame como correr LLM de 70B de parametros en mi 3080. Stable diffusion tambien me va bien a mi, pero Flux.AI me petardea cosa mala, y los de video que hay no me quiero imaginar, no he conseguido ninguno.
Si usar no cuesta, pq estan todos los grandes de la IA intentando recudir el consumo de sus inferencias ? Usar GPT 4 decian que hacia falta 128 A100, aunque una vez que tienes el modelo en VRAM, pues igual puedes correr varias inferencias a la vez, pero aun así, no es moco de pavo.
Vale que si, que entrenar cuesta mucho mas, en vez de 10 GPUs tochas de NVIDIA como hace falta para correr algunos modelos, hace falta 10.000, pero eso no hace que usarlas "no cueste". Y cuesta menos que la use una persona, pero si quieres 10 millones de jugadores jugando online a este doom, pues seguramente todas esas inferencias cuesten mas que el entrenamiento.
A ver, con "no cuesta" no digo que sea gratis, ten en cuenta el contexto del que hablamos de granjas de superordenadores de Nvidia y Azure de Microsoft.
De lo que me estás hablando viene a ser como estar en 2007 y querer correr el crysis al máximo a 8k (supersampling), no como estar en 1994 y crear toy story con granjas (entrenando un modelo) en tiempo NO real y pretender moverlo en ordenadores que apenas movían Doom a 320x200.
Usar un modelo exigente puede ser como no ser realista intentando mover crysis al máximo en 2007 y encima con alto supersampling.
Entrenar un modelo es como crear una película cgi en granjas cuando era el no va más de una nueva tecnología. Steve jobs invirtió en Pixar como Apple ahora está participando en la nueva ronda de financiación de los de chat gpt.
Cuando leí el artículo de crysis de edge 1 españa, este pedía al máximo y buena resolución de la época para la prensa, 2 tarjetas en sli 6800, que eran lo más pepino de nvidia. Pues a 8k de supersampling ponte a multiplicar. Creo que sirve de ejemplo con lo de varias A100, que como son para empresas son superiores a una 6800 de entonces.