"yengalvez""Franky"No sabía que la imagen la habías tomado tú. En cualquier caso hay algo que no encaja; partiendo de la info que da la 1080, es imposible que el 1080 upscaled diga "aquí seguro que en 4k va un punto negro".
Estoy de acuerdo contigo. Por eso precisamente he sido el primer "impresionado". Si no, ni hubiera abierto un hilo.
Ahora el tema es... ¿Como lo hace? Bueno, creo que Nokia o algún otro fabricante sacaron una cámara de fotos de 40mpx, cuyo sensor era de 16mpx o así, y lo que hacía era tener un sistema que aprovechaba una "subinformación" para crear píxeles nuevos a partir de un algoritmo.
Dicho de otro modo... yo no se si de la gráfica sale una información tipo "pixel 120x256 es rojo" y punto, o si la información llega con algo de "subinformación", aunque sea mínima del tipo "el pixel 120x256 es rojo y algo cerca es oscuro". A lo mejor funciona como los nuevos métodos de antialising que quiere usar Sony, que precisamente hace algo parecido a lo que acabo de comentar. Usa "subinformación" para hacer una corrección posterior, sin ser en sí un "emborronamiento".
Si la señal fuera analógica lo entendería, porque hay subinformación como para aburrir. Pero siendo digital... tb es cierto que no tenemos ni idea de que datos nos devuelve realmente el render.
Hasta donde yo sé sobre lo de lo que se envía a la pantalla es el buffer, que es exactamente eso, un array con la información RGB de cada pixel.
I7 6700K / MSI 1070 Gaming X / MSI Z170 Gaming M5 / 16GB RAM DDR4 3000Mhz / Aerocool X-Strike 800W Gold