Llevo años con la inquietud de saber que nombre tenia esta tecnologia, me rompi la cabeza tratando de ponerle un nombre, ya me parecia que no era lo mismo ver peliculas que novelas, en las primeras veia ese toque fantastico, irreal, suavizado, y un toque de blur o como quieran llamarle y en las segundas detectaba lo que parecianser tazas de frames altisima con una sensacion de mas realismo, mas nitidez, y mas humanidad. Gracias rovianos, gracias!
"earnaz"Por lo que he estado leyendo. La interporlación de imágenes en video viene a ser, que si tenemos un vídeo por ejemplo a 30fps, y le aplicamos esta interpolación para que se vea al doble, a 60fps. Entre frame y frame se mete uno nuevo, analizando el frame anterior y posterior para ver cual ha sido la modificación, y así crear uno intermedio mágicamente. También he encontrado este enlace en el que podemos ver el efecto con videos en nuestro PC...pero aún no puedo publicar enlaces así que nada.
Asi no creo que sea cómo funciona, por que si necesitas conocer el próximo frame para hacer el cálculo del intermedio te acabas de montar una latencia de agárrate y no te menees... significara que cuando muestres el frame intermedio ya conoces el siguiente cómo mínimo. No veo eso muy viable contra la carrera de Oculus por reducir la latencia.
El truco está en que no necesitas saber el frame siguiente, los movimientos de la cabeza son "previsibles", quiero decir la cabeza no se frena en seco, si estas girando a la derecha en el siguiente microsegundo vas a seguir girando a la derecha, a aceleraciones constantes o deceleraciones contantes para la magnitud de una décima de segundo con lo que puedes hacer trampas en estos cálculos
"Morgalad"El truco está en que no necesitas saber el frame siguiente, los movimientos de la cabeza son "previsibles", quiero decir la cabeza no se frena en seco, si estas girando a la derecha en el siguiente microsegundo vas a seguir girando a la derecha, a aceleraciones constantes o deceleraciones contantes para la magnitud de una décima de segundo con lo que puedes hacer trampas en estos cálculos
No creo que tampoco vayan demasiado por ahí los tiros por 2 razones:
1.- Lo mismo que con el timewarp de carmack eso solo funcionaría para la orientacion (y para eso ya tienes el timewarp). Los movimientos (digo movimientos de posición, no cambio de orientación) de la cabeza harían que necesitases ver cosas que no tienes en el frame ya renderizado, luego hay partes nuevas en el viewport que tienes que renderizarlas si o si, no se trata de un cambio de perspectiva de un render que ya tienes como hace el timewarp.
2.- En los videos de motionflow lo que se ve no es una interpolación/predicción con respecto al movimiento o posición de la cámara, si no del propio movimiento de los objetos y el contenido de lo que la cámara ve. En el video de ejemplo, el propio balón de fútbol y la pierna del jugador es lo que se interpolaba entre los frames. Al menos ese tipo de características que anuncian, no son posibles solo con una predicción de la posición de la cámara. De hecho en el vídeo de ejemplo la cámara es estática, solo se mueve el contenido de la imagen.
PD: No encuentro por ningún lado ninguna explicación técnica de cómo funciona así que de momento no haré ningún comentario sobre si servirá o no para la RV, por que llanamente no sabemos cómo funciona y no podemos deducir sus pros y contras para la RV.
Como bien dicen , está técnica vale si puedes meter un delay entre la visualización y la emisión, en televisión te puedes permitir ir con por ejemplo 1 segundo de retraso y conociendo los frames primero y segundo hacer la interpolación. Pero en RV eso no es posible, saber los dos frames para interpolar añadiría delay.
"maroto"Como bien dicen , está técnica vale si puedes meter un delay entre la visualización y la emisión, en televisión te puedes permitir ir con por ejemplo 1 segundo de retraso y conociendo los frames primero y segundo hacer la interpolación. Pero en RV eso no es posible, saber los dos frames para interpolar añadiría delay.
La cuestión es que el hecho de que funcione así es una especulación, nadie ha puesto aún ninguna referencia para constatar todo esto.
"maroto"Como bien dicen , está técnica vale si puedes meter un delay entre la visualización y la emisión, en televisión te puedes permitir ir con por ejemplo 1 segundo de retraso y conociendo los frames primero y segundo hacer la interpolación. Pero en RV eso no es posible, saber los dos frames para interpolar añadiría delay.
La cuestión es que el hecho de que funcione así es una especulación, nadie ha puesto aún ninguna referencia para constatar todo esto.
CortadorCesped puso esto en otro hilo:
Project Morpheus utiliza tres procesadores diferentes y es posible que finalmente incluya pantalla OLED
La hoja de especificaciones oficiales del prototipo de Sony para su dispositivo de realidad virtual, Project Morpheus, menciona una "unidad de procesador" que hemos podido ver ubicada entre la PS4 y el propio dispositivo. Ahora, el presidente de SCE Worldwide Studios, Shuhei Yoshida, explica exactamente su cometido en una entrevista con el sitio web japonés 4Gamer.
Al parecer la unidad contiene tres procesadores diferentes: un procesador de sonido digital (DSP), un Conversor de Tasa de imagen (FRC) y un tercero que se encarga de corregir la distorsión de la lente.
El DSP genera el sonido en tres dimensiones para el dispositivo. Su presencia en la versión comercial del producto no es definitiva, ya que es posible utilizar el DSP interno de la PS4.
La unidad FRC duplica la velocidad de fotogramas, creando un marco de interpolación entre cada fotograma. Básicamente, se analiza la correlación entre el fotograma anterior y el actual y genera el fotograma adecuado entre ellos, por lo que realiza una conversión de 60 fotogramas por segundo a 120. Es crucial para reducir el efecto de sombra de la pantalla LCD.
Sony habla de fotogramas, es decir de películas, y lo dice claro, sabiendo el fotograma anterior y actual puede interpolar el de enmedio. Cuando estas renderizando en tiempo real no te puedes permitir el lujo de conocer los dos fotogramas para calcular el de en medio sin meter de por medio delay. Es decir esta técnica vale para suavizar retransmisiones o películas, ya que puedes jugar con cierto retraso. Lo que se puede intentar, es si no tiene el siguiente fotograma el inventartelo, pero eso, tal como se vio en algún vídeo, por ahora genera efectos parecidos al bamboleo de un barco.
"maroto"Sony habla de fotogramas, es decir de películas, y lo dice claro, sabiendo el fotograma anterior y actual puede interpolar el de enmedio. Cuando estas renderizando en tiempo real no te puedes permitir el lujo de conocer los dos fotogramas para calcular el de en medio sin meter de por medio delay. Es decir esta técnica vale para suavizar retransmisiones o películas, ya que puedes jugar con cierto retraso. Lo que se puede intentar, es si no tiene el siguiente fotograma el inventartelo, pero eso, tal como se vio en algún vídeo, por ahora genera efectos parecidos al bamboleo de un barco.
Nota: Fps significa fotogramas por segundo, se puede calcular el siguiente frame dado por la inercia del movimiento en si, por ejemplo, el mas mínimo movimiento de la cabeza utilizara como mínimo 3 frames o 60 milisegundos, asi que sabiendo la dirección que toma la cámara en el frame 1, se puede calcular el frame 2 e incluso el frame 3.
Un giro rapido de 30 grados de la cabeza se puede tardar unos 180 milisegundos o sea unos 9 frames todos en la misma direccion, si de esos nueve nos ahorramos 4 la optimización es buenisima.
Sabiendo la aceleración de los primeros frames, se puede calcular perfectamente como va a ser el giro total.
Su pérgola en Murcia y Alicante al mejor precio en www.pergomur.com
Yo veo muy factible esta tecnologia, y muy necesaria si se pretende llevar las gafas a todo el mundo y usarlo con gran diversidad de dispositivos, contando claro esta con el eye tracking y el foveated rendering.
No compareis la interpolacion de frames de una TV con esto, la TV lleva un hardware limitado porque es para lo que es, por lo tanto da un input lag exagerado en algunos casos. Si se simplifica dichos procesos de calculo y metes hardware para acelerar, el lag resultante es de risa. Como nota, mi TV (Toshiba) con interpolacion de frames tiene 90-100ms de input lag, mientras que las Sony, Panasonic y Samsung no llegan ni a 50ms, mi TV en modo juego se pone a 50ms y las Sony W905 no llegan ni a los 9ms... Hablamos de pantallas Led en todo momento. Ahora imaginad una TV Samsung o Sony con pantalla Oled y hardware dedicado para la interpolacion de frames...
Ademas, muchos creen que cuando se crean dichas imagenes de mas, el proceso de calculo se realiza con toda la imagen, y no es asi, solo se realizan con los artefactos en movimiento.
No hay fronteras. No hay límites. No hay reglas. - Bienvenido a la Realidad Virtual. -