Tema: Clear Motion flow/range en VR?" Carmack: "Posiblemente."

Página 2 de 2

Mensajes

  • AOXE3D

    28 Jun 2014 18:16

    Mensajes: 266

    Ubicación: Jujuy, Argentina

    Visores

    Oculus Quest
    AOXE3D » 30 AGO 2014  2:36

    Llevo años con la inquietud de saber que nombre tenia esta tecnologia, me rompi la cabeza tratando de ponerle un nombre, ya me parecia que no era lo mismo ver peliculas que novelas, en las primeras veia ese toque fantastico, irreal, suavizado, y un toque de blur o como quieran llamarle y en las segundas detectaba lo que parecianser tazas de frames altisima con una sensacion de mas realismo, mas nitidez, y mas humanidad. Gracias rovianos, gracias!

    ”Será tan real como la realidad”

    0
  • Morgalad

    21 Jul 2014 17:29

    Mensajes: 220

    Ubicación: Maidenhead, UK / Almería , Es

    Morgalad » 30 AGO 2014  4:37
    "NoxWings"
    "earnaz"Por lo que he estado leyendo. La interporlación de imágenes en video viene a ser, que si tenemos un vídeo por ejemplo a 30fps, y le aplicamos esta interpolación para que se vea al doble, a 60fps. Entre frame y frame se mete uno nuevo, analizando el frame anterior y posterior para ver cual ha sido la modificación, y así crear uno intermedio mágicamente.
    También he encontrado este enlace en el que podemos ver el efecto con videos en nuestro PC...pero aún no puedo publicar enlaces así que nada.


    Asi no creo que sea cómo funciona, por que si necesitas conocer el próximo frame para hacer el cálculo del intermedio te acabas de montar una latencia de agárrate y no te menees... significara que cuando muestres el frame intermedio ya conoces el siguiente cómo mínimo. No veo eso muy viable contra la carrera de Oculus por reducir la latencia.

     

    El truco está en que no necesitas saber el frame siguiente, los movimientos de la cabeza son "previsibles", quiero decir la cabeza no se frena en seco, si estas girando a la derecha en el siguiente microsegundo vas a seguir girando a la derecha, a aceleraciones constantes o deceleraciones contantes para la magnitud de una décima de segundo con lo que puedes hacer trampas en estos cálculos

    0
  • NoxWings

    22 Mar 2014 12:26

    Mensajes: 1009

    Visores

    HTC Vive
    Valve Index
    NoxWings » 30 AGO 2014  8:58
    "Morgalad"El truco está en que no necesitas saber el frame siguiente, los movimientos de la cabeza son "previsibles", quiero decir la cabeza no se frena en seco, si estas girando a la derecha en el siguiente microsegundo vas a seguir girando a la derecha, a aceleraciones constantes o deceleraciones contantes para la magnitud de una décima de segundo con lo que puedes hacer trampas en estos cálculos

     

    No creo que tampoco vayan demasiado por ahí los tiros por 2 razones:

     

    1.- Lo mismo que con el timewarp de carmack eso solo funcionaría para la orientacion (y para eso ya tienes el timewarp). Los movimientos (digo movimientos de posición, no cambio de orientación) de la cabeza harían que necesitases ver cosas que no tienes en el frame ya renderizado, luego hay partes nuevas en el viewport que tienes que renderizarlas si o si, no se trata de un cambio de perspectiva de un render que ya tienes como hace el timewarp.

     

    2.- En los videos de motionflow lo que se ve no es una interpolación/predicción con respecto al movimiento o posición de la cámara, si no del propio movimiento de los objetos y el contenido de lo que la cámara ve. En el video de ejemplo, el propio balón de fútbol y la pierna del jugador es lo que se interpolaba entre los frames. Al menos ese tipo de características que anuncian, no son posibles solo con una predicción de la posición de la cámara. De hecho en el vídeo de ejemplo la cámara es estática, solo se mueve el contenido de la imagen.

     

    PD: No encuentro por ningún lado ninguna explicación técnica de cómo funciona así que de momento no haré ningún comentario sobre si servirá o no para la RV, por que llanamente no sabemos cómo funciona y no podemos deducir sus pros y contras para la RV.

    I7 6700K / MSI 1070 Gaming X / MSI Z170 Gaming M5 /  16GB RAM DDR4 3000Mhz / Aerocool X-Strike 800W Gold

    0
  • maroto

    10 Jul 2014 05:06

    Mensajes: 199

    maroto » 30 AGO 2014  9:25

    Como bien dicen , está técnica vale si puedes meter un delay entre la visualización y la emisión, en televisión te puedes permitir ir con por ejemplo 1 segundo de retraso y conociendo los frames primero y segundo hacer la interpolación. Pero en RV eso no es posible, saber los dos frames para interpolar añadiría delay.

    0
  • NoxWings

    22 Mar 2014 12:26

    Mensajes: 1009

    Visores

    HTC Vive
    Valve Index
    NoxWings » 30 AGO 2014  10:23
    "maroto"Como bien dicen , está técnica vale si puedes meter un delay entre la visualización y la emisión, en televisión te puedes permitir ir con por ejemplo 1 segundo de retraso y conociendo los frames primero y segundo hacer la interpolación. Pero en RV eso no es posible, saber los dos frames para interpolar añadiría delay.

     

    La cuestión es que el hecho de que funcione así es una especulación, nadie ha puesto aún ninguna referencia para constatar todo esto.

    I7 6700K / MSI 1070 Gaming X / MSI Z170 Gaming M5 /  16GB RAM DDR4 3000Mhz / Aerocool X-Strike 800W Gold

    0
  • StandarK

    6 Ago 2013 03:26

    Mensajes: 1899

    Ubicación: Murcia

    Visores

    Oculus Rift Development Kit 2
    Cardboard
    Oculus Rift
    Oculus Go
    StandarK » 30 AGO 2014  13:41
    "NoxWings"
    "maroto"Como bien dicen , está técnica vale si puedes meter un delay entre la visualización y la emisión, en televisión te puedes permitir ir con por ejemplo 1 segundo de retraso y conociendo los frames primero y segundo hacer la interpolación. Pero en RV eso no es posible, saber los dos frames para interpolar añadiría delay.


    La cuestión es que el hecho de que funcione así es una especulación, nadie ha puesto aún ninguna referencia para constatar todo esto.

     

    CortadorCesped puso esto en otro hilo:

     

    Project Morpheus utiliza tres procesadores diferentes y es posible que finalmente incluya pantalla OLED


    La hoja de especificaciones oficiales del prototipo de Sony para su dispositivo de realidad virtual, Project Morpheus, menciona una "unidad de procesador" que hemos podido ver ubicada entre la PS4 y el propio dispositivo. Ahora, el presidente de SCE Worldwide Studios, Shuhei Yoshida, explica exactamente su cometido en una entrevista con el sitio web japonés 4Gamer.

    Al parecer la unidad contiene tres procesadores diferentes: un procesador de sonido digital (DSP), un Conversor de Tasa de imagen (FRC) y un tercero que se encarga de corregir la distorsión de la lente.

    El DSP genera el sonido en tres dimensiones para el dispositivo. Su presencia en la versión comercial del producto no es definitiva, ya que es posible utilizar el DSP interno de la PS4.

    La unidad FRC duplica la velocidad de fotogramas, creando un marco de interpolación entre cada fotograma. Básicamente, se analiza la correlación entre el fotograma anterior y el actual y genera el fotograma adecuado entre ellos, por lo que realiza una conversión de 60 fotogramas por segundo a 120. Es crucial para reducir el efecto de sombra de la pantalla LCD.

     

    Fuente: www.teknoconsolas.es/noticia/not ... oled/82340

    0
  • maroto

    10 Jul 2014 05:06

    Mensajes: 199

    maroto » 30 AGO 2014  15:57

    Sony habla de fotogramas, es decir de películas, y lo dice claro, sabiendo el fotograma anterior y actual puede interpolar el de enmedio. Cuando estas renderizando en tiempo real no te puedes permitir el lujo de conocer los dos fotogramas para calcular el de en medio sin meter de por medio delay.
    Es decir esta técnica vale para suavizar retransmisiones o películas, ya que puedes jugar con cierto retraso.
    Lo que se puede intentar, es si no tiene el siguiente fotograma el inventartelo, pero eso, tal como se vio en algún vídeo, por ahora genera efectos parecidos al bamboleo de un barco.

    0
  • albertopina1

    17 Nov 2013 19:40

    Mensajes: 4916

    Visores

    Meta Quest 3
    albertopina1 » 30 AGO 2014  16:43
    "maroto"Sony habla de fotogramas, es decir de películas, y lo dice claro, sabiendo el fotograma anterior y actual puede interpolar el de enmedio. Cuando estas renderizando en tiempo real no te puedes permitir el lujo de conocer los dos fotogramas para calcular el de en medio sin meter de por medio delay.
    Es decir esta técnica vale para suavizar retransmisiones o películas, ya que puedes jugar con cierto retraso.
    Lo que se puede intentar, es si no tiene el siguiente fotograma el inventartelo, pero eso, tal como se vio en algún vídeo, por ahora genera efectos parecidos al bamboleo de un barco.

     

    Nota: Fps significa fotogramas por segundo, se puede calcular el siguiente frame dado por la inercia del movimiento en si, por ejemplo, el mas mínimo movimiento de la cabeza utilizara como mínimo 3 frames o 60 milisegundos, asi que sabiendo la dirección que toma la cámara en el frame 1, se puede calcular el frame 2 e incluso el frame 3.

     

    Un giro rapido de 30 grados de la cabeza se puede tardar unos 180 milisegundos o sea unos 9 frames todos en la misma direccion, si de esos nueve nos ahorramos 4 la optimización es buenisima.

     

    Sabiendo la aceleración de los primeros frames, se puede calcular perfectamente como va a ser el giro total.

    Su pérgola en Murcia y Alicante al mejor precio en www.pergomur.com

    0
  • CortadorCesped

    23 Ago 2014 08:16

    Mensajes: 270

    CortadorCesped » 30 AGO 2014  17:31

    Yo veo muy factible esta tecnologia, y muy necesaria si se pretende llevar las gafas a todo el mundo y usarlo con gran diversidad de dispositivos, contando claro esta con el eye tracking y el foveated rendering.

     

    No compareis la interpolacion de frames de una TV con esto, la TV lleva un hardware limitado porque es para lo que es, por lo tanto da un input lag exagerado en algunos casos. Si se simplifica dichos procesos de calculo y metes hardware para acelerar, el lag resultante es de risa. Como nota, mi TV (Toshiba) con interpolacion de frames tiene 90-100ms de input lag, mientras que las Sony, Panasonic y Samsung no llegan ni a 50ms, mi TV en modo juego se pone a 50ms y las Sony W905 no llegan ni a los 9ms... Hablamos de pantallas Led en todo momento. Ahora imaginad una TV Samsung o Sony con pantalla Oled y hardware dedicado para la interpolacion de frames...

     

    Ademas, muchos creen que cuando se crean dichas imagenes de mas, el proceso de calculo se realiza con toda la imagen, y no es asi, solo se realizan con los artefactos en movimiento.

    No hay fronteras. No hay límites. No hay reglas.
    - Bienvenido a la Realidad Virtual. -

    0
Página 2 de 2

Usuarios navegando por este foro: