"Oculus is fully commited to our own API"
"It's really exiting we get a high-quality, somewhat battle-tested API that is standard and not end up in the old API hell where you need to use different ones to support each device"
La comunidad de realidad virtual y aumentada desde 2013
Mensajes
"Oculus is fully commited to our own API"
"It's really exiting we get a high-quality, somewhat battle-tested API that is standard and not end up in the old API hell where you need to use different ones to support each device"
pero yo lo que tengo entendido es que el proximo gear vr sera el proximo dispositivo de calidad para "moviles"... ya que el actual no es la version final deseada..
que alguien me corrija si me equivoco..
www.roadtovr.com/oculus-presents-developing-vr-apps-with-oculus-sdk-live-blog-1245-pst/
Chachos, que nos la perdemos...
A ver qué se están contando..
Me gusta lo que vi en una diapositiva : rendereing periferical area at lower resolution, Me parece una opcion muy buena para ganar fov sin perder fps..
Cpu: i7 4790k Gpu: Msi gtx 980 gaming 4g x2 Ram: 16gb
Habla de que se necesita renderizar por encima de la resolución del display. (downsampling), que aun así se necesita un buen antialising.
Hablan de lo típico, Timewarp, distorsiones, latencia.
Lo mucho que traga y la alta demanda de potencia a 90fps.
Rediseñado el software y el API. (Nota mia: posiblemente habrá que recompilar en el siguiente update). La parte vieja lo van a suprimir (creo que ya habían dicho algo) y centrarse en DX11, OpenGL y DX12-
Hablan prácticamente solo de mejoras de latencia.
Están mejorando el culling cooperando con Unity y UE4 por problema creo de algunos arefactos (errores) con el modo actual.
Hasta ahí nada nuevo lo mismo de siempre.
Luego habla de utilizar "capas", y eye buffers ponen de ejemplo las letras en pantallas, con un gráfico del ELITE, y renderizar la parte de letras o detalles de interfaces 2D quieras que se vean mejor muy por encima de la resolución mientras el resto a más baja.
Vamos como funciona el eye tracking pero en vez de renderizar a más calidad a donde ve el ojo, hacerlo a determinados puntos que necesitan según el developer más resolución como una parte de las letras.
(la verdad no se que efecto tendría esta mezcla)
Y nada más.
Investigaciones futuro:
Renderizar visión periférica a menor resolución
Capas para algo más de UI 2D
Y un par de cosas más que ni puta idea que significan. (y otras que supongo que seran de coña por que hablan de investigar la fusion fria
Vamos blah blah blah.
Aca dejo eta pequeña entrevista a Brendan Iribe.
Cpu: i7 4790k Gpu: Msi gtx 980 gaming 4g x2 Ram: 16gb
Colaborador
18 Ago 2013 16:58
Mensajes: 8753
Ubicación: En mi mundo virtual
Visores
Hace tiempo que yo di la brasa con lo de que igual sería buena idea renderizar a menos calidad (no menos resolución) la zona periférica considerando que la mayor parte del tiempo enfocamos los ojos al frente, especialmente cuando queremos ver algo con detalle. Aunque yo me refería más que a resolución a reducir por ejemplo el número de polígonos cuando un objeto se acerca a nuestra area periférica de visión, y aumentarlo cuando se acerca al área central, algo así como se hace cuando un objeto se aleja de nosotros o se acerca. No se si esta solución se notaría mucho ni si al final el coste de andar poniendo y quitando polígonos iba a ser mayor que el de renderizar todo a máxima calidad. Supongo que si se plantean solo lo de la resolución, será que lo que yo digo no es muy viable.
Mi PC: AMD Ryzen 7 7700x, Nvidia RTX 4070 Ti, 32 Gb RAM DDR5 6000Mhz
Encontre esta informacion, pero no la entiendo muy bien , habla de un conector usb 3.1 para el cv1 .. alguien que entienda mas el tema? Dejo el enlace aca:
http://www.feelthree.com/2015/03/ultra-thin-usb-3-1-cable-for-the-oculus-cv1-21-6gbps-displayport-2/
Cpu: i7 4790k Gpu: Msi gtx 980 gaming 4g x2 Ram: 16gb
Habla de un nuevo cable de Spectra7, fabricante entre otras cosas del chip conector HDMI del DK2. Parece que ha presentado otro chip, el TC7050 en USB 3.1 y tiene un ancho de banda de 5 Gbps, que sería suficiente para que el CV1 funcionase con un solo cable (headtracking y señal de vídeo). Aunque teóricamente sería posible, no estoy seguro de si cuadra con la tecnología Liquid VR anunciada por AMD, para la cual entiendo que el HMD tiene que estar conectado a la fuerza a la salida de la gráfica... a no ser que futuras gráficas lleven una salida de estas ya integrada.