No soy matemático, aunque no se me daba mal, pero creo entender que esto es lo que pasa en un caso y otro:
Se dijo que la captura de movimiento de Oculus es mas costosa y creo que entiendo el por qué. No es lo mismo triangular el mando en función de unos sensores con dos posiciones (iluminado o apagado) y el momento en el que se encienden como e el caso de HTC que interpretar un esquema de conjuntos de puntos en una imagen en blanco y negro por cada cámara que tiene que tener en cuenta profundidad en función de la cantidad de píxeles y además su posición.
Puede parecer una tontería pero los controles han de tener una respuesta muy rápida para que sea una buena realidad virtual al igual que pasa con las pantallas que han de mostrar 90 imágenes al segundo para ser confortables. Los controles han de responder muchas veces y sin lag en un mismo segundo.
El sistema de Oculus tiene que analizar imágenes, que si son de baja resolución serán rápidas pero imprecisas y si son de alta resolución serán pesadas para la CPU. No me extrañaría que Carmack o algún otro cerebrito que no sea de renombre esté dándolo todo para mejorar tiempos. Un i5 4960 ha de ser capaz solo o con ayuda de manejarlo bien. Es la meta que ellos mismos se pusieron y no solo eso también necesita ejecutar el propio juego. Vive por otra parte solo tiene que tener sincronizados los haces de luz y ver a que sensor llega la luz en que momento dentro del mismo segundo haciendo de esta forma cálculos de "trigonometría" que a cualquier pc le son más fáciles que los "matriciales" que necesita Oculus.
Además como se ha explicado las "fotos" que toma Oculus tienen un ángulo de visión grande pero no tanto como los faros de Vive que pueden casi ser de 180º. Si en una foto aumentamos mucho el FOV la imagen puede ser algo intratable por alta resolucion o por estar muy deformada, no es tanto problema de óptica como de capacidad de cálculo.
En fin que la solución de Valve es mucho más limpia y la de Oculus un poco chapucera. Lo cual no quiere decir que no se pueda arreglar con un módulo de cálculo aparte en el caso de Oculus pero suponiendo entonces una subida de precio cuando salgan los touch. Y ojo que a Playstation le pasa lo mismo que a Oculus, analiza imágenes, no puntos iluminados o apagados en una secuencia de tiempo como Vive.
Esa es mi apuesta por eso no hay Touch ahora, porque si les copian los Lighthouse les cae una demanda de Copyright gorda. Siguen mientras tanto mejorando los algoritmos. No me extrañaría ver dos Constellation conectados a una caja para que luego por usb o inalámbricamente le de el cálculo masticado a la CPU del ordenador.
Edito: Si Oculus o PSVR conectan los sensores a esa caja que especulo que existirá pueden dar mejor resultado que Vive porque absolutamente todos los cálculos de posicionamiento estarían hechos. Solo necesitarían pasarles dos puntos espaciales o un vector (coordenadas con dirección) a la CPU para saber dónde andan. En ese caso sería aparatoso y algo más caro pero más efectivo incluso que VIVE en cuanto a CPU (O a lo mejor VIVE ya lo hace). En cualquier caso tiene que ser realmente complicado tratar imágenes con FOV no estándar.
Virtual o Virtual