De momento es un poco aparatoso y limitado, se tiene que entrenar para cada usuario por un breve tiempo, unos 15 minutos y solo reconoce unos 20 comandos de voz y con una tasa de aciertos todavía baja para un uso cómodo, pero esperan poder aumentarlo hasta una conversación completa.
Lo que usa son una serie de sensores mioeléctricos que detectan las levísimas señales que se producen en los músculos durante un fenómeno del habla llamado subvocalización, el habla silenciosa.
Cuando pensamos en decir algo, el cerebro envía señales a los músculos de la lengua, la boca y los labios para prepararlos. Todavía no hemos pronunciado ni un sonido, pero es cómo si habláramos para nosotros mismos. La mayor parte de personas hacen esto de manera inconsciente cuando leen un libro.
El caso es que la subvocalización puede ser interpretada por una máquina. Para ello, el equipo del MIT ha integrado una serie de sensores mioeléctricos que registran las señales eléctricas de los músculos. Una red neural interpreta estas señales, y las convierte en palabras que puede pronunciar un sistema de voz.
De momento, AlterEgo está en sus comienzos y tiene muchas limitaciones. Para empezar, hay que enseñar a la red neural a reconocer e interpretar a cada persona, lo que lleva un cierto tiempo. La razón es que, igual que cada persona tiene una voz diferente, resulta que cada una pronuncia las palabras de subvocalización con su propio acento. La tasa de exito del dispositivo interpretando palabras es del 92%.
Desde luego me parece una gran mejora respecto a una interfaz en voz alta, sobretodo en ambientes en los que no estás solo o hay mucho ruido ambiente. Tengo serias dudas en que se pueda diseñar de forma en que no sea tan antiestético, quizás en forma de un collar que no tenga que apoyarse en la cara sería un diseño aceptable?
Visto en :
MIT News