Percepción espacial asistida para personas con discapacidad visual

El equipo de la UPM trabaja en el desarrollo de un sistema que utiliza la realidad virtual para potenciar la capacidad de percepción y cognición espacial de los usuarios y facilitar así su orientación y desplazamiento por el entorno. (Imagen: UPM)

La discapacidad visual tiene una alta incidencia en la población y no pocas de estas personas sufren a raíz de ello dificultades para orientarse y desplazarse.

Debido a la prevalencia del problema, durante décadas se han aportado distintas soluciones técnicas a este inconveniente, empezando por el GPS para ciegos. Sin embargo, en los últimos años se ha constatado que las interfaces lingüísticas ya no son un medio suficiente, por lo cual se requiere de otras formas de codificación de la información para la interfaz humano-máquina.

Con este objetivo, un grupo de investigadores de la ETSI de Telecomunicación de la Universidad Politécnica de Madrid (UPM) en España ha unificado algunos de los principales algoritmos de sustitución y aumento sensorial en una única plataforma de realidad mixta, barata y fácilmente distribuible, con el objetivo de estudiar y potenciar la capacidad de percepción y cognición espacial de los usuarios y facilitar así su orientación y desplazamiento en el entorno.

“El prototipo desarrollado sincroniza los movimientos del usuario con los de un avatar en una réplica virtual del entorno, con latencias aproximadas de 20-60 ms. Esto permite independizar el diseño de la interfaz hombre-máquina del sistema de adquisición de información (sensores radar, sonar, etc.), ya que toda la información útil está modelada a prior”, explica Álvaro Araujo, uno de los investigadores de la UPM participantes en el trabajo.

Además de una brújula acústica y otra ayuda para la orientación, el prototipo desarrollado por los investigadores incorpora un nuevo algoritmo de sustitución sensorial multisensorial que a su vez incluye incorpora un sistema de tacto remoto y una variante del sistema “Virtual Acoustic Space”.

“La redundancia en dicha información (tacto y oído), además de la posibilidad de percibir distancias en múltiples direcciones, ayuda a las personas con discapacidad a percibir la abstracción del entorno y ello es clave para orientarse, calcular rutas alternativas, etcétera”, añade el investigador de la UPM. “Para ello, se aísla la información útil para el usuario y se optimiza la codificación de dicha información en forma de estímulos táctiles y acústicos (por ahora)”, añade.

Hasta el momento el trabajo ofrece resultados esperanzadores. “Las pruebas realizadas concuerdan con la hipótesis de que el uso de codificaciones naturales de los estímulos es una forma eficaz y eficiente para transmitir información del entorno. Los usuarios con y sin discapacidad visual fueron capaces de desenvolverse en entornos virtuales sin tener noción alguna (a priori) sobre la naturaleza de los estímulos. Algunos incluso pudieron reconocer y ubicarse en un escenario a ciegas, con tan solo seis minutos de entrenamiento”, explica Araujo.

Precisamente, estos buenos resultados hacen que los investigadores hayan recibido propuestas de ciertas instituciones con la idea de desarrollar más el prototipo y poder extender su uso en un futuro. “Algunos técnicos del CTI (ONCE) nos han recomendado aplicar este dispositivo en entrenamientos de orientación y movilidad, dado que podemos simular cualquier escenario urbano, de interior, etc., e introducir a uno o más usuarios en el mismo. Un ejemplo puede ser “cruzar un paso de cebra”, caso en el que podemos introducir vehículos en movimiento perceptibles por sonido 3D, etc. Otra opción es adaptar el prototipo para guiar a los usuarios en entornos más concretos por ejemplo el interior de un centro comercial”, concluye.

Araujo y su colega Santiago Real, también de la UPM, exponen los detalles técnicos de su sistema en la revista académica Applied Sciences, bajo el título “VES: A Mixed-Reality System to Assist Multisensory Spatial Perception and Cognition for Blind and Visually Impaired People”.