Investigadores crearon una interfaz cerebro-máquina ponible y controlable mediante realidad virtual

Recreación artística del concepto de lectura artificial de señales neuronales. (Ilustración: Amazings / NCYT)

Una nueva interfaz cerebro-máquina que puede llevarse puesta con la misma facilidad que una prenda de ropa podría mejorar la calidad de vida de las personas con disfunción motora o parálisis, incluso de aquellas que están plenamente conscientes, pero no pueden hacer ningún movimiento ni hablar.

El nuevo sistema podría permitir a los usuarios controlar con la mente su silla de ruedas, su brazo robótico u otros dispositivos, mediante movimientos imaginados naturales, en un escenario de realidad virtual.

El logro es obra del equipo internacional de Woon-Hong Yeo y Musa Mahmood, ambos del Instituto Tecnológico de Georgia (Georgia Tech) en Estados Unidos.

Las interfaces cerebro-máquina tienden a ser voluminosas y a menudo requieren del usuario pensamientos tales como el orientado a deslizar en una pantalla un cursor hasta una posición que indica la acción que el usuario desea que se realice. Las interfaces típicamente analizan las señales cerebrales de una persona y traducen esa actividad neuronal en órdenes, convirtiendo las intenciones en acciones. El método no invasivo más común para adquirir esas señales es la electroencefalografía (EEG), que suele requerir que el usuario tenga colocado en la cabeza un aparatoso gorro con electrodos y una maraña de cables conectados a instrumental.

Estos gorros suelen depender en gran medida de geles y pastas para ayudar a mantener el contacto de los electrodos con la piel, requieren largos tiempos de preparación y, en general, son incómodos y poco prácticos de usar. Los dispositivos también suelen sufrir una mala adquisición de señales debido a la degradación del material o a las interferencias causadas por pequeños movimientos involuntarios como un parpadeo o el rechinar de dientes. Este “ruido” aparece en los datos cerebrales y debe ser filtrado.

El sistema de EEG portátil diseñado por el equipo de Yeo, que integra electrodos de microagujas imperceptibles con circuitos inalámbricos blandos, ofrece una adquisición de señales mejorada. Medir con precisión esas señales cerebrales es fundamental para determinar qué acciones quiere realizar un usuario, y a ello contribuye, en el nuevo sistema, un potente algoritmo de aprendizaje automático y un escenario de realidad virtual preparados por el equipo.

«La mayor ventaja de este sistema para el usuario, en comparación con los que existen actualmente, es que es blando y cómodo de llevar, y carece de cables», destaca Yeo.

Pero además, la nueva interfaz cerebro-máquina se maneja de un modo muy distinto, centrado simplemente en imaginar acciones, con la ayuda del marco de referencia proporcionado por el escenario de realidad virtual. Entonces, el sistema convierte lo proyectado en el escenario de realidad virtual por el usuario en acciones del mundo real.

El nuevo sistema se ha probado ya en cuatro sujetos humanos, y en el futuro se probará con personas con discapacidades.

Yeo, Mahmood y sus colegas exponen los detalles técnicos de su nueva interfaz en la revista académica Advanced Science, con el título «Wireless Soft Scalp Electronics and Virtual Reality System for Motor Imagery-based Brain-Machine Interfaces».