Una interfaz cerebro-computadora para convertir pensamientos en movimientos

Publicado el

Woon-Hong Yeo, Georgia Institute of Technology

Un nuevo sistema de interfaz cerebro-computadora podría mejorar la calidad de vida de las personas con disfunción motora o parálisis, ayudándolas a ejecutar movimientos.

Un sistema desarrollado por un equipo internacional de investigadores y dirigido por el Instituto de Tecnología de Georgia, permite a sus usuarios imaginar una acción y controlar de forma inalámbrica una silla de ruedas o un brazo robótico.

Accionar movimientos desde los pensamientos

Estas interfaces cerebro-computadora son una tecnología de rehabilitación que analiza las señales cerebrales de una persona y traduce esa actividad neuronal en comandos, convirtiendo las intenciones en acciones. 

El sistema portátil presentado se vale de la electroencefalografía como un método no invasivo para traducir la actividad cerebral en comandos. Integra electrodos de microfibras imperceptibles con circuitos inalámbricos blandos, que ofrece una mejor adquisición de señales y además, no depende de cables ni conexiones engorrosas, como otros aparatos de estudios o tratamientos clínicos. 

Medir con precisión esas señales cerebrales es de suma importancia para determinar qué acciones desea realizar un usuario. Por ende, los investigadores integraron un potente algoritmo de aprendizaje automático y un componente de realidad virtual para abordar ese desafío.

Este nuevo sistema, aún de carácter experimental, se probó con cuatro sujetos humanos, pero aún no se ha estudiado con personas discapacitadas.

«Esta es solo una primera demostración, pero estamos encantados con lo que hemos visto», señaló  Woon-Hong Yeo, director del Centro de Interfaces e Ingeniería Centradas en el Ser Humano de Georgia Tech, del Instituto de Electrónica y Nanotecnología, y miembro del Petit Institute for Bioengineering and Bioscience.

El equipo de Yeo tiene experiencia con esta clase de proyectos. Anteriormente, presentó una interfaz cerebro-computadora en un estudio de 2019 publicado en Nature Machine Intelligence. El autor principal de ese trabajo, Musa Mahmood, también fue el autor principal del nuevo artículo de investigación del equipo.

«Esta nueva interfaz cerebro-máquina utiliza un paradigma completamente diferente, que involucra acciones motoras imaginadas, como agarrar con cualquiera de las dos manos, lo que libera al sujeto de tener que mirar demasiados estímulos», dijo Mahmood, estudiante de doctorado en el laboratorio de Yeo.

En el estudio de este año, presentado en la web de Georgia Tech, los usuarios demostraron un control preciso de los ejercicios de realidad virtual utilizando sus pensamientos: sus imágenes motoras. Las señales visuales mejoran el proceso tanto para el usuario como para los investigadores que recopilan información. «Las indicaciones virtuales han demostrado ser muy útiles», dijo Yeo. «Aceleran y mejoran la participación y la precisión de los usuarios. Y pudimos registrar una actividad continua de imágenes motoras de alta calidad».

Fotografía del encabezado: Woon-Hong Yeo, Georgia Institute of Technology

Comparte en: