Es posible poner sensores en el cerebro capaces de capturar las intenciones del mismo, de saber si estamos pensando en una letra u otra, y poder así escribir en un ordenador sin manos.
Esa tecnología ha avanzado mucho últimamente, de hecho un nuevo artículo de investigación, publicado en The New England Journal of Medicine, muestra el potencial de implementar la tecnología para personas con impedimentos del habla.
Facebook, junto con el Laboratorio Chang de la Universidad de California en San Francisco, ha colaborado mucho en este tema. De allí nació el Proyecto Steno, un proyecto creado para traducir la actividad cerebral en palabras, pero ahora Facebook se ha echado atrás.
Ha abandonando la idea de un dispositivo comercial de lectura del cerebro, ya que no cree que sea posible tener un producto comercial que se venda en masa. Está claro que no quieren hacer ciencia en este caso, quieren algo que pueda aplicarse en el mundo real, fuera de los laboratorios.
Facebook ha dicho que no quieren crear interfaces cerebro-computadora, montadas en la cabeza, se concentrarán en movimientos de muñeca, y para ello ya compró en 2019 a la empresa de pulseras de electromiografía CTRL-Labs.
Los avances con la interfaz en el cerebro son buenos, pero muy lejos de lo que se esperaba hace 10 años. Creen que el control desde la muñeca será más atractivo para sistemas de AR y VR.
Aún así, dejan claro que no han perdido el tiempo, han aprendido mucho con el tiempo invertido en la investigación del proyecto Steno:
Todavía estamos en las primeras etapas para desbloquear el potencial de la electromiografía basada en la muñeca (EMG), pero creemos que será la entrada principal para las gafas AR, y aplicar lo que hemos aprendido sobre BCI nos ayudará a llegar más rápido.
Sobre el sistema de interfaz cerebral montado en la cabeza, harán que el software sea de código abierto, y compartirán los prototipos de hardware con investigadores externos, por lo que el tema no ha muerto.