China acelera en interfaces cerebro-computadora y deja de hablar solo de laboratorio

Cuando se menciona interfaz cerebro-computadora o BCI (por sus siglas en inglés), el imaginario colectivo suele ir directo a Neuralink y a la figura de Elon Musk. La lectura que se impone es la de un futuro todavía en fase de demostración, casi de feria tecnológica. El matiz que aporta la última fotografía del sector es que, mientras Occidente sigue midiendo cada paso, en China el mercado está empezando a comportarse como industria: con empresas que salen del laboratorio, con ensayos clínicos que crecen en número y, sobre todo, con un estado que está colocando carriles para que la tecnología llegue al sistema sanitario.

En esa transición de “promesa” a “producto” aparece un dato que lo cambia todo: varias provincias chinas ya han definido precios de servicios médicos para BCI, un movimiento administrativo que, aunque suene gris, funciona como el equivalente a poner señales y peajes en una autopista antes de abrirla. El objetivo es acelerar la integración de estas terapias y dispositivos en el sistema nacional de seguros médicos. Si se logra, el incentivo para hospitales, pacientes y fabricantes se multiplica, porque deja de depender de pagos puntuales o programas piloto. Continúa leyendo «China acelera en interfaces cerebro-computadora y deja de hablar solo de laboratorio»

OpenAI invierte en Merge Labs y refuerza su apuesta por las interfaces cerebro-computadora en la era de la IA

El 15 de enero de 2026 se hizo pública la participación de OpenAI en la ronda semilla de Merge Labs. El mensaje central no gira en torno a un dispositivo concreto, sino a una idea histórica: cuando cambia la forma de comunicarnos con una máquina, cambia la potencia de lo que podemos hacer con ella. Es un patrón que se repite con insistencia. El teclado permitió “hablar” con los ordenadores con precisión; el ratón convirtió la pantalla en un espacio navegable; la pantalla táctil acercó la informática al gesto natural de señalar; la voz empezó a convertir la conversación en interfaz. En ese mismo hilo, OpenAI encuadra las interfaces cerebro-computadora como un nuevo paso para expresar intención de forma más directa.

Visto con un ejemplo cotidiano, es la diferencia entre explicar a alguien por teléfono cómo llegar a tu casa o enviarle tu ubicación exacta. Los dos métodos comunican, pero uno reduce fricción y malentendidos. OpenAI sugiere que las BCI podrían reducir fricción entre lo que una persona quiere hacer y lo que un sistema de IA entiende, abriendo nuevas posibilidades para comunicarse, aprender e interactuar con tecnología. Continúa leyendo «OpenAI invierte en Merge Labs y refuerza su apuesta por las interfaces cerebro-computadora en la era de la IA»

Neuro-wearables que traducen pensamientos en voz: avances reales y limitaciones actuales

Las interfaces cerebro-computadora (BCI) están avanzando a un ritmo notable, generando titulares sobre dispositivos que convierten pensamientos en texto o voz. La idea suena futurista: ¿imaginas redactar un mensaje solo con pensar en él, sin tocar una tecla? Aunque hay avances prometedores, los obstáculos técnicos, éticos y comerciales aún mantienen al teclado muy presente en nuestro día a día. Continúa leyendo «Neuro-wearables que traducen pensamientos en voz: avances reales y limitaciones actuales»

Neuralink y otras tecnologías semejantes pueden causar cambios de personalidad

Elon Musk ha estado trabajando en su startup de neurotecnología, Neuralink, que ha estado buscando implantar un chip cerebral en humanos desde su fundación en 2016. Después de años de pruebas en animales, Musk anunció en diciembre que la compañía planea iniciar pruebas en humanos dentro de seis meses.

Las interfaces cerebro-computadora (BCIs) pueden traducir señales cerebrales en salidas digitales, lo que podría permitir a los usuarios mover un cursor, enviar un mensaje de texto o escribir en un procesador de texto con solo pensar. Si bien el enfoque inicial está en casos de uso médico, como ayudar a las personas paralizadas a comunicarse, Musk ha declarado su intención de llevar los chips de Neuralink al mercado masivo, similar a un «Fitbit en el cerebro». Continúa leyendo «Neuralink y otras tecnologías semejantes pueden causar cambios de personalidad»

IBM y Xerox hablan sobre las aplicaciones que se controlan remotamente con el cerebro

Nada de usar dedos en pantallas, en el futuro las aplicaciones se controlarán directamente con las ondas cerebrales, y en un artí­culo publicado entre IBM y Xerox hablan sobre los avances en este sentido.

Llamar a otras personas o mandar mensajes con el poder del pensamiento será posible, y el desarrollo de interfaces cerebro-ordenador así­ lo indica. Hasta ahora se ha estado trabajando en cosas «sencillas», como marcar números, enviar mensajes y abrir datos de contactos, pero las posibilidades son mucho mayores.

El software identifica patrones especí­ficos de actividad cerebral, señales P300 que son detectadas por electroencefalograma gracias a dispositivos conectados en la cabeza del usuario. Aún así­, estas aplicaciones BCI (Brain-Computer Interfaces) tienen un problema, la precisión.

En el artí­culo hablan de un sistema controlado por el cerebro desarrollado en la Universidad de Cornell, sistema que permite a los usuarios llamar a contactos usando un auricular Emotiv y un iPhone.

Imagen de emotiv.com
Imagen de emotiv.com

La idea es que los contactos vayan iluminándose, y cuando el usuario identifique la luz en el contacto deseado, la llamada se realice. No se detecta un número, se detecta una señal indicando que es ahí­ donde el sistema tiene que prestar atención.

También hablan de pruebas realizadas para escribir mensajes en chino usando un teclado virtual, con una precisión de poco más de 80 por ciento, según indican en zdnet.com.

La precisión de los sistemas que detectan señales P300 cae cuando los usuarios están realizando tareas fí­sicas, por lo que, de momento, se necesita máxima concentración en la tarea.

Aún así­, son grandes avances en el campo de la neurologí­a computacional, procesamiento de señales y aprendizaje automático. Seguramente oiremos hablar mucho del desarrollo de aplicaciones móviles basadas ”‹”‹en BCI durante los próximos meses.