OpenAI invierte en Merge Labs y refuerza su apuesta por las interfaces cerebro-computadora en la era de la IA

El 15 de enero de 2026 se hizo pública la participación de OpenAI en la ronda semilla de Merge Labs. El mensaje central no gira en torno a un dispositivo concreto, sino a una idea histórica: cuando cambia la forma de comunicarnos con una máquina, cambia la potencia de lo que podemos hacer con ella. Es un patrón que se repite con insistencia. El teclado permitió “hablar” con los ordenadores con precisión; el ratón convirtió la pantalla en un espacio navegable; la pantalla táctil acercó la informática al gesto natural de señalar; la voz empezó a convertir la conversación en interfaz. En ese mismo hilo, OpenAI encuadra las interfaces cerebro-computadora como un nuevo paso para expresar intención de forma más directa.

Visto con un ejemplo cotidiano, es la diferencia entre explicar a alguien por teléfono cómo llegar a tu casa o enviarle tu ubicación exacta. Los dos métodos comunican, pero uno reduce fricción y malentendidos. OpenAI sugiere que las BCI podrían reducir fricción entre lo que una persona quiere hacer y lo que un sistema de IA entiende, abriendo nuevas posibilidades para comunicarse, aprender e interactuar con tecnología. Continúa leyendo «OpenAI invierte en Merge Labs y refuerza su apuesta por las interfaces cerebro-computadora en la era de la IA»

Neuro-wearables que traducen pensamientos en voz: avances reales y limitaciones actuales

Las interfaces cerebro-computadora (BCI) están avanzando a un ritmo notable, generando titulares sobre dispositivos que convierten pensamientos en texto o voz. La idea suena futurista: ¿imaginas redactar un mensaje solo con pensar en él, sin tocar una tecla? Aunque hay avances prometedores, los obstáculos técnicos, éticos y comerciales aún mantienen al teclado muy presente en nuestro día a día. Continúa leyendo «Neuro-wearables que traducen pensamientos en voz: avances reales y limitaciones actuales»

Neuralink y otras tecnologías semejantes pueden causar cambios de personalidad

Elon Musk ha estado trabajando en su startup de neurotecnología, Neuralink, que ha estado buscando implantar un chip cerebral en humanos desde su fundación en 2016. Después de años de pruebas en animales, Musk anunció en diciembre que la compañía planea iniciar pruebas en humanos dentro de seis meses.

Las interfaces cerebro-computadora (BCIs) pueden traducir señales cerebrales en salidas digitales, lo que podría permitir a los usuarios mover un cursor, enviar un mensaje de texto o escribir en un procesador de texto con solo pensar. Si bien el enfoque inicial está en casos de uso médico, como ayudar a las personas paralizadas a comunicarse, Musk ha declarado su intención de llevar los chips de Neuralink al mercado masivo, similar a un «Fitbit en el cerebro». Continúa leyendo «Neuralink y otras tecnologías semejantes pueden causar cambios de personalidad»

IBM y Xerox hablan sobre las aplicaciones que se controlan remotamente con el cerebro

Nada de usar dedos en pantallas, en el futuro las aplicaciones se controlarán directamente con las ondas cerebrales, y en un artí­culo publicado entre IBM y Xerox hablan sobre los avances en este sentido.

Llamar a otras personas o mandar mensajes con el poder del pensamiento será posible, y el desarrollo de interfaces cerebro-ordenador así­ lo indica. Hasta ahora se ha estado trabajando en cosas «sencillas», como marcar números, enviar mensajes y abrir datos de contactos, pero las posibilidades son mucho mayores.

El software identifica patrones especí­ficos de actividad cerebral, señales P300 que son detectadas por electroencefalograma gracias a dispositivos conectados en la cabeza del usuario. Aún así­, estas aplicaciones BCI (Brain-Computer Interfaces) tienen un problema, la precisión.

En el artí­culo hablan de un sistema controlado por el cerebro desarrollado en la Universidad de Cornell, sistema que permite a los usuarios llamar a contactos usando un auricular Emotiv y un iPhone.

Imagen de emotiv.com
Imagen de emotiv.com

La idea es que los contactos vayan iluminándose, y cuando el usuario identifique la luz en el contacto deseado, la llamada se realice. No se detecta un número, se detecta una señal indicando que es ahí­ donde el sistema tiene que prestar atención.

También hablan de pruebas realizadas para escribir mensajes en chino usando un teclado virtual, con una precisión de poco más de 80 por ciento, según indican en zdnet.com.

La precisión de los sistemas que detectan señales P300 cae cuando los usuarios están realizando tareas fí­sicas, por lo que, de momento, se necesita máxima concentración en la tarea.

Aún así­, son grandes avances en el campo de la neurologí­a computacional, procesamiento de señales y aprendizaje automático. Seguramente oiremos hablar mucho del desarrollo de aplicaciones móviles basadas ”‹”‹en BCI durante los próximos meses.