Un robot aprende a mover los labios mirando a humanos en YouTube y ensaya cómo “sonar” con la cara

Si alguna vez has hablado con alguien en un lugar ruidoso, sabes el truco instintivo: miras la boca para “rellenar” lo que el oído no capta. Esa costumbre revela algo importante: la sincronización labial no es un adorno, es una parte central de cómo interpretamos intención, emoción y hasta confianza. Por eso, cuando un robot humanoide mueve los labios tarde, exagera una mueca o “masca” el aire, lo notamos al instante. Un brazo torpe puede parecer simpático; una boca rara puede resultar inquietante. Esa sensibilidad alimenta el famoso valle inquietante, ese punto en el que algo casi humano provoca rechazo justo por no serlo del todo.

Durante años, muchas caras robóticas han dependido de reglas fijas: si suena tal fonema, el motor hace tal gesto. El resultado suele parecer una marioneta: correcto en teoría, extraño en la práctica. Lo interesante del nuevo trabajo es que cambia la lógica: en lugar de dictarle a la máquina cómo debe moverse, le permite aprenderlo observando, como un niño practicando frente al espejo. Continúa leyendo «Un robot aprende a mover los labios mirando a humanos en YouTube y ensaya cómo “sonar” con la cara»

Robots submarinos que nadan como rayas: avances reales y el gran reto de la “talla media” bajo el agua

Cuando miramos un mapa, el mar parece una gran mancha azul “ya conocida”. La realidad es mucho más incómoda: una parte enorme del fondo oceánico sigue siendo un misterio operativo, no porque falten ganas, sino porque falta presencia allí abajo. Satélites, boyas y sistemas de imagen ayudan a entender la superficie y las capas superiores, pero son como mirar una ciudad desde un dron sin poder entrar en sus calles. Para explorar, medir y actuar en las profundidades hacen falta robots submarinos capaces de moverse con precisión, resistir corrientes impredecibles y recoger datos sin convertirse en una bola de metal zarandeada.

En ese contexto, una revisión publicada en npj Robotics y difundida por Phys.org pone al día el estado de una familia de máquinas que está ganando protagonismo: los robots inspirados en rayas. El trabajo, firmado por Luke Freyhof y colaboradores, repasa avances recientes en actuación y control y, lo más interesante, identifica con claridad qué está funcionando, qué no y por qué aún quedan barreras importantes. Continúa leyendo «Robots submarinos que nadan como rayas: avances reales y el gran reto de la “talla media” bajo el agua»

Humanoides en CES 2026: la “IA con cuerpo” se luce, pero aún busca su trabajo real

La feria CES en Las Vegas se ha convertido muchas veces en un escaparate de promesas, pero en 2026 el espectáculo tuvo un protagonista difícil de ignorar: los robots humanoides. Entre pasillos, stands y demostraciones coreografiadas, aparecieron máquinas que boxean, bailan, doblan toallas y hasta “atienden” tiendas ficticias. La imagen es potente: parece que la ciencia ficción se coló en un centro de convenciones.

Ese brillo, sin embargo, convive con una realidad menos cinematográfica. Los humanoides siguen enseñando más “capacidad de show” que “capacidad de turno completo”. Y aun así, algo cambió: la industria tecnológica está convencida de que 2026 puede ser el año en el que la IA física —inteligencia artificial aplicada a cuerpos que se mueven— deje de ser una colección de demos y empiece a parecerse a un producto. Continúa leyendo «Humanoides en CES 2026: la “IA con cuerpo” se luce, pero aún busca su trabajo real»

Una piel robótica que “duele”: así es el e-skin neuromórfico que da reflejos rápidos a los humanoides

Si apoyas la mano en una sartén caliente, no necesitas deliberar: la apartas antes de ser plenamente consciente del daño. Ese truco biológico no depende primero del cerebro, sino de un circuito rápido que convierte la señal de la piel en movimiento casi inmediato. En muchos robots humanoides, el proceso suele ser más torpe: el sensor detecta, la información viaja a una unidad central, se calcula la respuesta y, por fin, se envía la orden al motor. Ese pequeño “viaje burocrático” puede ser suficiente para que el contacto con una superficie caliente, un pellizco mecánico o un golpe termine en una avería.

Con la llegada de los humanoides a entornos menos controlados —hogares, hospitales, espacios de atención al público— el reto deja de ser solo ejecutar tareas programadas. También importa reaccionar con naturalidad, de forma segura, cuando algo sale mal. En ese contexto se enmarca una propuesta descrita por Phys.org y respaldada por un trabajo científico en Proceedings of the National Academy of Sciences (PNAS): una piel robótica capaz de detectar tacto, daño y algo parecido al dolor robótico, con reflejos locales que no dependen de esperar al “cerebro” del robot. Continúa leyendo «Una piel robótica que “duele”: así es el e-skin neuromórfico que da reflejos rápidos a los humanoides»

Robots más pequeños que un grano de sal: cómo “piensan” y nadan sin piezas móviles

Imagínate una mota que cabe en la cresta de tu huella dactilar y que, aun así, es capaz de notar cambios en su entorno, elegir qué hacer y moverse sin que nadie la dirija con cables o imanes. Eso es lo que describen investigadores de la Universidad de Pensilvania y la Universidad de Michigan: robots microscópicos totalmente programables y autónomos, con un tamaño aproximado de 200 × 300 × 50 micrómetros. Dicho de forma cotidiana, son más pequeños que un grano de sal y apenas se distinguen sin aumento.

La idea de “autonomía” aquí no es un eslogan. En el trabajo, publicado en Science Robotics y también reportado en PNAS, el equipo defiende que estos microrobots integran en una sola plataforma lo que normalmente asociamos a un robot completo: sensores, computación y un sistema de movimiento, todo funcionando con una fuente de energía incorporada basada en luz. La escala es clave: se acercan al tamaño de muchos microorganismos, lo que abre la puerta a tareas que, con robots milimétricos o mayores, se vuelven torpes o directamente imposibles. Continúa leyendo «Robots más pequeños que un grano de sal: cómo “piensan” y nadan sin piezas móviles»

Hyundai quiere 30.000 robots humanoides al año: así planea que Atlas trabaje codo con codo en sus fábricas

En CES 2026, Hyundai Motor Group puso sobre la mesa un plan muy concreto: construir un sistema escalable capaz de integrar hasta 30.000 robots humanoides al año para 2028. La idea no es llenar la fábrica de máquinas por estética futurista, sino automatizar tareas repetitivas y físicamente duras sin perder el foco en un modelo de trabajo compartido. La compañía presentó en Las Vegas la versión de producción de Atlas, el humanoide de Boston Dynamics, como pieza central de esa estrategia, según lo contado en su keynote y en comunicaciones oficiales de la propia Hyundai.

En la práctica, Hyundai está dibujando una transición: pasar de una robótica “de hardware”, donde cada robot se programa como si fuera un electrodoméstico con funciones fijas, hacia sistemas guiados por IA capaces de aprender, adaptarse y mejorar con el tiempo. La etiqueta que usan para ese enfoque es “Physical AI”, un concepto que sugiere algo sencillo de imaginar: la inteligencia artificial saliendo de la pantalla para tener cuerpo, manos y reflejos en un entorno industrial real. Continúa leyendo «Hyundai quiere 30.000 robots humanoides al año: así planea que Atlas trabaje codo con codo en sus fábricas»

Un robot humanoide “tipo Terminator” acompaña a la policía en Shenzhen: lo que revela sobre la nueva seguridad pública

En los últimos días ha circulado un vídeo grabado en Shenzhen, al sur de China, en el que se ve a un robot humanoide caminando con paso firme junto a dos agentes uniformados durante lo que aparenta ser una patrulla en un área turística muy concurrida, el parque temático Window of the World. La escena tiene ese efecto de “no puede ser real” que suele provocar la robótica cuando sale del laboratorio y se mezcla con la vida cotidiana, como si de pronto un prototipo se colara en la calle igual que un coche camuflado en fase de pruebas.

La clave es que, según lo publicado por Interesting Engineering, las autoridades no han presentado esto como un despliegue oficial ni como parte del servicio habitual. Todo apunta a una demostración vinculada a pruebas recientes, más que a una incorporación formal a tareas policiales. Esa matización es importante: ver un robot en una “patrulla” no significa que ya esté tomando decisiones de seguridad pública, sino que se está explorando cómo se comporta en un entorno real, con gente alrededor, ruido, obstáculos, imprevistos y cámaras grabándolo todo. Continúa leyendo «Un robot humanoide “tipo Terminator” acompaña a la policía en Shenzhen: lo que revela sobre la nueva seguridad pública»

La navegación autónoma de robots en la Estación Espacial Internacional da un salto gracias a la IA

Hasta hace poco, imaginar un robot desplazándose de forma autónoma por los estrechos pasillos de la Estación Espacial Internacional (EEI) sonaba a ciencia ficción. Sin embargo, un equipo de investigadores de la Universidad de Stanford ha logrado implementar con éxito un sistema de control basado en inteligencia artificial que permite a un robot llamado Astrobee navegar con eficiencia dentro de este complejo entorno espacial.

Astrobee es un robot en forma de cubo, propulsado por ventiladores, diseñado por la NASA para operar en microgravedad. En diciembre de 2025, investigadores liderados por la doctora Somrita Banerjee demostraron por primera vez que un sistema de navegación basado en aprendizaje automático puede operar de forma segura y eficiente en la EEI. El logro fue presentado durante la Conferencia Internacional de Robótica Espacial (iSpaRo). Continúa leyendo «La navegación autónoma de robots en la Estación Espacial Internacional da un salto gracias a la IA»

La caída existencial de un robot: lo que ocurre cuando un LLM intenta «pasar la mantequilla»

Los laboratorios Andon Labs han vuelto a hacer de las suyas. Tras instalar un modelo de lenguaje (LLM) en una máquina expendedora con resultados tan divertidos como caóticos, ahora han querido saber qué pasa cuando se pone una IA conversacional a cargo de un robot aspiradora. El objetivo era simple solo en apariencia: responder a la orden “pasa la mantequilla”.

Lo interesante de este experimento no es solo su resultado (que incluyó monólogos dignos de Robin Williams y colapsos existenciales), sino lo que revela sobre el estado actual de la inteligencia artificial encarnada, es decir, IA que no solo conversa, sino que actúa en el mundo real. Continúa leyendo «La caída existencial de un robot: lo que ocurre cuando un LLM intenta «pasar la mantequilla»»

La inteligencia artificial acelera la autonomía robótica en la Estación Espacial Internacional

Un robot flotando como un colibrí en las estrechas instalaciones de la Estación Espacial Internacional (EEI) podría parecer ciencia ficción, pero es una escena cada vez más cercana a la realidad. Investigadores de la Universidad de Stanford han dado un paso clave al demostrar que es posible utilizar inteligencia artificial para controlar de forma segura un robot en la EEI, un hito que podría cambiar para siempre la manera en que se llevan a cabo las misiones espaciales. Continúa leyendo «La inteligencia artificial acelera la autonomía robótica en la Estación Espacial Internacional»