La feria CES en Las Vegas se ha convertido muchas veces en un escaparate de promesas, pero en 2026 el espectáculo tuvo un protagonista difícil de ignorar: los robots humanoides. Entre pasillos, stands y demostraciones coreografiadas, aparecieron máquinas que boxean, bailan, doblan toallas y hasta “atienden” tiendas ficticias. La imagen es potente: parece que la ciencia ficción se coló en un centro de convenciones.
Ese brillo, sin embargo, convive con una realidad menos cinematográfica. Los humanoides siguen enseñando más “capacidad de show” que “capacidad de turno completo”. Y aun así, algo cambió: la industria tecnológica está convencida de que 2026 puede ser el año en el que la IA física —inteligencia artificial aplicada a cuerpos que se mueven— deje de ser una colección de demos y empiece a parecerse a un producto.
Qué significa “IA física” y por qué ahora se habla tanto de ella
Si la IA generativa fue el gran tema desde 2022, la IA física es su primo que se levanta del sofá y empieza a tocar cosas. El concepto suena abstracto, pero se entiende fácil con una metáfora cotidiana: un modelo de lenguaje es como alguien que sabe explicar cómo se cocina una tortilla; un robot con IA física es quien intenta romper huevos sin tirar la cáscara dentro y sin manchar la encimera. La diferencia está en el contacto con el mundo real, que es ruidoso, impredecible y lleno de excepciones.
En CES, esta idea se repitió con un mensaje claro: si ya existen modelos capaces de comprender texto e imágenes, también pueden aprender a caminar, agarrar objetos, orientarse y planificar acciones. Jensen Huang, CEO de Nvidia, lo resumió con una frase que se convirtió en titular: el auge de los humanoides “se apoya” en las infraestructuras de cómputo —sus “fábricas de IA”— que se están construyendo para todo lo demás, según declaraciones recogidas por CNBC.
Nvidia, AMD y Qualcomm: los fabricantes de chips quieren ser el “sistema nervioso” del robot
La sensación de esta edición fue que los grandes del silicio no quieren limitarse a vender piezas. Buscan vender el kit completo: chips, herramientas de desarrollo, modelos y un ecosistema que haga que fabricar un robot sea menos parecido a montar un avión y más parecido a integrar una plataforma.
Nvidia presentó nuevas versiones de sus modelos para humanoides, incluyendo Gr00t, enfocados en convertir señales de sensores en control del cuerpo, y una variante de Cosmos para razonamiento y planificación. Es un movimiento coherente con su estrategia: no solo potencia bruta, también “cerebro” listo para usar. Huang llegó a sugerir que este año podrían verse robots con capacidades cercanas a las humanas en algunos aspectos concretos, siempre según CNBC.
AMD siguió una línea similar, pero con un ejemplo muy tangible: mostró un humanoide llamado Gene.01, desarrollado por la italiana Generative Bionics y apoyado financieramente por la propia AMD. La previsión es desplegarlo en entornos industriales como astilleros durante 2026. Lo interesante no es solo el robot, sino la cocina: su entrenamiento y ajuste fino se apoyan en GPU en la nube de AMD, lo que sugiere un modelo de “robot como producto” pero “IA como servicio”. Daniele Pucci, CEO de la compañía, lo describió de forma directa: ahí está “el cerebro”, también citado por CNBC.
Qualcomm, por su parte, enseñó una nueva familia de chips para robótica llamada Dragonwing, con foco en modelos de visión y lenguaje. La empresa destacó el uso de teleoperación para enseñar habilidades: un humano guía, el sistema aprende patrones, y después el robot intenta repetir sin que alguien le lleve de la mano. Es una forma práctica de acortar el camino entre “sabe mucho” y “sabe hacerlo”.
DeepMind y Boston Dynamics: cuando el software se encuentra con el cuerpo más famoso
Hay un motivo por el que cada vez que se menciona a Boston Dynamics la gente se detiene: su robot Atlas lleva años siendo el referente de agilidad. En CES, Google DeepMind anunció colaboración con Boston Dynamics (propiedad de Hyundai) para desarrollar nuevos modelos de IA para Atlas, según la información publicada por CNBC. Si se piensa en términos simples, es como conectar un motor de razonamiento moderno con uno de los cuerpos más capaces del mercado. La promesa es obvia: movimientos espectaculares con decisiones más “inteligentes” y adaptativas.
Esta combinación refleja la intuición dominante en 2026: el salto no vendrá solo de mejores piernas o mejores manos, sino de mejores modelos que entiendan contexto, objetivos y restricciones físicas.
Del “ojo-cerebro” a la planificación: por qué los modelos de visión y lenguaje importan tanto
Durante el boom de la IA generativa, el público se familiarizó con los modelos de texto. En robótica, el protagonismo se lo están llevando los modelos de visión y lenguaje (VLM), que combinan percepción visual con comprensión y razonamiento. Un robot doméstico no necesita recitar poesía; necesita interpretar una escena caótica: una silla medio movida, un juguete en el suelo, un cable suelto, un perro que decide cruzarse.
Ahí es donde estos modelos brillan: ayudan a decidir rutas, reconocer objetos, anticipar obstáculos y planificar acciones con más flexibilidad que los enfoques clásicos. La industria lo ve como una pieza clave para pasar de coreografías a comportamientos útiles.
Medicina, fábricas y hogares: los primeros lugares donde sí podría cuajar
Aunque la fantasía popular es el robot mayordomo, el camino comercial más probable parece empezar por entornos controlados. McKinsey estimó que el mercado de la robótica de propósito general podría alcanzar 370.000 millones de dólares en 2040, con casos de uso como logística de almacén, manufactura ligera, retail, agricultura y salud, de acuerdo con la estimación citada en CNBC. Son espacios donde se puede estandarizar parte del entorno y medir retorno de inversión.
Nvidia puso énfasis en medicina con un robot de LEM Surgical basado en su chip Thor. Lo llamaron “humanoide”, aunque no tenía piernas: contaba con tres brazos, dos para herramientas y otro para un módulo de sensores y cámaras, orientado a asistir en cirugía de columna. Este ejemplo es revelador: cuando el objetivo es específico, el diseño del cuerpo puede ser “humanoide lo justo”, no humanoide por estética.
En el mismo evento, Nvidia mostró un humanoide chino llamado Agibot capaz de conversar con asistentes usando un modelo de lenguaje, aunque tuvo dificultades para mantenerse estable sobre la moqueta del recinto. Es un detalle casi cómico, pero también didáctico: el mundo real tiene alfombras, bordes, fricción irregular y sorpresas; la robótica tropieza, literalmente, con lo cotidiano.
Demos llamativas, barreras reales: velocidad, seguridad y “la casa desordenada”
Los robots para el hogar fueron uno de los focos más comentados, y también los que más preguntas incómodas generan. LG presentó CLOiD, un humanoide con base con ruedas pensado para tareas domésticas. En la demo, recogía una toalla mojada, la metía en la lavadora y realizaba plegado de ropa, aunque de forma lenta: doblar una toalla llevó alrededor de 30 segundos, según CNBC. Puede parecer un detalle menor, pero la vida diaria está llena de microtareas; si cada una se vuelve una espera, el encanto se enfría rápido.
También apareció Neo, de la empresa 1X, descrito como un asistente doméstico multimodal lanzado en octubre de 2025 con un precio de 20.000 dólares. En el otro extremo del espectáculo estuvo el G1 de Unitree, alrededor de 70.000 dólares en Estados Unidos, orientado a exhibición con boxeo y baile.
La preocupación grande, no obstante, no es solo el precio o la velocidad, sino la seguridad. Jeff Burnstein, presidente de la Association for Advancing Automation, lo expresó con claridad: el hogar es un entorno “no estructurado”; no puedes prever que un niño corra hacia el robot o que un animal se cruce, según declaraciones recogidas por CNBC. Un brazo robótico no necesita mala intención para causar un problema; basta con una mala lectura del entorno o un movimiento inesperado.
Del show floor al factory floor: por qué los analistas pisan el freno
El entusiasmo convive con cautela. Ben Wood, analista jefe de CCS Insight, recordó que hay distancia entre el brillo de feria y la implementación comercial. Su lectura es útil para aterrizar expectativas: los humanoides son el mejor “caramelo visual” del evento, pero la adopción masiva requiere fiabilidad, costes razonables, mantenimiento, normativa y un ecosistema de software y soporte.
Por eso los grandes actores quieren ser “ventanilla única”. Si un fabricante emergente puede comprar chips, modelos, herramientas de simulación y soporte en un paquete, el sector avanza más rápido. Y si no, el desarrollo se vuelve un proyecto artesanal caro, como construir un coche pieza a pieza sin proveedores estandarizados.
