El salto de Nvidia hacia la IA física: robots más creíbles, robotaxis a escala y datos sintéticos como combustible

Publicado el

robots humanoides, robotaxis y datos sintéticos en el edge AI (1)

En el cierre de su keynote de GTC 2026, Jensen Huang apareció con un invitado inesperado: una versión robótica de Olaf, el personaje de Frozen. No fue una demo “perfecta” de conversación, y justo por eso resultó reveladora. El mensaje no era que el robot contara chistes mejores, sino que pudiera moverse con soltura, mantener el equilibrio y responder en tiempo real dentro de un entorno complejo. Según explicó Nvidia, ese Olaf “aprendió” a caminar usando Jetson y entrenando en Omniverse, el simulador de la compañía. La escena funcionó como metáfora: si puedes enseñar a un personaje a desplazarse con naturalidad en un parque temático, también puedes entrenar a una máquina para operar en fábricas, carreteras o almacenes, con la misma lógica de “practicar sin romper nada”.

Esta línea se engloba en lo que Nvidia llama IA física: sistemas de inteligencia artificial metidos dentro de máquinas que tienen que lidiar con el mundo real, con sus baches, reflejos, personas impredecibles y objetos que no se comportan como en un laboratorio. ZDNET lo señalaba como una de las grandes corrientes del último año, muy visible ya en CES, y en GTC 2026 Nvidia decidió apretar el acelerador con modelos, plataformas y una idea central: sin datos adecuados y pruebas a escala, la IA física se queda en promesa.

Modelos que no solo “ven”, también razonan y actúan

Nvidia presentó una nueva hornada de modelos fundacionales orientados a robots y vehículos, con énfasis en algo que suena técnico pero es bastante intuitivo: unir percepción, razonamiento y acción en una misma “cabeza”. Si lo piensas como una persona conduciendo, no basta con ver una señal; hay que interpretarla, anticipar lo que harán otros y tomar una decisión segura.

En ese marco aparecen Cosmos 3, Isaac GR00T N1.7 y Alpamayo 1.5. Cosmos 3 apunta a un problema clásico: entrenar máquinas con situaciones variadas es caro y lento. La solución que propone Nvidia es generar mundos sintéticos que sirvan como campo de entrenamiento, como esos simuladores de vuelo donde un piloto puede practicar tormentas y fallos sin poner en riesgo un avión real. Con robots y coches pasa igual: los casos raros son los que más importan, y justo esos son los más difíciles de capturar en la realidad.

Por su parte, Isaac GR00T N1.7 se presenta como un modelo de tipo VLA (visión, lenguaje y acción) con “razonamiento” pensado para robots humanoides. La compañía lo califica como “comercialmente viable” para despliegue real. Traducido a lenguaje de calle: no es solo una demo que funciona en un pasillo controlado, sino un enfoque que Nvidia cree que ya puede empezar a escalar hacia usos prácticos, donde el robot no se bloquea cuando cambia la iluminación o alguien deja una caja donde ayer no estaba.

El tercer nombre, Alpamayo 1.5, está diseñado para vehículos autónomos. Nvidia lo describe como una evolución grande dentro de su familia de modelos para conducción, con una particularidad clave: integra entradas como vídeo de conducción, historial de movimiento del coche, guía de navegación y también prompts en lenguaje natural. Es una forma de decirle al sistema “actúa con más prudencia en zona escolar” o “prioriza una conducción suave si llueve”, y después observar cómo transforma esas indicaciones en trayectorias. La idea de “guardarraíles” mediante prompts suena a poner vallas y señales en una carretera: no impiden avanzar, pero ayudan a evitar salidas peligrosas.

“El momento ChatGPT” de los coches autónomos y lo que implica

Huang calificó el presente como el “momento ChatGPT” de la conducción autónoma. La comparación busca transmitir un punto de inflexión: cuando una tecnología pasa de ser interesante para especialistas a volverse una plataforma sobre la que muchos pueden construir. En coches autónomos, ese salto no depende solo de que el vehículo sepa “ver” el mundo, sino de que pueda aprender rápido, mejorar con datos, y desplegarse con garantías.

En ese terreno, Nvidia amplió su colaboración con Uber. Según anunció la compañía y recogió ZDNET, el plan es lanzar una flota de vehículos autónomos impulsados por el software Nvidia Drive AV en 28 ciudades de cuatro continentes para 2028, con arranque en Los Ángeles y San Francisco ya en 2027. La lectura práctica es clara: si se cumple, reservar un coche sin conductor dentro de la app dejaría de ser una rareza limitada a unas pocas pruebas y pasaría a ser un servicio más común, con mayor huella geográfica.

Nvidia enmarca esta expansión en torno a Drive Hyperion, los modelos Alpamayo y el sistema operativo Nvidia Halos, orientado a acelerar el despliegue de servicios de robotaxi “seguros y escalables”. Detrás del eslogan hay un dilema de ingeniería: cada ciudad es un examen distinto. Señalización, hábitos de conducción, climatología, obras, tipos de peatones y hasta la manera en que la gente cruza la calle cambian el guion. Escalar significa convertir el aprendizaje en un proceso repetible, no en una colección de soluciones a mano para cada barrio.

En paralelo, Nvidia amplía su “iniciativa robotaxi” con nuevos fabricantes, mencionando a BYD, Hyundai, Nissan y Geely, junto a nombres ya asociados como GM, Mercedes y Toyota. Aquí conviene leer entre líneas: Nvidia quiere ser el “suelo” tecnológico donde distintos fabricantes construyan, algo parecido a lo que ocurre con Android en móviles, solo que con requisitos mucho más estrictos porque un fallo no es una pantalla congelada, sino un vehículo de tonelada y media tomando una decisión.

La fábrica de datos: cuando entrenar importa tanto como el modelo

Si la IA física fuera un cocinero, el modelo sería la receta, pero los datos serían los ingredientes. Puedes tener una receta brillante, que si solo entrenas con tomates perfectos nunca aprenderás qué hacer con los que llegan golpeados. En robots y coches, esos “tomates golpeados” son los bordes del mundo real: una bicicleta que aparece desde un ángulo raro, un peatón con paraguas que tapa parte del cuerpo, una carretera con marcas borradas, un reflejo que confunde cámaras.

Para atacar esa parte, Nvidia anunció su Physical AI Data Factory Blueprint, definida como una arquitectura de referencia abierta para unificar y automatizar la generación, ampliación y evaluación de datos de entrenamiento. El objetivo declarado es recortar coste, tiempo y complejidad al entrenar sistemas físicos a escala. La pieza central es el uso de la familia Cosmos para procesar datos del mundo real y producir datos sintéticos en grandes cantidades, incorporando casos extremos y situaciones poco frecuentes que son caras de capturar en la calle.

Nvidia indicó que el Blueprint estaría disponible en GitHub al mes siguiente del anuncio (abril, según el calendario del evento), y que Uber ya lo utiliza para desarrollo de vehículos autónomos, mientras Skild AI lo aplica en robótica de propósito general. El matiz importante es que no se trata solo de “inventar datos”, sino de construir un flujo de trabajo donde se pueda entrenar, probar, reforzar con reinforcement learning y validar con criterios consistentes. En un entorno de alto riesgo, el método de prueba puede ser tan determinante como el algoritmo.

Edge AI: convertir el 5G en un cerebro distribuido

Otro obstáculo típico de la IA física es la latencia. Si un robot tiene que esperar a que su consulta viaje a la nube y vuelva, el mundo ya cambió cuando recibe la respuesta. Nvidia propone empujar inteligencia hacia el borde, y aquí entra la colaboración con T-Mobile y Nokia para impulsar infraestructura AI-RAN. La idea es usar la red como una especie de “ordenador repartido” que permite procesar y mover datos cerca de donde ocurren las cosas, incluso en zonas remotas, aisladas, saturadas o con conectividad limitada.

Huang lo describió como convertir la red 5G en un computador de IA distribuido, creando un plano escalable para infraestructura de edge AI. Nvidia sostuvo que empresas de servicios y operaciones ya usan agentes de IA física, sistemas y gemelos digitales sobre esa infraestructura para tareas como ajustar la sincronización de semáforos o asistir en reparaciones de líneas de transmisión. Son ejemplos que aterrizan el concepto: el borde no es solo “más rápido”, es la diferencia entre reaccionar a tiempo o llegar tarde.

Computación espacial: promesa de centros de datos en órbita

Nvidia también guiñó el ojo a la computación espacial. Habló de nuevas plataformas, entre ellas Vera Rubin, como impulsores de una era de innovación que llevaría cómputo de IA a centros de datos orbitales, inteligencia geoespacial y operaciones autónomas en el espacio. Suena a ciencia ficción, pero la lógica es similar a la del edge en la Tierra: si los datos se generan allí arriba, tiene sentido procesarlos allí arriba, sin bajarlo todo primero.

La compañía señaló que plataformas como IGX Thor y Jetson Orin aportan inferencia eficiente energéticamente y procesamiento de datos adecuado para operar en órbita. Aun así, el propio anuncio reconoce el estado del asunto: los centros de datos orbitales siguen siendo teóricos y una parte concreta, Vera Rubin Space-1, llegaría “más adelante”. Es un terreno donde el reto no es solo computacional; es térmico, energético, logístico y económico. Dicho de forma cotidiana: no basta con tener un buen ordenador, hay que mantenerlo funcionando en una “casa” extremadamente hostil.

Lo que cambia de aquí a 2027: del laboratorio al servicio cotidiano

Si juntas todas las piezas, el dibujo de Nvidia es coherente: modelos que razonan y actúan, simulación para entrenar sin riesgos, una “fábrica” para producir datos y pruebas repetibles, infraestructura de edge AI para reaccionar rápido, y una mirada a escenarios futuros como la órbita. Lo llamativo es que, más que vender una sola novedad, Nvidia está intentando montar una cadena completa, desde el entrenamiento hasta el despliegue.

El impacto inmediato se intuye en industria y movilidad. En fábricas y logística, robots más capaces significan procesos más flexibles, menos paradas por imprevistos y una convivencia más segura con personas. En ciudades, la promesa de robotaxis a mayor escala depende de que toda esa ingeniería aguante la vida real, con sus “casos raros” y su necesidad de auditoría constante. Y sí, también queda espacio para lo espectacular: un Olaf robótico caminando por un parque temático es una postal fácil de recordar, pero el fondo del asunto es más serio. La IA física no se mide por lo simpática que es una demo, sino por la consistencia con la que toma decisiones cuando nadie la está mirando.