El salto de Nvidia hacia la IA física: robots más creíbles, robotaxis a escala y datos sintéticos como combustible

En el cierre de su keynote de GTC 2026, Jensen Huang apareció con un invitado inesperado: una versión robótica de Olaf, el personaje de Frozen. No fue una demo “perfecta” de conversación, y justo por eso resultó reveladora. El mensaje no era que el robot contara chistes mejores, sino que pudiera moverse con soltura, mantener el equilibrio y responder en tiempo real dentro de un entorno complejo. Según explicó Nvidia, ese Olaf “aprendió” a caminar usando Jetson y entrenando en Omniverse, el simulador de la compañía. La escena funcionó como metáfora: si puedes enseñar a un personaje a desplazarse con naturalidad en un parque temático, también puedes entrenar a una máquina para operar en fábricas, carreteras o almacenes, con la misma lógica de “practicar sin romper nada”.

Esta línea se engloba en lo que Nvidia llama IA física: sistemas de inteligencia artificial metidos dentro de máquinas que tienen que lidiar con el mundo real, con sus baches, reflejos, personas impredecibles y objetos que no se comportan como en un laboratorio. ZDNET lo señalaba como una de las grandes corrientes del último año, muy visible ya en CES, y en GTC 2026 Nvidia decidió apretar el acelerador con modelos, plataformas y una idea central: sin datos adecuados y pruebas a escala, la IA física se queda en promesa. Continúa leyendo «El salto de Nvidia hacia la IA física: robots más creíbles, robotaxis a escala y datos sintéticos como combustible»

AMD amplía Ryzen AI Embedded P100: más núcleos Zen 5 y hasta 80 TOPS para IA en el edge industrial

AMD ha aprovechado el contexto de Embedded World 2026 para ampliar su familia AMD Ryzen AI Embedded P100, una gama orientada a equipos industriales y soluciones de edge AI que necesitan ejecutar inferencias cerca de donde ocurren las cosas: en una fábrica, dentro de un robot móvil o en un dispositivo médico. La idea de fondo es sencilla: cuando el sistema tiene que reaccionar “ya”, depender de la nube es como pedirle a alguien que te pase una herramienta desde otra habitación cada vez que la necesitas. Funciona, pero llega tarde en momentos críticos.

Según AMD, la ampliación introduce procesadores con entre ocho y doce núcleos y un salto notable en capacidad de cómputo, buscando mantener un consumo contenido para escenarios “siempre encendidos”. Continúa leyendo «AMD amplía Ryzen AI Embedded P100: más núcleos Zen 5 y hasta 80 TOPS para IA en el edge industrial»

El auge de la IA pequeña: cómo la TinyML y la Edge AI están cambiando nuestra vida sin que te des cuenta

Seguro que has escuchado hablar de inteligencia artificial… esos algoritmos complejos que parecen vivir en enormes servidores, conectados a internet todo el día. Pero, ¿y si te dijera que hay una IA diminuta que cabe en dispositivos más pequeños que la palma de tu mano y que no necesita estar “enganchada” a la nube? Sí, así de mágica es la TinyML.


La inteligencia que vive dentro de tus dispositivos

Imagina que tu reloj inteligente detecta que estás estresado antes de que tú mismo lo notes… y lo hace sin mandar tus datos a ninguna parte. O que una lámpara se enciende justo cuando entras en la habitación, sin que haya cámaras enviando vídeos a internet. Eso es posible gracias a la IA en el borde, también llamada Edge AI, donde todo el procesamiento ocurre directamente en el dispositivo.

Me gusta pensar en la TinyML como esa persona que siempre tiene la respuesta correcta sin necesidad de buscar en Google. Está ahí, lista para actuar, sin molestar a nadie ni pedir permiso a un servidor lejano.


Por qué esta “mini IA” importa tanto

La gracia de este enfoque es que trabaja rápido. Si un sistema tiene que enviar datos a la nube, esperar que se procesen y luego recibir una respuesta, pueden pasar segundos… o más. Con TinyML, las decisiones se toman al instante, lo cual es perfecto para cosas como frenar un coche autónomo, detectar un fallo en una máquina o reconocer tu voz.

Y lo mejor: consume poquísima energía. Algunos dispositivos pueden funcionar meses o incluso años con una simple pila. Esto abre la puerta a colocar sensores inteligentes en lugares remotos, sin preocuparse por enchufes o recargas constantes.


Un tema serio: la privacidad

Aquí es donde me pongo un poco más serio. Hoy en día, casi todo lo que usamos parece querer enviar nuestros datos a algún sitio. Con la IA en el borde, la información se queda en tu dispositivo. Nadie más ve tus patrones de sueño, tus rutinas o tu voz. No es que sea paranoia, pero… ¿quién no prefiere que sus cosas personales se queden en casa?

Piensa en un asistente de voz que entiende tus comandos sin tener que enviar grabaciones a un servidor. Es como tener un mayordomo que hace su trabajo sin espiarte.


Ejemplos que ya están entre nosotros

  • En casa: termostatos que aprenden cuándo poner la calefacción sin depender de internet, cámaras que diferencian entre tu perro y un intruso sin subir vídeos a la nube, o luces que se encienden al detectar movimiento.
  • En el trabajo: sensores que “escuchan” el sonido de una máquina y saben si está a punto de romperse. Esto puede ahorrar miles en reparaciones y paradas.
  • En el campo: pequeños dispositivos que miden la humedad del suelo y deciden cuándo regar, incluso en zonas donde no hay cobertura.
  • En salud: pulseras que detectan arritmias en tiempo real y te avisan, todo sin mandar tu información médica por internet.

¿Cómo logran esto en tan poco espacio?

Aquí viene la parte un poco más técnica, pero te prometo que no dolerá. La TinyML funciona gracias a modelos de machine learning entrenados para ser muy pequeños y eficientes. Se usan frameworks como TensorFlow Lite para microcontroladores, que permiten “comprimir” la inteligencia para que quepa en chips con memoria y potencia muy limitadas.

Estos chips pueden ser tan básicos que consumen menos energía que una bombilla LED. Y, sin embargo, son capaces de reconocer patrones, sonidos o imágenes simples.


No todo es perfecto… todavía

Claro, no todo es color de rosa. Meter inteligencia en un dispositivo tan pequeño implica sacrificar algo de precisión. Es como intentar escribir una novela en un post-it: hay que simplificar muchísimo. Además, actualizar estos modelos en miles de dispositivos repartidos por el mundo no es tarea fácil.

Otro reto es la seguridad física. Como estos aparatos están “en la calle” (literalmente, en algunos casos), pueden ser manipulados o atacados. Y aunque no manden datos a internet, sigue siendo importante proteger su integridad.


Lo que viene a futuro

Yo creo que estamos al principio de una transformación silenciosa. Igual que hace años no imaginábamos que todos llevaríamos un superordenador en el bolsillo, pronto veremos que cualquier objeto —desde una cafetera hasta una bicicleta— puede tener su propia inteligencia local.

Quizá dentro de unos años, cuando alguien diga “IA”, no pensemos en un chat gigante en la nube, sino en cientos de pequeñas inteligencias repartidas a nuestro alrededor, cada una haciendo su trabajo en silencio y respetando nuestra privacidad.