WWWhat's new

Nvidia apuesta por la infraestructura abierta para la era de la IA agente con Nemotron 3

concepto de la inteligencia artificial de código abierto

Nvidia ha lanzado una nueva familia de modelos de inteligencia artificial que marcan un giro estratégico hacia una infraestructura abierta diseñada para el desarrollo de agentes de IA capaces de operar en contextos extensos y tareas prolongadas. Esta nueva propuesta, llamada Nemotron 3, está pensada para empresas que desean construir sus propias aplicaciones sin depender de proveedores de modelos cerrados o tener que entrenar modelos fundacionales desde cero.

La idea es sencilla pero poderosa: en vez de ofrecer una solución «lista para usar», Nvidia proporciona herramientas modulares, optimizadas para su propio hardware, que los desarrolladores pueden adaptar a sus necesidades. Es, como dijo un analista del sector, más un «kit de comida» que una cena servida.

Tres modelos para diferentes niveles de complejidad

Nemotron 3 se presenta en tres versiones: Nano, Super y Ultra, cada una adaptada a distintos niveles de exigencia computacional y de complejidad de tareas.

El modelo Nemotron 3 Nano es el más compacto, con 30 mil millones de parámetros y una capacidad de contexto de un millón de tokens. Esta versión está diseñada para tareas rápidas y específicas, como asistencia en el desarrollo de software, recuperación de información o resúmenes de contenido. Su arquitectura permite activar solo 3 mil millones de parámetros por consulta, lo que mejora notablemente la eficiencia en coste y velocidad.

Nemotron 3 Super, con cerca de 100 mil millones de parámetros, apunta a flujos de trabajo más colaborativos entre múltiples agentes. Su estructura está pensada para tareas complejas como planificación estratégica o investigación en profundidad, manteniendo una baja latencia.

Por su parte, Nemotron 3 Ultra eleva el estándar con 500 mil millones de parámetros y hasta 50 mil millones activos por token, ideal para sistemas que requieren razonamiento profundo y tareas extensas de análisis o coordinación.

Mientras que Nano ya está disponible en plataformas como Hugging Face, el despliegue de Super y Ultra está previsto para la primera mitad de 2026.

Una arquitectura híbrida pensada para la eficiencia

Uno de los puntos más destacados de esta familia es su innovadora arquitectura híbrida MoE (mixture-of-experts), que combina tres tecnologías distintas: capas Mamba, transformers y ruteo por expertos. Esta integración busca lo mejor de cada mundo: modelado eficiente de secuencias, precisión en el razonamiento y escalabilidad en el uso de cómputo.

El resultado, según análisis independientes, es una mejora significativa en la velocidad de procesamiento de tokens y una reducción del 60% en la generación innecesaria de razonamientos, un problema habitual en modelos que tienden a sobre-explicar antes de llegar a la respuesta. Esto se traduce en menor latencia y menores costes operativos, algo fundamental cuando múltiples agentes trabajan en paralelo.

Una propuesta abierta en todos los frentes

Lo que realmente distingue a Nemotron 3 en el panorama actual de la IA es su apuesta por la apertura. Nvidia no solo libera los pesos de los modelos, sino también los datos de entrenamiento (más de 3 billones de tokens) y sus bibliotecas de refuerzo y evaluación. Este nivel de transparencia no tiene precedentes entre los grandes actores del sector.

Además, pone a disposición herramientas como NeMo Gym, un entorno de entrenamiento reforzado que permite verificar automáticamente si un agente ha cumplido con una tarea, sin depender de evaluaciones humanas subjetivas. Por ejemplo, se puede comprobar si un bloque de código pasa las pruebas correspondientes o si un cálculo matemático es correcto.

Esto abre la puerta a que empresas desarrollen agentes adaptados a sus propios flujos de trabajo, con una infraestructura que puede funcionar en sus propios servidores, sin quedar atados a servicios externos ni a modelos cerrados.

El valor estratégico de NeMo Gym y NeMo RL

Dentro del ecosistema, NeMo Gym y NeMo RL funcionan como el corazón del entrenamiento personalizado. El primero permite crear múltiples entornos paralelos de entrenamiento (o «gimnasios»), lo cual agiliza el proceso y lo hace más accesible para equipos de ingeniería que no tienen experiencia profunda en aprendizaje por refuerzo.

Por su parte, NeMo RL ofrece la base sobre la que estos agentes pueden aprender mediante recompensas verificables. Esto representa un cambio importante respecto al enfoque tradicional de aprendizaje reforzado con retroalimentación humana (RLHF), que no escala bien para tareas complejas y puede introducir sesgos subjetivos.

Este sistema modular y abierto permite, por ejemplo, que una empresa del sector financiero entrene un agente que entienda sus propios protocolos y flujos de decisión, o que una compañía de logística ajuste un modelo que gestione sus rutas y almacenes de manera optimizada, sin compartir datos sensibles con terceros.

Nvidia como capa de infraestructura

Con esta propuesta, Nvidia no compite directamente con proveedores de API como OpenAI o Anthropic, sino que se posiciona como la capa de infraestructura sobre la que otras empresas pueden construir sus propias soluciones. Esto ofrece una ventaja importante: independencia tecnológica, personalización total y optimización para el hardware de Nvidia, lo cual puede traducirse en ahorros considerables en entornos de producción a gran escala.

También entra en juego el coste. Nemotron 3 Nano, por ejemplo, tiene precios significativamente más bajos que modelos como GPT-4o, con tarifas que parten desde los $0.06 por millón de tokens de entrada. Y al ser de código abierto, las empresas pueden ejecutar los modelos localmente, sin incurrir en costes de uso de plataformas externas.

Un enfoque diferente para un público diferente

Aunque en benchmarks específicos modelos como Claude o GPT-4o superen a Nemotron 3 en tareas como generación de código, el objetivo de Nvidia no es competir en esos frentes. Su propuesta se orienta a empresas que necesitan flexibilidad, transparencia y control.

Es un enfoque que privilegia la adaptabilidad sobre la potencia bruta, apostando por dar a los desarrolladores las herramientas necesarias para crear agentes verdaderamente integrados con sus operaciones. Un modelo más artesanal, sí, pero con ventajas claras en términos de personalización y costes a largo plazo.

La jugada de Nvidia responde también al empuje de otros actores como DeepSeek, que están ganando terreno con propuestas abiertas. Frente a esto, Nvidia lanza un ecosistema robusto, respaldado por su liderazgo en hardware, que podría convertirse en el punto de partida para una nueva generación de inteligencia artificial agente y empresarial.

Salir de la versión móvil