Nvidia eligió el escenario más ruidoso del año tecnológico, el Consumer Electronics Show (CES) de Las Vegas, para enseñar su siguiente gran apuesta en chips de IA. Durante la keynote de Jensen Huang, la compañía desgranó su nueva plataforma Vera Rubin, un nombre que rinde homenaje a la astrónoma estadounidense Vera Rubin y que llega con un mensaje claro: Nvidia quiere seguir siendo el proveedor de referencia en el hardware que alimenta los modelos de inteligencia artificial. La información, difundida por AFP a través de Tech Xplore/Science X Network, sitúa este anuncio como una respuesta directa a un mercado que se ha vuelto mucho más competitivo y, sobre todo, menos paciente.
La razón es fácil de entender si se piensa en los centros de datos como cocinas industriales. Durante años, Nvidia ha sido el fabricante de los “fogones” preferidos para cocinar IA a gran escala. Esa ventaja se ha traducido en una posición dominante: la empresa mantiene una cuota estimada cercana al 80% del mercado global de chips para centros de datos orientados a IA, según el mismo despacho.
Qué cambia frente a Blackwell
Rubin no parte de cero. Nvidia la presenta como un salto importante respecto a Blackwell, su generación anterior, lanzada a finales de 2024. La comparación es relevante porque, en este sector, cada generación marca el ritmo al que pueden entrenarse modelos más grandes, más rápidos o más eficientes. Si Blackwell era el motor “nuevo” de la flota, Rubin llega con la promesa de ser un motor mejor afinado y más rentable de operar.
La compañía describe el cambio como una transición profunda de arquitectura. En la práctica, eso suele significar ajustes de diseño que afectan tanto al rendimiento como a la forma en que se conectan, escalan y se administran los sistemas. Para las empresas que entrenan modelos, estos matices importan tanto como la potencia bruta: no se trata solo de correr más, sino de correr sin quedarse sin combustible.
Seis chips que se comportan como un “superordenador”
Uno de los detalles que más ayuda a visualizar Rubin es cómo Nvidia describe la plataforma: “seis chips que hacen un superordenador de IA”, según Dion Harris, director de centros de datos y computación de alto rendimiento de la compañía.
Imagina un equipo de seis ciclistas que, en lugar de ir cada uno por su lado, pedalean coordinados como si fueran un solo corredor. Esa coordinación es clave en IA, porque entrenar y ejecutar modelos avanzados no depende únicamente de un chip rápido, sino de cómo se reparte el trabajo, cómo viajan los datos y cuánta fricción aparece en el camino. Con Rubin, Nvidia quiere vender esa idea de bloque integrado: no es una pieza suelta, es una plataforma pensada para escalar.
La eficiencia energética como el nuevo marcador del partido
Si hace unos años la conversación giraba en torno a “cuántos cálculos por segundo”, hoy hay una pregunta igual de incómoda: “¿cuánta energía cuesta llegar ahí?”. Nvidia afirma que Rubin funcionará cinco veces más eficientemente que ofertas anteriores. La eficiencia, en este contexto, no es un detalle técnico para ingenieros; es un factor que afecta directamente a la factura eléctrica, a la capacidad de refrigeración y al número de servidores que caben dentro de un centro de datos sin disparar límites físicos.
Puesto en un ejemplo cotidiano: no es lo mismo tener un coche que corre mucho y se bebe el depósito en una hora, que uno que mantiene una velocidad alta gastando bastante menos. En los centros de datos, esa diferencia se traduce en viabilidad económica. Si la IA se convierte en un servicio permanente, la energía deja de ser un gasto secundario y pasa a ser uno de los principales frenos.
La presión competitiva: AMD, Intel y el giro de los grandes clientes
El anuncio de Rubin también se entiende como una respuesta defensiva. Nvidia ya no compite solo contra los sospechosos habituales. Por un lado, AMD e Intel están empujando fuerte para ganar terreno en el hardware para IA. Por otro, está ocurriendo algo que incomoda a cualquier proveedor dominante: sus mayores clientes están intentando depender menos de él.
Google, Amazon y Microsoft llevan tiempo desarrollando chips propios para recortar costes y asegurar suministro. El texto cita un ejemplo simbólico: el modelo Gemini 3 de Google habría sido entrenado sin tecnología de Nvidia. Aunque cada empresa combina estrategias y proveedores según el caso, el mensaje es fácil de leer: las grandes tecnológicas no quieren que el ritmo de su IA dependa de una sola compañía.
Desde fuera, esto se parece a lo que pasa cuando un restaurante que compraba el pan a una panadería concreta decide montar su propio obrador. No significa que deje de comprar pan mañana, significa que quiere margen de maniobra, capacidad de negociación y un plan B si el precio sube o el suministro falla.
China, restricciones y la carrera por alternativas locales
Hay otra capa, igual de decisiva, que no es técnica: la geopolítica. El texto recuerda que China está acelerando el desarrollo de alternativas domésticas a productos de Nvidia, en un contexto marcado por restricciones de exportación de Estados Unidos que han dificultado el acceso del sector tecnológico chino a ciertos chips avanzados.
Para Nvidia, este escenario tiene un doble efecto. Reduce parte del mercado accesible y, al mismo tiempo, incentiva la creación de competidores locales que, con el tiempo, podrían ganar solidez. Para la industria, implica una fragmentación del ecosistema: distintos mercados podrían acabar usando “familias” de hardware y software menos compatibles entre sí, lo que añade complejidad a desarrolladores y compradores.
Cuándo llegará Rubin y qué significa “disponible para socios”
Nvidia sitúa la disponibilidad de productos basados en Rubin en la segunda mitad de 2026, a través de socios. Ese matiz es importante: gran parte del músculo de Nvidia en centros de datos se materializa mediante fabricantes y proveedores que integran sus chips en servidores, racks y sistemas completos. Cuando la compañía habla de socios, está hablando de un ecosistema que convierte un chip en una solución instalable, operable y escalable.
Para quien compra IA como capacidad, el calendario también es una pista sobre decisiones de inversión. Muchas empresas planifican infraestructura con meses de antelación. Saber que Rubin llega en la segunda mitad de 2026 puede influir en si se compra ahora, se espera, o se opta por alternativas intermedias.
El ritmo de lanzamientos y el coste de seguir “en la ola”
Desde la llegada de ChatGPT en 2022, Nvidia ha actualizado su línea de productos a una velocidad que llama la atención incluso en el mundo del hardware. Y aquí aparece una tensión real: los modelos de IA se han acelerado, pero la infraestructura cuesta miles de millones. El texto plantea una pregunta que muchas compañías se hacen en privado: ¿pueden permitirse mantener la tecnología siempre en la última generación?
Seguir el ritmo se parece a cambiar de móvil cada pocos meses, con la diferencia de que “el móvil” mide metros, consume megavatios y requiere obras, contratos energéticos y equipos de operación. Para las grandes tecnológicas, el cálculo es duro pero posible. Para empresas medianas, la estrategia suele ser distinta: exprimir bien una generación, comprar capacidad en la nube, o especializarse en modelos más pequeños que no exigen el máximo hardware disponible.
Qué mirar a partir de ahora
Rubin llega con promesas de eficiencia, un diseño de plataforma y un mensaje de continuidad en liderazgo. El mercado decidirá su impacto en dos frentes muy concretos: si esa eficiencia se traduce en costes claramente más bajos por entrenamiento e inferencia, y si el ecosistema de software y socios facilita que la adopción sea menos traumática. Nvidia no compite solo con chips; compite con la idea de que su camino sigue siendo el más sencillo para quien quiere construir IA a escala.
