Nvidia ha vuelto a poner el foco en la infraestructura para IA con el anuncio de su nueva arquitectura Vera Rubin, presentada por sorpresa durante CES en Las Vegas y prevista para llegar a clientes a lo largo de este año, según ha contado IEEE Spectrum. La compañía acompaña el anuncio con dos cifras ambiciosas: una reducción de hasta diez veces en el coste de inferencia y la posibilidad de entrenar ciertos modelos con cuatro veces menos GPU que en la generación Blackwell. Conviene leer esas promesas con lupa: no hablan solo de una tarjeta más rápida, sino de un sistema diseñado para que muchas piezas trabajen como si fueran un único cerebro.
La idea de fondo es sencilla de entender si pensamos en una cocina con varias estaciones. Tener un horno más potente ayuda, sí, pero si los platos se atascan en el pase o en los pasillos, el restaurante sigue yendo lento. Nvidia está diciendo que el cuello de botella, cada vez más, no es solo “cocinar” (calcular en GPU), sino mover ingredientes (datos) a tiempo y sin colas. Continúa leyendo «Nvidia apuesta por una “arquitectura completa” con Vera Rubin: cuando la red también calcula»