OpenAI ha anunciado alianzas con AMD y Nvidia en un momento crucial para el desarrollo de modelos de inteligencia artificial cada vez más potentes. Aunque estos acuerdos han generado grandes titulares, Brad Gerstner, fundador de Altimeter Capital, señala que por ahora se trata solo de anuncios y no de implementaciones concretas. En otras palabras, aún no hay chips funcionando en servidores ni mejoras tangibles derivadas de estos convenios.
Detrás del ruido mediático, Gerstner destaca lo esencial: «los mejores chips serán los que ganen«. Este comentario refleja una realidad cada vez más clara en el ecosistema de la inteligencia artificial: la carrera por la supremacía no se gana con comunicados de prensa, sino con resultados medibles en velocidad, eficiencia y disponibilidad de cómputo.
El contexto de escasez de cómputo
El avance de la IA está estrellándose con un obstáculo difícil de sortear: la falta de capacidad de cómputo suficiente para alimentar el entrenamiento y despliegue de modelos cada vez más grandes. Gerstner señala que esta situación no cambiará a corto plazo, ni siquiera con los nuevos acuerdos de OpenAI. Por el contrario, todo indica que seguiremos en un mundo «compute-constrained«, es decir, limitado por la capacidad real de procesamiento disponible.
Este cuello de botella tiene implicancias globales. La demanda por servicios de IA crece más rápido que la producción de chips capaces de soportarla. Incluso con esfuerzos titánicos por parte de fabricantes como AMD y Nvidia, la industria no logra poner en el mercado suficientes unidades para cubrir el apetito de empresas como OpenAI, Google o Meta, que necesitan enormes granjas de servidores con GPUs de última generación.
El papel de AMD frente a Nvidia
Nvidia ha sido la gran protagonista de la revolución de la IA generativa gracias a sus unidades de procesamiento gráfico (GPUs), especialmente la serie H100, que se ha convertido en el estándar de facto para entrenamiento de modelos. Sin embargo, AMD busca recortar distancias con soluciones propias, como sus chips Instinct MI300X, que prometen un rendimiento competitivo a menor costo.
La supuesta inversión de OpenAI en AMD, que podría implicar la compra de hasta el 10% de la compañía, es una señal fuerte de confianza en esta alternativa. Aun así, la estrategia no está centrada en reemplazar a Nvidia, sino en diversificar proveedores. En un escenario donde cada unidad de cómputo cuenta, OpenAI necesita sumar opciones para mantener su liderazgo técnico y acelerar su roadmap de productos.
DeepSeek y la dimensión geopolítica
La competencia no se limita a Silicon Valley. En China, DeepSeek se ha posicionado como un rival a tener en cuenta, desarrollando modelos de lenguaje de bajo costo y alto rendimiento, incluso utilizando chips de fabricación local. Este avance ha llamado la atención de autoridades estadounidenses, que ven con preocupación el posible uso de estas tecnologías para promover narrativas alineadas con los intereses del Partido Comunista Chino.
Un informe del National Institute of Standards and Technology (NIST) advierte que los modelos de DeepSeek tienden a reflejar más frecuentemente los puntos de vista del gobierno chino, lo que plantea interrogantes sobre su uso en contextos de seguridad nacional y desinformación. Esta dimensión agrega una capa más de complejidad a la carrera por los chips: ya no se trata solo de velocidad o consumo energético, sino también de autonomía tecnológica y soberanía digital.
Una demanda que no deja de crecer
El presidente de OpenAI señaló recientemente que el mercado se dirige hacia un escenario de «escasez absoluta de cómputo» debido al crecimiento explosivo de la demanda. Y no se refiere solo a su propia empresa: todo el ecosistema de startups, investigadores, gobiernos y grandes tecnológicas está impulsando una carrera por el acceso a recursos de procesamiento cada vez más costosos y difíciles de conseguir.
Este contexto explica por qué las alianzas con fabricantes de chips adquieren un carácter estratégico. Como si fueran las fuentes de agua en medio de una sequía, los centros de datos necesitan alimentar sus servidores con GPUs de última generación. Y las empresas están dispuestas a pagar precios crecientes por esa escasa infraestructura.
El futuro inmediato de la IA depende del silicio
Lo que está en juego no es solo una cuestión técnica. El futuro del desarrollo de modelos más avanzados, más accesibles y energéticamente eficientes depende en gran medida de cómo evolucione el mercado de los chips. Tanto AMD como Nvidia están intentando mejorar sus procesos de fabricación, ampliar su capacidad de producción y diversificar sus ofertas para responder a las exigencias del mercado.
Pero como advierte Gerstner, hasta que esos chips no estén efectivamente desplegados y funcionando en entornos reales, es pronto para cantar victoria. Y en esa espera, el desequilibrio entre oferta y demanda seguirá marcando el ritmo del progreso en inteligencia artificial.
