ChatGPT comienza a usar chips de Google: un nuevo giro en la carrera por la inteligencia artificial

Publicado el

ChatGPT comienza a usar chips de Google

La relación entre OpenAI y Google ha tomado un nuevo rumbo. Si hace poco se confirmó que OpenAI había comenzado a utilizar la infraestructura en la nube de Google Cloud, ahora también ha empezado a emplear sus chips personalizados para inteligencia artificial. Esta decisión no solo representa un paso importante hacia la independencia tecnológica de OpenAI, sino que también supone un movimiento estratégico con implicaciones para toda la industria.

Google se convierte en proveedor clave para OpenAI

Durante años, OpenAI ha sido uno de los principales clientes de Nvidia, utilizando sus potentes unidades de procesamiento gráfico (GPU) para entrenar y ejecutar modelos de IA como ChatGPT. Sin embargo, las GPU de Nvidia, aunque muy eficientes, tienen un coste elevado y están sometidas a una demanda creciente que complica su disponibilidad.

Google, por su parte, había reservado sus unidades de procesamiento tensorial (TPU) para su propio uso interno. Las TPU son chips diseñados específicamente para tareas de aprendizaje automático, y forman parte esencial de la infraestructura que soporta servicios como Gmail, Google Photos o el buscador.

Con el cambio de estrategia, Google ha empezado a ofrecer estas TPU a clientes externos a través de su plataforma Google Cloud, lo que ha abierto la puerta a nuevas colaboraciones como la de OpenAI.

Una jugada por la eficiencia y la diversificación

La motivación de OpenAI no es solo estratégica. El uso de las TPU de Google, según informaciones de medios como The Information y Reuters, permitirá a la compañía reducir los costes de operación de servicios como ChatGPT, especialmente en la fase de inferencia (cuando un modelo ya entrenado responde a preguntas o genera contenido).

Estas unidades ofrecen un rendimiento competitivo frente a las GPU de Nvidia, y su coste de alquiler a través de Google Cloud es menor. Para OpenAI, esta combinación representa una forma de optimizar recursos en un contexto donde la demanda de potencia de cálculo crece sin freno.

Reconfigurando el tablero de la IA

El cambio de proveedor tiene otra implicación clave: OpenAI comienza a desprenderse de la fuerte dependencia de dos de sus socios históricos: Microsoft, su inversor principal, y Nvidia, su anterior proveedor exclusivo de chips. Ahora se apoya también en Google, uno de sus mayores competidores en el campo de la IA con su modelo Gemini.

Esta situación puede parecer contradictoria: ¿cómo es posible que Google, creadora de un competidor directo de ChatGPT, se convierta en parte de su soporte técnico? La respuesta está en la complejidad del ecosistema tecnológico actual. Google Cloud, como plataforma de servicios empresariales, busca clientes de alto perfil para rentabilizar sus inversiones en infraestructura, incluso si eso significa colaborar con competidores de sus propios productos.

Por su parte, OpenAI está haciendo lo mismo que cualquier startup tecnológica inteligente: diversificar sus proveedores para no quedar atada a los precios, condiciones o limitaciones de una sola empresa. Es como un restaurante que deja de depender de un único proveedor de ingredientes para garantizar el abastecimiento y negociar mejores precios.

Qué chips está usando OpenAI y por qué no son los mejores

Según fuentes citadas en la filtración, Google no está proporcionando a OpenAI sus TPU más avanzadas. Es decir, aunque OpenAI ha comenzado a usar chips de Google, estos no son necesariamente los modelos más potentes disponibles. Este detalle no es menor: sugiere que Google mantiene bajo llave su tecnología más puntera para seguir teniendo una ventaja competitiva en productos como Gemini.

Esto implica que OpenAI está aprovechando las TPU disponibles sin acceder al máximo potencial del hardware de Google. Aun así, estas versiones «secundarias» siguen siendo lo suficientemente eficaces para ciertos usos, especialmente aquellos que no exigen un rendimiento extremo.

¿Y Nvidia? ¿Pierde terreno?

Nvidia no desaparece del mapa. Sigue siendo el proveedor principal de chips para OpenAI en muchas tareas, especialmente en el entrenamiento de nuevos modelos, donde sus GPU aún ofrecen una combinación difícil de superar en términos de rendimiento, ecosistema y herramientas disponibles.

Pero está claro que el dominio de Nvidia empieza a enfrentarse a alternativas reales. Y no es casual que algunas de estas alternativas provengan de gigantes como Google o incluso Apple, que también ha mostrado interés en alquilar infraestructura para tareas de IA.

¿Qué significa todo esto para el futuro de la IA?

Este nuevo equilibrio en el uso de hardware e infraestructura por parte de OpenAI es un indicador de cómo está madurando el sector de la inteligencia artificial. Estamos pasando de una etapa inicial dominada por unos pocos jugadores clave a una más abierta, en la que las empresas buscan opciones más flexibles, económicas y eficientes.

Para el usuario final, este tipo de movimientos no siempre es visible, pero tiene efectos concretos: servicios más rápidos, más estables y posiblemente más baratos en el futuro. Si el coste de operar modelos como ChatGPT baja, sus versiones premium podrían hacerse más accesibles o incluir más funciones sin que el precio se dispare.

Además, esta diversificación reduce riesgos de cuello de botella tecnológicos o de fallos en la cadena de suministro, algo esencial cuando hablamos de herramientas que ya forman parte del día a día de millones de personas.