Alphabet ha confirmado este 24 de abril una inversión de hasta 40.000 millones de dólares en Anthropic, la empresa creadora de Claude. La estructura del acuerdo combina capital y compromiso de infraestructura en un paquete que pocos analistas de capital riesgo recordaban a esta escala. Los primeros 10.000 millones se desembolsan inmediatamente a una valoración de 350.000 millones de dólares; los 30.000 millones restantes están condicionados al cumplimiento de hitos de rendimiento operativo no divulgados públicamente. Pero la pieza más significativa no es el dinero: Google garantiza 3,5 gigavatios de capacidad TPU (Tensor Processing Units) entre 2027 y 2031, con 1 GW disponible desde 2026. Para contextualizar, 1 GW equivale al consumo energético de unas 350.000 viviendas estadounidenses en una noche fría.
El acuerdo coloca a Anthropic en una posición competitiva singular. La compañía recibe simultáneamente capital de los tres mayores hyperscalers que existen: 33.000 millones potenciales de Amazon (5.000 inmediatos más 25.000 condicionados, según el acuerdo de abril), 15.000 millones combinados de Microsoft y NVIDIA en su Serie G, y ahora 40.000 millones de Google. La concentración de capital es inédita: en cuestión de tres meses, Anthropic ha levantado más de 88.000 millones de dólares comprometidos. La pregunta que importa, claro, es qué obtienen los inversores a cambio.
La estructura circular: dinero que vuelve a casa
El patrón se repite con cada acuerdo. Google invierte capital en Anthropic; Anthropic gasta una parte significativa de ese capital en TPU de Google Cloud. La inversión inicial cierra el círculo de tres maneras: Google obtiene equity en una empresa que valdrá probablemente más en cinco años, ingresos directos por uso de su infraestructura en la nube, y validación estratégica de las TPU como alternativa real a las GPU de NVIDIA. Es la misma dinámica que Microsoft estableció con OpenAI vía Azure, y que Amazon ha refinado con Anthropic vía AWS. La diferencia es la escala: 3,5 GW de TPU es un compromiso técnico que ningún competidor puede igualar a corto plazo.
El acuerdo entre Amazon y Anthropic firmado el 22 de abril ya había sentado el precedente con su estructura circular: 5.000 millones de inversión inmediata, posibilidad de 25.000 millones más condicionados a hitos comerciales, y un compromiso de Anthropic de gastar más de 100.000 millones de dólares en AWS durante los próximos diez años, incluyendo múltiples generaciones de chips Trainium. El movimiento de Google es el espejo en TPU del movimiento de Amazon en Trainium. Anthropic se está construyendo como cliente garantizado para los dos sistemas de chips de IA propietarios más importantes del mercado fuera de NVIDIA, lo que reduce su dependencia de un proveedor único y le da palanca de negociación frente a todos.
Los 50.000 millones que Anthropic invierte por su cuenta
Más allá de las inversiones recibidas, Anthropic ha comprometido 50.000 millones de dólares de capital propio para construir centros de datos personalizados en Texas y Nueva York. Los primeros centros operarán a partir de finales de 2026, con varios gigavatios de capacidad cada uno. Esa autoinversión es la pieza que da coherencia a toda la estrategia: la compañía recibe capital de los hyperscalers, lo gasta en infraestructura propia y rentada, y simultáneamente prepara su autonomía técnica a largo plazo.
El movimiento tiene una lógica defensiva clara. Anthropic ha estado explorando la posibilidad de fabricar sus propios chips de IA, una decisión que reduciría progresivamente la dependencia simultánea de Google, Amazon y NVIDIA, los tres proveedores con los que mantiene relaciones complejas de inversión, infraestructura y competencia. La inversión de 40.000 millones de Google compra tiempo y capacidad inmediata; los 50.000 millones de centros propios y la exploración de chips compran independencia futura.
La carrera por la infraestructura: cuatro grandes vs todos los demás
El mapa competitivo se está consolidando alrededor de tres o cuatro empresas con acceso a capital prácticamente ilimitado. OpenAI mantiene compromisos de infraestructura por más de 1,4 billones de dólares con Nvidia, Broadcom, Oracle, Microsoft, Google y Amazon. Anthropic ha cerrado más de 88.000 millones en menos de tres meses. Google y Microsoft autofinancian sus propios modelos y centros de datos a escala billonaria. xAI de Elon Musk levanta rondas de decenas de miles de millones. Para 2027, el mercado estará probablemente concentrado alrededor de tres o cuatro jugadores, con un ecosistema satélite de empresas más pequeñas que construyen verticales especializados sobre esa infraestructura.
La asociación previa entre Google y Anthropic ya había sentado las bases con un acuerdo multimillonario para escalar Claude con un millón de TPU, equivalente a más de un gigavatio de capacidad disponible desde 2026. La nueva inversión multiplica esa capacidad por tres y medio, y la extiende hasta 2031.
La lectura geopolítica y regulatoria
Una pieza del acuerdo que merece atención es lo que no se dice. La Comisión Federal de Comercio (FTC) ya investigó las primeras inversiones de Google en Anthropic en 2024-2025 por preocupaciones de prácticas monopólicas. Una operación de 40.000 millones de dólares con compromisos de infraestructura de cinco años va a recibir escrutinio regulatorio similar o mayor. La pregunta que los reguladores tendrán que responder es si esta concentración de capital y capacidad técnica fortalece la competencia (al darle a Anthropic los recursos para competir contra OpenAI) o la debilita (al consolidar el ecosistema en torno a tres jugadores).
El argumento de la concentración tiene peso. Cuando los tres principales productores de modelos frontera (OpenAI, Anthropic, Google) están todos financiados, técnica o capitalmente, por los mismos hyperscalers (Microsoft, Amazon, Google), la diferenciación entre «competencia» y «ecosistema coordinado» se vuelve borrosa. Los precios pagados por usuarios finales y empresas no van a bajar de forma agresiva si los actores principales tienen incentivos compartidos para sostener márgenes.
Mi valoración
Esta inversión es la confirmación de algo que la industria ya intuía pero todavía no había puesto cifras: la guerra de la IA generativa se ha convertido fundamentalmente en una guerra de infraestructura, y los modelos son la consecuencia más visible de quién tiene acceso a más cómputo. Los 40.000 millones de Google compran tres cosas. Primera, un seguro contra el éxito de Anthropic: si Claude se convierte en el modelo dominante en uso empresarial (algo que ya casi ha pasado), Google participa de la subida sin necesidad de derrotar técnicamente a Anthropic con Gemini. Segunda, ingresos garantizados de Google Cloud: 3,5 GW de TPU rentados durante cinco años son decenas de miles de millones de dólares de ingresos predecibles para una división que necesitaba probarse frente a Wall Street. Tercera, una cuña en la relación entre Anthropic y Amazon: si Anthropic acaba dependiendo más de Google que de AWS para infraestructura crítica, la balanza estratégica entre los tres proveedores cambia. Para Anthropic, la lectura es ambivalente. Por un lado, es la mayor inversión que ha recibido nunca y le da los recursos para competir contra OpenAI sin restricciones financieras. Por otro, profundiza una dependencia de un proveedor que es simultáneamente competidor (Gemini compite directamente con Claude). La estructura de hitos condicionados sobre los 30.000 millones es el detalle que más me intriga: ¿qué hitos exactamente? Si son métricas de uso de TPU, alinea a Anthropic a usar más infraestructura de Google. Si son métricas de revenue, fuerza a Anthropic a un crecimiento agresivo que puede no ser saludable. La opacidad sobre estos hitos es el punto débil del acuerdo. La pregunta que pocos están haciendo es qué pasa con los modelos open source en este escenario. DeepSeek, Mistral, Llama y otros competidores que no tienen acceso a 40.000 millones de financiación con compromisos de infraestructura están operando con un orden de magnitud menos de capital. La diferencia técnica entre estos modelos y los frontier de las big tech se está reduciendo, pero la diferencia de infraestructura se está ampliando. Esa asimetría va a determinar el ritmo de adopción empresarial: pocas empresas critique-friendly van a apostar la productividad de su organización por modelos cuya disponibilidad técnica depende de proveedores con recursos limitados, por muy bueno que sea su rendimiento en benchmarks.
Preguntas frecuentes
¿Cuánto ha invertido Google en Anthropic en total? Antes de este acuerdo, Google había invertido aproximadamente 3.000 millones de dólares acumulados en rondas previas. Con esta operación, su exposición potencial sube a más de 43.000 millones, posicionándose como el mayor inversor único de Anthropic.
¿Qué son las TPU? Tensor Processing Units, los chips de IA propietarios de Google diseñados específicamente para entrenamiento e inferencia de modelos de aprendizaje automático. Son la principal alternativa a las GPU de NVIDIA para cargas de trabajo de IA a gran escala.
¿Anthropic deja AWS por Google? No. Anthropic mantiene los compromisos con AWS (Trainium, Bedrock) y añade Google Cloud (TPU) como segunda fuente de cómputo. La diversificación es la estrategia.
