Google está en conversaciones activas con Marvell Technology para desarrollar dos nuevos chips de IA: una unidad de procesamiento de memoria diseñada para trabajar junto a los TPU existentes, y un TPU específicamente optimizado para inferencia (la fase donde los modelos sirven a usuarios, no donde aprenden). La noticia, reportada por The Information y cubierta por TNW, llega días después de que Google extendiera su acuerdo de TPU con Broadcom hasta 2031, lo que indica que no se trata de un reemplazo sino de una diversificación deliberada de la cadena de suministro de silicio.
El movimiento refleja un cambio fundamental en la economía de la IA: los costes de entrenamiento de modelos (que dominaron el gasto en 2023-2024) están dando paso a los costes de inferencia como la partida dominante. Cada vez que un usuario hace una pregunta a ChatGPT, Claude o Gemini, se ejecuta una inferencia que consume computación. Con cientos de millones de usuarios haciendo miles de millones de consultas, el coste de inferencia eclipsa al de entrenamiento. Un dato ilustrativo: entrenar GPT-4 costó del orden de 100 millones de dólares; operar ChatGPT para 300 millones de usuarios semanales cuesta eso cada pocos meses solo en computación.
Marvell no sería el único nuevo socio de Google. Según informaciones previas, MediaTek también forma parte de la cadena de diseño de TPU de Google, lo que elevaría a tres los socios de diseño (Broadcom, Marvell y MediaTek). La estrategia de Google es clara: competir en diseño de chips entre múltiples proveedores para obtener los mejores precios y las mejores capacidades técnicas, igual que lo hacen con los data centers físicos.
TrendForce proyecta que las ventas de ASICs (chips diseñados a medida, como los TPU de Google) crecerán un 45% en 2026, muy por encima del 16% de crecimiento previsto para GPUs. Analistas de Bloomberg estiman que el mercado de ASICs personalizados alcanzará los 118.000 millones de dólares en 2033, y que Marvell podría capturar un 20-25% de ese mercado.
Marvell es un socio natural para Google. La empresa alcanzó un récord de ingresos de data center de 6.100 millones de dólares en su año fiscal terminado en febrero de 2026, con un negocio de silicio personalizado de 1.500 millones anuales distribuido en 18 diseños para proveedores cloud. Ya fabrica chips para Amazon (procesadores Trainium), Microsoft (acelerador Maia AI) y Meta (unidad de procesamiento de datos), además de trabajar con Google en la CPU Axion ARM. Nvidia invirtió 2.000 millones de dólares en Marvell en marzo, integrándola en su ecosistema NVLink Fusion. Google no ha firmado contrato aún con Marvell para los nuevos chips, pero las conversaciones incluyen interconexión de alto rendimiento, optimización de consumo energético y compatibilidad con la infraestructura de IA existente de Google.
Mi valoración: Google está haciendo lo que cualquier empresa inteligente haría con un proveedor crítico: diversificar para reducir riesgo y aumentar poder de negociación. Depender solo de Broadcom para los TPU es un single point of failure que a escala de Google (que opera uno de los tres mayores clouds del mundo junto a AWS y Azure) es inaceptable. Añadir a Marvell como segundo diseñador de TPU más un chip dedicado de inferencia le da a Google más opciones de diseño, más competencia de precios y más resiliencia ante disrupciones de suministro.
Para Marvell, conseguir a Google como cliente sería transformador: estaría dentro de los ecosistemas de Nvidia (vía inversión de 2.000 millones), Amazon, Microsoft, Meta y potencialmente Google, cubriendo los cinco mayores compradores de silicio de IA del mundo. La acción de Marvell subió un 5,5% tras la noticia. En diciembre de 2025, Marvell adquirió Celestial AI por hasta 5.500 millones de dólares, obteniendo tecnología de interconexión fotónica que su CEO Matt Murphy describió como «la conectividad más completa de la industria». Esa tecnología podría ser clave para los chips de inferencia de Google, donde la velocidad de comunicación entre procesadores y memoria es el cuello de botella principal.
El mercado de chips de IA personalizados se está convirtiendo en el sector más caliente de la industria de semiconductores. La carrera entre Nvidia, Broadcom y Marvell por suministrar chips de IA a los hyperscalers apenas ha comenzado, y las negociaciones de Google con Marvell son un indicador de que la siguiente fase de la guerra del silicio no será sobre quién tiene el chip más potente para entrenar modelos, sino sobre quién ofrece el chip más eficiente para servirlos a miles de millones de usuarios al menor coste posible.
Preguntas frecuentes
¿Google deja de trabajar con Broadcom? No. El acuerdo con Broadcom se extendió hasta 2031. Marvell sería un diseñador adicional, no un reemplazo. ¿Qué es un chip de inferencia? Un chip optimizado para ejecutar modelos de IA ya entrenados (responder preguntas, generar texto/imágenes), en lugar de entrenarlos desde cero. La inferencia es la fase que más computa consume a escala porque sirve a millones de usuarios simultáneos. Google procesa miles de millones de consultas de Gemini y búsqueda con IA al día, y cada una requiere inferencia. ¿Esto afecta a Nvidia? Indirectamente. Nvidia domina el mercado de GPUs para IA, pero los ASICs personalizados de Broadcom y Marvell compiten en coste y eficiencia para cargas de trabajo específicas. Nvidia invirtió 2.000 millones en Marvell precisamente para mantener presencia en ambos ecosistemas: si los hyperscalers migran parte de su inferencia a ASICs, Nvidia quiere beneficiarse a través de su participación en Marvell y la integración NVLink Fusion, en lugar de perder el negocio por completo.
