Google negocia con Marvell para fabricar chips de IA dedicados a inferencia: la batalla del silicio personalizado se intensifica más allá de Nvidia y Broadcom

Publicado el

nuevo chip de inteligencia artificial

Google está en conversaciones activas con Marvell Technology para desarrollar dos nuevos chips de IA: una unidad de procesamiento de memoria diseñada para trabajar junto a los TPU existentes, y un TPU específicamente optimizado para inferencia (la fase donde los modelos sirven a usuarios, no donde aprenden). La noticia, reportada por The Information y cubierta por TNW, llega días después de que Google extendiera su acuerdo de TPU con Broadcom hasta 2031, lo que indica que no se trata de un reemplazo sino de una diversificación deliberada de la cadena de suministro de silicio.

Por qué la economía de la IA está cambiando

El movimiento refleja un cambio fundamental en la economía de la IA: los costes de entrenamiento de modelos (que dominaron el gasto en 2023-2024) están dando paso a los costes de inferencia como la partida dominante. Cada vez que un usuario hace una pregunta a ChatGPT, Claude o Gemini, se ejecuta una inferencia que consume computación. Con cientos de millones de usuarios haciendo miles de millones de consultas, el coste de inferencia eclipsa al de entrenamiento. Un dato ilustrativo: entrenar GPT-4 costó del orden de 100 millones de dólares; operar ChatGPT para 300 millones de usuarios semanales cuesta eso cada pocos meses solo en computación.

MediaTek también pretende un trozo del pastel

Marvell no sería el único nuevo socio de Google. Según informaciones previas, MediaTek también forma parte de la cadena de diseño de TPU de Google, lo que elevaría a tres los socios de diseño (Broadcom, Marvell y MediaTek). La estrategia de Google es clara: competir en diseño de chips entre múltiples proveedores para obtener los mejores precios y las mejores capacidades técnicas, igual que lo hacen con los data centers físicos.

Las cifras de TrendForce: ASICs en plena explosión

TrendForce proyecta que las ventas de ASICs (chips diseñados a medida, como los TPU de Google) crecerán un 45% en 2026, muy por encima del 16% de crecimiento previsto para GPUs. Analistas de Bloomberg estiman que el mercado de ASICs personalizados alcanzará los 118.000 millones de dólares en 2033, y que Marvell podría capturar un 20-25% de ese mercado.

Por qué Marvell encaja como socio

Marvell es un socio natural para Google. La empresa alcanzó un récord de ingresos de data center de 6.100 millones de dólares en su año fiscal terminado en febrero de 2026, con un negocio de silicio personalizado de 1.500 millones anuales distribuido en 18 diseños para proveedores cloud. Ya fabrica chips para Amazon (procesadores Trainium), Microsoft (acelerador Maia AI) y Meta (unidad de procesamiento de datos), además de trabajar con Google en la CPU Axion ARM. Nvidia invirtió 2.000 millones de dólares en Marvell en marzo, integrándola en su ecosistema NVLink Fusion. Google no ha firmado contrato aún con Marvell para los nuevos chips, pero las conversaciones incluyen interconexión de alto rendimiento, optimización de consumo energético y compatibilidad con la infraestructura de IA existente de Google.

Lo que significa para Nvidia (y para los precios)

Nvidia sigue dominando el entrenamiento, donde la versatilidad de sus GPU vale el sobrecoste. Pero la inferencia es donde se va a quemar la mayor parte del cómputo a medio plazo: cada respuesta de Gemini o ChatGPT consume tokens en inferencia. Si Google logra ASICs propios con un coste por inferencia 30-45% inferior al de un H200 de Nvidia, la presión sobre los precios de Nvidia será directa. La acción ya cedió un 6% en marzo cuando se filtraron las primeras conversaciones con Marvell.

Tras seguir el sector durante 18 meses, mi conclusión: la asimetría chip diseñado vs chip generalista crece cada trimestre. Anthropic, OpenAI, Microsoft y Amazon trabajan también en sus propios ASICs. La era del «todo Nvidia para todo» empieza a cerrarse, no porque Nvidia haga peores chips, sino porque tener silicio propio se ha convertido en ventaja estratégica imprescindible para cualquier hyperescalar serio.

Mi valoración

Google está haciendo lo que cualquier empresa inteligente haría con un proveedor crítico: diversificar para reducir riesgo y aumentar poder de negociación. Depender solo de Broadcom para los TPU es un single point of failure que a escala de Google (que opera uno de los tres mayores clouds del mundo junto a AWS y Azure) es inaceptable. Añadir a Marvell como segundo diseñador de TPU más un chip dedicado de inferencia le da a Google más opciones de diseño, más competencia de precios y más resiliencia ante disrupciones de suministro.

Para Marvell, conseguir a Google como cliente sería transformador: estaría dentro de los ecosistemas de Nvidia (vía inversión de 2.000 millones), Amazon, Microsoft, Meta y potencialmente Google, cubriendo los cinco mayores compradores de silicio de IA del mundo. La acción de Marvell subió un 5,5% tras la noticia. En diciembre de 2025, Marvell adquirió Celestial AI por hasta 5.500 millones de dólares, obteniendo tecnología de interconexión fotónica que su CEO Matt Murphy describió como «la conectividad más completa de la industria». Esa tecnología podría ser clave para los chips de inferencia de Google, donde la velocidad de comunicación entre procesadores y memoria es el cuello de botella principal.

El mercado de chips de IA personalizados se está convirtiendo en el sector más caliente de la industria de semiconductores. La carrera entre Nvidia, Broadcom y Marvell por suministrar chips de IA a los hyperscalers apenas ha comenzado, y las negociaciones de Google con Marvell son un indicador de que la siguiente fase de la guerra del silicio no será sobre quién tiene el chip más potente para entrenar modelos, sino sobre quién ofrece el chip más eficiente para servirlos a miles de millones de usuarios al menor coste posible.

Preguntas frecuentes

¿Qué es exactamente un ASIC para IA?

Un ASIC (Application-Specific Integrated Circuit) es un chip diseñado para una tarea concreta, en este caso la inferencia de modelos. A diferencia de las GPU genéricas de Nvidia, sacrifica versatilidad por eficiencia: rinde más por vatio en la tarea para la que fue diseñado.

¿Sustituye Marvell a Broadcom como proveedor de Google?

No, las complementa. Broadcom seguirá fabricando los TPU principales y Marvell se sumará para una nueva familia de chips dedicados a inferencia. Es diversificación, no sustitución.

¿Cuándo veremos los primeros chips fabricados por Marvell?

Los primeros volúmenes están previstos para finales de 2027, con producción a escala en 2028. Hasta entonces, Google sigue dependiendo principalmente de Broadcom y Nvidia.