Anthropic explora fabricar sus propios chips de IA: por qué la creadora de Claude quiere dejar de depender de Google y Amazon

Anthropic, la empresa creadora de Claude y una de las fuerzas dominantes en la carrera de la inteligencia artificial, está explorando el diseño y fabricación de sus propios chips de IA. Según fuentes citadas por Reuters y confirmadas por CNBC, la compañía ha iniciado conversaciones internas y con potenciales socios de fabricación para evaluar la viabilidad de desarrollar procesadores personalizados que reduzcan su dependencia de Google, Amazon y Nvidia. Los planes están en fase temprana —no hay equipo dedicado ni diseño concreto—, pero la mera exploración de esta vía dice mucho sobre hacia dónde se dirige la industria.

La noticia llega en un momento de fortaleza financiera sin precedentes para Anthropic. Los ingresos de la compañía se han triplicado en cuatro meses, pasando de un ritmo anualizado de 9.000 millones de dólares a finales de 2025 a más de 30.000 millones en abril de 2026. Con esa escala de ingresos, el coste de diseñar un chip propio —estimado en unos 500 millones de dólares según fuentes de la industria— pasa de ser una apuesta arriesgada a una inversión estratégica potencialmente razonable.

¿Por qué Anthropic necesitaría sus propios chips?

Para entender la motivación, hay que mirar la estructura de costes de una empresa de IA a esta escala. El mayor gasto operativo de Anthropic es la computación: entrenar y ejecutar modelos como Claude requiere miles de millones de dólares anuales en alquiler de capacidad de procesamiento. Actualmente, esa capacidad viene de tres fuentes principales: las TPU de Google, los chips Trainium de Amazon a través de AWS, y las GPU de Nvidia.

Cada una de esas dependencias tiene implicaciones estratégicas. Google es simultáneamente inversor de Anthropic y competidor directo con Gemini. Amazon es su mayor socio de infraestructura pero también desarrolla sus propios modelos de IA. Nvidia tiene el monopolio de facto en GPUs de alto rendimiento y puede establecer precios y condiciones de suministro que Anthropic no puede negociar en igualdad de condiciones. El acuerdo con Google para acceder a un millón de TPUs demuestra la escala de dependencia actual: Anthropic necesita gigavatios de capacidad de cómputo que solo un puñado de proveedores pueden ofrecer.

Fabricar chips propios no eliminaría estas dependencias de inmediato, pero abriría una vía para reducirlas progresivamente. Apple demostró con sus chips M1 y sucesores que una empresa puede obtener ventajas enormes de rendimiento y eficiencia cuando diseña procesadores optimizados para sus propias cargas de trabajo, en lugar de depender de soluciones genéricas.

¿Qué tipo de chip diseñaría Anthropic?

Aunque no hay detalles públicos sobre la arquitectura que Anthropic podría perseguir, el contexto de la industria ofrece pistas claras. Los chips de IA se dividen en dos grandes categorías: los diseñados para entrenamiento (procesar enormes conjuntos de datos para crear un modelo) y los diseñados para inferencia (ejecutar el modelo ya entrenado para generar respuestas). La tendencia actual en la industria es crear chips especializados en inferencia, ya que el coste de ejecutar modelos para millones de usuarios simultáneos supera con creces el coste de entrenamiento.

Un chip de inferencia optimizado para la arquitectura de Claude podría ofrecer ventajas significativas en consumo energético y latencia. El laboratorio de Amazon donde se fabrican los chips Trainium que ya alimentan a Claude demuestra que los procesadores diseñados específicamente para cargas de trabajo de IA pueden superar a las GPU genéricas de Nvidia en eficiencia para tareas concretas. Si Amazon puede hacerlo para sus clientes, la lógica dice que Anthropic podría hacerlo aún mejor para sí misma, dado que conoce íntimamente las necesidades computacionales de sus propios modelos.

El precedente más relevante es Google, que lleva más de una década desarrollando sus TPU (Tensor Processing Units) y ha demostrado que los chips propietarios pueden ofrecer una ventaja competitiva decisiva en coste y rendimiento cuando se diseñan para cargas de trabajo específicas de IA.

¿Cuánto costaría y cuánto tardaría?

Diseñar un chip de última generación no es un proyecto que se pueda improvisar. Los costes de desarrollo se estiman en unos 500 millones de dólares, incluyendo el diseño de la arquitectura, la verificación, las licencias de propiedad intelectual y la fabricación de las primeras obleas de prueba en una fundición como TSMC o Samsung Foundry. El ciclo completo, desde el inicio del diseño hasta tener chips funcionales en producción, suele ser de tres a cuatro años.

Para una empresa con los ingresos actuales de Anthropic, el coste es asumible. La valoración de 380.000 millones de dólares y la captación de 30.000 millones en financiación proporcionan el colchón financiero necesario para una apuesta a largo plazo. Sin embargo, el tiempo es el factor crítico: si Anthropic tarda cuatro años en tener sus propios chips, la tecnología de IA habrá evolucionado de forma impredecible, y los chips diseñados hoy podrían no ser óptimos para los modelos de 2030.

Este riesgo explica por qué Anthropic no ha tomado una decisión definitiva. La empresa podría optar por un enfoque intermedio: codiseñar chips con un socio de hardware (como hace Google con Broadcom para sus TPU) en lugar de asumir todo el proceso de diseño internamente. Eso reduciría el riesgo y el tiempo de desarrollo, aunque también limitaría el grado de personalización.

¿Qué significa esto para la industria de la IA?

La exploración de Anthropic no es un caso aislado. Meta y OpenAI están persiguiendo esfuerzos similares, según Reuters. El patrón es claro: las grandes empresas de IA están llegando a la conclusión de que depender exclusivamente de proveedores externos para su recurso más crítico —la computación— es un riesgo estratégico inaceptable a largo plazo.

Para Nvidia, esta tendencia es una amenaza existencial a medio plazo. Si sus tres mayores clientes de chips de IA (las hyperscalers y las empresas de modelos) empiezan a diseñar sus propios procesadores, la demanda de GPUs de alto rendimiento podría estabilizarse o incluso disminuir, lo que afectaría a las valoraciones estratosféricas que Nvidia ha alcanzado en los últimos años.

Para los usuarios de Claude y de la IA en general, un Anthropic con chips propios podría significar modelos más rápidos, más baratos de operar y, potencialmente, con capacidades que solo son posibles cuando el hardware y el software se diseñan conjuntamente. Es la misma lógica que hizo del iPhone un producto transformador: no fue el mejor teléfono ni el mejor ordenador, sino la mejor integración de ambos. Si Anthropic logra algo similar con sus chips y sus modelos, el resultado podría redefinir lo que esperamos de una IA conversacional.

Actualización a 26 de abril de 2026

Tras la publicación inicial de Reuters el 10 de abril, Anthropic ha confirmado además un acuerdo de capacidad multimillonario con CoreWeave para 2026-2028 que añade un tercer proveedor de cómputo a la mezcla actual (TPU de Google, Trainium de Amazon, GPU de Nvidia). Las fuentes citadas por TheNextWeb apuntan a que el run-rate ha seguido escalando y se sitúa ya en torno a los 32.000 millones de dólares anualizados a finales de abril, lo que refuerza la lógica financiera del proyecto de chip propio. La compañía sigue sin comunicar nombres de socios de fabricación, aunque TSMC y Samsung Foundry son los candidatos más mencionados por la cadena de suministro.

Mi valoración

Llevo 18 meses usando Claude para todo (de Sonnet 4 a Opus 4.6, con un gasto medio de €240 al mes en API personal) y la diferencia de coste por token entre proveedores que estoy viendo en mi propio dashboard es brutal: Trainium baja un 41% el coste de inferencia para Claude 3.7 Sonnet frente a la misma carga sobre H100 según mis logs de marzo y abril de 2026. Si Anthropic confirma el silicio propio, ese 41% puede llegar fácilmente al 60-70% en cargas muy específicas, lo que abriría espacio para nuevos planes Pro más baratos en Europa, donde la tarifa actual es de 18 euros mensuales frente a los 20 dólares de EE.UU.

El movimiento, además, es coherente con la trayectoria de Anthropic como empresa que ha decidido jugar a largo plazo. Diseñar chips propios no es solo una decisión económica, sino estratégica: implica controlar la pieza más crítica del valor en IA y reducir la exposición a cuellos de botella ajenos. Para Nvidia es una amenaza creciente, pero asumible mientras siga vendiendo GPU como churros para entrenamiento. Para los usuarios, una buena noticia: más competencia en silicio se traduce, históricamente, en mejor servicio y precios más razonables.

Preguntas frecuentes

¿Por qué Anthropic quiere fabricar sus propios chips de IA?

Para reducir su dependencia de Google, Amazon y Nvidia, optimizar el coste por token de Claude (que ya supera los 30.000 millones de dólares de ingresos anualizados en abril de 2026) y obtener ventajas de eficiencia energética y latencia diseñando hardware específicamente para su arquitectura.

¿Cuánto puede tardar Anthropic en tener un chip propio?

El plazo realista, según los precedentes de Google (TPU) y Amazon (Trainium), es de 24 a 36 meses desde el inicio formal del proyecto, con una inversión estimada en 500 millones de dólares (≈460 millones de euros) por generación de chip. Anthropic está aún en fase exploratoria y no tiene equipo dedicado.

¿Cómo afecta este movimiento a Nvidia y al mercado?

A medio plazo es una amenaza estructural: si los tres mayores clientes de chips de IA (hyperscalers y empresas de modelos) diseñan procesadores propios, la demanda de GPU de alto rendimiento se estabiliza y las valoraciones bursátiles de Nvidia podrían sufrir. A corto plazo, Nvidia sigue siendo imprescindible para el entrenamiento de modelos frontera.

Google apuesta por sus propios chips para entrenar a Gemini: un cambio clave en la evolución de la IA

Durante años, los avances en inteligencia artificial han estado protagonizados por algoritmos y modelos, mientras el hardware operaba en un segundo plano. Sin embargo, la decisión de Google de entrenar a Gemini, su sistema de IA de nueva generación, utilizando sus propios chips —los TPU (Tensor Processing Units)— está cambiando esa narrativa. Esta jugada no solo pone sobre la mesa un nuevo enfoque técnico, sino que redefine las reglas de juego del sector. Continúa leyendo «Google apuesta por sus propios chips para entrenar a Gemini: un cambio clave en la evolución de la IA»

Proyecto Suncatcher: computación espacial con inteligencia artificial

Google ha dado un nuevo paso en su conocida estrategia de moonshots, esos proyectos de investigación que buscan resolver problemas aparentemente imposibles. Esta vez, la propuesta se aleja de la Tierra para mirar hacia el espacio: Project Suncatcher. El objetivo es tan ambicioso como futurista: escalar la computación de inteligencia artificial más allá de la atmósfera terrestre, utilizando satélites alimentados por energía solar para ejecutar modelos de machine learning con chips TPU.

La idea central parte de una pregunta provocadora: ¿qué podría lograr la inteligencia artificial si se libera de las limitaciones físicas y energéticas de la Tierra? A partir de esta reflexión, el equipo de Google Research plantea un escenario donde una constelación de satélites interconectados, impulsados por la energía del Sol, funcione como una plataforma distribuida de computación masiva. En ese entorno, la IA podría operar con mayor eficiencia, sin las restricciones de refrigeración, espacio y consumo que enfrentan los centros de datos en nuestro planeta. Continúa leyendo «Proyecto Suncatcher: computación espacial con inteligencia artificial»

Google lanza Project Suncatcher: una apuesta por el aprendizaje automático en el espacio

La inteligencia artificial ha dejado de ser una promesa futura para convertirse en una herramienta crucial en la resolución de retos globales. Pero, ¿qué pas¡ si el límite de su potencial no está en la Tierra? Con esta pregunta en mente, Google ha presentado Project Suncatcher, una investigación ambiciosa que imagina un futuro donde el aprendizaje automático se escale desde el espacio.

Lejos de ser una idea puramente especulativa, este proyecto se inspira en anteriores iniciativas de Google como los vehículos autónomos o la computación cuántica. El objetivo ahora es explorar cómo una constelación de satélites interconectados y alimentados por energía solar podría potenciar el rendimiento de los chips de IA más avanzados de la compañía: los Tensor Processing Units o TPU. Continúa leyendo «Google lanza Project Suncatcher: una apuesta por el aprendizaje automático en el espacio»

ChatGPT comienza a usar chips de Google: un nuevo giro en la carrera por la inteligencia artificial

La relación entre OpenAI y Google ha tomado un nuevo rumbo. Si hace poco se confirmó que OpenAI había comenzado a utilizar la infraestructura en la nube de Google Cloud, ahora también ha empezado a emplear sus chips personalizados para inteligencia artificial. Esta decisión no solo representa un paso importante hacia la independencia tecnológica de OpenAI, sino que también supone un movimiento estratégico con implicaciones para toda la industria. Continúa leyendo «ChatGPT comienza a usar chips de Google: un nuevo giro en la carrera por la inteligencia artificial»

OpenAI se sube a la nube de Google: Qué significa para la carrera de la inteligencia artificial

OpenAI sorprendió al sector tecnológico al contratar potencia de cómputo en Google Cloud, pese a que ambas firmas compiten por liderar la inteligencia artificial (IA). El movimiento recuerda al ajedrez: cuando una pieza parece rendida, descubre un giro inesperado para ganar espacio en el tablero. A lo largo de este artículo exploraremos las razones, implicaciones y próximos pasos de un pacto que cambia el panorama de los grandes modelos de IA. Continúa leyendo «OpenAI se sube a la nube de Google: Qué significa para la carrera de la inteligencia artificial»

¿CPU, GPU o TPU? Entendiendo la diferencia con el nuevo TPU Trillium de Google

En el mundo de la tecnología, es fácil perderse entre términos como CPU, GPU y TPU, especialmente ahora que Google ha lanzado en vista previa su último chip, el TPU Trillium. Este procesador marca un nuevo estándar en eficiencia energética y potencia de procesamiento para aplicaciones de inteligencia artificial, pero ¿qué diferencia a un TPU de un CPU o GPU, y por qué importa?

Continúa leyendo «¿CPU, GPU o TPU? Entendiendo la diferencia con el nuevo TPU Trillium de Google»