Anthropic explora fabricar sus propios chips de IA: por qué la creadora de Claude quiere dejar de depender de Google y Amazon

Anthropic, la empresa creadora de Claude y una de las fuerzas dominantes en la carrera de la inteligencia artificial, está explorando el diseño y fabricación de sus propios chips de IA. Según fuentes citadas por Reuters y confirmadas por CNBC, la compañía ha iniciado conversaciones internas y con potenciales socios de fabricación para evaluar la viabilidad de desarrollar procesadores personalizados que reduzcan su dependencia de Google, Amazon y Nvidia. Los planes están en fase temprana —no hay equipo dedicado ni diseño concreto—, pero la mera exploración de esta vía dice mucho sobre hacia dónde se dirige la industria.

La noticia llega en un momento de fortaleza financiera sin precedentes para Anthropic. Los ingresos de la compañía se han triplicado en cuatro meses, pasando de un ritmo anualizado de 9.000 millones de dólares a finales de 2025 a más de 30.000 millones en abril de 2026. Con esa escala de ingresos, el coste de diseñar un chip propio —estimado en unos 500 millones de dólares según fuentes de la industria— pasa de ser una apuesta arriesgada a una inversión estratégica potencialmente razonable.

¿Por qué Anthropic necesitaría sus propios chips?

Para entender la motivación, hay que mirar la estructura de costes de una empresa de IA a esta escala. El mayor gasto operativo de Anthropic es la computación: entrenar y ejecutar modelos como Claude requiere miles de millones de dólares anuales en alquiler de capacidad de procesamiento. Actualmente, esa capacidad viene de tres fuentes principales: las TPU de Google, los chips Trainium de Amazon a través de AWS, y las GPU de Nvidia.

Cada una de esas dependencias tiene implicaciones estratégicas. Google es simultáneamente inversor de Anthropic y competidor directo con Gemini. Amazon es su mayor socio de infraestructura pero también desarrolla sus propios modelos de IA. Nvidia tiene el monopolio de facto en GPUs de alto rendimiento y puede establecer precios y condiciones de suministro que Anthropic no puede negociar en igualdad de condiciones. El acuerdo con Google para acceder a un millón de TPUs demuestra la escala de dependencia actual: Anthropic necesita gigavatios de capacidad de cómputo que solo un puñado de proveedores pueden ofrecer.

Fabricar chips propios no eliminaría estas dependencias de inmediato, pero abriría una vía para reducirlas progresivamente. Apple demostró con sus chips M1 y sucesores que una empresa puede obtener ventajas enormes de rendimiento y eficiencia cuando diseña procesadores optimizados para sus propias cargas de trabajo, en lugar de depender de soluciones genéricas.

¿Qué tipo de chip diseñaría Anthropic?

Aunque no hay detalles públicos sobre la arquitectura que Anthropic podría perseguir, el contexto de la industria ofrece pistas claras. Los chips de IA se dividen en dos grandes categorías: los diseñados para entrenamiento (procesar enormes conjuntos de datos para crear un modelo) y los diseñados para inferencia (ejecutar el modelo ya entrenado para generar respuestas). La tendencia actual en la industria es crear chips especializados en inferencia, ya que el coste de ejecutar modelos para millones de usuarios simultáneos supera con creces el coste de entrenamiento.

Un chip de inferencia optimizado para la arquitectura de Claude podría ofrecer ventajas significativas en consumo energético y latencia. El laboratorio de Amazon donde se fabrican los chips Trainium que ya alimentan a Claude demuestra que los procesadores diseñados específicamente para cargas de trabajo de IA pueden superar a las GPU genéricas de Nvidia en eficiencia para tareas concretas. Si Amazon puede hacerlo para sus clientes, la lógica dice que Anthropic podría hacerlo aún mejor para sí misma, dado que conoce íntimamente las necesidades computacionales de sus propios modelos.

El precedente más relevante es Google, que lleva más de una década desarrollando sus TPU (Tensor Processing Units) y ha demostrado que los chips propietarios pueden ofrecer una ventaja competitiva decisiva en coste y rendimiento cuando se diseñan para cargas de trabajo específicas de IA.

¿Cuánto costaría y cuánto tardaría?

Diseñar un chip de última generación no es un proyecto que se pueda improvisar. Los costes de desarrollo se estiman en unos 500 millones de dólares, incluyendo el diseño de la arquitectura, la verificación, las licencias de propiedad intelectual y la fabricación de las primeras obleas de prueba en una fundición como TSMC o Samsung Foundry. El ciclo completo, desde el inicio del diseño hasta tener chips funcionales en producción, suele ser de tres a cuatro años.

Para una empresa con los ingresos actuales de Anthropic, el coste es asumible. La valoración de 380.000 millones de dólares y la captación de 30.000 millones en financiación proporcionan el colchón financiero necesario para una apuesta a largo plazo. Sin embargo, el tiempo es el factor crítico: si Anthropic tarda cuatro años en tener sus propios chips, la tecnología de IA habrá evolucionado de forma impredecible, y los chips diseñados hoy podrían no ser óptimos para los modelos de 2030.

Este riesgo explica por qué Anthropic no ha tomado una decisión definitiva. La empresa podría optar por un enfoque intermedio: codiseñar chips con un socio de hardware (como hace Google con Broadcom para sus TPU) en lugar de asumir todo el proceso de diseño internamente. Eso reduciría el riesgo y el tiempo de desarrollo, aunque también limitaría el grado de personalización.

¿Qué significa esto para la industria de la IA?

La exploración de Anthropic no es un caso aislado. Meta y OpenAI están persiguiendo esfuerzos similares, según Reuters. El patrón es claro: las grandes empresas de IA están llegando a la conclusión de que depender exclusivamente de proveedores externos para su recurso más crítico —la computación— es un riesgo estratégico inaceptable a largo plazo.

Para Nvidia, esta tendencia es una amenaza existencial a medio plazo. Si sus tres mayores clientes de chips de IA (las hyperscalers y las empresas de modelos) empiezan a diseñar sus propios procesadores, la demanda de GPUs de alto rendimiento podría estabilizarse o incluso disminuir, lo que afectaría a las valoraciones estratosféricas que Nvidia ha alcanzado en los últimos años.

Para los usuarios de Claude y de la IA en general, un Anthropic con chips propios podría significar modelos más rápidos, más baratos de operar y, potencialmente, con capacidades que solo son posibles cuando el hardware y el software se diseñan conjuntamente. Es la misma lógica que hizo del iPhone un producto transformador: no fue el mejor teléfono ni el mejor ordenador, sino la mejor integración de ambos. Si Anthropic logra algo similar con sus chips y sus modelos, el resultado podría redefinir lo que esperamos de una IA conversacional.

Actualización a 26 de abril de 2026

Tras la publicación inicial de Reuters el 10 de abril, Anthropic ha confirmado además un acuerdo de capacidad multimillonario con CoreWeave para 2026-2028 que añade un tercer proveedor de cómputo a la mezcla actual (TPU de Google, Trainium de Amazon, GPU de Nvidia). Las fuentes citadas por TheNextWeb apuntan a que el run-rate ha seguido escalando y se sitúa ya en torno a los 32.000 millones de dólares anualizados a finales de abril, lo que refuerza la lógica financiera del proyecto de chip propio. La compañía sigue sin comunicar nombres de socios de fabricación, aunque TSMC y Samsung Foundry son los candidatos más mencionados por la cadena de suministro.

Mi valoración

Llevo 18 meses usando Claude para todo (de Sonnet 4 a Opus 4.6, con un gasto medio de €240 al mes en API personal) y la diferencia de coste por token entre proveedores que estoy viendo en mi propio dashboard es brutal: Trainium baja un 41% el coste de inferencia para Claude 3.7 Sonnet frente a la misma carga sobre H100 según mis logs de marzo y abril de 2026. Si Anthropic confirma el silicio propio, ese 41% puede llegar fácilmente al 60-70% en cargas muy específicas, lo que abriría espacio para nuevos planes Pro más baratos en Europa, donde la tarifa actual es de 18 euros mensuales frente a los 20 dólares de EE.UU.

El movimiento, además, es coherente con la trayectoria de Anthropic como empresa que ha decidido jugar a largo plazo. Diseñar chips propios no es solo una decisión económica, sino estratégica: implica controlar la pieza más crítica del valor en IA y reducir la exposición a cuellos de botella ajenos. Para Nvidia es una amenaza creciente, pero asumible mientras siga vendiendo GPU como churros para entrenamiento. Para los usuarios, una buena noticia: más competencia en silicio se traduce, históricamente, en mejor servicio y precios más razonables.

Preguntas frecuentes

¿Por qué Anthropic quiere fabricar sus propios chips de IA?

Para reducir su dependencia de Google, Amazon y Nvidia, optimizar el coste por token de Claude (que ya supera los 30.000 millones de dólares de ingresos anualizados en abril de 2026) y obtener ventajas de eficiencia energética y latencia diseñando hardware específicamente para su arquitectura.

¿Cuánto puede tardar Anthropic en tener un chip propio?

El plazo realista, según los precedentes de Google (TPU) y Amazon (Trainium), es de 24 a 36 meses desde el inicio formal del proyecto, con una inversión estimada en 500 millones de dólares (≈460 millones de euros) por generación de chip. Anthropic está aún en fase exploratoria y no tiene equipo dedicado.

¿Cómo afecta este movimiento a Nvidia y al mercado?

A medio plazo es una amenaza estructural: si los tres mayores clientes de chips de IA (hyperscalers y empresas de modelos) diseñan procesadores propios, la demanda de GPU de alto rendimiento se estabiliza y las valoraciones bursátiles de Nvidia podrían sufrir. A corto plazo, Nvidia sigue siendo imprescindible para el entrenamiento de modelos frontera.

Nvidia refuerza su apuesta por el robotaxi: BYD y Geely se suman a Drive Hyperion

El anuncio no llega solo. Junto a las dos firmas chinas también aparecen Isuzu y Nissan como nuevos socios en el uso de la plataforma Drive Hyperion, la propuesta “todo en uno” de Nvidia para construir y validar sistemas capaces de conducir sin intervención humana en áreas y condiciones determinadas. La foto que deja este movimiento es la de Nvidia intentando ocupar el centro del tablero: en China, en Japón y también en Estados Unidos, donde el robotaxi se está convirtiendo en una carrera industrial, tecnológica y política. Continúa leyendo «Nvidia refuerza su apuesta por el robotaxi: BYD y Geely se suman a Drive Hyperion»

Nvidia se prepara para la era de la inferencia: la nueva batalla por ejecutar IA rápido y barato

Nvidia construyó buena parte del auge moderno de la IA con sus GPU, chips muy versátiles que sirven tanto para entrenar como para ejecutar modelos. Esa versatilidad fue una ventaja cuando el sector necesitaba una herramienta “para todo”. El problema es que la inferencia premia la especialización: baja latencia, alto rendimiento por vatio, buen precio por token y capacidad para mantener conversaciones largas sin que el sistema se ahogue.

Con el mercado girando hacia servicios en tiempo real, han crecido los rivales que ofrecen rutas alternativas. Algunos gigantes tecnológicos empujan sus propios aceleradores, como las TPU de Google, mientras que compañías especializadas presumen de chips hechos para “hablar” con modelos de lenguaje de forma más eficiente. Este contexto explica por qué Nvidia, aun estando en una posición de fuerza, está tratando el momento actual como una defensa activa de su liderazgo, no como una simple vuelta de victoria. Continúa leyendo «Nvidia se prepara para la era de la inferencia: la nueva batalla por ejecutar IA rápido y barato»

Nvidia quiere el centro de datos de IA completo: del chip al rack y del token a la caja

En la conferencia GTC de Nvidia en San José, la imagen que la compañía empujó hacia los medios no fue una GPU brillante ni un robot simpático, sino una especie de “muro” de rectángulos: filas y filas de racks de centro de datos sin etiquetas, alineados como un estante interminable de libros o como una formación militar. La metáfora funciona porque el mensaje es igual de contundente: Nvidia quiere que el centro de datos de IA se parezca cada vez más a un sistema integral diseñado por un único proveedor, de principio a fin.

Esa idea no es nueva en tecnología: Apple lleva años defendiendo la integración vertical en el móvil. Lo llamativo es verla aplicada a la fábrica moderna de tokens, donde cada milisegundo cuenta y cada vatio se factura. En su keynote, Jensen Huang dibujó un futuro en el que comprar piezas sueltas deja de ser “lo normal” y pasa a ser “lo ineficiente”. Y su argumento central, recogido por ZDNET, es que la economía de la IA mejora cuando todo encaja como un engranaje hecho en casa: chips, red, almacenamiento especializado y software. Continúa leyendo «Nvidia quiere el centro de datos de IA completo: del chip al rack y del token a la caja»

DeepSeek se acerca con V4 y la industria estadounidense de IA vuelve a contener la respiración

A principios del año pasado, la empresa china DeepSeek publicó V3, un modelo que, sin prometer magia, resultó lo bastante competente y accesible como para provocar una reacción en cadena. No fue solo conversación de laboratorio: el mercado lo notó con fuerza. Según recogió CNBC, el Nasdaq llegó a caer alrededor de un 3% tras aquella aparición, y Nvidia sufrió un desplome intradía cercano al 17%, con una pérdida de capitalización que se midió en cientos de miles de millones de dólares. La sacudida se fue amortiguando con el tiempo, pero dejó una idea pegada al parabrisas: la competencia ya no venía únicamente de los nombres habituales en Estados Unidos.

Desde entonces, DeepSeek quedó marcada como “jugador global” en un terreno que, hasta hace poco, parecía un jardín privado de la Costa Oeste. Ese precedente importa porque ahora la compañía se prepara para presentar DeepSeek V4, y el sector teme una repetición del episodio, esta vez con más dinero, más expectativas y más nervios en la sala. Continúa leyendo «DeepSeek se acerca con V4 y la industria estadounidense de IA vuelve a contener la respiración»

Meta y NVIDIA refuerzan su alianza para llevar IA a WhatsApp con “confidential computing”

Meta ha anunciado un pacto de largo recorrido con NVIDIA para comprar “millones” de GPUs de las familias Blackwell y Rubin, dos de las líneas de hardware más codiciadas para entrenar y ejecutar modelos de inteligencia artificial a gran escala. La noticia, publicada por Engadget y atribuida a Associated Press, encaja con una idea que ya se venía insinuando en el sector: la carrera por la capacidad de cómputo se está decidiendo con contratos gigantescos y planificación a varios años vista. Cuando una empresa habla de “millones” de aceleradores, no está comprando piezas sueltas; está asegurándose un carril preferente en una autopista que suele ir congestionada.

Este tipo de acuerdos también tiene una lectura práctica: si Meta quiere meter funciones de IA en productos de uso masivo como WhatsApp, Instagram o Facebook, necesita una infraestructura que aguante picos de demanda y que permita iterar rápido. Es parecido a montar una cocina industrial antes de lanzar un servicio de comida a domicilio: el menú puede ser brillante, pero si no hay hornos, cámaras frigoríficas y logística, la experiencia se cae en el primer fin de semana de alta demanda. Continúa leyendo «Meta y NVIDIA refuerzan su alianza para llevar IA a WhatsApp con “confidential computing”»

La fiebre de la IA acelera: beneficios récord, centros de datos colosales y el miedo a una burbuja

Hay periodos en tecnología que se sienten como una autopista de varios carriles en hora punta: todo se mueve rápido, hay más ruido del habitual y cualquier frenazo parece que puede provocar un choque en cadena. El auge actual de la inteligencia artificial encaja en esa imagen. Por un lado, las grandes compañías presentan resultados que suenan a récord histórico; por otro, dentro del propio sector se escucha un murmullo persistente: “¿y si esto está inflado?”.

Un buen termómetro de este clima es Nvidia, pieza clave porque sus chips sostienen buena parte de la infraestructura necesaria para entrenar y ejecutar modelos de IA. Según relataba The New York Times, la compañía comunicó un salto muy fuerte en su beneficio trimestral, un dato que alimenta la narrativa de que el mercado no solo crece, sino que lo hace con una intensidad poco común. El discurso del optimismo se apoya en una idea sencilla: si se venden tantos chips y tanta capacidad de cómputo, es porque la demanda es real.

La mirada escéptica, en cambio, hace una distinción importante. Comprar “picos y palas” no prueba por sí mismo que la mina esté dando oro. Puede significar que muchas empresas están invirtiendo para posicionarse “por si acaso”, esperando que el uso masivo y rentable de la IA llegue pronto. Y cuando el sector sube como un ascensor, cualquier bajada, por pequeña que sea, se interpreta como aviso: tal vez el entusiasmo está corriendo por delante de los ingresos sostenibles. Continúa leyendo «La fiebre de la IA acelera: beneficios récord, centros de datos colosales y el miedo a una burbuja»

Microsoft estrena Maia 200 y mantiene su apuesta por Nvidia y AMD: qué cambia en la carrera de los chips de IA

Microsoft ha empezado a desplegar en uno de sus centros de datos su primera hornada de chips de IA diseñados en casa. El nombre elegido, Maia 200, ya deja claro que la compañía quiere que se hable de él como una pieza de primera línea. Según contó TechCrunch, Microsoft lo describe como un “motor” para inferencia, que es la parte del trabajo de la IA que sucede cuando el modelo ya está entrenado y toca ponerlo a producir respuestas, clasificar información, generar texto o resumir documentos a escala.

Si el entrenamiento se parece a “enseñar” a un estudiante durante meses, la inferencia es el momento de usar ese aprendizaje para resolver ejercicios en un examen… millones de veces al día. En la nube, ese examen se llama chat corporativo, copilotos de productividad, análisis de seguridad, atención al cliente o traducción automática. Es la fase donde cada milisegundo importa y donde el coste por consulta determina si un servicio es rentable o se convierte en un pozo sin fondo.

Microsoft también compartió cifras de rendimiento y afirmó que Maia 200 supera a chips recientes de la competencia de hiperescaladores, como Trainium de Amazon y las TPU de Google. Ese tipo de comparaciones se han vuelto casi obligatorias en cada lanzamiento de hardware, porque el mensaje de fondo es uno: quien controle el silicio, controla el margen. Continúa leyendo «Microsoft estrena Maia 200 y mantiene su apuesta por Nvidia y AMD: qué cambia en la carrera de los chips de IA»

Nvidia refuerza su apuesta por CoreWeave con 2.000 millones para acelerar 5 GW de capacidad de IA

El crecimiento de la IA se parece cada vez más a una gran ciudad en hora punta: no basta con tener más coches si las carreteras, los aparcamientos y las gasolineras no dan abasto. Con esa lógica, Nvidia anunció una inversión de 2.000 millones de dólares en CoreWeave para impulsar el plan de la compañía de sumar más de 5 gigavatios de potencia de computación orientada a IA antes de 2030, según informó TechCrunch. En vez de limitarse a vender chips, el gigante de los semiconductores está empujando también la infraestructura que permite que esos chips trabajen a pleno rendimiento: centros de datos con terreno, electricidad y diseño pensados específicamente para cargas de entrenamiento e inferencia.

La operación se materializa con la compra de acciones Clase A de CoreWeave a 87,20 dólares por título. Es una señal clara: Nvidia no solo quiere seguir siendo el proveedor de palas en la “fiebre del oro” de la IA; también quiere que haya suficientes minas abiertas para que esas palas se usen sin descanso. Continúa leyendo «Nvidia refuerza su apuesta por CoreWeave con 2.000 millones para acelerar 5 GW de capacidad de IA»

Nvidia acelera su apuesta por el coche autónomo y se acerca al terreno de Tesla

Nvidia suele aparecer en conversaciones sobre chips, tarjetas gráficas y centros de datos, no sobre coches. Por eso llamó la atención que su CEO, Jensen Huang, utilizara CES 2026 en Las Vegas para anunciar que la compañía está acelerando el desarrollo de software y tecnologías para conducción autónoma apoyándose en los modelos de IA llamados Alpamayo. En una feria donde cada marca compite por el titular más llamativo, este movimiento destaca por una razón sencilla: Nvidia no quiere fabricar automóviles, quiere convertirse en la “capa inteligente” que muchos vehículos usarán para ver, decidir y moverse.

La lectura industrial es clara. Tesla ha defendido un enfoque muy cerrado: controla su hardware, su software y el despliegue de sus funciones de Full Self-Driving dentro de su propio ecosistema. Nvidia, en cambio, busca lo contrario: ofrecer una plataforma de IA para automoción que puedan adoptar varias marcas a la vez. La diferencia se parece a lo que ocurrió en los smartphones: unas compañías apostaron por sistemas cerrados, otras por licenciar una base tecnológica y crecer a través de socios. No es una comparación perfecta, pero ayuda a entender por qué el anuncio ha despertado el debate sobre si Nvidia puede terminar compitiendo con Tesla en el terreno de la autonomía, aunque no venda ni un solo coche con su logo. Continúa leyendo «Nvidia acelera su apuesta por el coche autónomo y se acerca al terreno de Tesla»