Anthropic explora fabricar sus propios chips de IA: por qué la creadora de Claude quiere dejar de depender de Google y Amazon

Anthropic, la empresa creadora de Claude y una de las fuerzas dominantes en la carrera de la inteligencia artificial, está explorando el diseño y fabricación de sus propios chips de IA. Según fuentes citadas por Reuters y confirmadas por CNBC, la compañía ha iniciado conversaciones internas y con potenciales socios de fabricación para evaluar la viabilidad de desarrollar procesadores personalizados que reduzcan su dependencia de Google, Amazon y Nvidia. Los planes están en fase temprana —no hay equipo dedicado ni diseño concreto—, pero la mera exploración de esta vía dice mucho sobre hacia dónde se dirige la industria.

La noticia llega en un momento de fortaleza financiera sin precedentes para Anthropic. Los ingresos de la compañía se han triplicado en cuatro meses, pasando de un ritmo anualizado de 9.000 millones de dólares a finales de 2025 a más de 30.000 millones en abril de 2026. Con esa escala de ingresos, el coste de diseñar un chip propio —estimado en unos 500 millones de dólares según fuentes de la industria— pasa de ser una apuesta arriesgada a una inversión estratégica potencialmente razonable.

¿Por qué Anthropic necesitaría sus propios chips?

Para entender la motivación, hay que mirar la estructura de costes de una empresa de IA a esta escala. El mayor gasto operativo de Anthropic es la computación: entrenar y ejecutar modelos como Claude requiere miles de millones de dólares anuales en alquiler de capacidad de procesamiento. Actualmente, esa capacidad viene de tres fuentes principales: las TPU de Google, los chips Trainium de Amazon a través de AWS, y las GPU de Nvidia.

Cada una de esas dependencias tiene implicaciones estratégicas. Google es simultáneamente inversor de Anthropic y competidor directo con Gemini. Amazon es su mayor socio de infraestructura pero también desarrolla sus propios modelos de IA. Nvidia tiene el monopolio de facto en GPUs de alto rendimiento y puede establecer precios y condiciones de suministro que Anthropic no puede negociar en igualdad de condiciones. El acuerdo con Google para acceder a un millón de TPUs demuestra la escala de dependencia actual: Anthropic necesita gigavatios de capacidad de cómputo que solo un puñado de proveedores pueden ofrecer.

Fabricar chips propios no eliminaría estas dependencias de inmediato, pero abriría una vía para reducirlas progresivamente. Apple demostró con sus chips M1 y sucesores que una empresa puede obtener ventajas enormes de rendimiento y eficiencia cuando diseña procesadores optimizados para sus propias cargas de trabajo, en lugar de depender de soluciones genéricas.

¿Qué tipo de chip diseñaría Anthropic?

Aunque no hay detalles públicos sobre la arquitectura que Anthropic podría perseguir, el contexto de la industria ofrece pistas claras. Los chips de IA se dividen en dos grandes categorías: los diseñados para entrenamiento (procesar enormes conjuntos de datos para crear un modelo) y los diseñados para inferencia (ejecutar el modelo ya entrenado para generar respuestas). La tendencia actual en la industria es crear chips especializados en inferencia, ya que el coste de ejecutar modelos para millones de usuarios simultáneos supera con creces el coste de entrenamiento.

Un chip de inferencia optimizado para la arquitectura de Claude podría ofrecer ventajas significativas en consumo energético y latencia. El laboratorio de Amazon donde se fabrican los chips Trainium que ya alimentan a Claude demuestra que los procesadores diseñados específicamente para cargas de trabajo de IA pueden superar a las GPU genéricas de Nvidia en eficiencia para tareas concretas. Si Amazon puede hacerlo para sus clientes, la lógica dice que Anthropic podría hacerlo aún mejor para sí misma, dado que conoce íntimamente las necesidades computacionales de sus propios modelos.

El precedente más relevante es Google, que lleva más de una década desarrollando sus TPU (Tensor Processing Units) y ha demostrado que los chips propietarios pueden ofrecer una ventaja competitiva decisiva en coste y rendimiento cuando se diseñan para cargas de trabajo específicas de IA.

¿Cuánto costaría y cuánto tardaría?

Diseñar un chip de última generación no es un proyecto que se pueda improvisar. Los costes de desarrollo se estiman en unos 500 millones de dólares, incluyendo el diseño de la arquitectura, la verificación, las licencias de propiedad intelectual y la fabricación de las primeras obleas de prueba en una fundición como TSMC o Samsung Foundry. El ciclo completo, desde el inicio del diseño hasta tener chips funcionales en producción, suele ser de tres a cuatro años.

Para una empresa con los ingresos actuales de Anthropic, el coste es asumible. La valoración de 380.000 millones de dólares y la captación de 30.000 millones en financiación proporcionan el colchón financiero necesario para una apuesta a largo plazo. Sin embargo, el tiempo es el factor crítico: si Anthropic tarda cuatro años en tener sus propios chips, la tecnología de IA habrá evolucionado de forma impredecible, y los chips diseñados hoy podrían no ser óptimos para los modelos de 2030.

Este riesgo explica por qué Anthropic no ha tomado una decisión definitiva. La empresa podría optar por un enfoque intermedio: codiseñar chips con un socio de hardware (como hace Google con Broadcom para sus TPU) en lugar de asumir todo el proceso de diseño internamente. Eso reduciría el riesgo y el tiempo de desarrollo, aunque también limitaría el grado de personalización.

¿Qué significa esto para la industria de la IA?

La exploración de Anthropic no es un caso aislado. Meta y OpenAI están persiguiendo esfuerzos similares, según Reuters. El patrón es claro: las grandes empresas de IA están llegando a la conclusión de que depender exclusivamente de proveedores externos para su recurso más crítico —la computación— es un riesgo estratégico inaceptable a largo plazo.

Para Nvidia, esta tendencia es una amenaza existencial a medio plazo. Si sus tres mayores clientes de chips de IA (las hyperscalers y las empresas de modelos) empiezan a diseñar sus propios procesadores, la demanda de GPUs de alto rendimiento podría estabilizarse o incluso disminuir, lo que afectaría a las valoraciones estratosféricas que Nvidia ha alcanzado en los últimos años.

Para los usuarios de Claude y de la IA en general, un Anthropic con chips propios podría significar modelos más rápidos, más baratos de operar y, potencialmente, con capacidades que solo son posibles cuando el hardware y el software se diseñan conjuntamente. Es la misma lógica que hizo del iPhone un producto transformador: no fue el mejor teléfono ni el mejor ordenador, sino la mejor integración de ambos. Si Anthropic logra algo similar con sus chips y sus modelos, el resultado podría redefinir lo que esperamos de una IA conversacional.

Nvidia se prepara para la era de la inferencia: la nueva batalla por ejecutar IA rápido y barato

Nvidia construyó buena parte del auge moderno de la IA con sus GPU, chips muy versátiles que sirven tanto para entrenar como para ejecutar modelos. Esa versatilidad fue una ventaja cuando el sector necesitaba una herramienta “para todo”. El problema es que la inferencia premia la especialización: baja latencia, alto rendimiento por vatio, buen precio por token y capacidad para mantener conversaciones largas sin que el sistema se ahogue.

Con el mercado girando hacia servicios en tiempo real, han crecido los rivales que ofrecen rutas alternativas. Algunos gigantes tecnológicos empujan sus propios aceleradores, como las TPU de Google, mientras que compañías especializadas presumen de chips hechos para “hablar” con modelos de lenguaje de forma más eficiente. Este contexto explica por qué Nvidia, aun estando en una posición de fuerza, está tratando el momento actual como una defensa activa de su liderazgo, no como una simple vuelta de victoria. Continúa leyendo «Nvidia se prepara para la era de la inferencia: la nueva batalla por ejecutar IA rápido y barato»

Meta prepara una nueva hornada de chips MTIA para IA: qué son y por qué importan

Meta lleva tiempo comprando “electrodomésticos” de alta gama para su infraestructura de inteligencia artificial, sobre todo aceleradores de compañías como Nvidia y también AMD. Lo nuevo es que la empresa ha presentado una hoja de ruta con cuatro chips propios, pensados para dos tareas que hoy le consumen cantidades gigantescas de cómputo: las funciones de IA generativa dentro de sus apps y los sistemas de ranking y recomendación que deciden qué ves primero en Instagram, Facebook o Threads. La noticia se conoció el 11 de marzo de 2026 y sitúa a Meta en la misma carrera que otros gigantes tecnológicos: diseñar parte del “motor” en casa para no depender al 100% de proveedores externos.

La lógica es fácil de entender con un ejemplo cotidiano. Si cada día cocinas para millones de personas, te interesa que los hornos estén ajustados a tu menú, no a una carta genérica. Un chip generalista es como un horno industrial que sirve para casi todo; un chip propio puede ser un horno afinado para tu receta concreta, con mejor consumo energético y, con suerte, menor coste por plato. Reuters subraya justo ese punto: chips diseñados para los cálculos específicos de Meta pueden reducir energía y mejorar la relación coste/eficiencia. Continúa leyendo «Meta prepara una nueva hornada de chips MTIA para IA: qué son y por qué importan»

Microsoft estrena Maia 200 y mantiene su apuesta por Nvidia y AMD: qué cambia en la carrera de los chips de IA

Microsoft ha empezado a desplegar en uno de sus centros de datos su primera hornada de chips de IA diseñados en casa. El nombre elegido, Maia 200, ya deja claro que la compañía quiere que se hable de él como una pieza de primera línea. Según contó TechCrunch, Microsoft lo describe como un “motor” para inferencia, que es la parte del trabajo de la IA que sucede cuando el modelo ya está entrenado y toca ponerlo a producir respuestas, clasificar información, generar texto o resumir documentos a escala.

Si el entrenamiento se parece a “enseñar” a un estudiante durante meses, la inferencia es el momento de usar ese aprendizaje para resolver ejercicios en un examen… millones de veces al día. En la nube, ese examen se llama chat corporativo, copilotos de productividad, análisis de seguridad, atención al cliente o traducción automática. Es la fase donde cada milisegundo importa y donde el coste por consulta determina si un servicio es rentable o se convierte en un pozo sin fondo.

Microsoft también compartió cifras de rendimiento y afirmó que Maia 200 supera a chips recientes de la competencia de hiperescaladores, como Trainium de Amazon y las TPU de Google. Ese tipo de comparaciones se han vuelto casi obligatorias en cada lanzamiento de hardware, porque el mensaje de fondo es uno: quien controle el silicio, controla el margen. Continúa leyendo «Microsoft estrena Maia 200 y mantiene su apuesta por Nvidia y AMD: qué cambia en la carrera de los chips de IA»

Nvidia mueve ficha con Vera Rubin: la nueva plataforma de chips de IA que busca mantener su ventaja

Nvidia eligió el escenario más ruidoso del año tecnológico, el Consumer Electronics Show (CES) de Las Vegas, para enseñar su siguiente gran apuesta en chips de IA. Durante la keynote de Jensen Huang, la compañía desgranó su nueva plataforma Vera Rubin, un nombre que rinde homenaje a la astrónoma estadounidense Vera Rubin y que llega con un mensaje claro: Nvidia quiere seguir siendo el proveedor de referencia en el hardware que alimenta los modelos de inteligencia artificial. La información, difundida por AFP a través de Tech Xplore/Science X Network, sitúa este anuncio como una respuesta directa a un mercado que se ha vuelto mucho más competitivo y, sobre todo, menos paciente.

La razón es fácil de entender si se piensa en los centros de datos como cocinas industriales. Durante años, Nvidia ha sido el fabricante de los “fogones” preferidos para cocinar IA a gran escala. Esa ventaja se ha traducido en una posición dominante: la empresa mantiene una cuota estimada cercana al 80% del mercado global de chips para centros de datos orientados a IA, según el mismo despacho. Continúa leyendo «Nvidia mueve ficha con Vera Rubin: la nueva plataforma de chips de IA que busca mantener su ventaja»

Anthropic refuerza su alianza con Google para escalar Claude con millones de chips de IA

Anthropic, la empresa detrás del asistente de IA Claude, acaba de sellar un acuerdo multimillonario con Google que podría transformar significativamente su capacidad operativa. Esta alianza no se limita a una colaboración comercial habitual: implica acceso preferente a una cantidad sin precedentes de potencia de cómputo a través de los chips de inteligencia artificial de Google, conocidos como TPUs (Tensor Processing Units).

El acuerdo permitirá a Anthropic utilizar hasta un millón de TPUs en los próximos años, lo que se traduce en una potencia equivalente a más de un gigavatio de capacidad disponible a partir de 2026. Para poner esto en contexto, un gigavatio es suficiente para abastecer de electricidad a unas 350.000 viviendas, según la Administración de Información Energética de Estados Unidos. En el mundo de la inteligencia artificial, esta cifra representa una infraestructura colosal para entrenar y desplegar modelos avanzados como Claude. Continúa leyendo «Anthropic refuerza su alianza con Google para escalar Claude con millones de chips de IA»

OpenAI prepara su propio chip de IA junto a Broadcom para reducir su dependencia de Nvidia

La industria de la inteligencia artificial se encuentra en plena transformación, y uno de los movimientos más significativos lo está protagonizando OpenAI, la empresa responsable de ChatGPT, al comenzar el desarrollo de su propio chip de inteligencia artificial. Esta decisión marca un paso clave en su estrategia para reducir su dependencia de terceros como Nvidia, cuya hegemonía en el sector de los chips ha generado cuellos de botella globales en la cadena de suministro.

OpenAI no está sola en esta carrera. El interés por diseñar chips propios se ha convertido en una tendencia entre los gigantes tecnológicos, como Amazon, Meta y Microsoft, que buscan controlar más aspectos de su infraestructura tecnológica. Pero lo que diferencia el caso de OpenAI es el acuerdo de colaboración con Broadcom, una alianza que se estima tiene un valor de 10.000 millones de dólares. Continúa leyendo «OpenAI prepara su propio chip de IA junto a Broadcom para reducir su dependencia de Nvidia»

FuriosaAI se afianza como actor clave en chips para IA tras alianza con LG

La startup surcoreana FuriosaAI ha dado un paso firme hacia su consolidación en el competitivo mercado de los chips para inteligencia artificial, al firmar un acuerdo de gran envergadura con LG AI Research. La colaboración se centra en el suministro de su chip especializado RNGD, optimizado para ejecutar modelos de lenguaje de gran escala (LLM), en el marco de la plataforma EXAONE 4.0, recientemente presentada por LG. Continúa leyendo «FuriosaAI se afianza como actor clave en chips para IA tras alianza con LG»

Nvidia se acerca a los 4 billones de dólares: una nueva cima en la era de la inteligencia artificial

La compañía Nvidia ha logrado un hito que pocos podrían haber anticipado hace tan solo unos años: su valor de mercado alcanzó los 3,92 billones de dólares en operaciones intradía, superando momentáneamente el récord anterior de Apple. Aunque cerró el día ligeramente por debajo, en 3,89 billones (trillions, en inglés), el mensaje fue claro: Nvidia está a un paso de convertirse en la primera empresa tecnológica en llegar a los 4 billones de valor bursátil.

Continúa leyendo «Nvidia se acerca a los 4 billones de dólares: una nueva cima en la era de la inteligencia artificial»

Nvidia enfrenta un duro golpe financiero por restricciones a chips de IA en China

Las tensiones comerciales entre Estados Unidos y China han alcanzado un nuevo nivel en el sector tecnológico, y Nvidia es uno de los actores más perjudicados. La compañía ha revelado que las recientes restricciones del gobierno de Donald Trump para la exportación de chips de inteligencia artificial (IA) están afectando gravemente su negocio, particularmente en lo que respecta a su chip H20, diseñado para centros de datos de alto rendimiento. Continúa leyendo «Nvidia enfrenta un duro golpe financiero por restricciones a chips de IA en China»