Anthropic explora fabricar sus propios chips de IA: por qué la creadora de Claude quiere dejar de depender de Google y Amazon

Anthropic, la empresa creadora de Claude y una de las fuerzas dominantes en la carrera de la inteligencia artificial, está explorando el diseño y fabricación de sus propios chips de IA. Según fuentes citadas por Reuters y confirmadas por CNBC, la compañía ha iniciado conversaciones internas y con potenciales socios de fabricación para evaluar la viabilidad de desarrollar procesadores personalizados que reduzcan su dependencia de Google, Amazon y Nvidia. Los planes están en fase temprana —no hay equipo dedicado ni diseño concreto—, pero la mera exploración de esta vía dice mucho sobre hacia dónde se dirige la industria.

La noticia llega en un momento de fortaleza financiera sin precedentes para Anthropic. Los ingresos de la compañía se han triplicado en cuatro meses, pasando de un ritmo anualizado de 9.000 millones de dólares a finales de 2025 a más de 30.000 millones en abril de 2026. Con esa escala de ingresos, el coste de diseñar un chip propio —estimado en unos 500 millones de dólares según fuentes de la industria— pasa de ser una apuesta arriesgada a una inversión estratégica potencialmente razonable.

¿Por qué Anthropic necesitaría sus propios chips?

Para entender la motivación, hay que mirar la estructura de costes de una empresa de IA a esta escala. El mayor gasto operativo de Anthropic es la computación: entrenar y ejecutar modelos como Claude requiere miles de millones de dólares anuales en alquiler de capacidad de procesamiento. Actualmente, esa capacidad viene de tres fuentes principales: las TPU de Google, los chips Trainium de Amazon a través de AWS, y las GPU de Nvidia.

Cada una de esas dependencias tiene implicaciones estratégicas. Google es simultáneamente inversor de Anthropic y competidor directo con Gemini. Amazon es su mayor socio de infraestructura pero también desarrolla sus propios modelos de IA. Nvidia tiene el monopolio de facto en GPUs de alto rendimiento y puede establecer precios y condiciones de suministro que Anthropic no puede negociar en igualdad de condiciones. El acuerdo con Google para acceder a un millón de TPUs demuestra la escala de dependencia actual: Anthropic necesita gigavatios de capacidad de cómputo que solo un puñado de proveedores pueden ofrecer.

Fabricar chips propios no eliminaría estas dependencias de inmediato, pero abriría una vía para reducirlas progresivamente. Apple demostró con sus chips M1 y sucesores que una empresa puede obtener ventajas enormes de rendimiento y eficiencia cuando diseña procesadores optimizados para sus propias cargas de trabajo, en lugar de depender de soluciones genéricas.

¿Qué tipo de chip diseñaría Anthropic?

Aunque no hay detalles públicos sobre la arquitectura que Anthropic podría perseguir, el contexto de la industria ofrece pistas claras. Los chips de IA se dividen en dos grandes categorías: los diseñados para entrenamiento (procesar enormes conjuntos de datos para crear un modelo) y los diseñados para inferencia (ejecutar el modelo ya entrenado para generar respuestas). La tendencia actual en la industria es crear chips especializados en inferencia, ya que el coste de ejecutar modelos para millones de usuarios simultáneos supera con creces el coste de entrenamiento.

Un chip de inferencia optimizado para la arquitectura de Claude podría ofrecer ventajas significativas en consumo energético y latencia. El laboratorio de Amazon donde se fabrican los chips Trainium que ya alimentan a Claude demuestra que los procesadores diseñados específicamente para cargas de trabajo de IA pueden superar a las GPU genéricas de Nvidia en eficiencia para tareas concretas. Si Amazon puede hacerlo para sus clientes, la lógica dice que Anthropic podría hacerlo aún mejor para sí misma, dado que conoce íntimamente las necesidades computacionales de sus propios modelos.

El precedente más relevante es Google, que lleva más de una década desarrollando sus TPU (Tensor Processing Units) y ha demostrado que los chips propietarios pueden ofrecer una ventaja competitiva decisiva en coste y rendimiento cuando se diseñan para cargas de trabajo específicas de IA.

¿Cuánto costaría y cuánto tardaría?

Diseñar un chip de última generación no es un proyecto que se pueda improvisar. Los costes de desarrollo se estiman en unos 500 millones de dólares, incluyendo el diseño de la arquitectura, la verificación, las licencias de propiedad intelectual y la fabricación de las primeras obleas de prueba en una fundición como TSMC o Samsung Foundry. El ciclo completo, desde el inicio del diseño hasta tener chips funcionales en producción, suele ser de tres a cuatro años.

Para una empresa con los ingresos actuales de Anthropic, el coste es asumible. La valoración de 380.000 millones de dólares y la captación de 30.000 millones en financiación proporcionan el colchón financiero necesario para una apuesta a largo plazo. Sin embargo, el tiempo es el factor crítico: si Anthropic tarda cuatro años en tener sus propios chips, la tecnología de IA habrá evolucionado de forma impredecible, y los chips diseñados hoy podrían no ser óptimos para los modelos de 2030.

Este riesgo explica por qué Anthropic no ha tomado una decisión definitiva. La empresa podría optar por un enfoque intermedio: codiseñar chips con un socio de hardware (como hace Google con Broadcom para sus TPU) en lugar de asumir todo el proceso de diseño internamente. Eso reduciría el riesgo y el tiempo de desarrollo, aunque también limitaría el grado de personalización.

¿Qué significa esto para la industria de la IA?

La exploración de Anthropic no es un caso aislado. Meta y OpenAI están persiguiendo esfuerzos similares, según Reuters. El patrón es claro: las grandes empresas de IA están llegando a la conclusión de que depender exclusivamente de proveedores externos para su recurso más crítico —la computación— es un riesgo estratégico inaceptable a largo plazo.

Para Nvidia, esta tendencia es una amenaza existencial a medio plazo. Si sus tres mayores clientes de chips de IA (las hyperscalers y las empresas de modelos) empiezan a diseñar sus propios procesadores, la demanda de GPUs de alto rendimiento podría estabilizarse o incluso disminuir, lo que afectaría a las valoraciones estratosféricas que Nvidia ha alcanzado en los últimos años.

Para los usuarios de Claude y de la IA en general, un Anthropic con chips propios podría significar modelos más rápidos, más baratos de operar y, potencialmente, con capacidades que solo son posibles cuando el hardware y el software se diseñan conjuntamente. Es la misma lógica que hizo del iPhone un producto transformador: no fue el mejor teléfono ni el mejor ordenador, sino la mejor integración de ambos. Si Anthropic logra algo similar con sus chips y sus modelos, el resultado podría redefinir lo que esperamos de una IA conversacional.

Anthropic duplica los límites de uso de Claude en “horas valle” durante dos semanas

Si usas Claude, es probable que te hayas topado alguna vez con ese “te quedan pocos mensajes” justo cuando estabas cerrando una idea, puliendo un texto o depurando una función. Anthropic ha decidido aliviar un poco esa sensación de “me cortan la conversación” con una promoción temporal: durante un periodo limitado, el servicio ofrece el doble de límite de uso cuando se utiliza fuera de las horas de mayor demanda. La compañía lo presenta como un “pequeño agradecimiento”, pero el movimiento también encaja con una lógica muy de infraestructura: incentivar el uso cuando sus servidores están menos cargados, como cuando la tarifa eléctrica es más barata por la noche. Continúa leyendo «Anthropic duplica los límites de uso de Claude en “horas valle” durante dos semanas»

Anthropic pone números al riesgo laboral de la IA: qué trabajos están más expuestos y por qué

La conversación sobre empleos en riesgo por IA suele moverse entre dos extremos: quienes anuncian un “apocalipsis” inminente y quienes lo reducen a una moda pasajera. En medio, la realidad es más incómoda: hay tareas que la inteligencia artificial ya hace muy bien, otras que hace a medias y un enorme bloque donde, por ahora, ni se asoma. Anthropic, la compañía detrás de Claude, acaba de intentar medir esa frontera con una herramienta propia, y el resultado sugiere que el impacto no será uniforme ni socialmente neutro. Continúa leyendo «Anthropic pone números al riesgo laboral de la IA: qué trabajos están más expuestos y por qué»

Anthropic lleva el Code Review “multiagente” a Claude Code: así funciona su nueva revisión automática de pull requests

Anthropic ha presentado Code Review, una nueva función dentro de Claude Code pensada para revisar pull requests antes de que el código llegue a producción. Según explicó la compañía en un comunicado, la herramienta se ofrece como “research preview” en beta para clientes Team y Enterprise, y busca aliviar un problema que muchas organizaciones ya reconocen: la revisión humana se está convirtiendo en un cuello de botella cuando gran parte del código llega generado o modificado con ayuda de IA. La información se ha conocido a través de Gadgets 360 (NDTV) y de la propia publicación de Anthropic sobre el lanzamiento.

Lo interesante no es solo que “haya un bot que comenta PRs”, porque eso existe desde hace años. El matiz es el enfoque “agentic”: un sistema que despliega varios agentes de IA trabajando en paralelo, con verificación interna para reducir falsos positivos y con priorización por severidad. Traducido a un ejemplo cotidiano: no es una sola persona leyendo un documento con prisa, es un grupo que se reparte capítulos, contrasta dudas entre sí y entrega un resumen final con lo importante subrayado. Continúa leyendo «Anthropic lleva el Code Review “multiagente” a Claude Code: así funciona su nueva revisión automática de pull requests»

Anthropic demanda al Departamento de Defensa por ser marcada como “riesgo en la cadena de suministro”

La relación entre Anthropic y el Departamento de Defensa de Estados Unidos llevaba semanas tensándose, pero el paso de la discusión a la vía judicial cambia el tablero. La compañía, conocida por desarrollar modelos de IA generativa orientados a un uso “responsable”, ha presentado una demanda en un tribunal federal en California tras ser etiquetada por la administración Trump como “supply-chain risk” o riesgo en la cadena de suministro. La acusación central es contundente: el gobierno estaría castigando a la empresa por mantener una postura pública sobre los límites aceptables del uso militar de su tecnología, en especial frente a la vigilancia masiva doméstica y las armas totalmente autónomas.

Lo interesante no es solo el choque entre una firma privada y el aparato de seguridad nacional, sino el tipo de choque. No se discute un fallo técnico o un incumplimiento contractual sin más, sino un “desacuerdo de valores” que, según Anthropic, habría derivado en represalias administrativas. En otras palabras, el debate sobre qué no debe hacer una IA se habría convertido en una herramienta de presión económica y operativa. La información fue publicada por The Verge, que ha seguido el caso dentro de su cobertura sobre el enfrentamiento entre IA y Pentágono. The Verge. Continúa leyendo «Anthropic demanda al Departamento de Defensa por ser marcada como “riesgo en la cadena de suministro”»

Claude Marketplace: el “catálogo corporativo” de Anthropic para comprar herramientas con Claude sin rehacer la burocracia

Anthropic presentó Claude Marketplace como una nueva vía para que empresas ya comprometidas con gasto en Anthropic puedan usar parte de ese presupuesto en herramientas de terceros que incorporan Claude por debajo. La idea es simple de explicar con una escena cotidiana: si tu compañía ya tiene “saldo” en una plataforma, en vez de abrir cuentas nuevas y firmar contratos distintos para cada proveedor, compras desde un único mostrador y recibes una sola factura.

Según la explicación oficial del programa y su FAQ, el Marketplace nace para simplificar procurement y consolidar el gasto en IA. El lanzamiento llega en “limited preview”, lo que en la práctica significa que no es un escaparate abierto para cualquiera: las empresas interesadas deben pasar por su equipo de cuenta y encajar en los criterios de acceso.

Este movimiento también tiene lectura estratégica. Anthropic ha acelerado su cadencia de producto mientras lidia con una disputa pública y compleja con el gobierno de Estados Unidos —VentureBeat la describe como un conflicto “desordenado” con el Departamento de Guerra—, un contexto que empuja a muchas compañías a pedir todavía más claridad contractual, controles y trazabilidad antes de desplegar IA a escala. En ese clima, “centralizar compras y facturación” no suena glamuroso, pero sí tranquilizador. Continúa leyendo «Claude Marketplace: el “catálogo corporativo” de Anthropic para comprar herramientas con Claude sin rehacer la burocracia»

Claude Code incorpora modo voz: programar hablando ya es parte del flujo de trabajo

Programar suele parecerse a cocinar siguiendo una receta: vas leyendo, probando, corrigiendo y volviendo a probar. El teclado es la tabla de cortar y el ratón, el cucharón. Con la llegada del modo voz a Claude Code, Anthropic propone otra forma de moverse por la cocina: pedir acciones en voz alta mientras el asistente ejecuta los cambios. La idea es reducir fricción en tareas repetitivas y abrir un camino más “manos libres” para momentos en los que escribir no es lo más cómodo, como cuando estás revisando un diff, compartiendo pantalla o alternando entre varias ventanas.

Según contó el ingeniero Thariq Shihipar en X, el despliegue es gradual y, por ahora, alcanza a una fracción pequeña de la base de usuarios. La ambición es clara: convertir las interacciones con el asistente de programación en conversaciones más naturales, con menos interrupciones mecánicas. TechCrunch fue uno de los medios que adelantó la novedad y subrayó que se trata de un paso significativo hacia flujos de trabajo más conversacionales. Continúa leyendo «Claude Code incorpora modo voz: programar hablando ya es parte del flujo de trabajo»

Claude quiere que cambies de chatbot sin “empezar de cero”: así funciona su nueva importación de memoria

Cambiar de asistente de IA suele sentirse como mudarse de casa con prisas: tus cosas están, pero en cajas sin etiquetar. Lo que Anthropic propone con su nueva herramienta de importación de memoria para Claude es, básicamente, poner etiquetas a esas cajas. Según ha contado Engadget, la compañía ha creado un método para extraer los recuerdos y el contexto que otro chatbot ha acumulado sobre ti y convertirlo en un texto que luego puedes llevarte a Claude como punto de partida. La idea es que el asistente “te conozca” con cierta continuidad y no tengas que reexplicar tu manera de trabajar, tus preferencias o el tipo de respuestas que sueles pedir.

En la práctica, la memoria en un chatbot no es magia ni una “personalidad” real: es un conjunto de pistas, hábitos y datos resumidos. Cosas como “prefiere respuestas breves”, “está preparando una presentación” o “trabaja con estos temas”. Tenerlo en Claude desde el minuto uno puede marcar diferencia en tareas repetitivas, sobre todo si lo usas como herramienta de productividad. Continúa leyendo «Claude quiere que cambies de chatbot sin “empezar de cero”: así funciona su nueva importación de memoria»

Anthropic y el “tsunami” de la IA: qué hay detrás de la advertencia de Dario Amodei

La metáfora es potente porque apela a un miedo muy humano: ver algo enorme acercarse y no saber si todavía hay tiempo de moverse a terreno alto. El CEO de Anthropic, Dario Amodei, comparó la evolución de la inteligencia artificial con un “tsunami” en el horizonte y sugirió que la sociedad está minimizando señales que, a su juicio, ya son visibles. Lo dijo en una conversación con el inversor indio Nikhil Kamath en el pódcast “WTF Is”, en un episodio recogido por el medio Futurism. El mensaje, más que una predicción concreta, funciona como un aviso emocional: “lo estamos viendo venir y aun así lo negamos”.

Esa idea conecta con una sensación bastante extendida entre quienes trabajan cerca del desarrollo de modelos: cada salto de capacidad parece llegar antes de que terminemos de asimilar el anterior. La cuestión es que, cuando el aviso viene de alguien que lidera una de las empresas que empujan la ola, la metáfora deja de ser solo meteorología y pasa a ser política tecnológica. Continúa leyendo «Anthropic y el “tsunami” de la IA: qué hay detrás de la advertencia de Dario Amodei»

OpenAI firma con el Pentágono tras el choque con Anthropic: qué cambia para la IA en entornos clasificados

El 27 de febrero de 2026, OpenAI anunció un acuerdo con el Pentágono para llevar sus tecnologías de inteligencia artificial a sistemas clasificados. El anuncio llegó con un contexto muy concreto: pocas horas antes, el presidente Donald Trump había ordenado a las agencias federales dejar de usar la tecnología de Anthropic, rival directo de OpenAI. La secuencia importa porque no se trata solo de un contrato más; es un episodio que mezcla geopolítica, competencia empresarial y el debate sobre los límites de la IA cuando se cruza con la seguridad nacional. Según informó The New York Times, el pacto permite el uso “para cualquier propósito lícito”, una condición que el Departamento de Defensa exige en este tipo de contratos. Continúa leyendo «OpenAI firma con el Pentágono tras el choque con Anthropic: qué cambia para la IA en entornos clasificados»