Anthropic explora fabricar sus propios chips de IA: por qué la creadora de Claude quiere dejar de depender de Google y Amazon

Anthropic, la empresa creadora de Claude y una de las fuerzas dominantes en la carrera de la inteligencia artificial, está explorando el diseño y fabricación de sus propios chips de IA. Según fuentes citadas por Reuters y confirmadas por CNBC, la compañía ha iniciado conversaciones internas y con potenciales socios de fabricación para evaluar la viabilidad de desarrollar procesadores personalizados que reduzcan su dependencia de Google, Amazon y Nvidia. Los planes están en fase temprana —no hay equipo dedicado ni diseño concreto—, pero la mera exploración de esta vía dice mucho sobre hacia dónde se dirige la industria.

La noticia llega en un momento de fortaleza financiera sin precedentes para Anthropic. Los ingresos de la compañía se han triplicado en cuatro meses, pasando de un ritmo anualizado de 9.000 millones de dólares a finales de 2025 a más de 30.000 millones en abril de 2026. Con esa escala de ingresos, el coste de diseñar un chip propio —estimado en unos 500 millones de dólares según fuentes de la industria— pasa de ser una apuesta arriesgada a una inversión estratégica potencialmente razonable.

¿Por qué Anthropic necesitaría sus propios chips?

Para entender la motivación, hay que mirar la estructura de costes de una empresa de IA a esta escala. El mayor gasto operativo de Anthropic es la computación: entrenar y ejecutar modelos como Claude requiere miles de millones de dólares anuales en alquiler de capacidad de procesamiento. Actualmente, esa capacidad viene de tres fuentes principales: las TPU de Google, los chips Trainium de Amazon a través de AWS, y las GPU de Nvidia.

Cada una de esas dependencias tiene implicaciones estratégicas. Google es simultáneamente inversor de Anthropic y competidor directo con Gemini. Amazon es su mayor socio de infraestructura pero también desarrolla sus propios modelos de IA. Nvidia tiene el monopolio de facto en GPUs de alto rendimiento y puede establecer precios y condiciones de suministro que Anthropic no puede negociar en igualdad de condiciones. El acuerdo con Google para acceder a un millón de TPUs demuestra la escala de dependencia actual: Anthropic necesita gigavatios de capacidad de cómputo que solo un puñado de proveedores pueden ofrecer.

Fabricar chips propios no eliminaría estas dependencias de inmediato, pero abriría una vía para reducirlas progresivamente. Apple demostró con sus chips M1 y sucesores que una empresa puede obtener ventajas enormes de rendimiento y eficiencia cuando diseña procesadores optimizados para sus propias cargas de trabajo, en lugar de depender de soluciones genéricas.

¿Qué tipo de chip diseñaría Anthropic?

Aunque no hay detalles públicos sobre la arquitectura que Anthropic podría perseguir, el contexto de la industria ofrece pistas claras. Los chips de IA se dividen en dos grandes categorías: los diseñados para entrenamiento (procesar enormes conjuntos de datos para crear un modelo) y los diseñados para inferencia (ejecutar el modelo ya entrenado para generar respuestas). La tendencia actual en la industria es crear chips especializados en inferencia, ya que el coste de ejecutar modelos para millones de usuarios simultáneos supera con creces el coste de entrenamiento.

Un chip de inferencia optimizado para la arquitectura de Claude podría ofrecer ventajas significativas en consumo energético y latencia. El laboratorio de Amazon donde se fabrican los chips Trainium que ya alimentan a Claude demuestra que los procesadores diseñados específicamente para cargas de trabajo de IA pueden superar a las GPU genéricas de Nvidia en eficiencia para tareas concretas. Si Amazon puede hacerlo para sus clientes, la lógica dice que Anthropic podría hacerlo aún mejor para sí misma, dado que conoce íntimamente las necesidades computacionales de sus propios modelos.

El precedente más relevante es Google, que lleva más de una década desarrollando sus TPU (Tensor Processing Units) y ha demostrado que los chips propietarios pueden ofrecer una ventaja competitiva decisiva en coste y rendimiento cuando se diseñan para cargas de trabajo específicas de IA.

¿Cuánto costaría y cuánto tardaría?

Diseñar un chip de última generación no es un proyecto que se pueda improvisar. Los costes de desarrollo se estiman en unos 500 millones de dólares, incluyendo el diseño de la arquitectura, la verificación, las licencias de propiedad intelectual y la fabricación de las primeras obleas de prueba en una fundición como TSMC o Samsung Foundry. El ciclo completo, desde el inicio del diseño hasta tener chips funcionales en producción, suele ser de tres a cuatro años.

Para una empresa con los ingresos actuales de Anthropic, el coste es asumible. La valoración de 380.000 millones de dólares y la captación de 30.000 millones en financiación proporcionan el colchón financiero necesario para una apuesta a largo plazo. Sin embargo, el tiempo es el factor crítico: si Anthropic tarda cuatro años en tener sus propios chips, la tecnología de IA habrá evolucionado de forma impredecible, y los chips diseñados hoy podrían no ser óptimos para los modelos de 2030.

Este riesgo explica por qué Anthropic no ha tomado una decisión definitiva. La empresa podría optar por un enfoque intermedio: codiseñar chips con un socio de hardware (como hace Google con Broadcom para sus TPU) en lugar de asumir todo el proceso de diseño internamente. Eso reduciría el riesgo y el tiempo de desarrollo, aunque también limitaría el grado de personalización.

¿Qué significa esto para la industria de la IA?

La exploración de Anthropic no es un caso aislado. Meta y OpenAI están persiguiendo esfuerzos similares, según Reuters. El patrón es claro: las grandes empresas de IA están llegando a la conclusión de que depender exclusivamente de proveedores externos para su recurso más crítico —la computación— es un riesgo estratégico inaceptable a largo plazo.

Para Nvidia, esta tendencia es una amenaza existencial a medio plazo. Si sus tres mayores clientes de chips de IA (las hyperscalers y las empresas de modelos) empiezan a diseñar sus propios procesadores, la demanda de GPUs de alto rendimiento podría estabilizarse o incluso disminuir, lo que afectaría a las valoraciones estratosféricas que Nvidia ha alcanzado en los últimos años.

Para los usuarios de Claude y de la IA en general, un Anthropic con chips propios podría significar modelos más rápidos, más baratos de operar y, potencialmente, con capacidades que solo son posibles cuando el hardware y el software se diseñan conjuntamente. Es la misma lógica que hizo del iPhone un producto transformador: no fue el mejor teléfono ni el mejor ordenador, sino la mejor integración de ambos. Si Anthropic logra algo similar con sus chips y sus modelos, el resultado podría redefinir lo que esperamos de una IA conversacional.

Musk asegura que su Boring Company puede construir un túnel LA-San Francisco por menos del 5% del coste del tren de alta velocidad de California

Elon Musk ha vuelto a agitar el debate sobre el transporte en Estados Unidos con una afirmación que suena tan ambiciosa como todas las que salen de su boca: The Boring Company, su empresa de túneles, podría construir un Hyperloop entre Los Ángeles y San Francisco por menos del 5% de lo que está costando el proyecto de tren de alta velocidad de California. Con un presupuesto estimado del tren bala que ya supera los 126.000 millones de dólares, Musk habla de hacerlo por menos de 6.000 millones. La pregunta no es si la cifra suena atractiva —lo es—, sino si tiene algún fundamento real.

La declaración, publicada el 9 de abril de 2026 en su plataforma X, iba acompañada de una crítica directa al gobernador de California, Gavin Newsom, y al proyecto California High-Speed Rail, que lleva más de dos décadas en desarrollo, ha triplicado su presupuesto original y aún no ha transportado a un solo pasajero entre las dos ciudades.

¿Qué propone exactamente Musk con el Hyperloop en 2026?

La idea del Hyperloop no es nueva. Musk publicó un white paper en agosto de 2013 describiendo un sistema de cápsulas presurizadas que viajarían por tubos de vacío parcial a velocidades superiores a 1.000 km/h, cubriendo la distancia entre LA y San Francisco en apenas 35 minutos. En aquel momento, estimó el coste entre 6.000 y 7.500 millones de dólares y ofreció el concepto como diseño abierto para que cualquier empresa lo desarrollara.

Lo que ha cambiado en 2026 es el enfoque. Musk ya no habla tanto del tubo de vacío original como de un túnel subterráneo de alta velocidad construido con las tuneladoras de The Boring Company, que han reducido significativamente los costes de excavación respecto a los métodos convencionales. La empresa ya opera el Loop de Las Vegas, un sistema de transporte subterráneo con coches Tesla que conecta varias estaciones del Convention Center. Funciona, pero a velocidades muy inferiores a las prometidas por el concepto Hyperloop original.

La propuesta actual parece ser un híbrido: túneles excavados con tecnología Boring Company, pero con vehículos o cápsulas capaces de alcanzar velocidades significativamente superiores a las del Loop actual. Los detalles técnicos, sin embargo, brillan por su ausencia, como suele ocurrir con los anuncios de Musk en redes sociales.

¿Por qué el tren de alta velocidad de California es un desastre presupuestario?

Para entender por qué la propuesta de Musk genera tracción mediática, hay que mirar el proyecto que critica. El California High-Speed Rail fue aprobado por los votantes en 2008 con un presupuesto estimado de 33.000 millones de dólares. En 2026, esa cifra ha escalado hasta los 126.000 millones, y la fecha de finalización se ha aplazado repetidamente. El tramo que está en construcción activa conecta Merced con Bakersfield, dos ciudades del Valle Central que nadie asocia con el glamour del corredor LA-SF.

Los problemas son múltiples: adquisición de terrenos más costosa de lo previsto, litigios medioambientales, inflación en materiales de construcción y una burocracia estatal que multiplica los plazos. Para contextualizar, China ya comenzó pruebas con su Hyperloop en 2023, avanzando con prototipos funcionales mientras California sigue debatiendo trazados.

Este desastre de gestión es lo que convierte a Musk en un crítico creíble para muchos californianos, a pesar de que sus propias promesas de transporte tienen un historial de incumplimiento igualmente notable. El Loop de Las Vegas, por ejemplo, debía funcionar a 240 km/h y opera a poco más de 50 km/h.

¿Tiene The Boring Company la capacidad técnica para un proyecto así?

Aquí es donde la propuesta se complica. The Boring Company ha demostrado que puede excavar túneles más baratos que la competencia. Su tuneladora Prufrock ha reducido costes a una fracción de lo habitual en el sector, y la empresa tiene contratos activos en Las Vegas, Austin y San Antonio. Pero hay una diferencia abismal entre excavar un túnel urbano de 3 kilómetros y construir una infraestructura de transporte de 600 kilómetros entre dos metrópolis.

La historia del transporte de alta velocidad demuestra que la excavación es solo una parte del coste. Las estaciones, los sistemas de señalización, la seguridad, las pruebas de certificación y, sobre todo, la adquisición de derechos de paso subterráneos representan un porcentaje enorme del presupuesto total. Musk, que ya propuso en 2017 la posibilidad de unir España y Marruecos con Hyperloop, tiene la costumbre de anunciar proyectos que luego no se materializan o se reformulan drásticamente.

Por otro lado, hay que reconocer que la innovación en transporte necesita voces disruptivas, incluso cuando exageran. Sin la presión mediática de propuestas como la de Musk, proyectos gubernamentales como el tren de California difícilmente recibirían el escrutinio público que merecen. Es un equilibrio incómodo: el provocador que dice verdades a medias puede ser más útil para el debate público que el burócrata que dice verdades completas pero no genera ninguna conversación.

¿Qué dice la ingeniería sobre la viabilidad real del Hyperloop?

Más allá de las declaraciones de Musk, la comunidad de ingeniería civil tiene una opinión relativamente consensuada: el Hyperloop es técnicamente posible pero económicamente cuestionable a escala intercity. Mantener un vacío parcial en un tubo de cientos de kilómetros requiere una infraestructura de bombeo y sellado extraordinariamente costosa. Cualquier fisura o incidente de presurización plantea riesgos de seguridad que no tienen equivalente en el transporte ferroviario convencional.

Los trenes maglev, como el prototipo chino que alcanza 800 km/h mediante levitación magnética, representan una alternativa probada que logra velocidades similares sin las complejidades del vacío. Japón opera su Chuo Shinkansen maglev desde hace décadas y China tiene proyectos avanzados con velocidades que superan lo que Musk propone.

La realidad más probable es que ni el Hyperloop de Musk ni el tren de alta velocidad de California se completen según lo prometido. California probablemente terminará un sistema ferroviario más modesto y costoso de lo planificado, mientras que Musk seguirá proponiendo alternativas llamativas que mantienen la conversación viva pero que rara vez se concretan fuera de contextos controlados como Las Vegas. Mientras tanto, el debate sirve para poner de manifiesto algo que ambas partes prefieren ignorar: Estados Unidos ha perdido la capacidad de construir infraestructura de transporte eficiente, y recuperarla requerirá mucho más que túneles baratos o presupuestos inflados.

OpenAI y el desafío de transformar 13.000 millones en un billón

OpenAI está generando ingresos anuales que rozan los 13.000 millones de dólares, una cifra que muchas tecnológicas soñarían alcanzar. Sin embargo, esta cantidad es apenas una pieza en un tablero de ajedrez mucho más complejo. Aunque la compañía cuenta con 800 millones de usuarios regulares de ChatGPT, solo un 5% de ellos paga la suscripción mensual de 20 dólares. Esto significa que el grueso de sus ingresos proviene de una minoría muy comprometida.

Aun así, ese modelo por sí solo no permite sostener las ambiciones de infraestructura de OpenAI, que van mucho más allá del software. Y es que Sam Altman y su equipo están proyectando inversiones que superan con creces sus ingresos actuales: han asumido un compromiso de gasto superior a 1 billón de dólares en los próximos diez años, según fuentes del Financial Times. Continúa leyendo «OpenAI y el desafío de transformar 13.000 millones en un billón»

OpenAI y AMD se alían para construir infraestructura de IA a gran escala

La carrera por liderar el desarrollo de inteligencia artificial a nivel mundial está impulsando acuerdos cada vez más ambiciosos entre gigantes tecnológicos. El más reciente movimiento proviene de OpenAI, que ha firmado un acuerdo estratégico con AMD para desplegar infraestructura de computación destinada a entrenar y ejecutar modelos de IA avanzada. El pacto no solo implica una alianza tecnológica, sino también una fuerte apuesta financiera por parte de ambas empresas. Continúa leyendo «OpenAI y AMD se alían para construir infraestructura de IA a gran escala»

Inspiración animal para combatir el hielo: la ingeniería se fija en los pingüinos

Los pingüinos antárticos viven en condiciones extremas, sumergidos en aguas heladas y expuestos a tormentas de nieve. Sin embargo, sus plumas permanecen sorprendentemente libres de hielo. Esto no es obra de la casualidad, sino de una sofisticada arquitectura natural. La estructura de sus plumas está organizada de forma jerárquica, desde patrones microscópicos hasta detalles aún más diminutos a escala nanométrica. Esta compleja configuración favorece el desprendimiento tanto del agua como del hielo, impidiendo su acumulación. Continúa leyendo «Inspiración animal para combatir el hielo: la ingeniería se fija en los pingüinos»

OpenAI potencia GPT-5 con nuevos conectores y ajustes en su capacidad de uso

OpenAI continúa afinando el lanzamiento de GPT-5, su modelo de lenguaje más reciente, con una estrategia doble: optimizar la infraestructura para satisfacer la creciente demanda y ampliar las funciones de integración con aplicaciones de terceros. Las novedades afectan especialmente a sus planes de pago y a las empresas que dependen del servicio para tareas críticas. Continúa leyendo «OpenAI potencia GPT-5 con nuevos conectores y ajustes en su capacidad de uso»

Meta y su ambicioso proyecto de cable submarino: La ‘madre de todos los cables’

Meta, la empresa matriz de gigantes como Facebook e Instagram, está embarcándose en un ambicioso proyecto que promete transformar las redes de telecomunicaciones globales. Con una inversión de 10.000 millones de dólares, la compañía planea construir un cable submarino de fibra óptica que se extenderá por más de 40.000 kilómetros alrededor del mundo. Este proyecto, apodado “W” por su forma, no solo refleja la ambición de Meta de fortalecer su infraestructura global, sino que también marca un cambio significativo en la forma en que las empresas tecnológicas manejan las redes de comunicaciones internacionales.

Continúa leyendo «Meta y su ambicioso proyecto de cable submarino: La ‘madre de todos los cables’»

OpenAI gasta 700.000 dólares al día para mantener funcionando a ChatGPT

La inteligencia artificial (IA) ha revolucionado múltiples sectores en la última década. Sin embargo, el costo de mantener y operar estos sistemas avanzados es asombrosamente alto. Uno de los ejemplos más claros es ChatGPT de OpenAI, cuyo mantenimiento representa un gasto diario de hasta $700,000.

Veamos cuál es la situación financiera que enfrenta OpenAI y cómo Microsoft está desarrollando soluciones para reducir los costos asociados con el uso de IA. Continúa leyendo «OpenAI gasta 700.000 dólares al día para mantener funcionando a ChatGPT»

Mejorando la cobertura de señal inalámbrica en espacios congestionados

Otra de las soluciones que vimos en el MWC hace referencia a cómo mejorar la cobertura en zonas donde hay mucha gente al mismo tiempo, como estadios de fútbol, metros, centros comerciales y demás.

Está claro que el avance tecnológico en la comunicación inalámbrica ha permitido una mayor conectividad y movilidad para los usuarios. Sin embargo, existen desafíos en áreas congestionadas y de difícil acceso, por lo que se han desarrollado soluciones para mejorar la cobertura de señal en estos lugares, como la combinación de la tecnología de estaciones base y unidades en extremos. Continúa leyendo «Mejorando la cobertura de señal inalámbrica en espacios congestionados»

OpenCellular, nueva plataforma de Facebook para posibilitar dar cobertura móvil en áreas remotas

OpenCellular

En muchos lugares remotos del mundo, a pesar de que puedan ser zonas urbanas, la cobertura móvil que disponen es mala o más bien inexistente. La solución podrí­a pasar por mejorar y ampliar las infraestructuras, pero el alto coste de ello hace que sea inviable para las propias operadoras.

Hay que tener en cuenta que si bien el coste del punto de acceso móvil puede ser bajo, hay que considerar los costes de la infraestructura civil y de soporte, que suelen mucho más elevados, y por tanto, difí­cil de llevar a cabo.
Continúa leyendo «OpenCellular, nueva plataforma de Facebook para posibilitar dar cobertura móvil en áreas remotas»