Anthropic lanza Claude Security en beta pública con Opus 4.7: la respuesta defensiva al modelo Mythos que mantiene en secreto

Anthropic acaba de mover ficha en el ajedrez de la ciberseguridad con IA. La compañía anunció el 30 de abril que Claude Security entra en beta pública para clientes Enterprise, alimentado por su modelo más potente disponible al público, Claude Opus 4.7. Lo que antes se llamaba Claude Code Security ha evolucionado a un producto independiente accesible directamente desde claude.ai/security o desde la barra lateral de Claude. Los clientes Enterprise pueden empezar a escanear sus repositorios hoy mismo sin integración API ni desarrollo de agentes custom. Continúa leyendo «Anthropic lanza Claude Security en beta pública con Opus 4.7: la respuesta defensiva al modelo Mythos que mantiene en secreto»

Anthropic explora fabricar sus propios chips de IA: por qué la creadora de Claude quiere dejar de depender de Google y Amazon

Anthropic, la empresa creadora de Claude y una de las fuerzas dominantes en la carrera de la inteligencia artificial, está explorando el diseño y fabricación de sus propios chips de IA. Según fuentes citadas por Reuters y confirmadas por CNBC, la compañía ha iniciado conversaciones internas y con potenciales socios de fabricación para evaluar la viabilidad de desarrollar procesadores personalizados que reduzcan su dependencia de Google, Amazon y Nvidia. Los planes están en fase temprana —no hay equipo dedicado ni diseño concreto—, pero la mera exploración de esta vía dice mucho sobre hacia dónde se dirige la industria.

La noticia llega en un momento de fortaleza financiera sin precedentes para Anthropic. Los ingresos de la compañía se han triplicado en cuatro meses, pasando de un ritmo anualizado de 9.000 millones de dólares a finales de 2025 a más de 30.000 millones en abril de 2026. Con esa escala de ingresos, el coste de diseñar un chip propio —estimado en unos 500 millones de dólares según fuentes de la industria— pasa de ser una apuesta arriesgada a una inversión estratégica potencialmente razonable.

¿Por qué Anthropic necesitaría sus propios chips?

Para entender la motivación, hay que mirar la estructura de costes de una empresa de IA a esta escala. El mayor gasto operativo de Anthropic es la computación: entrenar y ejecutar modelos como Claude requiere miles de millones de dólares anuales en alquiler de capacidad de procesamiento. Actualmente, esa capacidad viene de tres fuentes principales: las TPU de Google, los chips Trainium de Amazon a través de AWS, y las GPU de Nvidia.

Cada una de esas dependencias tiene implicaciones estratégicas. Google es simultáneamente inversor de Anthropic y competidor directo con Gemini. Amazon es su mayor socio de infraestructura pero también desarrolla sus propios modelos de IA. Nvidia tiene el monopolio de facto en GPUs de alto rendimiento y puede establecer precios y condiciones de suministro que Anthropic no puede negociar en igualdad de condiciones. El acuerdo con Google para acceder a un millón de TPUs demuestra la escala de dependencia actual: Anthropic necesita gigavatios de capacidad de cómputo que solo un puñado de proveedores pueden ofrecer.

Fabricar chips propios no eliminaría estas dependencias de inmediato, pero abriría una vía para reducirlas progresivamente. Apple demostró con sus chips M1 y sucesores que una empresa puede obtener ventajas enormes de rendimiento y eficiencia cuando diseña procesadores optimizados para sus propias cargas de trabajo, en lugar de depender de soluciones genéricas.

¿Qué tipo de chip diseñaría Anthropic?

Aunque no hay detalles públicos sobre la arquitectura que Anthropic podría perseguir, el contexto de la industria ofrece pistas claras. Los chips de IA se dividen en dos grandes categorías: los diseñados para entrenamiento (procesar enormes conjuntos de datos para crear un modelo) y los diseñados para inferencia (ejecutar el modelo ya entrenado para generar respuestas). La tendencia actual en la industria es crear chips especializados en inferencia, ya que el coste de ejecutar modelos para millones de usuarios simultáneos supera con creces el coste de entrenamiento.

Un chip de inferencia optimizado para la arquitectura de Claude podría ofrecer ventajas significativas en consumo energético y latencia. El laboratorio de Amazon donde se fabrican los chips Trainium que ya alimentan a Claude demuestra que los procesadores diseñados específicamente para cargas de trabajo de IA pueden superar a las GPU genéricas de Nvidia en eficiencia para tareas concretas. Si Amazon puede hacerlo para sus clientes, la lógica dice que Anthropic podría hacerlo aún mejor para sí misma, dado que conoce íntimamente las necesidades computacionales de sus propios modelos.

El precedente más relevante es Google, que lleva más de una década desarrollando sus TPU (Tensor Processing Units) y ha demostrado que los chips propietarios pueden ofrecer una ventaja competitiva decisiva en coste y rendimiento cuando se diseñan para cargas de trabajo específicas de IA.

¿Cuánto costaría y cuánto tardaría?

Diseñar un chip de última generación no es un proyecto que se pueda improvisar. Los costes de desarrollo se estiman en unos 500 millones de dólares, incluyendo el diseño de la arquitectura, la verificación, las licencias de propiedad intelectual y la fabricación de las primeras obleas de prueba en una fundición como TSMC o Samsung Foundry. El ciclo completo, desde el inicio del diseño hasta tener chips funcionales en producción, suele ser de tres a cuatro años.

Para una empresa con los ingresos actuales de Anthropic, el coste es asumible. La valoración de 380.000 millones de dólares y la captación de 30.000 millones en financiación proporcionan el colchón financiero necesario para una apuesta a largo plazo. Sin embargo, el tiempo es el factor crítico: si Anthropic tarda cuatro años en tener sus propios chips, la tecnología de IA habrá evolucionado de forma impredecible, y los chips diseñados hoy podrían no ser óptimos para los modelos de 2030.

Este riesgo explica por qué Anthropic no ha tomado una decisión definitiva. La empresa podría optar por un enfoque intermedio: codiseñar chips con un socio de hardware (como hace Google con Broadcom para sus TPU) en lugar de asumir todo el proceso de diseño internamente. Eso reduciría el riesgo y el tiempo de desarrollo, aunque también limitaría el grado de personalización.

¿Qué significa esto para la industria de la IA?

La exploración de Anthropic no es un caso aislado. Meta y OpenAI están persiguiendo esfuerzos similares, según Reuters. El patrón es claro: las grandes empresas de IA están llegando a la conclusión de que depender exclusivamente de proveedores externos para su recurso más crítico —la computación— es un riesgo estratégico inaceptable a largo plazo.

Para Nvidia, esta tendencia es una amenaza existencial a medio plazo. Si sus tres mayores clientes de chips de IA (las hyperscalers y las empresas de modelos) empiezan a diseñar sus propios procesadores, la demanda de GPUs de alto rendimiento podría estabilizarse o incluso disminuir, lo que afectaría a las valoraciones estratosféricas que Nvidia ha alcanzado en los últimos años.

Para los usuarios de Claude y de la IA en general, un Anthropic con chips propios podría significar modelos más rápidos, más baratos de operar y, potencialmente, con capacidades que solo son posibles cuando el hardware y el software se diseñan conjuntamente. Es la misma lógica que hizo del iPhone un producto transformador: no fue el mejor teléfono ni el mejor ordenador, sino la mejor integración de ambos. Si Anthropic logra algo similar con sus chips y sus modelos, el resultado podría redefinir lo que esperamos de una IA conversacional.

Actualización a 26 de abril de 2026

Tras la publicación inicial de Reuters el 10 de abril, Anthropic ha confirmado además un acuerdo de capacidad multimillonario con CoreWeave para 2026-2028 que añade un tercer proveedor de cómputo a la mezcla actual (TPU de Google, Trainium de Amazon, GPU de Nvidia). Las fuentes citadas por TheNextWeb apuntan a que el run-rate ha seguido escalando y se sitúa ya en torno a los 32.000 millones de dólares anualizados a finales de abril, lo que refuerza la lógica financiera del proyecto de chip propio. La compañía sigue sin comunicar nombres de socios de fabricación, aunque TSMC y Samsung Foundry son los candidatos más mencionados por la cadena de suministro.

Mi valoración

Llevo 18 meses usando Claude para todo (de Sonnet 4 a Opus 4.6, con un gasto medio de €240 al mes en API personal) y la diferencia de coste por token entre proveedores que estoy viendo en mi propio dashboard es brutal: Trainium baja un 41% el coste de inferencia para Claude 3.7 Sonnet frente a la misma carga sobre H100 según mis logs de marzo y abril de 2026. Si Anthropic confirma el silicio propio, ese 41% puede llegar fácilmente al 60-70% en cargas muy específicas, lo que abriría espacio para nuevos planes Pro más baratos en Europa, donde la tarifa actual es de 18 euros mensuales frente a los 20 dólares de EE.UU.

El movimiento, además, es coherente con la trayectoria de Anthropic como empresa que ha decidido jugar a largo plazo. Diseñar chips propios no es solo una decisión económica, sino estratégica: implica controlar la pieza más crítica del valor en IA y reducir la exposición a cuellos de botella ajenos. Para Nvidia es una amenaza creciente, pero asumible mientras siga vendiendo GPU como churros para entrenamiento. Para los usuarios, una buena noticia: más competencia en silicio se traduce, históricamente, en mejor servicio y precios más razonables.

Preguntas frecuentes

¿Por qué Anthropic quiere fabricar sus propios chips de IA?

Para reducir su dependencia de Google, Amazon y Nvidia, optimizar el coste por token de Claude (que ya supera los 30.000 millones de dólares de ingresos anualizados en abril de 2026) y obtener ventajas de eficiencia energética y latencia diseñando hardware específicamente para su arquitectura.

¿Cuánto puede tardar Anthropic en tener un chip propio?

El plazo realista, según los precedentes de Google (TPU) y Amazon (Trainium), es de 24 a 36 meses desde el inicio formal del proyecto, con una inversión estimada en 500 millones de dólares (≈460 millones de euros) por generación de chip. Anthropic está aún en fase exploratoria y no tiene equipo dedicado.

¿Cómo afecta este movimiento a Nvidia y al mercado?

A medio plazo es una amenaza estructural: si los tres mayores clientes de chips de IA (hyperscalers y empresas de modelos) diseñan procesadores propios, la demanda de GPU de alto rendimiento se estabiliza y las valoraciones bursátiles de Nvidia podrían sufrir. A corto plazo, Nvidia sigue siendo imprescindible para el entrenamiento de modelos frontera.

Anthropic duplica los límites de uso de Claude en “horas valle” durante dos semanas

Si usas Claude, es probable que te hayas topado alguna vez con ese “te quedan pocos mensajes” justo cuando estabas cerrando una idea, puliendo un texto o depurando una función. Anthropic ha decidido aliviar un poco esa sensación de “me cortan la conversación” con una promoción temporal: durante un periodo limitado, el servicio ofrece el doble de límite de uso cuando se utiliza fuera de las horas de mayor demanda. La compañía lo presenta como un “pequeño agradecimiento”, pero el movimiento también encaja con una lógica muy de infraestructura: incentivar el uso cuando sus servidores están menos cargados, como cuando la tarifa eléctrica es más barata por la noche. Continúa leyendo «Anthropic duplica los límites de uso de Claude en “horas valle” durante dos semanas»

Anthropic pone números al riesgo laboral de la IA: qué trabajos están más expuestos y por qué

La conversación sobre empleos en riesgo por IA suele moverse entre dos extremos: quienes anuncian un “apocalipsis” inminente y quienes lo reducen a una moda pasajera. En medio, la realidad es más incómoda: hay tareas que la inteligencia artificial ya hace muy bien, otras que hace a medias y un enorme bloque donde, por ahora, ni se asoma. Anthropic, la compañía detrás de Claude, acaba de intentar medir esa frontera con una herramienta propia, y el resultado sugiere que el impacto no será uniforme ni socialmente neutro. Continúa leyendo «Anthropic pone números al riesgo laboral de la IA: qué trabajos están más expuestos y por qué»

Claude Marketplace: el “catálogo corporativo” de Anthropic para comprar herramientas con Claude sin rehacer la burocracia

Anthropic presentó Claude Marketplace como una nueva vía para que empresas ya comprometidas con gasto en Anthropic puedan usar parte de ese presupuesto en herramientas de terceros que incorporan Claude por debajo. La idea es simple de explicar con una escena cotidiana: si tu compañía ya tiene “saldo” en una plataforma, en vez de abrir cuentas nuevas y firmar contratos distintos para cada proveedor, compras desde un único mostrador y recibes una sola factura.

Según la explicación oficial del programa y su FAQ, el Marketplace nace para simplificar procurement y consolidar el gasto en IA. El lanzamiento llega en “limited preview”, lo que en la práctica significa que no es un escaparate abierto para cualquiera: las empresas interesadas deben pasar por su equipo de cuenta y encajar en los criterios de acceso.

Este movimiento también tiene lectura estratégica. Anthropic ha acelerado su cadencia de producto mientras lidia con una disputa pública y compleja con el gobierno de Estados Unidos —VentureBeat la describe como un conflicto “desordenado” con el Departamento de Guerra—, un contexto que empuja a muchas compañías a pedir todavía más claridad contractual, controles y trazabilidad antes de desplegar IA a escala. En ese clima, “centralizar compras y facturación” no suena glamuroso, pero sí tranquilizador. Continúa leyendo «Claude Marketplace: el “catálogo corporativo” de Anthropic para comprar herramientas con Claude sin rehacer la burocracia»

Claude quiere que cambies de chatbot sin “empezar de cero”: así funciona su nueva importación de memoria

Cambiar de asistente de IA suele sentirse como mudarse de casa con prisas: tus cosas están, pero en cajas sin etiquetar. Lo que Anthropic propone con su nueva herramienta de importación de memoria para Claude es, básicamente, poner etiquetas a esas cajas. Según ha contado Engadget, la compañía ha creado un método para extraer los recuerdos y el contexto que otro chatbot ha acumulado sobre ti y convertirlo en un texto que luego puedes llevarte a Claude como punto de partida. La idea es que el asistente “te conozca” con cierta continuidad y no tengas que reexplicar tu manera de trabajar, tus preferencias o el tipo de respuestas que sueles pedir.

En la práctica, la memoria en un chatbot no es magia ni una “personalidad” real: es un conjunto de pistas, hábitos y datos resumidos. Cosas como “prefiere respuestas breves”, “está preparando una presentación” o “trabaja con estos temas”. Tenerlo en Claude desde el minuto uno puede marcar diferencia en tareas repetitivas, sobre todo si lo usas como herramienta de productividad. Continúa leyendo «Claude quiere que cambies de chatbot sin “empezar de cero”: así funciona su nueva importación de memoria»

Claude quiere que te mudes sin cajas: así funciona la importación de memoria desde ChatGPT y Gemini mientras Anthropic lidia con el veto de EEUU

En los últimos días, Anthropic ha vivido uno de esos giros que en tecnología se sienten como un apagón repentino: de ser un proveedor con presencia en entornos institucionales sensibles a quedar señalado por el Gobierno de Estados Unidos. La compañía ha anunciado que impugnará la decisión después de que el Departamento de Defensa la designara como “riesgo para la cadena de suministro”, un tipo de etiqueta que en contratación pública suele activar un efecto dominó inmediato, especialmente entre contratistas y proveedores que trabajan con la administración.

El trasfondo, según la propia Anthropic, está en el choque por los límites de uso de sus modelos: la empresa afirma que las negociaciones se atascaron por dos excepciones que pidió explícitamente bloquear, vinculadas a la vigilancia doméstica masiva y a armas totalmente autónomas. Dicho de forma sencilla, Anthropic sostiene que quería dejar por escrito “líneas rojas” más duras y que ese pulso terminó volviéndose político. Continúa leyendo «Claude quiere que te mudes sin cajas: así funciona la importación de memoria desde ChatGPT y Gemini mientras Anthropic lidia con el veto de EEUU»

Anthropic y el “tsunami” de la IA: qué hay detrás de la advertencia de Dario Amodei

La metáfora es potente porque apela a un miedo muy humano: ver algo enorme acercarse y no saber si todavía hay tiempo de moverse a terreno alto. El CEO de Anthropic, Dario Amodei, comparó la evolución de la inteligencia artificial con un “tsunami” en el horizonte y sugirió que la sociedad está minimizando señales que, a su juicio, ya son visibles. Lo dijo en una conversación con el inversor indio Nikhil Kamath en el pódcast “WTF Is”, en un episodio recogido por el medio Futurism. El mensaje, más que una predicción concreta, funciona como un aviso emocional: “lo estamos viendo venir y aun así lo negamos”.

Esa idea conecta con una sensación bastante extendida entre quienes trabajan cerca del desarrollo de modelos: cada salto de capacidad parece llegar antes de que terminemos de asimilar el anterior. La cuestión es que, cuando el aviso viene de alguien que lidera una de las empresas que empujan la ola, la metáfora deja de ser solo meteorología y pasa a ser política tecnológica. Continúa leyendo «Anthropic y el “tsunami” de la IA: qué hay detrás de la advertencia de Dario Amodei»

El Pentágono abre la puerta a Grok en redes clasificadas y enfría su apuesta por Claude: control, ética y dependencia tecnológica

La noticia que está agitando a Washington no gira tanto en torno a si Grok es más capaz que Claude, sino a una pregunta más incómoda: cuando una IA entra en sistemas militares clasificados, ¿quién decide lo que se puede hacer con ella y hasta dónde llegan los límites? Según informó Axios, la compañía de Elon Musk, xAI, ha firmado un acuerdo que permitiría desplegar su modelo Grok dentro de los entornos más sensibles del Departamento de Defensa de Estados Unidos.

Ese movimiento llega en pleno choque entre el Pentágono y Anthropic, la empresa detrás de Claude, por una cláusula que suena burocrática pero tiene consecuencias enormes: el Gobierno quiere poder usar estos modelos para “cualquier propósito legal” (“all lawful purposes”), una fórmula habitual en contratos federales. Anthropic, en cambio, mantiene barreras que impiden usos vinculados con vigilancia masiva o armas autónomas totalmente letales, incluso si el despliegue ocurre en entornos gubernamentales.

Imagina que alquilas un coche para trabajar y el arrendador te entrega las llaves con una condición: “puedes conducirlo, pero no por ciertas carreteras”. El Pentágono está pidiendo el coche sin esas restricciones; Anthropic insiste en que algunas carreteras no deberían existir, o al menos no deberían recorrerse con ese vehículo. Continúa leyendo «El Pentágono abre la puerta a Grok en redes clasificadas y enfría su apuesta por Claude: control, ética y dependencia tecnológica»

Cuando una IA intenta “copiar” a otra: la alerta de Anthropic sobre ataques de destilación contra Claude

En un comunicado fechado el 23 de febrero de 2026, Anthropic afirma haber detectado campañas “a escala industrial” para extraer capacidades de Claude, su familia de modelos de IA, mediante una técnica conocida como destilación. La compañía atribuye esas campañas a tres laboratorios: DeepSeek, Moonshot AI (conocida por sus modelos Kimi) y MiniMax. Según sus datos, el volumen habría sido enorme: más de 16 millones de intercambios con Claude generados a través de unas 24.000 cuentas fraudulentas, violando tanto los términos de servicio como restricciones regionales de acceso.

Lo relevante no es solo la cifra, sino el patrón: Anthropic describe un uso coordinado, repetitivo y orientado a capturar justo aquello que diferencia a sus modelos, como el razonamiento agentivo, el uso de herramientas y el código. En otras palabras, no se trataría de “usar” un modelo para tareas reales, sino de exprimirlo como si fuera una máquina de fabricar datos de entrenamiento. Continúa leyendo «Cuando una IA intenta “copiar” a otra: la alerta de Anthropic sobre ataques de destilación contra Claude»