La discusión entre Anthropic y el Pentágono no gira alrededor de si la inteligencia artificial puede ayudar al Departamento de Defensa, sino de algo más incómodo: bajo qué condiciones y con qué margen de maniobra. Según informó Axios y recogió TechCrunch, el Pentágono está pidiendo a varias compañías de IA que permitan a las Fuerzas Armadas usar sus modelos para “todos los fines legales”. El matiz importa, porque esa fórmula funciona como una llave maestra: no describe un caso de uso concreto, sino un paraguas amplio que, en la práctica, podría abarcar desde tareas administrativas hasta operaciones militares sensibles.
En ese mismo reporte, un funcionario anónimo de la administración Trump aseguró que el gobierno está trasladando esa exigencia también a OpenAI, Google y xAI. Siempre según esa fuente, una de las compañías habría aceptado tal cual, mientras que otras dos habrían mostrado cierta flexibilidad. En ese contexto, Anthropic aparece como la más reacia a firmar un “cheque en blanco” operativo.
El contrato de 200 millones y la amenaza de “desenchufar”
El choque tiene un componente muy tangible: dinero, acceso y continuidad. Axios señala que el Pentágono estaría amenazando con cancelar un contrato de alrededor de 200 millones de dólares con Anthropic si la empresa no cede. Este tipo de acuerdos suelen ser algo más que un flujo de ingresos; también son una puerta de entrada a despliegues a gran escala, credenciales de “proveedor apto para gobierno” y un lugar en la mesa de decisiones sobre cómo se integra la IA en estructuras de defensa.
Visto con una metáfora cotidiana, es como si un organismo público encargara un sistema de seguridad para un edificio y, una vez instalado, exigiera que el proveedor entregue una copia universal de todas las llaves “por si acaso”. La empresa puede entender la necesidad de acceso, pero también sabe que esa copia, si se usa sin restricciones claras, cambia la naturaleza del acuerdo y desplaza el control de riesgos hacia un terreno difícil de auditar.
Lo que Anthropic dice que sí y lo que dice que no
La posición pública que se desprende del reporte no es un “no” a trabajar con defensa, sino un “no” a ciertos usos. Un portavoz de Anthropic explicó a Axios que la compañía no ha discutido el uso de Claude en “operaciones específicas” con el “Department of War” (un término cargado, además, por su connotación histórica), y que el foco está en cuestiones de política de uso. En particular, Anthropic insiste en dos límites duros: armas totalmente autónomas y vigilancia doméstica masiva.
Aquí conviene aterrizar los conceptos, porque a menudo se mezclan. Las armas autónomas implican que un sistema selecciona y ataca objetivos sin intervención humana significativa. Es una frontera ética y legal que muchos consideran especialmente peligrosa porque reduce la “pausa” humana que, en situaciones de alto riesgo, actúa como freno. Por otro lado, la vigilancia masiva en territorio nacional toca derechos civiles y abre la puerta a usos que, aunque puedan encajar en interpretaciones amplias de lo “legal”, chocan con principios democráticos y con la reputación de las propias empresas.
Anthropic, así, parece querer preservar una especie de “línea roja” clara: puedes usar el modelo como herramienta, pero no como gatillo sin manos humanas ni como red para pescar a todo el mundo.
Lo que ya se había filtrado: desacuerdos previos y una acusación explosiva
La tensión no nace de cero. The Wall Street Journal ya había informado en enero de desacuerdos importantes entre Anthropic y funcionarios del Departamento de Defensa sobre cómo se podrían utilizar los modelos Claude. Y, según la misma cobertura posterior del WSJ mencionada por TechCrunch, Claude habría sido usado en una operación militar estadounidense para capturar al entonces presidente venezolano Nicolás Maduro.
Ese detalle, de ser correcto, cambia el tono de la conversación. No es lo mismo debatir “posibles usos” que discutir sobre “usos ya ocurridos”. También introduce una capa de opacidad: si una IA se emplea en el contexto de una operación, ¿en qué rol exacto participa? Puede ser desde análisis de información y traducción hasta generación de informes o apoyo a planificación. El problema es que, sin transparencia, el público tiende a imaginar el caso más extremo: la IA tomando decisiones operativas centrales. Y en ese terreno, la confianza se erosiona rápido.
“Todos los fines legales” frente a “políticas de uso”: dos lenguajes que chocan
El núcleo del conflicto se puede explicar como un choque de vocabularios. El gobierno habla el idioma del marco jurídico: si es legal, debería ser posible. Las empresas hablan el idioma del riesgo y la responsabilidad: aunque sea legal, puede ser inaceptable, inseguro o incompatible con compromisos éticos.
En la práctica, “todos los fines legales” puede convertirse en un cajón de sastre. La legalidad es un mínimo, no un diseño de producto. Es como decir que un coche debe poder circular por “todas las carreteras permitidas” sin especificar condiciones: no aclara si hablamos de una autopista o de un camino de montaña, ni quién asume el riesgo si el vehículo se usa fuera de su contexto de seguridad previsto. En IA, donde el comportamiento depende del entorno, los datos y las instrucciones, la ambigüedad es un multiplicador de riesgos.
Para las compañías, además, existe un temor claro: que un uso polémico termine atribuyéndose al proveedor del modelo, incluso si el despliegue lo hizo un tercero. Si el Pentágono quiere libertad operativa total, Anthropic quiere garantías, auditoría y límites de propósito.
Qué está en juego para el ecosistema de IA y defensa
Este episodio ilustra un punto más amplio: la integración de IA generativa en defensa no es un debate futuro, es presente. También muestra que el mercado no se organiza solo por capacidad técnica, sino por gobernanza. Los gobiernos quieren herramientas potentes con margen de actuación; las empresas quieren contratos estables sin quedar asociadas a escenarios que dañen su marca, su relación con reguladores o su retención de talento.
Al mismo tiempo, la discusión anticipa un patrón que veremos repetirse: si el Estado presiona por cláusulas amplias, algunas compañías aceptarán por estrategia o pragmatismo; otras intentarán negociar restricciones; y algunas se resistirán para proteger sus políticas de seguridad. Que, según Axios, una empresa ya haya aceptado y otras “muestren flexibilidad” sugiere que el gobierno puede jugar la carta de la sustitución: “si tú no, otro sí”. Eso empuja a una competencia no solo por rendimiento del modelo, sino por tolerancia al riesgo.
El silencio oficial y la batalla por el relato
TechCrunch indica que Anthropic no respondió inmediatamente a su solicitud de comentarios. En conflictos de este tipo, el silencio también comunica: puede significar negociación en curso, revisión legal o simple cautela ante un tema que se interpreta políticamente con facilidad. Mientras tanto, las filtraciones y los reportes van construyendo el relato público.
Lo relevante aquí es que estamos viendo una disputa sobre límites de uso en tiempo real, con un contrato grande y con implicaciones geopolíticas. Si el Pentágono insiste en la cláusula amplia, Anthropic tendrá que elegir entre perder negocio o aceptar un marco que considera incompatible con sus “hard limits”. Y si logra imponer restricciones, otras compañías podrían verse empujadas a elevar también sus exigencias para no quedar como la opción “más permisiva”.
