La chispa que ha encendido el conflicto entre Anthropic y el Pentágono llega envuelta en niebla informativa. Medios como The Wall Street Journal describieron que el ejército de Estados Unidos habría utilizado Claude, el modelo de lenguaje de Anthropic, en un operativo en Venezuela que terminó con la captura del dirigente venezolano Nicolás Maduro y su traslado a Estados Unidos para enfrentar cargos. La agencia Reuters recogió esa versión subrayando que no pudo verificarla de forma independiente, y que ni el Departamento de Defensa ni la propia Anthropic confirmaron detalles operativos.
En paralelo, The Guardian se hizo eco del mismo relato, añadiendo versiones sobre el nivel de violencia en Caracas según fuentes venezolanas, lo que amplifica la controversia: no solo se discute si una IA estuvo “en la sala” durante una acción militar, sino qué tipo de acción fue y con qué consecuencias humanas. En este punto conviene poner el foco en lo verificable: hay un reportaje de referencia, hay repercusión internacional y hay un silencio calculado por parte de los actores directamente implicados.
Por qué Claude está en el centro de la conversación
Cuando se habla de modelos como Claude, muchas personas imaginan una especie de “cerebro” que decide por su cuenta. En realidad, un modelo de lenguaje es más parecido a una navaja multiusos: sirve para redactar, resumir, traducir, proponer planes o clasificar información, y su impacto depende de quién lo use y cómo lo conecte a datos y sistemas. En entornos gubernamentales, esa conexión es el verdadero superpoder: no es solo “chatear”, sino integrar el modelo en flujos de trabajo con documentación, mapas, comunicaciones o análisis.
Por eso el debate no gira únicamente alrededor de si Claude “apretó un botón”, sino de si se empleó como apoyo en tareas sensibles: preparar informes, acelerar análisis, estructurar opciones o priorizar información. Aunque ese matiz suene técnico, marca la diferencia entre una herramienta de oficina y una pieza del engranaje operativo. Reuters remarca, de hecho, que el Departamento de Defensa lleva tiempo presionando a grandes laboratorios para disponer de IA en redes clasificadas con menos restricciones de uso.
El contrato con Defensa y el papel de Palantir
Hay un dato sólido que explica por qué el ruido no se apaga: Anthropic firmó un acuerdo con el Departamento de Defensa con un techo de 200 millones de dólares en julio de 2025, orientado a prototipar capacidades de “IA de frontera” en operaciones de defensa bajo un enfoque de “uso responsable”. No es un experimento académico: es una relación contractual con incentivos, plazos y entregables.
En el relato que ha circulado estos días aparece un intermediario clave: Palantir, contratista tecnológico muy implantado en el ecosistema de defensa y seguridad. Según Reuters, el uso de Claude en el operativo habría ocurrido a través de esa asociación, lo que encaja con un patrón habitual en el sector: muchas veces el laboratorio de IA no vende directamente “el producto final”, sino que su tecnología se incrusta en plataformas de terceros, donde se combina con datos, permisos y necesidades específicas.
Aquí se entiende el tono frío de la respuesta pública de Anthropic: más que negar o confirmar un caso concreto, se aferra a sus políticas de uso, recordando que cualquier despliegue debe cumplirlas, sea en el sector privado o dentro del gobierno. Es la forma corporativa de decir: “la herramienta tiene reglas, y si alguien la usa saltándoselas, el problema no es el martillo, sino el golpe”.
Las líneas rojas: vigilancia masiva y armas autónomas
El choque real aparece cuando bajamos de la geopolítica a las cláusulas. De acuerdo con Axios, el Pentágono quiere que los grandes proveedores permitan el uso de estas herramientas para “todos los fines legales”, incluyendo ámbitos tan delicados como recogida de inteligencia, operaciones en campo de batalla o incluso desarrollo relacionado con armamento. En cambio, Anthropic se habría negado a levantar dos vetos: vigilancia masiva de estadounidenses y armas plenamente autónomas.
Dicho en una metáfora cotidiana: el cliente quiere alquilar un coche “sin preguntas”, y el fabricante responde que hay carreteras por las que no permitirá circular con ese vehículo, aunque el conductor insista en que tiene carnet y la vía sea “legal”. No es una discusión abstracta sobre ética; es una disputa sobre control, responsabilidad y reputación, con consecuencias económicas inmediatas.
Esa postura encaja con el discurso del CEO Dario Amodei, que lleva meses subrayando riesgos de seguridad y pidiendo guardarraíles. En su ensayo “The Adolescence of Technology”, Amodei llega a sostener que ciertos usos de vigilancia a gran escala con IA, propaganda masiva con IA y determinadas formas ofensivas de armas autónomas deberían tratarse como crímenes contra la humanidad. Se puede estar o no de acuerdo con la formulación, pero ayuda a entender por qué Anthropic se aferra a límites que para Defensa resultan incómodos.
La respuesta política y la amenaza de romper la baraja
En Washington, el pulso se ha filtrado con un lenguaje poco diplomático. Axios recoge que dentro de la administración Trump se baraja “todo”, incluida la posibilidad de recortar o deshacer la relación con Anthropic, asumiendo que sustituirla sería complicado. The Wall Street Journal describe la disputa como un síntoma de tensiones políticas e ideológicas más amplias en el ecosistema de defensa tecnológica, llegando a presentarla como un conflicto con la “IA woke”, y menciona que el Pentágono estudia incluso tratar a Anthropic como un riesgo de cadena de suministro.
La etiqueta “supply chain risk” es especialmente seria: no se limita a “dejamos de comprar”, sino que puede forzar un efecto dominó, porque cualquier proveedor que quiera trabajar con el ejército podría verse presionado a cortar lazos con la empresa señalada. Es una herramienta pensada para dependencias estratégicas y amenazas sistémicas, y usarla contra una compañía estadounidense de primer nivel sería un paso poco habitual, con impacto inmediato en contratos, integraciones y alianzas.
En el otro lado del tablero, el secretario de Defensa Pete Hegseth aparece como figura clave. Fuentes citadas por The Wall Street Journal y retomadas por Futurism lo presentan defendiendo que el Pentágono no puede permitirse modelos de IA que, por diseño, “no te dejen librar guerras”. La frase resume la fricción: para Defensa, las restricciones son un freno operativo; para Anthropic, son el cinturón de seguridad que evita salir despedido cuando el coche derrapa.
Un dilema que incomoda a toda la industria
Lo más relevante de este episodio quizá no sea el nombre de una empresa concreta, sino el precedente. La adopción de IA generativa por parte de gobiernos y ejércitos ya no es una hipótesis futurista; está ocurriendo con múltiples proveedores, y cada uno intenta equilibrar negocio, acceso y límites. Reuters señala que el Departamento de Defensa trabaja con herramientas de varias compañías líderes y busca ampliar su disponibilidad en entornos clasificados. El mensaje implícito para el sector es claro: quien ponga condiciones podría perder terreno frente a quien las quite.
Mientras tanto, parte de la comunidad de usuarios no gubernamentales observa con inquietud que herramientas de uso cotidiano puedan quedar asociadas a operaciones militares. Ese factor reputacional importa: una startup puede firmar contratos públicos y, al mismo tiempo, temer que su marca quede marcada por decisiones ajenas si su tecnología se integra en plataformas externas. En un mercado donde la confianza es un activo, esta tensión se parece a intentar vender cuchillos de cocina mientras circulan noticias de que alguien los usa en peleas callejeras: la herramienta no cambia, pero la percepción pública sí.
Qué podría pasar ahora
El escenario más probable a corto plazo es una negociación áspera, no una ruptura instantánea. El propio acuerdo de 2025 habla de prototipos y de “uso responsable”, un marco que permite renegociar condiciones, redefinir despliegues y acotar quién usa qué y dónde. Si el Pentágono insiste en una carta blanca para “todos los fines legales” y Anthropic mantiene sus vetos, la relación puede derivar hacia una convivencia mínima: seguir colaborando en áreas aceptables y congelar lo demás.
Si prospera la amenaza de “supply chain risk”, el caso se convertiría en un test de estrés para la relación entre Silicon Valley y defensa: hasta dónde llega el poder del Estado para moldear políticas privadas de uso, y hasta dónde está dispuesta una empresa a perder contratos antes que ceder en límites de vigilancia y autonomía letal. En el fondo, es una discusión sobre quién pone las normas cuando la tecnología se vuelve demasiado útil como para ignorarla.
