El 27 de febrero de 2026, OpenAI anunció un acuerdo con el Pentágono para llevar sus tecnologías de inteligencia artificial a sistemas clasificados. El anuncio llegó con un contexto muy concreto: pocas horas antes, el presidente Donald Trump había ordenado a las agencias federales dejar de usar la tecnología de Anthropic, rival directo de OpenAI. La secuencia importa porque no se trata solo de un contrato más; es un episodio que mezcla geopolítica, competencia empresarial y el debate sobre los límites de la IA cuando se cruza con la seguridad nacional. Según informó The New York Times, el pacto permite el uso “para cualquier propósito lícito”, una condición que el Departamento de Defensa exige en este tipo de contratos.
“Para cualquier propósito lícito”: el punto que lo cambia todo
El concepto de “lawful purpose” suena inocuo, casi administrativo, como una casilla marcada en un formulario. En la práctica, es un paraguas enorme. El Pentágono quiere evitar que un proveedor privado dicte por contrato qué usos quedan fuera, especialmente en escenarios que pueden cambiar rápido. Visto desde la administración, si una herramienta es útil, quieren tener margen para emplearla en misiones autorizadas por la ley y por sus políticas internas.
Aquí es donde se entiende el choque previo con Anthropic: la empresa buscaba excepciones explícitas para impedir que su modelo se utilizara en vigilancia doméstica masiva o en armas autónomas letales. La compañía lo explicó en una declaración pública al referirse al estancamiento de las negociaciones.
Para el lector, una metáfora útil sería pensar en una navaja suiza. El gobierno quiere comprarla con todas sus herramientas disponibles “cuando sea legal hacerlo”; el fabricante intenta venderla, pero con un candado que desactive ciertas hojas si el usuario pretende emplearla en tareas que el fabricante considera inaceptables. El conflicto no es si la navaja funciona, sino quién decide qué hojas pueden abrirse.
La fórmula de OpenAI: aceptar el paraguas… y poner barandillas técnicas
Lo interesante del acuerdo de OpenAI es cómo intenta cuadrar el círculo. Sam Altman defendió que la compañía aceptó el requisito de “cualquier propósito lícito”, mientras incorporaría salvaguardas técnicas para que los modelos se comporten de acuerdo con sus principios de seguridad. En términos sencillos: no es tanto prohibir por contrato como reducir por diseño la probabilidad de ciertos usos o comportamientos.
En su publicación, OpenAI presentó “líneas rojas” y un enfoque de guardarraíles que, según la empresa, es más estricto que acuerdos previos para despliegues clasificados. El matiz clave es que esas barandillas viven en el sistema: filtros, restricciones operativas, controles de acceso, trazabilidad, medidas de supervisión humana. No es una promesa vaga; es un paquete técnico y organizativo que el cliente acepta como parte del despliegue.
Aun así, la discusión no queda cerrada. Medios como Axios han señalado que el debate puede reabrirse alrededor de qué datos se consideran “privados” o “públicos” y cómo encaja eso con el riesgo de vigilancia. Dicho de otra forma, poner barandillas no elimina la pregunta: ¿quién define el carril y quién inspecciona si alguien intenta salirse?
La caída de Anthropic: de negociación tensa a “riesgo para la cadena de suministro”
El desenlace con Anthropic fue abrupto. Tras no llegar a un acuerdo antes del plazo marcado, el secretario de Defensa Pete Hegseth ordenó designar a la empresa como “supply-chain risk” (riesgo para la cadena de suministro), una etiqueta que, en la práctica, corta el acceso a negocio con el gobierno en múltiples frentes. WIRED describió el efecto como una sacudida para Silicon Valley, por las implicaciones para proveedores y contratistas que usen sus modelos.
Anthropic, por su parte, explicó que el punto de fricción fueron precisamente las dos excepciones que pedían: vigilancia doméstica masiva y armas totalmente autónomas.
A ese choque contractual se sumó la dimensión política. Trump calificó a Anthropic de “radical Left AI company” y ordenó a las agencias federales cesar su uso, con un periodo de transición para Defensa según PBS NewsHour.
El papel de Amazon y la cuestión práctica: cómo se entra en un entorno clasificado
Hay otro detalle menos vistoso que el rifirrafe público, pero decisivo: para trabajar en entornos clasificados, no basta con “tener el mejor modelo”. Importan certificaciones, proveedores cloud, rutas de despliegue y compatibilidades con la forma en que el gobierno compra tecnología.
Según Reuters y TechCrunch, OpenAI anunció un megarronda de financiación de 110.000 millones de dólares, con una inversión destacada de Amazon por 50.000 millones, entre otros grandes nombres, lo que también conecta con el acceso a infraestructura a gran escala.
Amazon explicó públicamente los términos generales de su asociación con OpenAI. Esto es relevante porque el gobierno estadounidense suele apoyarse en grandes nubes para operar sistemas, y encajar en ese esquema acelera la adopción real, más allá de los titulares.
Un tablero con más jugadores: xAI y Google también buscan sitio
El Pentágono no apuesta por un solo proveedor. En paralelo, se confirmó un acuerdo para usar tecnología de xAI (la empresa de Elon Musk) en sistemas clasificados, según Axios.
El caso de Google es un recordatorio histórico: en 2018, se alejó de un contrato militar tras protestas internas y, con el tiempo, volvió a abrir la puerta a colaborar con Defensa bajo otros marcos. La lectura práctica es que las grandes tecnológicas están aprendiendo a navegar un terreno donde la reputación interna, la presión social y los contratos públicos se pisan los talones.
La tensión interna en la industria: empleados que piden una línea común
Mientras las empresas negocian, parte de su plantilla también toma posición. Se conoció una carta abierta firmada por empleados de OpenAI instando a mantener un frente para que la IA no se use en vigilancia doméstica ni en armas autónomas. Este tipo de movimientos funcionan como termómetro: no determinan por sí solos un contrato, pero elevan el coste reputacional de cruzar ciertas líneas y obligan a las empresas a justificar mejor sus decisiones ante su propia gente y ante el público.
Rivalidades, incentivos y el mensaje de fondo
Detrás de las declaraciones, hay incentivos muy claros. Si el gobierno exige “cualquier propósito lícito” y un proveedor se niega, otro puede aceptar y ganar el contrato. Lo que hizo OpenAI fue intentar convertir esa dinámica en una ventaja: “acepto el paraguas legal, pero lo acompaño de barandillas técnicas y presencia de personal para ayudar a mantenerlas”.
Esto también expone un debate más amplio: ¿es más eficaz limitar por contrato o por ingeniería? Los contratos dan claridad, pero se renegocian y dependen de interpretaciones. Las medidas técnicas reducen riesgos en el uso cotidiano, aunque no sustituyen la supervisión ni las auditorías, sobre todo en un contexto de seguridad nacional donde el secreto dificulta el escrutinio externo.
Lo que queda claro es que el episodio marca una pauta: los laboratorios de IA que aspiren a trabajar con gobiernos tendrán que presentar algo más que potencia de modelo. Necesitarán un “manual de conducción” completo: controles, trazabilidad, gobernanza y mecanismos para demostrar que las promesas de seguridad no son solo marketing.
