OpenAI y el Pentágono: qué se sabe del acuerdo, qué promete la empresa y por qué hay polémica

Publicado el

Ilustración sobre la inteligencia artificial en la defensa militar europea con Mistral y Helsing.

La relación entre OpenAI y el Pentágono ha entrado en una fase delicada tras conocerse más detalles de un acuerdo para desplegar modelos de IA en entornos clasificados. Según explicó su propio CEO, Sam Altman, el pacto fue “apresurado” y el impacto reputacional era previsible, una confesión poco habitual en una industria que suele presentar cada movimiento como un paso medido. La urgencia no surgió de la nada: el contexto político cambió de golpe cuando se frustraron las negociaciones entre Anthropic y el Departamento de Defensa de Estados Unidos, tal y como relató TechCrunch.

En ese mismo relato aparece un detonante claro: tras el choque con Anthropic, el presidente Donald Trump ordenó a las agencias federales dejar de usar su tecnología tras un periodo de transición de seis meses, mientras el secretario de Defensa, Pete Hegseth, la calificaba como riesgo para la cadena de suministro. En ese escenario, OpenAI anunció con rapidez un acuerdo alternativo para llevar sus modelos a usos clasificados. Si lo piensas como un aeropuerto en plena tormenta, Anthropic se quedó sin pista de aterrizaje y OpenAI entró por una calle de rodaje de emergencia: llegar primero era importante, aunque el aterrizaje no fuese elegante.

Las “líneas rojas” declaradas por OpenAI

La pregunta incómoda es la obvia: si Anthropic defendía límites estrictos, ¿cómo pudo OpenAI cerrar un trato con el Pentágono sin cruzar esas fronteras? Para responder, la compañía publicó un texto en su blog corporativo en el que concreta tres prohibiciones de uso para sus modelos: vigilancia doméstica masiva, sistemas de armas autónomas y decisiones automatizadas de alto riesgo (como mecanismos de “crédito social”). El mensaje busca transmitir que hay áreas vetadas, no negociables, incluso cuando el cliente es una institución de seguridad nacional.

La elección de esas tres categorías no es casual. Son, por decirlo en términos cotidianos, los tres “miedos” que más rápido se encienden en la imaginación pública cuando se habla de IA y defensa: que te vigilen por sistema, que un algoritmo decida quién vive o muere, o que una puntuación automática te cierre puertas sin explicación. OpenAI intenta colocar un cartel visible en la puerta: “aquí no se entra”.

La apuesta por controles técnicos: nube, “safety stack” y personal acreditado

El núcleo del argumento de OpenAI no se apoya solo en promesas escritas. La empresa sostiene que su enfoque es “multicapa” y que, a diferencia de otras compañías que han recortado salvaguardas y se apoyan principalmente en políticas de uso, aquí existirían controles técnicos y operativos. Entre los elementos que destaca están mantener “plena discreción” sobre su capa de seguridad (su “safety stack”), desplegar los modelos mediante API en la nube, contar con personal de OpenAI con acreditación de seguridad “en el circuito” y reforzar todo con protecciones contractuales, apoyándose también en el marco legal estadounidense. La imagen que quieren vender es la de una casa con varias cerraduras: si una falla, no se abre la puerta.

Este punto es clave porque desplaza el debate desde el texto del contrato hacia la ingeniería. Katrina Mulligan, responsable de alianzas de seguridad nacional en OpenAI, defendió en LinkedIn que se está sobredimensionando una cláusula concreta, como si todo dependiera de una sola frase. Su tesis es que la arquitectura de despliegue importa más: si el acceso se limita a servicios en la nube vía API, el modelo no estaría disponible como un “motor” que pueda empotrarse sin fricción en hardware operativo, sensores o sistemas de armas. Traducido a un ejemplo doméstico, sería como permitir que alguien use tu batidora solo en tu cocina, con supervisión, en lugar de prestársela para que la instale en una fábrica sin que puedas ver qué mezcla.

Ahora bien, la nube no es una varita mágica. Restringir integración directa con hardware reduce ciertos riesgos, sí, pero no elimina otros: un sistema puede usar resultados de una API para informar decisiones humanas o semiautomáticas. La diferencia entre “no puede apretar el gatillo” y “puede sugerir a quién apuntar” es exactamente el tipo de zona gris que alimenta el debate.

La crítica de Techdirt: el papel de la Executive Order 12333

La controversia creció cuando Mike Masnick, de Techdirt, interpretó que el acuerdo “sí permite vigilancia doméstica” porque el lenguaje contractual contemplaría la recopilación de datos privados bajo cumplimiento de la Executive Order 12333, entre otras normas. Masnick señala que esa orden ejecutiva se ha asociado históricamente a prácticas de inteligencia que pueden acabar afectando a personas estadounidenses al interceptar comunicaciones fuera del país. Aquí conviene parar un segundo y separar dos cosas: que un documento cite un marco legal no equivale automáticamente a autorizar un abuso, pero tampoco es una garantía tranquilizadora para quien teme que la “legalidad” cubra prácticas muy amplias.

En la práctica, esta discusión funciona como un semáforo con luces de diferente tono: OpenAI afirma “rojo” para la vigilancia masiva, Techdirt sugiere que el texto legal podría permitir un “ámbar” que, en manos equivocadas, se parezca demasiado al verde. Cuando entran en juego conceptos como Executive Order 12333, la conversación deja de ser técnica y se vuelve institucional: ¿quién interpreta los límites?, ¿qué auditorías existen?, ¿qué ocurre si el uso real se aleja del espíritu del acuerdo?

La comparación con Anthropic: valores, negociación y poder de mercado

OpenAI insiste en que comparte las mismas líneas rojas que Anthropic, que públicamente había marcado restricciones frente a armas totalmente autónomas y vigilancia masiva. La propia OpenAI dice no saber por qué Anthropic no pudo cerrar un acuerdo equivalente y expresa el deseo de que más laboratorios lo consideren. Esa frase tiene doble lectura: por un lado, suena a invitación a normalizar la colaboración con defensa bajo ciertos límites; por otro, parece una forma de subrayar que su enfoque es “compatible” con la seguridad nacional.

También hay un factor de negociación y poder de mercado. El Departamento de Defensa puede buscar un proveedor que acepte determinadas condiciones operativas, plazos y niveles de acceso. Si una empresa pone límites más estrictos, puede quedar fuera. En un contrato de este tipo, cada “no” tiene un coste comercial. Si lo comparas con alquilar un piso, hay propietarios que aceptan mascotas y otros que no: el inquilino con prisa firma donde le dejan entrar hoy, aunque el contrato no sea perfecto.

Reacción pública y competencia: el golpe en reputación y el pulso en el App Store

Altman reconoció en X que el acuerdo generó una oleada de críticas. TechCrunch menciona un síntoma llamativo de esa reacción: Claude (el asistente de Anthropic) habría superado a ChatGPT en el ranking de la App Store de Apple durante el fin de semana. Ese tipo de cambio no prueba por sí solo una fuga masiva sostenida, pero sí muestra algo que las empresas tecnológicas temen: que una decisión estratégica se traduzca rápido en percepción de marca y en comportamiento de usuarios.

Lo interesante es la justificación que ofrece Altman: dijo que buscaban “desescalar” el conflicto entre el Departamento de Defensa y la industria, y que pensaron que el acuerdo era “bueno” en ese sentido. Su argumento se parece al de alguien que se mete en medio de una pelea para que pare, aun sabiendo que puede acabar recibiendo golpes de ambos lados. Si la apuesta funciona, OpenAI quedaría como la empresa que asumió un coste para estabilizar el sector; si falla, refuerza la narrativa de improvisación.

Qué preguntas quedan abiertas

OpenAI describe controles técnicos, personal acreditado y salvaguardas legales y contractuales. Sus críticos ponen el foco en el lenguaje y en los antecedentes de marcos como la Executive Order 12333. Entre ambos polos queda el espacio donde se juegan los matices: cómo se audita el uso real, qué métricas de cumplimiento existen, qué capacidad tiene OpenAI para cortar acceso si detecta un uso prohibido, cómo se define “masivo” en vigilancia doméstica, qué significa “autónomo” cuando hay cadenas de decisión híbridas.

Este acuerdo no solo trata de un cliente potente. Es un ensayo general de cómo las grandes compañías de IA quieren relacionarse con defensa y con el Estado sin perder legitimidad social. La promesa de “nube y control” suena razonable, aunque la historia reciente recuerda que los sistemas complejos tienden a estirarse hacia su uso más conveniente. La confianza, como un cristal, no se rompe solo con una caída; también se raya con fricción constante.