Microsoft, Nvidia, AWS y Reflection AI firman con el Pentágono el contrato que Anthropic rechazó: la división del Silicon Valley sobre IA militar es definitiva

Publicado el

Ilustración de una simulación de ataques nucleares simultáneos con múltiples ojivas impactando en diferentes objetivos

El Departamento de Defensa estadounidense ha cerrado el círculo. Lo cuenta Bruce Gil en Gizmodo este 1 de mayo. Microsoft, Nvidia, Amazon Web Services y la startup Reflection AI han firmado acuerdos con el Pentágono para desplegar sus capacidades avanzadas de IA en redes militares clasificadas para «uso operativo legal». Se unen a SpaceX, OpenAI y Google, llevando el total de compañías de IA en trabajo militar clasificado a siete. La compañía notable que sigue ausente es Anthropic, que mantiene los límites contra vigilancia masiva y armas autónomas que el Pentágono no ha aceptado.

La nota de prensa oficial del Department of War (renombrado durante la administración Trump) describe los acuerdos así: «estos acuerdos aceleran la transformación hacia establecer al ejército de Estados Unidos como una fuerza de combate IA-first y reforzarán la habilidad de nuestros warfighters para mantener superioridad de decisión a través de todos los dominios de la guerra». La integración de sistemas de IA avanzados en redes clasificadas, según el Pentágono, «agilizará la síntesis de datos, elevará el entendimiento situacional y aumentará la toma de decisiones de los warfighters en entornos operacionales complejos».

Lo que cada empresa aporta

Las cuatro nuevas firmas representan capas distintas del stack de IA militar. Microsoft aporta integración Azure y modelos GPT-X disponibles via su acuerdo con OpenAI, además de capacidades específicas de Copilot que ya se están adaptando a entornos clasificados. Nvidia es el proveedor de hardware que alimenta esos modelos: GPUs H100 y H200 para cargas de trabajo de inferencia y entrenamiento dentro de redes air-gapped. AWS ofrece su infraestructura Cloud-for-Government y los modelos Bedrock Custom para despliegues clasificados. Reflection AI, la startup menos conocida, se ha posicionado en el espacio de modelos open-weight competitivos con frontier labs, y su inclusión sugiere que el Pentágono quiere diversificar más allá de los gigantes.

Tim Barrett, portavoz de AWS, declaró a Gizmodo: «Durante más de una década, AWS se ha comprometido a apoyar al ejército de nuestra nación y asegurar que nuestros warfighters y socios de defensa tengan acceso a la mejor tecnología al mejor valor. Esperamos seguir apoyando los esfuerzos de modernización del Department of War, construyendo soluciones de IA que les ayuden a cumplir sus misiones críticas». Microsoft, Nvidia y Reflection AI no respondieron inmediatamente a las solicitudes de comentarios.

El choque inicial entre Anthropic y el Pentágono ha sido el caso de prueba para todo el sector. En febrero de 2026, el Pentágono pidió a Anthropic eliminar las restricciones contra vigilancia masiva y armas autónomas en su contrato de 200 millones de dólares. Anthropic se negó. La administración Trump designó a la compañía como «supply chain risk», con Trump calificándola de «radical Left AI company». El choque definió las opciones para todos los demás: ceder con cláusulas opacas o quedarse fuera.

La frase «any lawful purpose» como llave maestra

Las cláusulas concretas de los nuevos contratos son la pista más reveladora. Google firmó el martes con lenguaje similar al de OpenAI, pero con una adición crucial reportada por The Information: el contrato establece que Google «no confiere ningún derecho a controlar o vetar la toma de decisiones operacionales legales del Gobierno». Es la fórmula opuesta exacta a lo que Anthropic exigía. Anthropic quería poder bloquear usos específicos (vigilancia doméstica masiva, armas autónomas sin humanos en el bucle); Google ha aceptado explícitamente que no tiene ese derecho.

OpenAI, en su blog post anunciando su acuerdo, dijo que mantenía control sobre su «safety stack» y prohibía el uso de su IA para vigilancia doméstica masiva o dirigir sistemas de armas autónomas letales. Pero «prohibición en política de uso» y «veto contractual sobre uso operacional» son cosas distintas. Si OpenAI prohíbe en su política algo que el Pentágono considera «lawful purpose», el contrato no le da herramientas para detenerlo. Lo único que le queda es comunicación pública post-hoc.

Pete Hegseth, secretario de Defensa, lo dejó claro en una audiencia del Senate Armed Services Committee el 30 de abril. Llamó a Anthropic «ideological lunatic who shouldn’t have sole decision-making over what we do» (un lunático ideológico que no debería tener poder de decisión único sobre lo que hacemos). Cuando se le preguntó si «siempre habrá un humano en el bucle», evitó responder directamente y se limitó a «Seguimos la ley y los humanos toman decisiones». Añadió que la IA no está actualmente «tomando decisiones letales».

La clave del cambio es la frase «all lawful purposes» en los contratos federales. Cuando Anthropic se negó a eliminar las restricciones contra vigilancia masiva y armas autónomas, el Pentágono les designó como riesgo de cadena de suministro. Trump ordenó a las agencias federales dejar de usar su tecnología, con un periodo de transición de seis meses para Defensa. La diferencia entre «para fines defensivos» (lo que algunos imaginan) y «cualquier propósito legal» (lo que el contrato dice) es exactamente el debate sobre control y responsabilidad.

La paradoja Mythos: Anthropic blackballed pero usado por la NSA

El detalle más extraño del momento es que Mythos, el modelo más avanzado de Anthropic, está siendo usado por la NSA para identificar vulnerabilidades de ciberseguridad en software ampliamente utilizado, incluido productos de Microsoft, según Bloomberg. Es decir: la NSA usa el modelo de la compañía que el Pentágono designó como riesgo de cadena de suministro, contra la infraestructura de Microsoft, que acaba de firmar un nuevo contrato con el Pentágono. Las contradicciones se acumulan.

Donald Trump ha matizado su posición pública en las últimas semanas. Después de las reuniones entre el CEO de Anthropic Dario Amodei y la jefa de gabinete Susie Wiles, Trump declaró que su administración había tenido «muy buenas conversaciones» con Anthropic y sugirió que un futuro acuerdo restaurando el acceso de la compañía al trabajo del Pentágono era «posible». Pero Hegseth sigue calificando a Amodei de «lunatic» y Anthropic mantiene las dos demandas que presentó contra el Department of War.

Google ha sido el caso más complejo de los firmantes. El gigante firmó con el Pentágono el 28 de abril a pesar de que más de 580 empleados (incluyendo 20 directores, directores senior y vicepresidentes) firmaran una carta abierta el día anterior pidiéndole a Sundar Pichai rechazar el acuerdo. El mismo día Google abandonó el concurso de drones swarm de 100 millones, dibujando una línea de «no construimos armas específicas» pero «sí permitimos uso clasificado». Los empleados pedían que la línea se dibujase en el trabajo clasificado mismo.

La paradoja Google-Anthropic-Microsoft

Hay otra contradicción que merece atención. Google está invirtiendo hasta 40.000 millones de dólares en Anthropic, la compañía que fue blackballed por la administración Trump por negarse a eliminar las restricciones sobre armas autónomas y vigilancia masiva. Google está financiando a la empresa que rechazó el contrato exacto que Google acaba de firmar.

La situación es estructuralmente incoherente pero comercialmente lógica. Google necesita acceso al Pentágono (mercado de defensa = decenas de miles de millones anuales) y simultáneamente necesita acceso a los modelos avanzados de Anthropic (que Google distribuye en Vertex AI y que son competitivos con Gemini). La ambigüedad ideológica es el coste de mantener ambas relaciones. Microsoft tiene una variante similar: usa OpenAI vía Azure, ahora tiene su propio acuerdo Pentágono, y al mismo tiempo es objetivo de la NSA usando Mythos para encontrar vulnerabilidades en sus productos.

Mi valoración

La firma de los cuatro nuevos contratos es el punto en el que la división del Silicon Valley sobre IA militar deja de ser debate y pasa a ser estructura permanente. Lo que más me convence del análisis es la cobertura completa del stack: hardware (Nvidia), cloud (AWS, Microsoft), modelos (OpenAI, Reflection AI), aplicaciones específicas (SpaceX, Google, Microsoft Copilot). El Pentágono no necesita más proveedores; ahora tiene el ecosistema completo bajo cláusulas de «any lawful purpose». Lo que más me preocupa es lo que la frase «any lawful purpose» significa operativamente. La administración Trump ha demostrado que está dispuesta a interpretar «lawful» de forma muy expansiva: vigilancia doméstica de inmigrantes, deportaciones rápidas con datos cruzados, designación de organizaciones como riesgo de cadena de suministro por desacuerdo ideológico. Si IA con cláusulas amplias entra en esa lógica, los modelos de OpenAI o Microsoft acaban siendo herramientas de implementación de políticas que sus propios creadores, en privado, podrían calificar de problemáticas. La distancia entre «prohibido en política de uso» y «no podemos vetar uso operacional» se va a probar en casos concretos durante los próximos 18 meses, y los resultados van a ser embarrassing para varias compañías. Lo más estructuralmente significativo es lo que la postura Anthropic representa como caso de prueba comercial. Si Anthropic recupera el acceso al Pentágono manteniendo sus restricciones (como Trump sugiere que es «posible»), prueba que las cláusulas duras son negociables sin sacrificar negocio. Si no lo recupera, prueba lo contrario, y otras compañías que en futuro quieran establecer límites éticos enfrentarán el mismo costo. La pregunta a 12 meses no es si Anthropic vuelve al Pentágono (probablemente sí, en alguna forma diluida que ambas partes puedan presentar como victoria) sino qué cláusulas concretas sobreviven a la negociación. Mi predicción es que el acuerdo final eliminará la prohibición explícita de «vigilancia doméstica masiva» (porque el Pentágono no acepta esa restricción) y mantendrá la de «armas totalmente autónomas sin humano en el bucle» (porque incluso Hegseth dice formalmente que humanos toman decisiones). Esa concesión va a marcar el techo de lo que cualquier compañía de IA puede defender contractualmente con el Pentágono. Y, por extensión, va a marcar la frontera real de la «IA responsable» en defensa estadounidense para los próximos cinco años.

Preguntas frecuentes

¿Cuántas compañías tienen ahora contratos con el Pentágono? Siete: SpaceX, OpenAI, Google (firmaron antes), y los cuatro nuevos del 30 de abril (Microsoft, Nvidia, AWS, Reflection AI). Anthropic sigue fuera porque mantiene restricciones contra vigilancia doméstica masiva y armas autónomas que el Pentágono no acepta.

¿Qué significa «any lawful purpose»? La fórmula contractual del Pentágono que permite a las Fuerzas Armadas usar los modelos de IA para cualquier propósito legal según las leyes estadounidenses. Es una llave maestra que las compañías de IA con políticas internas más restrictivas no pueden vetar contractualmente, solo prohibir en sus políticas de uso (con consecuencias prácticas limitadas).

¿Por qué Anthropic sigue fuera mientras la NSA usa Mythos? Es una contradicción no resuelta. La administración Trump designó a Anthropic como riesgo de cadena de suministro tras las negociaciones rotas con el Pentágono. Pero la NSA está testeando Mythos, el modelo más avanzado de la compañía, para encontrar vulnerabilidades en software (incluido Microsoft). Trump ha sugerido recientemente que un acuerdo restaurando el acceso es «posible» tras reuniones con Dario Amodei.

Preguntas frecuentes

¿Qué contrato concreto firmaron Microsoft, Nvidia, AWS y Reflection AI con el Pentágono?

Es la asignación dentro del marco JWCC (Joint Warfighting Cloud Capability) o equivalente, con techo presupuestario de varios miles de millones repartidos entre los proveedores. Cubre infraestructura de cómputo, modelos generativos para uso clasificado, entrenamiento de capacidades duales y servicios de cloud soberano para el Departamento de Defensa. Reflection AI entra como nuevo entrante alineado con los requisitos militares.

¿Por qué Anthropic rechazó este contrato?

Anthropic mantiene una política de uso aceptable que prohíbe escenarios de «high-stakes targeting» y aplicaciones que automatizan decisiones letales sin supervisión humana significativa. La compañía aceptó el citado del Pentágono al CEO Dario Amodei en febrero de 2026 pero defendió que sus modelos no entrarán en flujos de targeting automatizado. Otros proveedores aceptaron condiciones más laxas.

¿Qué cambia respecto a la era previa de la IA militar?

Hasta 2024, Silicon Valley evitaba públicamente el etiquetado militar (Project Maven en 2018 con Google fue paradigma). En 2025-2026 la división interna se desbloqueó: OpenAI cambió su política de uso aceptable, Microsoft profundizó la integración con Defense, Google volvió con Gemini clasificado y los swarm de drones, y Nvidia acelera el suministro de hardware. Anthropic sigue siendo la excepción visible.

¿Qué implicaciones tiene para usuarios europeos y el debate regulatorio?

El AI Act europeo introduce obligaciones específicas para sistemas militares y de seguridad nacional, aunque su aplicación queda fuera del alcance directo del reglamento. La firma masiva acelera el debate en la UE sobre soberanía de cómputo defensivo y empuja iniciativas como el European AI Champions o la inversión en startups defensivas europeas (Helsing, Arquimea, Quantum Systems). El gap se amplía respecto a EE.UU.