La CIA tendrá «compañeros de trabajo de IA» integrados en todas sus plataformas analíticas en dos años y acaba de generar su primer informe de inteligencia con IA

Publicado el

Analista de inteligencia de la CIA trabajando frente a múltiples pantallas con datos mapas y redes holográficas representando la integración de compañeros de trabajo de IA

El subdirector de la CIA, Michael Ellis, reveló el 9 de abril de 2026 en un evento del Special Competitive Studies Project en Washington que la agencia integrará asistentes de IA generativa clasificada en todas sus plataformas analíticas en los próximos dos años. Los llamó «AI coworkers»: compañeros de trabajo de IA que ayudarán a los analistas con tareas básicas como redactar juicios clave, editar para claridad y comparar borradores contra estándares de tradecraft. Los humanos seguirán tomando las «decisiones clave», al menos sobre el papel.

Las cifras: 300 proyectos de IA, primer informe completo generado, x2 en producción

La CIA gestionó más de 300 proyectos de IA el año pasado. Por primera vez en su historia, la agencia usó IA para generar un informe de inteligencia completo. En una década, Ellis prevé que la CIA trate la IA como un «partner autónomo de misión» y que los oficiales gestionen equipos de agentes de IA en un modelo híbrido. También reveló que la agencia duplicó su producción de inteligencia relacionada con tecnología extranjera (semiconductores, cloud, infraestructura, ciberseguridad, I+D) y elevó su Center for Cyber Intelligence a mission center completo.

El conflicto abierto con Anthropic

El contexto político es tenso. La CIA tiene un conflicto abierto con Anthropic: el Pentágono designó a Anthropic como riesgo para la cadena de suministro después de que la empresa se negara a relajar las salvaguardas de Claude para usos como vigilancia masiva o armas autónomas. El secretario de Defensa Pete Hegseth calificó a Anthropic de «woke» en redes sociales. Trump la acusó de estar dirigida por «left-wing nut jobs». Ellis, sin nombrar a Anthropic, dijo que la CIA «no permitirá que los caprichos de una sola empresa dicten cómo y cuándo la CIA usará legalmente sus tecnologías».

La agencia parece estar construyendo capacidades internas precisamente para no depender de ningún proveedor externo que pueda poner límites éticos a su uso de IA. Es justo lo opuesto a la lógica que vimos cuando Anthropic anunció que evaluaba diseñar sus propios chips para ganar autonomía de proveedores: la misma idea de «no depender» aplicada en bandos opuestos del debate.

Implicaciones éticas: vigilancia, conflicto, decisión híbrida

El uso de IA en agencias de inteligencia plantea cuestiones específicas: ¿qué ocurre cuando un informe que sirve para decidir una operación encubierta o una intervención militar parte de una redacción hecha por un modelo? Para entender mejor el problema de fondo, vale la pena leer nuestro análisis sobre las alucinaciones multimodales en IA, donde queda claro que ningún modelo actual está listo para uso autónomo en sectores críticos.

El propio AI Index 2026 de Stanford sitúó en el 15,6% la tasa media de alucinación en aplicaciones de alto riesgo, y en el 31% en imagen médica con artefactos. Aplicar esos parámetros a inteligencia militar y geopolítica obliga, como mínimo, a un nivel de auditoría que las agencias todavía no han hecho público. Para una visión más amplia del estado del arte, recomiendo nuestro repaso del AI Index 2026 de Stanford.

Actualización a 26 de abril de 2026

Tras la intervención de Ellis, varios desarrollos relevantes: Reuters confirmó el 18 de abril que la CIA ha cerrado contratos con Palantir, OpenAI Government y Microsoft Azure GovCloud, valorados conjuntamente en 540 millones de dólares (≈497 millones de euros) hasta 2028. La ODNI (Office of the Director of National Intelligence) ha publicado el 22 de abril una orden ejecutiva que exige auditorías trimestrales del uso de IA en agencias de inteligencia. Anthropic, por su parte, ha confirmado que mantiene sus políticas de uso restrictivo y que no servirá modelos a la CIA mientras esos límites no se respeten. La línea editorial entre seguridad nacional y ética de IA queda políticamente más tensa que nunca, con el Congreso estadounidense estudiando una nueva audiencia bipartidista en mayo.

Mi valoración

Llevo desde 2014 cubriendo intersección entre IA y agencias de inteligencia y este movimiento de la CIA es la confirmación más clara de que la línea entre «asistente para analistas» y «analista que decide» está a punto de difuminarse. La frase «AI coworker» suena inofensiva hasta que recuerdas que el trabajo de la CIA incluye operaciones encubiertas, vigilancia y análisis de inteligencia que informa decisiones sobre conflictos armados. Que la IA «no hará el pensamiento por nuestros analistas» es la promesa estándar que hace cualquier empresa cuando despliega IA, hasta que la presión por velocidad y escala la convierte, en la práctica, en la primera línea de análisis que los humanos revisan por encima.

El dato más revelador es que la CIA ya generó un informe de inteligencia con IA. Eso no es un piloto; es un cambio de paradigma. Mi expectativa razonable, tras 12 años siguiendo presupuestos clasificados a través de los informes públicos del IC (Intelligence Community), es que en 2028 al menos el 40% de la producción analítica baja-media tenga primer borrador generado por IA. La pregunta no será si los analistas usan IA, sino quién controla los criterios de validación, y ahí el conflicto con Anthropic está marcando línea editorial geopolítica para años.

Preguntas frecuentes

¿Qué son los «AI coworkers» de la CIA?

Asistentes de IA generativa clasificada que se integrarán en las plataformas analíticas de la CIA para ayudar con tareas como redacción de informes, edición para claridad y comparación de borradores contra estándares de tradecraft. Los humanos seguirán tomando las decisiones clave, al menos en la versión pública del plan.

¿Cuándo estarán disponibles los AI coworkers en la CIA?

En los próximos dos años, según declaró el subdirector Michael Ellis el 9 de abril de 2026 en Washington. La agencia ya ha cerrado contratos plurianuales con Palantir, OpenAI Government y Microsoft Azure GovCloud por 540 millones de dólares hasta 2028.

¿Qué pasó entre Anthropic y la CIA?

El Pentágono designó a Anthropic como riesgo para la cadena de suministro tras negarse a relajar salvaguardas de Claude para vigilancia masiva y armas autónomas. La CIA está construyendo capacidades internas y trabajando con otros proveedores que aceptan esos usos, mientras Anthropic mantiene sus políticas restrictivas.