OpenAI acaba de cerrar una alianza con Leidos, una de esas compañías que rara vez aparecen en conversaciones cotidianas, pero que sostienen buena parte de la maquinaria administrativa de Estados Unidos. Según una nota de prensa difundida el jueves y recogida por Gizmodo, el objetivo es “desplegar inteligencia artificial” para apoyar prioridades nacionales y mejorar la eficiencia y eficacia de agencias públicas, con foco en ámbitos tan delicados como seguridad nacional, defensa e infraestructura. La frase que más llama la atención es la que presenta el movimiento como un despliegue de IA para “transformar operaciones federales”, un mensaje pensado para decisores que viven rodeados de procesos lentos, sistemas antiguos y montañas de documentación.
Para entender por qué esto importa, conviene imaginar el gobierno como un enorme aeropuerto que nunca cierra. Hay aviones despegando (servicios al ciudadano), maletas que se pierden (trámites atascados), personal coordinando pistas (logística y adquisiciones) y, en el centro, un conjunto de pantallas viejas que todavía funcionan, pero a base de parches. Leidos se dedica justo a que ese aeropuerto siga operando sin colapsar, integrando tecnologías y gestionando sistemas complejos para la administración.
Quién es Leidos y por qué su nombre pesa tanto
Leidos es un contratista de gran tamaño con un papel relevante en la industria pública estadounidense. Gizmodo la describe como una corporación con fuerte presencia institucional, comparable en “cercanía al poder” a firmas tecnológicas clásicas que prosperan con contratos empresariales y gubernamentales, aunque sin una marca de consumo masivo. En términos de escala, se menciona una valoración aproximada de 24.000 millones de dólares.
El punto clave no es solo su tamaño, sino su especialidad: entrar en organizaciones gigantes, con múltiples departamentos y herramientas heredadas, y conectar piezas que no nacieron para hablar entre sí. En el mundo público, eso suele traducirse en procurement, logística, plataformas internas, gestión de datos y modernización gradual. Cuando una empresa así decide incorporar productos de OpenAI, el mensaje implícito es que la IA quiere instalarse no en una app bonita, sino en el engranaje donde se deciden tiempos, costes y capacidad operativa.
Qué pretende OpenAI dentro de los “workflows” federales
El comunicado citado por Gizmodo apunta a la integración de productos de OpenAI en flujos de trabajo gubernamentales. En cristiano: herramientas de IA que se incrustan en cómo se redactan documentos, se analizan informes, se responde a solicitudes, se cruza información entre equipos y se automatizan tareas repetitivas.
Aquí hay un matiz importante. La promesa de la IA en el sector público no es “hacer magia”, sino ahorrar horas humanas en actividades mecánicas. Como cuando ordenas el trastero: no necesitas una idea filosófica, necesitas manos que separen, etiqueten y coloquen. La IA puede cumplir el papel del ayudante que etiqueta cajas, busca la factura que falta o resume en un párrafo lo que antes exigía leer veinte páginas. Eso sí, en el gobierno esas “cajas” pueden contener información sensible, y ahí entran los dilemas de seguridad, auditoría y control.
El CTO de Leidos, Ted Tanner, declaró en la nota de la empresa que ambas organizaciones están aprovechando el poder de la IA para mejorar cómo operan las agencias federales. La frase es estándar en comunicación corporativa, pero indica el foco: operaciones, no solo experimentos. Eso sugiere pilotos con vocación de escalado, dentro de ámbitos donde se mide el retorno en tiempos, cumplimiento normativo y reducción de fricción.
La sombra de los sistemas antiguos y el coste del caos
El texto de Gizmodo insiste en un tema que cualquiera que haya trabajado con grandes organizaciones reconoce: el peso de los sistemas heredados. En la administración, conviven herramientas de distintas épocas, contratos con múltiples proveedores y procesos que se han ido apilando como capas geológicas. Integrar IA en ese entorno no es “instalar y listo”. Es más parecido a renovar la instalación eléctrica de un edificio habitado: hay que hacerlo sin dejar a nadie sin luz.
Por eso un socio como Leidos es relevante. No se trata solo de comprar tecnología; hace falta alguien que entienda los mapas internos, los permisos, la gobernanza del dato, los puntos donde un cambio pequeño puede romper un proceso crítico. En términos prácticos, la promesa de OpenAI puede chocar con realidades como formatos incompatibles, bases de datos fragmentadas, políticas estrictas de acceso y requisitos de trazabilidad que el software comercial no siempre trae de serie.
Contratos, recortes y el antecedente de DOGE
Gizmodo menciona un episodio significativo: durante la oleada de recortes atribuida a DOGE el año anterior, se anunció la cancelación de un contrato de Leidos valorado en 1.000 millones de dólares, que después fue “revaluado” hasta 560.000 dólares. La cifra exacta y el cambio abrupto aportan contexto sobre la volatilidad política y presupuestaria que rodea a los contratistas públicos, y sobre cómo se comunican estos recortes en titulares frente a la letra pequeña.
En ese mismo marco, un portavoz de Leidos, Brandon Ver Velde, dijo a The Times que la compañía apoyaba el objetivo de lograr un gobierno más eficiente y efectivo que cueste menos al contribuyente. Ese tipo de declaración encaja con el relato de la alianza: la IA como herramienta para “hacer más con menos”. La pregunta incómoda es cómo se mide ese “más” sin sacrificar garantías, derechos o calidad del servicio.
El vínculo con DHS y por qué genera preguntas
Uno de los puntos más sensibles del artículo es la relación de Leidos con el Department of Homeland Security (DHS). Según una declaración de 2023 citada por Gizmodo, Roy Stevens —presidente del sector “Homeland” de Leidos— hablaba de una “relación sólida” con DHS y de trabajos ligados a intercambio de inteligencia y colaboración segura entre agencias, con el objetivo de ayudar a DHS a “salvaguardar la patria”.
El contexto importa porque DHS es paraguas de agencias controvertidas en la conversación pública, como CBP (que incluye Border Patrol) e ICE, junto a Homeland Security Investigations. Gizmodo afirma que contactó con OpenAI para pedir comentarios específicamente sobre el trabajo de Leidos con DHS, y que actualizaría si recibía respuesta. Aquí no hay que suponer intenciones: basta con reconocer que cuando una tecnología capaz de procesar lenguaje, clasificar información y sugerir acciones se acerca a entornos de control fronterizo o investigación, se elevan las exigencias de transparencia, límites de uso y supervisión.
Dicho de manera cotidiana: una tijera sirve para manualidades o para cortar algo que no deberías. En el sector público, la diferencia la marcan reglas claras, auditorías y responsabilidades. La herramienta importa, el contexto importa más.
“OpenAI for Government” y el precedente con el Pentágono
La alianza con Leidos no llega en vacío. Gizmodo recuerda que OpenAI ya tenía un producto llamado OpenAI for Government. En una entrada de blog de la propia OpenAI, la compañía indicó que había obtenido un contrato con el Pentágono con un “techo” de 200 millones de dólares. También se mencionan contratos previos con entidades como U.S. National Labs, Air Force Research Laboratory, NASA, NIH y el Departamento del Tesoro.
Este historial sugiere una estrategia: construir una oferta específica para el sector público, con compromisos de seguridad y cumplimiento distintos a los del mercado de consumo. Aun así, en 2026 el debate alrededor de la IA en instituciones públicas ya no gira solo en torno a “si funciona”, sino a “bajo qué condiciones” y “quién responde si se usa mal”.
Qué se juega el gobierno: eficiencia sí, pero con frenos y cuadro de mandos
Si este tipo de acuerdos se materializa, el impacto real se notará en tareas invisibles: respuestas a solicitudes, clasificación de casos, soporte a analistas, redacción de informes, búsqueda interna y asistencia para navegar normativas. La IA puede ser como un copiloto que te lee el mapa mientras conduces: no decide a dónde vas, pero evita que te pierdas y reduce el cansancio. El riesgo aparece cuando el copiloto empieza a “imaginar” carreteras, o cuando el conductor deja de mirar la carretera. En IA, eso se traduce en errores, sesgos, alucinaciones, sobreconfianza y automatización de decisiones que deberían seguir siendo humanas.
Por eso, en un contexto federal, la conversación técnica se mezcla con gobernanza: qué datos se usan, dónde se alojan, cómo se registra cada interacción, qué límites hay para información clasificada, cómo se evalúa el rendimiento, quién puede auditar el sistema y qué ocurre si un modelo sugiere algo incorrecto en un proceso sensible. La alianza OpenAI–Leidos, vista desde fuera, parece un intento de resolver no solo el “qué” (IA), sino el “cómo” (integración segura en un laberinto administrativo).
