Google ha firmado este 28 de abril un acuerdo con el Pentágono que permite al Departamento de Defensa usar sus modelos Gemini para trabajo militar clasificado bajo términos que cubren «cualquier propósito gubernamental lícito». El anuncio llegó un día después de que más de 580 empleados de Google firmaran una carta abierta pidiendo a Sundar Pichai que rechazase exactamente este tipo de acuerdo. El mismo día, Bloomberg reveló que Google se había retirado en febrero, en silencio, de un concurso del Pentágono con un premio de 100 millones de dólares para crear tecnología que permita controlar enjambres de drones autónomos por comandos de voz. La compañía citó oficialmente «falta de recursos», pero según los registros revisados por Bloomberg, la decisión vino tras una revisión ética interna. Allison Steffens Herrera lo cubre en TheNextWeb.
La yuxtaposición de las dos noticias es la que define la posición de Google. La compañía está dibujando una línea entre vender acceso a IA de propósito general al Pentágono (acepta) y construir tecnología específica para armas (rechaza). Pero los empleados pidieron que la línea se trazase en otro sitio, antes incluso del trabajo clasificado.
El acuerdo: cualquier propósito lícito
El acuerdo de Gemini con el Pentágono se estructura como extensión del contrato existente de Google. No es desarrollo de modelos custom ni aplicaciones militares específicas; es acceso vía API a los modelos de Google sobre redes clasificadas, los sistemas air-gapped aislados del internet público que manejan planificación de misiones, análisis de inteligencia y selección de objetivos para armas. La fórmula «cualquier propósito gubernamental lícito» coloca a Google al lado de OpenAI y xAI de Elon Musk, ambas empresas con sus propios acuerdos clasificados con el Pentágono.
El contrato de Google incluye lenguaje afirmando que «el sistema de IA no está diseñado para, y no debería ser usado para, vigilancia masiva doméstica o armas autónomas (incluida la selección de objetivos) sin la supervisión y control humano apropiados». Pero el lenguaje es advisory, no prohibición contractual, y «control humano apropiado» no está definido. El gobierno puede solicitar ajustes a las configuraciones de seguridad y filtros de contenido de Google, una provisión que da al Pentágono la capacidad de modificar las guardrails que los propios investigadores de Google han construido en los modelos.
La retirada del concurso de drones swarm
La pieza paralela del puzzle es lo que Google decidió no hacer. El concurso del Pentágono con premio de 100 millones de dólares buscaba tecnología para que comandantes pudieran dirigir enjambres autónomos de drones usando comandos de voz, convirtiendo palabras como «izquierda» en instrucciones digitales enviadas a los drones. Google había avanzado en la competición; el 11 de febrero de 2026 notificó al gobierno que no participaría más. La razón oficial: falta de recursos. La razón documentada: revisión ética interna.
La retirada hace eco de Project Maven en 2018, cuando aproximadamente 4.000 empleados de Google firmaron una petición sobre el análisis IA de feeds de vídeo de drones, y Google dejó expirar el contrato. Palantir lo asumió. El contrato Maven valía unos pocos millones; la inversión Maven de Palantir ha crecido desde entonces a 13.000 millones.
El patrón de ocho años
La trayectoria de Google desde Project Maven en 2018 hasta el acuerdo Gemini clasificado en 2026 sigue un patrón que la carta de los empleados describe como sistemático. En 2018, Google introduce principios de IA prometiendo no buscar tecnología de armas o vigilancia. En febrero de 2025, Google elimina el pasaje de sus principios que excluía armas y vigilancia, citando «una competencia global por el liderazgo en IA». En diciembre de 2022, Google gana parte del contrato del Pentágono Joint Warfighting Cloud Capability de 9.000 millones. En diciembre de 2025, el Pentágono lanza GenAI.mil, alimentada por el chatbot Gemini de Google. En marzo de 2026, Google despliega agentes de IA Gemini a los tres millones de trabajadores del Pentágono en sistemas no clasificados. En abril de 2026, Google extiende ese acceso a redes clasificadas. Cada paso es individualmente defendible. La trayectoria, no.
La carta de los 580 empleados
La carta abierta firmada el 27 de abril por más de 580 empleados de Google incluyó 20 directores, directores senior y vicepresidentes, además de investigadores senior de DeepMind. Dos tercios aceptaron ser nombrados; un tercio pidió anonimato por miedo a represalias. Los organizadores de la carta declararon que «Maven no ha terminado. Los trabajadores van a continuar organizándose contra la weaponización de la tecnología de IA de Google hasta que la compañía dibuje líneas claras y enforceables».
Google dibujó una línea el martes. Pero la dibujó entre acceso clasificado a IA y enjambres de drones autónomos, entre vender modelos de propósito general al Pentágono y construir aplicaciones de armas específicas. Los empleados pidieron que la línea se dibujara en el trabajo clasificado mismo. Google eligió dibujarla donde la óptica del desarrollo de armas se vuelve innegable, no donde el potencial de uso indebido se vuelve posible.
La inversión paralela en Anthropic
La paradoja más interesante del momento es que Google está simultáneamente invirtiendo hasta 40.000 millones de dólares en Anthropic, la compañía que fue blacklisteada por la administración Trump por negarse a eliminar las restricciones sobre armas autónomas y vigilancia masiva de su contrato con el Pentágono. Google está financiando a la empresa que rechazó lo que Google acaba de aceptar, mientras despliega los modelos cuya restricción Anthropic estaba intentando proteger.
Mi valoración
La línea que Google dibuja es comprensible empresarialmente y problemática éticamente. Comprensible porque la distinción entre «vendemos la herramienta» y «construimos el arma» es una distinción que los abogados pueden defender, los reguladores pueden tolerar y la junta directiva puede aprobar. Problemática porque, como señalan los empleados, en una red clasificada Google no puede ver qué consultas se ejecutan, qué outputs se generan ni qué decisiones se toman con esos outputs. La línea es de marketing, no de implementación. Lo que más me preocupa es el patrón. Cada paso individual era defendible: principios de IA en 2018, eliminación del pasaje sobre armas en 2025, contrato JWCC, GenAI.mil, agentes Gemini en sistemas no clasificados, ahora redes clasificadas. Pero la trayectoria de ocho años es un caso de manual sobre cómo se erosiona una posición ética: nunca con un movimiento dramático, siempre con incrementos individualmente justificables. Si en 2018 alguien hubiera predicho dónde estaría Google en 2026 con respecto al uso militar, la mayoría de empleados habrían rechazado la predicción. Y aquí estamos. Lo que me parece estructuralmente significativo es la posición europea como contraste. Las empresas europeas de defensa tech están construyendo sus propias capacidades de IA militar con applications purpose-specific (Helsing y otros) que definen su caso de uso en el diseño en lugar de dejarlo al usuario en una red clasificada. El enfoque europeo construye la restricción dentro de la tecnología. El enfoque estadounidense construye la tecnología y añade lenguaje advisory que el cliente puede modificar. A 5-10 años, la diferencia de filosofías va a producir divergencia significativa de capacidades militares de IA entre Europa y Estados Unidos. La pregunta más interesante es qué pasa con Anthropic. La compañía sostuvo sus límites mientras Google, OpenAI y xAI cedieron, y fue penalizada por el blacklist de Trump. Pero la integridad de mantener los principios bajo presión va a ser, a largo plazo, la base de una marca empresarial diferente al resto. Si Anthropic sobrevive a los próximos 18 meses sin doblegarse, va a establecerse como la opción ética del sector, lo cual tiene valor comercial real para clientes (gobiernos europeos, instituciones académicas, empresas con compromisos ESG) que no pueden permitirse asociarse con vigilancia masiva o armas autónomas. Es un movimiento contraintuitivo: ganar más mercado del que pierdes manteniendo principios. Veremos si funciona.
Preguntas frecuentes
¿Qué incluye el acuerdo de Google con el Pentágono? Acceso vía API a los modelos Gemini sobre redes clasificadas (air-gapped) del Departamento de Defensa, bajo términos que cubren «cualquier propósito gubernamental lícito». Es extensión del contrato existente, no desarrollo custom.
¿Por qué Google se retiró del concurso de drones swarm? Oficialmente por «falta de recursos». Según los registros revisados por Bloomberg, la decisión siguió a una revisión ética interna sobre construir tecnología que controlase autónomamente enjambres de drones por comandos de voz.
¿Pueden los empleados de Google parar este tipo de acuerdos? No directamente. Pero las cartas abiertas como la del 27 de abril (580 firmas, 20+ directores) elevan el coste reputacional interno de aceptar contratos que cruzan ciertas líneas, y en algunos casos han llevado a Google a abandonar contratos (Maven 2018).
