Google, Microsoft y xAI acuerdan dar al gobierno de EE.UU. acceso temprano a sus modelos de IA con salvaguardas reducidas para evaluación de seguridad nacional

Publicado el

OpenAI firma acuerdo multimillonario con Amazon

Google, Microsoft y xAI han firmado acuerdos con el Departamento de Comercio de Estados Unidos para proporcionar al gobierno acceso anticipado a sus modelos de IA. Lo publica Igor Bonifacic en Engadget este 5 de mayo a partir de información de The Wall Street Journal. El organismo receptor es el Centro para Estándares e Innovación en IA (CAISI), que evaluará los nuevos modelos que cada empresa desarrolle antes de que se lancen públicamente.

El acuerdo llega un día después de que el New York Times informara de que la administración Trump está considerando endurecer la supervisión del sector de IA. La coincidencia de fechas no parece casual: las tres empresas se anticipan con un gesto voluntario de cooperación justo cuando la presión regulatoria podría materializarse.

El detalle más llamativo del acuerdo, según The Wall Street Journal, es que Google, Microsoft y xAI proporcionarán sus modelos con salvaguardas reducidas o incluso desactivadas para permitir que CAISI explore capacidades relacionadas con la seguridad nacional que los sistemas normales no exhibirían.

Qué es CAISI y qué evaluará

CAISI —Centro para Estándares e Innovación en IA del Departamento de Comercio— es el organismo federal dedicado a desarrollar estándares técnicos de IA y a evaluar las implicaciones de los sistemas de IA más avanzados para la seguridad nacional. Su director, Chris Fall, describió el acuerdo en términos inequívocos: «La ciencia de medición independiente y rigurosa es esencial para entender la IA de frontera y sus implicaciones para la seguridad nacional.»

Las evaluaciones se centrarán en lo que la industria denomina «capacidades de uso dual»: funciones que tienen aplicaciones legítimas pero que también podrían usarse para actividades potencialmente dañinas —diseño de armas, ciberataques avanzados, desinformación a escala—. Por eso el acceso se da con salvaguardas reducidas: para que los evaluadores puedan explorar el comportamiento real del modelo cuando no están activos los filtros de seguridad habituales.

Este acuerdo tiene un antecedente directo en la relación ya conocida entre la administración Trump y los laboratorios de IA. Hace apenas tres días, cubrimos que Microsoft, Nvidia y AWS firmaron contratos con el Pentágono bajo la fórmula de «any lawful purpose», mientras Anthropic sigue fuera por sus restricciones sobre armas autónomas y vigilancia masiva. El acuerdo de hoy con CAISI es diferente en naturaleza —es evaluación, no despliegue operacional—, pero forma parte de la misma tendencia: la administración Trump construyendo acceso institucionalizado a los modelos de IA más avanzados.

Por qué Anthropic no está en la lista

La ausencia de Anthropic en el acuerdo con CAISI es notable pero no sorprendente dado el contexto reciente. La empresa lleva meses en una posición incómoda: sus modelos son usados por la NSA bajo el programa Mythos, pero Anthropic mantiene restricciones en sus contratos con el Departamento de Defensa que otros laboratorios no tienen. La compañía ha apostado por una estrategia diferente: invertir 20 millones de dólares en política electoral para promover candidatos favorables a la regulación de IA y defender que las salvaguardas en sus contratos gubernamentales son innegociables.

Que tres de los cuatro grandes laboratorios occidentales de IA —Google (Gemini), Microsoft (GPT de OpenAI vía acuerdo) y xAI (Grok)— hayan firmado con CAISI mientras Anthropic (Claude) no está, es el reflejo en el sector civil del patrón que ya vimos en el ámbito militar. La presión implícita para Anthropic es evidente: si todos los competidores cooperan con el gobierno a este nivel, el coste de no hacerlo se vuelve cada vez mayor.

La regulación de la IA en EE.UU. bajo Trump ha seguido un camino de desregulación federal y preempción de leyes estatales, pero este acuerdo muestra la otra cara: donde el ejecutivo no regula, negocia acceso directo con las empresas más relevantes.

Mi valoración

Tras seguir el proceso de militarización y gubernamentalización de la IA en los últimos 18 meses, este acuerdo de CAISI me parece el movimiento más sofisticado que ha hecho la administración Trump en materia de IA. No regula —eso generaría resistencia política y judicial—, pero crea acceso institucional a los modelos antes de que se lancen, con salvaguardas reducidas, bajo el paraguas de «seguridad nacional». Es una forma de oversight que no requiere legislación.

Lo que más me convence es la lógica técnica del acuerdo: si quieres evaluar realmente qué puede hacer un modelo en escenarios de riesgo, necesitas acceso sin los filtros habituales. Los red teams internos de las empresas hacen exactamente eso. CAISI es esencialmente un red team externo con credenciales de seguridad nacional.

Lo que más me preocupa es la opacidad inevitable de este proceso. Las evaluaciones de CAISI son confidenciales, los resultados no serán públicos y las «capacidades de riesgo» que encuentren no se comunicarán a la sociedad civil. Si el modelo tiene capacidades preocupantes, ¿lo sabremos? ¿Detendrá eso su lanzamiento o solo añadirá condiciones al despliegue en ciertos contextos?

La pregunta a 24 meses no es si CAISI tiene capacidad técnica para evaluar los modelos —probablemente la tiene con el talento que puede contratar— sino si el proceso resulta en restricciones reales o en certificados de cooperación que las empresas pueden mostrar a reguladores más estrictos como la UE.

Preguntas frecuentes

¿Qué es CAISI y qué tipo de evaluaciones hace?

El Centro para Estándares e Innovación en IA (CAISI) es el organismo del Departamento de Comercio de EE.UU. dedicado a desarrollar estándares técnicos de IA y a evaluar las implicaciones de los sistemas de IA más avanzados. Sus evaluaciones se centran en capacidades de uso dual —funciones que pueden tener aplicaciones tanto legítimas como peligrosas— y en las implicaciones para la seguridad nacional de los modelos más avanzados.

¿Por qué se dan los modelos con salvaguardas reducidas?

Para que CAISI pueda explorar el comportamiento real del modelo cuando no están activos los filtros de seguridad habituales. Un modelo evaluado con todas sus salvaguardas solo muestra su comportamiento en condiciones normales; para evaluar riesgos de seguridad nacional, los evaluadores necesitan acceso al modelo en condiciones que los usuarios normales nunca activarían.

¿Por qué Anthropic no forma parte del acuerdo?

La información disponible no incluye confirmación de que Anthropic haya sido invitada o haya rechazado el acuerdo con CAISI. Lo que sí es conocido es que Anthropic ha mantenido restricciones más estrictas en sus contratos con organismos de defensa estadounidenses —sobre uso en vigilancia masiva y armas autónomas— que otros laboratorios de IA. Esa posición podría dificultar un acuerdo de acceso con salvaguardas reducidas.