El 27 de febrero de 2026, OpenAI anunció un acuerdo con el Pentágono para llevar sus tecnologías de inteligencia artificial a sistemas clasificados. El anuncio llegó con un contexto muy concreto: pocas horas antes, el presidente Donald Trump había ordenado a las agencias federales dejar de usar la tecnología de Anthropic, rival directo de OpenAI. La secuencia importa porque no se trata solo de un contrato más; es un episodio que mezcla geopolítica, competencia empresarial y el debate sobre los límites de la IA cuando se cruza con la seguridad nacional. Según informó The New York Times, el pacto permite el uso “para cualquier propósito lícito”, una condición que el Departamento de Defensa exige en este tipo de contratos. Continúa leyendo «OpenAI firma con el Pentágono tras el choque con Anthropic: qué cambia para la IA en entornos clasificados»
Etiqueta: IA clasificada
El Pentágono abre la puerta a Grok en redes clasificadas y enfría su apuesta por Claude: control, ética y dependencia tecnológica
La noticia que está agitando a Washington no gira tanto en torno a si Grok es más capaz que Claude, sino a una pregunta más incómoda: cuando una IA entra en sistemas militares clasificados, ¿quién decide lo que se puede hacer con ella y hasta dónde llegan los límites? Según informó Axios, la compañía de Elon Musk, xAI, ha firmado un acuerdo que permitiría desplegar su modelo Grok dentro de los entornos más sensibles del Departamento de Defensa de Estados Unidos.
Ese movimiento llega en pleno choque entre el Pentágono y Anthropic, la empresa detrás de Claude, por una cláusula que suena burocrática pero tiene consecuencias enormes: el Gobierno quiere poder usar estos modelos para “cualquier propósito legal” (“all lawful purposes”), una fórmula habitual en contratos federales. Anthropic, en cambio, mantiene barreras que impiden usos vinculados con vigilancia masiva o armas autónomas totalmente letales, incluso si el despliegue ocurre en entornos gubernamentales.
Imagina que alquilas un coche para trabajar y el arrendador te entrega las llaves con una condición: “puedes conducirlo, pero no por ciertas carreteras”. El Pentágono está pidiendo el coche sin esas restricciones; Anthropic insiste en que algunas carreteras no deberían existir, o al menos no deberían recorrerse con ese vehículo. Continúa leyendo «El Pentágono abre la puerta a Grok en redes clasificadas y enfría su apuesta por Claude: control, ética y dependencia tecnológica»
Claude Gov: la inteligencia artificial de Anthropic que ya opera en entornos clasificados del gobierno de EE.UU.
Anthropic ha presentado Claude Gov, una familia de modelos de inteligencia artificial desarrollados específicamente para clientes del ámbito de la seguridad nacional de Estados Unidos. Estos nuevos modelos ya están en funcionamiento dentro de agencias que operan en entornos clasificados, lo que marca un paso decisivo en la relación entre empresas de IA y gobiernos. Continúa leyendo «Claude Gov: la inteligencia artificial de Anthropic que ya opera en entornos clasificados del gobierno de EE.UU.»