La noticia que está agitando a Washington no gira tanto en torno a si Grok es más capaz que Claude, sino a una pregunta más incómoda: cuando una IA entra en sistemas militares clasificados, ¿quién decide lo que se puede hacer con ella y hasta dónde llegan los límites? Según informó Axios, la compañía de Elon Musk, xAI, ha firmado un acuerdo que permitiría desplegar su modelo Grok dentro de los entornos más sensibles del Departamento de Defensa de Estados Unidos.
Ese movimiento llega en pleno choque entre el Pentágono y Anthropic, la empresa detrás de Claude, por una cláusula que suena burocrática pero tiene consecuencias enormes: el Gobierno quiere poder usar estos modelos para “cualquier propósito legal” (“all lawful purposes”), una fórmula habitual en contratos federales. Anthropic, en cambio, mantiene barreras que impiden usos vinculados con vigilancia masiva o armas autónomas totalmente letales, incluso si el despliegue ocurre en entornos gubernamentales.
Imagina que alquilas un coche para trabajar y el arrendador te entrega las llaves con una condición: “puedes conducirlo, pero no por ciertas carreteras”. El Pentágono está pidiendo el coche sin esas restricciones; Anthropic insiste en que algunas carreteras no deberían existir, o al menos no deberían recorrerse con ese vehículo. Continúa leyendo «El Pentágono abre la puerta a Grok en redes clasificadas y enfría su apuesta por Claude: control, ética y dependencia tecnológica»