En pocas semanas, OpenClaw pasó de ser una curiosidad compartida en redes a convertirse en un nombre repetido en conversaciones sobre agentes personales de IA. Su promesa era directa y fácil de entender: un asistente personal que no se limita a responder, sino que “hace cosas”. En la práctica, esa idea se traduce en tareas… Continúa leyendo »
Anthropic y el Pentágono chocan por el uso de Claude: dónde están los límites de la IA en defensa
La discusión entre Anthropic y el Pentágono no gira alrededor de si la inteligencia artificial puede ayudar al Departamento de Defensa, sino de algo más incómodo: bajo qué condiciones y con qué margen de maniobra. Según informó Axios y recogió TechCrunch, el Pentágono está pidiendo a varias compañías de IA que permitan a las Fuerzas Armadas usar sus modelos para “todos los fines legales”. El matiz importa, porque esa fórmula funciona como una llave maestra: no describe un caso de uso concreto, sino un paraguas amplio que, en la práctica, podría abarcar desde tareas administrativas hasta operaciones militares sensibles.
En ese mismo reporte, un funcionario anónimo de la administración Trump aseguró que el gobierno está trasladando esa exigencia también a OpenAI, Google y xAI. Siempre según esa fuente, una de las compañías habría aceptado tal cual, mientras que otras dos habrían mostrado cierta flexibilidad. En ese contexto, Anthropic aparece como la más reacia a firmar un “cheque en blanco” operativo. Continúa leyendo «Anthropic y el Pentágono chocan por el uso de Claude: dónde están los límites de la IA en defensa»