Anthropic y el Pentágono chocan por el uso de Claude: dónde están los límites de la IA en defensa

La discusión entre Anthropic y el Pentágono no gira alrededor de si la inteligencia artificial puede ayudar al Departamento de Defensa, sino de algo más incómodo: bajo qué condiciones y con qué margen de maniobra. Según informó Axios y recogió TechCrunch, el Pentágono está pidiendo a varias compañías de IA que permitan a las Fuerzas Armadas usar sus modelos para “todos los fines legales”. El matiz importa, porque esa fórmula funciona como una llave maestra: no describe un caso de uso concreto, sino un paraguas amplio que, en la práctica, podría abarcar desde tareas administrativas hasta operaciones militares sensibles.

En ese mismo reporte, un funcionario anónimo de la administración Trump aseguró que el gobierno está trasladando esa exigencia también a OpenAI, Google y xAI. Siempre según esa fuente, una de las compañías habría aceptado tal cual, mientras que otras dos habrían mostrado cierta flexibilidad. En ese contexto, Anthropic aparece como la más reacia a firmar un “cheque en blanco” operativo. Continúa leyendo «Anthropic y el Pentágono chocan por el uso de Claude: dónde están los límites de la IA en defensa»

ChatGPT para uso militar, las puertas se abren para lo que el ser humano siempre hace

Me veo en la necesidad de hablar sobre un tema que está generando un intenso debate en el mundo de la inteligencia artificial (IA): el reciente cambio en la política de uso de OpenAI. Este cambio no es menor, ya que implica la posibilidad de utilizar tecnologías de IA en el ámbito militar, un tema que siempre ha estado rodeado de controversia.

El equipo de OpenAI ha decidido modificar su política de uso, específicamente eliminando las restricciones que impedían el uso de su tecnología en el desarrollo de armamento y en aplicaciones militares. Este cambio se ha hecho, según la empresa, para lograr una mayor claridad y legibilidad en sus términos de uso. Sin embargo, es importante señalar que OpenAI aún mantiene ciertas prohibiciones firmes, como el uso de su tecnología para causar daño a personas, vigilancia de comunicaciones, o para destruir propiedad.

Continúa leyendo «ChatGPT para uso militar, las puertas se abren para lo que el ser humano siempre hace»