Anthropic demanda al Departamento de Defensa por ser marcada como “riesgo en la cadena de suministro”

La relación entre Anthropic y el Departamento de Defensa de Estados Unidos llevaba semanas tensándose, pero el paso de la discusión a la vía judicial cambia el tablero. La compañía, conocida por desarrollar modelos de IA generativa orientados a un uso “responsable”, ha presentado una demanda en un tribunal federal en California tras ser etiquetada por la administración Trump como “supply-chain risk” o riesgo en la cadena de suministro. La acusación central es contundente: el gobierno estaría castigando a la empresa por mantener una postura pública sobre los límites aceptables del uso militar de su tecnología, en especial frente a la vigilancia masiva doméstica y las armas totalmente autónomas.

Lo interesante no es solo el choque entre una firma privada y el aparato de seguridad nacional, sino el tipo de choque. No se discute un fallo técnico o un incumplimiento contractual sin más, sino un “desacuerdo de valores” que, según Anthropic, habría derivado en represalias administrativas. En otras palabras, el debate sobre qué no debe hacer una IA se habría convertido en una herramienta de presión económica y operativa. La información fue publicada por The Verge, que ha seguido el caso dentro de su cobertura sobre el enfrentamiento entre IA y Pentágono. The Verge. Continúa leyendo «Anthropic demanda al Departamento de Defensa por ser marcada como “riesgo en la cadena de suministro”»

OpenAI y el Pentágono: qué se sabe del acuerdo, qué promete la empresa y por qué hay polémica

La relación entre OpenAI y el Pentágono ha entrado en una fase delicada tras conocerse más detalles de un acuerdo para desplegar modelos de IA en entornos clasificados. Según explicó su propio CEO, Sam Altman, el pacto fue “apresurado” y el impacto reputacional era previsible, una confesión poco habitual en una industria que suele presentar cada movimiento como un paso medido. La urgencia no surgió de la nada: el contexto político cambió de golpe cuando se frustraron las negociaciones entre Anthropic y el Departamento de Defensa de Estados Unidos, tal y como relató TechCrunch.

En ese mismo relato aparece un detonante claro: tras el choque con Anthropic, el presidente Donald Trump ordenó a las agencias federales dejar de usar su tecnología tras un periodo de transición de seis meses, mientras el secretario de Defensa, Pete Hegseth, la calificaba como riesgo para la cadena de suministro. En ese escenario, OpenAI anunció con rapidez un acuerdo alternativo para llevar sus modelos a usos clasificados. Si lo piensas como un aeropuerto en plena tormenta, Anthropic se quedó sin pista de aterrizaje y OpenAI entró por una calle de rodaje de emergencia: llegar primero era importante, aunque el aterrizaje no fuese elegante. Continúa leyendo «OpenAI y el Pentágono: qué se sabe del acuerdo, qué promete la empresa y por qué hay polémica»

Claude en el frente: el choque entre Anthropic y el Pentágono por los límites de la IA

La chispa que ha encendido el conflicto entre Anthropic y el Pentágono llega envuelta en niebla informativa. Medios como The Wall Street Journal describieron que el ejército de Estados Unidos habría utilizado Claude, el modelo de lenguaje de Anthropic, en un operativo en Venezuela que terminó con la captura del dirigente venezolano Nicolás Maduro y su traslado a Estados Unidos para enfrentar cargos. La agencia Reuters recogió esa versión subrayando que no pudo verificarla de forma independiente, y que ni el Departamento de Defensa ni la propia Anthropic confirmaron detalles operativos.

En paralelo, The Guardian se hizo eco del mismo relato, añadiendo versiones sobre el nivel de violencia en Caracas según fuentes venezolanas, lo que amplifica la controversia: no solo se discute si una IA estuvo “en la sala” durante una acción militar, sino qué tipo de acción fue y con qué consecuencias humanas. En este punto conviene poner el foco en lo verificable: hay un reportaje de referencia, hay repercusión internacional y hay un silencio calculado por parte de los actores directamente implicados. Continúa leyendo «Claude en el frente: el choque entre Anthropic y el Pentágono por los límites de la IA»

Google levanta la prohibición sobre el uso de IA en armas: Preocupaciones y repercusiones

Google, una de las empresas tecnológicas más influyentes del mundo, ha generado controversia al levantar su prohibición sobre el uso de inteligencia artificial (IA) en el desarrollo de armas y herramientas de vigilancia. Esta decisión ha sido criticada por organismos de derechos humanos, que advierten sobre los riesgos de permitir que la IA influya en conflictos militares y en la seguridad global.

Continúa leyendo «Google levanta la prohibición sobre el uso de IA en armas: Preocupaciones y repercusiones»

La polémica de la IA y las armas: ¿Cuán lejos es demasiado lejos?

La integración de la inteligencia artificial en diversas áreas de nuestra vida cotidiana ha sido, en muchos casos, un avance significativo. Desde asistentes virtuales que responden nuestras preguntas hasta herramientas de análisis avanzado en la medicina, las aplicaciones parecen ser interminables. Sin embargo, la noticia de un desarrollador que utilizó la API de ChatGPT para controlar un arma de fuego automatizada nos obliga a reflexionar: ¿hasta dónde deberíamos permitir que llegue la IA?

Continúa leyendo «La polémica de la IA y las armas: ¿Cuán lejos es demasiado lejos?»