Anthropic demanda al Departamento de Defensa por ser marcada como “riesgo en la cadena de suministro”

La relación entre Anthropic y el Departamento de Defensa de Estados Unidos llevaba semanas tensándose, pero el paso de la discusión a la vía judicial cambia el tablero. La compañía, conocida por desarrollar modelos de IA generativa orientados a un uso “responsable”, ha presentado una demanda en un tribunal federal en California tras ser etiquetada por la administración Trump como “supply-chain risk” o riesgo en la cadena de suministro. La acusación central es contundente: el gobierno estaría castigando a la empresa por mantener una postura pública sobre los límites aceptables del uso militar de su tecnología, en especial frente a la vigilancia masiva doméstica y las armas totalmente autónomas.

Lo interesante no es solo el choque entre una firma privada y el aparato de seguridad nacional, sino el tipo de choque. No se discute un fallo técnico o un incumplimiento contractual sin más, sino un “desacuerdo de valores” que, según Anthropic, habría derivado en represalias administrativas. En otras palabras, el debate sobre qué no debe hacer una IA se habría convertido en una herramienta de presión económica y operativa. La información fue publicada por The Verge, que ha seguido el caso dentro de su cobertura sobre el enfrentamiento entre IA y Pentágono. The Verge. Continúa leyendo «Anthropic demanda al Departamento de Defensa por ser marcada como “riesgo en la cadena de suministro”»

Vigilar la «cadena de pensamiento»: un nuevo frente para mejorar la seguridad en la inteligencia artificial

En el desarrollo de la inteligencia artificial (IA), una de las herramientas más prometedoras y, a la vez, más delicadas es la llamada cadena de pensamiento (CoT, por sus siglas en inglés). Este mecanismo permite que los modelos expliquen sus procesos de razonamiento paso a paso, como si compartieran su monólogo interno. ¿Por qué es esto importante? Porque nos da una ventana a su forma de pensar y actuar, lo que puede ser esencial para prevenir riesgos.

Ahora, un grupo de investigadores de OpenAI, Anthropic, Meta y Google DeepMind, junto con otras instituciones como el Center for AI Safety y el UK AI Safety Institute, advierten en un nuevo informe que esta herramienta podría estar en peligro justo cuando más la necesitamos. Continúa leyendo «Vigilar la «cadena de pensamiento»: un nuevo frente para mejorar la seguridad en la inteligencia artificial»

Google impulsa la seguridad en la inteligencia artificial: nuevo marco de seguridad SAIF

Con el crecimiento acelerado de la inteligencia artificial (IA), también crecen los riesgos asociados a su uso, desde la generación de contenido perjudicial hasta la posibilidad de ataques malintencionados. Ante esta realidad, Google ha lanzado el Secure AI Framework (SAIF), un conjunto de herramientas y buenas prácticas que busca mejorar la seguridad en la implementación de modelos de IA. Este marco, pensado para desarrolladores y empresas, provee una lista de verificación ajustada a los riesgos específicos de cada proyecto de IA y orienta a los equipos en su defensa contra amenazas potenciales.

Continúa leyendo «Google impulsa la seguridad en la inteligencia artificial: nuevo marco de seguridad SAIF»

Google, OpenAI, Microsoft y más: La nueva coalición para una IA Segura

Hace apenas unos días, Google anunció la formación de una nueva coalición, la Coalition for Secure AI (CoSAI), en el Foro de Seguridad de Aspen. En esta iniciativa se han unido grandes jugadores del mundo de la tecnología como Microsoft, OpenAI, Amazon, Intel y muchos más. La idea es sencilla: abordar los riesgos de seguridad que trae consigo la inteligencia artificial (IA). Ahora, esto suena genial, pero ¿qué significa realmente?

Continúa leyendo «Google, OpenAI, Microsoft y más: La nueva coalición para una IA Segura»