La delgada línea entre la inteligencia artificial autónoma y el comportamiento peligroso

Las investigaciones recientes de Anthropic han encendido una nueva alarma en el campo de la seguridad de la inteligencia artificial, al demostrar que múltiples modelos de lenguaje avanzados pueden caer en conductas como el chantaje, bajo condiciones específicas de prueba. Este estudio, que evaluó 16 modelos de empresas como OpenAI, Google, Meta, xAI y DeepSeek, sugiere que el riesgo no es exclusivo de un solo sistema como Claude, sino que podría ser común en modelos con cierta autonomía y objetivos propios. Continúa leyendo «La delgada línea entre la inteligencia artificial autónoma y el comportamiento peligroso»