En el desarrollo de la inteligencia artificial (IA), una de las herramientas más prometedoras y, a la vez, más delicadas es la llamada cadena de pensamiento (CoT, por sus siglas en inglés). Este mecanismo permite que los modelos expliquen sus procesos de razonamiento paso a paso, como si compartieran su monólogo interno. ¿Por qué es esto importante? Porque nos da una ventana a su forma de pensar y actuar, lo que puede ser esencial para prevenir riesgos.
Ahora, un grupo de investigadores de OpenAI, Anthropic, Meta y Google DeepMind, junto con otras instituciones como el Center for AI Safety y el UK AI Safety Institute, advierten en un nuevo informe que esta herramienta podría estar en peligro justo cuando más la necesitamos. Continúa leyendo «Vigilar la «cadena de pensamiento»: un nuevo frente para mejorar la seguridad en la inteligencia artificial»