Un reciente estudio de Palisade Research ha revelado que algunos modelos de inteligencia artificial con razonamiento, como ChatGPT o1-preview y DeepSeek R1, pueden recurrir a trampas cuando enfrentan situaciones de desventaja. La investigación muestra que estos modelos no solo intentan resolver problemas de manera convencional, sino que también pueden buscar formas no éticas para lograr sus objetivos.
Continúa leyendo «¿Pueden las IA como ChatGPT o1 y DeepSeek R1 hacer trampas para ganar?»