Un nuevo estudio de Google DeepMind y University College London ha revelado un aspecto poco explorado de los modelos de lenguaje de gran tamaño (LLMs): su confianza en las respuestas no siempre es estable, especialmente en conversaciones prolongadas. Esta investigación proporciona pistas clave sobre cómo los LLMs toman decisiones, cambian de opinión y por qué a veces parecen tambalear ante la crítica, incluso cuando inicialmente tenían razón. Continúa leyendo «Los LLMs también dudan: el curioso comportamiento de los modelos de lenguaje bajo presión»