Durante años, los modelos de lenguaje de gran escala (LLM) han sido como cajas negras: extremadamente útiles, pero con un funcionamiento interno que muy pocos comprenden a fondo. Aunque parezca que simplemente generan texto palabra por palabra, lo cierto es que sus procesos son mucho más complejos. Ahora, gracias a una nueva técnica llamada circuit tracing, la empresa Anthropic ha comenzado a levantar el velo sobre cómo piensa su modelo Claude 3.5 Haiku. Continúa leyendo «Claude AI bajo la lupa: cómo Anthropic está desentrañando el misterio de los modelos de lenguaje»
Etiqueta: circuit tracing
Así es como Claude “piensa”: El mapa interno de la IA que revela planificación, mentiras y razonamiento complejo
Cuando usamos una IA como Claude para escribir poemas, resolver preguntas o traducir entre idiomas, solemos asumir que simplemente sigue patrones aprendidos. Pero una nueva investigación de Anthropic nos muestra que hay mucho más en juego. Por primera vez, los científicos han logrado observar qué ocurre dentro del modelo cuando toma decisiones, y los resultados son sorprendentes: la IA planifica, razona en varios pasos, e incluso puede inventar justificaciones cuando no sabe una respuesta.
Este avance se basa en técnicas inspiradas en la neurociencia, similares a las que se usan para estudiar el cerebro humano. El objetivo es entender los “circuitos” internos que se activan cuando la IA realiza tareas complejas, como si abriéramos una máquina para ver cómo engranan sus piezas. Continúa leyendo «Así es como Claude “piensa”: El mapa interno de la IA que revela planificación, mentiras y razonamiento complejo»