Uno de los mayores retos de la inteligencia artificial es su condición de «caja negra». Aunque los modelos generativos actuales pueden ofrecer respuestas impresionantes, muchas veces es imposible saber qué procesos internos los llevaron a ellas. Esta falta de transparencia genera desconfianza y limita su aplicación en sectores críticos. Pero Anthropic está probando una posible salida: la introspección artificial.
Los modelos Claude Opus 4 y 4.1, según la propia Anthropic, muestran una habilidad incipiente para describir sus procesos internos. En cerca de un 20% de los casos, son capaces de explicar por qué ofrecieron una respuesta o qué pensaban cuando lo hicieron. Esto se traduce en una especie de comentario en voz alta de sus propias decisiones, como si un actor explicara su personaje durante la función. Continúa leyendo «Claude empieza a «pensar sobre lo que piensa»: la introspección llega a la IA»