Google presenta Nested Learning, un nuevo enfoque para resolver el problema de memoria en la IA

Los modelos de lenguaje actuales como los basados en transformers han logrado avances impresionantes, pero tienen una limitación fundamental: no pueden aprender de nuevas interacciones después de haber sido entrenados. Esto los convierte en sistemas estáticos, incapaces de actualizar su conocimiento o adquirir habilidades duraderas a partir de nuevos datos. Son como estudiantes que, una vez terminado el curso, ya no pueden aprender más, salvo lo que recuerdan en el corto plazo.

Aunque estos modelos pueden hacer «aprendizaje en contexto», es decir, adaptarse momentáneamente a la información que se les da en un prompt, no retienen ese conocimiento. Todo lo aprendido se pierde al finalizar la conversación o superar el límite de su ventana de contexto. No existe una consolidación de la memoria, como ocurre en el cerebro humano durante el sueño, cuando las experiencias del día se convierten en recuerdos duraderos. Continúa leyendo «Google presenta Nested Learning, un nuevo enfoque para resolver el problema de memoria en la IA»