Google presenta Nested Learning, un nuevo enfoque para resolver el problema de memoria en la IA

Los modelos de lenguaje actuales como los basados en transformers han logrado avances impresionantes, pero tienen una limitación fundamental: no pueden aprender de nuevas interacciones después de haber sido entrenados. Esto los convierte en sistemas estáticos, incapaces de actualizar su conocimiento o adquirir habilidades duraderas a partir de nuevos datos. Son como estudiantes que, una vez terminado el curso, ya no pueden aprender más, salvo lo que recuerdan en el corto plazo.

Aunque estos modelos pueden hacer «aprendizaje en contexto», es decir, adaptarse momentáneamente a la información que se les da en un prompt, no retienen ese conocimiento. Todo lo aprendido se pierde al finalizar la conversación o superar el límite de su ventana de contexto. No existe una consolidación de la memoria, como ocurre en el cerebro humano durante el sueño, cuando las experiencias del día se convierten en recuerdos duraderos. Continúa leyendo «Google presenta Nested Learning, un nuevo enfoque para resolver el problema de memoria en la IA»

Nested Learning: una nueva dimensión para la inteligencia artificial continua

Uno de los grandes retos en el desarrollo de modelos de inteligencia artificial es el llamado olvido catastrófico, un fenómeno en el que los sistemas olvidan tareas previamente aprendidas al adquirir nuevas. Este problema, que limita la capacidad de los modelos para aprender de manera continua, se asemeja a una especie de «amnesia anterógrada» tecnológica.

Frente a este obstáculo, Google Research ha presentado un nuevo enfoque denominado Nested Learning, cuyo objetivo es permitir un aprendizaje más humano y constante. Inspirado en el principio de neuroplasticidad del cerebro humano, este paradigma redefine la forma en que se construyen y entrenan los modelos de aprendizaje automático. Continúa leyendo «Nested Learning: una nueva dimensión para la inteligencia artificial continua»