Google presenta Nested Learning, un nuevo enfoque para resolver el problema de memoria en la IA

Los modelos de lenguaje actuales como los basados en transformers han logrado avances impresionantes, pero tienen una limitación fundamental: no pueden aprender de nuevas interacciones después de haber sido entrenados. Esto los convierte en sistemas estáticos, incapaces de actualizar su conocimiento o adquirir habilidades duraderas a partir de nuevos datos. Son como estudiantes que, una vez terminado el curso, ya no pueden aprender más, salvo lo que recuerdan en el corto plazo.

Aunque estos modelos pueden hacer «aprendizaje en contexto», es decir, adaptarse momentáneamente a la información que se les da en un prompt, no retienen ese conocimiento. Todo lo aprendido se pierde al finalizar la conversación o superar el límite de su ventana de contexto. No existe una consolidación de la memoria, como ocurre en el cerebro humano durante el sueño, cuando las experiencias del día se convierten en recuerdos duraderos. Continúa leyendo «Google presenta Nested Learning, un nuevo enfoque para resolver el problema de memoria en la IA»

Google mejora la memoria de Gemini AI y supera a ChatGPT en retención de conversaciones

La carrera por desarrollar la IA más inteligente y útil continúa, y Google acaba de dar un gran paso con su asistente Gemini AI. La compañía ha anunciado una nueva función de memoria mejorada, que permite a Gemini recordar conversaciones anteriores y utilizarlas para proporcionar respuestas más precisas y contextualizadas. Con esta actualización, Gemini supera a ChatGPT, que aún no cuenta con una característica similar.

Continúa leyendo «Google mejora la memoria de Gemini AI y supera a ChatGPT en retención de conversaciones»