Google presenta arquitectura que puede simular la memoria humana

Publicado el

cerebro humano con IA

Google ha presentado recientemente otro estudio que quiere cambiar el procesamiento de secuencias largas: el TransformerFAM. Esta nueva arquitectura busca solucionar uno de los problemas más acuciantes en los modelos de lenguaje de gran tamaño, la incapacidad de manejar contextos extensos de manera eficiente, lo mismo que quiere tratar con el proyecto que os comenté hace pocas horas.

TransformerFAM está diseñada para mejorar cómo los modelos de inteligencia artificial (IA) manejan y recuerdan información cuando trabajan con textos largos. Imagina que estás leyendo un libro y puedes recordar fácilmente los detalles de los primeros capítulos mientras lees los últimos; eso es lo que TransformerFAM busca lograr para los modelos de IA.

¿Cómo funciona TransformerFAM?

TransformerFAM funciona introduciendo algo llamado «memoria de retroalimentación» en los modelos de lenguaje. Esto es como darle al modelo una capacidad de recordar lo que ha «leído» anteriormente, sin que pierda el contexto o se olvide de los detalles importantes a medida que procesa nueva información. Esto es especialmente útil para tareas donde entender el contexto completo de un texto es crucial, como resumir un artículo largo o mantener una conversación coherente en un chatbot.

Una de las grandes ventajas de TransformerFAM es que mejora la capacidad de los modelos de IA para manejar textos largos sin necesidad de más poder computacional o más memoria. Esto significa que puede integrarse fácilmente en modelos existentes, haciéndolos más eficientes sin un costo adicional significativo.

Comparación con otras herramientas

Si bien existen otras herramientas que también ayudan a los modelos de lenguaje a manejar grandes cantidades de información, como BigBird y Linformer, TransformerFAM es único porque utiliza este bucle de retroalimentación que ayuda a mantener la información relevante «fresca» para el modelo. Esto le permite a la IA trabajar de manera más fluida y natural, similar a cómo los humanos procesamos información a largo plazo.

Si lo comparamos con INFINI-ATTENTION, hay algunos puntos clave a tener en cuenta:

Mecanismo de atención:

  • TransformerFAM utiliza un bucle de retroalimentación que permite a la red prestar atención a sus propias representaciones latentes. Esto crea una especie de memoria de trabajo dentro de la arquitectura del Transformer, permitiendo procesar secuencias de longitud indefinida sin necesidad de memoria adicional.
  • Infini-attention introduce una memoria compresiva dentro del mecanismo de atención tradicional. Combina la atención local enmascarada y la atención lineal a largo plazo en un solo bloque de Transformer. Esto permite gestionar contextos infinitamente largos con memoria y cálculo limitados.

Objetivo de diseño:

  • TransformerFAM está diseñado para mejorar la capacidad de los modelos preexistentes para manejar secuencias largas sin aumentar la carga computacional o de memoria.
  • Infini-attention está diseñado para escalar modelos a entradas infinitamente largas manteniendo un coste de memoria y cálculo acotado, lo cual es útil para aplicaciones en tiempo real y procesamiento continuo de datos.

Integración y escalabilidad:

  • TransformerFAM puede integrarse sin problemas con modelos pre-entrenados existentes sin requerir pesos adicionales, lo que facilita su adopción en sistemas existentes.
  • Infini-attention modifica ligeramente la capa de atención del Transformer, permitiendo una extensión natural de los LLMs a contextos infinitamente largos mediante entrenamiento continuo y ajuste fino, lo que sugiere una adaptabilidad en contextos donde los modelos necesitan actualizarse frecuentemente.

Eficiencia en el uso de la memoria:

  • TransformerFAM no introduce nuevos pesos en el modelo, lo que significa que no aumenta la huella de memoria del modelo más allá de lo que ya existe.
  • Infini-attention gestiona la memoria de forma más dinámica y eficiente mediante una memoria compresiva que acumula y recupera estados de atención antiguos, lo cual es crítico para el manejo de entradas extremadamente largas.

Casos de uso:

  • TransformerFAM podría ser ideal para mejorar el rendimiento en tareas que requieren entender contextos largos pero no infinitos, como la comprensión de documentos o la interacción contextual en diálogos.
  • Infini-attention se muestra prometedor para aplicaciones que requieren procesar enormes volúmenes de datos en tiempo real, como la monitorización continua de medios o la interacción en escenarios donde el contexto no puede ser previamente segmentado o limitado.

Importancia de la memoria en la IA

Lo que hace especial a TransformerFAM es su inspiración en cómo funcionan la memoria y la atención en el cerebro humano. Esta técnica mejora cómo la máquina maneja la información actual y abre nuevas posibilidades para que los modelos de IA en el futuro puedan manejar información de manera aún más eficaz, tal como lo haría una persona al recordar detalles de una conversación o un texto leído hace días o semanas.

Recordar y utilizar información pasada de manera más efectiva nos permitirá tener conversaciones más inteligentes y análisis más profundos de textos largos, más cerca aún de la AGI.

Tenéis el estudio en este enlace.