Google presenta arquitectura que puede simular la memoria humana

Google ha presentado recientemente otro estudio que quiere cambiar el procesamiento de secuencias largas: el TransformerFAM. Esta nueva arquitectura busca solucionar uno de los problemas más acuciantes en los modelos de lenguaje de gran tamaño, la incapacidad de manejar contextos extensos de manera eficiente, lo mismo que quiere tratar con el proyecto que os comenté hace pocas horas.

Continúa leyendo «Google presenta arquitectura que puede simular la memoria humana»