Milla Jovovich crea MemPalace, un sistema de memoria para IA que ha superado todos los benchmarks del sector: open source, local y gratuito

Publicado el

Ilustración del impacto del sueño deficiente en el envejecimiento cerebral con comparativa de cerebros sano y deteriorado

Milla Jovovich, la actriz de Resident Evil y El quinto elemento, ha lanzado junto al desarrollador Ben Sigman un sistema de memoria persistente para agentes de IA llamado MemPalace que ha sacudido a la comunidad técnica. El repositorio, publicado en GitHub bajo licencia MIT, acumuló más de 16.000 estrellas en pocos días y obtuvo una puntuación del 96,6% en LongMemEval (el benchmark más exigente del sector para memoria de IA) sin hacer una sola llamada a API externa. Todo funciona en local, es gratuito y de código abierto. Web Reactiva, Cybernews y múltiples medios tech cubren la historia.

El problema que MemPalace resuelve es uno que cualquier usuario intensivo de IA reconocerá: la amnesia entre sesiones. Cada vez que cierras una conversación con Claude, ChatGPT o cualquier otro asistente, toda la información de esa sesión desaparece. Seis meses de uso diario generan aproximadamente 19,5 millones de tokens en conversaciones: decisiones, razonamiento, código, contexto creativo, todo perdido. Los sistemas de memoria existentes (Mem0, Zep, Letta, Supermemory) intentan resolver esto dejando que la IA decida qué vale la pena recordar, pero Jovovich encontró eso inaceptable: «La IA decidía por mí qué recordar y qué descartar, y siempre descartaba el razonamiento y el contexto que yo realmente necesitaba».

MemPalace usa una arquitectura inspirada en la técnica mnemotécnica del «palacio de la memoria» con cinco niveles jerárquicos: wings (alas para personas o proyectos), rooms (habitaciones por temas), halls (pasillos que conectan habitaciones), tunnels (túneles entre alas) y drawers (cajones con las transcripciones originales palabra por palabra). A diferencia de otros sistemas, MemPalace almacena todo verbatim, sin resumir ni parafrasear. Incluye un grafo de conocimiento temporal con ventanas de validez (para que el sistema sepa cuándo una información dejó de ser relevante) y un dialecto de compresión propio llamado AAAK que permite meter meses de contexto en 120 tokens. Se integra con Claude Code, modelos locales y cualquier LLM compatible con MCP a través de 29 herramientas MCP.

La controversia fue rápida. El claim inicial de 100% en LongMemEval fue cuestionado por la comunidad de desarrolladores en las horas siguientes al lanzamiento. Jovovich y Sigman publicaron una corrección: el 96,6% es el score raw sin ninguna llamada a API; el 100% se consigue con un paso adicional de reranking usando Claude Haiku, lo que introduce una dependencia de modelo que el score raw no tiene. La comunidad también cuestionó la implicación real de Jovovich en el código. Ella aclaró que «Lu» (su agente de IA en Claude Code) es quien codifica bajo su dirección arquitectónica, mientras Sigman aporta la ingeniería.

Mi valoración: más allá de los benchmarks (que son impresionantes pero merecen verificación independiente), lo genuinamente notable de MemPalace es lo que representa culturalmente. Una actriz de Hollywood que trabaja diariamente con Claude Code, identifica un problema real que las empresas de IA no han resuelto, y produce una solución open source que compite con productos financiados con millones. Es el retrato del nuevo tipo de creador técnico de 2026: personas sin formación en informática que, usando herramientas de IA como Claude Code, pueden diseñar sistemas que los profesionales toman en serio. Jovovich lo dice mejor que nadie: «La IA solo sabe lo que ya existe. Somos los humanos quienes creamos algo nuevo. Sin nuestra imaginación, la IA no es más que un buscador». La herramienta es útil hoy, pero su madurez aún necesita tiempo. Instálala para probar, no para depender de ella en producción todavía.

Preguntas frecuentes

¿Necesito saber programar para usar MemPalace? Se instala con pip (pip install mempalace) y los comandos básicos son simples, pero configurar la integración con tu flujo de trabajo sí requiere conocimiento técnico.

¿Funciona solo con Claude? No. Funciona con cualquier LLM que lea texto, incluyendo modelos locales y ChatGPT. La integración más profunda es con Claude Code mediante hooks.

¿El benchmark del 100% es real? El 96,6% raw (sin API) es real y reproducible. El 100% requiere un paso de reranking con Claude Haiku. Ambas cifras son las más altas publicadas en LongMemEval.