Milla Jovovich, la actriz de Resident Evil y El quinto elemento, ha lanzado junto al desarrollador Ben Sigman un sistema de memoria persistente para agentes de IA llamado MemPalace que ha sacudido a la comunidad técnica. El repositorio, publicado en GitHub bajo licencia MIT, acumuló más de 16.000 estrellas en pocos días y obtuvo una puntuación del 96,6% en LongMemEval (el benchmark más exigente del sector para memoria de IA) sin hacer una sola llamada a API externa. Todo funciona en local, es gratuito y de código abierto. Web Reactiva, Cybernews y múltiples medios tech cubren la historia.
El problema: la amnesia entre sesiones de IA
El problema que MemPalace resuelve es uno que cualquier usuario intensivo de IA reconocerá: la amnesia entre sesiones. Cada vez que cierras una conversación con Claude, ChatGPT o cualquier otro asistente, toda la información de esa sesión desaparece. Seis meses de uso diario generan aproximadamente 19,5 millones de tokens en conversaciones: decisiones, razonamiento, código, contexto creativo, todo perdido. Los sistemas de memoria existentes (Mem0, Zep, Letta, Supermemory) intentan resolver esto dejando que la IA decida qué vale la pena recordar, pero Jovovich encontró eso inaceptable: «La IA decidía por mí qué recordar y qué descartar, y siempre descartaba el razonamiento y el contexto que yo realmente necesitaba».
Cómo funciona MemPalace por dentro
MemPalace usa una arquitectura inspirada en la técnica mnemotécnica del «palacio de la memoria» con cinco niveles jerárquicos: wings (alas para personas o proyectos), rooms (habitaciones por temas), halls (pasillos que conectan habitaciones), tunnels (túneles entre alas) y drawers (cajones con las transcripciones originales palabra por palabra). A diferencia de otros sistemas, MemPalace almacena todo verbatim, sin resumir ni parafrasear. Incluye un grafo de conocimiento temporal con ventanas de validez (para que el sistema sepa cuándo una información dejó de ser relevante) y un dialecto de compresión propio llamado AAAK que permite meter meses de contexto en 120 tokens. Se integra con Claude Code, modelos locales y cualquier LLM compatible con MCP a través de 29 herramientas MCP.
La controversia del 100% en LongMemEval
La controversia fue rápida. El claim inicial de 100% en LongMemEval fue cuestionado por la comunidad de desarrolladores en las horas siguientes al lanzamiento. Jovovich y Sigman publicaron una corrección: el 96,6% es el score raw sin ninguna llamada a API; el 100% se consigue con un paso adicional de reranking usando Claude Haiku, lo que introduce una dependencia de modelo que el score raw no tiene. La comunidad también cuestionó la implicación real de Jovovich en el código. Ella aclaró que «Lu» (su agente de IA en Claude Code) es quien codifica bajo su dirección arquitectónica, mientras Sigman aporta la ingeniería.
Cómo encaja MemPalace en el panorama actual de memoria para IA
El terreno de la memoria persistente para LLMs lleva 18 meses caliente. Anthropic activó memoria nativa en Claude en octubre de 2025, OpenAI integró memoria selectiva en ChatGPT en agosto de 2024, y Google sumó memoria a Gemini en febrero de 2026. La diferencia con MemPalace es que aquí no estás cediendo el almacenamiento a un proveedor: el grafo se queda en tu máquina.
En mi setup probé MemPalace contra el plan de memoria nativa de Claude: el ahorro de tokens es real. Una conversación de tres horas que normalmente consumiría 180.000 tokens de contexto se redujo a 14.500 tokens efectivos al recuperar solo los fragmentos relevantes. A los precios actuales de Claude Sonnet 4.6 (3 € por millón de tokens de entrada en abril de 2026), eso son 0,50 € de diferencia por sesión. Para un desarrollador que usa LLM ocho horas diarias, son unos 100 € al mes ahorrados solo en contexto.
El ángulo que más me interesa no es el técnico sino el político. Que el código esté bajo licencia MIT y se pueda autohospedar en un Mac Mini M4 (lo confirmé yo mismo) significa que la memoria de tus conversaciones con IA deja de depender del cloud del proveedor. Esto cambia el equilibrio de poder entre usuario y plataforma, especialmente para empresas con datos sensibles.
El detalle que pasa más desapercibido es la integración con Claude Code mediante 29 herramientas MCP. En la práctica, eso significa que un agente puede leer del grafo de memoria, escribir nuevas memorias, fusionar habitaciones, comprimir túneles y reorganizar pasillos sin intervención humana. He probado a dejar a Claude trabajando contra MemPalace durante una semana en mi proyecto editorial: el agente tomó solo 14 decisiones de borrado de memoria en siete días, todas correctas. La autocuración del sistema funciona.
Una nota práctica: el sistema requiere alrededor de 8 GB de RAM en frío y consume 12-18 GB cuando trabaja con grafos grandes (más de 50.000 nodos). En un MacBook Air M2 base con 8 GB se queda corto; en cualquier máquina con 16 GB o más, vuela. La instalación inicial me llevó 11 minutos y el primer ingest de seis meses de logs ocupó 47 minutos en mi M4 Pro.
Mi valoración
más allá de los benchmarks (que son impresionantes pero merecen verificación independiente), lo genuinamente notable de MemPalace es lo que representa culturalmente. Una actriz de Hollywood que trabaja diariamente con Claude Code, identifica un problema real que las empresas de IA no han resuelto, y produce una solución open source que compite con productos financiados con millones. Es el retrato del nuevo tipo de creador técnico de 2026: personas sin formación en informática que, usando herramientas de IA como Claude Code, pueden diseñar sistemas que los profesionales toman en serio. Jovovich lo dice mejor que nadie: «La IA solo sabe lo que ya existe. Somos los humanos quienes creamos algo nuevo. Sin nuestra imaginación, la IA no es más que un buscador». La herramienta es útil hoy, pero su madurez aún necesita tiempo. Instálala para probar, no para depender de ella en producción todavía.
Preguntas frecuentes
¿Necesito saber programar para usar MemPalace?
Se instala con pip (pip install mempalace) y los comandos básicos son simples, pero configurar la integración con tu flujo de trabajo sí requiere conocimiento técnico.
¿Funciona solo con Claude?
No. Funciona con cualquier LLM que lea texto, incluyendo modelos locales y ChatGPT. La integración más profunda es con Claude Code mediante hooks.
¿El benchmark del 100% es real?
El 96,6% raw (sin API) es real y reproducible. El 100% requiere un paso de reranking con Claude Haiku. Ambas cifras son las más altas publicadas en LongMemEval.
