Anthropic ha anunciado la disponibilidad en beta pública de la memoria en Claude Managed Agents, la función que permite a los agentes aprender de cada sesión mediante una capa de memoria optimizada que equilibra rendimiento y flexibilidad. La novedad crítica está en el formato: las memorias se almacenan como archivos exportables, manejables vía API y bajo control total del desarrollador. Eso significa que un equipo puede ver qué ha aprendido el agente, editarlo, exportarlo a otro sistema o eliminarlo. No es una caja negra. Es un log inspeccionable y portable.
El caso de referencia que Anthropic presenta viene de Rakuten, uno de los gigantes japoneses del e-commerce. Yusuke Kaji, General Manager de AI for Business del grupo, firma las métricas: 97% menos errores en primera pasada, 27% menor coste por tarea y 34% menor latencia, todo gracias a la memoria. La cita textual de Kaji lo resume: «La memoria en Claude Managed Agents nos permite poner el aprendizaje continuo en producción a escala. Nuestros agentes destilan lecciones de cada sesión… y como la memoria tiene alcance de workspace y es observable, el aprendizaje continuo se mantiene bajo nuestro control». Los tres adjetivos clave son scoped, observable y exportable: el agente aprende dentro de un espacio controlado (workspace), el equipo puede ver qué aprende, y puede llevarse esos aprendizajes fuera del sistema.
El problema de la memoria en agentes autónomos
Los agentes de IA sin memoria trabajan en modo amnesia. Cada sesión empieza de cero. Si un equipo de soporte usa un agente para revisar 500 tickets al día, el agente no aprende nada de los primeros 100 tickets para aplicarlo a los siguientes 400. Eso deriva en dos problemas. Primero, el agente repite los mismos errores que ya ha cometido una y otra vez. Segundo, el equipo humano tiene que verificar cada output con la misma intensidad cada vez, porque no hay razón para confiar en que el agente ha mejorado. Los workflows con agentes sin memoria escalan pero no mejoran, y en dominios técnicos (programación, análisis financiero, soporte especializado) esa limitación es la diferencia entre automatización útil y automatización frustrante.
Anthropic lleva meses construyendo hacia esta función. El trabajo conceptual sobre memoria a largo plazo en agentes de Claude ya se vislumbraba en la propuesta del Claude Agent SDK de finales de 2025, donde la compañía experimentó con estructuras de dos agentes (inicializador más agente de codificación) para mantener contexto entre sesiones. Claude Managed Agents con memoria es la versión madura de esa exploración: un servicio gestionado donde la memoria funciona como parte de la infraestructura, no como patrón arquitectónico que cada equipo tiene que implementar a mano.
Los tres casos de uso que Anthropic destaca
La compañía identifica tres aplicaciones concretas donde la memoria transforma el workflow. Primero, cerrar bucles de feedback: el agente recibe correcciones del equipo humano sobre sus outputs incorrectos y usa esas correcciones para mejorar en las sesiones siguientes. No es solo que no repite el mismo error; es que adapta su comportamiento a las preferencias específicas del equipo. Segundo, acelerar verificación: si el equipo sabe que el agente ha aprendido las reglas del dominio, puede aprobar outputs con menos revisión individual, acelerando el throughput del sistema. Tercero, sustituir infraestructura custom de retrieval: muchas empresas han construido pipelines RAG (Retrieval-Augmented Generation) propios para dar contexto a sus agentes. La memoria nativa de Claude Managed Agents reemplaza parte de esa infraestructura, reduciendo complejidad operativa.
Archivos exportables: el antídoto al lock-in
La decisión más inteligente del anuncio es el formato de archivo. Almacenar la memoria como archivos tiene varias implicaciones. Primero, observabilidad: el equipo puede abrir los archivos y ver literalmente qué ha aprendido el agente, sin tener que inferirlo del comportamiento. Segundo, portabilidad: si un equipo decide migrar de Claude a otro proveedor, las memorias se pueden llevar. Eso reduce el vendor lock-in que habitualmente acompaña a las plataformas de IA gestionadas. Tercero, compliance: los archivos pueden auditarse, revisarse por equipos legales, redactarse selectivamente si contienen información sensible. Cuarto, edición manual: si una memoria es incorrecta o sesgada, el equipo puede corregirla directamente en lugar de esperar a que el agente la desaprenda por exposición contraria.
Es una decisión de diseño que contrasta con la opacidad de memoria que ofrecen otros proveedores. OpenAI y Google gestionan la memoria de sus agentes como estado interno no exportable. Anthropic apuesta por transparencia radical, y el mensaje comercial es claro: «no te quedas atrapado con nosotros». La apuesta de Claude por construir herramientas para desarrolladores donde el control del usuario es explícito y la observabilidad es central se refleja también en productos como Claude Code 2.1.0 con sesiones portátiles y permisos granulares, o Claude Cowork donde el acceso del agente a los archivos del usuario se concede de forma controlada y auditable.
Los números de Rakuten en contexto
El 97% menos de errores de primera pasada es la métrica más llamativa pero también la que requiere más escrutinio. «Primera pasada» significa que el agente entrega resultados aceptables desde la primera iteración, sin necesidad de corrección humana. Antes de implementar memoria, el 97% de los outputs probablemente necesitaban alguna forma de ajuste. Ahora, solo el 3% lo necesita. Esa compresión del esfuerzo de revisión es lo que justifica económicamente tener un equipo humano supervisando agentes en lugar de competir con ellos. El 27% menos de coste viene probablemente de dos vertientes: menos llamadas al modelo (porque el agente resuelve tareas en menos iteraciones) y menos tiempo humano de revisión. El 34% menos de latencia es consecuencia directa: el agente llega antes a respuestas correctas, así que el ciclo extremo a extremo se acorta.
Son números de un cliente específico en un contexto específico (Rakuten tiene miles de workflows de comercio electrónico donde los agentes hacen tareas repetitivas pero no triviales). Extrapolar a otros dominios requiere precaución. Pero el orden de magnitud sí es indicativo: una implementación seria de memoria en agentes puede transformar la economía del despliegue agéntico.
El contexto competitivo
La competencia en agentes gestionados se está intensificando. OpenAI añadió memoria persistente a su Codex para Mac hace una semana, acercándose a lo que Anthropic ofrece con Claude Code y Cowork, y el movimiento de Anthropic con memoria en Managed Agents mantiene la presión ahora en el segmento de agentes desplegados a escala empresarial. Google también añadió Memory Bank y Memory Profiles a Agent Platform en el Cloud Next de la semana pasada. Los tres grandes están compitiendo por ofrecer la infraestructura estándar para agentes empresariales, y la memoria se ha convertido en el eje de competencia más claro tras 18 meses donde el foco era solo el modelo base.
Mi valoración
La pieza más importante del anuncio no son los números de Rakuten, que son contextuales y probablemente difíciles de replicar en workflows distintos. La pieza más importante es la decisión de diseño de almacenar memorias como archivos exportables. Eso es un compromiso contractual implícito con la portabilidad de datos de usuario, y es una diferenciación significativa frente a competidores que tratan el estado del agente como propiedad de plataforma. Para clientes empresariales con preocupaciones sobre lock-in, continuidad del servicio o cumplimiento regulatorio, esa decisión vale potencialmente más que el 97% de mejora en errores de primera pasada. Es el tipo de decisión que se toma cuando la estrategia comercial se alinea con la posición ética declarada: Anthropic ha construido su marca sobre «somos los buenos de la IA» y la memoria portable es una prueba concreta de esa postura. Cuánto tiempo se mantendrá cuando los incentivos de crecimiento empujen en dirección contraria es una pregunta abierta; ya hemos visto a Anthropic cerrar accesos a frameworks open source como OpenClaw cuando el uso por suscripción se volvió insostenible. La tensión entre abierto y rentable es permanente. Por ahora, la implementación es coherente con la narrativa. La segunda observación clave es que la memoria convierte Claude Managed Agents de una curiosidad a una infraestructura desplegable. Sin memoria, los agentes son herramientas fragmentadas. Con memoria observable y exportable, son sistemas que pueden convivir con compliance empresarial seria, auditoría anual y gobernanza de datos. Para un CIO que evalúa si agentes en producción son factibles, el anuncio de hoy mueve la aguja. Para el ecosistema agéntico en general, confirma que 2026 es el año de la memoria: quien no la tenga, observable y controlable, no juega en la liga empresarial.
Preguntas frecuentes
¿Qué son Claude Managed Agents? Servicio de Anthropic donde la compañía gestiona la infraestructura de ejecución de agentes (hosting, escalado, seguridad), y el cliente solo configura el agente y lo integra con sus workflows vía API. Distinto de Claude Code (herramienta para desarrolladores) o Cowork (asistente de escritorio).
¿La memoria está disponible para Claude Code o Cowork? El anuncio se centra específicamente en Claude Managed Agents. Las funciones de memoria en Claude Code y Cowork ya existían con otras arquitecturas. La beta pública de memoria con archivos exportables es nueva para Managed Agents.
¿Puedo exportar las memorias a otro proveedor? Sí, en teoría. Los archivos están en formato inspeccionable y exportable vía API. La compatibilidad semántica con sistemas de memoria de otros proveedores (OpenAI, Google) dependerá de cómo cada uno implemente ingesta de memoria externa, pero los datos son portables.
