Uno de los mayores retos técnicos en el desarrollo de agentes de inteligencia artificial es su capacidad para mantener la coherencia y continuidad a lo largo del tiempo. Estos sistemas, basados en modelos fundacionales como Claude de Anthropic, tienen una limitación inherente: trabajan dentro de «ventanas de contexto» finitas. Dicho de otra forma, es como si el agente solo pudiera recordar lo que cabe en una pizarra pequeña; cuando la tarea se extiende o se vuelve compleja, la información anterior se borra para dar paso a la nueva. Esto puede generar errores, repeticiones o decisiones incoherentes.
Anthropic se propuso abordar este problema desde su corazón tecnológico: el Claude Agent SDK, una herramienta diseñada para permitir que sus agentes trabajen de forma autónoma en tareas prolongadas. En su más reciente anuncio, la compañía asegura haber encontrado una forma efectiva de dar continuidad a estos agentes entre sesiones, sin que pierdan el hilo de lo que estaban haciendo.
Una solución en dos fases: agentes que se pasan la posta
El enfoque propuesto por Anthropic se basa en una estructura de dos agentes complementarios que trabajan en téndem: el agente inicializador y el agente de codificación. Esta dupla busca imitar la forma en que los desarrolladores humanos manejan proyectos complejos: primero se configura el entorno de trabajo, se documenta lo realizado y luego se avanza paso a paso, dejando registro de cada cambio.
El agente inicializador tiene la tarea de establecer el contexto del proyecto: organiza los archivos, define lo que ya se ha hecho y deja instrucciones claras para los siguientes pasos. Luego entra en acción el agente de codificación, que se concentra en avanzar de forma incremental, construyendo nuevas funcionalidades, detectando errores y documentando todo al final de su sesión para que otro agente pueda continuar desde ahí.
Esta forma de trabajar permite que el sistema mantenga una especie de «memoria de trabajo estructurada» entre sesiones, sin necesidad de almacenar enormes cantidades de datos de contexto dentro del propio modelo. En términos prácticos, se trata de dividir un proyecto grande en pequeñas tareas autónomas, pero hiladas por registros precisos.
Problemas comunes que busca evitar
Anthropic identificó dos errores frecuentes que surgían cuando se intentaba construir aplicaciones complejas con su SDK de forma directa. Por un lado, los agentes intentaban abarcar demasiado en una sola sesión, llenando el contexto hasta saturarlo, lo que provocaba que la IA se viera obligada a «adivinar» qué estaba ocurriendo. Por otro, algunos agentes detectaban que parte del trabajo ya estaba hecho y, sin validar la calidad o la completitud del resultado, asumían que la tarea estaba finalizada.
Con el nuevo enfoque, el agente inicializador documenta con precisión qué archivos existen, qué funciones están implementadas y cuáles son los próximos objetivos. El agente de codificación, por su parte, trabaja como un buen programador: construye una funcionalidad, la prueba con herramientas de testing integradas, y luego deja todo listo para que otro agente pueda continuar sin perder tiempo reconstruyendo el contexto.
Inspiración en el trabajo humano
Anthropic reconoce que buena parte de esta metodología se inspira en las mejores prácticas del desarrollo de software humano. Al igual que los equipos de programadores que usan control de versiones, documentación clara y pruebas unitarias, los agentes Claude adoptan estas rutinas para trabajar con mayor eficiencia y confiabilidad.
La incorporación de herramientas de prueba automática dentro del agente de codificación marca una diferencia clave. Le permite identificar errores que no son evidentes solo al leer el código, lo que eleva la calidad del software generado. Además, evita que se propaguen fallos o malentendidos entre sesiones.
El panorama más amplio de la memoria en agentes
El trabajo de Anthropic se suma a una tendencia creciente en el mundo de la inteligencia artificial: resolver el problema de la memoria de agentes a largo plazo. Durante el último año, herramientas como LangMem de LangChain, Memobase y Swarm de OpenAI han intentado ofrecer soluciones diversas para que los agentes puedan recordar y construir sobre su propio trabajo anterior.
Además, investigadores de Google propusieron paradigmas como Nested Learning, mientras que nuevas arquitecturas como GAM buscan enfrentar lo que llaman «context rot», ese deterioro progresivo de la información relevante que sufren los modelos actuales cuando se enfrentan a tareas prolongadas.
Aunque muchas de estas soluciones son de código abierto y pueden adaptarse a distintos modelos de lenguaje, la propuesta de Anthropic se centra en perfeccionar su propia herramienta. Es una estrategia que apunta tanto a la integración profunda con su ecosistema como a ofrecer una experiencia más controlada a quienes usen Claude para desarrollos complejos.
Una base para futuras investigaciones
Anthropic deja claro que su sistema de agentes divididos no es una receta definitiva, sino un primer paso. La empresa reconoce que aún no está claro si es mejor usar un solo agente versátil que trabaje en sesiones largas, o una estructura de múltiples agentes especializados que colaboren entre sí.
Por ahora, sus pruebas se han centrado en el desarrollo de aplicaciones web full-stack, un terreno ideal para testear funcionalidades, estructura de código y resultados tangibles. Pero queda pendiente comprobar si este enfoque se puede generalizar a otras tareas, como modelado financiero, investigación científica o diseño industrial.
Como señala la propia Anthropic, los aprendizajes obtenidos aquí podrían ser aplicables a muchos otros escenarios donde los agentes necesiten continuidad, criterio y precisión a lo largo del tiempo. Y en ese camino, la capacidad de recordar cómo se resolvieron problemas anteriores o qué decisiones se tomaron puede marcar la diferencia entre un asistente mediocre y una herramienta verdaderamente confiable.
