En los últimos días, Anthropic ha vivido uno de esos giros que en tecnología se sienten como un apagón repentino: de ser un proveedor con presencia en entornos institucionales sensibles a quedar señalado por el Gobierno de Estados Unidos. La compañía ha anunciado que impugnará la decisión después de que el Departamento de Defensa la designara como “riesgo para la cadena de suministro”, un tipo de etiqueta que en contratación pública suele activar un efecto dominó inmediato, especialmente entre contratistas y proveedores que trabajan con la administración.
El trasfondo, según la propia Anthropic, está en el choque por los límites de uso de sus modelos: la empresa afirma que las negociaciones se atascaron por dos excepciones que pidió explícitamente bloquear, vinculadas a la vigilancia doméstica masiva y a armas totalmente autónomas. Dicho de forma sencilla, Anthropic sostiene que quería dejar por escrito “líneas rojas” más duras y que ese pulso terminó volviéndose político.
OpenAI entra en escena y el debate sobre la IA militar se hace visible
El hueco que deja un proveedor en un cliente tan grande rara vez queda vacío. En paralelo al veto, OpenAI ha ido cerrando y ajustando su marco de trabajo con el Departamento de Defensa para operar en entornos clasificados, incorporando aclaraciones y restricciones tras las críticas públicas. El propio Sam Altman ha reconocido que el acuerdo necesitaba retoques para definir mejor qué usos quedan fuera, con especial atención a la vigilancia y a la autonomía letal.
Todo esto ha servido para poner un foco incómodo sobre algo que muchas veces queda en letra pequeña: cuando la IA generativa entra en instituciones, la conversación deja de ser “qué bien redacta” y pasa a ser “qué límites aceptamos”. Y ahí, cada empresa está tratando de diferenciarse no solo por potencia del modelo, también por su postura pública y contractual.
Claude se vuelve tendencia justo cuando pierde terreno institucional
La paradoja es llamativa: el golpe institucional ha coincidido con un pico de popularidad de Claude entre usuarios civiles. Medios como CNBC (recogido por TechCrunch) han señalado que la app llegó al número 1 de descargas gratuitas en la App Store de Estados Unidos, superando a ChatGPT en el ranking de apps gratis durante el fin de semana.
Es el típico efecto “mirar qué está pasando aquí” trasladado al móvil. Cuando una marca entra en el centro del debate, mucha gente abre la aplicación por pura curiosidad, como quien prueba un restaurante del que todo el mundo discute en la oficina. El reto para Anthropic es convertir esa curiosidad en hábito, porque en asistentes conversacionales la costumbre pesa tanto como la calidad: lo difícil no es probar, es quedarse.
Qué es la memoria en un chatbot y por qué cuesta tanto cambiar
Aquí entra la función que Anthropic está empujando con fuerza: la importación de memoria. La “memoria” en estos asistentes no es memoria humana, claro, pero se le parece en lo práctico. Es ese conjunto de datos que el sistema guarda sobre ti para no empezar cada conversación como si fuera la primera: preferencias de tono, proyectos recurrentes, herramientas que usas, detalles personales que tú decidiste compartir y correcciones que le has hecho para que responda mejor.
Si lo piensas con una metáfora cotidiana, cambiar de chatbot sin memoria es como mudarte de casa y descubrir que tus cajas se han perdido: sigues siendo tú, pero tardas semanas en encontrar dónde guardaste cada cosa. La memoria reduce fricción, acelera la utilidad y hace que el asistente “encaje” contigo antes.
Por eso una migración real entre ChatGPT, Gemini y Claude no depende solo de cuál sea más inteligente en pruebas: depende de si puedes trasladar ese contexto acumulado sin rehacer el camino a mano.
Así funciona la importación de memoria a Claude sin empezar de cero
La propuesta de Anthropic es tan simple que casi sorprende: en lugar de una exportación técnica compleja, el sistema se apoya en un procedimiento manual guiado. Claude ofrece un texto para que se lo pegues al asistente que has usado hasta ahora (por ejemplo, ChatGPT o Gemini) y le pidas que vuelque todo lo que recuerda de ti: instrucciones de estilo, datos personales que hayas compartido, temas recurrentes, proyectos, preferencias y correcciones. La clave es que se solicita que salga todo en un único bloque fácil de copiar, sin resúmenes ni agrupaciones, para que la transferencia sea lo más literal posible.
Con ese bloque en el portapapeles, el usuario lo pega dentro de Claude en el apartado de ajustes dedicado a memoria, y el sistema lo incorpora como recuerdos guardados. En términos de experiencia, se parece a cambiar de móvil pasando tus contactos: no es magia, es un traspaso que busca que el nuevo dispositivo “sepa quién eres” desde el minuto uno.
Lo interesante es el mensaje competitivo que hay detrás. Durante años, la historia ha sido “elige un ecosistema y quédate”. Aquí, Anthropic está diciendo “cámbiate, yo te lo pongo fácil”. Es una palanca directa contra la inercia, que en asistentes suele ser el mayor rival.
La letra pequeña: planes de pago, control y riesgos de privacidad
Esta función llega con matices importantes. En la práctica, la capacidad de guardar memoria de forma persistente puede depender del plan contratado, con menciones habituales a modalidades como Pro, Max, Team o Enterprise, mientras que en planes gratuitos ciertas opciones pueden estar limitadas o funcionar de forma más acotada. Conviene leer con calma qué se guarda de manera permanente y qué se queda solo en el contexto temporal de una conversación.
Luego está el punto delicado: exportar “todo lo que la IA sabe de mí” suena útil, pero también puede ser demasiado. Si en tu historial hay datos sensibles, hábitos, información laboral o detalles personales, el volcado puede convertirse en una especie de “diario” comprimido. Antes de pegar nada, tiene sentido revisar el texto como revisarías una maleta antes de facturarla: sacar lo que no quieres que viaje, editar lo que no te representa o eliminar recuerdos que se quedaron obsoletos.
También hay una cuestión de fiabilidad: lo que un asistente dice recordar no siempre coincide con lo que tú crees haberle contado, y puede incluir interpretaciones. El enfoque prudente es tratar la importación como un borrador que acelera el arranque, no como un contrato perfecto. Si algo te chirría, mejor corregirlo pronto, porque la memoria, una vez asentada, tiende a influir en muchas respuestas futuras.
Por qué esta jugada importa en la batalla entre ChatGPT, Gemini y Claude
La “guerra” de los chatbots ya no va solo de quién responde mejor a una pregunta difícil. Va de quién te da menos pereza usar mañana. La importación de memoria apunta directamente a ese punto: reduce el coste psicológico de cambiar. Si tu asistente anterior era como un barista que ya sabe cómo tomas el café, Anthropic está intentando que Claude aprenda tu pedido sin obligarte a repetirlo veinte veces.
Y el momento elegido no parece casual. Con el foco mediático sobre el veto y la sustitución en entornos gubernamentales, la empresa necesita reforzar su base civil, sostener el crecimiento en consumo y convertir el interés en adopción. Las descargas en la App Store pueden ser un termómetro de atención, pero la retención se gana con funciones que te hagan quedarte, y la memoria es una de las más pegajosas.
En paralelo, el debate sobre límites éticos en contratos públicos seguirá presionando a todo el sector. OpenAI ya está ajustando su acuerdo y Anthropic busca pelear su etiqueta en tribunales, así que el tablero institucional puede moverse rápido. Para el usuario común, lo tangible es esto: por primera vez, cambiar de asistente empieza a parecerse menos a empezar de cero y más a cambiar de agenda sin perder tus notas.
