La conversación pública sobre agentes de IA suele quedarse en el agente “solitario”: un asistente que recibe una orden, consulta herramientas y ejecuta tareas. El problema es que la realidad técnica y comercial empuja hacia sistemas multiagente, con varios bots coordinándose, repartiéndose trabajo y compartiendo hallazgos. Y ahí, como cuando dos conductores se confían porque… Continúa leyendo »
Claude quiere que te mudes sin cajas: así funciona la importación de memoria desde ChatGPT y Gemini mientras Anthropic lidia con el veto de EEUU
En los últimos días, Anthropic ha vivido uno de esos giros que en tecnología se sienten como un apagón repentino: de ser un proveedor con presencia en entornos institucionales sensibles a quedar señalado por el Gobierno de Estados Unidos. La compañía ha anunciado que impugnará la decisión después de que el Departamento de Defensa la designara como “riesgo para la cadena de suministro”, un tipo de etiqueta que en contratación pública suele activar un efecto dominó inmediato, especialmente entre contratistas y proveedores que trabajan con la administración.
El trasfondo, según la propia Anthropic, está en el choque por los límites de uso de sus modelos: la empresa afirma que las negociaciones se atascaron por dos excepciones que pidió explícitamente bloquear, vinculadas a la vigilancia doméstica masiva y a armas totalmente autónomas. Dicho de forma sencilla, Anthropic sostiene que quería dejar por escrito “líneas rojas” más duras y que ese pulso terminó volviéndose político. Continúa leyendo «Claude quiere que te mudes sin cajas: así funciona la importación de memoria desde ChatGPT y Gemini mientras Anthropic lidia con el veto de EEUU»