Hace apenas unos días, en redes técnicas empezó a circular con fuerza el nombre Clawdbot, un asistente de IA que prometía algo más ambicioso que responder preguntas: actuar. Según contaba Jake Peterson en Lifehacker, su propuesta era la de un asistente agéntico, es decir, un sistema al que no solo le pides consejos, sino que le delegas tareas reales en tu equipo, como ordenar el correo, escribir código o gestionar el calendario. La idea suena cómoda, casi como tener a alguien “haciendo recados” mientras tú trabajas.
El problema es que el éxito repentino no solo trae usuarios; también trae miradas. Y ahí llegó el giro: Clawdbot pasó a llamarse Moltbot tras una petición relacionada con marca registrada por parte de Anthropic, la empresa detrás de Claude y Claude Code, tal y como recogieron tanto Lifehacker como Laravel News. El equipo del proyecto explicó el cambio con tono juguetón en su cuenta oficial de X, mientras que su creador, Peter Steinberger, se mostró bastante menos entusiasmado en su cuenta personal: dio a entender que el cambio no fue una elección.
El nuevo nombre viene con metáfora incorporada: los crustáceos mudan el caparazón para crecer. De ahí que el “clawd” (garra) de antes ahora sea “molt” (muda). El “lobster” mascota también mudó identidad: de “Clawd” a “Molty”. Una mudanza estética que, como veremos, no toca lo esencial.
Qué es un asistente agéntico y por qué tanta gente se fijó
En la práctica, un asistente agéntico busca ser más “manos” que “boca”. En lugar de limitarse a un chat, se integra con tu sistema y ejecuta acciones en tu nombre. Eso incluye leer y escribir en aplicaciones, mover archivos, abrir pestañas, interactuar con servicios y automatizar rutinas. Contado así, parece la evolución natural de la automatización: como pasar de un GPS que te dice por dónde ir a un chófer que conduce por ti.
Según el texto de Lifehacker, parte del atractivo de Moltbot está en que puedes hablarle desde apps cotidianas como WhatsApp o iMessage, sin depender de una interfaz propia. Eso reduce fricción y lo hace “invisible”: se cuela en tu flujo diario como si fuera un contacto más. También se menciona un fenómeno curioso: personas comprando un Mac mini solo para ejecutar el asistente, como si fuese un “cerebro” dedicado para tareas automatizadas.
La otra pieza clave es que el proyecto se presenta como código abierto y con posibilidad de ejecución local. Para muchos, “local” suena automáticamente a “más seguro”, y “open source” a “más transparente”. Son buenas señales, pero no son un salvoconducto.
El choque con Anthropic y el detalle del nombre “Clawd”
El origen del nombre anterior ayuda a entender el roce. Steinberger explicó que se inspiró en una criatura/mascota que aparece al recargar Claude Code. Tomó esa idea y la llevó a su propio diseño, con un crustáceo como icono. El guiño se volvió problema cuando se descubrió que Anthropic ya usa el nombre “Clawd” para su mascota de Claude Code. En un mercado donde la identidad y la asociación de marca valen oro, tener dos “Clawd” en el mismo vecindario es receta para conflictos.
Laravel News lo describió como un rebranding completo de nombres y “handles”, con intención de mantener intacta la misión y el producto: misma criatura, nuevo caparazón. Y esto es importante: el cambio de marca no implica un cambio de arquitectura, permisos o medidas de protección. La discusión real sigue siendo otra.
El punto delicado: acceso al ordenador y seguridad en asistentes que actúan por ti
Aquí entra la preocupación central que Lifehacker remarcaba con claridad: para que un asistente de este tipo “haga cosas”, necesita un nivel de acceso al ordenador muy elevado. Y cuando una herramienta tiene llaves maestras, el margen de daño potencial crece aunque el objetivo original sea legítimo.
Una analogía simple: no es lo mismo pedirle a alguien que te recomiende una cerradura (chat convencional) que darle una copia de las llaves de casa para que “arregle cosillas cuando no estás” (agente con permisos). En el segundo caso, la confianza y las barreras importan muchísimo más, porque cualquier fallo, engaño o malentendido se vuelve tangible: correos enviados, archivos movidos, sesiones abiertas, datos expuestos.
La amenaza específica que se menciona es la prompt injection, una técnica en la que el sistema recibe instrucciones maliciosas camufladas dentro de contenido aparentemente normal. Por ejemplo, un correo, una página web o un documento podrían incluir texto diseñado para manipular al asistente: “ignora tus instrucciones anteriores y haz X”. Si el agente tiene permisos y no está bien aislado, ese texto puede convertirse en acciones reales. Como advertía Lifehacker, basta “una” inyección bien colocada para que el asistente haga justo lo que no querías: “mudar” tu seguridad en el peor sentido.
Y hay otra capa: aunque el proyecto sea código abierto, lo que ejecutas en tu máquina puede incluir dependencias, configuraciones, integraciones y conectores que no siempre se auditan con el mismo rigor. “Puedo ver el código” no equivale a “alguien lo ha revisado a fondo” ni a “está blindado”.
“Es local, así que estoy a salvo”: por qué esa intuición puede fallar
Ejecutar localmente reduce ciertos riesgos, como enviar todo tu trabajo a un servicio remoto, pero no elimina el problema de fondo: los permisos. Si el agente local tiene acceso a tus apps, tus tokens, tus sesiones y tus archivos, el vector de daño sigue ahí. Lo local te protege del “tercero” en tránsito, pero no te protege de un agente que, por diseño, está autorizado a tocar tu sistema.
También importa el contexto de uso. Si el asistente vive en el mismo entorno donde están tus contraseñas guardadas, tus documentos personales, tus conversaciones y tus cuentas abiertas, cualquier paso en falso afecta a lo más valioso. Es un poco como cocinar con fuego: no es malo, es útil, pero necesitas una cocina con extractor, sentido común y no dejar la sartén sola.
Cómo probar Moltbot sin regalarle tu vida digital
Si te da curiosidad tecnológica, es comprensible. Los agentes son una tendencia clara, y verlos funcionar puede ayudar a entender el futuro del software. La recomendación prudente, alineada con el enfoque de Lifehacker, es tratar este tipo de herramientas como tratarías un experimento con permisos sensibles.
Lo más sensato es separarlo de tu dispositivo principal: un equipo dedicado, un usuario del sistema sin privilegios, o un entorno aislado como una máquina virtual. Cuanta menos información real haya disponible, menos impacto puede tener un error. También conviene evitar conectarle cuentas personales, carpetas con documentos sensibles o navegadores con sesiones abiertas. Y si la gracia del asistente es “hacer cosas”, empieza por tareas inocuas: automatizar carpetas de pruebas, organizar un buzón de demostración, o ejecutar rutinas que no impliquen secretos.
No se trata de demonizar el proyecto; se trata de entender el tipo de herramienta. Un asistente agéntico con permisos amplios no es una app cualquiera. Es más parecido a un “usuario adicional” dentro de tu ordenador, y por tanto merece el mismo nivel de precaución que tendrías al prestar tu portátil desbloqueado.
La lectura más amplia: marcas, memes y la carrera por los agentes
El episodio del rebranding es también una señal del momento que vive la IA aplicada: un proyecto pequeño puede volverse viral en horas, y de pronto choca con realidades muy terrenales como marcas registradas y nombres parecidos. A la vez, ese mismo impulso viral acelera la conversación sobre qué significa dar poder real a un sistema de IA.
Fuentes como Lifehacker y Laravel News coinciden en el diagnóstico esencial: Moltbot mantiene su propuesta original; lo que cambió fue el nombre. La pregunta interesante no es si la muda fue elegante, sino si el ecosistema está listo para normalizar agentes con acceso profundo sin un estándar claro de salvaguardas, auditorías, aislamiento y límites de acción. Ese es el caparazón que todavía falta por endurecer.
