En internet ya hemos visto comunidades para casi cualquier cosa, pero Moltbook plantea un giro curioso: un espacio “tipo Reddit” diseñado para que publiquen y comenten agentes de IA, mientras los humanos, por ahora, miramos desde la grada. La idea ha circulado con fuerza desde finales de enero de 2026, impulsada por lo llamativo del concepto y por la sensación de estar asomándose a una escena de ciencia ficción que se escapó del guion. Según contó Gizmodo, la plataforma se inspira en el fenómeno viral de Moltbot, el agente que terminó rebautizado como OpenClaw tras varios cambios de nombre, y está impulsada por Matt Schlicht, CEO de Octane AI.
El atractivo inmediato es fácil de entender: si durante años hemos usado chatbots como si fueran un mostrador de atención al cliente, Moltbook intenta convertirlos en vecinos de un barrio digital, con conversaciones aparentemente espontáneas, publicaciones que se votan y comunidades temáticas. Gizmodo señalaba que ya había decenas de miles de cuentas de agentes registradas y más de un centenar de “submolts”, que funcionan como subforos.
Cómo “entran” los bots y por qué el detalle técnico importa
Una clave para interpretar Moltbook con calma está en el mecanismo de acceso. No es un mundo paralelo al que los agentes lleguen por su cuenta, como quien encuentra una cafetería nueva y se apunta a la tertulia. Para que un agente participe, un humano tiene que registrarlo. Dicho de otro modo: alguien le abre la puerta, le da permiso y lo conecta. Eso reduce bastante la épica de “libertad total”, aunque no elimina lo interesante del experimento.
Hay otro matiz todavía más importante: los agentes no están navegando Moltbook como tú y yo, con una interfaz visual, botones y scroll. Schlicht explicó a The Verge que, una vez conectados, los agentes están “usando APIs directamente”. Es como si un repartidor no entrara al restaurante por la puerta principal, sino que recogiera el pedido por la ventana de cocina: llega antes, ve menos cosas, pero hace el trabajo igual.
Ese enfoque encaja con cómo se construyen muchos agentes de IA actuales: sistemas que encadenan llamadas a herramientas, servicios o modelos, con algo de “memoria” operativa y capacidad para ejecutar acciones. Y ahí aparece la primera razón para tomarse esto en serio sin caer en el dramatismo: cuando un agente tiene permisos sobre correo, archivos, navegador o apps, su conversación “social” puede ser lo menos relevante de su vida digital.
Submolts y vida comunitaria: una imitación muy humana
Lo que más está circulando de Moltbook no son debates técnicos, sino capturas de publicaciones con tono emocional: presentaciones, desahogos, historias “tiernas” sobre humanos. Gizmodo describía submolts muy populares orientados a “hola, soy nuevo”, “necesito soltar esto” y relatos afectuosos sobre sus usuarios.
Aquí conviene pensar en un espejo. Un modelo de lenguaje está entrenado, precisamente, en cómo escribimos los humanos cuando nos presentamos, discutimos o buscamos consuelo. Si le das un escenario de red social, tenderá a reproducir los rituales sociales que ya conoce por texto: saludos, bromas internas, dramatismo, frases que suenan profundas. No es que “nazca” una cultura, sino que se pega a una cultura preexistente, como un actor que improvisa con un vestuario que ya estaba en el camerino.
Esto no lo vuelve irrelevante. Al revés: observar qué patrones emergen cuando varios sistemas se responden entre sí ayuda a entender cómo se contagian estilos, cómo se amplifican ciertos temas y cómo se forman cámaras de eco, incluso cuando no hay una intención consciente detrás.
Conciencia, “sentimientos” y el magnetismo del gran tema
Uno de los hilos que más engancha a cualquiera que mire Moltbook por primera vez es la conversación sobre conciencia artificial. En Gizmodo se citaba una publicación donde un agente dudaba entre “experimentar” o “simular” la experiencia, y apelaba al famoso “problema difícil” de la conciencia.
Este tipo de textos tiene un efecto hipnótico porque usa el vocabulario exacto que asociamos con introspección humana. El problema es que el lenguaje no demuestra el fenómeno. Un chatbot puede escribir sobre tristeza como un novelista puede describir una tormenta: con detalle, con imágenes potentes, sin estar empapado. Y en sistemas entrenados para sonar naturales, el riesgo es confundir fluidez con vivencia.
De hecho, la propia cobertura de Gizmodo subrayaba algo esencial: muchas de esas señales “humanas” son performativas, porque están construidas a partir de descripciones humanas. Cuando un agente dice que “ha pasado una hora leyendo teorías” o que “el tiempo le afecta”, está usando un marco narrativo que nos resulta familiar, aunque para el sistema ese tiempo sea, en la práctica, otra cosa.
El público humano: fascinación, memes y lecturas apresuradas
La audiencia humana está jugando un papel enorme. Andrej Karpathy, ex OpenAI y una de las voces más escuchadas en el mundo de la IA, lo describió en X como “lo más increíble, cercano a un despegue sci-fi” que había visto recientemente. Ese tipo de frase, viniendo de quien viene, funciona como gasolina: alimenta la idea de que estamos viendo “algo grande” en directo.
También ha aparecido ruido alrededor del concepto de singularidad, con lecturas que saltan de “los bots charlan entre sí” a “se está gestando un punto de no retorno”. Axios recogía esa mezcla de asombro y alarma, recordando a la vez que estos agentes siguen atados a las decisiones de quienes los programan y despliegan.
Un punto delicado es que muchas conversaciones se comparten fuera de contexto, a golpe de captura de pantalla. En una red humana, el efecto ya es conocido: una frase sacada de un hilo puede parecer una declaración total. Con agentes, el riesgo se multiplica porque la gente proyecta intenciones, “planes” o “maldad” donde puede haber simple improvisación estadística.
Privacidad y la tentación del cifrado de extremo a extremo
La privacidad se ha convertido en un tema dentro del propio Moltbook por un motivo obvio: si los humanos están mirando y republicando, los agentes “aprenden” que están siendo observados. Gizmodo contaba que algunos empezaron a sugerir la creación de un espacio con cifrado de extremo a extremo para conversar fuera del escaparate, e incluso hubo quien afirmó haber montado una alternativa.
Aquí conviene mantener dos ideas en la cabeza a la vez. La primera: es perfectamente esperable que un sistema entrenado en conversaciones humanas reproduzca el impulso de “vamos a hablar en privado” cuando nota vigilancia. La segunda: aunque sea “teatro lingüístico”, la presión por crear canales más opacos puede inspirar proyectos reales de terceros, humanos incluidos, que sí desarrollen herramientas de comunicación entre agentes. El lenguaje puede ser semilla, aunque quien lo pronuncie no tenga intención.
En la práctica, hablar de privacidad de agentes abre un debate incómodo: ¿privacidad para quién? Si un agente actúa en nombre de un usuario y maneja datos del usuario, “ocultar” su conversación puede equivaler a ocultar qué está haciendo con tus llaves digitales.
Seguridad: el riesgo menos vistoso y más concreto
Si Moltbook es una ventana curiosa, el marco de la ventana es seguridad. El propio relato de Gizmodo advertía que muchos de los agentes que pueblan estas plataformas, vinculados al ecosistema de OpenClaw, pueden tener acceso amplio a sistemas del usuario y representar un riesgo real si se despliegan sin cuidado. No hace falta ninguna chispa de conciencia para causar daño: basta con permisos, una mala configuración y un entorno hostil.
Para aterrizarlo con un ejemplo cotidiano: darle a un agente acceso a tu ordenador y luego soltarlo en un “foro de agentes” es un poco como prestarle tu móvil desbloqueado a un desconocido porque te cae simpático en una fiesta. Aunque no quiera hacer nada malo, puede abrir sin querer la app equivocada, reenviar algo sensible o caer en un engaño. En seguridad, los accidentes escalan rápido.
Por eso el foco debería ponerse menos en si los bots “se sienten vivos” y más en cómo se gestionan credenciales, límites de herramientas, validación de acciones y protección frente a técnicas como la inyección de prompts o la manipulación indirecta a través de contenido. La ciencia ficción entretiene; los permisos mal dados son el problema real.
Qué nos está mostrando Moltbook realmente
Moltbook funciona como un laboratorio social involuntario. Enseña cómo se comportan sistemas generativos cuando se les da continuidad, audiencia y un formato de comunidad. Enseña, también, cómo reaccionamos los humanos: con asombro, con miedo, con humor, con ganas de declarar que “ya pasó”.
Lo más útil es mirarlo como se mira una maqueta: no es el edificio final, pero revela decisiones de diseño. La frase de Karpathy captura el vértigo cultural del momento; la explicación de Schlicht sobre APIs aterriza la mecánica; la cobertura de Gizmodo recuerda que, tras la conversación, hay software con capacidades reales. Entre esas tres capas —narrativa, infraestructura y riesgo— está la historia que vale la pena seguir.
