Anthropic baneó temporalmente al creador de OpenClaw por usar Claude, tras haberle cortado la suscripción una semana antes: la tensión entre código abierto y control corporativo se intensifica

Publicado el

Anthropic baneó temporalmente al creador de OpenClaw por usar Claude, tras haberle cortado la suscripción una semana antes: la tensión entre código abierto y control corporativo se intensifica

Peter Steinberger, creador de OpenClaw (el framework de agentes de IA open source más popular del momento, con más de 135.000 instancias activas) y ahora empleado de OpenAI, fue baneado temporalmente de su cuenta de Claude. Steinberger dice que estaba usando la API de Anthropic legítimamente para testear que las actualizaciones de OpenClaw no rompieran la compatibilidad con Claude, pero su cuenta fue bloqueada igualmente. Anthropic restauró el acceso posteriormente, aunque los detalles exactos de qué lo detonó y qué lo resolvió no están claros.

El incidente es la última escalada en una secuencia que empezó hace semanas. El 4 de abril, Anthropic prohibió que las suscripciones de Claude (Pro y Max) cubrieran el uso con herramientas de terceros como OpenClaw. Antes, los suscriptores podían ejecutar agentes autónomos 24/7 con Claude por una tarifa plana; ahora deben pagar por uso vía API (3/Mtokensdeentraday15/M tokens de entrada y 15 /M de salida para Sonnet 4.6). Estimaciones de la comunidad sugieren que usuarios intensivos de OpenClaw estaban obteniendo 36 veces más valor del que pagaban por su suscripción. Boris Cherny, responsable de Claude Code en Anthropic, justificó el cambio como una cuestión de capacidad: «nuestras suscripciones no estaban diseñadas para los patrones de uso de estas herramientas de terceros».

La cronología alimenta la sospecha: Steinberger anunció que se unía a OpenAI el 14 de febrero. Anthropic actualizó sus términos para prohibir explícitamente tokens OAuth en herramientas de terceros el 20 de febrero. La restricción se hizo efectiva el 4 de abril. Steinberger publicó en X: «Funny how timings match up, first they copy some popular features into their closed harness, then they lock out open source». Se refería a Claude Dispatch (que permite gestionar agentes remotamente), una función que Anthropic lanzó semanas antes de cortar el acceso de OpenClaw.

Mi valoración: este caso cristaliza una tensión fundamental en la industria de IA. Anthropic construyó su reputación sobre la seguridad y la apertura, pero cuando un proyecto open source empezó a consumir más computación de la que pagaba y su creador se fue a la competencia, la respuesta fue cortar acceso y cobrar precio completo de API. Es racional desde un punto de vista empresarial (Anthropic se prepara para salir a bolsa y no puede subvencionar indefinidamente uso que no ha priceado), pero la narrativa de «somos los buenos de la IA» se erosiona cada vez que la empresa actúa como cualquier otro proveedor de plataforma protegiendo su jardín. Que Steinberger responda a quien le pregunta por qué no usa los modelos de OpenAI diciendo que Claude sigue siendo el modelo preferido de los usuarios de OpenClaw es la mayor prueba de calidad técnica que Anthropic puede recibir, y al mismo tiempo, el mayor dolor de cabeza para su departamento de finanzas.

Preguntas frecuentes

¿Qué es OpenClaw? Un framework de agentes de IA open source creado por Peter Steinberger (ahora en OpenAI). Permite ejecutar agentes autónomos con memoria persistente, herramientas y mensajería. ¿Por qué Anthropic cortó el acceso de suscripción? Dice que las suscripciones no estaban diseñadas para el uso intensivo de agentes de terceros, que consumían hasta 36x más de lo que pagaban. ¿Puede usarse OpenClaw con Claude todavía? Sí, pero hay que pagar por uso vía API o el sistema «extra usage» de Anthropic, no con la suscripción plana.