Claude Code estrena «modo automático»: Anthropic deja que la IA decida qué es seguro hacer sola (con un ojo encima)

Publicado el

Claude Code estrena "modo automático": Anthropic deja que la IA decida qué es seguro hacer sola (con un ojo encima)

Anthropic ha lanzado «auto mode» para Claude Code, una nueva configuración de permisos que permite a la IA decidir por sí misma qué acciones son seguras de ejecutar sin pedir aprobación humana y cuáles deben bloquearse. Es un punto intermedio entre la configuración por defecto —que pide permiso para cada escritura de archivo y cada comando bash, lo que ralentiza el trabajo— y el infame flag --dangerously-skip-permissions, que elimina todas las protecciones y deja al modelo actuar sin supervisión alguna.

El funcionamiento: antes de cada acción, un clasificador de IA revisa la operación buscando comportamientos potencialmente destructivos (borrado masivo de archivos, exfiltración de datos, ejecución de código malicioso) y señales de prompt injection (instrucciones maliciosas ocultas en el contenido que el modelo procesa). Las acciones que el clasificador considera seguras se ejecutan automáticamente. Las que considera arriesgadas se bloquean, forzando a Claude a buscar una alternativa.

Anthropic es directa sobre las limitaciones: «Auto mode reduce el riesgo comparado con saltar permisos peligrosamente, pero no lo elimina por completo.» El clasificador puede dejar pasar acciones arriesgadas cuando la intención del usuario no está clara o cuando Claude carece de contexto suficiente sobre el entorno. También hay falsos positivos: comandos legítimos que se bloquean incorrectamente. La recomendación es usarlo en entornos aislados (sandboxes, contenedores).

El modo funciona con Claude Sonnet 4.6 y Opus 4.6. Los usuarios del plan Team ya tienen acceso; Enterprise y API recibirán acceso en los próximos días. Se activa con claude --enable-auto-mode en CLI y se alterna con Shift+Tab. Hay un ligero incremento en consumo de tokens, coste y latencia por cada llamada a herramientas, ya que el clasificador añade una capa de procesamiento.

Mi lectura: auto mode es la señal más clara de hacia dónde va la codificación con IA. El futuro no es un humano aprobando cada línea que escribe la máquina ni una máquina con carta blanca. Es un sistema donde la IA toma decisiones rutinarias sola y escala al humano solo cuando detecta riesgo. Anthropic está definiendo el estándar de cómo debería funcionar esa dinámica. La pregunta es si el clasificador es lo suficientemente bueno para merecer esa confianza. La respuesta honesta de Anthropic —»no lo elimina por completo»— es más valiosa que cualquier promesa de seguridad perfecta.

Preguntas frecuentes

¿Qué es el «auto mode» de Claude Code? Un modo de permisos donde Claude decide automáticamente qué acciones son seguras sin pedir aprobación, bloqueando las que considera arriesgadas.

¿Es seguro? Más que saltar todos los permisos, menos que aprobar cada acción manualmente. Anthropic recomienda usarlo en entornos aislados.

¿Quién puede usarlo? Usuarios Team (ya disponible), Enterprise y API (próximos días). Requiere Claude Sonnet 4.6 u Opus 4.6.