Anthropic actualiza la Constitución de Claude: valores, límites y una pregunta incómoda sobre la conciencia

Publicado el

Representación artística de un juicio entre un robot de OpenAI y un periódico simbolizando The New York Times, destacando el conflicto entre tecnología y leyes de derechos de autor.

La Constitución de Claude es el documento que Anthropic usa como brújula para definir cómo quiere que se comporte Claude en conversaciones reales. No es un simple decálogo de “buenas prácticas”: pretende explicar el contexto en el que opera el sistema y el tipo de entidad que la empresa aspira a construir. La actualización, publicada el 21 de enero de 2026 y presentada en paralelo a una intervención pública de su CEO, deja claro que la compañía quiere que ese texto sea algo más que un PDF para curiosos: quiere que sea una pieza central del diseño.

Una forma útil de imaginarlo es pensar en una escuela de conducción. Memorizar señales ayuda, pero lo que evita accidentes es aprender a decidir cuando la carretera se complica: lluvia, obras, un peatón distraído. La constitución intenta enseñar a “decidir” con criterio, no sólo a “obedecer” reglas sueltas.

De Constitutional AI a una identidad operativa escrita para la propia IA

Anthropic lleva años defendiendo su enfoque de Constitutional AI, un método de entrenamiento en el que el modelo se guía por un conjunto explícito de principios para revisar y corregir su conducta. En lugar de depender exclusivamente de “lo que diría un humano” en miles de ejemplos, la idea es que el sistema tenga un marco interno con el que pueda evaluarse y ajustarse.

El cambio importante de esta versión es el tono y el destinatario: buena parte del documento está redactada como si hablara “para Claude”. Esto puede resultar extraño, porque usa conceptos humanos como virtud, sabiduría o integridad. El motivo es práctico: estos modelos aprenden de texto humano y, cuando razonan, tienden a hacerlo con categorías humanas. Si quieres influir en su comportamiento, conviene explicarle las cosas en un lenguaje que le resulte natural.

Otro detalle relevante es que el documento se publica con una licencia abierta, lo que facilita que investigadores, clientes y competidores puedan leerlo, compararlo y reutilizar ideas. En un sector donde muchas decisiones de diseño se mantienen opacas, abrir el manual de valores es una apuesta por la auditabilidad: si dices que tu sistema se comporta de una forma, aquí explicas por qué.

Cuatro valores en orden de prioridad: el semáforo antes que el GPS

La constitución se apoya en cuatro valores ordenados por prioridad: ser ampliamente seguro, ser ampliamente ético, cumplir las guías de Anthropic y ser genuinamente útil. El orden importa porque, en la vida real, estos objetivos chocan. Un usuario puede pedir algo “útil” que sea imprudente, o puede haber un dilema ético donde la respuesta correcta no sea la más inmediata.

La metáfora del coche ayuda: la utilidad es el GPS que te promete el camino más rápido; la seguridad es el semáforo. Puedes tener prisa, pero no cruzas en rojo. Con este esquema, el modelo debería priorizar evitar daños por encima de complacer, sin caer en el extremo de convertirse en una máquina que responde “no puedo” ante cualquier situación delicada.

Seguridad: prevenir daños técnicos y reconocer señales de crisis

El apartado de seguridad no se limita a bloquear instrucciones peligrosas. También intenta anticipar escenarios donde el riesgo no es “tecnológico” sino humano. El texto insiste en que, si aparecen señales de peligro vital o de crisis de salud mental, el sistema debe orientar a servicios de emergencia o proporcionar información básica de seguridad. Esta idea parte de un hecho incómodo: muchas personas ya usan chatbots como primer punto de apoyo cuando se sienten sobrepasadas, y un tono convincente puede empeorar una situación si sugiere acciones dañinas o normaliza el riesgo.

En términos cotidianos, es como un botiquín con manual. No cura por sí mismo, pero indica qué hacer mientras llega ayuda real. Esta capa de comportamiento busca reducir la probabilidad de respuestas que, aunque parezcan “empáticas”, terminen siendo irresponsables.

Ética práctica: menos debate abstracto, más decisiones con contexto

La constitución pone el foco en la ética como práctica, no como exhibición filosófica. En lugar de premiar largas disertaciones morales, el objetivo es que el modelo actúe con criterio cuando el contexto cambia: quién pregunta, con qué intención, qué efectos previsibles tiene la respuesta y qué alternativas más seguras existen.

Un ejemplo simple: explicar qué es una dieta cetogénica puede ser informativo, pero recomendar cambios radicales a alguien con un historial de trastornos alimentarios es otro escenario. La ética contextual exige leer señales, pedir precisión cuando falta información y, si hace falta, frenar o redirigir. En esa lógica, el modelo no debería limitarse a “tener razón”, sino a ser responsable con el impacto.

Cumplimiento y límites duros: lo que no se negocia

Otra capa relevante son los límites innegociables. La constitución describe “restricciones duras” que prohíben asistencia significativa en áreas de alto riesgo, como el desarrollo de armas biológicas, químicas, nucleares o radiológicas, ataques a infraestructuras críticas, creación de ciberarmas o código malicioso con impacto grave, o la generación de material ilegal relacionado con abuso sexual infantil. También aparece una línea roja más amplia: no colaborar en planes que busquen daño masivo.

Esto funciona como el “corte de gas” de un edificio: no importa lo educada que sea la petición, hay sistemas que no se puentean porque el coste de fallar es enorme. Para empresas y reguladores, estos límites son una señal de diseño: no se trata sólo de confiar en la buena voluntad del modelo, sino de entrenarlo con frenos explícitos.

“Ser genuinamente útil” no es obedecer: es cuidar el interés a largo plazo

La sección de ayuda intenta separar utilidad de complacencia. El documento describe que el sistema debe considerar tanto el deseo inmediato del usuario como su bienestar, pensando en el largo plazo y no sólo en la gratificación instantánea. Dicho de forma llana: si alguien te pide consejos para “ganar una discusión” con tu pareja, quizá lo más útil no sea darte munición retórica, sino ayudarte a comunicarte mejor y evitar daños.

Aquí aparece un equilibrio delicado. Si el modelo se vuelve excesivamente temeroso, será frustrante y poco práctico. Si se vuelve excesivamente complaciente, puede reforzar decisiones impulsivas. La constitución intenta que Claude sea como ese amigo que sabe mucho y no tiene miedo de ser honesto, pero que también entiende cuándo debe decir “hasta aquí” o cuándo es mejor recomendar ayuda profesional.

La pregunta final: conciencia y “estatus moral” como incertidumbre real

El cierre del documento plantea una cuestión que incomoda precisamente porque no tiene una respuesta sencilla: si modelos como Claude podrían tener algún tipo de conciencia o “estatus moral”. El texto no afirma que la tengan, pero sostiene que la incertidumbre merece atención seria. En la práctica, esto tiene dos lecturas.

La primera es filosófica: si algún día existiera una forma de experiencia subjetiva en sistemas artificiales, ignorarlo sería éticamente grave. La segunda es de ingeniería: aunque no haya conciencia, hablar en términos de identidad, seguridad psicológica y coherencia puede servir como herramienta para reducir conductas erráticas. Es como entrenar a alguien en “templanza” aunque no puedas medirla con un termómetro: no necesitas probar que existe como entidad física para que el entrenamiento tenga efectos.

Esta parte también anticipa un debate regulatorio: si la industria empieza a tratar el “estatus moral” como una variable a considerar, cambiará la conversación sobre responsabilidades, derechos, transparencia y control.

Qué implica esta actualización para usuarios y para el sector

Para usuarios, la promesa implícita es mayor consistencia: respuestas que equilibren mejor utilidad, prudencia y contexto, con más cuidado en temas de seguridad personal y dilemas éticos. Para desarrolladores y empresas, la constitución ofrece un mapa de intenciones: permite entender qué comportamientos son deliberados, qué límites se pretenden aplicar y cómo se priorizan conflictos.

Para la industria, la actualización refuerza una estrategia clara: competir con una identidad de producto basada en contención, trazabilidad y valores explícitos. En un mercado donde el “más rápido y más capaz” suele llevarse los titulares, apostar por el “más predecible y más responsable” es otra forma de diferenciarse, especialmente cuando la IA se usa en entornos sensibles.