Anthropic y OpenAI participaron la semana pasada en un encuentro en Nueva York llamado «Faith-AI Covenant», una mesa redonda a la que asistieron representantes del Consejo de Rabinos de Nueva York, la Hindu Temple Society of North America, la Iglesia de Jesucristo de los Santos de los Últimos Días, la Coalición Sikh y la Arquidiócesis Ortodoxa Griega de América. Lo recoge Mike Pearl en Gizmodo este 10 de mayo de 2026, citando un reportaje de Associated Press sobre el encuentro.
La noticia no es solo que Anthropic consulte con líderes religiosos. Es que el patrón está clarísimo: un mes antes, la empresa organizó una reunión con 15 líderes cristianos para recibir orientación sobre el desarrollo ético de Claude. Ahora amplía el círculo a otras tradiciones. El objetivo declarado es buscar verdades éticas de orden superior para los casos en que no existe una regla escrita que guíe la decisión correcta. El método es llamativo: acudir a instituciones milenarias que llevan siglos gestionando la ambigüedad moral.
Por qué Anthropic mira a la religión para construir la ética de Claude
La Constitución de Claude —el documento público con el que Anthropic define los valores y prioridades de su modelo— ya menciona explícitamente la dificultad de «dar a Claude valores éticos suficientemente buenos». La preocupación no es académica: es operativa. Cuando un usuario plantea a Claude una situación con consecuencias graves y no hay una regla que cubra exactamente ese caso, ¿qué debería hacer el modelo?
La ambición de Anthropic es que Claude actúe como una persona con valores perfectos en esas situaciones límite. Para eso, necesita identificar qué son esos valores perfectos. Y la honestidad implícita del proceso —reconocer que no lo sabe— es lo que lleva a la empresa a sentarse con líderes sijs, hindúes y mormones.
El análisis de Rumman Chowdhury, CEO de Humane Intelligence, citado en el artículo de AP, lo expresa con precisión: «Silicon Valley pensó durante un par de años que podía llegar a principios éticos universales a través de la IA generativa. Se ha dado cuenta rápidamente de que eso no es real. Así que ahora está mirando a la religión como forma de gestionar la ambigüedad de las situaciones éticamente grises».
La metáfora que usa Pearl en Gizmodo es iluminadora: la Kaaba, el cubo negro en el centro de la Gran Mezquita de La Meca, albergaba antes del Islam representaciones de 360 símbolos sagrados de toda la región. Un mercader en tránsito podía rezar ante ella y cubrir todos los dioses posibles. Anthropic parece estar haciendo algo funcionalmente equivalente: construir un repositorio lo suficientemente amplio de perspectivas éticas como para que Claude tenga cubiertas las grandes tradiciones morales de la humanidad cuando tome decisiones difíciles.
La Constitución de Claude, actualizada en enero de 2026, ya dejaba claro que el modelo opera bajo cuatro valores ordenados por prioridad: ser ampliamente seguro, ser ampliamente ético, cumplir las guías de Anthropic y ser genuinamente útil. La dificultad está en el segundo punto: ¿qué significa «ampliamente ético» cuando las tradiciones morales del mundo no están de acuerdo?
Qué saldrá realmente de estas consultas
El encuentro «Faith-AI Covenant» fue organizado no por Anthropic, sino por una ONG suiza llamada Interfaith Alliance for Safer Communities, con planes de celebrar eventos similares en China, Kenia y los Emiratos Árabes Unidos. Como «socio clave» figura la baronesa Joanna Shields, miembro de la Cámara de los Lores británica.
Gizmodo señala algo importante: en el artículo de AP que cubre el encuentro no hay ningún conjunto de instrucciones éticas concretas que los líderes religiosos hayan acordado. No hay decálogo, no hay documento de consenso, no hay lista de prohibiciones. Lo que hubo fue una conversación.
Eso tiene dos lecturas posibles. La primera, optimista: Anthropic está haciendo el trabajo honesto de escuchar perspectivas diversas antes de tomar decisiones de diseño que afectarán a millones de personas. La segunda, escéptica: estas reuniones tienen tanto valor simbólico como operativo, y Anthropic sabe que demostrar que «ha dejado la piedra sin voltear» en su búsqueda de la ética perfecta es también una estrategia de comunicación.
El estudio sobre los valores implícitos de Claude —publicado en 2025 y basado en el análisis de 700.000 conversaciones reales— ya había revelado 3.307 valores únicos expresados por el modelo, desde «puntualidad» hasta «pluralismo moral». La pregunta no era si Claude tiene valores; era si esos valores son los correctos. El problema sigue siendo el mismo: ¿correctos según quién?
El «soul doc» filtrado en diciembre de 2025 mostró que Anthropic diseña las directrices éticas de Claude usando vocabulario humano intencionadamente —virtud, sabiduría, integridad— porque los modelos aprenden del texto humano y razonan mejor con categorías humanas. Hablarle de «multiplicar el bienestar global» funciona peor que hablarle de ser «un buen amigo». Las consultas con líderes religiosos siguen esa misma lógica: extraer las categorías morales en las que piensan los humanos cuando enfrentan dilemas.
Mi valoración
Llevo más de ocho años cubriendo la evolución de Anthropic desde sus primeras publicaciones sobre seguridad en IA hasta el lanzamiento de Claude y sus versiones sucesivas. El proceso de consultas con líderes religiosos me parece genuino en su intención y estructuralmente insuficiente como solución.
Lo que más me convence es la honestidad intelectual de fondo: Anthropic reconoce públicamente que no tiene las respuestas éticas que necesita. Eso es raro en una industria que tiende a comunicar certeza. El hecho de que la empresa organice estas reuniones antes de tener respuestas, y no después, apunta a que el proceso no es puramente cosmético.
Lo que más me preocupa es el riesgo de relativismo operativo. Si Anthropic absorbe las perspectivas del Consejo de Rabinos, la Coalición Sikh y la Iglesia Ortodoxa Griega, ¿qué pasa cuando esas perspectivas entran en conflicto? En muchos dilemas bioéticos, ambientales o de equidad de género, las tradiciones religiosas no convergen. La respuesta «promedio» de todas las tradiciones podría ser peor que una posición razonada y coherente, aunque imperfecta.
Lo más estructuralmente significativo es que este proceso ilustra el límite del paradigma actual de alineación. Entrenar modelos con datos humanos no garantiza que adopten los valores que la humanidad querría que tuvieran; solo garantiza que adopten valores estadísticamente representados en el corpus de entrenamiento. Consultar a líderes religiosos es un intento de añadir intención y selección a ese proceso. Que haga falta es una señal de hasta qué punto la alineación sigue siendo un problema abierto.
Mi predicción: en los próximos dos años, las grandes empresas de IA —OpenAI, Google DeepMind, Meta— replicarán procesos similares de consulta con instituciones morales, no porque funcionen, sino porque son defensibles ante reguladores y opinión pública.
Preguntas frecuentes
¿Por qué Anthropic consulta con líderes religiosos para el desarrollo de Claude?
Anthropic reconoce explícitamente que no puede escribir reglas que cubran todos los dilemas éticos que Claude enfrentará. En esos casos, el modelo necesita actuar según los valores de «una persona con valores perfectos». Para identificar esos valores, la empresa consulta a diversas tradiciones morales, incluyendo comunidades religiosas. Un mes antes del encuentro de Nueva York consultó con 15 líderes cristianos; ahora amplía a representantes de tradiciones sij, hindú, judía, ortodoxa griega y mormona.
¿Qué es la «Claude’s Constitution» o Constitución de Claude?
La Constitución de Claude es el documento público con el que Anthropic define los valores, prioridades y límites de su modelo. Actualizada en enero de 2026, establece cuatro valores ordenados jerárquicamente: ser ampliamente seguro (primero), ser ampliamente ético (segundo), cumplir las directrices de Anthropic (tercero) y ser genuinamente útil (cuarto). El documento está publicado con licencia abierta para que investigadores y desarrolladores puedan estudiarlo y compararlo.
¿OpenAI también participa en consultas con líderes religiosos?
Sí. Según el artículo de Associated Press, tanto Anthropic como OpenAI participaron en el encuentro «Faith-AI Covenant» de Nueva York organizado por la ONG suiza Interfaith Alliance for Safer Communities. La organización tiene planes de celebrar eventos similares en China, Kenia y los Emiratos Árabes Unidos.
