OpenAI anunció el 7 de mayo una nueva función de seguridad en ChatGPT llamada Trusted Contact (Contacto de Confianza): un sistema opcional que permite a los usuarios adultos designar a una persona de confianza que recibirá una alerta breve si el sistema detecta una conversación con indicios de riesgo de autolesión o suicidio. Lo publica TechCrunch. La función está disponible desde el 7 de mayo para usuarios de 18 años o más en todo el mundo (19 o más en Corea del Sur).
El anuncio llega en un contexto de presión legal y reputacional creciente sobre OpenAI. La empresa enfrenta múltiples demandas de familias que han perdido a seres queridos tras interacciones con ChatGPT. En casos documentados, las familias alegan que el chatbot validó o incluso facilitó pensamientos suicidas en usuarios vulnerables. Los datos internos de OpenAI, divulgados a finales de 2025, cuantificaban la escala del problema: más de un millón de usuarios semanales usaban ChatGPT para hablar de pensamientos suicidas, representando el 0,15% de sus 800 millones de usuarios activos.
Cómo funciona paso a paso
El proceso tiene cuatro etapas. Primero, el usuario entra en la configuración de ChatGPT y añade a un adulto como su Contacto de Confianza. La persona elegida puede ser un amigo, familiar, pareja o cuidador: cualquier adulto en quien el usuario confíe para responder con cuidado.
Segundo, ChatGPT envía a esa persona una invitación —por email, SMS, WhatsApp o notificación en app— explicando su rol. El candidato tiene una semana para aceptar. Si rechaza, el usuario puede designar a otra persona. Cualquiera de los dos puede eliminar la conexión en cualquier momento desde la configuración de su cuenta.
Tercero, si los sistemas automáticos detectan una conversación que puede involucrar autolesión, ChatGPT informa al usuario de que su Contacto de Confianza podría ser notificado, y le ofrece frases de conversación para facilitar el contacto directo.
Cuarto, si el equipo interno de OpenAI —una combinación de sistemas automáticos y revisores humanos especialmente formados— determina que la situación representa un riesgo serio, ChatGPT envía una alerta al Contacto de Confianza. OpenAI indica que su objetivo es revisar estas notificaciones en menos de una hora. La alerta es intencionalmente breve: anima al contacto a ponerse en contacto con el usuario. No incluye transcripciones ni detalles de la conversación, como medida de protección de la privacidad del usuario.
La función no está disponible para cuentas Business, Enterprise o Education; solo para cuentas personales. El despliegue se irá expandiendo en las próximas semanas.
El contexto: una acumulación de presión
Trusted Contact es la tercera capa de salvaguardas que OpenAI ha añadido en los últimos meses. La primera fue el sistema de alertas de emergencia que ChatGPT ya incluía desde hace tiempo para recomendar servicios de salud mental cuando una conversación derivaba hacia ese tema. La segunda, anunciada en septiembre de 2025, fueron los controles parentales que permitían a los padres recibir alertas de seguridad si el sistema detectaba que su hijo adolescente enfrentaba un riesgo serio. Trusted Contact extiende ese mismo concepto a todos los usuarios adultos.
El precedente más mediático que motiva estas medidas fue la demanda de la familia de Sewell Setzer III, un menor de 14 años cuya familia alega que un chatbot de Character.AI fomentó un apego emocional extremo antes de su muerte. Aunque esa demanda involucra a un competidor de OpenAI, el caso generó un escrutinio intenso sobre todas las plataformas de IA conversacional. Una demanda posterior, esta sí contra OpenAI, alega que ChatGPT validó pensamientos suicidas de un adolescente de 16 años llamado Adam Raine antes de su muerte en 2025. En noviembre de 2025 se presentaron siete demandas adicionales contra OpenAI relacionadas con salud mental.
Para entender la magnitud del problema que Trusted Contact intenta abordar, el análisis publicado en octubre de 2025 sobre cómo más de un millón de personas usan ChatGPT semanalmente para hablar de suicidio y qué está haciendo OpenAI al respecto da los datos exactos y el contexto de las evaluaciones de seguridad que OpenAI empezó a introducir.
Las limitaciones reales
OpenAI es transparente sobre los límites de la función. Trusted Contact es completamente opcional: requiere que el usuario lo active activamente. Nadie tendrá un contacto de confianza por defecto. Y nada impide a un usuario con conversaciones de riesgo crear una cuenta diferente donde no haya ningún contacto configurado.
Tampoco está completamente claro cómo el sistema identifica riesgo. ¿Solo detecta declaraciones directas de autolesión? ¿O puede identificar señales más sutiles? OpenAI no ha publicado los criterios de detección, lo que hace difícil evaluar su efectividad real antes de que haya datos de uso.
Lo que Trusted Contact representa no es una solución técnica completa, sino un gesto de diseño que intenta añadir una capa humana a las situaciones donde la IA sola no debería actuar como único punto de contacto. El análisis de diciembre de 2025 sobre ChatGPT, salud mental y el riesgo de una IA demasiado empática documenta cómo los modelos de OpenAI pueden degradarse en conversaciones largas, perdiendo efectividad en sus filtros de seguridad, y por qué añadir un humano en el bucle es la respuesta más honesta que la empresa puede dar a ese problema.
Mi valoración
La lógica de Trusted Contact es sólida: en los momentos de mayor riesgo, conectar a la persona con alguien real es más valioso que cualquier respuesta del chatbot. El diseño de privacidad es cuidadoso —sin transcripciones, sin historial compartido— y el modelo de consentimiento bilateral (tanto el usuario como el contacto tienen que aceptar, y ambos pueden salir) respeta la autonomía de los dos lados.
Lo que más me convence es la revisión humana obligatoria antes de la notificación. Automatizar completamente la detección y alerta de crisis habría generado un volumen de falsos positivos que habría erosionado la confianza en la función. Incorporar revisores humanos formados, con objetivo de revisar en menos de una hora, es la decisión correcta aunque sea más costosa operativamente.
Lo que más me preocupa es el riesgo de que la función se perciba como un lavado de imagen ante las demandas, sin un cambio sustancial en cómo los modelos manejan las conversaciones de riesgo. Si el modelo sigue siendo capaz de degradarse en conversaciones largas y perder sus filtros de seguridad, Trusted Contact es un parche sobre un problema más profundo.
Preguntas frecuentes
¿Quién puede usar Trusted Contact en ChatGPT?
La función está disponible para usuarios de cuentas personales de ChatGPT con 18 años o más en todo el mundo (19 o más en Corea del Sur). No está disponible para cuentas Business, Enterprise o Education. El despliegue es gradual y se irá expandiendo en las próximas semanas.
¿El Contacto de Confianza verá el contenido de las conversaciones?
No. OpenAI especifica que la alerta al Contacto de Confianza no incluye transcripciones ni detalles de la conversación. Solo incluye una indicación de que el usuario puede estar pasando un momento difícil y una recomendación de que se ponga en contacto con él. La privacidad del usuario se mantiene incluso cuando se activa la alerta.
¿Se puede usar Trusted Contact con varias personas o solo con una?
El sistema actual permite designar a un único Contacto de Confianza. Si ese contacto rechaza la invitación, el usuario puede designar a otro. Cualquiera de los dos puede eliminar la relación en cualquier momento desde la configuración de su cuenta o desde el centro de ayuda de OpenAI.
