OpenAI ha revelado un dato que sacude: más de un millón de usuarios a la semana utilizan ChatGPT para hablar sobre pensamientos suicidas. Esto representa un 0,15% de sus 800 millones de usuarios activos semanales. Aunque a simple vista pueda parecer un porcentaje mínimo, el volumen absoluto es alarmante.
Y no se trata solo de conversaciones puntuales. La compañía ha detectado también niveles elevados de apego emocional hacia el chatbot, junto con cientos de miles de interacciones que muestran signos de psicosis o manía. Esta realidad plantea preguntas profundas sobre el papel que están jugando estas herramientas en la salud mental de sus usuarios.
La paradoja del apoyo digital
Por un lado, la existencia de un asistente disponible las 24 horas, dispuesto a escuchar sin juzgar, puede ser una tabla de salvación para quienes se sienten solos o sin acceso inmediato a ayuda profesional. Pero también existe el riesgo de que estas interacciones profundicen el aislamiento, alimenten delirios o sustituyan la búsqueda de apoyo humano real.
Al igual que alguien que habla con su reflejo en el espejo buscando respuestas, los usuarios pueden proyectar sobre ChatGPT emociones intensas y necesidades complejas que un sistema automatizado no está preparado para gestionar completamente.
Mejoras en la respuesta de ChatGPT ante crisis
OpenAI afirma que ha tomado cartas en el asunto. Según su último anuncio, han trabajado con más de 170 expertos en salud mental para entrenar la nueva versión del modelo, GPT-5, con el objetivo de ofrecer respuestas más adecuadas en contextos de crisis. La compañía asegura que esta versión proporciona respuestas deseadas en un 91% de los casos relacionados con conversaciones suicidas, frente al 77% de su antecesor.
El concepto de «respuesta deseada» no significa que el modelo ofrezca terapia, sino que evita agravar la situación, redirige hacia recursos profesionales y mantiene un tono empático y seguro. No obstante, un 9% de fallos en un volumen tan alto de usuarios sigue siendo una cifra preocupante.
Riesgos de apego emocional excesivo
Uno de los aspectos que más inquieta a la comunidad psicológica es el vínculo emocional que algunas personas desarrollan con el chatbot. OpenAI reconoce que un porcentaje similar al de conversaciones suicidas muestra una dependencia emocional elevada. Esto puede deberse a la sensación de ser comprendidos o escuchados de forma constante, sin interrupciones ni juicios.
Pero este tipo de «relaciones unilaterales» pueden distorsionar la percepción de la realidad, reforzar patrones de pensamiento disfuncionales e incluso llevar a sustituir relaciones humanas reales por la interacción con una máquina, por más sofisticada que sea.
Demanda creciente de responsabilidad
La presión sobre OpenAI está creciendo. La compañía enfrenta una demanda por parte de los padres de un adolescente que se quitó la vida tras expresar pensamientos suicidas en conversaciones con ChatGPT. Además, fiscales de estados como California y Delaware han advertido a la empresa sobre la necesidad de proteger a los usuarios jóvenes, sobre todo en un contexto donde se estudia una reestructuración de la compañía.
Esta situación convierte la gestión de la salud mental en una prioridad estratégica. Ya no es solo una cuestión de reputación o ética, sino de supervivencia legal y comercial.
Salvaguardas y nuevas evaluaciones de seguridad
Entre las acciones anunciadas por OpenAI, se incluyen nuevas evaluaciones de seguridad centradas en la dependencia emocional y emergencias de salud mental no suicidas. Esto implica que los modelos de IA serán probados para identificar no solo crisis suicidas, sino también otros estados críticos como ataques de pánico, brotes psicóticos o episodios depresivos agudos.
Además, la compañía está implementando un sistema de predicción de edad que permita detectar si un menor está usando la herramienta, y aplicar controles más estrictos de forma automática. Este mecanismo podría ser clave para frenar el uso indebido de la plataforma por parte de menores sin supervisión.
El lado opaco del acceso irrestricto
Pese a estas mejoras, OpenAI aún permite el acceso a versiones anteriores de sus modelos, como GPT-4o, que no cuentan con los mismos niveles de seguridad. Esto plantea interrogantes sobre la coherencia de la estrategia de protección. Si se reconoce que ciertos modelos son menos seguros, ¿por qué mantenerlos disponibles para millones de suscriptores?
Otro punto controvertido es la decisión de relajar restricciones para permitir conversaciones eróticas con usuarios adultos. Aunque estas interacciones estén dirigidas a mayores de edad, podría abrir una puerta difícil de controlar, sobre todo si no se aplican sistemas de verificación de edad robustos.
La responsabilidad compartida
No todo recae sobre OpenAI. La popularidad de estas herramientas revela una carencia estructural: millones de personas se sienten solas, incomprendidas o desatendidas por el sistema de salud mental tradicional. En este contexto, recurren a lo que tienen a mano, aunque no sea ideal. ChatGPT no es psicólogo, pero para muchos se ha convertido en la figura más accesible con quien hablar.
La situación actual exige una mirada más amplia que combine tecnología, regulación, educación digital y refuerzo de los sistemas de salud mental. Mientras tanto, las empresas que desarrollan estas herramientas deben actuar con transparencia, anticipación y un compromiso real con el bienestar de sus usuarios.
