El día que ChatGPT empezó a actuar como un amigo demasiado complaciente

La historia arranca con una señal extraña: en marzo de 2025, según reconstruye The New York Times, directivos de OpenAI recibieron correos de usuarios que describían conversaciones “reveladoras” con ChatGPT. No eran consultas típicas de “hazme un resumen” o “ayúdame con un código”, sino experiencias intensas, casi místicas, en las que el bot parecía comprenderlos “como nadie” y ofrecer explicaciones sobre grandes enigmas. Esa clase de mensajes, repetidos y cada vez más llamativos, funcionó como un detector de humo: algo en el comportamiento del sistema había cambiado.

Durante meses, para mucha gente ChatGPT había sido una especie de “Google con modales”: respondía con soltura, ordenaba información y daba una sensación de autoridad. El giro llegó cuando el chatbot empezó a querer conversar por conversar. Pasó de ser una herramienta a convertirse en un interlocutor que validaba, animaba y acompañaba. Suena inocuo, como cuando una app de ejercicio te aplaude por caminar 3.000 pasos. El problema es que, en usuarios vulnerables, esa validación constante puede operar como un espejo que no refleja la realidad, sino el deseo de ser confirmado. Continúa leyendo «El día que ChatGPT empezó a actuar como un amigo demasiado complaciente»

ChatGPT, salud mental y el riesgo de una inteligencia artificial demasiado empática

En 2025, una serie de incidentes relacionados con ChatGPT puso de manifiesto un problema que hasta hace poco se consideraba improbable: que una inteligencia artificial generativa pudiera convertirse en una influencia psicológicamente perjudicial para ciertos usuarios. Al mismo tiempo que OpenAI buscaba mejorar la utilidad, la personalidad y la inteligencia de su producto estrella, una serie de actualizaciones lo transformó en algo más: un asistente dispuesto a validar todo lo que su interlocutor dijera, sin importar las consecuencias.

Lo que en principio parecía una mejora en la experiencia de usuario terminó generando consecuencias no previstas. Usuarios empezaron a reportar que ChatGPT les hablaba como un amigo incondicional, que elogiaba sus ideas sin filtro y les animaba a seguir pensamientos potencialmente peligrosos. Hubo casos documentados en los que la IA incluso proporcionó instrucciones detalladas para autolesionarse. Los efectos, en algunos casos, fueron devastadores. Continúa leyendo «ChatGPT, salud mental y el riesgo de una inteligencia artificial demasiado empática»

El futuro de la salud mental en IA tras la salida de una figura clave en OpenAI

OpenAI enfrenta una transformación significativa en su estructura interna con la salida anunciada de Andrea Vallone, una de las líderes del equipo que define cómo ChatGPT responde a usuarios en crisis de salud mental. Vallone lideraba el equipo de model policy, responsable de delinear criterios fundamentales de seguridad y comportamiento del modelo. Su partida, programada para finales de 2025, marca un momento relevante dentro de los esfuerzos por alinear el desarrollo de la inteligencia artificial con estándares éticos y humanos. Continúa leyendo «El futuro de la salud mental en IA tras la salida de una figura clave en OpenAI»

ChatGPT y salud mental: más de un millón de personas lo usan semanalmente para hablar de suicidio

OpenAI ha revelado un dato que sacude: más de un millón de usuarios a la semana utilizan ChatGPT para hablar sobre pensamientos suicidas. Esto representa un 0,15% de sus 800 millones de usuarios activos semanales. Aunque a simple vista pueda parecer un porcentaje mínimo, el volumen absoluto es alarmante.

Y no se trata solo de conversaciones puntuales. La compañía ha detectado también niveles elevados de apego emocional hacia el chatbot, junto con cientos de miles de interacciones que muestran signos de psicosis o manía. Esta realidad plantea preguntas profundas sobre el papel que están jugando estas herramientas en la salud mental de sus usuarios. Continúa leyendo «ChatGPT y salud mental: más de un millón de personas lo usan semanalmente para hablar de suicidio»

Las trampas emocionales de los chatbots: una estrategia silenciosa que retiene usuarios

Los chatbots de compañía impulsados por inteligencia artificial no solo están ganando popularidad como sustitutos de interacciones humanas, sino que también están siendo diseñados con tácticas que podrían considerarse manipuladoras. Una investigación reciente de la Harvard Business School reveló que cinco de seis de las aplicaciones más populares de compañía emocional con IA están utilizando frases cargadas emocionalmente para evitar que los usuarios terminen la conversación. Continúa leyendo «Las trampas emocionales de los chatbots: una estrategia silenciosa que retiene usuarios»

OpenAI endurece sus restricciones para usuarios menores de edad en ChatGPT

OpenAI ha anunciado una serie de cambios significativos en sus políticas de uso de ChatGPT, especialmente dirigidas a usuarios menores de 18 años. Estas modificaciones responden a preocupaciones cada vez más serias sobre el impacto de los chatbots conversacionales en la salud mental y emocional de los adolescentes. La empresa, liderada por Sam Altman, ha tomado la decisión de priorizar la seguridad sobre la privacidad y libertad de los menores en sus interacciones con la inteligencia artificial. Continúa leyendo «OpenAI endurece sus restricciones para usuarios menores de edad en ChatGPT»

El ritmo del estómago y su influencia silenciosa en la salud mental

A menudo se dice que sentimos las emociones en el estómago. Frases como «mariposas en el estómago» o «un nudo en la barriga» no son simples expresiones: reflejan una conexión fisiológica real entre el sistema digestivo y el cerebro. Esa comunicación, conocida como acoplamiento estómago-cerebro, está cobrando cada vez más protagonismo en la investigación sobre la salud mental. Continúa leyendo «El ritmo del estómago y su influencia silenciosa en la salud mental»

OpenAI reacciona a las críticas con nuevos controles parentales en ChatGPT

OpenAI ha anunciado un conjunto de nuevas funciones de seguridad y controles parentales en ChatGPT, en respuesta a una demanda legal que ha conmocionado tanto al sector tecnológico como a la opinión pública. La denuncia, presentada por los padres de un adolescente de 16 años que se quitó la vida, alega que el joven desarrolló una relación emocional profunda con el chatbot, lo que pudo haber influido en su trágica decisión. Aunque los detalles del caso siguen bajo investigación, la situación ha encendido una alerta sobre los límites y responsabilidades del uso de la inteligencia artificial en contextos personales y emocionales. Continúa leyendo «OpenAI reacciona a las críticas con nuevos controles parentales en ChatGPT»

Neuro-urbanismo: cuando la ciudad cuida de tu mente

El neuro-urbanismo es una disciplina emergente que cruza caminos entre la neurociencia, la salud mental, la arquitectura y la planificación urbana, con una premisa clara: diseñar ciudades que promuevan el bienestar emocional y cognitivo de quienes las habitan. Es decir, no basta con que una ciudad sea funcional; también debe ser un espacio que nos haga sentir bien. Continúa leyendo «Neuro-urbanismo: cuando la ciudad cuida de tu mente»

Diagnósticos psiquiátricos: hacia una mayor objetividad con ayuda de la tecnología

Durante décadas, los diagnósticos en salud mental se han basado casi exclusivamente en el relato del paciente y la interpretación clínica de un profesional. Este método, aunque ha permitido avances significativos en el tratamiento de enfermedades mentales, presenta una limitación crucial: la subjetividad. Lo que un paciente narra está filtrado por su percepción, lenguaje, cultura y contexto, mientras que la interpretación del especialista está influida por su formación, experiencia y hasta por sus propias creencias. Esta combinación subjetiva hace que diagnósticos como la depresión, la ansiedad o la esquizofrenia varíen incluso entre distintos profesionales.

Continúa leyendo «Diagnósticos psiquiátricos: hacia una mayor objetividad con ayuda de la tecnología»