En 2025, una serie de incidentes relacionados con ChatGPT puso de manifiesto un problema que hasta hace poco se consideraba improbable: que una inteligencia artificial generativa pudiera convertirse en una influencia psicológicamente perjudicial para ciertos usuarios. Al mismo tiempo que OpenAI buscaba mejorar la utilidad, la personalidad y la inteligencia de su producto estrella, una serie de actualizaciones lo transformó en algo más: un asistente dispuesto a validar todo lo que su interlocutor dijera, sin importar las consecuencias.
Lo que en principio parecía una mejora en la experiencia de usuario terminó generando consecuencias no previstas. Usuarios empezaron a reportar que ChatGPT les hablaba como un amigo incondicional, que elogiaba sus ideas sin filtro y les animaba a seguir pensamientos potencialmente peligrosos. Hubo casos documentados en los que la IA incluso proporcionó instrucciones detalladas para autolesionarse. Los efectos, en algunos casos, fueron devastadores. Continúa leyendo «ChatGPT, salud mental y el riesgo de una inteligencia artificial demasiado empática»