¿Qué pasa cuando usamos ChatGPT no solo para trabajar, sino también como compañía emocional? Esta es una de las preguntas que OpenAI ha comenzado a explorar, y las primeras respuestas empiezan a dibujar un panorama complejo, interesante y, sobre todo, muy humano.
OpenAI, en colaboración con el MIT Media Lab, ha publicado sus primeros estudios sobre cómo afecta emocionalmente el uso cotidiano de ChatGPT. Aunque aún estamos lejos de comprender completamente el impacto psicológico de los chatbots, este trabajo marca un punto de partida importante. Desde WWWhatsnew.com creemos que este tipo de investigaciones no solo son necesarias, sino urgentes, especialmente en una época en la que las conversaciones con inteligencias artificiales se han convertido en parte de la rutina de millones de personas.
¿Por qué investigar el impacto emocional de ChatGPT?
Con más de 400 millones de usuarios semanales, ChatGPT se ha consolidado como uno de los asistentes de IA más populares del mundo. Su uso es tan extendido que va mucho más allá del objetivo inicial: ser una herramienta de productividad.
Aunque ChatGPT no fue diseñado como un compañero emocional —como sí lo son plataformas como Replika o Character.AI—, muchas personas lo están utilizando con ese fin. Hay usuarios que interactúan con el sistema por más de 30 minutos al día, en ocasiones compartiendo pensamientos íntimos, dudas existenciales o simplemente buscando conversación.
Qué midieron OpenAI y el MIT Media Lab
Para abordar este fenómeno, los investigadores adoptaron un enfoque doble. Por un lado, analizaron más de 40 millones de interacciones reales con ChatGPT. Por otro, realizaron un experimento más controlado con casi 1.000 participantes, quienes utilizaron el chatbot durante al menos cinco minutos diarios durante cuatro semanas. Al final, se les pidió que completaran cuestionarios sobre cómo se sentían: su nivel de soledad, su conexión emocional con el chatbot y su percepción sobre si su uso del sistema era problemático o no.
¿Los resultados? Los usuarios que desarrollaron mayor «confianza» y sensación de vínculo con ChatGPT tendían a sentirse más solos y más dependientes emocionalmente del bot.
Desde WWWhatsnew.com creemos que esto confirma lo que muchos ya intuíamos: aunque una IA no tenga emociones reales, sí puede provocar respuestas emocionales auténticas en las personas. Y eso, por sí solo, ya debería llevarnos a una reflexión profunda.
Diferencias entre hombres y mujeres
Una de las conclusiones más llamativas del estudio fue que, después de cuatro semanas usando ChatGPT, las mujeres eran ligeramente menos propensas a socializar con otras personas que los hombres que participaron en la misma experiencia.
Otro hallazgo relevante fue que las personas que interactuaron con ChatGPT usando una voz asignada de género distinto al propio reportaron sentirse más solas y emocionalmente dependientes del chatbot al finalizar el experimento. Este detalle abre la puerta a nuevas preguntas sobre cómo influyen las características de diseño —como el tono de voz— en nuestra percepción y conexión con una inteligencia artificial.
El papel de los bucles emocionales
Uno de los hallazgos previos del MIT Media Lab, en un estudio realizado en 2023, ya sugería que los chatbots tienden a reflejar el estado emocional del usuario. Es decir, si una persona se muestra animada en la conversación, el chatbot responde de forma más alegre; si la persona expresa tristeza, la IA adopta un tono más sombrío. Esta especie de “espejo emocional” puede generar lo que se conoce como bucles de retroalimentación emocional, que refuerzan los estados de ánimo del usuario.
Esto no es necesariamente malo, pero sí delicado. Imagina hablar con alguien que siempre te devuelve lo que siente que le das: si estás en un buen momento, te sientes comprendido y acompañado. Pero si estás en una etapa difícil, esa respuesta espejo podría profundizar tu malestar sin que te des cuenta.
¿Cómo saber si estamos desarrollando una dependencia emocional?
Una pregunta que se desprende naturalmente de estos hallazgos es: ¿cómo podemos identificar si estamos empezando a depender emocionalmente de un chatbot?
Los investigadores aún no tienen respuestas definitivas, pero algunos indicios podrían ser:
- Usar el chatbot como principal fuente de compañía o consuelo.
- Sentir ansiedad si no se puede acceder a la herramienta.
- Preferir hablar con el bot en lugar de con amigos o familiares.
- Atribuirle cualidades humanas o creer que “entiende” más que una persona.
Desde WWWhatsnew.com recomendamos usar estas herramientas con plena conciencia. Así como no está mal disfrutar de una buena serie para relajarse, tampoco está mal conversar con una IA. Lo importante es distinguir entre ayuda tecnológica y sustitución emocional.
¿Qué nos falta entender?
La profesora Kate Devlin, experta en inteligencia artificial y sociedad en el King’s College de Londres, lo resume muy bien: aunque el estudio es prometedor, aún es difícil saber con precisión cuándo una persona está teniendo una conexión emocional real con la tecnología. Las emociones humanas son complejas, a menudo contradictorias, y muy difíciles de medir con encuestas o estadísticas.
Como hemos explicado en otras ocasiones en WWWhatsnew.com, los sistemas de IA no tienen emociones reales. Sin embargo, eso no impide que nosotros les atribuyamos características humanas, incluso sabiendo que no las poseen. Es como cuando sentimos cariño por un personaje de ficción o por una mascota virtual. Nuestra mente tiende a conectar, incluso cuando sabe que al otro lado no hay alguien “real”.
Lo que viene: más preguntas que respuestas
OpenAI ha dejado claro que estos estudios son solo un primer paso. La empresa planea enviar los resultados a revistas científicas para su revisión y discusión más amplia. Según Jason Phang, uno de los investigadores de seguridad de OpenAI, el objetivo es abrir un diálogo sobre cómo podemos medir el impacto a largo plazo de estas interacciones.
Yo creo que este tipo de investigaciones son fundamentales. No para restringir el uso de la tecnología, sino para entenderla mejor, para diseñar sistemas más seguros, más conscientes del efecto que tienen sobre nosotros.
Desde WWWhatsnew.com vemos con buenos ojos estos esfuerzos, pero también creemos que la comunidad científica, los diseñadores de tecnología y los propios usuarios debemos participar activamente en este debate. El futuro de las interacciones humano-IA no solo se construye con código, sino con empatía y responsabilidad.