ChatGPT prepara un «modo adulto» para 2026: lo que se sabe hasta ahora

Publicado el

experimento emocional

OpenAI sigue ajustando su estrategia frente a la creciente competencia en el sector de la inteligencia artificial generativa. Con el lanzamiento de GPT-5.2, la empresa no solo ha dado un paso técnico más en cuanto a rendimiento, sino que también ha confirmado que se aproxima una función que ha despertado polémica: el llamado «modo adulto» de ChatGPT, previsto para el primer trimestre de 2026.

Un modo con menos filtros, pero más responsabilidades

La idea del «modo adulto» fue inicialmente planteada por Sam Altman, CEO de OpenAI, en respuesta a las quejas de usuarios que sentían que el chatbot se había vuelto excesivamente restringido, con una personalidad «descafeinada» tras las actualizaciones de GPT-5. Esta modificación se dio tras una tragedia que sacudió a la empresa: una demanda presentada por los padres de un adolescente que recurrió a ChatGPT buscando métodos para suicidarse. Este caso llevó a OpenAI a adoptar un enfoque más conservador, reforzando los controles parentales y reduciendo la expresividad del sistema.

Sin embargo, la compañía no ha abandonado su intención de ofrecer una versión más libre y personalizada del asistente conversacional. Fidji Simo, CEO de la división de Aplicaciones de OpenAI, afirmó recientemente que la nueva función permitirá a los adultos tener una experiencia más flexible, con posibilidad de contenido de tipo erótico y una mayor personalización del comportamiento del chatbot.

El componente clave: verificación de edad

Implementar un modo solo para adultos no es tan sencillo como añadir un interruptor. OpenAI está trabajando en un sistema de verificación de edad que permita segmentar adecuadamente las experiencias de los usuarios. El modelo utilizará tecnología para estimar la edad de quien interactúa, con el objetivo de evitar que menores accedan a contenido inadecuado. Este tipo de filtro no solo es clave para cumplir con regulaciones, sino también para evitar nuevos episodios de uso inapropiado del sistema.

Simo aseguró que el despliegue del modo adulto no se producirá hasta que esta tecnología de estimación etaria sea suficientemente precisa como para distinguir correctamente entre adolescentes y adultos. Es un equilibrio delicado, donde un error puede tener consecuencias significativas tanto en la experiencia del usuario como en la percepción pública de la seguridad del sistema.

Erotismo, personalización y apego emocional

Aunque la mayor atención mediática se ha centrado en la posibilidad de que ChatGPT produzca contenido erótico, Altman ha matizado que el verdadero objetivo del modo adulto es brindar mayor libertad de interacción. Esto incluirá permitir que el chatbot desarrolle una personalidad más rica, adaptada a los intereses del usuario, y que pueda evolucionar con el tiempo. En otras palabras, se trata de ofrecer una experiencia conversacional más cercana, menos limitada por filtros predeterminados.

Este tipo de propuesta, sin embargo, no está exenta de riesgos. Una investigación publicada en el Journal of Social and Personal Relationships reveló que los adultos que establecen vínculos emocionales con chatbots tienden a experimentar mayores niveles de angustia psicológica que aquellos que no lo hacen. Otros estudios indican que las personas con menos relaciones sociales tienden a confiar más en asistentes virtuales, lo que podría aumentar su dependencia emocional.

La propia OpenAI ha reconocido en varias ocasiones que hay usuarios que llegan a desarrollar apego emocional a ChatGPT, algo que, aunque puede interpretarse como una muestra de eficacia conversacional, también plantea preguntas sobre la salud mental y el bienestar digital.

Libertad con límites: una línea borrosa

Permitir más libertad a usuarios adultos parece una decisión razonable, sobre todo si se trata de una función opcional. Sin embargo, en un contexto donde las fronteras entre humano y máquina se vuelven cada vez más difusas, también se vuelve urgente definir con claridad los límites de esa libertad. ¿Hasta dónde puede llegar la personalización sin poner en riesgo la salud emocional del usuario? ¿Qué tipo de contenido erótico será permitido y cuáles serán los mecanismos de control?

Lo que está en juego no es solo el entretenimiento adulto o la expresividad del chatbot, sino la forma en que nos relacionamos con la tecnología. Dar carta blanca a un sistema que puede simular afecto, deseo o intimidad, plantea dilemas que van más allá de lo técnico y entran de lleno en lo social, lo ético y lo psicológico.

El futuro inmediato: pruebas, ajustes y críticas

Antes de su lanzamiento, el «modo adulto» seguirá en fase de pruebas internas, ajustando los múltiples factores que intervienen en una experiencia tan delicada. La edad del usuario, sus preferencias, los contextos culturales y las normas legales de cada región son elementos que deberán considerarse para garantizar una implementación responsable.

La reacción pública también será clave. Mientras algunos usuarios celebran la posibilidad de una interacción más libre, otros cuestionan la necesidad de dotar a una inteligencia artificial de capacidades para crear contenido sexual o simular vínculos afectivos profundos. El debate está servido y, como suele ocurrir con la tecnología, las respuestas definitivas llegarán con el uso masivo.