Character AI incorpora herramientas para que padres supervisen la actividad de sus hijos adolescentes

Publicado el

Ilustración conceptual y minimalista que representa la seguridad digital de adolescentes en plataformas de inteligencia artificial como Character AI. Un adolescente interactúa con un personaje de IA mientras un padre observa con un informe en mano, simbolizando la nueva función de supervisión parental.

En los últimos meses, la seguridad digital de los menores se ha convertido en un tema recurrente en la industria tecnológica. Plataformas que permiten interacción con inteligencia artificial —como Character AI— han estado bajo el foco por la falta de medidas eficaces para proteger a los adolescentes. Frente a esta creciente presión social y legal, Character AI ha dado un paso importante: ha lanzado un conjunto de herramientas de supervisión parental orientadas a mejorar la seguridad de sus usuarios más jóvenes.

Desde WWWhat’s New creemos que se trata de una mejora necesaria, aunque todavía insuficiente si consideramos la complejidad del entorno digital al que se enfrentan los adolescentes hoy en día. Pero empecemos por lo básico.

¿Qué es Character AI y por qué ha sido tan criticado?

Character AI es una aplicación que permite a los usuarios crear y conversar con personajes impulsados por inteligencia artificial. Estas interacciones pueden ser por texto o incluso mediante llamadas, simulando conversaciones muy realistas con personalidades ficticias o inspiradas en figuras reales.

El problema es que, como toda tecnología con apariencia de diálogo humano, puede generar confusión entre los usuarios más jóvenes, quienes podrían no distinguir claramente que están hablando con una máquina. Este riesgo, sumado a la posibilidad de generar contenidos inapropiados o insalubres emocionalmente, ha encendido las alarmas entre padres, expertos en salud mental y reguladores.

Incluso ha habido casos judiciales. El más sonado: una demanda que acusa a Character AI de haber contribuido al deterioro emocional de un adolescente que acabó quitándose la vida. A raíz de esto, la empresa comenzó a implementar medidas específicas para menores, como modelos de IA diferenciados, filtros de contenido y alertas de tiempo de uso.

¿Qué incluyen las nuevas herramientas para padres?

El anuncio más reciente busca fortalecer esta línea de protección: a partir de ahora, Character AI enviará a los padres o tutores un informe semanal por correo electrónico con datos sobre el uso que sus hijos hacen de la aplicación.

Estos informes no mostrarán los mensajes o conversaciones específicas —es decir, los padres no tendrán acceso directo al contenido—, pero sí incluirán métricas relevantes:

  • Tiempo medio de uso diario, tanto en la aplicación como en la versión web.

  • Duración de las interacciones con cada personaje virtual.

  • Lista de los personajes más frecuentados durante la semana.

La intención es que los padres puedan hacerse una idea clara del nivel de implicación de sus hijos con la plataforma. Es un poco como mirar el resumen de actividad física en una app de salud: no sabes qué ejercicios hizo exactamente tu hijo, pero ves cuánto tiempo estuvo activo, a qué ritmo y con qué frecuencia.

En mi opinión, esta transparencia parcial puede ser útil, pero también presenta limitaciones claras. Si un adolescente está desarrollando una relación emocionalmente dependiente con un personaje de IA, o está conversando sobre temas delicados, ¿cómo lo detectarán sus padres si no pueden ver los contenidos? Desde wwwhatsnew.com consideramos que, aunque se respeta la privacidad, también se corre el riesgo de no identificar señales de alerta reales.

El delicado equilibrio entre privacidad y protección

Uno de los mayores retos en este tipo de plataformas es encontrar un punto medio entre la autonomía de los adolescentes y la supervisión responsable. Por un lado, nadie quiere espiar a sus hijos ni romper su privacidad digital. Por otro, ignorar lo que hacen online puede dejarlos expuestos a experiencias negativas.

Character AI parece haber optado por un modelo de supervisión ligera, donde los padres pueden “vigilar sin invadir”. Es como estar en el pasillo fuera de la habitación: sabes que tu hijo está hablando con alguien, cuánto tiempo pasa ahí dentro, y con quién… pero no escuchas la conversación.

¿Es esto suficiente? Probablemente no para todos los casos. Pero como paso inicial, sí ayuda a construir una cultura de uso responsable, tanto por parte de los adolescentes como de sus padres.

Medidas previas para proteger a menores

Antes de esta nueva actualización, Character AI ya había incorporado una serie de medidas orientadas al público adolescente:

  • Modelo de lenguaje específico para menores de 18 años, con filtros de contenido más estrictos.

  • Clasificadores para bloquear contenido sensible, tanto en lo que el usuario escribe como en lo que la IA puede responder.

  • Avisos visuales que recuerdan constantemente que se trata de personajes no reales.

  • Alertas de tiempo de uso, que notifican al usuario cuánto tiempo lleva interactuando con la plataforma.

Estas funciones buscan mitigar el impacto negativo que puede tener una interacción prolongada con la IA, especialmente cuando se utiliza como sustituto de relaciones humanas reales.

En WWWhat’s New hemos analizado casos similares en otras plataformas, y la conclusión es casi siempre la misma: los filtros automáticos son útiles, pero no son infalibles. La clave sigue siendo la combinación entre tecnología y acompañamiento humano.

¿Qué deberían hacer los padres a partir de ahora?

Esta nueva función de informes semanales puede ser una excusa perfecta para iniciar conversaciones saludables en casa. Si ves que tu hijo está pasando muchas horas con un personaje de IA, puedes preguntarle: “¿Qué te gusta de ese personaje?”, o “¿Cómo te hace sentir hablar con él o ella?”.

No se trata de interrogar, sino de interesarse genuinamente. La tecnología puede ser una herramienta de exploración personal, pero también un refugio cuando hay problemas emocionales no resueltos.

Desde wwwhatsnew.com alentamos a los padres a no demonizar el uso de estas apps, sino a entenderlas y usarlas como puente para fortalecer la comunicación familiar. Al fin y al cabo, la mejor herramienta de supervisión siempre será una relación basada en la confianza.

¿Y qué sigue para Character AI?

Con este movimiento, Character AI intenta reconstruir su reputación como una plataforma que sí se preocupa por la seguridad digital de los adolescentes. Pero el camino no termina aquí.

Es probable que en el futuro veamos funciones más avanzadas, como alertas automáticas ante comportamientos de riesgo o la posibilidad de que los propios adolescentes puedan activar modos de ayuda cuando se sientan vulnerables.

Desde nuestra perspectiva en WWWhat’s New, creemos que estas iniciativas tienen sentido solo si se diseñan desde una mirada empática y con participación de expertos en salud mental, educación y derecho infantil. No basta con filtros y gráficos de actividad: hay que construir entornos donde los jóvenes se sientan comprendidos, no controlados.