¿ChatGPT marcará tus imágenes si usas la versión gratis? Esto es lo que sabemos

Publicado el

Ilustración subrealista y minimalista de una mano robótica colocando una marca de agua sobre una imagen digital flotante, representando el uso de marcas en imágenes generadas por inteligencia artificial en ChatGPT.

ChatGPT, uno de los modelos de inteligencia artificial más populares del momento, ha dado un paso más allá con su nueva versión GPT-4o, que ya permite generar imágenes directamente desde el chatbot. Sin embargo, si usas la versión gratuita, podrías empezar a ver un pequeño cambio que no todos recibirán con agrado: marcas de agua en las imágenes generadas.

¿Qué está pasando y por qué OpenAI, la empresa detrás de ChatGPT, está considerando esta medida? En este artículo lo explicamos paso a paso, desde los fundamentos del tema hasta lo que esto significa para los usuarios.

El auge de las imágenes generadas por IA

Hace un tiempo, si querías una imagen generada por inteligencia artificial, tenías que recurrir a herramientas especializadas como Midjourney o DALL·E. Sin embargo, la evolución de los modelos multimodales –aquellos capaces de comprender y generar tanto texto como imágenes– ha democratizado esta posibilidad. Ahora, basta con escribir una descripción en ChatGPT con GPT-4o para obtener una imagen personalizada.

Es como pedirle a un ilustrador que dibuje lo que tienes en mente, pero en segundos y desde tu móvil.

GPT-4o y la creación de imágenes

El modelo GPT-4o, disponible desde hace poco para todos los usuarios, permite generar imágenes desde texto o incluso modificar una imagen ya existente (lo que se conoce como «restyling»). Muchas personas, por ejemplo, están usando esta función para transformar sus fotos en versiones inspiradas en el estilo visual de los estudios Ghibli.

Sin embargo, esta popularidad repentina ha traído consigo un problema: la ausencia de una forma clara de identificar que esas imágenes fueron creadas por una IA.

¿Por qué agregar marcas de agua?

Agregar marcas de agua a las imágenes generadas por IA no es una idea nueva. De hecho, ya es común en plataformas que permiten descargar imágenes de stock: si no pagas, la imagen viene con un logo encima. En este caso, OpenAI parece querer aplicar una lógica parecida.

Según datos encontrados por el investigador Tibor Blaho en una versión reciente de la app de ChatGPT para Android, OpenAI estaría probando una función llamada ImageGen Watermark, que añadiría una marca visible en las imágenes generadas por usuarios gratuitos.

Esto se entiende como una forma de:

  • Evitar confusiones entre contenido generado por humanos y por IA
  • Incentivar la suscripción a los planes pagos de ChatGPT, ya que estos no incluirían la marca
  • Reducir el abuso del sistema, limitando la distribución masiva de contenido sin control

¿Es justo marcar solo el contenido de los usuarios gratuitos?

Aquí es donde el tema se vuelve más debatible. En lugar de aplicar esta medida a todas las imágenes creadas por IA –como ya hacen competidores como Google Gemini o Meta AI– OpenAI parece optar por una estrategia más selectiva: solo quienes usan la versión gratuita de ChatGPT verán sus imágenes marcadas.

Esto puede interpretarse como una jugada comercial, similar a lo que hacen los servicios «freemium»: ofrecen funciones básicas gratis, pero reservan la experiencia completa para quienes pagan.

El problema es que esto podría crear una división en la percepción del contenido. Si una imagen generada por GPT-4o no tiene marca, ¿significa que fue hecha por un humano? ¿O simplemente que su autor tiene una suscripción?

¿Cómo afecta esto al usuario promedio?

Imagina que eres un estudiante que quiere ilustrar un trabajo o un emprendedor que busca ideas visuales para su negocio. Si usas la versión gratuita de ChatGPT, tus imágenes podrían tener un pequeño sello que diga algo así como “generado por IA”.

Esto no necesariamente invalida el uso de esas imágenes, pero sí las identifica de forma explícita, lo que puede ser útil en contextos como:

  • Evitar plagio o malentendidos sobre autoría
  • Respetar normativas en medios o instituciones que exigen transparencia en el uso de IA
  • Preservar la integridad de contenidos humanos frente a la creciente ola de material generado artificialmente

¿Qué hay de los planes pagos?

Aunque OpenAI no ha hecho un anuncio oficial sobre esta característica, todo apunta a que las marcas de agua no se aplicarían a los usuarios que pagan por ChatGPT Plus o superiores. Es decir, quienes pagan por el servicio seguirían generando imágenes sin ninguna identificación visual visible.

Esto podría convertirse en un argumento más para motivar a los usuarios gratuitos a dar el salto a una suscripción. Como en otras plataformas, pagar no solo mejora la calidad y la velocidad, sino que también ofrece contenido «limpio» y sin restricciones.

Lo que aún no se sabe

Hay varios aspectos que siguen en el aire:

  • ¿Cuándo se aplicarán estas marcas de agua de forma oficial?
  • ¿Qué tipo de marca será? ¿Un texto, un logotipo, algo más sutil?
  • ¿Habrá algún tipo de «marca invisible» (como los metadatos que no se ven pero que se pueden detectar)?

Mientras tanto, otros gigantes como Google y Meta ya están incluyendo marcas visibles y/o señales digitales en los archivos para que sea más fácil rastrear su origen.

La delgada línea entre contenido humano y artificial

El debate sobre la identificación del contenido generado por inteligencia artificial es complejo. Por un lado, las marcas de agua promueven la transparencia, especialmente en un momento en el que la IA puede imitar estilos artísticos, rostros y escenas con una precisión sorprendente. Pero por otro lado, también plantean cuestiones sobre equidad en el acceso y sobre si la estética del contenido debería depender del poder adquisitivo del usuario.

Al final, saber que una imagen fue hecha por una IA no es algo negativo. De hecho, puede ser una herramienta útil, inspiradora y eficiente. Pero como ocurre con cualquier herramienta poderosa, el contexto y la forma en que se usa hacen toda la diferencia.