Los sistemas de IA generativa se han convertido en una fábrica de imágenes, textos y sonidos a una velocidad que ningún creador humano puede igualar. Su truco, explicado sin mística, consiste en aprender patrones a partir de enormes colecciones de contenido hecho por personas, recopilado de internet y otras fuentes. El detalle inquietante es qué ocurre cuando ese material humano deja de ser el ingrediente principal y el sistema empieza a cocinar con sobras: datos sintéticos generados por otras IA, una y otra vez, como quien recalienta el mismo plato hasta que pierde sabor.
Esa idea, que hasta hace poco sonaba a teoría, está tomando forma con evidencias experimentales. Varios trabajos previos ya habían advertido que entrenar modelos con contenido generado por modelos puede degradar su calidad con el tiempo, como si el sistema se “desenfocara” por mirar demasiadas veces una copia de una copia. La pregunta cultural es igual de seria: si la red se llena de contenido automatizado y los modelos se alimentan de ese material, ¿qué pasa con la diversidad creativa?
Un experimento que termina en imágenes “genéricas”
Un estudio reciente publicado en la revista Patterns probó una dinámica muy concreta: conectar un generador de texto a imagen con un sistema de imagen a texto, y pedirles que repitieran el proceso muchas veces sin intervención humana. La máquina crea una imagen, otra máquina la describe, esa descripción se usa para generar una nueva imagen, y así sucesivamente. El resultado, según los autores, fue una convergencia hacia imágenes cada vez más previsibles, una especie de “música de ascensor” visual: correcta, pulida, reconocible… y sorprendentemente plana.
La clave del hallazgo es que esa caída en variedad no necesitó reentrenamiento del modelo. No hizo falta añadir nuevos datos ni cambiar pesos internos. Bastó con la repetición autónoma, como si el sistema encontrara “carriles” creativos cómodos y terminara circulando siempre por autopistas conocidas. Es un fenómeno que recuerda a lo que pasa cuando una conversación en grupo se queda enganchada al mismo chiste: al principio hace gracia, luego se repite, se simplifica y termina siendo un estribillo sin alma.
El “bucle” que lo estropea todo: retroalimentación sin aire fresco
Para entender el mecanismo, ayuda imaginar una fotocopiadora en una oficina. La primera copia de un documento suele salir bien. Si fotocopias esa copia, quizá no notes cambios. Si repites el proceso decenas de veces, aparecen sombras, se pierden detalles finos, las letras se engordan, el papel acaba con manchas. En IA generativa, el equivalente son los bucles de retroalimentación: el modelo produce contenido, ese contenido vuelve a circular como referencia o material de partida, y el sistema se acostumbra a lo estadísticamente más probable.
Ese “promedio” es el enemigo silencioso de la sorpresa. Lo promedio es útil cuando quieres un manual de instrucciones claro o una imagen de stock para un folleto. Cuando hablamos de cultura —arte, humor, estilos visuales, narrativa— lo interesante suele vivir en las rarezas: el giro inesperado, la mezcla improbable, el detalle que no encaja del todo y por eso llama la atención.
Lo que dice Ahmed Elgammal: la homogeneización como modo por defecto
Ahmed Elgammal, profesor de informática en Rutgers University, comentó este trabajo en un análisis para The Conversation y lo conectó con un riesgo más amplio: el estancamiento cultural. Su argumento es incómodo porque desplaza el foco desde “la IA empeora” hacia “la cultura se aplana”. Si las herramientas se usan de forma autónoma y repetitiva, tienden a la homogeneización. Según Elgammal, la convergencia hacia imágenes insípidas ocurrió sin que el sistema aprendiera nada nuevo: no hubo expansión de conocimiento, solo repetición hasta el desgaste.
Dicho de forma cotidiana, es como pedirle a un cocinero que improvise usando siempre los mismos tres ingredientes. Puede variar el emplatado, cambiar la textura, jugar con el punto de cocción. A partir de cierto momento, el menú empieza a saber igual. Si, encima, el recetario del cocinero se escribe copiando sus propios platos anteriores, la variedad se reduce aún más.
Cuando el algoritmo premia lo familiar, la cultura se encoge
El riesgo no vive solo dentro de los laboratorios. Vive en la distribución. Si los sistemas que recomiendan, posicionan y filtran contenido empiezan a favorecer lo “describible” y lo convencional —lo que encaja con categorías claras y patrones repetidos—, lo diferente lo tiene más difícil para emerger. Y si la red se llena de “relleno” automatizado, encontrar la señal humana se parece a buscar una voz conocida en un estadio lleno de altavoces.
Aquí aparece un efecto dominó. El contenido generado por IA no solo puede servir de “alimento” para futuros modelos; también puede convertirse en el paisaje cotidiano que consumimos a diario. Si el paisaje se vuelve uniforme, la inspiración colectiva se empobrece. La cultura funciona un poco como un mercado local: necesita puestos pequeños, productos raros, recetas heredadas, experimentos fallidos. Si todo termina siendo franquicia, la ciudad se vuelve cómoda, sí, pero intercambiable.
Creatividad humana y herramientas: el valor de la colaboración
El estudio de Patterns sugiere una salida pragmática: la colaboración humano-máquina puede ser esencial para conservar variedad y sorpresa. No porque la máquina sea “incapaz” de crear, sino porque, sin una mano humana que introduzca fricción —capricho, contexto, intención, ruptura—, el sistema tiende a estabilizarse en zonas seguras. Un creador humano puede hacer lo que los promedios evitan: insistir en una idea rara, sostener una incomodidad estética, elegir un detalle que no optimiza clics.
Esto encaja con una realidad de los flujos creativos: la mayoría de artistas no buscan el resultado “más probable”, sino el que expresa algo. En fotografía, por ejemplo, el encuadre memorable muchas veces es el que recorta de forma extraña. En escritura, la frase que se recuerda no siempre es la más clara, sino la que tiene ritmo propio. La IA generativa, usada como compañera, puede acelerar bocetos y alternativas; usada como piloto automático, corre el riesgo de convertir la producción cultural en una cinta transportadora.
Diseñar sistemas que se salgan del carril
La parte más difícil no es identificar el problema, sino construir incentivos y diseños que lo mitiguen. Elgammal plantea que los sistemas deberían estar pensados para resistir la convergencia hacia salidas “estadísticamente promedio”. Traducido al día a día: si una herramienta siempre te propone la opción “segura”, te acostumbras a aceptar lo seguro. Si te empuja de vez en cuando a lo extraño, te obliga a decidir con más criterio.
Esto abre un debate incómodo para la industria: muchas plataformas optimizan para retención y predictibilidad, porque lo familiar reduce el riesgo. La cultura, sin embargo, se alimenta de apuestas. Si la infraestructura creativa se construye como una máquina de minimizar sorpresas, el resultado puede ser un océano de contenido correcto y una sequía de ideas memorables.
Lo que queda por ver: coexistencia o desplazamiento
Todavía no está claro hasta qué punto disciplinas como la fotografía, el teatro, la ilustración o la música quedarán transformadas por estas dinámicas, ni si la convivencia será equilibrada. Lo que sí empieza a dibujarse es una tensión: por un lado, herramientas cada vez más potentes prometen abaratar y acelerar la producción; por otro, la economía de la atención premia lo reconocible y penaliza la rareza.
La señal de alarma del estudio no es que la IA “haga arte malo”, sino que, si se deja sola y se repite el circuito, termina fabricando un tipo de estética de catálogo, como si la cultura se quedara atrapada en la sala de espera de un aeropuerto: limpia, agradable, intercambiable. Si queremos que la tecnología sume sin aplanar, el reto no está solo en el modelo, sino en cómo lo usamos, cómo lo distribuimos y qué valor decidimos proteger.
