Midjourney, conocido por su dominio en la generación de imágenes mediante inteligencia artificial, ha sorprendido recientemente con un nuevo rumbo que pocos esperaban: la mejora de la creatividad en los modelos de lenguaje. Aunque su plataforma se ha convertido en una referencia para crear imágenes surrealistas y artísticas con solo una línea de texto, ahora la empresa ha puesto la mirada en los textos generados por IA. Y lo hace con una propuesta técnica novedosa que promete oxigenar un terreno que empieza a mostrar síntomas de estancamiento: el de los textos automatizados que suenan todos igual.
Desde wwwhatsnew.com nos parece un paso lógico e interesante. Si ya has logrado que las máquinas pinten como artistas, ¿por qué no enseñarles a escribir como escritores?
El problema: textos generados por IA que suenan a copia y pega
Quien haya jugado con modelos como ChatGPT, Claude o Gemini para escribir cuentos o escenas creativas sabrá de lo que hablamos: muchos textos parecen calcados entre sí. A pesar de las infinitas posibilidades que ofrece una solicitud como “escribe una historia sobre un perro en la Luna”, la mayoría de los modelos tienden a entregar versiones similares, sin demasiada sorpresa ni originalidad.
Este fenómeno ocurre porque las técnicas de ajuste actuales priorizan las respuestas “seguras” o populares —las que más gustan al público— por encima de las más arriesgadas o poco comunes. La consecuencia es un efecto de homogeneización, donde lo que podría ser una historia fascinante acaba pareciendo una redacción de colegio.
La propuesta de Midjourney: enseñar a los modelos a valorar la diferencia
Para cambiar esto, Midjourney ha colaborado con investigadores de la Universidad de Nueva York (NYU) y ha publicado un estudio que introduce dos nuevos métodos de entrenamiento: DDPO (Diversified Direct Preference Optimization) y DORPO (Diversified Odds Ratio Preference Optimization). Nombres complejos para una idea sencilla pero poderosa: enseñar a los modelos de lenguaje a valorar las respuestas distintas.
¿Cómo lo logran? Utilizando una métrica llamada “desviación”. Esta mide qué tanto se aleja una respuesta de otras similares. Si una historia es muy diferente pero sigue siendo de calidad, el modelo la toma como un ejemplo valioso, y aprende de ella.
Imagina que tienes cinco cuentos sobre el perro en la Luna. Cuatro son variaciones de una misma idea (el perro viaja en cohete, encuentra una base lunar, etc.), pero uno cuenta que el perro se convierte en un mito lunar contado por civilizaciones alienígenas. Esa última historia, aunque menos común, aporta un ángulo original. Lo que hacen DDPO y DORPO es reconocer ese valor y dar más peso a ese tipo de respuestas durante el entrenamiento.
¿Qué modelos se usaron en el estudio?
El experimento se llevó a cabo con dos modelos bien conocidos por la comunidad técnica:
Llama-3.1-8B, un modelo de 8 mil millones de parámetros desarrollado por Meta.
Mistral-7B-v0.3, una alternativa potente y ligera del equipo de Mistral AI.
Ambos fueron ajustados usando técnicas como LoRA (Low-Rank Adaptation), una forma eficiente de afinar grandes modelos sin requerir recursos descomunales. Luego, se aplicaron los nuevos métodos de preferencia con diversidad (DDPO y DORPO), y los resultados fueron evaluados tanto por métricas automáticas como por jueces humanos.
Resultados prometedores
Lo más interesante es que el modelo Llama-3.1-8B entrenado con DDPO no solo generó textos más variados que los de GPT-4o, sino que mantuvo un alto nivel de coherencia y calidad narrativa. Es decir, no se trataba de “locuras aleatorias” sin sentido, sino de historias que sorprendían y atrapaban al lector.
Además, incluso con conjuntos de datos más pequeños, los modelos seguían mostrando diversidad, lo que sugiere que esta técnica podría adaptarse bien a empresas con recursos limitados.
¿Y esto qué significa para quienes usan IA en empresas?
Desde el punto de vista práctico, esto abre nuevas puertas para quienes usan la inteligencia artificial en tareas que requieren originalidad, como:
Marketing de contenidos, donde un texto fresco y diferente puede marcar la diferencia entre captar o perder a un cliente.
Narrativa en videojuegos o cine, donde la IA puede asistir en la generación de diálogos, tramas secundarias o historias interactivas.
Chatbots y asistentes conversacionales, que ya no suenan como robots programados, sino como personajes con matices y personalidad.
Yo creo que este enfoque puede ser especialmente útil para equipos creativos que usan IA como una herramienta de inspiración. No reemplaza al escritor, pero le ofrece ángulos nuevos, variaciones interesantes y menos previsibilidad.
¿Cómo se compara con otras técnicas como el “temperature tuning”?
Una estrategia común para diversificar las respuestas de un modelo es subir la “temperatura” durante la inferencia, es decir, cuando el modelo genera el texto. Pero esta técnica tiene un límite: no enseña al modelo a ser diverso, solo lo obliga a arriesgar más en el momento de responder.
Lo que propone Midjourney es ir un paso más allá: que el modelo aprenda desde el principio a valorar la variedad, como si le enseñáramos a un chef que no todos los platos tienen que saber igual, incluso si usan los mismos ingredientes.
Lo que viene: aplicaciones más allá del texto
Aunque el estudio se centró en escritura creativa usando prompts de Reddit (como los del foro r/writingPrompts), los investigadores sugieren que la técnica puede adaptarse a otros dominios:
Poesía generada por IA, con estilos únicos.
Guiones de cine o televisión, que eviten clichés.
Storytelling interactivo en videojuegos, con historias que realmente cambian según las decisiones del jugador.
Desde wwwhatsnew.com seguiremos de cerca esta evolución. Nos parece que iniciativas como esta no solo hacen avanzar la tecnología, sino que también nos acercan a un futuro donde la colaboración humano-IA sea más rica, divertida y menos monótona.
Una IA que no solo sabe, sino que también sorprende
La creatividad no es solo un adorno, es una necesidad en muchos contextos. Y entrenar modelos que sean capaces de ofrecer variedad sin perder calidad es, en nuestra opinión, un paso fundamental hacia una IA más útil y humana.
Los investigadores planean liberar su código en GitHub, lo que facilitará que más equipos experimenten con estas técnicas. Para quienes trabajan afinando modelos o desarrollando herramientas basadas en texto, este avance puede ser el ingrediente que faltaba para destacar en un mar de contenido repetitivo.