MidJourney y la edición de imágenes con IA: un vistazo a lo que viene

Publicado el

Imagínate esto: tienes una imagen, tal vez una foto de tus vacaciones o una que tomaste en una tarde cualquiera, y de repente, puedes cambiar sus colores, texturas, y hasta añadir detalles que ni siquiera estaban ahí en un principio, todo gracias a la inteligencia artificial (IA). Suena como algo salido de una película de ciencia ficción, pero lo cierto es que esto está a punto de volverse realidad para los usuarios de MidJourney.

¿Qué es lo que planea MidJourney?

Según lo anunciado por el propio David Holtz, CEO de MidJourney, la plataforma está a punto de lanzar una nueva herramienta web que permitirá a los usuarios editar cualquier imagen que suban a la plataforma. ¿Lo mejor de todo? Podrás hacerlo usando IA generativa, lo que significa que no solo estarás aplicando filtros básicos o ajustes de brillo, sino que tendrás la capacidad de retexturizar objetos, cambiar colores y detalles, todo de acuerdo a las indicaciones que escribas. Es como darle vida a tus imágenes con simples comandos.

Imagina que subes una foto de tu coche y decides que prefieres verlo en rojo brillante en lugar del azul de siempre. Con esta nueva herramienta, simplemente describes el cambio que quieres y ¡listo! La IA lo hace por ti. Holtz mencionó que esta actualización se lanzará «a principios de la próxima semana», por lo que la espera no será muy larga.

La edición de imágenes con IA: el debate continúa

A medida que herramientas como esta se vuelven más accesibles, también surge una gran pregunta: ¿cómo saber si una imagen ha sido modificada con IA? Grandes plataformas como Meta han estado luchando por encontrar formas de etiquetar imágenes que han sido alteradas por herramientas de IA, mientras que empresas como Google han lanzado funcionalidades poderosas que permiten modificar imágenes sin ningún tipo de indicación visible de que han sido alteradas.

Lo interesante de MidJourney es que el año pasado se comprometieron a usar el estándar de propiedad de fuente digital del IPTC, lo que significa que las imágenes generadas con IA llevan metadatos que indican que fueron creadas o editadas por inteligencia artificial. Sin embargo, la compañía no ha adoptado aún la tecnología C2PA, que traza el origen completo de una imagen, incluyendo los equipos y programas utilizados para crearla. Es decir, aunque están dando un paso adelante en la transparencia, todavía queda mucho por hacer en cuanto a la trazabilidad completa de las imágenes generadas por IA.

¿Riesgos? Claro que los hay

A pesar de las emocionantes posibilidades que ofrece esta nueva herramienta, hay ciertos riesgos que no podemos ignorar. Uno de los más grandes es que, sin las protecciones adecuadas, esta tecnología podría facilitar la infracción de derechos de autor a gran escala o, peor aún, podría ser utilizada para crear deepfakes altamente convincentes que se propaguen rápidamente por las redes sociales.

Los deepfakes ya son un problema creciente, y están en todas partes, desde redes sociales hasta campañas de desinformación. Por ejemplo, después del paso del huracán Helene, la web se inundó de imágenes generadas por IA que mostraban devastación y sufrimiento humano, cuando en realidad eran completamente falsas. Según datos de la firma de detección de deepfakes Clarity, la creación de deepfakes ha aumentado un 900% este año en comparación con el anterior. Esto no es solo un problema técnico, sino algo que afecta profundamente la confianza en lo que vemos y creemos en línea.

De hecho, en una reciente encuesta realizada por YouGov, el 85% de los estadounidenses expresaron su preocupación por la propagación de deepfakes engañosos en línea. Y la realidad es que, aunque algunas leyes estatales en EE. UU. han intentado poner freno a esta situación, no existe aún una ley federal que criminalice el uso de deepfakes de manera generalizada.

El rol de MidJourney en todo esto

Si bien MidJourney ha tenido su parte de controversias, como las demandas que enfrenta por supuestamente haber utilizado contenido protegido por derechos de autor para entrenar sus modelos de IA, la plataforma ha intentado tomar algunas medidas para limitar la propagación de deepfakes. Por ejemplo, en los últimos meses han implementado filtros para evitar la creación de imágenes falsas de figuras políticas, especialmente de cara a las elecciones presidenciales de EE. UU.

Sin embargo, la pregunta sigue siendo: ¿es suficiente? ¿Realmente estamos listos para un mundo donde cualquiera pueda editar imágenes de manera tan sofisticada con solo un par de clics? En mi opinión, esta tecnología es impresionante, pero también necesitamos más regulaciones y conciencia sobre los peligros que conlleva su mal uso. No es solo cuestión de editar una foto divertida para Instagram; el impacto puede ser mucho mayor.

En WWWhatsnew.com, siempre nos gusta hablar sobre cómo las nuevas tecnologías cambian la forma en que interactuamos con el mundo digital. Este es uno de esos casos donde la innovación es emocionante, pero viene acompañada de grandes desafíos. ¿Estás preparado para este futuro donde las imágenes que vemos en línea podrían ser casi imposibles de verificar como reales?

El futuro de la edición de imágenes con IA

A pesar de los riesgos, no hay duda de que herramientas como la que está desarrollando MidJourney abrirán nuevas puertas para la creatividad digital. Piensa en los artistas, diseñadores y creadores de contenido que podrán experimentar con colores, texturas y estilos de una manera que antes solo era posible con horas de edición manual. Ahora, con la ayuda de la IA, esos procesos se simplificarán enormemente.

Sin embargo, como todo en tecnología, debemos usar estas herramientas con responsabilidad. El futuro está llegando rápidamente, y es emocionante ver cómo la inteligencia artificial sigue transformando nuestra realidad, pero siempre debemos tener en mente las consecuencias éticas y sociales que acompañan este progreso.