El poder de la inteligencia artificial (IA) se está haciendo cada vez más evidente en todos los ámbitos de la vida, y el mundo del arte y la creatividad no es una excepción.
Un ejemplo reciente de cómo la IA puede ser utilizada para crear eventos históricos falsos ha sido revelado en el subreddit Midjourney. Los usuarios de esta comunidad están publicando imágenes hiperrealistas de acontecimientos como el «infame Incidente de la Plaga Azul» que supuestamente ocurrió en la Unión Soviética en los años setenta, o el «terremoto y tsunami de la Gran Cascadia de 9.1» que supuestamente devastó la costa oeste de Norteamérica en 2001. Sin embargo, ninguno de estos eventos realmente ocurrió.
Plaga Azul falsa
En la imagen de arriba tenéis a un supuesto Einstein con un supuesto hermano suyo, todo ello mentira.
La IA detrás de Midjourney
Midjourney es un generador de imágenes basado en texto similar a DALL-E de OpenAI o Stable Diffusion de Stability.AI. El proyecto ha mejorado significativamente en su quinta versión, produciendo imágenes casi perfectas con una alta calidad de resolución, incluso mejorando la calidad de la mano humana, que antes era un desafío para la IA. Midjourney permite a los usuarios crear imágenes que parecen reales en muchos aspectos, imitando la calidad de una fotografía de cierta época y colocando a celebridades y políticos en diferentes situaciones.
El peligro de la desinformación
Aunque algunos usuarios están usando la IA para burlarse de las teorías conspirativas, existe un riesgo de que otros utilicen esta tecnología para propagar información falsa. Los expertos en IA y las empresas de redes sociales están trabajando para encontrar formas de limitar la propagación de la información errónea mientras continúan apoyando el uso de nuevas tecnologías. TikTok, por ejemplo, ha anunciado que todo contenido manipulado o deepfake que muestre escenas realistas debe ser etiquetado como falso o alterado. Los deepfakes de figuras públicas no están permitidos para fines políticos o comerciales. La política de Twitter establece que no se pueden compartir medios sintéticos, manipulados o fuera de contexto que puedan engañar o confundir a las personas y llevar a daños.
La propagación de información falsa puede ser dañina y peligrosa, especialmente en un mundo donde los medios de comunicación y las redes sociales juegan un papel crucial en la toma de decisiones. A medida que la IA sigue avanzando y las tecnologías de generación de imágenes mejoran, puede ser difícil distinguir entre lo que es real y lo que es falso, es un hecho.