Polémica con la IA en las fotos de los móviles

Publicado el

hombre feliz

Los nuevos modelos de smartphones Google Pixel 8 y Pixel 8 Pro han llegado con una serie de herramientas de edición de fotos que han reavivado el debate sobre la ética en la manipulación de imágenes. ¿Estamos cruzando una línea peligrosa?

Los dispositivos vienen con dos funciones destacadas: Best Take y Magic Editor. Best Take utiliza algoritmos de aprendizaje automático para cambiar expresiones faciales en las fotos, como añadir una sonrisa donde no la había. Magic Editor, por su parte, permite eliminar, mover y redimensionar elementos en una imagen, rellenando el espacio vacío con texturas generadas por inteligencia artificial.

Implicaciones éticas

La introducción de herramientas de edición de fotos impulsadas por inteligencia artificial en los smartphones Google Pixel 8 y Pixel 8 Pro ha abierto una caja de Pandora de dilemas éticos. Estas capacidades, aunque impresionantes desde un punto de vista tecnológico, plantean preguntas serias sobre la integridad del contenido digital y la percepción pública de la «realidad».

Confianza en el contenido digital

Una de las preocupaciones más inmediatas es cómo estas herramientas podrían erosionar la confianza en el contenido digital. En una era donde las noticias falsas y la desinformación ya son problemas prevalentes, la capacidad de alterar fácilmente las expresiones faciales o los elementos en una foto podría exacerbar aún más la situación. Si bien la tecnología en sí misma es neutral, su uso indebido podría tener consecuencias significativas en la forma en que se consume y se confía en la información.

Manipulación ética y periodismo

Para profesionales como fotógrafos y periodistas, las implicaciones son aún más graves. Andrew Pearsall, fotógrafo profesional y docente, advierte que la manipulación de imágenes, incluso por razones estéticas, podría llevarnos por un camino peligroso. En el periodismo, la integridad y la autenticidad de las imágenes son cruciales. La introducción de estas herramientas podría tentar a algunos a cruzar límites éticos, lo que podría socavar la credibilidad de todo un sector.

Consentimiento y privacidad

Otro aspecto ético a considerar es el del consentimiento. ¿Es ético alterar la expresión facial de alguien sin su permiso explícito? Esto plantea preocupaciones sobre la privacidad y la autonomía personal, especialmente cuando las fotos alteradas se comparten en plataformas públicas o redes sociales.

Normalización de la manipulación

A medida que estas herramientas se vuelven más comunes y accesibles, existe el riesgo de que la sociedad se acostumbre a un nivel de manipulación que antes se consideraba inaceptable. Esto podría llevar a una normalización de la «realidad alterada», donde las líneas entre lo auténtico y lo fabricado se vuelven cada vez más borrosas.

Implicaciones legales

Finalmente, la capacidad de alterar imágenes de manera tan convincente podría tener implicaciones legales. Por ejemplo, ¿cómo afectaría esto a la autenticidad de las pruebas fotográficas en un tribunal?

Perspectiva de Google

Isaac Reynolds, líder del equipo de desarrollo de sistemas de cámara de Google, ha defendido estas características. Según él, no se trata de «falsificar» nada, sino de crear una «representación de un momento» a partir de múltiples momentos reales. Google también añade metadatos a las fotos para indicar el uso de IA, en un intento de mantener la transparencia.

En un mercado dominado por gigantes como Samsung y Apple, estas características de IA se presentan como un punto de venta único para Google. A pesar de las preocupaciones éticas, la calidad del sistema de cámara ha sido elogiada, incluso por aquellos críticos que han cuestionado la ética de estas herramientas.

Lo que está claro es que a medida que la tecnología avanza, las líneas entre la realidad y la manipulación se vuelven cada vez más borrosas. No se trata solo de una cuestión de ética, sino también de cómo percibimos y representamos la realidad en un mundo cada vez más digitalizado.

Deepfakes, FakeNews… conceptos que llevan relativamente poco tiempo entre nosotros, y que seguramente en el futuro no existirán, ya que la falsificación de imágenes y vídeos, y la creación de contenido inventado, será tan común que no necesitará ni un nombre específico.

Opinión personal

No será sencillo adaptarnos a una realidad en la que nuestras percepciones visuales y auditivas pueden ser manipuladas de manera constante y sofisticada. En un mundo así, el concepto mismo de «verdad» se encuentra en una situación precaria. La posibilidad de alterar imágenes y sonidos con un alto grado de realismo pone en tela de juicio no solo lo que vemos y oímos, sino también las estructuras fundamentales que sostienen nuestras interacciones sociales y legales.

Creer en algo siempre ha requerido un cierto grado de fe en nuestras percepciones y en las fuentes de información. Sin embargo, la facilidad con la que las imágenes y los audios pueden ser manipulados hoy en día erosiona esa fe. ¿Cómo podemos confiar en una prueba fotográfica o en un clip de audio si las herramientas para alterarlos son tan accesibles? Esto tiene implicaciones profundas en todo, desde el periodismo de investigación hasta los procedimientos judiciales.

Ofrecer pruebas, un pilar del sistema legal y científico, también se complica en este nuevo escenario. Las pruebas fotográficas o de audio, alguna vez consideradas sólidas, ahora podrían requerir autenticación adicional. Esto podría llevar a un aumento en la dependencia de expertos en tecnología forense, lo que añade otra capa de complejidad y potencialmente prolonga los procesos judiciales.

Juzgar acciones, ya sea en un tribunal o en la opinión pública, se vuelve un ejercicio mucho más complejo cuando la autenticidad de las pruebas está en duda. Esto podría llevar a una mayor polarización, donde las personas optan por creer lo que se alinea con sus preconcepciones, en lugar de lo que es objetivamente cierto.

Todo esto representa un cambio de paradigma para el cual la sociedad aún no está preparada. Las instituciones, desde los medios de comunicación hasta los tribunales, tendrán que adaptarse rápidamente para mantener la integridad de sus funciones. Pero más allá de las adaptaciones institucionales, habrá un desafío más grande y más difícil de cuantificar: el impacto psicológico y cultural de vivir en un mundo donde la «verdad» es, en el mejor de los casos, relativa. Este es un territorio inexplorado que plantea preguntas éticas y filosóficas que aún no tenemos las herramientas para responder completamente.