DepthFake, un nuevo método para detectar deepfakes mediante inteligencia artificial

Publicado el

DepthFake

La llegada de los deepfakes generó reacciones divididas: por un lado, se manifestó un positivo asombro por la notable calidad de vídeos e imágenes falsas que se pueden generar; mientras que por otra parte, despertó también una preocupación por su potencial de uso en fraudes y otras prácticas de cuestionable ética.

Este fenómeno planteó un nuevo desafío para las investigaciones del área, principalmente en aquellas enfocadas en temas de seguridad. Bajo esta línea, un proyecto reciente planteó un método para robustecer los mecanismos de detección basados en IA que se utilizan para identificar imágenes o vídeos falsos.

Un factor adicional para analizar durante la búsqueda de deepfakes

Un equipo de investigación de la Universidad de Roma La Sapienza, Italia, propuso un nuevo método para detectar rostros manipulados digitalmente, a través de la identificación de inconsistencias de profundidad.

Las características RGB y de profundidad, que aparecen ejemplificadas en la imagen que acompaña esta nota, contienen información semántica que es más fácil de interpretar y robusta para operaciones de compresión fuertes.

Este ejercicio se puede realizar manualmente con editores de imágenes que posean herramientas avanzadas, como Photoshop o Gimp. Sin embargo, la detección de estas irregularidades puede recaer en la inteligencia artificial, pues ya han sido desarrollados sistemas de aprendizaje automático para ejecutar esta tarea.

El equipo de La Sapienza presentó DepthFake, un nuevo método propuesto que integra el análisis de profundidad antes mencionado. Lo peculiar de este enfoque es su capacidad extraer la profundidad de un rostro con un método de estimación monocular, que se concatena a la imagen RGB. En palabras sencillas, la descomposición de colores que se muestra como ejemplo para detectar irregularidades, se reduce a escala de grises para agilizar la búsqueda, aprovechando elementos de la imagen que no se pierden con la conversión.

El artículo que expone los principales aspectos técnicos de este método y los buenos resultados obtenidos durante los ensayos de su aplicación, es evidencia positiva del carácter reactivo del desarrollo de las herramientas de seguridad.

Al tener frente a nosotros una herramienta tan poderosa, estos esfuerzos son una aproximación a la garantía de poder acceder más a interesantes experiencias audiovisuales, que a contenido fraudulento y mal intencionado.