WWWhat's new

Es posible detectar DeepFakes si los humanos colaboran con las máquinas

deepfake

La veracidad del contenido que consumimos es fundamental para la toma de decisiones informadas, de eso no hay duda (creo que estamos todos de acuerdo). El caso es que con la llegada de los deepfakes, esta veracidad se ha visto comprometida, desdibujando la línea entre la realidad y la ficción.

Voy a hablar ahora sobre la naturaleza de los deepfakes y su impacto en la sociedad, así como la batalla en curso entre la detección humana y la automatizada de estos contenidos falsificados.

El término «deepfake» es una combinación de «deep learning» (aprendizaje profundo) y «fake» (falso), y se refiere a videos, imágenes o audios sintéticos generados por inteligencia artificial que presentan a personas diciendo o haciendo cosas que nunca dijeron o hicieron. Esta tecnología utiliza técnicas de aprendizaje automático y redes neuronales para superponer rostros, modificar expresiones faciales y manipular voces. Los deepfakes son el resultado de algoritmos que han aprendido a replicar patrones humanos hasta el punto de engañar a nuestros sentidos, creando ilusiones convincentes que pueden ser difíciles de distinguir de la realidad.

Cómo nos afectan los deepfakes

El impacto de los deepfakes en la sociedad es profundo y multifacético. A nivel personal, pueden dañar reputaciones mediante la creación de contenido falso que muestra a individuos en situaciones comprometedoras o realizando actos que son contrarios a su carácter o creencias. En el ámbito político, los deepfakes tienen el potencial de alterar elecciones y fomentar la desconfianza en los líderes y las instituciones, al difundir desinformación y noticias falsas con una eficacia sin precedentes. En el contexto de la seguridad nacional, los deepfakes pueden ser utilizados para simular declaraciones de figuras de autoridad, provocando tensiones diplomáticas o incluso conflictos. Por otro lado, en la esfera social, los deepfakes pueden exacerbar las divisiones, alimentando la polarización y el desorden civil al manipular la percepción pública.

La proliferación de los deepfakes también plantea desafíos legales y éticos, especialmente en lo que respecta a la privacidad y el consentimiento. La capacidad de crear contenido falso sin el permiso de las personas involucradas socava los derechos individuales y plantea preguntas sobre la propiedad de la imagen y la identidad personal.

Finalmente, la presencia de deepfakes amenaza con erosionar la confianza general en los medios de comunicación. A medida que la capacidad de discernir entre contenido real y falso se vuelve más desafiante, la confianza del público en la información disponible se debilita, lo que puede llevar a un escepticismo generalizado y a la desvalorización de la verdad objetiva.

De esta forma podemos resumir las amenazas en:

Detección de Deepfakes

La detección de deepfakes es una tarea compleja que implica discernir entre contenido genuino y manipulado. Tanto los seres humanos como las máquinas tienen capacidades únicas en esta lucha, y entender sus fortalezas y debilidades es clave para desarrollar estrategias efectivas de detección.

Herramientas de detección basadas en IA

Por un lado tenemos las herramientas de detección basadas en inteligencia artificial (IA), que utilizan algoritmos de aprendizaje profundo para analizar videos y audios en busca de señales de manipulación. Estos sistemas son entrenados con grandes conjuntos de datos que contienen ejemplos de contenido real y sintético, aprendiendo a identificar patrones y discrepancias que son indicativos de falsificaciones. Algunas de las técnicas empleadas incluyen:

A pesar de su eficacia, estas herramientas tienen limitaciones. Los deepfakes de alta calidad pueden eludir la detección, y los algoritmos pueden generar falsos positivos, identificando erróneamente contenido auténtico como falso.

Ya hay propuestas interesantes, como la de DepthFake o la que analiza los ojos. Otras pueden detectarlo con una videollamada.

La detección de deepfakes mediante máquinas es un campo de investigación en rápida evolución, con avances significativos que mejoran continuamente la precisión y la eficiencia de las herramientas de detección. Sin embargo, estos avances vienen acompañados de desafíos inherentes a la naturaleza cambiante de la tecnología de deepfakes (uno de los principales desafíos en la detección de deepfakes es la continua mejora en la calidad de las falsificaciones). A medida que los generadores de deepfakes se vuelven más sofisticados, los modelos de detección deben evolucionar para reconocer las técnicas más recientes de manipulación.

La intervención humana en la detección de Deepfakes

Por otro lado tenemos el hecho de que la intervención humana en la detección de deepfakes es invaluable, especialmente cuando se trata de interpretar el contexto y las sutilezas del comportamiento humano que los algoritmos pueden pasar por alto. Los humanos son buenos en:

Sin embargo, la detección humana no es escalable y está sujeta a sesgos y fatiga, lo que puede afectar la precisión.

Lo que sí está claro es que la habilidad humana para detectar deepfakes juega un papel crucial en la lucha contra la desinformación. A pesar de los avances tecnológicos, la perspicacia humana sigue siendo una herramienta poderosa y a menudo necesaria para identificar contenido manipulado. Esta habilidad se extiende al lenguaje corporal y a las expresiones faciales, donde los humanos pueden percibir cuando algo no coincide con las emociones o reacciones esperadas. Por ejemplo, una sonrisa que no llega a los ojos o una sincronización ligeramente incorrecta en el habla puede hacer saltar nuestras alarmas internas, incluso si no podemos articular exactamente por qué algo nos parece sospechoso.

Otra cosa que los humanos consiguen hacer y las máquinas no es usar el conocimiento sobre el comportamiento habitual de una persona, su forma de hablar y sus gestos típicos. También podemos considerar el contexto en el que se presenta el contenido: ¿Es probable que la persona involucrada hiciera o dijera lo que se muestra en el video? ¿Hay alguna inconsistencia en la historia o el escenario presentado? Este análisis contextual puede ser crucial para identificar deepfakes, especialmente en casos donde la manipulación es sutil.

Un estudio de la Universidad de Texas en 2020 encontró que los participantes podían identificar deepfakes con una precisión de aproximadamente el 70% cuando se les proporcionaban pistas sobre qué buscar. Sin embargo, sin pistas, su rendimiento caía al azar. Esto sugiere que la educación y la formación pueden mejorar significativamente la capacidad humana para detectar deepfakes.

Conclusión

Todo parece indicar que la lucha contra los deepfakes no es exclusiva de máquinas o humanos; más bien, es en la intersección de ambos donde se encuentra el potencial más significativo para una detección efectiva. La sinergia entre la intuición humana y la eficiencia de los algoritmos puede crear un sistema robusto para identificar y mitigar el impacto de los deepfakes.

Los casos de estudio en la detección de deepfakes han demostrado la efectividad de la colaboración humano-máquina. Por ejemplo, durante el Deepfake Detection Challenge de Facebook en 2020, se observó que las soluciones más efectivas combinaban técnicas de aprendizaje automático con revisiones humanas. Los equipos que emplearon esta estrategia mixta lograron una mayor precisión en la identificación de videos manipulados.

La evidencia empírica también sugiere que los sistemas híbridos pueden adaptarse más rápidamente a las nuevas técnicas de deepfake. A medida que los humanos identifican nuevos tipos de manipulaciones, pueden informar a los desarrolladores de algoritmos, quienes a su vez pueden ajustar y mejorar los modelos de detección.

 

 

Salir de la versión móvil