Es posible detectar DeepFakes si los humanos colaboran con las máquinas

Publicado el

deepfake

La veracidad del contenido que consumimos es fundamental para la toma de decisiones informadas, de eso no hay duda (creo que estamos todos de acuerdo). El caso es que con la llegada de los deepfakes, esta veracidad se ha visto comprometida, desdibujando la línea entre la realidad y la ficción.

Voy a hablar ahora sobre la naturaleza de los deepfakes y su impacto en la sociedad, así como la batalla en curso entre la detección humana y la automatizada de estos contenidos falsificados.

El término «deepfake» es una combinación de «deep learning» (aprendizaje profundo) y «fake» (falso), y se refiere a videos, imágenes o audios sintéticos generados por inteligencia artificial que presentan a personas diciendo o haciendo cosas que nunca dijeron o hicieron. Esta tecnología utiliza técnicas de aprendizaje automático y redes neuronales para superponer rostros, modificar expresiones faciales y manipular voces. Los deepfakes son el resultado de algoritmos que han aprendido a replicar patrones humanos hasta el punto de engañar a nuestros sentidos, creando ilusiones convincentes que pueden ser difíciles de distinguir de la realidad.

Cómo nos afectan los deepfakes

El impacto de los deepfakes en la sociedad es profundo y multifacético. A nivel personal, pueden dañar reputaciones mediante la creación de contenido falso que muestra a individuos en situaciones comprometedoras o realizando actos que son contrarios a su carácter o creencias. En el ámbito político, los deepfakes tienen el potencial de alterar elecciones y fomentar la desconfianza en los líderes y las instituciones, al difundir desinformación y noticias falsas con una eficacia sin precedentes. En el contexto de la seguridad nacional, los deepfakes pueden ser utilizados para simular declaraciones de figuras de autoridad, provocando tensiones diplomáticas o incluso conflictos. Por otro lado, en la esfera social, los deepfakes pueden exacerbar las divisiones, alimentando la polarización y el desorden civil al manipular la percepción pública.

La proliferación de los deepfakes también plantea desafíos legales y éticos, especialmente en lo que respecta a la privacidad y el consentimiento. La capacidad de crear contenido falso sin el permiso de las personas involucradas socava los derechos individuales y plantea preguntas sobre la propiedad de la imagen y la identidad personal.

Finalmente, la presencia de deepfakes amenaza con erosionar la confianza general en los medios de comunicación. A medida que la capacidad de discernir entre contenido real y falso se vuelve más desafiante, la confianza del público en la información disponible se debilita, lo que puede llevar a un escepticismo generalizado y a la desvalorización de la verdad objetiva.

De esta forma podemos resumir las amenazas en:

  • Diseminación de Desinformación: La capacidad de los deepfakes para imitar la realidad ha abierto una nueva avenida para la diseminación de desinformación. Los videos falsificados pueden difundirse rápidamente a través de las redes sociales, alcanzando a audiencias masivas antes de que su autenticidad pueda ser verificada. Esto es particularmente peligroso durante eventos críticos como elecciones o crisis, donde la información precisa es crucial. Por ejemplo, un deepfake podría mostrar a un político haciendo declaraciones incendiarias que nunca ocurrieron, potencialmente inclinando la opinión pública o alterando el curso de una elección.
  • Daño a la Reputación por Suplantación: Los individuos, especialmente figuras públicas, son vulnerables al daño reputacional causado por deepfakes. Un video falso puede mostrar a una persona participando en actividades ilegales o moralmente cuestionables, causando un daño irreparable a su imagen pública. Este tipo de ataque puede tener consecuencias duraderas, incluso si el contenido es eventualmente desacreditado, debido al fenómeno de «primera impresión», donde las primeras informaciones que recibimos sobre un tema tienen un impacto desproporcionado en nuestra percepción.
  • Implicaciones para la Seguridad Nacional: Los deepfakes también representan un riesgo para la seguridad nacional. Un video manipulado de un líder mundial haciendo declaraciones beligerantes podría desencadenar tensiones internacionales o incluso conflictos militares. Además, los deepfakes pueden ser utilizados para crear propaganda falsa que socave la estabilidad de un país, o para desacreditar a funcionarios y agencias gubernamentales, erosionando la confianza en las instituciones estatales.
  • Riesgos de Ciberseguridad: Los deepfakes también plantean riesgos significativos de ciberseguridad. Los ciberdelincuentes pueden utilizar deepfakes para suplantar la identidad de individuos en llamadas de voz o videoconferencias, engañando a las personas para que revelen información confidencial o realicen transferencias de fondos fraudulentas. Este tipo de engaño, conocido como «vishing» (phishing de voz), es una evolución preocupante en el panorama de las amenazas cibernéticas.
  • Problemas de Privacidad y Consentimiento: La creación de deepfakes a menudo se realiza sin el consentimiento de las personas cuyas imágenes o voces son replicadas. Esto plantea serias cuestiones de privacidad, ya que la tecnología puede ser utilizada para poner palabras en la boca de alguien o para colocar a una persona en un contexto comprometedor. La proliferación de deepfakes erosiona la noción de consentimiento en la era digital, ya que las personas pierden el control sobre cómo se utilizan sus propias imágenes y voces.
  • Erosión de la Confianza y la Credibilidad: Quizás uno de los efectos más insidiosos de los deepfakes es la erosión general de la confianza y la credibilidad en los medios de comunicación. A medida que se vuelve más difícil distinguir entre contenido real y falso, el público puede caer en una desconfianza generalizada, lo que lleva a un escepticismo que desacredita tanto a las fuentes legítimas como a las falsas. Este fenómeno, conocido como «infodemia», amenaza con socavar los fundamentos de una sociedad informada, donde la verdad y la objetividad son cada vez más difíciles de discernir.

Detección de Deepfakes

La detección de deepfakes es una tarea compleja que implica discernir entre contenido genuino y manipulado. Tanto los seres humanos como las máquinas tienen capacidades únicas en esta lucha, y entender sus fortalezas y debilidades es clave para desarrollar estrategias efectivas de detección.

Herramientas de detección basadas en IA

Por un lado tenemos las herramientas de detección basadas en inteligencia artificial (IA), que utilizan algoritmos de aprendizaje profundo para analizar videos y audios en busca de señales de manipulación. Estos sistemas son entrenados con grandes conjuntos de datos que contienen ejemplos de contenido real y sintético, aprendiendo a identificar patrones y discrepancias que son indicativos de falsificaciones. Algunas de las técnicas empleadas incluyen:

  • Análisis de consistencia de iluminación: Los algoritmos evalúan si las sombras y los reflejos en el video son coherentes con las fuentes de luz presentes.
  • Detección de anomalías faciales: Se buscan irregularidades en la expresión facial, como parpadeos irregulares o movimientos de labios incoherentes con el habla.
  • Evaluación de la textura de la piel: Los algoritmos pueden detectar diferencias sutiles en la textura de la piel que podrían indicar una manipulación.
  • Revisión de la coherencia del habla: Se analiza si los movimientos de la boca coinciden con los sonidos producidos, buscando desajustes que podrían revelar un deepfake.

A pesar de su eficacia, estas herramientas tienen limitaciones. Los deepfakes de alta calidad pueden eludir la detección, y los algoritmos pueden generar falsos positivos, identificando erróneamente contenido auténtico como falso.

Ya hay propuestas interesantes, como la de DepthFake o la que analiza los ojos. Otras pueden detectarlo con una videollamada.

La detección de deepfakes mediante máquinas es un campo de investigación en rápida evolución, con avances significativos que mejoran continuamente la precisión y la eficiencia de las herramientas de detección. Sin embargo, estos avances vienen acompañados de desafíos inherentes a la naturaleza cambiante de la tecnología de deepfakes (uno de los principales desafíos en la detección de deepfakes es la continua mejora en la calidad de las falsificaciones). A medida que los generadores de deepfakes se vuelven más sofisticados, los modelos de detección deben evolucionar para reconocer las técnicas más recientes de manipulación.

La intervención humana en la detección de Deepfakes

Por otro lado tenemos el hecho de que la intervención humana en la detección de deepfakes es invaluable, especialmente cuando se trata de interpretar el contexto y las sutilezas del comportamiento humano que los algoritmos pueden pasar por alto. Los humanos son buenos en:

  • Reconocimiento de incongruencias: Los humanos pueden notar cuando algo simplemente «no se siente bien», como una expresión facial que no coincide con la emoción esperada.
  • Evaluación contextual: Los humanos pueden considerar el contexto más amplio de un video o audio, incluyendo el conocimiento previo sobre la persona involucrada y la situación.
  • Detección de errores sutiles: Aunque los algoritmos son buenos detectando anomalías técnicas, los humanos pueden captar errores más sutiles en la narrativa o en el comportamiento que podrían indicar una falsificación.

Sin embargo, la detección humana no es escalable y está sujeta a sesgos y fatiga, lo que puede afectar la precisión.

Lo que sí está claro es que la habilidad humana para detectar deepfakes juega un papel crucial en la lucha contra la desinformación. A pesar de los avances tecnológicos, la perspicacia humana sigue siendo una herramienta poderosa y a menudo necesaria para identificar contenido manipulado. Esta habilidad se extiende al lenguaje corporal y a las expresiones faciales, donde los humanos pueden percibir cuando algo no coincide con las emociones o reacciones esperadas. Por ejemplo, una sonrisa que no llega a los ojos o una sincronización ligeramente incorrecta en el habla puede hacer saltar nuestras alarmas internas, incluso si no podemos articular exactamente por qué algo nos parece sospechoso.

Otra cosa que los humanos consiguen hacer y las máquinas no es usar el conocimiento sobre el comportamiento habitual de una persona, su forma de hablar y sus gestos típicos. También podemos considerar el contexto en el que se presenta el contenido: ¿Es probable que la persona involucrada hiciera o dijera lo que se muestra en el video? ¿Hay alguna inconsistencia en la historia o el escenario presentado? Este análisis contextual puede ser crucial para identificar deepfakes, especialmente en casos donde la manipulación es sutil.

Un estudio de la Universidad de Texas en 2020 encontró que los participantes podían identificar deepfakes con una precisión de aproximadamente el 70% cuando se les proporcionaban pistas sobre qué buscar. Sin embargo, sin pistas, su rendimiento caía al azar. Esto sugiere que la educación y la formación pueden mejorar significativamente la capacidad humana para detectar deepfakes.

Conclusión

Todo parece indicar que la lucha contra los deepfakes no es exclusiva de máquinas o humanos; más bien, es en la intersección de ambos donde se encuentra el potencial más significativo para una detección efectiva. La sinergia entre la intuición humana y la eficiencia de los algoritmos puede crear un sistema robusto para identificar y mitigar el impacto de los deepfakes.

Los casos de estudio en la detección de deepfakes han demostrado la efectividad de la colaboración humano-máquina. Por ejemplo, durante el Deepfake Detection Challenge de Facebook en 2020, se observó que las soluciones más efectivas combinaban técnicas de aprendizaje automático con revisiones humanas. Los equipos que emplearon esta estrategia mixta lograron una mayor precisión en la identificación de videos manipulados.

La evidencia empírica también sugiere que los sistemas híbridos pueden adaptarse más rápidamente a las nuevas técnicas de deepfake. A medida que los humanos identifican nuevos tipos de manipulaciones, pueden informar a los desarrolladores de algoritmos, quienes a su vez pueden ajustar y mejorar los modelos de detección.

 

 

Comparte en: