La difusión de información engañosa en internet puede ser extremadamente rápida. Aunque existen herramientas para detectar deepfakes —falsificaciones creadas por inteligencia artificial (IA) en fotos, videos o audios—, estas suelen estar reservadas a investigadores y expertos. Sin embargo, esto está cambiando gracias a DeepFake-o-Meter, una plataforma de código abierto desarrollada por el equipo de la Universidad de Buffalo, liderado por el experto en deepfakes Siwei Lyu.
¿Cómo funciona el DeepFake-o-Meter?
La herramienta es muy fácil de usar. Los usuarios simplemente deben registrarse gratuitamente, subir un archivo multimedia (imagen, video o audio), y elegir entre varios algoritmos de detección disponibles. Estos algoritmos se basan en métricas como precisión, tiempo de ejecución y el año de desarrollo, y ofrecen un porcentaje de probabilidad de que el contenido haya sido generado por IA. Según Lyu, «no hacemos afirmaciones categóricas sobre el contenido; proporcionamos un análisis integral para que los usuarios tomen sus propias decisiones».
Desde su lanzamiento en noviembre, la plataforma ha recibido más de 6,300 envíos de contenido, algunos de ellos utilizados por medios para analizar mensajes generados por IA, como un robocall falso de Joe Biden o un video del presidente ucraniano Volodymyr Zelenskiy «rindiéndose» a Rusia. DeepFake-o-Meter ha demostrado ser una herramienta eficaz, proporcionando un nivel de precisión superior al de otras herramientas gratuitas de detección de deepfakes.
Transparencia y diversidad
Una de las características distintivas de DeepFake-o-Meter es su transparencia. Al ser de código abierto, cualquiera puede acceder a los códigos fuente de los algoritmos utilizados, desarrollados tanto por el equipo de Lyu como por otros grupos de investigación en todo el mundo. «Mientras que otras herramientas pueden ser precisas, no siempre revelan qué algoritmos usan para llegar a sus conclusiones, lo que puede introducir sesgos», señala Lyu. Con DeepFake-o-Meter, el objetivo es ofrecer la máxima transparencia y diversidad posible.
Beneficios para investigadores y el futuro de la plataforma
La plataforma también ofrece beneficios para los investigadores. Antes de cargar un archivo, los usuarios pueden optar por compartirlo con investigadores. Esta función es crucial porque permite a los algoritmos entrenarse con datos reales que están circulando en línea, lo que mejora continuamente su precisión. «Nuevos y más sofisticados deepfakes emergen todo el tiempo. Los algoritmos deben refinarse continuamente para estar actualizados», comenta Lyu.
En el futuro, Lyu y su equipo esperan que la plataforma no solo detecte contenido generado por IA, sino que también identifique las herramientas de IA más probables utilizadas para crearlo. Esto proporcionaría pistas sobre quién está detrás de la manipulación y con qué intención. Lyu enfatiza que, aunque los algoritmos son importantes, los humanos también juegan un papel crucial al detectar manipulaciones que las máquinas podrían no identificar por sí solas. «No podemos depender solo de algoritmos o de humanos; necesitamos ambos», sostiene Lyu.
¿Por qué es relevante para ti?
Quizás te preguntes: «¿Y esto en qué me afecta a mí?». Pues bien, en un mundo donde las falsificaciones digitales son cada vez más sofisticadas y comunes, herramientas como DeepFake-o-Meter empoderan al usuario común, ya seas periodista, usuario de redes sociales o miembro de las fuerzas del orden. Ahora, cualquier persona puede analizar y cuestionar el contenido multimedia con una precisión que antes solo estaba disponible para expertos. En WWWhat’s New, creemos que este tipo de herramientas son esenciales para combatir la desinformación en la era digital.