Este es el plan de Facebook, Microsoft y otros para detectar los deepfakes

Publicado el

La creación de Deepfakes (término que hace referencia a una técnica en la cual se replica el rostro y voz de una persona en base a una serie de material compuesto por imágenes, audio y video recopilados de la misma) ha ido en aumento en estos últimos meses, de acuerdo con resultados revelados por Deeptrace, una empresa de ciberseguridad con sede en Ámsterdam.

Según un proceso de seguimiento efectuado por la empresa, entre junio y julio de este año, un total de 14.968 deepfakes han sido detectados, representando esto, un incremento del 84% respecto a diciembre de 2018, mes en el cual fueron contabilizados un total de 7.964 deepfakes.

Esta cifra resulta alarmante, tomando en cuenta que los deepfakes pueden ser usados para condicionar la opinión publica en situaciones de carácter critico como una elección o para vincular a alguien con algún delito que no cometió.

Es así como en un intento por impedir la propagación de este tipo de contenido, ha surgido en septiembre Deepfake Detection Challenge, una iniciativa llevada a cabo por un conjunto de empresas como Facebook, Microsoft y Amazon Web Services (AWS), en conjunto con académicos provenientes de Cornell Tech, la Universidad de Oxford, MIT, UC Berkeley, la Universidad de Maryland, la Universidad del Estado de New York en Albany y College Park.

Deepfake Detection Challenge ha sido lanzada de forma global en Vancouver durante esta semana en la realización de la conferencia NeurIPS 2019, con el fin de fomentar la investigación e impulsar el desarrollo de métodos de detección de código abierto.

Con el propósito de generar interés en el concurso, Facebook ha invertido mas de 10 millones de dólares, mientras que AWS está ofreciendo hasta un millón de dólares en créditos de servicio y dotando a los participantes de modelos de alojamiento en caso de que ellos lo requieran.

deepfake

Junto a ellos, el gigante de las búsquedas Google ha puesto a disposición su plataforma de aprendizaje de datos y maquinas Kaggle para el alojar el reto, así como la clasificación.

Una de las bases del proyecto es enseñar a los ordenadores a crear Deepfakes, para que después sepan reconocerlos de forma mucho más sencilla.

El Deepfake Detection Challenge incluye un conjunto de datos, así como subvenciones y premios, para estimular la creación de nuevas formas de detectar y prevenir los medios manipulados por la IA. Si bien hasta la fecha se han lanzado varias herramientas, incluida una desarrollada por investigadores de la Universidad de California, Berkeley y la Universidad del Sur de California que identifica videos manipulados con una precisión superior al 90%, las falsificaciones profundas son un objetivo en movimiento.

Los organizadores del Deepfake Detection Challenge retuvieron los servicios de un proveedor que contrató a un grupo «diverso» de actores (aproximadamente 54% mujeres y 46% hombres) para crear videos que representan escenarios realistas en una variedad de escenarios, poses y fondos, con etiquetas adjuntas que describen si fueron manipulados con IA. Posteriormente, se crearon videos manipulados en base a un subconjunto del metraje original utilizando una variedad de técnicas de aprendizaje automático. Se intercambiaron caras y se hicieron alteraciones de voz a partir de los videos, y algunas muestras tuvieron aumentos aplicados a ellos con la intención de aproximar las degradaciones encontradas en videos compartidos en línea.

El conjunto de datos, que contiene más de 100.000 videos en total, se probó a través de una sesión de trabajo técnico específica en octubre en la Conferencia Internacional sobre Visión por Computadora. No incluye ningún dato de usuario y presenta solo a los participantes que han firmado acuerdos de uso para evitar restricciones que podrían obstaculizar la investigación.

El Deepfake Detection Challenge es facilitado y supervisado por el Comité Directivo de la Asociación para la Inteligencia Artificial y la Integridad de los Medios de AI, que está formado por una coalición de organizaciones que incluyen Facebook, organizacines sin fines de lucro de derechos humanos, Microsoft y otros en la sociedad civil y la tecnología, los medios y comunidades académicas. Actualmente está programado para fines de marzo de 2020.