Surgidos por primera vez en 2018, los deepfakes se hicieron conocidos por hacer posible el intercambio de los rostros de los actores de un video a otro. La palabra Deep proviene del término deeplearning (aprendizaje profundo) una rama de la IA en la cual intervienen algoritmos que replican de forma precisa las capacidades de aprendizaje de los humanos y animales.
Existe un tipo de red neuronal usado en las falsificaciones llamado autoencoder (autocodificador), el cual se encarga de codificar una imagen de entrada en un pequeño conjunto de valores numéricos con ayuda de capas.
Las capas iniciales con muchas variables se simplifican hasta alcanzar la capa de «cuello de botella», la cual es luego decodificada por la red neuronal para recrear la imagen original.
Una serie de imágenes sirven como fuente de datos para alimentar el autocodificador durante su proceso de entrenamiento a fin de que este pueda encontrar el modo de ajustar los parámetros correspondientes a la capa de codificación y decodificación hasta que la imagen de salida sea lo más exacta posible a la de entrada.
Durante el entrenamiento, el autocodificador se provee de una serie de imágenes. El objetivo de la formación es encontrar una forma de ajustar los parámetros de las capas de codificador y decodificador para que la imagen de salida sea lo más parecida posible a la de entrada.
Y si bien aún esta tecnología no es algo trivial, los deepfakes han hecho de la manipulación de video un recurso al alcance de todos, ocasionando con ello la aparición de falsificaciones enfocadas en la generación de fake news.
Esto ha hecho que los investigadores de IA tomen la iniciativa de desarrollar herramientas que permitan la detección de deepfakes. Una de ellas fue desarrollada con el propósito de marcar aquellos videos donde la persona no parpadeaba o lo hacía en intervalos anormales.
Existe otro método que contempla el uso de algoritmos de deeplearning diseñados para detectar signos de manipulación en los bordes de los objetos de las imágenes.