El Pentágono y su interés en usar IA para crear personas falsas en redes sociales

Publicado el

Una imagen abstracta que representa la amenaza de los deepfakes y la IA adversarial en la ciberseguridad. La imagen muestra caras distorsionadas, fallos digitales y tonos oscuros para simbolizar el engaño y la amenaza tecnológica. Hay un sentido de caos y confusión, con características humanas manipuladas. Ideal para ilustrar artículos sobre fraudes digitales y riesgos en ciberseguridad.

¿Te imaginas estar en un foro en línea o una red social y descubrir que una de las personas con las que has estado interactuando ni siquiera es real? Pues parece que el Pentágono lo está considerando seriamente. En un movimiento que ha levantado cejas y generado debates, el Pentágono está explorando la posibilidad de utilizar inteligencia artificial generativa para crear personas falsas en internet con fines de recopilación de información. Sí, lo has leído bien: el gobierno de Estados Unidos quiere usar IA para generar perfiles falsos en redes sociales. Algo que, para muchos, roza lo distópico.

Un paso más en la guerra de la desinformación

En el documento filtrado por The Intercept, se revelan los planes del Comando de Operaciones Especiales Conjuntas (JSOC), una unidad secreta de contraterrorismo dentro del Departamento de Defensa (DoD) de los Estados Unidos. En su «wishlist» de tecnologías, el JSOC expresa su interés en crear «personas en línea convincentes» utilizando IA generativa. Estos perfiles falsos estarían destinados a usarse en redes sociales, foros y otros espacios en línea para recolectar información y llevar a cabo operaciones de inteligencia.

Aquí es donde se pone interesante (y preocupante). Mientras el gobierno de EE. UU. ha advertido repetidamente sobre los peligros de los deepfakes y cómo estos pueden agravar la crisis de desinformación, están explorando activamente su propio uso para influir en la opinión pública y recopilar datos. En pocas palabras, el Pentágono parece estar adoptando la filosofía de «si no puedes vencerlos, únete a ellos».

¿Qué es lo que buscan crear?

La idea no es simplemente lanzar bots genéricos en redes sociales. Estamos hablando de personas falsas que no solo tengan una imagen convincente, sino también videos, audios y contextos de fondo que los hagan parecer completamente reales. Imagínate interactuar con alguien en línea que tiene una foto de perfil, sube videos y hasta responde por voz a tus mensajes, pero en realidad todo es generado por una IA. Esto va mucho más allá de los bots que te piden seguir cuentas aleatorias en Twitter; aquí el nivel de sofisticación es otro.

El JSOC quiere que los agentes de las fuerzas especiales usen estas herramientas para infiltrarse en foros y redes sociales, recopilando información valiosa sin levantar sospechas. Esto podría permitir que los gobiernos tengan acceso a datos públicos y conversaciones sin que las personas se den cuenta de que están siendo observadas por una entidad artificial.

¿Ya lo hacen en secreto?

Aquí es donde muchos se detienen a pensar: «¿Acaso esto no se ha hecho ya?». Y la verdad es que sí, aunque no a este nivel de sofisticación. Ya sabemos que las operaciones de influencia en línea son comunes, y no es un secreto que las agencias de inteligencia suelen «vigilar» espacios en línea. Pero la idea de introducir IA avanzada para crear deepfakes con la capacidad de engañar a miles de usuarios es un paso más allá. De hecho, esto es solo la continuación de una tendencia que el Departamento de Defensa ya ha explorado en años anteriores.

En 2023, el Pentágono ya había mostrado interés en tecnologías disruptivas para mejorar su capacidad de influencia en el mundo digital. Ahora, con el auge de herramientas como ChatGPT y otros modelos generativos, parece que han visto la oportunidad perfecta para llevar estas ideas al siguiente nivel.

Los riesgos de esta estrategia

En mi opinión, este enfoque podría ser un arma de doble filo. Por un lado, es fácil entender por qué el Pentágono estaría interesado en usar IA para proteger su seguridad nacional. En tiempos de desinformación global y amenazas cibernéticas, tener una herramienta que permita recopilar información sin ser detectado suena estratégico.

Pero, ¿a qué costo? Expertos ya están advirtiendo que el uso de IA por parte del sector defensa para crear perfiles falsos solo animará a otros países a hacer lo mismo. Imagínate un futuro en el que no puedas confiar en nada de lo que ves en línea, porque no sabes si la persona al otro lado de la pantalla es real o una creación de algún gobierno. Como lo señaló Heidy Khlaaf, del AI Now Institute, este tipo de prácticas podrían crear una sociedad donde la verdad y la mentira sean indistinguibles, afectando tanto el panorama geopolítico como nuestra vida diaria.

La caja de Pandora ya está abierta

Lo que más me preocupa es que, una vez que estas tecnologías comiencen a implementarse de manera masiva, será muy difícil poner límites. Si el Pentágono sigue adelante con este plan, otros países, empresas y actores malintencionados seguirán su ejemplo. Y aunque las personas falsas creadas por IA podrían tener beneficios desde un punto de vista de defensa, el riesgo de que esto se use para otros fines es enorme.

En WWWhatsnew.com, hemos discutido en diversas ocasiones los peligros de la IA generativa y la ética detrás de su uso. Crear personas falsas para influir en redes sociales es un claro ejemplo de cómo la tecnología puede ser usada tanto para bien como para mal. Y aunque la tecnología sigue avanzando, debemos ser conscientes de los límites que estamos dispuestos a cruzar.

¿Qué significa esto para el futuro?

Nos dirigimos hacia un futuro en el que las fronteras entre lo real y lo ficticio son cada vez más borrosas. Las personas falsas generadas por IA no solo cambiarán el mundo de la inteligencia militar, sino que también afectarán la forma en que interactuamos en línea. La confianza en los medios digitales está en juego, y lo que hagamos hoy determinará si podremos seguir distinguiendo la verdad de la mentira mañana.