La amenaza silenciosa: así están usando la inteligencia artificial los grupos extremistas

Publicado el

ai_conflict_image

Mientras las aplicaciones de inteligencia artificial transforman la educación, la medicina o la productividad laboral, también están siendo exploradas por actores mucho más oscuros. Grupos como el Estado Islámico (IS) y otras organizaciones extremistas están experimentando con estas tecnologías, no solo por curiosidad, sino como una posible evolución de su maquinaria propagandística y operativa.

Aunque carecen de los recursos tecnológicos y humanos de potencias como China, Irán o Rusia, el acceso abierto a herramientas de IA generativa ha democratizado capacidades que antes eran impensables para grupos pequeños o con infraestructura limitada. Hoy, basta con una conexión a internet para producir contenido manipulado con apariencia profesional, lanzar ciberataques o comunicarse en múltiples idiomas

Propaganda a escala industrial con IA generativa

Desde la aparición de herramientas como ChatGPT, los extremistas han identificado el potencial de la IA para amplificar sus mensajes. Un ejemplo claro es la generación de imágenes falsas y videos manipulados que apelan a las emociones más primarias: miedo, rabia, indignación. En 2023, tras un ataque en Rusia atribuido a una filial del IS, comenzaron a circular clips y materiales audiovisuales generados por IA que glorificaban la acción y buscaban captar nuevos adeptos.

La técnica también se ha usado para distorsionar conflictos reales. Durante la guerra entre Israel y Hamas, se difundieron fotos falsas de bebés ensangrentados y edificios devastados, manipuladas para provocar reacciones extremas. Detrás de estas imágenes había no solo militantes islamistas, sino también grupos antisemitas de otras regiones, incluyendo Estados Unidos. El objetivo: sembrar desinformación y polarizar a la opinión pública.

Traducciones automáticas y discursos falsificados

Otra aplicación clave está en la traducción automática de contenido radical. Con modelos de lenguaje, los mensajes pueden difundirse rápidamente en decenas de idiomas sin necesidad de expertos humanos. Esto ha permitido a grupos como el IS llegar a nuevos territorios y culturas con un discurso adaptado y más efectivo.

Incluso se han creado audios falsos de líderes yihadistas recitando versículos religiosos, algo que, en contextos de radicalización, tiene un gran peso simbólico. La voz, al ser generada por IA, simula el tono y acento de figuras reales ya fallecidas, dando la ilusión de una guía espiritual presente y activa.

La ciberseguridad como campo vulnerable

Expertos en seguridad, como John Laliberte de ClearVector o Marcus Fowler de Darktrace Federal, coinciden en que la IA no solo se usa para propaganda. Hay una preocupación creciente por su uso en ataques cibernéticos, especialmente a través de phishing avanzado. Videos y audios sintéticos se utilizan para suplantar identidades de funcionarios o empresarios, lo que permite acceder a redes privadas con mayor facilidad.

Esto pone en jaque los mecanismos de seguridad tradicionales, ya que la autenticación por voz o imagen ya no garantiza que quien aparece en pantalla sea real. La IA puede automatizar parte del código malicioso, reducir el tiempo de preparación de un ataque y aumentar su sofisticación.

El sueño de armas biológicas asistidas por IA

Aunque por ahora se considera un escenario aspiracional, algunos informes, como el del Departamento de Seguridad Nacional de EE.UU., alertan sobre la posibilidad de que estos grupos intenten usar la IA para desarrollar armas químicas o biológicas. La tecnología no sustituye el conocimiento técnico, pero podría acelerar procesos de investigación o proporcionar instrucciones más comprensibles.

La idea de que una organización extremista, sin experiencia científica, pueda acceder a planos de fabricación de toxinas o patógenos mediante prompts en un sistema de IA, preocupa a los legisladores y agencias de seguridad.

El debate político sobre la regulación

La política estadounidense ya ha comenzado a mover ficha. El Congreso ha impulsado legislaciones que obligan a las agencias a monitorear el uso malicioso de IA y a presentar informes anuales. Algunos senadores, como Mark Warner, insisten en facilitar que los desarrolladores compartan información sobre usos abusivos de sus modelos.

Esta colaboración entre sector privado y público es esencial, ya que los desarrolladores de IA tienen visibilidad sobre cómo se usan sus plataformas, pero carecen del marco legal o la autoridad para frenar actividades extremistas por sí solos.

Un problema que no distingue escala

A diferencia de otras amenazas que requieren logística compleja, la IA permite a actores individuales o pequeños grupos causar daños significativos. Es como si una sola persona pudiera imprimir miles de panfletos de propaganda en segundos, crear una red falsa de identidades digitales o lanzar mensajes coordinados en varios idiomas simultáneamente.

El atractivo está en la facilidad de uso. Como comentaba un usuario en un foro próximo al IS: «Lo mejor de la IA es lo fácil que es de usar». Y ese mismo comentario refleja una de las principales amenazas: no hace falta ser un experto para emplearla con fines peligrosos.

Prevención y conciencia ciudadana

Frente a este panorama, la respuesta no puede recaer solo en las autoridades. Es crucial promover una alfabetización digital crítica, que permita a los ciudadanos identificar imágenes o audios falsos, dudar de mensajes que provocan reacciones viscerales y entender cómo se manipula la información.

También es fundamental que los desarrolladores integren barreras éticas y técnicas que limiten usos maliciosos. Desde restricciones en la generación de contenido sensible hasta sistemas de rastreo que permitan identificar patrones de abuso.

El escenario actual exige una vigilancia constante, pero también una reflexión profunda sobre cómo equilibrar el acceso abierto a la tecnología con la necesidad de proteger a la sociedad.