WormGPT, la nueva herramienta de IA generativa que impulsa ataques cibernéticos sofisticados

Publicado el

seguridad

Ha surgido una nueva herramienta conocida como WormGPT en el ámbito del delito cibernético, que aprovecha la IA generativa para facilitar ataques cibernéticos sofisticados.

Este desarrollo saca a la palestra el uso de la tecnología de inteligencia artificial por parte de personas malintencionadas, brindándoles capacidades mejoradas para participar en actividades delictivas cibernéticas.

WormGPT como herramienta de IA generativa para ataques de phishing y compromiso de correo electrónico empresarial

Investigaciones recientes realizadas por SlashNext revelan que WormGPT se ha promocionado en foros clandestinos como una herramienta de IA generativa diseñada específicamente para lanzar ataques avanzados de phishing y compromiso de correo electrónico empresarial (BEC). Los ciberdelincuentes pueden emplear esta tecnología para automatizar la creación de correos electrónicos fraudulentos altamente convincentes que se personalizan para destinatarios individuales, lo que aumenta significativamente la tasa de éxito de sus ataques.

El creador del software ha descrito a WormGPT como el principal adversario de modelos conocidos como ChatGPT, afirmando que permite la ejecución de diversas actividades ilegales. En las manos equivocadas, herramientas como WormGPT poseen un potencial sustancial como armas formidables, particularmente porque ChatGPT de OpenAI y Bard de Google están tomando medidas activamente para contrarrestar el uso indebido de modelos de lenguaje extenso (LLM) en la fabricación de correos electrónicos de phishing persuasivos y la generación de correos electrónicos maliciosos.

“Los restrictores anti-abuso de Bard en el ámbito de la ciberseguridad son significativamente más bajos en comparación con los de ChatGPT. En consecuencia, es mucho más fácil generar contenido malicioso usando las capacidades de Bard”, escribió Check Point en un informe. En febrero de este año, una empresa de ciberseguridad israelí reveló los métodos empleados por los ciberdelincuentes para eludir las limitaciones de ChatGPT, un modelo de lenguaje de IA. Explotaron la API del modelo y se involucraron en actividades ilícitas, como el comercio de cuentas premium robadas y la venta de software de fuerza bruta utilizado para piratear cuentas de ChatGPT utilizando extensas listas de direcciones de correo electrónico y contraseñas.

La existencia de WormGPT, que aparentemente opera sin límites éticos, destaca la importante amenaza que representa la IA generativa. Permite que incluso los ciberdelincuentes novatos lancen rápidamente ataques a gran escala sin necesidad de contar con amplios conocimientos técnicos. El investigador de seguridad Daniel Kelley explica que la IA generativa puede crear correos electrónicos con una gramática impecable, haciéndolos parecer legítimos y reduciendo la probabilidad de que se marquen como sospechosos. Esta democratización de la tecnología de IA generativa facilita la ejecución de ataques BEC sofisticados, lo que permite que una gama más amplia de ciberdelincuentes utilice dichas herramientas, incluso con habilidades limitadas.

Además, otro desarrollo reciente involucra a investigadores de Mithril Security que modifican un modelo de IA de código abierto existente, GPT-J-6B, para difundir desinformación. Este modelo alterado, conocido como PoisonGPT, se subió a repositorios públicos, lo que permitió su integración en otras aplicaciones. La técnica, conocida como envenenamiento de la cadena de suministro de LLM, consiste en cargar el modelo modificado con un nombre que se hace pasar por una empresa conocida. En este caso, se utilizó una versión con errores tipográficos de EleutherAI, la empresa detrás de GPT-J.

La necesidad de medidas más rigurosas para contrarrestar los ataques cibernéticos basados en IA

El aumento de herramientas como WormGPT y PoisonGPT destaca la necesidad de tomar medidas más rigurosas para contrarrestar los ataques cibernéticos basados en IA. Las empresas y los proveedores de tecnología deben estar al tanto de estas amenazas emergentes y fortalecer sus sistemas de seguridad para protegerse contra ellas.

Estos desarrollos también plantean el desafío de encontrar un equilibrio entre el avance tecnológico y la seguridad. Si bien la IA generativa tiene el potencial de impulsar el progreso en muchos campos, también es crucial garantizar que se utilice de manera ética y responsable.

En este panorama de amenazas cibernéticas en constante evolución, la educación y la concientización en ciberseguridad se vuelven aún más vitales. Los usuarios deben estar informados sobre las últimas técnicas y herramientas utilizadas por los ciberdelincuentes y adoptar prácticas de seguridad sólidas para protegerse contra ataques.

Para abordar eficazmente el problema del delito cibernético impulsado por la IA generativa, se necesita una colaboración estrecha entre la industria, los investigadores y los gobiernos. Trabajando juntos, podemos desarrollar soluciones innovadoras y estrategias de seguridad efectivas para proteger nuestra infraestructura digital y salvaguardar la privacidad y la seguridad de los usuarios.