Ciberataques autónomos dirigidos por Inteligencia artificial

Publicado el

Representación artística de un gusano informático de IA avanzando a través de sistemas conectados, simbolizando la amenaza cibernética futurista y la importancia de la ciberseguridad.

La inteligencia artificial (IA) se ha convertido en una herramienta omnipresente, impulsando desde asistentes de correo electrónico hasta sistemas complejos de toma de decisiones. Sin embargo, recientes investigaciones han arrojado luz sobre un uso potencialmente peligroso de esta tecnología: el desarrollo de malware capaz de propagarse por sí mismo, utilizando la IA para infiltrarse y explotar sistemas. Este descubrimiento plantea serias preguntas sobre la seguridad cibernética y la preparación de nuestras infraestructuras digitales frente a amenazas autónomas avanzadas.

Un grupo de investigadores ha creado un «gusano» informático que representa un avance significativo en la capacidad de los ciberataques. Este malware, que aún no se ha observado en el mundo real, utiliza IA generativa para moverse de un ordenador a otro. Lo hace atacando asistentes de correo electrónico impulsados por IA para sustraer datos sensibles y distribuir mensajes de spam que infectan otros sistemas.

El experimento se llevó a cabo en un entorno controlado y se centró en asistentes de correo electrónico basados en modelos de IA como GPT-4 de OpenAI, Gemini Pro de Google y LLaVA, un modelo de lenguaje de código abierto. Los investigadores, tal y como informan en Wired, emplearon lo que denominaron un «prompt auto-replicante adversario«, diseñado para engañar al modelo de IA y generar una cadena de respuestas que terminan infectando estos asistentes, facilitando así el robo de información confidencial.

Este método demostró ser alarmantemente efectivo, capaz de extraer desde nombres y números de teléfono hasta detalles de tarjetas de crédito y números de seguridad social. Lo que hace especialmente preocupante a este malware es su capacidad para «envenenar» la base de datos de un sistema de correo electrónico de tal manera que propague el robo de información sensible a nuevos sistemas automáticamente.

Además de la manipulación textual, los investigadores lograron incrustar prompts maliciosos en imágenes, ampliando aún más el potencial de ataques para incluir spam basado en imágenes, material abusivo o incluso propaganda. Este enfoque demuestra cómo los atacantes podrían utilizar contenido visual para propagar el malware a nuevos clientes después de que se envíe el correo electrónico inicial.

Ante este escenario, es esencial que los desarrolladores de IA y los profesionales de la ciberseguridad trabajen juntos para fortalecer las defensas de los sistemas contra estas amenazas emergentes. La respuesta de OpenAI a los hallazgos, enfocada en hacer sus sistemas más resistentes, es un paso en la dirección correcta, pero la carrera contra el tiempo es crítica. Los investigadores advierten que los gusanos impulsados por IA podrían empezar a propagarse «en estado salvaje» en los próximos años, lo que podría desencadenar consecuencias significativas y no deseadas.

Comparte en: