¿Por qué dicen que ChatGPT aumenta el riesgo en ciberseguridad?

Publicado el

robot hacker

La revolución de la Inteligencia Artificial (IA) ha irrumpido con fuerza en la escena tecnológica, cambiando radicalmente el panorama de amenazas de seguridad. El rápido crecimiento de plataformas basadas en IA, como ChatGPT de OpenAI, ha ampliado el alcance de esta tecnología, pero también ha abierto la puerta a nuevos y sofisticados riesgos.

Amenazas Emergentes en la IA

Los atacantes han comenzado a utilizar la IA para mejorar sus técnicas de phishing y fraude, aprovechando el poder de los modelos de lenguaje de IA para realizar ataques más convincentes y eficaces. En un caso alarmante, el modelo de lenguaje de Meta, con 65 mil millones de parámetros, fue filtrado, un hecho que sin duda dará lugar a ataques de phishing más sofisticados.

Compromiso de la Información Sensible

Los usuarios, a menudo, introducen datos sensibles en servicios basados en IA/ML, dejando a los equipos de seguridad luchando para controlar el uso de estos servicios. Un ejemplo preocupante es el de los ingenieros de Samsung que introdujeron código propietario en ChatGPT para ayudar a depurarlo, filtrando datos sensibles en el proceso.

El Mal Uso de la IA

El mal uso de la IA está cada vez más en la mente de los consumidores, las empresas e incluso del gobierno. A medida que la revolución de la IA avanza rápidamente, se han identificado cuatro clases principales de problemas que esta trae consigo.

Asimetría en la Dinámica Atacante-Defensor

Es probable que los atacantes adopten y diseñen la IA más rápidamente que los defensores, dándoles una ventaja clara. Con la IA, podrán lanzar ataques sofisticados a gran escala y a bajo coste.

Los ataques de ingeniería social serán los primeros en beneficiarse del texto, la voz y las imágenes sintéticas generadas por IA, permitiendo la automatización de intentos de phishing que requerían un esfuerzo manual considerable.

Pérdida de Confianza Social

La confianza social puede verse gravemente afectada por la rápida propagación de la desinformación gracias a la IA. Los sistemas actuales de IA/ML basados en modelos de lenguaje grande (LLMs) tienen limitaciones inherentes en su conocimiento y cuando no saben cómo responder, inventan respuestas. Este fenómeno, a menudo referido como «alucinación», puede llevar a respuestas inexactas que erosionan la confianza de los usuarios en la IA y dan lugar a errores con consecuencias dramáticas.

Nuevos Ataques a Sistemas AI/ML

Durante la próxima década, veremos una nueva generación de ataques a sistemas AI/ML. Los atacantes influirán en los clasificadores que los sistemas utilizan para sesgar los modelos y controlar las salidas. También crearán modelos maliciosos que serán indistinguibles de los modelos reales, lo que podría causar daños reales dependiendo de cómo se utilicen.

Efectos a Gran Escala

Los costes de construir y operar modelos a gran escala pueden dar lugar a monopolios y barreras de entrada, lo que podría llevar a externalidades impredecibles. Los ciudadanos y los consumidores se verán afectados de manera negativa, y la desinformación se volverá rampante.

El Futuro de la IA y la Seguridad

Necesitamos más innovación y acción para garantizar que la IA se utilice de manera responsable y ética. Esto también crea oportunidades para enfoques innovadores de seguridad que utilicen la IA. Veremos mejoras en la caza de amenazas y en la analítica del comportamiento, pero estas innovaciones necesitarán tiempo e inversión.

Estamos notablemente mal preparados para el futuro de la IA. Sin embargo, es importante no ceder al pánico, sino tomar medidas ahora para que los profesionales de la seguridad puedan desarrollar estrategias y reaccionar ante problemas a gran escala.

Más información en venturebeat.com