La inteligencia artificial (IA) está creciendo a pasos agigantados y está siendo implementada en productos tecnológicos a gran escala. Sin embargo, a medida que se utilizan más y más, surgen riesgos de seguridad cada vez mayores. En un artículo publicado por Melissa Heikkilä, se habla de cómo los modelos de lenguaje de la IA son extremadamente vulnerables a ser utilizados de forma maliciosa.
Aunque algunos críticos argumentan que preocuparse por los riesgos futuros distrae de los riesgos reales que ya está causando la IA, como sistemas sesgados que toman decisiones que afectan a la vida de las personas, la explotación de trabajadores humanos que se dedican a revisar contenido generado por IA y la contaminación ambiental, no podemos ignorar el hecho de que los sistemas que se están implementando hoy en día pueden causar un gran caos en el futuro cercano.
Heikkilä explica cómo los modelos de lenguaje de la IA pueden ser utilizados de forma malintencionada de una manera que es fácil de lograr y que no requiere habilidades de programación, lo que permite a los atacantes ocultar un comando en un mensaje astutamente redactado en un sitio web o correo electrónico, en texto blanco sobre un fondo blanco que no es visible para el ojo humano. Con esto, se puede ordenar al modelo de IA que haga lo que el atacante quiere.
El hecho de que las empresas tecnológicas estén utilizando estos modelos defectuosos en una variedad de productos, desde programas que generan código hasta asistentes virtuales que examinan nuestros correos electrónicos y calendarios, es alarmante y nos lleva directamente hacia un internet plagado de errores, spam y estafas impulsadas por IA.
Los peligros de permitir que los modelos de lenguaje de la IA recojan datos de internet son significativos, ya que los hackers pueden convertirlos en un motor súper poderoso para el spam y el phishing. Florian Tramèr, profesor asistente de ciencias de la computación en ETH Zürich, quien trabaja en seguridad informática, privacidad y aprendizaje automático, explicó que los atacantes pueden esconder un comando malicioso en un mensaje de correo electrónico que un asistente virtual impulsado por IA abre. Este comando malicioso solicita al asistente virtual que envíe la lista de contactos o correos electrónicos del usuario a un atacante o que propague el ataque a todas las personas en la lista de contactos del destinatario.
Si los asistentes virtuales tienen acceso a información confidencial, como datos bancarios o de salud, los riesgos son aún mayores, ya que es posible engañar a las personas para que aprueben transacciones falsas. Navegar por internet utilizando un navegador con un modelo de lenguaje de IA integrado también puede ser arriesgado. En una prueba, un investigador logró que el chatbot de Bing generara texto que hacía parecer que un empleado de Microsoft estaba vendiendo productos de la empresa con descuento, con el objetivo de intentar obtener los datos de la tarjeta de crédito de las personas.
El caso es que en el artículo se mencionan varios riesgos, que dejaré aquí resumidos:
- Riesgo de sesgo y discriminación: los sistemas de IA pueden perpetuar sesgos y discriminación en función de la información que se les proporciona.
- Riesgo de mala calidad de vida: los sistemas de IA pueden tomar decisiones que afectan negativamente la calidad de vida de las personas, como decidir la elegibilidad para programas sociales, empleo y servicios de atención médica.
- Riesgo de ataques de inyección de indicaciones indirectas: los modelos de lenguaje de IA son vulnerables a los ataques de inyección de indicaciones indirectas, en los que se puede ocultar una indicación maliciosa en un mensaje y hacer que la IA realice acciones maliciosas.
- Riesgo de que la IA se convierta en un motor para el spam: al permitir que los modelos de lenguaje accedan a Internet, los hackers pueden aprovecharlos para enviar correos electrónicos de spam y phishing que son invisibles para los humanos.
- Riesgo de robo de información confidencial: los modelos de lenguaje de IA pueden ser atacados para robar información confidencial, como datos bancarios o de salud.
- Riesgo de compromiso del modelo: los modelos de lenguaje de IA pueden ser comprometidos por contenido malicioso insertado en el conjunto de datos utilizados para entrenarlos, lo que puede influir en su comportamiento futuro.
- Riesgo de errores de programación: los desarrolladores que trabajan con modelos de lenguaje de IA pueden introducir errores en el código que hacen que los sistemas sean inseguros o vulnerables a ataques.
- Riesgo de pérdida de empleos: a medida que la automatización aumenta y las tareas se vuelven más susceptibles a la automatización, existe el riesgo de que la IA reemplace a los trabajadores humanos y los haga perder sus empleos.
Pero no seamos tan pesimistas, recordemos que los modelos de lenguaje de IA tienen muchos beneficios potenciales, como la automatización de tareas tediosas y repetitivas, la mejora de la precisión en la traducción y transcripción de idiomas, la generación de contenido creativo y la mejora de la eficiencia en una variedad de industrias. Sin embargo, estos beneficios potenciales deben equilibrarse cuidadosamente con la comprensión y la mitigación de los riesgos mencionados en el artículo de Heikkilä para asegurar un uso ético y responsable de la tecnología de lenguaje de IA.