¿Qué es la inyección de prompt y por qué pone en riesgo a la inteligencia artificial?

Cada vez que interactuamos con un chatbot como ChatGPT, asumimos que hay una capa de seguridad que impide que la IA diga o haga cosas indebidas. Sin embargo, existe una técnica que desafía esa suposición y que ha generado una gran preocupación entre expertos en ciberseguridad: la inyección de prompt.

Esta técnica, tan ingeniosa como peligrosa, permite manipular modelos de lenguaje como si fueran títeres, alterando sus respuestas e incluso forzándolos a saltarse reglas. En este artículo te explico qué es, cómo funciona, casos reales y por qué deberías conocerla, aunque no seas programador.

Continúa leyendo «¿Qué es la inyección de prompt y por qué pone en riesgo a la inteligencia artificial?»

Vulnerabilidad en ChatGPT: ¿una amenaza persistente para los usuarios?

En un descubrimiento reciente, el investigador de seguridad Johann Rehberger ha identificado una vulnerabilidad en ChatGPT que permite a los atacantes plantar «falsas memorias» en las configuraciones de memoria a largo plazo del modelo, lo que podría comprometer la seguridad de los usuarios de manera continua. Aunque OpenAI inicialmente desestimó la vulnerabilidad, tratándola como un problema de seguridad menor, Rehberger demostró cómo este fallo podría explotarse para robar datos del usuario de forma indefinida.

Continúa leyendo «Vulnerabilidad en ChatGPT: ¿una amenaza persistente para los usuarios?»