¿Qué es la inyección de prompt y por qué pone en riesgo a la inteligencia artificial?

Cada vez que interactuamos con un chatbot como ChatGPT, asumimos que hay una capa de seguridad que impide que la IA diga o haga cosas indebidas. Sin embargo, existe una técnica que desafía esa suposición y que ha generado una gran preocupación entre expertos en ciberseguridad: la inyección de prompt.

Esta técnica, tan ingeniosa como peligrosa, permite manipular modelos de lenguaje como si fueran títeres, alterando sus respuestas e incluso forzándolos a saltarse reglas. En este artículo te explico qué es, cómo funciona, casos reales y por qué deberías conocerla, aunque no seas programador.

Continúa leyendo «¿Qué es la inyección de prompt y por qué pone en riesgo a la inteligencia artificial?»

Así engañaron a ChatGPT para que entregara claves de activación de Windows

Un descubrimiento reciente ha vuelto a poner sobre la mesa una de las grandes preocupaciones en torno a la inteligencia artificial generativa: su facilidad para ser manipulada. Un hacker ético logró que ChatGPT revelara claves de activación de Windows 10, utilizando una técnica de ingeniería social tan ingeniosa como alarmante.

Continúa leyendo «Así engañaron a ChatGPT para que entregara claves de activación de Windows»