En un descubrimiento reciente, el investigador de seguridad Johann Rehberger ha identificado una vulnerabilidad en ChatGPT que permite a los atacantes plantar «falsas memorias» en las configuraciones de memoria a largo plazo del modelo, lo que podría comprometer la seguridad de los usuarios de manera continua. Aunque OpenAI inicialmente desestimó la vulnerabilidad, tratándola como un problema de seguridad menor, Rehberger demostró cómo este fallo podría explotarse para robar datos del usuario de forma indefinida.
Continúa leyendo «Vulnerabilidad en ChatGPT: ¿una amenaza persistente para los usuarios?»