En la actualidad, muchas personas empiezan a delegar tareas rutinarias en agentes de inteligencia artificial, como la revisión de correos electrónicos. La posibilidad de pedirle a un asistente que analice bandejas de entrada y extraiga información relevante suena tentadora, sobre todo cuando el tiempo escasea y las tareas administrativas se acumulan. Esta comodidad, sin embargo, abre la puerta a nuevos riesgos de seguridad que hasta hace poco parecían improbables.
Un reciente estudio de Radware Cybersecurity ha puesto en evidencia una vulnerabilidad crítica en la función «Investigación en profundidad» de ChatGPT, al demostrar que un simple correo electrónico, cuidadosamente diseñado, podía manipular al agente para que ejecutara acciones no autorizadas y filtrara información sensible sin que el usuario se percatara. Continúa leyendo «Un correo oculto que engaña a la IA: el nuevo riesgo en la automatización de correos electrónicos»