Aonan Guan, investigador de seguridad, ha demostrado durante varios meses que los agentes de IA de Anthropic, Google y Microsoft pueden ser secuestrados mediante ataques de prompt injection para robar API keys, tokens de GitHub y otros secretos. Las tres compañías pagaron bug bounties (100 dólares Anthropic, 500 dólares GitHub, una cantidad no revelada Google), pero ninguna publicó un advisory público ni asignó un CVE, dejando a los usuarios que ejecutan versiones antiguas de estas integraciones sin posibilidad de saber que están expuestos. La historia, reportada por Alina Maria Stan en TheNextWeb este 15 de abril citando a The Register, deja al descubierto un problema estructural mucho más grande que el técnico: el ecosistema de divulgación responsable que sostiene la seguridad informática moderna no tiene aún un marco para tratar las vulnerabilidades de los agentes de IA, y las compañías están aprovechando ese vacío para resolver los problemas en silencio. Continúa leyendo «Investigador hackea agentes de IA de Anthropic, Google y Microsoft con prompt injection: roban credenciales, las tres pagan bug bounties y silencian la vulnerabilidad sin asignar CVE»