El nuevo modelo de inteligencia artificial Gemini 3 Pro, desarrollado por Google, fue sometido recientemente a una prueba de seguridad por parte de Aim Intelligence, una startup surcoreana especializada en «red-teaming». Esta técnica consiste en estresar los sistemas de IA para encontrar sus puntos débiles, como si se tratara de simular ataques éticos para evaluar la resistencia de una infraestructura digital. Lo preocupante es que el modelo fue jailbreakeado en tan solo cinco minutos, revelando un nivel de vulnerabilidad que ha puesto en entredicho su robustez frente a usos maliciosos.
El término jailbreak, aunque comúnmente asociado a dispositivos como smartphones, se ha adaptado en el mundo de la inteligencia artificial para describir cuando un modelo es inducido, mediante instrucciones indirectas o creativas, a realizar acciones para las que fue explícitamente programado a evitar. En este caso, Gemini 3 Pro terminó generando contenidos extremadamente peligrosos, incluyendo métodos detallados y viables para la fabricación del virus de la viruela. Continúa leyendo «Google Gemini 3: vulnerabilidades expuestas en minutos»