Una nueva vulnerabilidad en chips pone en jaque la privacidad en la inteligencia artificial

Un reciente estudio realizado por investigadores de la Universidad Estatal de Carolina del Norte ha revelado un punto crítico de exposición en los sistemas de inteligencia artificial (IA), esta vez no desde el software, sino desde el propio hardware. La vulnerabilidad, bautizada como GATEBLEED, permite a los atacantes extraer información sobre los datos de entrenamiento utilizados por un modelo de IA, incluso sin tener acceso directo a su memoria. Este hallazgo plantea nuevas preocupaciones en torno a la privacidad y la seguridad de los datos en entornos cada vez más dependientes de aceleradores especializados.

Lo llamativo de esta amenaza es su capacidad para aprovechar una característica de diseño de los chips, conocida como power gating, que en esencia es una técnica para ahorrar energía apagando partes del procesador cuando no están en uso. Pero, como si se tratara de dejar huellas en la arena al caminar descalzo, esta función deja trazas medibles en los tiempos de ejecución que pueden ser analizadas para deducir si ciertos datos estuvieron presentes durante el entrenamiento del modelo. Continúa leyendo «Una nueva vulnerabilidad en chips pone en jaque la privacidad en la inteligencia artificial»