La inteligencia artificial (IA) se ha convertido en una herramienta crucial en numerosos sectores, desde la medicina hasta la automoción. Pero como cualquier tecnología poderosa, no está exenta de riesgos. Uno de los peligros más graves que enfrenta la IA es la manipulación de datos durante el entrenamiento de modelos, un fenómeno conocido como «envenenamiento de datos». Aquí es donde entra en juego Dioptra, una herramienta desarrollada por el Instituto Nacional de Estándares y Tecnología (NIST) de EE.UU., diseñada para probar la resiliencia de los modelos de IA frente a datos maliciosos.
Continúa leyendo «Dioptra: Un escudo contra datos maliciosos en la IA»