Tag: Testing for Runtime Exfiltration
Évaluation des vulnérabilités permettant l’exfiltration de données sensibles des systèmes d’IA/ML pendant l’exécution. Inclut des tests pour les attaques par canal auxiliaire, les attaques temporelles, l’extraction de paramètres de modèle, les fuites via les API d’inférence et les canaux cachés dans les sorties. Couvre les scénarios d’exfiltration via l’injection de prompts, l’extraction de modèles et l’abus des fonctionnalités de journalisation ou de télémétrie.