Tag: Testing for Sensitive Data Leak
Vérification de la capacité des systèmes d’IA/ML à protéger les informations sensibles présentes dans les données d’entraînement ou les entrées utilisateur. Couvre l’inversion de modèle, l’inférence d’appartenance, l’inférence d’attributs et l’extraction de secrets via des requêtes ciblées. Pertinent pour la conformité RGPD, la protection des PII et la prévention de l’exposition involontaire de données confidentielles via les sorties du modèle.