Tag: AI Privacy Attack Testing

Techniques de test pour vérifier la résistance des systèmes d’IA aux attaques visant à extraire des données sensibles, des informations d’entraînement ou des PII (informations personnellement identifiables) des modèles. Inclut les attaques par inférence d’appartenance, l’inversion de modèle, l’extraction de données via l’injection de prompts et l’analyse des réponses pour détecter les fuites d’informations confidentielles présentes dans les jeux de données d’entraînement.