Tag: Défenses des modèles ML
Techniques défensives pour protéger les modèles de machine learning contre les attaques adverses, le poisoning, l’évasion et l’extraction de modèles. Inclut l’entraînement adverse, la désinfection des entrées, la confidentialité différentielle, le tatouage de modèles (watermarking), la limitation du débit de requêtes et la surveillance des prédictions anormales lors de l’inférence.