Tag: Data Poisoning
Attaques par empoisonnement des données dans les systèmes de machine learning : manipulation intentionnelle des jeux de données d’entraînement pour compromettre l’intégrité, la précision ou le comportement du modèle, insertion d’échantillons malveillants, injection de portes dérobées, inversion d’étiquettes, techniques d’empoisonnement visant à provoquer des erreurs de classification, l’évasion ou la dégradation des performances, et défenses basées sur l’assainissement des données, la détection d’anomalies et l’entraînement robuste.