Tag: Protection contre le Model Poisoning

Protection des modèles de machine learning contre les attaques par empoisonnement (poisoning) pendant les phases d’entraînement et de fine-tuning. Inclut des techniques de désinfection des données, de validation des entrées d’entraînement, de détection de portes dérobées (backdoors), des défenses contre la manipulation de jeux de données et des stratégies de durcissement pour prévenir les compromissions intentionnelles altérant le comportement du modèle.