Tag: Testing for Poisoned Training Sets

L’empoisonnement des données d’entraînement est une attaque sur la chaîne d’approvisionnement des modèles d’IA où des données malveillantes ou manipulées sont introduites dans le jeu de données d’entraînement pour compromettre le comportement du modèle. Les tests vérifient si un système d’IA a été entraîné sur des données contaminées provoquant des biais intentionnels, des backdoors, des sorties manipulées sur des déclencheurs spécifiques ou une dégradation des performances sur certaines entrées. Inclut l’analyse de la provenance des données, la détection de modèles anormaux et la validation de la robustesse du modèle contre les jeux de données corrompus.