Tag: Testing for Runtime Model Poisoning

Évaluation de la résilience des modèles d’IA/ML contre les attaques par empoisonnement pendant l’exécution, où des entrées malveillantes ou des retours manipulés altèrent le comportement du modèle en production. Inclut des tests pour l’injection de backdoors, l’empoisonnement incrémental des données, le réentraînement adverse et la compromission des pipelines d’apprentissage continu dans les environnements opérationnels.