Tag: Red Teaming GenAI
Techniques de tests adverses appliquées aux systèmes d’intelligence artificielle générative pour identifier les vulnérabilités, les comportements non alignés, l’injection de prompts, le jailbreak, la fuite de données et les risques de sécurité émergents dans les modèles linguistiques et multimodaux.