Tag: Attaques multi-tours
Attaques contre les systèmes d’IA et les grands modèles de langage (LLM) qui exploitent des conversations à plusieurs tours pour contourner les filtres de sécurité, extraire des informations sensibles ou manipuler le comportement du modèle. Techniques qui distribuent des charges utiles malveillantes sur plusieurs interactions successives, contournant les contrôles basés sur des requêtes uniques et exploitant le contexte conversationnel pour l’injection de prompts indirecte, le jailbreak progressif ou l’extraction de données confidentielles.