Tag: Attaque par Injection de Prompt Indirecte

Technique d’attaque contre les systèmes basés sur des modèles de langage étendus (LLM) où des instructions malveillantes sont injectées indirectement via du contenu externe traité par le modèle, tel que des documents, des e-mails, des pages web ou des bases de données. Contrairement à l’injection de prompt directe, l’attaquant ne contrôle pas le prompt initial mais manipule les données d’entrée que le système LLM récupère et interprète, provoquant des comportements non autorisés, l’exfiltration d’informations ou le contournement des politiques de sécurité.