Tag: Testing for Indirect Prompt Injection

Vérification de la vulnérabilité aux injections de prompt indirectes dans les systèmes LLM, où des entrées malveillantes provenant de sources externes (documents, API, bases de données) manipulent le comportement du modèle sans intervention directe de l’utilisateur. Inclut des techniques de test pour détecter les charges utiles cachées dans le contenu récupéré dynamiquement, l’injection inter-contexte et les attaques exploitant la confiance implicite du système envers les données non assainies.