Tag: Testing for Prompt Injection
L’injection de prompts est une technique d’attaque contre les systèmes basés sur des Large Language Models (LLM) qui permet de manipuler le comportement du modèle en insérant des instructions malveillantes dans le prompt utilisateur. Les tests vérifient si une application d’IA est vulnérable à des entrées conçues pour écraser, contourner ou altérer les instructions système, provoquant des sorties non autorisées, des fuites de données ou l’exécution d’actions inattendues. Inclut des techniques d’injection directe, d’injection indirecte via du contenu externe et de jailbreak pour contourner les politiques de sécurité.