Tag: Tests de Sécurité de Prompt
Méthodologies de test pour identifier les vulnérabilités d’injection de prompt, de fuite de prompt (prompt leaking), de jailbreak et de manipulation des systèmes basés sur des modèles de langage étendus (LLM). Couvre les techniques de validation des entrées, la désinfection des prompts, les tests aux limites (boundary testing) et l’évaluation de la robustesse des guardrails implémentés dans les applications d’IA générative.