Tag: Prompt Injection
Technique d’attaque contre les systèmes d’IA et les grands modèles de langage qui exploite des entrées malveillantes pour manipuler le comportement du modèle, contourner les restrictions, extraire des données sensibles ou effectuer des actions non autorisées via la création de prompts et l’empoisonnement de contexte.