Tag: Large Language Model Security
Sécurité des Large Language Models, des menaces spécifiques aux modèles génératifs aux défenses implémentables. Couvre l’injection de prompts, le jailbreak, l’exfiltration de données via la sortie, l’empoisonnement de modèles, le risque de chaîne d’approvisionnement dans les modèles de fondation, les vulnérabilités de fine-tuning, ainsi que les contrôles d’accès, le sandboxing et la surveillance runtime pour des déploiements LLM sécurisés.