Tag: Atténuations des attaques LLM

Techniques et contre-mesures pour protéger les grands modèles de langage (LLM) contre des attaques spécifiques telles que l’injection de prompts, le data poisoning, l’inversion de modèle et le jailbreak. Inclut des stratégies de validation des entrées, de filtrage des sorties, de limitation de débit, de sandboxing et de surveillance comportementale pour les systèmes LLM en production.