Tag: Out-of-Distribution Testing

Techniques de test pour évaluer le comportement des modèles de machine learning et des systèmes d’IA lorsqu’ils reçoivent des entrées en dehors de la distribution des données d’entraînement. Détecte les anomalies, la dérive (drift), les cas limites (edge cases) et les vulnérabilités liées à des données imprévues, essentiel pour la robustesse et la sécurité des modèles en production.