Tag: AI Safety

Discipline qui étudie et met en œuvre des mesures pour garantir que les systèmes d’IA fonctionnent de manière sûre, fiable et alignée sur les objectifs prévus. Couvre l’alignement des modèles, la robustesse face aux entrées adverses, l’interprétabilité des décisions, la gestion de l’incertitude, les mécanismes de sécurité, la surveillance comportementale et la prévention des résultats nuisibles ou involontaires dans des contextes critiques.