Stratégies coalitionnelles pour une explication efficace des prédictions individuelles.
Résumé
Ce papier est un résumé des travaux publiés dans le journal
Information Systems Frontiers (Ferrettini et al., 2021). Face aux nombreuses
applications de l'apprentissage machine (ML) dans de nombreux
domaines, la nécessité de comprendre le fonctionnement des modèles en
boite noire est devenu croissante, particulièrement chez les non-experts.
Plusieurs méthodes fournissant des explications sur les prédictions des
modèles existent, avec des temps de calculs longs ou des hypothèses restrictives
sur les interactions entre attributs. Ce papier détaille des méthodes
basées sur la détection de groupes d'attributs pertinents – appelés
coalitions – influençant la prédiction. Nos résultats montrent que les méthodes
coalitionnelles sont plus performantes que celles existantes, comme
SHAP. Le temps d'exécution est réduit en préservant la précision des explications.
Ces méthodes permettent une augmentation des cas d'utilisation
afin d'accroître la confiance entre les modèles ML, les utilisateurs et toute
personne affectée par une décision impliquant ces modèles.