RNTI

MODULAD
PyXAI : calculer en Python des explications pour des modèles d'apprentissage supervisé
In EGC 2023, vol. RNTI-E-39, pp.581-588
Résumé
L'intelligence artificielle explicable est un sous-domaine de l'IA, qui connait un essor important depuis quelques années. Le but poursuivi est de développer des méthodes et outils pour expliquer les résultats produits par des algorithmes d'IA. Consacrée à cette tâche, PyXAI est une librairie Python permettant de calculer des explications pour des prédictions réalisées à partir de plusieurs modèles d'apprentissage supervisé bien connus à base d'arbres : les arbres de décision (decision trees), les forêts aléatoires (random forests) et les arbres optimisés (boosted trees). PyXAI prend en charge deux bibliothèques d'apprentissage automatique : Scikit-Learn et XGBoost. Plusieurs types d'explication peuvent être calculés : abductive (pourquoi cette prédiction ?) et contrastive (pourquoi pas une autre prédiction ?). Divers types d'explications abductives sont proposés permettant de réaliser différents compromis taille / temps de calcul.