Améliorer l'intelligibilité des arbres de décision avec des explications probabilistes concises et fiables
Résumé
Ce travail traite de l'intelligence artificielle explicable (IA explicable),
en particulier l'amélioration de l'intelligibilité des arbres de décision à l'aide des explications probabilistes fiables et concises. Les arbres de décision sont populaires car ils sont considérés comme hautement interprétables. En raison des limitations cognitives, les explications abductives peuvent être de trop grandes taille pour être interprétables par les utilisateurs humains. Lorsque cela se produit, les arbres de décision sont loin d'être facilement interprétables. Dans ce contexte, notre objectif est d'améliorer l'intelligibilité des arbres de décision en utilisant des explications probabilistes. En nous inspirant d'un précédent travail sur l'approximation des explications probabilistes, nous proposons un algorithme glouton qui permet de dériver des explications probabilistes concises et fiables pour les arbres de décision. Nous décrivons en détail cet algorithme et le comparant à l'encodage SAT de l'état de l'art, en mettant en avant le gain en intelligibilité et en soulignant son efficacité empirique.