Sur le pouvoir explicatif des arbres de décision
Résumé
Les arbres de décision constituent un modèle d'apprentissage adapté
aux applications pour lesquelles l'interprétabilité des décisions est d'une importance
primordiale. Nous examinons ici la capacité des arbres de décision binaires
à extraire, minimiser et compter des explications abductives / contrastives. Nous
montrons que l'ensemble de toutes les explications abductives irredondantes (ou
raisons suffisantes) d'une instance peut être de taille exponentielle. Aussi, générer
l'intégralité de cet ensemble peut se révéler hors de portée. De plus, deux
raisons suffisantes d'une même instance peuvent différer sur tous leurs attributs.
Ainsi, le calcul d'une seule raison suffisante ne donne qu'une vision parcellaire
des explications abductives possibles. Nous introduisons les notions d'attribut
nécessaire / pertinent pour l'explication et la notion d'importance explicative
d'un attribut et nous montrons que ces notions peuvent être utiles pour dériver
une vue synthétique des raisons suffisantes d'une instance.