RNTI

MODULAD
Rectifier pour mieux distiller
In EGC 2024, vol. RNTI-E-40, pp.59-70
Résumé
Nous présentons dans cet article une approche de distillation d'arbres optimisés en arbres de décision. Une telle distillation vise à aboutir à un modèle offrant un compromis acceptable en terme de précision et d'interprétabilité. Nous expliquons comment l'approche de correction de classeurs binaires, appelée rectification, introduite récemment peut être utilisée pour mettre en oeuvre un tel processus de distillation. Nous montrons empiriquement qu'elle fournit des résultats intéressants, en comparaison de la distillation par ré-entraînement.