RNTI

MODULAD
Explications de données et de classifieurs : quelques méthodes et risques notables
In EGC 2021, vol. RNTI-E-37, pp.7-8
Abstract
Au delà de la question de la performance des méthodes d'apprentissage automatique, il est devenu crucial d'augmenter la lisibilité des résultats obtenus, pour permettre aux utilisateurs de les comprendre et d'interpréter. Ces problématiques sont regroupées sous le terme "eXplainable Artificial Intelligence" (XAI). Au sein de ce vaste domaine, cet exposé aborde deux niveaux : le premier porte sur la compréhension des données elles-mêmes, dans un cadre d'analyse exploratoire et de description intelligible. L'objectif est de permettre à un utilisateur de comprendre le contenu des données en les résumant par le biais de formulations linguistiques, ce qui soulève en particulier les problèmes de choix des mots et de cohérence des résumés. Le second niveau considéré est celui de tâches de classification, dans le cadre classique de l'interprétation locale, post-hoc et agnostique de la prédiction d'une classe pour une donnée. Les questions soulevées sont celles des risques liés à la définition de la localité et à la génération d'explications non justifiées.