Qu'est-ce que mon GNN capture vraiment ? Exploration des représentations internes d'un GNN
Résumé
Nous considérons l'explication de GNN. Alors que les travaux existants
expliquent la décision du modèle en s'appuyant sur la couche de sortie,
nous cherchons à analyser les couches cachées pour identifier les attributs
construits par le GNN. Nous extrayons d'abord des règles d'activation qui identifient
des ensembles de neurones co-activés pour une classe. Ces règles définissent
des représentations internes ayant un impact fort sur la classification.
Ensuite, nous associons à celles-ci un graphe dont le plongement produit par le
GNN est très proche de celui identifié par la règle. Des expériences sur 6 jeux
de données et 3 baselines démontrent que notre méthode génère des graphes
réalistes de haute qualité.