Représentation des poids d'auto-attention sous forme de graphe pour l'évaluation des Transformers
Résumé
Les Transformers sont devenus la référence pour le traitement de données
séquentielles, avec des applications allant de la traduction au traitement des
dossiers de santé électroniques. Cependant, leur complexité pose des défis d'explicabilité,
notamment dans des domaines soumis à des exigences éthiques et
légales strictes, comme la santé. Pour répondre à ce besoin, nous proposons une
approche qui représente l'apprentissage du mécanisme d'attention sous forme de
graphe, révélant les connexions d'auto-attention entre les tokens. Nous introduisons
une métrique pour évaluer la pertinence des connexions apprises par rapport
à une référence établie. Nous appliquons notre approche au modèle Behrt, conçu
pour prédire les diagnostics futurs à partir de diagnostics passés. Nos expérimentations
montrent que notre méthode facilite la compréhension de l'apprentissage
des modèles et permet une meilleure appréciation de l'influence des diagnostics
entre eux, ainsi que des biais présents dans les données.