RNTI

MODULAD
Représentation des poids d'auto-attention sous forme de graphe pour l'évaluation des Transformers
In EGC 2025, vol. RNTI-E-41, pp.351-358
Résumé
Les Transformers sont devenus la référence pour le traitement de données séquentielles, avec des applications allant de la traduction au traitement des dossiers de santé électroniques. Cependant, leur complexité pose des défis d'explicabilité, notamment dans des domaines soumis à des exigences éthiques et légales strictes, comme la santé. Pour répondre à ce besoin, nous proposons une approche qui représente l'apprentissage du mécanisme d'attention sous forme de graphe, révélant les connexions d'auto-attention entre les tokens. Nous introduisons une métrique pour évaluer la pertinence des connexions apprises par rapport à une référence établie. Nous appliquons notre approche au modèle Behrt, conçu pour prédire les diagnostics futurs à partir de diagnostics passés. Nos expérimentations montrent que notre méthode facilite la compréhension de l'apprentissage des modèles et permet une meilleure appréciation de l'influence des diagnostics entre eux, ainsi que des biais présents dans les données.