RNTI

MODULAD
Fine-tuning des Modèles de Langage Large (LLMs) pour l'alignement d'entités au sein des graphes de connaissances (GCs)
In EGC 2025, vol. RNTI-E-41, pp.311-318
Résumé
La recherche d'entités similaires dans les graphes de connaissances a toujours été un défi complexe. L'arrivée des LLMs a ouvert de nouvelles perspectives, notamment grâce au fine-tuning qui permet à ces modèles de se spécialiser pour des tâches spécifiques. Cet article propose d'utiliser les modèles GPT-2 et BERT pour développer un modèle généralisé permettant de résoudre les problèmes d'alignement d'entités (AE) sur divers jeux de données. Un protocole basé sur le réseau de Kolmogorov-Arnold (KAN) est également présenté pour pallier les limites des LLMs en termes d'interprétabilité et de coût computationnel. Les résultats montrent que GPT-2 surpasse BERT et KAN, offrant de meilleures performances de score F1 pour les défis d'alignement d'entités. Cette approche offre une meilleure capture des similarités linguistiques, syntaxiques et sémantiques entre les entités.