Fine-tuning des Modèles de Langage Large (LLMs) pour l'alignement d'entités au sein des graphes de connaissances (GCs)
Résumé
La recherche d'entités similaires dans les graphes de connaissances a
toujours été un défi complexe. L'arrivée des LLMs a ouvert de nouvelles perspectives,
notamment grâce au fine-tuning qui permet à ces modèles de se spécialiser
pour des tâches spécifiques. Cet article propose d'utiliser les modèles
GPT-2 et BERT pour développer un modèle généralisé permettant de résoudre
les problèmes d'alignement d'entités (AE) sur divers jeux de données. Un protocole
basé sur le réseau de Kolmogorov-Arnold (KAN) est également présenté
pour pallier les limites des LLMs en termes d'interprétabilité et de coût computationnel.
Les résultats montrent que GPT-2 surpasse BERT et KAN, offrant de
meilleures performances de score F1 pour les défis d'alignement d'entités. Cette
approche offre une meilleure capture des similarités linguistiques, syntaxiques
et sémantiques entre les entités.