Étude de l'utilisation des modèles de langages pour l'interrogation en langue naturelle des graphes de connaissances
Résumé
Dans cet article, nous présentons les résultats d'une étude approfondie
des performances des grands modèles de langage (LLM) dans le contexte de l'interrogation des graphes de connaissances en langue naturelle (KGQA).
La méthodologie de l'expérimentation a été structurée en deux approches
distinctes : la génération de requêtes SPARQL et l'interrogation directe. Les
résultats sur le benchmark QALD-10 ont révélé des performances très faibles dans la première approche et des performances correctes dans la deuxième, avec des variations importantes selon le type des questions-réponses.