Champs de Markov conditionnels pour le traitement de séquences
Abstract
Les modèles conditionnels du type modèles de Markov d'entropie
maximale et champs de Markov conditionnels apportent des réponses aux
lacunes des modèles de Markov cachés traditionnellement employés pour la
classification et la segmentation de séquences. Ces modèles conditionnels ont
été essentiellement utilisés jusqu'à présent dans des tâches d'extraction
d'information ou d'étiquetage morphosyntaxique. Cette contribution explore
l'emploi de ces modèles pour des données de nature différente, de type
« signal », telles que la parole ou l'écriture en ligne. Nous proposons des
architectures de modèles adaptées à ces tâches pour lesquelles nous avons
dérivé les algorithmes d'inférence et d'apprentissage correspondant. Nous
fournissons des résultats expérimentaux pour deux tâches de classification et
d'étiquetage de séquences.