La régression PLS 1. Cas particulier de la Régression Linéaire Séquentielle Orthogonale
Abstract
La régression linéaire classique fournit une seule solution souvent basée sur le critère des moindres carrés. Lorsqu'il y a beaucoup de variables, on risque d'obtenir un modèle surparamétré, c'est-à-dire modélisant les erreurs. Pour éviter cette surparamétrisation, la régression PLS a été introduite car, étant une régression séquentielle, elle permet d'arrêter le processus de régression avant de modéliser l'erreur. Mais la PLS ne propose que quelques solutions et ne permet pas vraiment d'optimisation. Nous proposons dans cet article une régression séquentielle orthogonale plus souple que la PLS, la régression linéaire séquentielle orthogonale ou RLSO. Cette régression permet d'éviter la surparamétrisation et elle facilite l'optimisation de la modélisation car les directions de projection peuvent être choisies au mieux des intérêts de l'étude. Les solutions possibles proposées par la RLSO sont en nombre infini. Ce qui laisse la possibilité d'utiliser toutes les techniques d'optimisation pour trouver la ou les meilleures solutions. Comme la régression linéaire séquentielle orthogonale (RLSO) est nouvelle, nous avons développé toutes les étapes de calcul. Un exemple numérique est fourni en annexes 9 et 10.