• Aucun résultat trouvé

3.2 Méthodes pour s'aranchir des perturbations externes

Les modèles générés par la régression PLS sourent généralement d'un manque de robustesse en ce qui concerne les  facteurs d'inuence  qui pénalisent leur application dans des conditions non contrôlées. Ces derniers appelés aussi  paramètres externes , sont des quantités diérentes de la variable d'intérêt mais qui aectent sa prédiction.

D'un point de vue mathématique, si le niveau de paramètre externe est constant, un biais constant apparaît dans les valeurs prédites. Si le paramètre externe est corrélé à la variable d'intérêt, la ligne de tendance associant les valeurs réelles aux valeurs prédites présente une pente diérente de l'unité. Enn si le paramètre d'inuence n'est pas stable, l'information parasitée peut apparaître comme un bruit et entraîne une variance plus élevée de l'erreur de prédiction.

Pour éliminer ces variations indésirables dans les données et pour rendre le modèle robuste, deux ap-prochent principales sont disponibles dans la littérature: (i) les techniques de pré-traitement du signal et (ii) les techniques basées sur des projections.

3.2.1 Pré-traitements

Les approches populaires de la correction du signal incluent des méthodes classiques, tels que le ltrage en utilisant par exemple le lissage de Savitzky-Golay (Savitzky and Golay, 1964), ou des transforma-tions non linéaires, comme SNV (Barnes et al.,1989; Barnes,1993) et la correction du signal multiple (MSC) (Martens and Næs, 1989). Les données peuvent également être ltrées selon leurs longueurs d'ondes comme dans la sélection des variables (Höskuldsson,2001). La réduction du nombre de vari-ables a un eet positif sur la propagation des erreurs dans le modèle (Faber and Kowalski, 1997). De manière plus générale, la réduction de la dimension de la matrice des données spectrales avant l'étalonnage est une étape de pré-traitement courante pour rendre le modèle plus robuste.

3.2.2 Méthodes par projection

Lorsque les méthodes de pré-traitement n'arrivent pas à réduire l'inuence des facteurs externes, de nombreux auteurs ont proposé des méthodes de projection pour améliorer la performance de la régres-sion PLS. Ces méthodes sont basées sur la détermination de deux espaces: l'espace EW des perturba-tions et/ou l'espace utile EB de la variable d'intérêt.

Ces deux espaces correspondent respectivement au lieu de variation des spectres avec les perturbations pour un Y donné, et au lieu de variation lié à Y hors perturbations.

3.2.2.1 Projection orthogonale à l'espace utile

Les méthodes évoquées dans cette partie sont basées sur la détermination de l'espace orthogonal E B à l'espace utile EB (gure 3.1). Les perturbations sont ensuite éliminées par projection de X selon la direction E

B. Ces méthodes dièrent par la façon dont cet espace E

Figure 3.1  Projection orthogonale d'un spectre S sur l'espace utile.

Wold et al. (1998), ont proposé une méthode de correction du signal par orthogonalisation (OSC). L'OSC repose sur un algorithme similaire à l'algorithme d'une PLS ordinaire à une exception près: normalement, les composantes du sous-espace résultant sont calculées de manière à maximiser la co-variance entre X et Y, mais dans le cas présent, elles sont plutôt calculées de façon à minimiser cette covariance.

Il en résulte des composantes formant un espace orthogonal à EB. La principale diculté de la méthode est le choix optimal du nombre des variables latentes an d'éviter un sur-ajustement des composants OSC estimés et une dégradation dans le modèle construit.

Fearn (2000), ramène le problème à la recherche successive des vecteurs propres de la matrice M = I − XTY (YTXXTY )−1YTX qui dénit la partie X non liée à Y. Ces vecteurs propres identiés for-ment alors l'espace recherché. Cette méthode économise le temps de calcul, mais selon l'auteur il n'y a pas de gains spectaculaires dans la performance par rapport à la méthode OSC.

L'approche O-PLS (Orthogonal projections to latent structures) de Trygg and Wold (2002) propose une amélioration par rapport à la méthode de l'OSC présentée par (Wold et al.,1998). Elle analyse la variation de X et récupère les éléments non corrélés qui forment le sous-espace orthogonal à EB. Elle permet alors de détecter avec plus de précision les valeurs aberrantes et donc de choisir le nombre de variable latentes optimum qu'il faut retenir. Un autre avantage est qu'elle est plus rapide à calculer. Andersson (1999), quand à lui, propose une méthode plus simple que les précédentes appelée orthogo-nalisation directe (DO). Celle-ci eectue un calcul du sous-espace dans lequel X est le plus lié de EB. Une fois cet espace identié, une ACP est appliquée sur la partie de X indépendante à EB dans le but de calculer l'espace parasite orthogonal à l'espace utile.

En résumé, ces méthodes n'ont besoin d'aucune connaissance de l'espace de perturbation EW. Ce qui limite leur performance à bien corriger la signature spectrale.

3.2.2.2 Projection orthogonale selon l'espace des perturbations

La deuxième voie utilise l'information du sous-espace de perturbation pour corriger les spectres (gure

3.2). L'idée est d'enlever les perturbations dues au facteur externe en projetant les spectres mesurés sur le sous-espace orthogonal à EW. Cette stratégie fournie une correction plus ecace en comparai-son avec le concept précédent. Elle permet, en plus, d'interpréter l'inuence du facteur externe sur le spectre.

3.2 Méthodes pour s'aranchir des perturbations externes

Figure 3.2  Projection orthogonale d'un spectre S selon l'espace des perturbations.

Hansen (2001), suit cette voie pour élaborer une nouvelle méthode de pré-traitement appelée réduc-tion des perturbaréduc-tions indépendantes. Celle-ci supprime les perturbaréduc-tions en utilisant deux ensembles de données: un ensemble de pré-traitement (matrice Xsimple) contenant un très grand nombre de spec-tres provenant d'échantillons ne contenant aucune variation dans la variable d'intérêt, mais montrant de très grandes variations au niveau des facteurs externes. Et un autre ensemble d'étalonnage (matrices Xspecialet Yspecial) contenant des échantillons avec des variations au niveau de la variable d'intérêt. Le sous-espace parasite EW est alors modélisé à partir d'une analyse en composants principales (ACP) appliquée sur Xsimple.

La méthode EPO (External Parameter Orthogonalisation, i.e. orthogonalisation par rapport à un paramètre externe) (Roger et al.,2003) propose une amélioration dans la technique de Hansen (2001). Elle ne nécessite qu'un petit ensemble d'échantillons et ne nécessite pas que la réponse d'intérêt soit constante. Elle est particulièrement adaptée pour améliorer la robustesse d'un étalonnage existant, c'est-à-dire pour proter d'une base de données existante, pour un paramètre externe particulier. An de déterminer l'espace généré par les facteurs externes, il est nécessaire d'avoir des échantillons de spectres présentant des valeurs de perturbation diérentes représentatives de l'espace EW. A titre d'exemple, on peut dénir n ensembles formés chacun de spectres possédant des valeurs très similaires de la variable d'intérêt mais des valeurs diérentes du facteur externe. La variation intra-classe cor-respond alors à la variabilité due au facteur externe. L'espace EW peut être représenté suivant cette matrice d'inertie.

Dans ces deux cas, lorsque EW et EB ont une intersection non vide, la projection orthogonale selon EW corrige trop les spectres et produit une perte d'information utile puisque le sous-espace EB n'est pas considéré.

Pour éviter cette perte, Hadoux et al. (2015) proposent une nouvelle approche de projection DROP-D (Dimension reduction by orthogonal projection for discrimination i.e. réduction des dimensions par projection orthogonale pour la discrimination) qui prend en considération EW et EB. Elle est dédiée à la classication.

Soit C la matrice des spectres répartis selon leurs classes. DROP-D cherche tout d'abord à calculer les composantes principales de la matrice de variance inter-classe B de C. Cela revient à construire le sous-espace contenant l'information utile. Une fois identié, les spectres du jeu de données X sont projetés orthogonalement à ce sous-espace. La matrice résultante Xbest donc dépourvue d'information concernant la variable d'intérêt.

EW est ensuite déterminé par la matrice de variation intra-classe W de Xb qui par construction ne contient aucune information utile. Par projection orthogonale de X selon EW, Hadoux et al. (2015) arrivent à corriger le jeu de données perturbé tout en préservant l'information utile de EB.