• Aucun résultat trouvé

Le développement de ces techiques a permis de réduire considérablement les temps d'analyse. En eet, les colonnes microbores, de diamètres interne et d'épaisseur de lm réduits (de 10mm x 10 mm à 0,1 mm x 0,1 mm), ont une ecacité augmentée (nombre de plateaux théoriques augmenté). Ainsi, le débit du gaz vecteur et la rampe de température peuvent être augmentées sans aecter la séparation. L'hydrogène est privilégié comme gaz vecteur en raison de sa grande vélocité.

Ces techniques permettent l'injection de moindre quantité d'échantillon et d'obtenir des résultats similaires à la GC conventionnelle, 30fois plus vite. La légère perte en sensibilité est largement compensée par les avantages résultants de l'analyse fast et very fast GC.

L'adaptation possible de spectromètres de masse hautes résolutions en n de colonnes mi-crobores en fait un outil puissant dans le contrôle qualité des huiles essentielles [96].

2.5.3 Chromatographie gazeuse-olfactométrie

Cette technique est basée sur la chromatographie gazeuse conventionnelle, mais utilisant le nez humain comme détecteur. Cela permet notamment d'évaluer l'impact aromatique d'une molécule. Son utilisation est également reconnue pour contribuer à l'évaluation de la qualité d'une huile essentielle, le nez humain étant généralement plus sensible que les détecteurs conven-tionnels.

2.5.4 Chromatographie gazeuse multidimensionnelle

Le couplage de deux colonnes chromatographiques de sélectivité diérentes, insérées dans des fours distincts, permet d'augmenter la capicité de pic en comparaison à la GC unidimensionnelle. Ainsi le nombre de coélution est minimisé et un maximum de composés peuvent être identiés. Cette technique est actuellement limitée par le manque de banque de données en 2 dimensions. Cependant le couplage avec un spectromètre de masse peut permettre de palier ce défaut.

Il existe deux types d'analyse en GC multidimensionnelle, La première est l'heart cutting consistant à injecter une fraction donnée an d'en améliorer la résolution. Cette technique est également utilisée en analyse chirale, la première colonne eectuant le fractionnement, la deuxième, l'analyse chirale. Le risque de coélution est ainsi très limité. La deuxième appelée comprehensive, ou l'ensemble des composés est envoyé sur une seconde colonne, améliorant ainsi la séparation [96].

CHAPITRE 2. TECHNIQUES ANALYTIQUES-ETAT DE L'ART 72

2.5.5 La chromatographie planaire haute performance

La chromatographie sur couche mince n'est pas une technique récente, cependant elle a connu de nombreuses évolutions technologiques, laissant penser aujourd'hui que cette tech-nique à un avenir dans le contrôle de la naturalité des huiles essentielles. En eet les phases stationnaires ont une granulométrie plus ne (de 5 à 6 mm environ), ce qui a permis une nette amélioration de la performance analytique. De plus de nombreux types de phases stationnaires ont été développées, ainsi que des automates pour la déposition d'échantillons et la détection des composés après séparation. Il existe également des phases stationnaires chirales, permettant la séparation rapide d'énantiomères.

De la même manière, l'automatisation a permis de développer l'HPTLC multidimension-nelle, permettant d'appliquer des phases mobiles de diérentes polarités, an d'améliorer la séparation.

Des évolutions plus récentes des phases sationnaires à particules sphériques, ainsi que d'autres de porosité et d'épaisseur de phase plus faibles permettent une dispersion réduite des solutés et une amélioration de la résolution.

Enn le développement de couplage avec la spectrométrie de masse, IR ou encore RAMAN, augmente signicativement l'intérêt de cette technique.

Actuellement l'HPTLC est notamment utilisée pour la détection d'huile végétale dans les huiles essentielles [97].

2.6 L'outil statistique et d'aide à la décision

2.6.1 Analyse de Clusters (classication)

Cette méthode a pour but de créer un certain nombre de classes regroupant les individus les plus proches. A chaque étape, on recherche les deux classes les plus proches pour n'en faire plus qu'une et ainsi de suite jusqu'à n'obtenir qu'une grande classe regroupant tous les individus. Le dendrogramme ci-dessous détaille ce processus.

CHAPITRE 2. TECHNIQUES ANALYTIQUES-ETAT DE L'ART 73

Figure 2.16: Dendrogramme

Le nombre de classes souhaitées comportant les individus les plus proches est choisi (exemple 3 classes : a, bc et def), selon des critères connus sur les individus (provenance, type, âges. . .). Il existe diérents algorithmes de calcul des distances entre les échantillons pour déterminer les classes. On peut considérer, comme en ACP, que chaque critère a la même importance. Dans ce cas, la distance utilisée est la distance euclidienne :

D'autres algorithmes, basés sur des distances autres que la distance euclidienne, permettent de calculer la similarité entre deux individus et peuvent être mieux adaptés à la probléma-tique étudiée. Leur utilisation peut conduire à des classes diérentes de celles observées sur la représentation graphique de l'ACP [95-97].

2.6.2 Analyse automatique de classement non hiérarchique : analyse

discriminante

A l'inverse de la technique précédente, les groupes sont prédéterminés en fonction des connaissances sur les échantillons. Un modèle est construit de telle façon que chaque échantillon soit plus proche du centre de gravité de son groupe que de celui des groupes voisins. Ce modèle permet d'aecter chaque échantillon à un groupe sur la base de distances. Si chaque échantillon est bien classé, le modèle peut alors être validé. Dans ce cas, le modèle pourra être utilisé pour prédire l'appartenance d'un échantillon inconnu à un groupe à partir du calcul de sa distance à chacun des groupes. Plus celle-ci sera faible, plus l'échantillon aura de probabilité d'appartenir

CHAPITRE 2. TECHNIQUES ANALYTIQUES-ETAT DE L'ART 74

à une classe donnée. Diérents algorithmes permettent de calculer la distance. Dans cette étude la distance euclidienne sera utilisée.

Ce type d'analyse est très intéressant. Cependant il ne s'agit plus d'analyse statistique descriptive car les groupes sont prédénis par l'opérateur. C'est pourquoi, pour construire un modèle robuste, il est nécessaire d'avoir des informations de départ ables, au risque d'arriver à des conclusions erronées [95-97].

2.6.3 Analyse de données multidimensionnelles

L'objectif de l'analyse multivariée est d'étudier les inter-relations entre plusieurs variables gurant dans une base de données et, si possible, d'en généraliser les conclusions à l'aide d'in-formations statistiques. L'analyse multivariée réunit un grand nombre de méthodes, souvent complexes qui tentent de donner une image simpliée des multiples relations entre les variables. On distingue deux grands goupes d'outils d'analyse de données : les méthodes descriptives qui permettent de représenter l'information entre les individus (similarité, dissimilarité. . .) comme l'Analyse en Composantes Principales ou la classication, et les méthodes explicatives qui cherchent à construire un modèle pour expliquer une ou plusieurs réponses (propriétés) à par-tir de variables explicatives comme la régression linéaire multiple et les méthodes PLS. Ces dernières sont très utilisées en sciences analytiques pour l'étalonnage de méthodes spectrosco-piques.

2.6.3.1 Analyse en composante principale

L'analyse en composante principale (ACP) est une analyse statistique descriptive qui a pour but de réduire en dimension un tableau de données. Elle propose à partir d'un nombre important de paramètres initiaux de réaliser une projection des individus (points, échantillons, expériences, spectres, . . .) dans un espace réduit à 2 ou 3 dimensions appelées composantes principales. L'ACP permet ainsi d'obtenir une représentation graphique interprétable des relations entre individus : similitudes entre échantillons, échantillons atypiques, description des corrélations entre les diérents paramètres ainsi représentés.

En pratique l'ACP consiste en la transformation de m variables quantitatives plus ou moins corrélées entre elles, en m nouvelles variables quantitatives non corrélées nommées composantes principales. Le but est ensuite de ne conserver qu'un nombre minimum pertinent k de ces com-posantes exprimant le maximum de variations à l'intérieur de la population étudiée.

CHAPITRE 2. TECHNIQUES ANALYTIQUES-ETAT DE L'ART 75

Figure 2.17: Matrice de données s x n

An de pouvoir traiter des données possédant des ordres de grandeur très diérents selon leur origine, les éléments de la matrice initiale peuvent être transformés en variables centrées réduites :

Le centrage consiste à remplacer les valeurs d'une colonne (représentant un facteur donné) par leur écart à la moyenne

La réduction consiste à diviser par l'écart-type de la colonne les valeurs obtenues pré-cédemment. Ce type de traitement permet d'obtenir une matrice en variables centrées réduites

A partir de la matrice X de départ (les données centrées-réduites), on construit la matrice M de corrélation :

M = 1/n (X'/X) avec X' transposée de X.

La matrice M est ensuite diagonalisée pour obtenir la matrice diagonale D des valeurs propres et la matrice P des vecteurs propres avec D = P-1 M P (cf. gure 2.18).

CHAPITRE 2. TECHNIQUES ANALYTIQUES-ETAT DE L'ART 76

Figure 2.18: Calcul matriciel de l'ACP

avec D = P-1 M P

Les vecteurs colonnes de la matrice P contiennent les coecients des combinaisons linéaires des variables de départ qui conduisent auxnouvelles variables appelées axes factoriels ou com-posantes principales. L'information contenue sur un axe factoriel i est fonction de la valeur propre li; on dénit le % de variance ou inertie apportée par cet axe par : li/li. Selon le pourcentage d'information désirée, on ne retiendra que k axes principaux. Une représentation graphique est alors réalisable dans un espace à k dimensions tout en connaissant le pourcentage de l'information conservée sur chaque axe. Par exemple 60 % des variations sont expliquées par l'axe 1 et 30 % par l'axe 2, soit 90 % pour le plan axe1-axe2, le pourcentage restant (10 %) décrit ainsi les variations non visibles sur le graphe qui sont en quelque sorte de l'information perdue.

Lorsque la valeur propre est proche de zéro, la composante associée ne présente plus d'intérêt car ne présente plus de variance. L'information étudiée risque alors d'être redondante et l'analyse polluée par un bruit de fond trop important. Dans cette étude, nous nous limiterons souvent à trois composantes qui seront susantes pour étudier la discrimination de la fraude.

2.6.3.2 La régression des moindres carrés partiels (Partial Least Square regression PLS)

La régression linéaire multiple relie plusieurs paramètres (descripteurs) regroupés dans la matrice X à leurs réponses analytiques constituant la matrice Y et dépendant de plusieurs de ces paramètres simultanément. L'équation associée s'écrit Y = XA + B où A est la matrice des coecients de régression reliant X à Y et B la matrice de bruit aléatoire.

Si les variables le permettent on peut utiliser directement la Régression Linéaire Multiple (RLM) avec la méthode des moindres carrés. Par contre, lorsque le nombre de variables est

im-CHAPITRE 2. TECHNIQUES ANALYTIQUES-ETAT DE L'ART 77

portant et que ces variables sont plus ou moins corrélées entre elles, ou bien lorsque le nombre d'échantillons est inférieur au nombre de descripteurs, on peut utiliser la méthode des moindres carrés partiels (PLS) pour eectuer la régression entre réponse(s) et descripteurs.

L'algorithme de cette régression dérive en partie de celui de l'ACP, dans la mesure où pour schématiser, il s'agit de réaliser une double décomposition en composantes principales sur X (matrice des descripteurs) et sur Y (matrice des réponses) [95-97].

2.6.3.3 Partial Least square  Discriminante Analysis (PLS-DA)

Le même algorithme est utilisé, cependant la matrice Y est à deux modalités (voire plus), c'est-à-dire que les observations de la matrice Y appartiennent au moins à deux catégories dif-férentes déterminées au préalable (ex : échantillons fraudés et échantillons de référence). En cas de Y bimodale, la matrice sera entièrement constituée de 1 et de 0 identiant chaque groupe. Cette méthode permet ainsi de déterminer l'importance des variables dans la séparation statis-tique des deux groupes de la matrice Y en calculant un coecient d'importance pour chaque variable. Ceci permet de sélectionner les variables les plus pertinentes dans la construction d'un modèle statistique discriminant entre au moins deux groupes d'observations [95-97].

Chapitre 3

Documents relatifs