HAL Id: inria-00517049
https://hal.inria.fr/inria-00517049
Submitted on 13 Sep 2010
HAL is a multi-disciplinary open access archive for the deposit and dissemination of sci- entific research documents, whether they are pub- lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.
Nouvelles composantes informatives pour le diagnostic de fautes des procédés industriels par classification
supervisée
Sylvain Verron, Teodor Tiplica, Abdessamad Kobi
To cite this version:
Sylvain Verron, Teodor Tiplica, Abdessamad Kobi. Nouvelles composantes informatives pour le diag-
nostic de fautes des procédés industriels par classification supervisée. 6ème Conférence Internationale
Francophone d’Automatique (CIFA’10), 2010, Nancy, France. �inria-00517049�
Nouvelles composantes informatives pour le diagnostic de fautes des proc´ed´es industriels par
classification supervis´ee
Sylvain Verron , Teodor Tiplica , Abdessamad Kobi
LASQUO/ISTIA,
62, Avenue Notre Dame du Lac. 49000 Angers, France.
sylvain.verron@univ-angers.fr, teodor.tiplica@univ-angers.fr, abdessamad.kobi@univ-angers.fr
R´ esum´ e— Cet article pr´ esente une m´ ethode pour le diagnos- tic des proc´ ed´ es industriels. Nous sommes int´ eress´ es par le diagnostic de fautes per¸ cue comme une classification super- vis´ ee. L’int´ erˆ et de la m´ ethode propos´ ee est de prendre en compte de nouvelles composantes (et donc de nouvelles in- formations) dans le classifieur. Ces nouvelles composantes sont des probabilit´ es extraites d’un r´ eseau Bay´ esien compa- rant les donn´ ees de fautes aux donn´ ees normales de fonction- nement. Les performances de cette m´ ethode sont ´ evalu´ ees sur les donn´ ees d’un probl` eme benchmark : le Tennes- see Eastman Process. Trois types de fautes sont prises en comptes sur ce proc´ ed´ e complexe. Nous montrons sur cet exemple que l’addition de ces nouvelles composantes per- met de faire d´ ecroˆ ıtre le taux de mauvaises classifications.
Mots-cl´ es— Diagnostic de fautes, classification supervis´ ee, r´ eseau Bay´ esien.
I. Introduction
De nos jours les proc´ ed´ es industriels sont de plus en plus complexes. Ils int` egrent beaucoup de capteurs fournissant des mesures sur certains attributs du syst` eme. Une ´ etude de ces mesures peut permettre de d´ ecider de l’´ etat de fonc- tionnement du proc´ ed´ e. Si le proc´ ed´ e n’est pas dans des conditions normales de fonctionnement, cela signifie qu’une faute est apparue. La d´ etection et le diagnostic de fautes (Fault Detection and Diagnosis (FDD)) sont des champs de recherches tr` es importants [1]. Le but de la FDD est de d´ etecter, le plus tˆ ot possible, l’apparition d’une faute dans le proc´ ed´ e. Une fois la fautes d´ etect´ ee, l’´ etape importante est le diagnostic. Le diagnostic est la d´ ecision sur la nature de la faute apparue dans le proc´ ed´ e, quelles sont les ca- ract´ eristiques de cette faute, quelles sont les causes racines de cette faute.
On peut distinguer trois principales approches de m´ ethodes pour la FDD [2] : l’approche bas´ ee sur des connaissances, l’approche bas´ ee sur un mod` ele et l’ap- proche bas´ ee sur les donn´ ees. Les approches bas´ ees sur l’exploitation des connaissances comprennent des m´ ethodes bˆ aties sur des mod` eles qualitatifs (AMDEC - Analyse des Modes de D´ efaillances, de leurs Effets et de leur Criticit´ e ; Arbres de fautes ; Analyses des Risques) [3], [4]. Pour les m´ ethodes bas´ ees sur un mod` ele, un mod` ele analytique du proc´ ed´ e est construit sur la base des relations physiques gouvernant le proc´ ed´ e [5]. Le mod` ele donne les valeurs normales de chaque capteurs (ou variables) du syst` eme
`
a chaque instant d’´ echantillonnage, alors des r´ esidus sont g´ en´ er´ ees (les r´ esidus sont les diff´ erences entre les me- sures et les valeurs r´ ef´ erences estim´ ees par le mod` ele en
conditions normales). Si le syst` eme est en fonctionnement normal, alors les r´ esidus sont quasi nulles. Ainsi, leurs
´
evaluations permettent de d´ etecter et de diagnostiquer une faute. Th´ eoriquement, les meilleures m´ ethodes de FDD sont celles bas´ ees sur un mod` ele. Mais, l’inconv´ enient ma- jeur de cette famille de techniques est le fait qu’un mod` ele d´ etaill´ e du proc´ ed´ e est requis afin de le surveiller efficace- ment. Or, obtenir un mod` ele d´ etaill´ e efficace peut ˆ etre tr` es difficile et coˆ uteux en temps, et ce particuli` erement pour des syst` emes ` a grande ´ echelle poss´ edant beaucoup de va- riables. La derni` ere cat´ egorie de m´ ethodes pour la FDD sont les m´ ethodes bas´ ees sur un historique du proc´ ed´ e. Ces techniques sont bas´ ees sur des d´ eveloppements statistiques rigoureux des donn´ ees issues du proc´ ed´ e [6].
Dans la litt´ erature, on peut trouver beaucoup de tech- niques bas´ ees sur l’exploitation des donn´ ees pour la FDD.
Concernant la d´ etection, on peut notamment citer : la maˆıtrise statistique des proc´ ed´ es univari´ es [7], la maˆıtrise statistique des proc´ ed´ es multivari´ es [8], des techniques bas´ ees sur l’Analyse en Composantes Principales (ACP) [9]. Kano et al. [10] ont r´ ealis´ e des comparaisons entre ces diff´ erentes techniques. Concernant les techniques de diag- nostic, nous pouvons citer le livre de Chiang et al. [2] qui pr´ esente bon nombre d’entre elles (techniques bas´ ees sur l’ACP, analyse discriminante de Fisher, techniques bas´ ees sur la r´ egression, etc).
L’objet de cet article est de pr´ esenter une nouvelle contri- bution pour le diagnostic de faute de syst` eme industriel.
Classiquement, lorsque la classification supervis´ ee est uti- lis´ ee pour le diagnostic de fautes, on doit s´ electionner les variables les plus informatives afin de faire d´ ecroˆıtre le taux de mauvaise classification. En effet, la suppression de va- riables portant peu d’informations permet d’accroˆıtre la ro- bustesse du classifieur et d’accroˆıtre ainsi ses performances en classification. Dans cet article, nous proposons une solu- tion alternative qui rajoute de nouvelles composantes don- nant de nouvelles informations pour la classification. Ces nouvelles variables et donc ces nouvelles informations sont extraites ` a partir d’une comparaison des fautes aux condi- tions normales de fonctionnement.
L’article est structur´ e de la mani` ere suivante. Dans la
section II, nous introduisons la m´ ethode de diagnostic de
fautes par classification supervis´ ee et pr´ esentons quelques
classifieurs classiques. La section III pr´ esente notre contri-
bution permettant de comparer une faute aux conditions
normales de fonctionnement et d’obtenir ainsi de nouvelles
informations pour la classification de la faute. La section IV pr´ esente une ´ evaluation de la m´ ethode propos´ ee sur le probl` eme du Tennessee Eastman Process. Finalement, nous concluons sur cette m´ ethode et pr´ esentons quelques pers- pectives dans la section V.
II. Diagnostic de fautes par classification supervis´ ee
A. Diagnostic de faute en tant que classifiaction
D` es qu’un probl` eme (une faute) a ´ et´ e d´ etect´ ee dans l’´ evolution d’un proc´ ed´ e au moyen d’une m´ ethode de d´ etection, nous devons identifier la classe d’appartenance de cette faute. Pour cela, le probl` eme de diagnostic peut ˆ
etre vu comme la tˆ ache de classifier correctement l’obser- vation fautive dans une des classes de fautes pr´ ed´ efinies.
La tˆ ache de classification n´ ecessite la construction d’un classifieur (une fonction allouant une classe aux observa- tions d´ ecrites par les variables du syst` eme). Deux types de classification existent : la classification non supervis´ ee dont l’objectif est d’identifier le nombre et la composition de chaque classe pr´ esente dans les donn´ ees ; la classification supervis´ ee o` u le nombre de classes et la classe d’apparte- nance de chaque observation est connue dans un ensemble d’apprentissage, et dont l’objectif est de classer de nouvelles observations dans l’une des classes existantes. Par exemple,
´
etant donn´ e un ensemble d’apprentissage pour un syst` eme bivari´ e avec trois diff´ erentes fautes connues comme illustr´ e sur la figure 1, nous pouvons facilement utiliser la classifi- cation supervis´ ee afin de classifier une nouvelle observation fautive. Une s´ election de composantes peut ˆ etre utilis´ ee afin de s´ electionner seulement les variables les plus informatives du probl` eme.
X1 X2
0 5 10 15 20
0 2 4 6 8 10 12 14 16 18 20
Classe 1 Classe 2 Classe 3 Point A
A
Fig. 1. Syst` eme bivari´ e ` a 3 fautes connus
B. Classifieur supervis´ e usuel
Nous avons vu comment diagnostiquer une faute ` a l’aide de classifieurs supervis´ es, nous pr´ esentons ici quelques clas- sifieurs classiques. En effet, il n’y a pas de classifieur sur- passant tous les autres, cela d´ epend de l’application.
B.1 Analyse Discriminante Lin´ eaire
L’Analyse Discriminante Lin´ eaire (ADL) est une tech- nique de base pour la classification supervis´ ee [11]. C’est un classifieur statistique. En effet la r` egle de classifica- tion est d’attribuer ` a une nouvelle observation la classe
poss´ edant la plus grande probabilit´ e conditionnelle. Afin de travailler avec les probabilit´ es, une hypoth` ese classique est que les donn´ ees suivent une densit´ e Gaussienne. Dans ce cas, l’ADL attribue ` a une nouvelle observation x la classe C i poss´ edant le coˆ ut minimal calcul´ e par l’´ equation sui- vante :
x ∈ C i , si i = argmin
i=1,...,k
{K i (x)} (1) o` u K i (x) est exprim´ e par :
K i (x) = (x − µ i ) T Σ −1 (x − µ i ) − 2log(P (C i )) (2) o` u µ i est le vecteur des moyennes de la faute F i , Σ est la matrice de variance-covariance commune et P(C i ) est la probabilit´ e a priori de la classe C i .
B.2 k plus proches voisins
L’algorithme des k plus proches voisins est un outil de classification non param´ etrique (sans estimation de pa- ram` etres). Le principe de cette m´ ethode est d’observer les k plus proches voisins d’une nouvelle observation ` a clas- ser. Pour cette nouvelle observation, l’algorithme calcule la distance de cette observation ` a chaque observation d’un en- semble d’apprentissage. Alors, ´ etant donn´ ees les distances, on peut s´ electionner les k plus proches voisins et donc leurs classes respectives. Consid´ erant les classes des k plus proches voisins, on peut conclure sur la classe de la nouvelle observation. Afin d’illustrer cette r` egle, un exemple de clas- sification ` a deux classes dans un espace ` a deux dimensions est donn´ e sur la figure 2.
Voisin 2
Voisin 1
Le nouvel individu sera classé comme Voisin 3
Fig. 2. Exemple d’attribtuion de classe pour l’algorithme ` a 3 plus proches voisins
B.3 S´ eparateur ` a vaste marge
Le s´ eparateur ` a vaste marge est un nouvel outil d’ap-
prentissage automatique sp´ ecialement con¸ cu pour la clas-
sification, la pr´ evision et l’estimation dans les cas o` u peu
d’observations sont disponibles [12]. ` A l’origine, les SVM
sont seulement applicables ` a des probl` emes lin´ eaires :
un algorithme SVM recherchent la s´ eparation lin´ eaire
maximisant la marge entre deux classes. Mais grˆ ace ` a
l’astuce du noyau (kernel trick) [13], il est possible de
traiter des probl` emes non lin´ eaires. Pour une meilleure
compr´ ehension, un exemple est donn´ e sur la figure 3. La
premi` ere figure repr´ esente deux classes non lin´ eairement
s´ eparables. Une transformation de l’espace initial (x)
vers un espace bidimensionnel (x ;x 2 ) permet de s´ eparer
lin´ eairement et correctement (avec la marge maximale) les
deux classes.
Fig. 3. Principes du SVM
B.4 R´ eseaux Bay´ esiens classifieurs
Un R´ eseau Bay´ esien (RB) est un graphe [14]. Dans ce graphe, chaque noeud est une variable pouvant ˆ etre discr` ete ou continue. Les arcs de ce graphe repr´ esentent des d´ ependances entre les variables jointes. Les classi- fieurs Bay´ esiens sont une classe particuli` ere de RB [15].
Ils poss` edent toujours un noeud discret (noeud de classe) codant les diff´ erentes classes, les autres repr´ esentent les descripteurs (ou variables) de la tˆ ache de classification.
Un type particulier de classifieur Bay´ esien est le R´ eseau Bay´ esien Na¨ıf (RBN). Dans un RBN, le noeud de classe est li´ e ` a tous les autres comme indiqu´ e sur la figure 4. Ce classifieur fait l’hypoth` ese forte de non-corr´ elation entre les variables, ce qui n’est pas tr` es r´ ealiste. Afin de prendre en compte les variables corr´ el´ ees, certaines approches ont ´ et´ e d´ evelopp´ ees comme les r´ eseaux Bay´ esien augmenter par un arbre (Tree Augmented Na¨ıve Bayesian networks (TAN)) propos´ e par Friedman [15].
a)
X
3X
2X
1… X
pC
b)
X
3X
2X
1X
4C
Fig. 4. Diff´ erents classifieurs Bay´ esiens : RBN (a) et TAN (b)
B.5 Arbres de d´ ecision
Un Arbre de D´ ecision (AD) consiste en une s´ erie de questions organis´ ees hi´ erarchiquement suivant une struc- ture arbor´ ee. Ces questions portent sur les attributs du
syst` eme. Ces attributs peuvent ˆ etre des variables binaires, nominales, ordinales ou quantitative, alors que les classes doivent ˆ etre de type discr` etes (ou qualitatives). ´ Etant donn´ e un ensemble d’apprentissage, un AD produit une s´ equence de r` egles (ou une s´ erie de questions) qui peut ˆ etre utilis´ ee pour reconnaˆıtre la classe [16]. Un exemple d’un AD construit est donn´ e sur la figure 5.
A
K=C1
B B
A = rouge A = bleu
Nœud décision Nœud racine
K=C2 K=C2
C
K=C2 K=C1
B < 4.5 B = 4.5 B = 8.1 B < 8.1
C = vrai C = faux
Nœud feuille
Fig. 5. Exemple d’un Arbre de D´ ecision
III. Nouvelles composantes pour le diagnostic de fautes
A. Obtention de nouvelles informations
G´ en´ eralement, une mauvaise classification est due ` a certaines classes partageant un mˆ eme lieu dans l’espace, comme montr´ e sur la figure 6. Sur cette figure, nous pou- vons voir que les fautes poss` edent un espace similaire o` u la d´ ecision n’est donc pas tr` es ´ evidente. C’est g´ en´ eralement ` a cet endroit qu’une mauvaise d´ ecision est prise.
4 6 8 10 12 14 16 18 20
2 4 6 8 10 12 14
X1
X2
Fig. 6. Espace similaire entre 2 classes
Dans un probl` eme de classification supervis´ ee classique, il n’y a pas r´ eellement de solutions pour palier ` a ce probl` eme. Mais, dans le cas de la classification super- vis´ ee appliqu´ ee au diagnostic de fautes on peut trouver une solution. En effet, la classification pour le diagnostic de fautes utilise seulement les donn´ ees de pr´ ec´ edentes ob- servations de fautes afin de d´ efinir les classes. Or, nous avons g´ en´ eralement une autre information ` a disposition : les donn´ ees provenant du mode normal de fonctionnement.
L’id´ ee de cet article est que si l’information entre les classes
n’est pas assez suffisante pour obtenir un bon taux de clas- sification, nous pouvons ajouter au mod` ele des informa- tions provenant de la diff´ erence des fautes par rapport au mode normal de fonctionnement. Ainsi, nous devons recher- cher de nouvelles composantes (provenant de la diff´ erence entre une faute et les conditions normales de fonctionne- ment) qui vont permettre de r´ eduire ou de supprimer le lieu d’ind´ ecision de la figure 6, comme repr´ esent´ e sur la figure 7.
Fig. 7. Ajout d’une nouvelle composante
B. Calcul des probabilit´ es
Afin de d’obtenir de nouvelles composantes, nous ex- ploitons les donn´ ees du mode normal de fonctionnement.
Pour cela nous utilisons une m´ ethode pr´ ec´ edemment pro- pos´ ee. ` A la base, cette m´ ethode a ´ et´ e con¸ cue afin d’iden- tifier les variables responsables d’une observation fautive.
Pour l’identification de fautes, l’une des techniques sta- tistiques les plus int´ eressantes est la d´ ecomposition MYT [17] qui d´ ecomposent la statistique T 2 dans des compo- santes orthogonales permettant de d´ eterminer quelles va- riables ou groupes de variables ont contribu´ es ` a la faute.
R´ ecemment, Li et al. [18] ont propos´ e une am´ elioration de la d´ ecomposition MYT : la d´ ecomposition causale du T 2 . Afin de r´ ealiser cette d´ ecomposition, les auteurs utilisent un r´ eseau Bay´ esien causal [14] repr´ esentant les diff´ erentes va- riables du proc´ ed´ e en fonctionnement normal. Nous avons propos´ e une extension ` a cette m´ ethode [19], toujours bas´ ee sur un r´ eseau Bay´ esien. Dans notre m´ ethode, une obser- vation fautive est donn´ ee au r´ eseau, celui-ci calcule alors pour chaque variable la probabilit´ e d’ˆ etre responsable de la situation fautive. Un exemple d’un tel r´ eseau Bay´ esien est pr´ esent´ e sur la figure 8.
Sur la figure 8, chaque cercle repr´ esente une variable du syst` eme et la connexion entre deux variables repr´ esentent une r´ egression de la premi` ere sur la seconde. Chaque carr´ e(un pour chaque variable du syst` eme) repr´ esente une variable bimodale codant la responsabilit´ e de sa variable connect´ ee pour une situation fautive.
C. La m´ ethode propos´ ee
L’id´ ee de cet article est d’exploiter les probabilit´ es cal- cul´ ees par le r´ eseau Bay´ esien afin de les int´ egrer en tant que composantes pour la tˆ ache de classification et ainsi de
X
1X
iX
pX
3X
2 PX2PX1 PX3 PXi PXp