• Aucun résultat trouvé

Nouvelles composantes informatives pour le diagnostic de fautes des procédés industriels par classification supervisée

N/A
N/A
Protected

Academic year: 2021

Partager "Nouvelles composantes informatives pour le diagnostic de fautes des procédés industriels par classification supervisée"

Copied!
7
0
0

Texte intégral

(1)

HAL Id: inria-00517049

https://hal.inria.fr/inria-00517049

Submitted on 13 Sep 2010

HAL is a multi-disciplinary open access archive for the deposit and dissemination of sci- entific research documents, whether they are pub- lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.

Nouvelles composantes informatives pour le diagnostic de fautes des procédés industriels par classification

supervisée

Sylvain Verron, Teodor Tiplica, Abdessamad Kobi

To cite this version:

Sylvain Verron, Teodor Tiplica, Abdessamad Kobi. Nouvelles composantes informatives pour le diag-

nostic de fautes des procédés industriels par classification supervisée. 6ème Conférence Internationale

Francophone d’Automatique (CIFA’10), 2010, Nancy, France. �inria-00517049�

(2)

Nouvelles composantes informatives pour le diagnostic de fautes des proc´ed´es industriels par

classification supervis´ee

Sylvain Verron , Teodor Tiplica , Abdessamad Kobi

LASQUO/ISTIA,

62, Avenue Notre Dame du Lac. 49000 Angers, France.

sylvain.verron@univ-angers.fr, teodor.tiplica@univ-angers.fr, abdessamad.kobi@univ-angers.fr

R´ esum´ e— Cet article pr´ esente une m´ ethode pour le diagnos- tic des proc´ ed´ es industriels. Nous sommes int´ eress´ es par le diagnostic de fautes per¸ cue comme une classification super- vis´ ee. L’int´ erˆ et de la m´ ethode propos´ ee est de prendre en compte de nouvelles composantes (et donc de nouvelles in- formations) dans le classifieur. Ces nouvelles composantes sont des probabilit´ es extraites d’un r´ eseau Bay´ esien compa- rant les donn´ ees de fautes aux donn´ ees normales de fonction- nement. Les performances de cette m´ ethode sont ´ evalu´ ees sur les donn´ ees d’un probl` eme benchmark : le Tennes- see Eastman Process. Trois types de fautes sont prises en comptes sur ce proc´ ed´ e complexe. Nous montrons sur cet exemple que l’addition de ces nouvelles composantes per- met de faire d´ ecroˆ ıtre le taux de mauvaises classifications.

Mots-cl´ es— Diagnostic de fautes, classification supervis´ ee, r´ eseau Bay´ esien.

I. Introduction

De nos jours les proc´ ed´ es industriels sont de plus en plus complexes. Ils int` egrent beaucoup de capteurs fournissant des mesures sur certains attributs du syst` eme. Une ´ etude de ces mesures peut permettre de d´ ecider de l’´ etat de fonc- tionnement du proc´ ed´ e. Si le proc´ ed´ e n’est pas dans des conditions normales de fonctionnement, cela signifie qu’une faute est apparue. La d´ etection et le diagnostic de fautes (Fault Detection and Diagnosis (FDD)) sont des champs de recherches tr` es importants [1]. Le but de la FDD est de d´ etecter, le plus tˆ ot possible, l’apparition d’une faute dans le proc´ ed´ e. Une fois la fautes d´ etect´ ee, l’´ etape importante est le diagnostic. Le diagnostic est la d´ ecision sur la nature de la faute apparue dans le proc´ ed´ e, quelles sont les ca- ract´ eristiques de cette faute, quelles sont les causes racines de cette faute.

On peut distinguer trois principales approches de m´ ethodes pour la FDD [2] : l’approche bas´ ee sur des connaissances, l’approche bas´ ee sur un mod` ele et l’ap- proche bas´ ee sur les donn´ ees. Les approches bas´ ees sur l’exploitation des connaissances comprennent des m´ ethodes bˆ aties sur des mod` eles qualitatifs (AMDEC - Analyse des Modes de D´ efaillances, de leurs Effets et de leur Criticit´ e ; Arbres de fautes ; Analyses des Risques) [3], [4]. Pour les m´ ethodes bas´ ees sur un mod` ele, un mod` ele analytique du proc´ ed´ e est construit sur la base des relations physiques gouvernant le proc´ ed´ e [5]. Le mod` ele donne les valeurs normales de chaque capteurs (ou variables) du syst` eme

`

a chaque instant d’´ echantillonnage, alors des r´ esidus sont g´ en´ er´ ees (les r´ esidus sont les diff´ erences entre les me- sures et les valeurs r´ ef´ erences estim´ ees par le mod` ele en

conditions normales). Si le syst` eme est en fonctionnement normal, alors les r´ esidus sont quasi nulles. Ainsi, leurs

´

evaluations permettent de d´ etecter et de diagnostiquer une faute. Th´ eoriquement, les meilleures m´ ethodes de FDD sont celles bas´ ees sur un mod` ele. Mais, l’inconv´ enient ma- jeur de cette famille de techniques est le fait qu’un mod` ele d´ etaill´ e du proc´ ed´ e est requis afin de le surveiller efficace- ment. Or, obtenir un mod` ele d´ etaill´ e efficace peut ˆ etre tr` es difficile et coˆ uteux en temps, et ce particuli` erement pour des syst` emes ` a grande ´ echelle poss´ edant beaucoup de va- riables. La derni` ere cat´ egorie de m´ ethodes pour la FDD sont les m´ ethodes bas´ ees sur un historique du proc´ ed´ e. Ces techniques sont bas´ ees sur des d´ eveloppements statistiques rigoureux des donn´ ees issues du proc´ ed´ e [6].

Dans la litt´ erature, on peut trouver beaucoup de tech- niques bas´ ees sur l’exploitation des donn´ ees pour la FDD.

Concernant la d´ etection, on peut notamment citer : la maˆıtrise statistique des proc´ ed´ es univari´ es [7], la maˆıtrise statistique des proc´ ed´ es multivari´ es [8], des techniques bas´ ees sur l’Analyse en Composantes Principales (ACP) [9]. Kano et al. [10] ont r´ ealis´ e des comparaisons entre ces diff´ erentes techniques. Concernant les techniques de diag- nostic, nous pouvons citer le livre de Chiang et al. [2] qui pr´ esente bon nombre d’entre elles (techniques bas´ ees sur l’ACP, analyse discriminante de Fisher, techniques bas´ ees sur la r´ egression, etc).

L’objet de cet article est de pr´ esenter une nouvelle contri- bution pour le diagnostic de faute de syst` eme industriel.

Classiquement, lorsque la classification supervis´ ee est uti- lis´ ee pour le diagnostic de fautes, on doit s´ electionner les variables les plus informatives afin de faire d´ ecroˆıtre le taux de mauvaise classification. En effet, la suppression de va- riables portant peu d’informations permet d’accroˆıtre la ro- bustesse du classifieur et d’accroˆıtre ainsi ses performances en classification. Dans cet article, nous proposons une solu- tion alternative qui rajoute de nouvelles composantes don- nant de nouvelles informations pour la classification. Ces nouvelles variables et donc ces nouvelles informations sont extraites ` a partir d’une comparaison des fautes aux condi- tions normales de fonctionnement.

L’article est structur´ e de la mani` ere suivante. Dans la

section II, nous introduisons la m´ ethode de diagnostic de

fautes par classification supervis´ ee et pr´ esentons quelques

classifieurs classiques. La section III pr´ esente notre contri-

bution permettant de comparer une faute aux conditions

normales de fonctionnement et d’obtenir ainsi de nouvelles

(3)

informations pour la classification de la faute. La section IV pr´ esente une ´ evaluation de la m´ ethode propos´ ee sur le probl` eme du Tennessee Eastman Process. Finalement, nous concluons sur cette m´ ethode et pr´ esentons quelques pers- pectives dans la section V.

II. Diagnostic de fautes par classification supervis´ ee

A. Diagnostic de faute en tant que classifiaction

D` es qu’un probl` eme (une faute) a ´ et´ e d´ etect´ ee dans l’´ evolution d’un proc´ ed´ e au moyen d’une m´ ethode de d´ etection, nous devons identifier la classe d’appartenance de cette faute. Pour cela, le probl` eme de diagnostic peut ˆ

etre vu comme la tˆ ache de classifier correctement l’obser- vation fautive dans une des classes de fautes pr´ ed´ efinies.

La tˆ ache de classification n´ ecessite la construction d’un classifieur (une fonction allouant une classe aux observa- tions d´ ecrites par les variables du syst` eme). Deux types de classification existent : la classification non supervis´ ee dont l’objectif est d’identifier le nombre et la composition de chaque classe pr´ esente dans les donn´ ees ; la classification supervis´ ee o` u le nombre de classes et la classe d’apparte- nance de chaque observation est connue dans un ensemble d’apprentissage, et dont l’objectif est de classer de nouvelles observations dans l’une des classes existantes. Par exemple,

´

etant donn´ e un ensemble d’apprentissage pour un syst` eme bivari´ e avec trois diff´ erentes fautes connues comme illustr´ e sur la figure 1, nous pouvons facilement utiliser la classifi- cation supervis´ ee afin de classifier une nouvelle observation fautive. Une s´ election de composantes peut ˆ etre utilis´ ee afin de s´ electionner seulement les variables les plus informatives du probl` eme.

X1 X2

0 5 10 15 20

0 2 4 6 8 10 12 14 16 18 20

Classe 1 Classe 2 Classe 3 Point A

A

Fig. 1. Syst` eme bivari´ e ` a 3 fautes connus

B. Classifieur supervis´ e usuel

Nous avons vu comment diagnostiquer une faute ` a l’aide de classifieurs supervis´ es, nous pr´ esentons ici quelques clas- sifieurs classiques. En effet, il n’y a pas de classifieur sur- passant tous les autres, cela d´ epend de l’application.

B.1 Analyse Discriminante Lin´ eaire

L’Analyse Discriminante Lin´ eaire (ADL) est une tech- nique de base pour la classification supervis´ ee [11]. C’est un classifieur statistique. En effet la r` egle de classifica- tion est d’attribuer ` a une nouvelle observation la classe

poss´ edant la plus grande probabilit´ e conditionnelle. Afin de travailler avec les probabilit´ es, une hypoth` ese classique est que les donn´ ees suivent une densit´ e Gaussienne. Dans ce cas, l’ADL attribue ` a une nouvelle observation x la classe C i poss´ edant le coˆ ut minimal calcul´ e par l’´ equation sui- vante :

x ∈ C i , si i = argmin

i=1,...,k

{K i (x)} (1) o` u K i (x) est exprim´ e par :

K i (x) = (x − µ i ) T Σ −1 (x − µ i ) − 2log(P (C i )) (2) o` u µ i est le vecteur des moyennes de la faute F i , Σ est la matrice de variance-covariance commune et P(C i ) est la probabilit´ e a priori de la classe C i .

B.2 k plus proches voisins

L’algorithme des k plus proches voisins est un outil de classification non param´ etrique (sans estimation de pa- ram` etres). Le principe de cette m´ ethode est d’observer les k plus proches voisins d’une nouvelle observation ` a clas- ser. Pour cette nouvelle observation, l’algorithme calcule la distance de cette observation ` a chaque observation d’un en- semble d’apprentissage. Alors, ´ etant donn´ ees les distances, on peut s´ electionner les k plus proches voisins et donc leurs classes respectives. Consid´ erant les classes des k plus proches voisins, on peut conclure sur la classe de la nouvelle observation. Afin d’illustrer cette r` egle, un exemple de clas- sification ` a deux classes dans un espace ` a deux dimensions est donn´ e sur la figure 2.

Voisin 2

Voisin 1

Le nouvel individu sera classé comme Voisin 3

Fig. 2. Exemple d’attribtuion de classe pour l’algorithme ` a 3 plus proches voisins

B.3 S´ eparateur ` a vaste marge

Le s´ eparateur ` a vaste marge est un nouvel outil d’ap-

prentissage automatique sp´ ecialement con¸ cu pour la clas-

sification, la pr´ evision et l’estimation dans les cas o` u peu

d’observations sont disponibles [12]. ` A l’origine, les SVM

sont seulement applicables ` a des probl` emes lin´ eaires :

un algorithme SVM recherchent la s´ eparation lin´ eaire

maximisant la marge entre deux classes. Mais grˆ ace ` a

l’astuce du noyau (kernel trick) [13], il est possible de

traiter des probl` emes non lin´ eaires. Pour une meilleure

compr´ ehension, un exemple est donn´ e sur la figure 3. La

premi` ere figure repr´ esente deux classes non lin´ eairement

s´ eparables. Une transformation de l’espace initial (x)

vers un espace bidimensionnel (x ;x 2 ) permet de s´ eparer

lin´ eairement et correctement (avec la marge maximale) les

deux classes.

(4)

Fig. 3. Principes du SVM

B.4 R´ eseaux Bay´ esiens classifieurs

Un R´ eseau Bay´ esien (RB) est un graphe [14]. Dans ce graphe, chaque noeud est une variable pouvant ˆ etre discr` ete ou continue. Les arcs de ce graphe repr´ esentent des d´ ependances entre les variables jointes. Les classi- fieurs Bay´ esiens sont une classe particuli` ere de RB [15].

Ils poss` edent toujours un noeud discret (noeud de classe) codant les diff´ erentes classes, les autres repr´ esentent les descripteurs (ou variables) de la tˆ ache de classification.

Un type particulier de classifieur Bay´ esien est le R´ eseau Bay´ esien Na¨ıf (RBN). Dans un RBN, le noeud de classe est li´ e ` a tous les autres comme indiqu´ e sur la figure 4. Ce classifieur fait l’hypoth` ese forte de non-corr´ elation entre les variables, ce qui n’est pas tr` es r´ ealiste. Afin de prendre en compte les variables corr´ el´ ees, certaines approches ont ´ et´ e d´ evelopp´ ees comme les r´ eseaux Bay´ esien augmenter par un arbre (Tree Augmented Na¨ıve Bayesian networks (TAN)) propos´ e par Friedman [15].

a)

X

3

X

2

X

1

… X

p

C

b)

X

3

X

2

X

1

X

4

C

Fig. 4. Diff´ erents classifieurs Bay´ esiens : RBN (a) et TAN (b)

B.5 Arbres de d´ ecision

Un Arbre de D´ ecision (AD) consiste en une s´ erie de questions organis´ ees hi´ erarchiquement suivant une struc- ture arbor´ ee. Ces questions portent sur les attributs du

syst` eme. Ces attributs peuvent ˆ etre des variables binaires, nominales, ordinales ou quantitative, alors que les classes doivent ˆ etre de type discr` etes (ou qualitatives). ´ Etant donn´ e un ensemble d’apprentissage, un AD produit une s´ equence de r` egles (ou une s´ erie de questions) qui peut ˆ etre utilis´ ee pour reconnaˆıtre la classe [16]. Un exemple d’un AD construit est donn´ e sur la figure 5.

A

K=C1

B B

A = rouge A = bleu

Nœud décision Nœud racine

K=C2 K=C2

C

K=C2 K=C1

B < 4.5 B = 4.5 B = 8.1 B < 8.1

C = vrai C = faux

Nœud feuille

Fig. 5. Exemple d’un Arbre de D´ ecision

III. Nouvelles composantes pour le diagnostic de fautes

A. Obtention de nouvelles informations

G´ en´ eralement, une mauvaise classification est due ` a certaines classes partageant un mˆ eme lieu dans l’espace, comme montr´ e sur la figure 6. Sur cette figure, nous pou- vons voir que les fautes poss` edent un espace similaire o` u la d´ ecision n’est donc pas tr` es ´ evidente. C’est g´ en´ eralement ` a cet endroit qu’une mauvaise d´ ecision est prise.

4 6 8 10 12 14 16 18 20

2 4 6 8 10 12 14

X1

X2

Fig. 6. Espace similaire entre 2 classes

Dans un probl` eme de classification supervis´ ee classique, il n’y a pas r´ eellement de solutions pour palier ` a ce probl` eme. Mais, dans le cas de la classification super- vis´ ee appliqu´ ee au diagnostic de fautes on peut trouver une solution. En effet, la classification pour le diagnostic de fautes utilise seulement les donn´ ees de pr´ ec´ edentes ob- servations de fautes afin de d´ efinir les classes. Or, nous avons g´ en´ eralement une autre information ` a disposition : les donn´ ees provenant du mode normal de fonctionnement.

L’id´ ee de cet article est que si l’information entre les classes

(5)

n’est pas assez suffisante pour obtenir un bon taux de clas- sification, nous pouvons ajouter au mod` ele des informa- tions provenant de la diff´ erence des fautes par rapport au mode normal de fonctionnement. Ainsi, nous devons recher- cher de nouvelles composantes (provenant de la diff´ erence entre une faute et les conditions normales de fonctionne- ment) qui vont permettre de r´ eduire ou de supprimer le lieu d’ind´ ecision de la figure 6, comme repr´ esent´ e sur la figure 7.

Fig. 7. Ajout d’une nouvelle composante

B. Calcul des probabilit´ es

Afin de d’obtenir de nouvelles composantes, nous ex- ploitons les donn´ ees du mode normal de fonctionnement.

Pour cela nous utilisons une m´ ethode pr´ ec´ edemment pro- pos´ ee. ` A la base, cette m´ ethode a ´ et´ e con¸ cue afin d’iden- tifier les variables responsables d’une observation fautive.

Pour l’identification de fautes, l’une des techniques sta- tistiques les plus int´ eressantes est la d´ ecomposition MYT [17] qui d´ ecomposent la statistique T 2 dans des compo- santes orthogonales permettant de d´ eterminer quelles va- riables ou groupes de variables ont contribu´ es ` a la faute.

R´ ecemment, Li et al. [18] ont propos´ e une am´ elioration de la d´ ecomposition MYT : la d´ ecomposition causale du T 2 . Afin de r´ ealiser cette d´ ecomposition, les auteurs utilisent un r´ eseau Bay´ esien causal [14] repr´ esentant les diff´ erentes va- riables du proc´ ed´ e en fonctionnement normal. Nous avons propos´ e une extension ` a cette m´ ethode [19], toujours bas´ ee sur un r´ eseau Bay´ esien. Dans notre m´ ethode, une obser- vation fautive est donn´ ee au r´ eseau, celui-ci calcule alors pour chaque variable la probabilit´ e d’ˆ etre responsable de la situation fautive. Un exemple d’un tel r´ eseau Bay´ esien est pr´ esent´ e sur la figure 8.

Sur la figure 8, chaque cercle repr´ esente une variable du syst` eme et la connexion entre deux variables repr´ esentent une r´ egression de la premi` ere sur la seconde. Chaque carr´ e(un pour chaque variable du syst` eme) repr´ esente une variable bimodale codant la responsabilit´ e de sa variable connect´ ee pour une situation fautive.

C. La m´ ethode propos´ ee

L’id´ ee de cet article est d’exploiter les probabilit´ es cal- cul´ ees par le r´ eseau Bay´ esien afin de les int´ egrer en tant que composantes pour la tˆ ache de classification et ainsi de

X

1

X

i

X

p

X

3

X

2 PX2

PX1 PX3 PXi PXp

Fig. 8. R´ eseau Bay´ esien causal permettant le calcul des probabilit´ es

faire d´ ecroˆıtre le taux de mauvaises classifications. Pour cela, nous faisons l’hypoth` ese que nous poss´ edons d’an- ciennes donn´ ees observ´ ees du proc´ ed´ e, ` a la fois pour les fautes connues et ` a la fois pour les conditions normales de fonctionnement. A partir des donn´ ees du fonctionne- ment normal du proc´ ed´ e (suppos´ e ` a p variables), le r´ eseau Bay´ esien causal peut ˆ etre construit. On peut alors pr´ esenter au r´ eseau les donn´ ees des diff´ erentes fautes. Le r´ eseau donne les diff´ erentes probabilit´ es (une pour chaque va- riable). Ainsi, nous obtenons 2×p composantes : les p com- posantes originales et les p nouvelles composantes (corres- pondant aux probabilit´ es obtenues par le r´ eseau Bay´ esien).

Finalement nous pouvons entraˆıner un classifieur (voir sec- tion II-B) sur les 2 × p composantes. De mani` ere pratique,

´

etant donn´ ee une nouvelle observation fautive, les p me- sures sont pr´ esent´ ees au r´ eseau afin d’obtenir les p proba- bilit´ es. Apr` es cela, l’ensemble des p mesures et des p pro- babilit´ es sont pr´ esent´ ees au classifieur qui prend la d´ ecision de la classe d’appartenance de l’observation fautive. Pour une meilleure compr´ ehension de la m´ ethode propos´ ee, nous exposons le principe graphiquement sur la figure 9.

Données normales De Fonctionnement Données

des fautes connues

Réseau Bayésien causal modélisant le fonctionnement

normal

Données et Probabilités des fautes connues

Probabilités des fautes connues

Données d’une nouvelle observation fautive

Probabilités de la nouvelle observation fautive

Classifieur entraîné

Classification de la nouvelle observation fautive

(Diagnostic)

Données et Probabilités de la nouvelle observation fautive Apprentissage

Construction

Classification

Fig. 9. M´ ethode propos´ ee

(6)

Fig. 10. Sch´ ema du TEP

Une application de cette approche sur un probl` eme classique : le Tennessee Eastman Process (figure 10) est pr´ esent´ ee dans le paragraphe suivant.

IV. Application au TEP A. Pr´ esentation du TEP

Le Tennessee Eastman Process (TEP) est un proc´ ed´ e chimique. Ce n’est pas un proc´ ed´ e r´ eel mais la simulation d’un proc´ ed´ e qui a ´ et´ e cr´ e´ e par la compagnie Eastman Che- mical pour fournir un proc´ ed´ e industriel r´ ealiste permet- tant d’´ evaluer des m´ ethodes de surveillance et de contrˆ ole des proc´ ed´ es. L’article de Downs et Vogel [20] d´ ecrit enti` erement ce proc´ ed´ e. Les auteurs donnent ´ egalement le code fortran de la simulation de ce proc´ ed´ e. Ricker [21]

a impl´ ement´ e la simulation sur Matlab. Le TEP est com- pos´ e de cinq unit´ es majeures de production : un r´ eacteur, un compresseur, un d´ ecapeur, un s´ eparateur et un conden- seur. Quatre gaz r´ eactifs et un inerte sont m´ elang´ es dans le r´ eacteur o` u les produits liquides F, G et H sont form´ es.

Ce proc´ ed´ e poss` ede 12 variables d’entr´ ee et 41 variable de sortie. Le TEP poss` ede 20 types de fautes identifi´ ees.

Ce proc´ ed´ e est id´ eal pour tester des m´ ethodes de sur- veillance mais il est ´ egalement un probl` eme type pour les techniques de contrˆ ole car il est instable en boucle ouverte.

Beaucoup d’articles pr´ esentent et testent de nouvelles ap- proches sur le TEP. Par exemple, pour la d´ etection de fautes nous pouvons citer [10]. Des techniques de diagnos- tic de fautes ont ´ egalement ´ et´ e test´ ees sur le TEP [2], [22], notamment avec la structure de contrˆ ole recommand´ ee par [23]. Dans [22], les auteurs se focalisent sur trois types de fautes et distribuent les donn´ ees qu’ils ont utilis´ e. Nous avons pris en compte ces trois types de fautes : faute 4, 9 et 11 (voir table I). Ces trois types de fautes sont une bonne repr´ esentation de donn´ ees se chevauchant et ne sont donc

pas faciles ` a classer. Comme indiqu´ e sur la table I, chaque type de fautes poss` ede deux ensembles de donn´ ees : un en- semble d’apprentissage et un ensemble de test contenant respectivement 480 et 800 observations.

Classe Type de faute Donn´ ees App.

Donn´ ees Test 1

Faute 4 : Saut de la temp´ erature d’entr´ ee du refroidissement liquide au r´ eacteur

480 800

2

Faute 9 : Varia-

tion al´ eatoire de la temp´ erature d’alimenta- tion en D

480 800

3

Faute 11 : Varia- tion al´ eatoire de la temp´ erature d’entr´ ee du refroidissement liquide au r´ eacteur

480 800

TABLE I

Description de la base de donn´ ees

B. R´ esultats et analyses

Nous avons test´ e diff´ erentes configurations pour cette

exp´ erimentation. Certains auteurs ont montr´ e que pour ces

trois fautes (F4, F9 et F11), seulement deux variables sont

tr` es informatives : les variables 9 et 51 (X9 et X51). Ainsi,

nous avons r´ eduit le probl` eme de la classification de ces

trois classes dans l’espace de 52 variables vers un espace de

2 variables (variables 9 et 51).

(7)

Afin de d´ emontrer l’int´ erˆ et d’ajouter de nouvelles com- posantes informatives au mod` ele, nous avons calcul´ e, dans chaque cas, le taux de mauvaises classifications dans l’es- pace ` a deux variables (d´ enomm´ ees X9 et X51), dans l’es- pace ` a deux probabilit´ es (d´ enomm´ ees P9 et P51), et dans l’espace ` a 2 variables- 2 probabilit´ es (d´ enomm´ ees X9, X51, P9 et P51). De plus, pour montrer l’application g´ en´ erale de la m´ ethode propos´ ee nous avons utilis´ e diff´ erents clas- sifieurs : Analyse Discriminante Lin´ eaire (ADL), Arbre de D´ ecision (AD), K plus proches voisins (avec 1 et 3 voi- sins, respectivement 1-PPV et 3-PPV) , r´ eseau Bay´ esien na¨ıf (RBN) et augment´ e par un arbre (TAN), S´ eparateur ` a Vaste Marge ` a fonction de base radiale (SVM). Les taux de mauvaises classifications (en pourcentage) sont pr´ esent´ es dans la table II : plus le taux est faible meilleure est la classification.

Classifieur X 9, X51 P 9, P 51 X9, X51, P 9, P 51

ADL 31.58 19.2 15.33

AD 9.5 12,62 8.87

1-PPV 12.87 18.87 10.7

3-PPV 11.37 15.46 8.79

RBN 11.5 16.83 9.29

TAN 10.12 16.83 8.87

SVM 7.75 16.16 7.66

TABLE II

R´ esultats : taux de mauvaises classifications

Dans la table II, on peut voir que pour chaque clas- sifieur les mˆ emes conclusions s’appliquent. Premi` erement nous pouvons observer que pour tous les classifieur (except´ e l’ADL) le taux de classification est plus faible dans l’espace original que dans l’espace des probabilit´ es. Mais, comme propos´ e dans cette m´ ethode, pour chaque classifieur, le taux de mauvaises classifications est plus faibles dans l’es- pace combin´ e (X 9, X 51, P 9, P 51) que dans les deux autres espaces (l’espace original et l’espace des probabilit´ es).

Ainsi, nous pouvons dire que les deux espaces (X 9, X 51 et P 9, P 51) contiennent des informations diff´ erentes, et que donc leur combinaison est plus efficace que chaque espace pris s´ epar´ ement.

V. Conclusions et perspectives

L’int´ erˆ et principal de cet article est la pr´ esentation d’une nouvelle m´ ethode pour le diagnostic de faute de proc´ ed´ e industriel. Nous avons consid´ er´ e le cas o` u le diagnostic de fautes est vue comme une classification supervis´ ee.

Nous avons propos´ e d’obtenir plus d’informations que celles contenues uniquement dans la base de donn´ ees de fautes.

Cette information suppl´ ementaire est contenue dans la diff´ erence des fautes au mode normal de fonctionnement.

Cette diff´ erence est exprim´ ee par des probabilit´ es obtenues par un r´ eseau Bay´ esien causal repr´ esentant le mode nor- mal de fonctionnement du proc´ ed´ e. Ainsi, ces probabilit´ es sont vues comme de nouvelles variables par le classifieur su- pervis´ e. Les performances de cette approche ont ´ et´ e test´ es sur un exemple concret : le Tennessee Eastman Process.

Les r´ esultats de la m´ ethode sont bons et d´ emontrent bien l’avantage de celle-ci.

Ce premier travail ouvre des perspectives int´ eressantes.

En effet, comme nous avions travaill´ e sur le r´ eseau Bay´ esien causal donnant les probabilit´ es pour l’espace combin´ e, nous l’avons simplement r´ eutilis´ e. Mais, au vu des r´ esultats, il va ˆ etre tr` es int´ eressant de d´ ecouvrir quelles informations donne le r´ eseau. Peut-ˆ etre que ces informations peuvent ˆ

etre exprim´ ees plus pr´ ecis´ ement qu’au travers de proba- bilit´ es (distances statistiques, distances de r´ egression) et donner ainsi des r´ esultats encore meilleurs.

R´ ef´ erences

[1] Rolf Isermann. Fault Diagnosis Systems An Introduction from Fault Detection to Fault Tolerance. Springer, 2006.

[2] Leo H. Chiang, Evan L. Russell, et Richard D. Braatz. Fault de- tection and diagnosis in industrial systems. New York : Springer- Verlag, 2001.

[3] D. H. Stamatis. Failure Mode and Effect Analysis : FMEA from Theory to Execution. ASQ Quality Press, 2003.

[4] B.S. Dhillon. Reliability,Quality,and Safety for Engineers. CRC Press, 2005.

[5] Ron J. Patton, Paul M. Frank, et Robert N. Clark. Issues of Fault Diagnosis for Dynamic Systems. Springer, 2000.

[6] V. Venkatasubramanian, R. Rengaswamy, S.N. Kavuri, et K. Yin. A review of process fault detection and diagnosis part iii : Process history based methods. Computers and Chemical Engineering, 27(3) :327–346, 2003.

[7] Douglas C. Montgomery. Introduction to Statistical Quality Control, Third Edition. John Wiley and Sons, 1997.

[8] J.A. Westerhuis, S.P. Gurden, et A.K. Smilde. Standardized q- statistic for improved sensitivity in the monitoring of residuals in mspc. Journal of Chemometrics, 14(4) :335–349, 2000.

[9] Edward J. Jackson. Multivariate quality control. Communica- tion Statistics - Theory and Methods, 14 :2657 – 2688, 1985.

[10] M. Kano, K. Nagao, S. Hasebe, I. Hashimoto, H. Ohno, R. Strauss, et B.R. Bakshi. Comparison of multivariate statis- tical process monitoring methods with applications to the east- man challenge problem. Computers and Chemical Engineering, 26(2) :161–174, 2002.

[11] R. O. Duda, P. E. Hart, et D. G. Stork. Pattern Classification 2nd edition. Wiley, 2001.

[12] Vladimir N. Vapnik. The Nature of Statistical Learning Theory.

Springer, 1995.

[13] A Aizerman, EM Braverman, et LI Rozoner. Theoretical foun- dations of the potential function method in pattern recognition learning. Automation and Remote Control, 25 :821–837, 1964.

[14] Finn V. Jensen. An introduction to Bayesian Networks. Taylor and Francis, London, United Kingdom, 1996.

[15] N. Friedman, D. Geiger, et M. Goldszmidt. Bayesian network classifiers. Machine Learning, 29(2-3) :131–163, 1997.

[16] Leo Breiman, Jerome Friedman, Charles J. Stone, et R.A. Ol- shen. Classification and Regression Trees. Wadsworth &

Brooks/Cole Advanced Books & Software, 1993.

[17] Robert L. Mason, Nola D. Tracy, et John C. Young. Decomposi- tion of T

2

for multivariate control chart interpretation. Journal of Quality Technology, 27(2) :99–108, 1995.

[18] Jing Li, Jionghua Jin, et Jianjun Shi. Causation-based t

2

de- composition for multivariate process monitoring and diagnosis.

Journal of Quality Technology, 40(1) :46–58, 2008.

[19] Sylvain Verron, Teodor Tiplica, et Abdessamad Kobi. R´ eseaux bay´ esiens pour l’identification de variables hors-contrˆ ole. 5` eme Conf´ erence Internationale Francophone d’Automatique, Buca- rest, Roumanie, 2008.

[20] J.J. Downs et E.F. Vogel. Plant-wide industrial process control problem. Computers and Chemical Engineering, 17(3) :245–255, 1993.

[21] N.L. Ricker. Decentralized control of the tennessee eastman chal- lenge process. Journal of Process Control, 6(4) :205–221, 1996.

[22] L.H. Chiang, M.E. Kotanchek, et A.K. Kordon. Fault diagno- sis based on fisher discriminant analysis and support vector ma- chines. Computers and Chemical Engineering, 28(8) :1389–1401, 2004.

[23] P.R. Lyman et C. Georgakis. Plant-wide control of the tennes-

see eastman problem. Computers and Chemical Engineering,

19(3) :321–331, 1995.

Références

Documents relatifs

Les syst` emes d’exploitation distribu´ es (Distributed Operating Systems) : ces syst` eme sont con¸cu pour permettre une migration transparente des processus et des donn´ ees de

Soit donc une machine de Turing M , et on cr´ ee de la mˆ eme mani` ere que pr´ ec´ edemment un syst` eme de r´ e´ ecriture associ´ e R.. Cependant, tous les termes du nouveau

D´ efinition (rang d’un syst` eme ´ echelonn´ e) : Le rang r d’un syst`eme ´echelonn´e `a p ´equations et n inconnues est ´egal au nombre d’´equations qui n’ont pas un

L’´ etude qualitative d’un syst` eme diff´ erentiel (isoclines, ´ equilibres, fl` eches) ne permet pas toujours ` a elle seule de d´ eduire le comportement de toutes les

Notons B l’ensemble des valeurs de n &gt; 1 pour lesquelles l’in´egalit´e de Cauchy

Le programme devra dire si l’utilisateur a trouv´ e ou pas le nombre, si l’utilisateur ne le trouve pas, le programme devra indiquer si le nombre saisi est trop grand ou trop

Dans cette partie, on utilise des ´ egalit´ es vectorielles, c’est-` a-dire sans coordonn´ ees.. En d´ eduire une factorisation

Mod´ eliser cette situation par deux arbres diff´ erents.. Donner le prix de 8 croissants, puis de