6
8
10
12
14
Y
1Y
2∆
X
(b) dans l’espace de repr´esentation et de covariable
Figure 4.1 – exemple de partition d’un cas g´en´eral avec 3 classes et la covariable de
dimension 2
4.3 Solution avec un crit`ere local
Dans cette section, nous proposons une m´ethode bas´ee sur un crit`ere local. Ce
dernier peut ˆetre interpr´et´e comme une vraisemblances locale pond´er´ee en utilisant les
individus qui sont relativement proches dans l’espace de covariable et dans l’espace de
repr´esentation. Nous commen¸cons par d´ecrire ce crit`ere sur lequel la m´ethode introduite
est bas´ee. Puis, nous pr´esentons des ´etudes exp´erimentales.
4.3.1 Description du crit`ere local
Nous proposons pour chaque individulr,(r= 1, . . . , N) un crit`ere de vraisemblance
locale Lrk, (k = 1, . . . , K) calcul´e avec les param`etres estim´es ˆθk. lr est attribu´e `a la
classek siLrk est maximale parmi lesK valeurs. Afin de tenir compte de la covariable,
nous repr´esentons la proximit´e dans l’espaceY par un syst`eme de voisinage d´efini dans
la section 2.3.2. Il est `a noter qu’il existe deux approches principales pour d´efinir un
4.3. SOLUTION AVEC UN CRIT `ERE LOCAL 65
syst`eme de voisinage : l’approche de la fenˆetre et l’approche du graphe. La premi`ere
approche est utilis´ee dans ce cas. Cependant, au lieu d’utiliser une fenˆetre uniforme qui
effectue un filtrage simple, nous adoptons la fenˆetre gaussienne qui permet d’attribuer
un poidswri,(i= 1, . . . , N) `a chaque individuli quand la fenˆetre est centr´ee en individu
lr. La fonction du poids est d´ecrite comme suit :
wri =e−
12(y
i−y
r)Σ
−1(y
i−y
r)
Tr, i = 1, . . . , N (4.1)
o`u Σ = σ2I avec σ un param`etre choisi a priori qui repr´esente la dispersion de la
fenˆetre. Un exemple de telle fenˆetre est illustr´e dans la figure 4.2. Le poids wri peut
ˆetre interpr´et´e par la distance euclidienne entre les individus lr et li dans l’espace de
covariable. Donc, nous pouvons construire une matrice de poids Wy = [wri]N×N dont
chaque ligne r, (r= 1, . . . , N) repr´esente le cas o`u la fenˆetre gaussienne est centr´ee sur
l’individu lr. Cette matrice est sym´etrique avec tous les ´el´ements diagonaux ´egaux `a 1.
Figure 4.2 – exemple d’une fenˆetre gaussienne dans l’espace de covariable
Muni de la matriceWy, nous calculons pour chaque ligne r les p.d.f. pond´er´ees par
les poids wri. Selon la formulation du probl`eme dans la section3.2.2, une observation
est d´efinie comme un incr´ement de processus Gamma ∆xi qui suit une loi Gamma
caract´eris´ee par un vecteur de param`etres inconnu θk, (k = 1, . . . , K). Donc, les p.d.f.
pond´er´ees avec la fenˆetre centr´ee en lr peuvent ˆetre d´ecrites comme suit :
¯
fri,k =f(∆xi |θk)·wri (i= 1, . . . , N; k= 1, . . . , K) (4.2)
La valeur de ¯fri,k r´ev`ele d’une part, de la distance entre les individus li et lr dans
l’espace Y, et d’autre part, de la coh´erence de l’individuli d’ˆetre dans la classek. Dans
la figure 4.3 nous montrons la relation entre ¯fri,k et les deux facteurs f(∆xi | θk) et
wri. Dans la figure `a gauche avec la fenˆetre gaussienne, la coh´erence d’individu d’ˆetre
dans la classe k est plus grande si le carr´e est plus fonc´e.
Y
1Y
2fenêtre gaussienne
f( x
1|θ
k)>f( x
5|θ
k)>f( x
2|θ
k)>f( x
r|θ
k)>f( x
6|θ
k)>f( x
4|θ
k)>f( x
3|θ
k)
w
r r>w
r 1>w
r 2>w
r 3>w
r 4>w
r 5>w
r 6les p.d.f
les poids
les p.d.f pondérées
f
r1 k,>f
rr k,>f
r2 k,>f
r4 k,>f
r3 k,>f
r5 k,>f
r6 k,Figure 4.3 – p.d.f. pond´er´ee avec l’individu central lr
La vraisemblance locale pour la classeko`u la fenˆetre gaussienne est centr´ee enlr est
ensuite calcul´ee par le produit desnV plus grandes valeurs de ¯fri,k o`unV est le nombre
de voisins d´efini a priori. En pratique, il est ´equivalent et plus facile de calculer la log
vraisemblance Lrk qui est d´ecrite par la formule ci-apr`es :
Lrk =
n
VX
i=1
log ¯fri,k′ (4.3)
o`u les valeurs de ¯f′
ri,k correspondent aux valeurs de ¯fri,k ordonn´ees pour v´erifier la
relation :
¯
fri,k′ >f¯r′(i+1),k
Nous proposons ensuite une m´ethode de clustering bas´e sur ce crit`ere local.
4.3.2 M´ethode bas´ee sur le crit`ere local
La m´ethode bas´ee sur le crit`ere local peut se d´erouler en trois ´etapes comme suit :
1. D´efinir le param`etre σ qui repr´esente la dispersion de la fenˆetre gaussienne et
calculer la matrice du poids Wy = [wri]N×N. Choisir le param`etre nV qui d´efinit
le nombre de voisins d’un individu.
2. G´en´erer une partition initiale en appliquant la m´ethode classique du K-means dans
l’espace de repr´esentationX. Estimer les vecteurs de param`etres qui correspondent
`a la partition initiale.
3. Pour chaque individu lr, calculer les p.d.f. pond´er´ees de tous les individus selon
l’´equation 4.2. Trouver les nV plus grandes valeurs de ¯f′
ri,k et calculer la log
vrai-semblance locale selon l’´equation 4.3 pour chaque valeur de k. Attribuer lr `a la
4.3. SOLUTION AVEC UN CRIT `ERE LOCAL 67
classe kqui correspond `a la plus grande valeur de Lrk. R´ep´eter cette ´etape jusqu’`a
ce que les appartenances des individus soient stables.
Cette m´ethode est d´evelopp´ee en pseudo code dans l’Algorithme 2.
Algorithme 2 M´ethode bas´ee sur le crit`ere local
1: D´efinir la valeur de σ et nV.
2: Calculer Wy = [wri]N×N
3: Mettre s = 0 qui repr´esente le nombre initial d’it´eration.
4: G´en´erer une partition initiale Ps
K et calculer les vecteurs de param`etres initiaux
ˆ
Θs={θˆs
1, . . . ,θˆs
K}.
5: r´ep´eter
6: pour r= 1 `a N faire
7: Calculer les p.d.f. pond´er´ees avec lr situ´e au centre de la fenˆetre gaussienne :
¯
fri,ks =f(∆xi |θˆks)·wri pouri= 1, . . . , N; k = 1, . . . , K
8: ∀k, prendre les nV plus grandes valeurs de ¯fs
ri,k et les noter comme ¯f′s
ri,k.
9: Calculer la log vraisemblance locale Ls
rk =Pn
Vi=1log ¯f′
ri,k, pour k= 1, . . . , K.
10: fin pour
11: ∀r, attribuer lr `a la classeCk avec Ls
rk la plus grande valeur parmi lesK valeurs.
12: Mettre `a jours les vecteurs de param`etres ˆΘs+1 = {θˆs1+1, . . . ,θˆsK+1} et calculer
∆ ˆΘ =kΘˆs+1−Θˆsk.
13: s=s+ 1.
14: Θˆs = ˆΘs+1
15: jusqu’`a ∆ ˆΘ = 0
4.3.3 Etudes exp´´ erimentales
La m´ethode a ´et´e appliqu´ee sur l’exemple pr´esent´e dans la figure4.1. Nous pr´ecisons
queN = 200,K = 3 etq= 2 dans ce cas. De plus, l’espace de covariableY est suppos´e
ˆetre un carr´ed×davec d= 15. Les 3 classes sont s´epar´ees par deux fronti`eres d´ecrites
respectivement par : y2 =y1+ d(3−3√6) et y2 =d−y1. Cette d´efinition de la partition
donne une ´egalit´e de la probabilit´e a priori d’appartenance de chaque individu. Par
ailleurs, les param`etres th´eoriques avec la moyenne et la variance sont d´efinis comme
ci-apr`es :
θ1 =
(
m1 = 4
σ2
1 = 2 , θ2 =
(
m2 = 7
σ2
2 = 2 , θ3 =
(
m3 = 10
σ2
3 = 2 (4.4)
Diff´erentes valeurs pournV etσ ont ´et´e test´ees, et nous avons choisi empiriquement
0 5 10 15
0
5
10
15
Y
1Y
2(a)dans l’espace de covariable
0 5 10 15
0
5
10
15
0
2
4
6
8
10
12
14
Y
1Y
2∆
X
(b) dans l’espace de repr´esentation et de covariable
Figure 4.4 – solution de la partition sur l’exemple avec nV = 8 etσ = 0.4
La partition obtenue retrouve bien celle th´eorique montr´ee dans la figure 4.1. Nous
avons calcul´e aussi le taux d’individus mal class´es qui est ´egale `a 0.02.
Une analyse de la dissimilarit´e entre classes th´eoriques a ´et´e effectu´ee. La
dissimila-rit´e peut ˆetre caract´eris´ee par la valeur de ∆m qui repr´esente la diff´erence des valeurs
moyennes entre deux classes. Nous avons choisi alors ∆m= 1,1.5,2,2.5,3. Pr´ecis´ement,
nous avons d´efini mk = 4 + (k−1)∆m et σ2
k = 2. Pour chaque cas de dissimilarit´e,
nous avons g´en´er´e 200 exp´eriences suivant la mˆeme partition th´eorique illustr´ee `a la
figure4.1. Les valeurs moyennes des param`etres ont ´et´e estim´ees pour les 200 r´esultats
obtenus. La figure 4.5 illustre le taux d’individus mal class´es selon diff´erentes valeurs
de ∆m, et le tableau4.1 montre les param`etres estim´es. ˆE{m¯}et ˆσ{m¯}(resp. ˆE{¯σ2}et
ˆ
σ{¯σ2}) repr´esentent l’esp´erance et l’´ecart-type des valeurs moyennes (resp. variances)
de 200 exp´eriences th´eoriques. ˆE{mˆ} et ˆσ{mˆ} (resp. ˆE{ˆσ2} et ˆσ{ˆσ2}) repr´esentent
l’esp´erance et l’´ecart-type des moyennes (resp. variances) de 200 partitions obtenues
avec la m´ethode propos´ee.
La figure4.5 montre que le taux d’erreur diminue avec la croissance de la
dissimi-larit´e. Dans le tableau 4.1, les estimations des param`etres (ˆE{mˆ} et ˆE{ˆσ2}) se
rap-prochent des valeurs th´eoriques quand la dissimilarit´e passe de ∆m = 1 `a ∆m = 1.5.
Mais les estimations deviennent de moins en moins satisfaisantes avec ∆m > 1.5. En
effet, les estimations des param`etres d´ependent non seulement du nombre d’individus
mal class´es, mais aussi de l’importance de ces individus. Concr`etement, un individu
mal class´e dans un cas o`u les classes sont bien s´epar´ees est plus important que dans un
cas o`u les classes sont moins s´eparables. Dans cette ´etude, le taux d’erreur atteint le
minimum avec ∆m= 3, mais les individus mal class´es dans ce cas influencent beaucoup
sur les estimations des param`etres.
Dans le document
Détermination de classes de modalités de dégradation significatives pour le pronostic et la maintenance
(Page 78-83)