• Aucun résultat trouvé

6

8

10

12

14

Y

1

Y

2

X

(b) dans l’espace de repr´esentation et de covariable

Figure 4.1 – exemple de partition d’un cas g´en´eral avec 3 classes et la covariable de

dimension 2

4.3 Solution avec un crit`ere local

Dans cette section, nous proposons une m´ethode bas´ee sur un crit`ere local. Ce

dernier peut ˆetre interpr´et´e comme une vraisemblances locale pond´er´ee en utilisant les

individus qui sont relativement proches dans l’espace de covariable et dans l’espace de

repr´esentation. Nous commen¸cons par d´ecrire ce crit`ere sur lequel la m´ethode introduite

est bas´ee. Puis, nous pr´esentons des ´etudes exp´erimentales.

4.3.1 Description du crit`ere local

Nous proposons pour chaque individulr,(r= 1, . . . , N) un crit`ere de vraisemblance

locale Lrk, (k = 1, . . . , K) calcul´e avec les param`etres estim´es ˆθk. lr est attribu´e `a la

classek siLrk est maximale parmi lesK valeurs. Afin de tenir compte de la covariable,

nous repr´esentons la proximit´e dans l’espaceY par un syst`eme de voisinage d´efini dans

la section 2.3.2. Il est `a noter qu’il existe deux approches principales pour d´efinir un

4.3. SOLUTION AVEC UN CRIT `ERE LOCAL 65

syst`eme de voisinage : l’approche de la fenˆetre et l’approche du graphe. La premi`ere

approche est utilis´ee dans ce cas. Cependant, au lieu d’utiliser une fenˆetre uniforme qui

effectue un filtrage simple, nous adoptons la fenˆetre gaussienne qui permet d’attribuer

un poidswri,(i= 1, . . . , N) `a chaque individuli quand la fenˆetre est centr´ee en individu

lr. La fonction du poids est d´ecrite comme suit :

wri =e

12

(y

i

−y

r

−1

(y

i

−y

r

)

T

r, i = 1, . . . , N (4.1)

o`u Σ = σ2I avec σ un param`etre choisi a priori qui repr´esente la dispersion de la

fenˆetre. Un exemple de telle fenˆetre est illustr´e dans la figure 4.2. Le poids wri peut

ˆetre interpr´et´e par la distance euclidienne entre les individus lr et li dans l’espace de

covariable. Donc, nous pouvons construire une matrice de poids Wy = [wri]N×N dont

chaque ligne r, (r= 1, . . . , N) repr´esente le cas o`u la fenˆetre gaussienne est centr´ee sur

l’individu lr. Cette matrice est sym´etrique avec tous les ´el´ements diagonaux ´egaux `a 1.

Figure 4.2 – exemple d’une fenˆetre gaussienne dans l’espace de covariable

Muni de la matriceWy, nous calculons pour chaque ligne r les p.d.f. pond´er´ees par

les poids wri. Selon la formulation du probl`eme dans la section3.2.2, une observation

est d´efinie comme un incr´ement de processus Gamma ∆xi qui suit une loi Gamma

caract´eris´ee par un vecteur de param`etres inconnu θk, (k = 1, . . . , K). Donc, les p.d.f.

pond´er´ees avec la fenˆetre centr´ee en lr peuvent ˆetre d´ecrites comme suit :

¯

fri,k =f(∆xi |θk)·wri (i= 1, . . . , N; k= 1, . . . , K) (4.2)

La valeur de ¯fri,k r´ev`ele d’une part, de la distance entre les individus li et lr dans

l’espace Y, et d’autre part, de la coh´erence de l’individuli d’ˆetre dans la classek. Dans

la figure 4.3 nous montrons la relation entre ¯fri,k et les deux facteurs f(∆xi | θk) et

wri. Dans la figure `a gauche avec la fenˆetre gaussienne, la coh´erence d’individu d’ˆetre

dans la classe k est plus grande si le carr´e est plus fonc´e.

Y

1

Y

2

fenêtre gaussienne

f( x

1

k

)>f( x

5

k

)>f( x

2

k

)>f( x

r

k

)>f( x

6

k

)>f( x

4

k

)>f( x

3

k

)

w

r r

>w

r 1

>w

r 2

>w

r 3

>w

r 4

>w

r 5

>w

r 6

les p.d.f

les poids

les p.d.f pondérées

f

r1 k,

>f

rr k,

>f

r2 k,

>f

r4 k,

>f

r3 k,

>f

r5 k,

>f

r6 k,

Figure 4.3 – p.d.f. pond´er´ee avec l’individu central lr

La vraisemblance locale pour la classeko`u la fenˆetre gaussienne est centr´ee enlr est

ensuite calcul´ee par le produit desnV plus grandes valeurs de ¯fri,k o`unV est le nombre

de voisins d´efini a priori. En pratique, il est ´equivalent et plus facile de calculer la log

vraisemblance Lrk qui est d´ecrite par la formule ci-apr`es :

Lrk =

n

V

X

i=1

log ¯fri,k (4.3)

o`u les valeurs de ¯f′

ri,k correspondent aux valeurs de ¯fri,k ordonn´ees pour v´erifier la

relation :

¯

fri,k >f¯r(i+1),k

Nous proposons ensuite une m´ethode de clustering bas´e sur ce crit`ere local.

4.3.2 M´ethode bas´ee sur le crit`ere local

La m´ethode bas´ee sur le crit`ere local peut se d´erouler en trois ´etapes comme suit :

1. D´efinir le param`etre σ qui repr´esente la dispersion de la fenˆetre gaussienne et

calculer la matrice du poids Wy = [wri]N×N. Choisir le param`etre nV qui d´efinit

le nombre de voisins d’un individu.

2. G´en´erer une partition initiale en appliquant la m´ethode classique du K-means dans

l’espace de repr´esentationX. Estimer les vecteurs de param`etres qui correspondent

`a la partition initiale.

3. Pour chaque individu lr, calculer les p.d.f. pond´er´ees de tous les individus selon

l’´equation 4.2. Trouver les nV plus grandes valeurs de ¯f′

ri,k et calculer la log

vrai-semblance locale selon l’´equation 4.3 pour chaque valeur de k. Attribuer lr `a la

4.3. SOLUTION AVEC UN CRIT `ERE LOCAL 67

classe kqui correspond `a la plus grande valeur de Lrk. R´ep´eter cette ´etape jusqu’`a

ce que les appartenances des individus soient stables.

Cette m´ethode est d´evelopp´ee en pseudo code dans l’Algorithme 2.

Algorithme 2 M´ethode bas´ee sur le crit`ere local

1: D´efinir la valeur de σ et nV.

2: Calculer Wy = [wri]N×N

3: Mettre s = 0 qui repr´esente le nombre initial d’it´eration.

4: G´en´erer une partition initiale Ps

K et calculer les vecteurs de param`etres initiaux

ˆ

Θs={θˆs

1, . . . ,θˆs

K}.

5: r´ep´eter

6: pour r= 1 `a N faire

7: Calculer les p.d.f. pond´er´ees avec lr situ´e au centre de la fenˆetre gaussienne :

¯

fri,ks =f(∆xi |θˆks)·wri pouri= 1, . . . , N; k = 1, . . . , K

8: ∀k, prendre les nV plus grandes valeurs de ¯fs

ri,k et les noter comme ¯f′s

ri,k.

9: Calculer la log vraisemblance locale Ls

rk =Pn

V

i=1log ¯f′

ri,k, pour k= 1, . . . , K.

10: fin pour

11: ∀r, attribuer lr `a la classeCk avec Ls

rk la plus grande valeur parmi lesK valeurs.

12: Mettre `a jours les vecteurs de param`etres ˆΘs+1 = {θˆs1+1, . . . ,θˆsK+1} et calculer

∆ ˆΘ =kΘˆs+1−Θˆsk.

13: s=s+ 1.

14: Θˆs = ˆΘs+1

15: jusqu’`a ∆ ˆΘ = 0

4.3.3 Etudes exp´´ erimentales

La m´ethode a ´et´e appliqu´ee sur l’exemple pr´esent´e dans la figure4.1. Nous pr´ecisons

queN = 200,K = 3 etq= 2 dans ce cas. De plus, l’espace de covariableY est suppos´e

ˆetre un carr´ed×davec d= 15. Les 3 classes sont s´epar´ees par deux fronti`eres d´ecrites

respectivement par : y2 =y1+ d(336) et y2 =d−y1. Cette d´efinition de la partition

donne une ´egalit´e de la probabilit´e a priori d’appartenance de chaque individu. Par

ailleurs, les param`etres th´eoriques avec la moyenne et la variance sont d´efinis comme

ci-apr`es :

θ1 =

(

m1 = 4

σ2

1 = 2 , θ2 =

(

m2 = 7

σ2

2 = 2 , θ3 =

(

m3 = 10

σ2

3 = 2 (4.4)

Diff´erentes valeurs pournV etσ ont ´et´e test´ees, et nous avons choisi empiriquement

0 5 10 15

0

5

10

15

Y

1

Y

2

(a)dans l’espace de covariable

0 5 10 15

0

5

10

15

0

2

4

6

8

10

12

14

Y

1

Y

2

X

(b) dans l’espace de repr´esentation et de covariable

Figure 4.4 – solution de la partition sur l’exemple avec nV = 8 etσ = 0.4

La partition obtenue retrouve bien celle th´eorique montr´ee dans la figure 4.1. Nous

avons calcul´e aussi le taux d’individus mal class´es qui est ´egale `a 0.02.

Une analyse de la dissimilarit´e entre classes th´eoriques a ´et´e effectu´ee. La

dissimila-rit´e peut ˆetre caract´eris´ee par la valeur de ∆m qui repr´esente la diff´erence des valeurs

moyennes entre deux classes. Nous avons choisi alors ∆m= 1,1.5,2,2.5,3. Pr´ecis´ement,

nous avons d´efini mk = 4 + (k−1)∆m et σ2

k = 2. Pour chaque cas de dissimilarit´e,

nous avons g´en´er´e 200 exp´eriences suivant la mˆeme partition th´eorique illustr´ee `a la

figure4.1. Les valeurs moyennes des param`etres ont ´et´e estim´ees pour les 200 r´esultats

obtenus. La figure 4.5 illustre le taux d’individus mal class´es selon diff´erentes valeurs

de ∆m, et le tableau4.1 montre les param`etres estim´es. ˆE{m¯}et ˆσ{m¯}(resp. ˆE{¯σ2}et

ˆ

σ{¯σ2}) repr´esentent l’esp´erance et l’´ecart-type des valeurs moyennes (resp. variances)

de 200 exp´eriences th´eoriques. ˆE{mˆ} et ˆσ{mˆ} (resp. ˆE{ˆσ2} et ˆσ{ˆσ2}) repr´esentent

l’esp´erance et l’´ecart-type des moyennes (resp. variances) de 200 partitions obtenues

avec la m´ethode propos´ee.

La figure4.5 montre que le taux d’erreur diminue avec la croissance de la

dissimi-larit´e. Dans le tableau 4.1, les estimations des param`etres (ˆE{mˆ} et ˆE{ˆσ2}) se

rap-prochent des valeurs th´eoriques quand la dissimilarit´e passe de ∆m = 1 `a ∆m = 1.5.

Mais les estimations deviennent de moins en moins satisfaisantes avec ∆m > 1.5. En

effet, les estimations des param`etres d´ependent non seulement du nombre d’individus

mal class´es, mais aussi de l’importance de ces individus. Concr`etement, un individu

mal class´e dans un cas o`u les classes sont bien s´epar´ees est plus important que dans un

cas o`u les classes sont moins s´eparables. Dans cette ´etude, le taux d’erreur atteint le

minimum avec ∆m= 3, mais les individus mal class´es dans ce cas influencent beaucoup

sur les estimations des param`etres.