• Aucun résultat trouvé

Classification des traits

Segmentation de textures de lettrines

3.6 Classification des traits

Maintenant que nous avons extrait des caract´eristiques des traits, chaque trait est repr´esent´e par un vecteur de trois caract´eristiques : l’´epaisseur, l’orientation et la courbure. Nous pouvons r´e-exploiter des m´ethodes de classification pour classer ces traits. Par exemple, nous pouvons utiliser la m´ethode k-means (voir 2.3.2). Cepen-dant, cette m´ethode ne segmente pas bien les traits, parce que nous devons pr´eciser le nombre de classes de traits par avance et ce n’est pas convenable pour notre cas.

Pour bien segmenter des traits, il faut que nous am´eliorons des m´ethodes de ce type ou chercher d’autres m´ethodes qui peuvent s’adapter convenablement pour la seg-mentation de traits.

Pour ce sujet de stage, nous utilisons la m´ethode classification hi´erarchique pour

3.6. Classification des traits

sans connaˆıtre le nombre de classe pr´ealablement.

3.6.1 Distance

Pour classifier des traits, nous devons d´efinir d’abord une distance entre deux vecteurs de caract´eristiques de trait, qui exprime la similarit´e ou la diff´erence entre deux traits. Une bonne distance doit bien repr´esenter ces notions, c’est `a dire que la distance entre deux traits diff´erents est plus grande que celle entre deux traits similaires.

Nous avons trois caract´eristiques pour chaque vecteur, l’´epaisseur est toujours importance pour la diff´erenciation tandis que l’importance de deux autres caract´ e-ristiques est vari´ee. L’orientation et la courbure deviennent moins importantes si les traits `a comparer sont trop court.

Nous essayons d’utiliser la distance connue euclidienne pour les traits, avec deux traits et leurs caract´eristiques (l’´epaisseur, l’orientation et la courbure, tour `a tour) : t1 = (e1, o1, c1), t2 = (e2, o2, c2), cette distance est d´efinie par la formule 3.7.

d=p

(e1−e2)2+ (o1−o2)2+ (c1−c2)2 (3.7) Cependant, cette distance accorde la mˆeme importance aux trois caract´eristiques.

En raison de cela, nous utilisons des poids diff´erents pour exprimer l’importance des caract´eristiques dans la distance, une caract´eristique est un ´el´ement important de la distance si le poids ´equivalent est grand. Dans ce cas, nous assignons un grand poids `a l’´epaisseur et des petits poids pour les deux autres caract´eristiques. Ici, nous fixons le poids de l’´epaisseur `a 1 (pe = 1), les autres poids varient en fonction des segments (0,1) (po, pc∈(0,1)) :

d=p

(e1−e2)2+po(o1−o2)2+pc(c1−c2)2 (3.8) De plus, l’importance de ces caract´eristiques varie en fonction de la longueur du trait. Il faut donc que nous d´efinissions les poids en fonction de la longueur du trait. En fait, pour la vision humaine, les caract´eristiques ”long” et ”court” d’un trait d´ependent `a la fois de la longueur et de l’´epaisseur. Nous pensons que deux traits de mˆeme longueur paraitront diff´erents si leurs ´epaisseurs sont diff´erentes (la figure 3.16). C’est pour cela que nous avons d´efini une longueur relative du trait (la formule 3.9).

lrelative = l

2∗e (3.9)

Avec l soit la longueur r´eelle (par pixel) du squelette du trait et e la moiti´e de l’´epaisseur r´eelle du trait (e est la l’´epaisseur extraite du squelette, voir la figure 3.17).

Maintenant, nous pr´ecisons une r`egle pour les poids en fonction de cette longueur relative :

1. po =pc= 1 silrelative ≥2,

2. po =pc=lrelative−1 si 1≤lrelative<2

(a) (b)

Fig. 3.16 – La vision humaine sur la longueur

Fig. 3.17 – La longueur relative du trait

3.6. Classification des traits

3.6.2 Construction d’arbre de grappes

Pour classifier des traits par la m´ethode hi´erarchique, nous devons d’abord construire l’arbre de grappes des traits, c’est l’´etape principale de la classification.

Dans cette construction, quand nous avons plus d’une grappe, nous groupons les deux grappes les plus proches au sein d’une mˆeme grappe (la figure 3.18). Pour reconnaˆıtre deux grappes plus proches, nous appliquons la distance d´efinie pr´ec´ edem-ment. La distance entre deux grappes (la distance de fusion) est la distance entre deux traits plus proches qui appartiennent `a deux grappes diff´erentes. Au d´ebut, nous consid´erons que chaque trait est une grappe.

Fig.3.18 – La construction d’arbre

A la fin de cette construction, nous avons un arbre binaire qui nous permet` de classifier facilement les traits avec le nombre de classe pr´ecis´e ou l’inconsistance maximum d’un sous-arbre (la section 3.6.3).

3.6.3 Inconsistance

L’inconsistance d’un sous-arbre est un crit`ere pour d´ecider de la conservation ou de la fusion de deux sous-arbres. Avec un seuil d’inconsistance pr´ecis´e par avant, nous conservons un sous-arbre si son inconsistance est inf´erieure `a ce seuil, par contre, nous le coupons sinon.

Le calcul de l’inconsistance nous demande de tracer tout le sous-arbre, cepen-dant, pour simplifier la m´ethode et am´eliorer la performance de l’algorithme, nous utilisons seulement trois distances de fusion, un de ce sous-arbre (d1), deux autres de deux de ses sous-arbres imm´ediats (d2 etd3) (la figure 3.19). L’inconsistance est calcul´ee par la formule 3.10.

I = d1−d¯

σ (3.10)

Fig. 3.19 – Les distances de groupage Avec ¯d=

P3 i=1di

3 (la moyenne) etσ = qP3

i=1d2i

3 −( ¯d)2 (l’´ecart type).

En fait, ce calcul compare la distance d’interclasse (d1) et les distances des in-traclasses (d2, d3). Quand I augmente, c’est `a dire que d1 est loin de d2 et d3, l’appropriation de grouper les deux sous-grappes diminue.

En outre, nous pouvons ´egalement utiliser des autres crit`eres pour faire la clas-sification avec l’arbre des grappes. Par exemple, nous pouvons utiliser la profondeur de l’arbre ou le nombre de classes pour classifier. Cependant, l’utilisation ces crit`eres est moine int´eressante pour les images de lettrines.

Documents relatifs