• Aucun résultat trouvé

Processus de description de la texture

Algorithme 1 Algorithme ReliefF Entrées :

• N : vecteurs descripteurs ; • Ω : (X1, . . . , XN) ; • C : classe d’appartenance ; • M : nombre de données ;

• m : nombre d’itérations imposé par l’utilisateur.

1. ωi ← 0, ∀i ∈ {1, . . . , N} // Initialiser les poids

2. pourj = 1 à m avec m < M faire

3. Tirer aléatoirement une donnéeDj

4. Trouver lesK plus proches voisins de Dj appartenant à la même classe(hits)

5. Dans chaque classec6= classe(Dj), trouver les K plus proches voisins de Dj appartenant à

des classes différentes(misskc)

6. Pouri← 1 à N faire // Mettre à jour les poids

7. ωi ← ωi− K P k=1 dif f(Dj,Xi,hitsk) mK + P c6=classe(Dj) P(c) 1−P (classe(Dj)) K P k=1 dif f(Dj,Xi,messck) mK 8. fin pour 9. fin pour 10.

dit, il est d’autant plus grand que les données issues de la même classe ont des valeurs proches et que les données issues de classes différentes sont bien séparées. Les scores attribués aux différents paramètres permet de les ordonner et donc sélectionner le meilleur sous-ensemble. Cet algorithme est rapide, sa complexité est O(m.N.M).

3.4.4 Algorithme Fisher

L’algorithme Fisher repose sur l’analyse discriminante linéaire de Fisher (AFD) [88]. De façon gé- nérale, un problème de discrimination linéaire, à deux classes, revient à séparer l’espace des données en deux espaces grâce à un hyperplan. Choisir la classe (à valeur dans -1 et 1) d’une donnée consiste alors à déterminer de quel côté de l’hyperplan elle se situe, ce qui se traduit par la formule suivante :

g(Dj) = sign(ω.Dj + b) (3.48)

oùDj ∈ ℜN, j = 1 . . . M, ω ∈ ℜN.b est un biais d’estimation et g(Dj) la classe prédite pour la donné

Dj.

L’objectif de l’AFD est de trouver la droite sur laquelle les données projettées sont mieux séparées. Cela dit, celle qui maximise le rapport des variances inter et intra classes des projections. Lorsque l’on fait l’hypothèse que les attributs sont non corrélés et suivent sur chaque classe(+,−) une distribution

gaussienneN (µ+, σ+) et µ−, σ−, l’AFD permet de distinguer les deux classes en mesurant le chevau- chement de leurs fonctions de densité de probabilité. Ainsi, les scores des attributs seront estimés par :

ωi =

(µ+i − µi ) (σi+)2+ (σ

i )2

Le formule peut être étendue au cas multi-classe en considérant qu’il s’agit d’un ensemble de pro- blèmes à deux classes du type un contre tous (one-all).

3.4.5 Algorithmes génétiques

Les algorithmes génétiques, proposés par Holland [123], sont des algorithmes d’optimisation s’ap- puyant sur des techniques dérivées de la génétique et de l’évolution naturelle : croisements, mutations, sélection, etc. Actuellement, ces algorithmes sont utilisés pour la sélection et l’extraction des para- mètres [229, 325, 243]. La figure 3.16 illustre le principe du fonctionnement des algorithmes génétiques. L’opération consiste à sélectionner aléatoirement un sous-ensemble de paramètres, calculer sa fonction de fitness en l’injectant dans un classifieur. L’ensemble ayant le plus grand taux de classification est sélectionné.

Une utilisation directe des algorithmes génétiques pour la sélection des paramètres est faite par Sied- lecki et Sklanski [270]. Ils ont utilisé les algorithmes génétiques pour chercher un vecteur binaire optimal où chaque bit est associé à un paramètre. Si leiebit de ce vecteur est égal à 1, alors leieparamètre est

utilisé dans la classification; sinon si ce bit est égal à 0, alors le paramètre correspondant est éliminé de la classification. Ensuite, chaque sous-ensemble obtenu est évalué selon le taux de classification estimé par le classifieur.

Par analogie, dans ce travail, nous utilisons les algorithmes génétiques pour la sélection des para- mètres les plus pertinents en terme de classification des textures. Dans ce cas, chaque paramètre est associé à un gène du chromosome de représentation; un chromosome est un vecteur de bit de longueur égale au nombre de paramètres; un nombre de chromosomes constitue une population. Ainsi, une valeur nulle du gène signifie que le paramètre associé ne fera pas partie des paramètres utilisés dans l’étape de classification comme illustré par la figure 3.17.

L’objectif ici est de sélectionner le chromosome ou le sous-ensemble de paramètres le plus pertinent de taille minimal tout en gardant un bon taux de classification. L’évaluation d’une population et donc un sous-ensemble de paramètres est effectuée suivant une fonction de qualité dite fonction d’adaptation ou

fitness. Cette fonction est objective, dépendant de l’application envisagée qu’il faudra la maximiser ou

minimiser. Dans notre cas, la fonction fitness dépend du taux de classification à maximiser, par la suite, nous avons choisi le modèle suivant comme fonction d’évaluation :

fitnessp= (τp+ fp0)× 102 (3.50)

oùτpest le taux de classification trouvé pour un chromosome de taillep paramètres et fp0est la fréquence

des paramètres nuls non utilisés lors de la classification. Si le taux de classification atteint des valeurs maximales, cela implique que le nombre des paramètres nuls est faible et par la suite la valeur de fitnessp

est grande. Dans le cas inverse, s’il s’agit d’une mauvaise classification (taux faible), c’est-à-dire que les paramètres utilisés pour la classification sont insuffisants augmentant ainsi le nombre des paramètres nuls dans le chromosome et par la suite, la valeur de la fitnessp s’incrémente avec la fréquencefp0.

Ensuite, on réitère cette évaluation avec la nouvelle population créée à partir de trois opérations essentielles : sélection, croisement et mutation (cf. figure 3.18).

Sélection La première étape d’une recherche par AG consiste à sélectionner une sous-population (nombre de chromosomes) à partir de la population parent. La probabilité qu’un chromosome fera partie de la nouvelle population est directement liée à son efficacité au sein de la population. Il existe plusieurs mé- thodes de reproduction de population. La méthode la plus courante est celle initiée par Holland [123] : la roulette de loterie biaisée (roulette wheel selection). Cette méthode de sélection est proportionnelle

Figure 3.16 – Sélection des paramètres par les AGs [143]

Figure 3.18 – Les trois opérations de base dans les GA : (a) sélection, (b) croisement et (c) mutation

au niveau de fitness des chromosomes. Le nombre de fois qu’un chromosome sera sélectionné est égal à sa fitness divisé par la moyenne du fitness de la population totale (plus exactement, la partie entière représente le nombre de fois qu’il sera sélectionné, et la partie flottante la probabilité qu’il aura d’être sélectionné à nouveau ). Cette fonction est déterminante dans un algorithme génétique. De nombreuses autres méthodes de sélection, bien plus complexes sont disponibles : le sigma (scaling), la sélection à la Boltzman, la sélection par rang, la sélection par tournois, etc.

Croisement L’opération de croisement (cross-over) est un moyen majeur qui permet la création de nouveaux individus à partir des anciens. Le croisement consiste dans un premier temps à tirer aléatoire- ment des chromosomes deux à deux. Ensuite, choisir aléatoirement le point de croisement (locus) (chiffre entre 1 etp-1 où p est la taille du chromosome). Dans la figure 3.18(b), le point de croisement est 4. Puis,

échanger autour de ce point les gènes des deux chromosomes parents pour obtenir deux nouveaux chro- mosomes enfants. C’est le principe du single-point cross-over. Dans un cadre général, l’échange peut s’effectuer suivant une probabilitépcross.

Mutation L’opération de mutation est d’importance secondaire, mais permet d’éviter une convergence prématurée vers un maximum local en maintenant une diversité de solution. Pour l’appliquer, choisir au hasard un bit du chromosome et modifier sa valeur. La mutation ne doit pas être appliquée systémati- quement, mais en fonction d’une probabilitépmut, paramètre de la simulation. Dans le cas du codage

binaire, chaque bit est remplacé par son inverse (cf. figure 3.18 (c)). Généralement, les probabilités de l’ordre de0, 01 à 0, 03 sont choisies.

Les méthodes de sélection présentées dans cette partie ont pour but de trouver le meilleur sous- ensemble de paramètres de texture à partir des matrices de co-occurrences et les paramètres de Tamura. La pertinence de cet ensemble est évaluée en fonction des taux de classification et de discrimination des textures.

3.4.6 Nos propositions

Les différentes techniques que nous avons présenté en haut pour la réduction de la dimension de l’espace de représentation des attributs de texture et la sélection des plus pertinents sont des techniques utilisées dans le cas supervisé où nous disposons a priori de l’information sur les classes d’appartenance des images. Or, cette information n’est pas toujours disponible notamment dans le cas des bases géné- ralistes provenantes de diverses sources, ce qui est le cas de notre cadre de travail puisque les bases de textures utilisées n’appartiennent pas à un domaine spécifique mais proviennent de différentes sources (architecture, nature, art, etc).

Algorithme 2 Algorithme génétique canonique (AGC)