• Aucun résultat trouvé

Ayant justifi´e th´eoriquement que la fusion de classifieurs dans le cadre de la

DST est la meilleure solution pour fiabiliser un syst`eme de reconnaissance, nous

d´etaillons dans cette section les diff´erentes ´etapes n´ecessaires `a sa mise en œuvre.

Dans un premier temps, il est n´ecessaire de d´efinir le cadre de discernement. Dans

ce cas, le nombre d’hypoth`eses doit ˆetre assez limit´e car l’ensemble de toutes les

combinaisons possibles des d´ecisions croˆıt exponentiellement avec celle deD. Bien

que l’exigence de temps r´eel soit fortement recommand´ee pour notre syst`eme,

cela ne constitue pas un handicap car nous traitons seulement trois types d’OR :

(Pi´eton, Voiture et Fond). Ce sont donc ces trois classes qui vont d´efinir le cadre

4.3 Fusion de classifieurs dans le cadre de la DST 123

de discernement. Ayant fix´e le cadre de discernementD, l’´etape suivante consiste

`

a construire des fonctions de masse sp´ecifiques aux sorties des classifieurs.

4.3.1 Construction des fonctions de masse

Les fonctions de masses doivent ˆetre construites `a partir des scores de

classi-fication fournis par des SVM. En effet, elles permettent de transformer la valeur

de pertinence de la classification en une valeur dans [0,1]. Cette ´etape n´ecessite

une bonne connaissance du probl`eme, puisque les fonctions de masse sont souvent

constitu´ees de mani`ere empirique. Dans [BAC06], les auteurs d´efinissent une

fonc-tion de masse typique au principe de classificafonc-tion SVM en exploitant la distance

d’un vecteur caract´eristique `a l’hyperplan. N´eanmoins, la certitude de

classifica-tion ne peut pas ˆetre quantifi´ee par des algorithmes de classification non bas´es

sur la notion de maximisation de la marge. Dans le cas g´en´eral, deux ´etapes sont

requises : l’estimation des probabilit´es `a partir des sorties de classifieurs SVM,

ensuite, la construction des fonctions de masse `a partir des probabilit´es.

4.3.1.1 Transformation des sorties SVM en probabilit´e

Afin de transformer les sorties de SVM en probabilit´e, nous avons utilis´e la m´

e-thode de [HT98] qui est bas´ee sur une strat´egie appel´ee Pairwise Coupling. Cette

strat´egie permet de combiner les sorties des classifieurs binaires, afin d’obtenir une

estimation des probabilit´es a post´eriori p

i

=P rob(d

i

/x) (Prob : probabilit´e) .

Soit C

i,j

le classifieur s´eparant les deux classes d

i

et d

j

et r

ij

la probabilit´e r´

e-sultante du classifieur C

i,j

tel que r

ij

= P rob(d

i

/d

i

, d

j

). Il existe |D|(|D| −1)/2

de variables µ

ij

d´efinies par u

ij

= p

i

/(p

i

+p

j

). La valeur de p

i

est calcul´ee en

utilisant une proc´edure it´erative dont la condition d’arrˆet est d’avoir une distance

tr`es faible entre r

ij

etµ

ij

. Cette distancel(p) est mesur´ee de la fa¸con suivante :

l(p) =X

i<j

n

ij

(r

ij

log r

ij

µ

ij

+ (1−r

ij

) log 1r

ij

1−µ

ij

) (4.7)

Avecn

ij

est le nombre d’exemples d’apprentissage qui appartiennent `ad

i

∪d

j

.

Enfin, nous avons utilis´e l’algorithme it´eratif 3, comme d´ecrit dans [HT98], pour

estimer p

i

.

Algorithme 3Estimation des probabilit´es a posteriori

1:

Initialisation dep

i

et calcul deµ

ij 2:

R´ep´eter

3:

p

i

←p

i P j6=inijrij P j6=inijµij 4:

Re-normaliser p

i 5:

Recalculerµ

ij

6:

Jusqu’`aconvergence (l(p) tr`es faible)

4.3.1.2 Transformation des probabilit´es r´esultantes en fonctions de

masse

Plusieurs m´ethodes de construction de mod`eles de fonctions de croyance ont

´et´e propos´ees dont deux cat´egories peuvent ˆetre ici distingu´ees. Une premi`ere cat´

e-gorie de m´ethodes utilise des vraisemblances, estim´ees `a partir d’un ensemble

d’ap-prentissage, pour construire les masses de croyances [App91, Sme93, DPS01]. Une

deuxi`eme famille repose sur les distances entre observations et mod`eles [Den95].

Dans notre cas, nous nous int´eressons `a leurs d´efinitions `a partir d’un ensemble

de vraisemblances. Plus particuli`erement, nous avons adopt´e la m´ethodologie

pro-pos´ee par [DPS01] pour transformer les probabilit´es r´esultantes en fonctions de

masse. Le principe de cette m´ethode consiste `a interpr´eter les probabilit´es r´

esul-tantes comme une distribution de probabilit´es subjectives qui sera ensuite

conver-tie en une transformation consonante

1

.

Par souci de simplicit´e de notations, nous supposons que les d´ecisions de

classifieurs d

i

sont d´ej`a ordonn´ees par des valeurs de probabilit´e d´ecroissantes :

p(d

1

)≥. . .≥p(d

|D|

). Une fonction de croyance consonantemcorrespondante `ap

se calcule de la fa¸con suivante :

m d

1

, d

2

, . . . , d

|D|

=m(D) = |D| ×p(d

|D|

) (4.8)

∀i <|D|, m({d

1

, d

2

, . . . , d

i

}) = i×[p(d

i

)−p(d

i+1

)]

m(.) = 0 sinon

Les fonctions de masses obtenues sont par la suite affaiblies en fonction de la

fiabilit´e de chaque classifieur.

1. Une fonction de masse est dite consonante si et seulement si l’inclusion est une relation d’ordre totale sur ses ´el´ements focaux : il∃une permutation sur les indices telle que :Dperm(1)⊆ Dperm(2)⊆Dperm(n))

4.3 Fusion de classifieurs dans le cadre de la DST 125

4.3.2 Affaiblissement

Apr`es avoir d´efini formellement, dans la section 4.2.3, la notion

d’affaiblisse-ment, nous d´ecrivons l’application de ce processus dans notre syst`eme.

L’affaiblis-sement simple a ´et´e impl´ement´e afin de tenir compte de la fiabilit´e du classifieur.

Ainsi, chaque massema ´et´e pond´er´ee par un coefficient d’affaiblissement (1−α),

avec α d´esignant le taux de reconnaissance du classifieur estim´e sur un ensemble

de validation.

Cette op´eration de correction agit de la mˆeme fa¸con pour toutes les hypoth`eses

issues de la mˆeme source. Dans le but d’attribuer une fiabilit´e sp´ecifique `a chaque

hypoth`ese du cadre de discernement, nous avons impl´ement´e aussi le processus

d’affaiblissement contextuel. En effet, ce processus pourrait ˆetre tr`es b´en´efique

dans notre syst`eme de reconnaissance qui est bas´e sur la fusion des modalit´es VIS

et IR. Deux exemples `a donner ; La reconnaissance des pi´etons est plus fiable dans

les images IR dans la mesure o`u il est tr`es contrast´e par rapport au fond de l’image.

En revanche, la reconnaissance des v´ehicules, surtout en mouvement, est plus

fa-cile en VIS qu’en IR. Ainsi, nous avons d´efini autant de facteurs d’affaiblissement

contextuels que de nombre de classes dans le cadre de discernement.

Pour les deux types d’affaiblissement, les fiabilit´es ont ´et´e estim´ees `a partir de la

matrice de confusion en s’appuyant sur une base de validation.

4.3.3 Combinaison

La combinaison des fonctions de masse est une ´etape cruciale qui joue un rˆole

primordial dans l’obtention de bons r´esultats. Dans l’ensemble des r`egles pr´esent´ees

dans la section 4.2.4, nous repr´esenterons dans le tableau 4.1 les quatre r`egles de

combinaison consid´er´ees et leurs contextes d’utilisation.

Table 4.1. Les r`egles de combinaisons retenues et leurs contextes d’utilisation

(m

1

, m

2

)→m

12

Sources fiables Sources non fiables

Sources distinctes m1

∩2

m1

∪2

(conjonctive) (disjonctive)

Sources non distinctes m

1∧2

m

1∨2

(conjonctive prudente) (disjonctive hardie)

4.3.4 Prise de d´ecision

Dans le cadre du MCT (mod`ele des croyances transf´erables), il est int´eressant

d’utiliser les fonctions de croyance pour g´erer des donn´ees impr´ecises et mettre au

point des processus ad´equats de fusion. En revanche pour prendre une d´ecision, les

probabilit´es sont mieux adapt´ees, car `a ce stade l’impr´ecision ne fait que bruiter

le traitement [Kle08]. C’est pourquoi nous avons utilis´e le crit`ere du maximum

de probabilit´e pignistique. Ainsi, pour une observation x la d´ecision prise (d

i

)

consiste `a choisir l’´el´ement k poss´edant la plus grande probabilit´e pignistique

Bet(d

i

)(x) (Eq 4.9).

Bet(d

i

)(x) =max

i≤k≤n

Bet(d

k

)(x) (4.9)

4.4 Proposition d’une strat´egie de classification `a deux