• Aucun résultat trouvé

2.6 Extension de l’évaluation du rejet

3.1.1 Les fonctions de confiance

Une fonction de confiance ψ dépend du classifieur principal utilisé et du type de

rejet désiré. Une fonction de confiance permet d’évaluer la confiance que l’on peut avoir

dans la réponse du classifieur. La contrainte forte sur les fonctions de confiance est :

Nouvelle option de rejet pour l’architecture TRF 57

permettent d’abstraire les connaissances et informations issues du classifieur principal

pour obtenir des options de rejet génériques et performantes.

Nous avons vu que les fonctions de confiance sont déjà utilisées dans plusieurs

tra-vaux, mais la plupart du temps seules : la décision de rejet n’est basée que sur une

seule fonction. Nous avons vu que dans notre approche nous permettons d’utiliser un

ensemble de N fonctions de confiance {ψ

i

} qui permet plus de précision dans la

dé-cision de rejet. Le nombre de fonctions de confiance utilisé est important. Un nombre

trop faible donnera un rejet moins performant mais un nombre trop élevé impliquera

un nombre de seuils plus important à apprendre et donc un problème plus complexe

nécessitant plus de données d’apprentissage. Le compromis dépendra du contexte

d’ap-prentissage du rejet (quantité de données d’apd’ap-prentissage, type de classifieur, nature du

rejet, ... ). C’est pourquoi nous proposons à chaque fois des fonctions de confiance qui

représentent la même information mais avec différents niveaux de précision (deN = 1

àN =plusieurs dizaines).

Dans cette section nous présentons des fonctions de confiance dédiées au rejet

d’am-biguïté et d’autres dédiées au rejet de distance. Ces fonctions dépendent fortement des

classifieurs sur lesquelles elles sont appliquées, nous présentons ici des fonctions pour

les RBFN, les MLP et les SVM. Certaines peuvent être transposées directement d’un

classifieur à l’autre, mais leur efficacité varie d’un type de classifieur à l’autre.

3.1.1.1 Fonctions de confiance pour le rejet d’ambiguïté

Le rejet d’ambiguïté détermine si la forme est proche d’une frontière de décision

ou non et donc potentiellement une erreur de classification. Il s’agit donc de trouver

des fonctions de confiance qui traduisent cette notion. Toutes les fonctions de confiance

que nous allons présenter ne dépendent pas du type de classifieur principal utilisé.

La seule contrainte est de disposer d’un score (comme un degré ou une probabilité

d’appartenance) pour chaque classe.

Une première possibilité est d’utiliser l’approche de Fumera dont l’option de rejet

d’ambiguïté est donnée par l’équation (2.3). En utilisant notre formalisme, cette option

de rejet équivaut à utiliser cet ensemble de fonctions de confiance :

ψ

iF umera

=

s

i

si i=C

1

,

0 sinon. (3.3)

avecC

1

la meilleure classe ets

i

le score de la classei. Il y a donc autant de fonctions de

confiance que de classes. Comme toutes les fonctions de confiance sont à zéro sauf celle

de la classe gagnante, on obtient bien la même option de rejet que celle de Fumera.

Une autre approche est de comparer le score obtenu par la meilleure classe C

1

et

la seconde meilleure classeC

2

. On obtient alors une seule fonction de confiance utilisée

dans [32, 53, 67] :

On peut aussi utiliser une différence relative comme dans [32] :

ψ

Amb1

=

sC1−sC2 sC1

, sis

C1

6= 0,

0 sinon. (3.5)

L’avantage d’une différence relative plutôt que d’une différence absolue est qu’elle traite

de la même manière des formes avec de forts scores que celles avec de faibles scores : ce

qui compte c’est que le premier soit nettement au dessus du second pour pouvoir lui faire

confiance d’un point de vue ambiguïté. La différence simple introduit artificiellement

une notion de rejet distance dans la confiance (même si le premier score est bien plus

grand que le second, la confiance peut être faible si le premier score est faible).

Ces fonctions de confiance traitent de la même manière toutes les classes. Or cette

confiance peut dépendre des classes en concurrence. C’est pourquoi nous proposons

d’associer une fonction de confiance par frontière de décision. Si N

c

est le nombre de

classes reconnues par le classifieur principal, il y aura N = N

c

∗(N

c

−1)/2 fonctions

de confiance définies par cette équation :

ψ

{Conf Symi,j}

=

si−sj si

sis

i

6= 0,(i, j) = (C

1

, C

2

)∨(i, j) = (C

2

, C

1

),

0 sinon. (3.6)

Il faut remarquer que toutes les fonctions de confiance sont à zéro sauf une, celle qui est

concernée par la classification en cours. Cet ensemble de fonctions permet une vision

précise de la confiance car elles permettent de ne pas avoir le même comportement pour

chaque couple de classes.

On peut encore augmenter cette précision en associant une fonction de confiance à

chaque couple ordonné de classes. La fonction activée sera donc différente suivant de

quel coté de la frontière la forme se trouve. Si N

c

est le nombre de classes reconnues

par le classifieur principal, il y auraN =N

c

∗(N

c

−1)fonctions de confiance :

ψ

i,jAmb

=

si−sj si

sis

i

6= 0, i=C

1

, j =C

2

,

0 sinon. (3.7)

Le problème de ces dernières fonctions de confiance est que si le nombre de classes

N

c

devient grand, le nombre de fonctions de confiance augmente en O(N

2

c

)ce qui peut

poser des problèmes ensuite pour l’apprentissage des options de rejet comme nous le

verrons par la suite. Pour réduire ce problème, il est possible d’utiliser une fonction par

classe en utilisant ψ

AmbCl

i

:

ψ

AmbCli

=

si−sC2 si

sii=C

1

, s

i

6= 0,

0 sinon. (3.8)

3.1.1.2 Fonctions de confiance pour le rejet de distance

Le but du rejet de distance est de délimiter les connaissances du classifieur principal.

Donc les fonctions de confiance du rejet de distance devront donner une information

concernant la description intrinsèque des classes.

Nouvelle option de rejet pour l’architecture TRF 59

La solution généralement utilisée dans la littérature est de considérer que les sorties

du classifieur approximent les densités de probabilité des données d’apprentissage (ou

quelque chose de comparable comme un degré d’appartenance floue). Cette supposition

est faite pour la plupart des classifieurs et permet d’utiliser les sorties du classifieur

comme source d’information pour les fonctions de confiance. Malheureusement, comme

nous l’avons vu dans la section 1.2 ce n’est pas le cas pour tous les classifieurs : pas

de problème pour les RBFN dont les sorties combinent les activations des fonctions à

base radiale de la couche cachée ; les sorties des SVM utilisant des noyaux gaussiens

contiennent une part de description puisqu’elles combinent les noyaux mais ces derniers

ne sont pas choisis dans ce but contrairement aux fonctions à base radiale des RBFN ;

les sorties des MLP ne sont valides qu’à l’intérieur des données d’apprentissage, rien

ne garantit les valeurs en dehors de ces domaines [42, 109], de plus elles sont apprises

dans un but discriminant.

La première fonction de confiance est donc d’utiliser directement le score de la classe

gagnanteC

1

:

ψ

CDist1

=s

C1

, (3.9)

Cette solution classique est utilisée dans [32, 63, 67] mais aussi dans l’option de rejet

de Chow [23].

Ensuite il est possible, pour avoir plus de précision, d’utiliser une fonction de

confiance par classe (N =N

c

) :

ψ

iDist

=s

i

. (3.10)

Ainsi il est possible de définir un comportement différent suivant chacune des classes.

Ces fonctions de confiance ne correspondent pas tout à fait à celles utilisées par

Fumeraet al. dans [40] puisque les auteurs utilisent seulement l’activation de la classe

gagnante. Nous définissons donc un autre ensemble de fonctions de confiance :

ψ

iF umera

=

s

i

si i=C

1

,

0 sinon. (3.11)

Cet ensemble de fonctions est exactement le même que celui défini par l’équation (3.3)

pour le rejet d’ambiguïté. Nous avons choisi de le considérer aussi comme une possibilité

pour le rejet de distance puisqu’il utilise les scores de sortie du classifieur.

Il est aussi possible d’utiliser des connaissances plus spécifiques au classifieur utilisé.

Ainsi pour un RBFN les activations µ

k

des fonctions à base radiale sont une source

intéressante d’informations puisqu’elles sont directement issues des données

d’appren-tissage. Nous proposons donc des fonctions de confiance dédiées aux RBFN.

La première utilise directement les activations des neurones cachés :

ψ

iDistRBF

i

. (3.12)

La seconde considère que la confiance que l’on doit accorder à la reconnaissance

d’une forme correspond à l’activation de la fonction à base radiale la plus proche, celle

qui est censée la représenter. Ainsi seule la plus activée est différente de zéro :

ψ

iDistN RBF

=

µ

i

si i=argmax

k

k

),

0 sinon. (3.13)

Il est aussi possible de réduire le nombre de fonctions de confiance à 1 en n’utilisant

que la meilleure activation des fonctions à base radiale :

ψ

DistRbf W

= max

k

k

). (3.14)

Ces listes de fonctions de confiance pour le rejet de d’ambiguïté et pour le rejet de

distance ne sont pas exhaustives. En effet d’autres sont possibles comme celles utilisées

dans [86, 87]. De plus il est possible de combiner entre elles les fonctions de confiance

pour prendre en compte plusieurs sources d’information, mais cette approche n’est pas

développée dans cette étude.