4.2 Maximisation régularisée de l'alignement noyau/cible centré
4.3.1 Données jouet
Nous limitons l'étude des données jouet à un seul jeu : Image Segmentation de l'UCI
repo-sitory[47]. Ce jeu de données en dimension 19 est particulièrement intéressant puisque chacun
de ses descripteurs correspond à une quantité interprétable
2. Chaque exemple est une vignette
de trois sur trois pixels dont la catégorie correspond à la nature de ce qui est représenté. Les
catégories sont : brique, ciel, feuillage, ciment, fenêtre, chemin et herbe.
Nous utilisons le découpage apprentissage-test proposé par défaut, c'est-à-dire 210 exemples
pour faire l'apprentissage et la sélection de modèle et 2100 exemples pour le test. Le seul
pré-traitement eectué est le centrage et la réduction des données dans l'espace de description.
L'intérêt de l'alignement de noyaux est évalué en deux étapes. La première consiste uniquement
à quantier l'apport en termes de taux de reconnaissance alors que la seconde s'intéresse à la
sélection de variables.
4.3.1.1 Apport de l'alignement noyau/cible gaussien elliptique à la classication
Dans un premier temps, nous nous intéressons à l'apport du noyau gaussien elliptique dans
la classication à l'aide de SVM. L'optimum de la borne Rayon-Marge multi-classe pour le
noyau RBF standard (aussi dénomme sphérique par opposition à elliptique) est obtenu pour
σ=
√12µ0
= 1.48etC = 0.47. Le taux de reconnaissance avec ces hyperparamètres est de88.43%,
alors que Guermeur et Monfrini [63] obtiennent90.20%. Une telle diérence est probablement due
à l'utilisation de la borne Rayon-Marge pour la sélection de modèle et non à une validation croisée.
Ce taux de reconnaissance nous sert de référence. La minimisation de la borne Rayon-Marge
multi-classe pour ce noyau est eectuée pour les congurations suivantes : maximisation non
régularisée de l'alignement noyau/cible non centré, maximisation non régularisée de l'alignement
noyau/cible centré, et ensuite les deux versions régularisées de cette méthode (la première de
norme 1 (p = 1) et la seconde de norme 2 (p = 2)). Le coecient de régularisation ν est xé
à10
−3. Le tableau 4.1 présente les taux de reconnaissance obtenus. L'augmentation du taux de
reconnaissance induite par l'utilisation du noyau elliptique apparaît statistiquement signicative
au sens du test de comparaison de deux pourcentages ("two sample proportion test" avec z=5.79)
1. On est confronté à un phénomène de vallée étroite.
Noyau Régularisation Taux de reconnaissance
RBF standard - 88.48%
Gaussien elliptique non centré sans 93.62 %
Gaussien elliptique centré sans 94.19%
Gaussien elliptique centré `
194.19%
Gaussien elliptique centré `
294.05%
Table 4.1 Taux de reconnaissance obtenus par minimisation de la borne Rayon-Marge
multi-classe après alignement noyau/cible pour Image Segmentation
tandis que l'inuence de la régularisation semble secondaire. Sur ce jeu de données, le centrage
des données dans l'espace de représentation n'apparaît pas comme nécessaire
1.
Cette étude sur l'utilisation d'un noyau gaussien elliptique étant réalisée sur un seul jeu de
données, elle est bien évidemment non représentative des gains que l'on peut atteindre en général.
Cependant, la sélection de variables a largement prouvé son utilité par ailleurs (voir par exemple
le très bon article [65]). Notre méthode peut aussi se voir comme la recherche d'une métrique
adaptée au problème de classication considéré.
4.3.1.2 Etude comparative de la sélection de variables pour Image Segmentation
Puisque la mise en ÷uvre du principe de maximisation de l'alignement noyau/cible sur un
noyau gaussien elliptique correspond à une sélection de variables douce, il est naturel de la
comparer à des méthodes classiques eectuant cette tâche. En nous refusant à toute méthode
de sélection liée au taux de reconnaissance, nous nous orientons vers les méthodes de type ltre
("lter" en anglais, voir par exemple la section 4.4 de [65]). Nous avons décidé de comparer notre
méthode à une sous-famille de ces méthodes : celle basée sur l'information mutuelle (voir par
exemple [17]).
Dans cette famille nous avons choisi quatre méthodes :
Mutual Information Maximisation (MIM, [36]) : la première méthode développée qui
consiste à choisir les descripteurs dont l'information mutuelle avec la classe est la plus
importante. Le nombre de descripteurs est choisi a priori.
Mutual Information Feature Selection (MIFS, [11]) : cette méthode choisit, de manière
séquentielle, les descripteurs maximisant l'information mutuelle tout en limitant la
redon-dance avec ceux déjà choisis. Le paramètre lié à la redonredon-dance est réglé par le praticien.
Conditional Mutual Information Maximisation (CMIM, [46]) : cette méthode s'appuie sur
l'information mutuelle conditionnelle.
minimum-Redundancy Maximum-Relevance (mRMR, [84]) : cette méthode est très
simi-laire à MIFS, mais le paramètre est xé (et non choisi).
An de vérier que ces méthodes fournissent des résultats satisfaisants, nous avons aussi
utilisé une méthode de type "wrapper" de recherche séquentielle en avant (voir section 4.1 de
1. Pour la prédiction de la structure secondaire ne pas centrer peut conduire à l'obtention d'une pondération quasi-uniforme et donc de peut d'intérêt.4.3. Résultats expérimentaux 117
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 2 4 6 8 10 12 14 16 18 ponderation indice ds descripteursnon centre et non regularise non regularise regularisation l1 regularisation l2
Figure 4.2 Pondération obtenue pour Image Segmentation par maximisation de l'alignement
noyau/cible, par maximisation de l'alignement noyau/cible centré et par maximisation régularisée
de l'alignement noyau/cible centré (normes`
1et`
2)
[65]).
La méthode d'alignement dotée d'une régularisation de norme`
1ore une pondération
par-cimonieuse (voir Figure 4.2) avec seulement4prédicteurs retenus. En nous basant sur ce résultat
nous xons le nombre de prédicteurs à5 pour toutes les autres méthodes.
Le tableau 4.2 présente une comparaison des variables sélectionnées par les méthodes MIM,
MIFS, CMIM, mRMR, notre méthode avec les normes`
1et`
2ainsi que la recherche séquentielle
en avant utilisant une validation croisée à 5 pas
1. Il est intéressant de noter que cette méthode
s'arrête lorsqu'il trouve6 variables.
La dernière ligne du tableau 4.2 contient les taux de reconnaissance obtenus par minimisation
de la borne Rayon-Marge d'une M-SVM
2(entraînée avec seulement5descripteurs). Les méthodes
de type ltre fonctionnent globalement moins bien que les autres. Seuls mRMR, la méthode
"wrapper" et les alignements de noyaux présentent des taux supérieurs à celui d'un apprentissage
sur l'ensemble des descripteurs.
Intéressons-nous à présent aux variables sélectionnées par ces quatre méthodes. Le
descrip-teur systématiquement sélectionné est le second : "ligne du pixel central". Ce choix, a priori
surprenant, est en fait légitime, il permet de séparer ce qui se trouve en bas (herbe et chemin),
en haut (ciel et feuillage) et au centre (ciment, fenêtre et brique) de l'image. Un autre descripteur
qui revient souvent est la teinte de l'image. Cet attribut est particulièrement intéressant puisqu'il
permet de couvrir toutes les couleurs par un seul scalaire. La méthode ne le sélectionnant pas
choisit toutefois deux intensités de couleurs (rouge et bleu). La sélection réalisée par ces méthodes
Descripteur : Méthode
# Dénition `1 `2 MIM MIFS CMIM mRMR "wrapper"
1 Colonne du pixel central 2 3
2 Ligne du pixel central 3 3 1 1 1 1 2
3 Nombre de pixels (=9) 2 2
4 Nombre de lignes de faible contraste
(lon-gueur 5) 3
5 Nombre de lignes de fort contraste (longueur
5) 4 6
6 Moyenne de la mesure de contraste entre pixels horizontalement adjacents
7 Écart type de la mesure de contraste entre pixels horizontalement adjacents
8 Moyenne de la mesure de contraste entre pixels verticalement adjacents
9 Écart type de la mesure de contraste entre pixels verticalement adjacents
10 Intensité moyenne sur la région
(R+V+B)/3