• Aucun résultat trouvé

5.2 Construction des bases d’exemples pour l’apprentissage et les tests 66

5.3.1 Apprentissage standard

L’apprentissage automatique peut se classifier en deux types, l’apprentissage supervisé et non-supervisé. Dans le cas du non-supervisé, il y a en entrée un en-semble de données collectées. Ensuite, le programme traite ces données comme des variables aléatoires et construit un modèle de densités jointes pour cet en-semble de données. Dans le cas du supervisé, on cherche à établir automatique-ment les règles de classification à partir d’une base de données d’apprentissage contenant des exemples de cas déjà traités, ce qui est communément appelé la vérité terrain. L’apprentissage par SVM, de par la labélisation des exemples d’ap-prentissage, fait partie de cette dernière catégorie. En effet, l’utilisation de SAFOR 2. La notion d’écologie se réfère ici à son sens le plus strict, utilisé en sciences ergonomique, qui est le respect des conditions environnementales [119]. Ici, on cherche la reproduction la plus fidèle de l’environnement visuel des conducteurs.

5.3 Procédure d’apprentissage et de recherche de panneaux 70

(cf. partie 5.2) nous permet d’avoir cette vérité terrain et de savoir si une fenêtre de l’image contient ou non, tout ou partie, d’un panneau de l’image.

Pour l’apprentissage, un expert fait le choix des images contenant des pan-neaux qui seront pris en compte pour l’apprentissage des exemples positifs. Ceci permet de choisir seulement quelques panneaux représentatifs de chaque types de forme, d’illumination, de déformation, etc., en ne prenant pas deux fois le même panneau sur deux images consécutives. Cela permet de contrôler l’apprentissage et de réduire d’emblée l’espace des données, d’où une rapidité accrue du SVM.

Ensuite, à partir de cette liste et des masques de panneaux correspondant à chaque image, les exemples de chaque classe sont extraits des images routières, puis les signatures voulues sont calculées sur ceux-ci.

Dans un premier temps, nous ne prenions que le panneau par lui même, éli-minant ainsi le fond environnant du panneau. Or cette méthode est inadéquate, puisque l’apprentissage se réalise sans le fond. Or, lors de la recherche des pan-neaux dans une image, ceux-ci sont entourés d’un fond variable. La répartition de l’information dans la description de la fenêtre en cours d’analyse est difficilement comparable avec celles issues de l’apprentissage. Les performances de classifica-tion se trouvent donc réduites. Nous avons donc pris une zone plus large autour des panneaux lors de la construction des exemples de la base d’apprentissage. Nous avons, tout d’abord, élargi cette zone à un cadre englobant de plus de 10 pixels autour du masque généré par SAFOR. Or cette procédure n’est pas optimale car le ratio entre l’aire occupée par le panneau et celle occupée par le fond dans le modèle dépend de la taille du panneau. En effet, dans les images utilisées d’une résolution de 640× 480, les plus petits panneaux considérés comme visibles dans

l’image avaient une taille d’environ 8 pixels de coté et les plus grands une taille de 70 pixels de coté. Nous avons donc finalement opté pour un élargissement du cadre englobant autour du masque de SAFOR proportionnellement à la taille de ce dernier.

Ainsi, on prend en compte pour l’apprentissage des modèles comprenant 70% de panneau pour 30% de fond, comme dans la Fig. 5.3. Les différents types de fond sont inclus et par la suite, la performance de classification sur les fenêtres de recherche dans les images sont meilleures. Ceci s’explique par le fait que le fond

5.3 Procédure d’apprentissage et de recherche de panneaux 71

est très variable, donc lors de l’apprentissage, cela permet implicitement au SVM de se focaliser sur la partie de la signature qui caractérise un panneau de part la comparaison des signatures entre elles, via le noyau.

model extrait 10 20 30 40 50 5 10 15 20 25 30 35 40 45 50 55

FIGURE 5.3 – Modèle d’un panneau après extraction selon son masque SAFOR (cf. Fig.5.1).

Cette première approche, prenant des panneaux entiers avec fonds variables en tant qu’exemples positifs (et des morceaux d’images ne contenant pas de pan-neaux en tant qu’exemples négatifs) est une approche globale. Par la suite, les résultats étant meilleurs et le nombre de support vecteur n’augmentant pas énor-mément, nous avons ajouté une approche locale. Ainsi, lors de l’apprentissage, se basant sur la vérité terrain SAFOR, les images de la base d’apprentissage sont trai-tées par des fenêtres glissantes de six tailles différentes (10× 10, 16 × 16, 20 × 20,

30× 30, 40 × 40, 60 × 60), comme montré dans la Fig. 5.4. Lorsqu’une fenêtre

contient au moins 70% de panneaux, elle est labélisée comme un exemple positif. Si elle contient moins de 70% de panneaux, elle n’est pas prise en compte. Si elle ne contient pas de morceaux de panneaux, mais exclusivement du fond, elle est labélisée comme un exemple de la classe négative.

Un paramètre d’échantillonnage dépendant de la taille de la fenêtre glissante nous permet de limiter le nombre d’exemples dans chaque classe, afin de ne pas déséquilibrer l’apprentissage. Cela permet également de gagner du temps lors de la phase d’apprentissage, car selon la théorie des SVM, il est inutile de mettre dans

5.3 Procédure d’apprentissage et de recherche de panneaux 72

FIGURE5.4 – Création des exemples de la base d’apprentissage

la base d’apprentissage des exemples très proches, car seuls les supports vecteurs restent représentatifs de chaque classe.

5.3.2 Influence du paramètre de régularisation dissymétrique