• Aucun résultat trouvé

5.3 Validation dans le cadre non supervisé

5.3.4 Comparaison avec la sélection de variables

1er axe principal

2ème axe principal

Groupes originaux Mâle orange Femelle orange Mâle bleu Femelle bleue 20 30 40 50 60 70 80 90 −2 −1 0 1 2 3 4 5

Groupes formés par l’HDDC

1er axe principal

2ème axe principal

FIG. 5.14 – Données « crabes » : à gauche, projection des données sur les deux premiers axes prin-cipaux et, à droite, classification obtenue avec l’HDDC et le modèle [aibiQidi]. Les lignes bleues représentent les sous-espaces spécifiques de chaque groupe.

sion de l’espace d’étude. Nous avions d’ailleurs observé un comportement similaire pour ce modèle dans le cas supervisé. Les modèles diag-GMM et sphe-GMM, quant à eux, ne semblent pas subir le fléau de la dimension mais fournissent des résultats très médiocres quelle que soit la dimension de l’espace. Le comportement de ces deux derniers modèles s’explique par le fait que ce sont des modèles très parcimonieux. Cette étude montre que notre modélisation des données de grande dimen-sion semble posséder la qualité d’invariance à la dimendimen-sion comme les modèles parcimonieux et la qualité de produire de résultats satisfaisants comme les modèles complexes dans les espaces de faible dimension.

5.3.4 Comparaison avec la sélection de variables

Nous nous proposons dans ce paragraphe de comparer notre approche à la sélection de variables. Une récente approche proposée par Raftery et Dean [74] permet de combiner la sélection de variables à l’étape de classification dans le cadre du modèle de mélange gaussien. Pour ce faire, les auteurs considèrent le problème de la sélection de variables comme un problème de choix de modèles. Dans leur approche, la sélection est réalisée en utilisant le critère BIC en combinaison avec un algorithme efficace de recherche. Les auteurs font remarquer de plus qu’il est possible d’effectuer cette sélection de variables sur les variables originales ou sur les composantes principales. Cette méthode de sélection de variables pour la classification automatique sera notée VS-GMM dans la suite de ce paragraphe.

Données et protocole

Afin de comparer notre méthode de clustering HDDC à cette technique, nous avons choisi d’utili-ser le jeu de données « crabes » utilisé dans [74] et que nous avons déjà présenté au paragraphe5.1.3.

Modèle TCC sur var. orig. TCC sur comp. princ. TCC avec ACP Sphe-GMM 0.340 0.340 0.340 Diag-GMM 0.355 0.355 0.535 Com-GMM 0.625 0.625 0.635 Full-GMM 0.640 0.640 0.845 VS-GMM [74] 0.925 0.935 / HDDC[aibiQidi] 0.950 0.950 /

TAB. 5.6 – Taux de classification correcte (TCC) obtenus avec l’HDDC, les modèles gaussiens clas-siques et la méthode de sélection de variable VS-GMM [74] sur un jeu de données réelles (données Crabes).

Rappelons tout de même que ces données sont composées de 200 observations en dimension 5 et réparties équitablement en 4 classes. La figure5.14 présente l’organisation des données « crabes » projetées sur les deux premiers axes principaux. Les disques de couleurs représentent les moyennes empiriques des groupes. Le modèle sélectionné par le critère BIC pour être utilisé par l’HDDC est le modèle [aibiQidi]. Nous avons également utilisé les méthodes de clustering associées aux modèles classiques full-GMM, com-GMM, diag-GMM et sphe-GMM. Le clustering a été réalisé 50 fois pour chaque méthode afin de moyenner les résultats de classification et, à chaque répétition, les algorithmes ont été initialisés à partir de la même partition aléatoire des données. Pour les méthodes associées aux modèles classiques, le clustering a été également été effectué sur les composantes principales et en combinaison avec une réduction à 3 dimensions par ACP. Le nombre de composantes principales re-tenues pour l’étape de réduction de dimension a été déterminé à partir de l’ébouli des valeurs propres. Notons de plus que le nombre de variables sélectionnées par VS-GMM est aussi égal à 3 et que le modèle gaussien utilisé dans cette méthode est le modèle full-GMM.

Résultats expérimentaux

Le tableau 5.6 présente les résultats de classification obtenus avec l’HDDC et les méthodes de

clustering classiques. Nous y avons également reporté le résultat de VS-GMM donné par [74]. Ces résultats sont disponibles pour la classification sur variables originales, sur composantes principales et sur données réduites par ACP. Il apparaît tout d’abord que ces données, qui ne sont certes pas de grande dimension, s’avèrent très difficiles à classer avec les méthodes classiques. En effet, le meilleur résul-tat obtenu avec une méthode classique est 0.64 en utilisant le modèle gaussien général full-GMM. On remarque que la classification sur composantes principales n’améliore pas les résultats des méthodes classiques. Le fait que la classification sur composantes principales n’améliore pas les résultats des modèles diag-GMM et sphe-GMM confirme notre hypothèse que les groupes vivent dans des sous-espaces d’orientations différentes. En revanche, on peut noter que la réduction de dimension permet d’améliorer significativement le résultat de classification du modèle full-GMM. La méthode de sélec-tion de variables VS-GMM obtient un taux de classificasélec-tion correcte égal à 0.925 sur variables

ori-ginales et à 0.935 sur composantes principales et devance ainsi les méthodes classiques. Sachant que la réduction de dimension par ACP a permis à la méthode associée au modèle full-GMM d’améliorer ses résultats, il est assez naturel que les résultats de VS-GMM soient aussi meilleurs sur composantes principales. On peut également conclure de cette observation que VS-GMM n’a certainement pas sé-lectionné les 3 mêmes variables que l’ACP puisque les résultats de VS-GMM sont bien meilleurs que ceux de full-GMM sur données réduites par ACP. Cela confirme une autre de nos hypothèses initiales qui suppose que la réduction de dimension par ACP n’est pas une approche optimale dans le but de classer des données. Enfin, l’HDDC domine cette étude en obtenant un taux de classification correcte égal à 0.95 sur variables originales et sur composantes principales. Rappelons que le fait de travailler sur les composantes originales ne change rien aux résultats de l’HDDC puisqu’elle cherche le sous-espace de chaque groupe dans son sous-espace propre. On peut déduire de la comparaison des résultats de l’HDDC avec ceux de VS-GMM que le fait de ne pas supprimer de variables et de modéliser chaque groupe dans son espace propre est la meilleure approche pour la classification. Notons au passage que l’HDDC est également capable de surclasser les méthodes existantes sur des jeux de données dont la dimension est plutôt faible.

Chapitre

6

Application à la reconnaissance d’objets

Dans ce chapitre, nous allons considérer le problème de la reconnaissance d’objets dans des images qui est un des problèmes les plus difficiles à l’heure actuelle en vision par ordinateur. Outre la difficulté intrinsèque du problème, celui-ci présente plusieurs intérêts vis à vis de notre sujet d’étude : les données sont en grande dimension et l’approche classique combine apprentissage non supervisé et supervisé. Pour ces raisons, nous avons choisi d’appliquer les méthodes de classification proposées dans ce mémoire à la reconnaissance d’objets. Nous proposerons une approche de la reconnaissance d’objets basée sur le modèle de mélange permettant de localiser de manière probabiliste l’objet étu-dié. Nous présenterons tout d’abord au paragraphe 6.1le problème de la reconnaissance d’objets et les approches existantes. Au cours du paragraphe 6.2, nous proposerons une approche probabiliste de la reconnaissance d’objets adaptée aux cadres supervisés et faiblement supervisés. Enfin, le para-graphe6.3sera consacré à l’évaluation expérimentale de notre approche. Ces expérimentations seront menées sur deux bases de données récentes de reconnaissance d’objets et mettront en évidence que notre approche est plus efficace que les méthodes existantes.

6.1 La reconnaissance d’objets

Ce premier paragraphe va donc être consacré à introduire le problème de la reconnaissance d’ob-jets et présenter l’état de l’art dans ce domaine qui connaît actuellement un très fort développement. La grande activité qui règne dans ce domaine est en partie due aux intérêts liés aux applications de la reconnaissance d’objets. En effet, la reconnaissance d’objets est au cœur d’un grand nombre de progrès technologiques parmi lesquels on peut citer la télé-surveillance, la sécurité, l’indexation des images sur le web et le pilotage autonome de véhicules.