• Aucun résultat trouvé

7.3 Description d’une scène structurée

7.3.2.1 Comparaison avec d’autres approches

Cette base est née de la volonté de proposer une méthodologie commune de comparaison quantitive de résultats de segmentation d’images de profondeur. Uti- lisée dans le cadre de différents concours organisés lors de conférences interna- tionales comme ICCV ou ICPR, plusieurs auteurs commencent à l’utiliser comme référence dans nombre d’articles de revues. Ainsi dans [CB00], l’auteur compare ses résultats à ceux obtenus par les universités de South California, de Berne et d’Edimbourg. A partir de l’image de profondeur, chaque université teste ses algo- rithmes de segmentation. Avec cette préoccupation d’apporter quelques éléments quantitatifs des performances de notre méthodologie, on commence par présenter en figure 7.25 et 7.26 une comparaison qualitative des résultats obtenus sur les images 7.23 et 7.24.

FIG. 7.17 – (a) Partition préliminaire (b)(c) Partitions intermédiaires (d) Partition finale

FIG. 7.18 – (a) Image d’intensité (b) Partition préliminaire (c) Partition finale (d) Segmentation finale

FIG. 7.19 – (a) Image d’intensité (b) Partition préliminaire (c) Partition finale (d) Segmentation finale

FIG. 7.20 – (a) Image d’intensité (b) Partition préliminaire (c) Partition finale (d) Segmentation finale

FIG. 7.21 – (a) Image d’intensité (b) Partition préliminaire (c) Partition finale (d) Segmentation finale

FIG. 7.22 – (a) Image d’intensité (b) Partition préliminaire (c) Partition finale (d) Segmentation finale

FIG. 7.23 – De gauche à droite : image d’intensités et image de profondeur de abw.train.0

FIG. 7.24 – De gauche à droite : image d’intensités et image de profondeur de abw.train.1

FIG. 7.25 – Segmentation de l’image abw.train.0 (a) par notre méthodologie (b) par l’Université de Lyon 1 (c) par l’université de South Florida (d) par l’université de Berne (e) par l’université d’Edinbourg (f)

FIG. 7.26 – Segmentation de l’image abw.train.1 (a) par notre méthodologie (b) par l’Université de Lyon 1 (c) par l’université de South Florida (d) par l’université de Berne (e) par l’université d’Edinbourg (f)

Ces résultats n’ont pas vocation à concurrencer les résultats obtenus par des al- gorithmes qui furent pour la plupart développés spécifiquement pour ce concours mais plutôt à prouver la généricité de la méthodologie développée. En effet, par l’intermédiaire de l’introduction d’une bonne heuristique et de quelques post- traitements (rassemblement des groupements voisins de même orientation essen- tiellement), on parvient à de bons résultats de segmentation. Il est à noter que la plupart des algorithmes servant à la comparaison utilisent pleinement la structure de grille régulière fournie par l’image de profondeur et cherchent tous à calculer localement l’information de courbure de surface à partir du voisinage inscrit dans la grille régulière. Seule Raphaëlle Chaine tente de s’affranchir de cette structure de grille régulière. En outre, leurs méthodes sembleront difficilement fonctionner sur des nuages de points moins structurés, c’est-à-dire en environnement naturel.

Nous donnons une comparaison quantitative de notre algorithme de partition- nement sur la base de 30 images de la base ABW rassemblée par l’université de South California. Ces images ont été segmentées manuellement en utilisant des modèles CAD des objets pour obtenir des images “Vérité Terrain” (images VT). Un outil développé par Hoover et al. [HJBJ+

96] compare “objectivement” la segmentation obtenue par l’algorithme testé (images “Segmentation Machine” ou images SM) avec la “Vérité Terrain” en utilisant un ensemble de métriques de performance comme le nombre de régions correctement segmentées, omises ou correspondant à du bruit, sur ou sous segmentées. Les définitions de classification dépendent d’un taux de toléranceT (0:5<T  1) reflétant la rigueur accordée à

la définition. Dans ce formalisme, on définit les métriques suivantes : 1. Détection correcte : une paire de régions R

n dans l’image VT et R

m dans

l’image SM est classifiée en détection correcte si au moinsT pourcent des

pixels deR

m sont des pixels de R

net inversement ;

2. Sur-segmentation : une région R

n dans l’image VT et un ensemble de ré-

gionsR m1,...,

R

mx dans l’image SM sont classifiées en sur-segmentation si

au moinsT pourcent des pixels dans chaque régionR

mi sont des pixels de R

net inversement ;

3. Sous-segmentation : un ensemble de régions R n1,...,

R

nx de l’image VT et

une régionR

mdans l’image SM sont classifiées en sous-segmentation si au

moinsT pourcent des pixels de la région R

m sont des pixels de la réunion

deR n1,...,

R nx;

4. Non détectée : une région de l’image VT non classifiée en détection cor- recte, sous ou sur segmentation est classifiée en région non détectée ; 5. Bruit : une région de l’image SM non classifiée en détection correcte, sous

ou sur segmentation est classifiée en région de bruit.

Pour mesurer la précision de la géométrie reconstruite, l’algorithme de seg- mentation doit fournir les normales aux surfaces des régions détectées. La pré- cision est évaluée en mesurant la différence angulaire (en degrés) entre chaque normale comparée à l’image VT.

Une moyenne de ces mesures a été effectuée sur l’ensemble de ces images. Le tableau 7.3.2.1 donne le nombre de régions “Vérité Terrain” moyen par image ainsi que le nombre moyen de régions correctement détectées par les différents algorithmes, le nombre moyen de régions sur et sous-segmentées, le nombres moyens de régions non détectées et de régions faussement détectées. La mesure géométrique de précision sur les angles inter-régions est également fournie. Les résultats sont comparés à ceux des universités de South Florida, de Washington [HJ91], de Berne [JB94], d’Edinbourg [FA91], de Birmingham [KS00], et de notre méthode élaborée à l’Université Paris 5.

Groupe de rech. Régions VT Correct Diff.ang. (écart) Sur- sgmt. Sous- sgmt. Omis Bruit USF 15.2 12.7 1.6(0.8) 0.2 0.1 2.1 1.2 WSU 15.2 9.7 1.6(0.7) 0.5 0.2 4.5 2.2 UB 15.2 12.8 1.3(0.8) 0.5 0.1 1.7 2.1 UE 15.2 13.4 1.6(0.9) 0.4 0.2 1.1 0.8 UBham 15.2 13.4 1.6(0.9) 0.4 0.3 0.8 1.1 UP5 15.2 12.2 1.7(0.9) 0.3 0.1 2.6 2.2

TAB. 7.3 – Comparaison quantitative des résultats en segmentation de la base 3 par différentes universités

A la lecture de ce tableau, notre méthode n’apporte pas une amélioration quan- titative mais rivalise avec les autres méthodes. D’un point de vue qualitatif, elle donne également des résultats comparables comme en témoignent les figures 7.25 et 7.26. L’apport majeur de notre méthodologie est sa généricité. Elle peut s’af- franchir à un coût minimum de la diversité des environnements à analyser.