• Aucun résultat trouvé

Estimation du déplacement 3D

4.8 Reconstitution 3D, Benosman et al

4.8.3.2 Estimation du déplacement 3D

Pour chaque point apparié entre les deux vues, on exprime la contrainte épipolaire, qui est illustrée

en figure4.10. A priori la distance à un point fixe de l’environnement est inconnue dans chacune des

deux vues. Mais l’appariement permet de connaître le pixel associé à cet élément de l’environnement dans chacune des deux vues. La géométrie du capteur étant calibrée, on connaît donc dans chacune des deux vues la direction dans l’espace (relative au capteur) qui joint le capteur à l’élément fixe de la scène. Cette connaissance permet d’exprimer une équation linéaire faisant intervenir la position du point dans l’espace et le mouvement du capteur entre les deux vues. Les inconnues sont les coeffi-cients d’une matrice représentant le déplacement du capteur. Pour des raisons de symétrie, le nombre d’inconnues se limite à 7. Cela signifie que de façon théorique, il suffit d’avoir 7 points correctement appariés dans l’environnement pour pouvoir reconstituer les composantes translation et rotation du capteur d’une vue à l’autre. En pratique quelques dizaines à quelques centaines de points peuvent être nécessaires et on peut obtenir une assez grande précision.

Nous désignerons par la suite le modèle de Benosman et al. par l’appellation « méthode cali-brée », en référence à la calibration du miroir et à la recherche de l’exactitude, aux dépens des calculs nécessaires.

FIG. 4.10: Reconstitution 3D d’une scène à partir de deux vues panoramiques. Après appariement d’un point M de l’espace vu dans les deux images panoramiques, on peut extraire une contrainte reliant la position de M et des deux vues sous la forme d’une équation linéaire. En théorie, 7 de ces points sont suffisants pour reconstituer la position du référentiel R2de la seconde vue en fonction du référentiel R1 de la première vue. En pratique il en faut un plus grand nombre et des méthodes d’élimination des points aberrants pour obtenir un résultat final qui peut être très précis.

4.9. CONCLUSION 107

4.9 Conclusion

Dans ce chapitre, nous avons passé en revue une seconde série de modèles qui, contrairement à

ceux de la première série (chapitre2), ont en commun de ne pas dépendre d’une estimation

d’orienta-tion extérieure, voire d’en fournir une.

Nous retiendrons particulièrement les innovations présentées dans les modèles de Nelson et Aloi-monos, de Franz et de Röfer, qui ont des relations avec la technique de calcul de direction par éli-mination que nous allons introduire au chapitre suivant. Toutefois, le premier n’est pas applicable tel quel à la robotique par manque d’un capteur puis d’une méthode d’appariement. Les deux autres sont intéressants mais relativement coûteux en calculs. Nous ne les reprendrons pas directement car notre approche, plus légère, consiste à estimer seulement l’orientation dans un premier temps, pour pouvoir

utiliser les modèles légers du chapitre2ensuite.

Nous ne reprendrons pas d’éléments du modèle de fondu enchaîné de Chahl & Srinivasan (équi-valent à de l’odométrie avec les problèmes d’intégration), du modèle exhaustif de Möller (nous pen-sons faire mieux pour moins de calculs), ni du parcours de lignes iso-ALV de Ruchti (ajoute aux limitations de l’ALV la difficulté de parcourir une ligne virtuelle sans connaître sa direction). La mé-thode de Benosman et al est très différente et beaucoup plus coûteuse en calculs. Elle sera pour nous une occasion de comparaison de performances.

Tous les modèles majeurs traitant l’orientation étudiés dans ce chapitre le font avec des panoramas échantillonnés. Au contraire, l’utilisation d’appariements segmentés a l’avantage d’alléger à la fois la mémoire et la quantité de calculs nécessaires au traitement.

Dans la prochaine partie de cette thèse, nous allons présenter notre modèle, qui réalise la naviga-tion locale en utilisant les propriétés des panoramas segmentés.

Deuxième partie

Notre modèle

Notre modèle

Dans cette partie de la thèse nous allons décrire en détail le modèle que nous avons développé. Notre modèle s’attaque au problème de la navigation locale par panorama. Il reprend pour fon-dement le modèle PV, c’est-à-dire essentiellement l’usage de la composante tangentielle (exploitation des parallaxes apparaissant au cours du déplacement) avec la méthode directe (application des vec-teurs individuels sur la position actuellement vue).

Il apporte des innovations à plusieurs étapes :

– l’utilisation de panoramas segmentés en couleurs (dans l’espace de teinte et saturation) ; – une méthode d’appariement utilisant un algorithme de programmation dynamique, qui présente

la particularité d’exploiter les éléments distinctifs des amers (ici, la couleur) pour éviter les confusions, ce qui lui permet d’être robuste vis-à-vis de toute orientation de l’animat ;

– une méthode de calcul de la direction à suivre dite « par élimination » qui s’appuie sur des panoramas segmentés appariés et sur la connaissance de l’orientation de ces panoramas ; – une méthode de calcul de l’orientation, dite « compas visuel », qui s’appuie sur un ou plusieurs

triplets de panoramas d’orientation connue et mémorisés par l’animat, pour retrouver l’orienta-tion d’un nouveau panorama pris dans un voisinage ;

– une méthode d’exploration et de construction de carte topologique qui sert de support au compas visuel en lui fournissant des panoramas appropriés.

Nous reprenons dans cette partie une structure similaire à celle de la partie précédente.

Dans le chapitre5nous présentons en détail comment nous améliorons les méthodes existantes

pour le sous-problème de la navigation avec orientation connue.

Dans le chapitre6nous décrivons en détail le compas visuel, qui permet à l’animat de retrouver

une estimation de son orientation après avoir préalablement « pris ses marques » lors d’une première exploration.

Nous finirons cette partie par le chapitre7 en exposant une procédure de construction de carte

topologique qui sert de support au compas visuel. En effet, la navigation locale, comme l’orientation locale, ne font que rejoindre un but désigné d’une façon extérieure, à l’aide de marques établies à partir de vues désignées par l’expérimentateur. Un pas suivant dans l’autonomie est la capacité pour l’animat de choisir lui-même au cours d’une exploration les vues qui lui permettent de prendre ses marques, un pas qui est franchi quand l’animat est capable de construire sa propre carte de l’environnement.

Chapitre 5

Notre modèle, lorsque l’orientation est

connue

Ce chapitre concerne le sous-problème de la navigation locale dans lequel l’orientation de l’animat est connue.

Pour la clarté de l’exposé, nous appliquons à la description de notre modèle la même grille

d’ana-lyse (section2.1) que lors de la description des modèles étudiés dans la première partie de cette thèse.

Pour chacune de ces étapes nous expliquerons ce qu’elle apporte et la comparerons aux méthodes précédentes.

Nous commençons par l’étape de signature d’un lieu : dans notre modèle, l’animat mémorise de son environnement des panoramas segmentés en couleurs.

5.1 Signature d’un lieu : segmenter le panorama en couleurs

La première étape dans notre grille d’analyse est le choix de ce que l’animat retient du monde qui l’entoure.

Dans les modèles CC, on schématise l’environnement comme un fond clair (comme le ciel) sur lequel des objets sombres se détachent. Cette modélisation, qui a été conservée dans les modèles DV et ALV, n’est pas viable, parce que trop simpliste, pour un robot se déplaçant en environnement intérieur ou même urbain.

Il est donc nécessaire d’enrichir l’information perçue.

Notre choix a été guidé par les éléments techniques qui nous étaient accessibles. Dans un premier temps nous ne disposions pas d’un capteur panoramique, mais de robots équipés chacun d’une caméra

motorisée pouvant tourner sur 200.