• Aucun résultat trouvé

Chaine 3D interactive

N/A
N/A
Protected

Academic year: 2021

Partager "Chaine 3D interactive"

Copied!
175
0
0

Texte intégral

(1)

HAL Id: tel-01164114

https://hal.archives-ouvertes.fr/tel-01164114v2

Submitted on 15 Sep 2015

HAL is a multi-disciplinary open access archive for the deposit and dissemination of sci- entific research documents, whether they are pub- lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.

To cite this version:

Vincent Daval. Chaine 3D interactive. Traitement du signal et de l’image [eess.SP]. Université de

Bourgogne, 2014. Français. �NNT : 2014DIJOS068�. �tel-01164114v2�

(2)

Thèse de Doctorat

n

é c o l e d o c t o r a l e s c i e n c e s p o u r l ’ i n g é n i e u r e t m i c r o t e c h n i q u e s

U N I V E R S I T É D E B O U R G O G N E

Chaine 3D interactive

V INCENT D AVAL

(3)
(4)

Thèse de Doctorat

é c o l e d o c t o r a l e s c i e n c e s p o u r l ’ i n g é n i e u r e t m i c r o t e c h n i q u e s

U N I V E R S I T É D E B O U R G O G N E

TH ` ESE pr ´esent ´ee par

V INCENT D AVAL

pour obtenir le

Grade de Docteur de l’Universit ´e de Bourgogne

Sp ´ecialit ´e : Informatique et Instrumentation de l’Image

Chaine 3D interactive

Soutenue publiquement le 09 d ´ecembre 2014 devant le Jury compos ´e de :

MARC

A

NTONINI

Rapporteur Directeur de recherche - I3S - Universit ´e de Sophia Antipolis

OLIVIER

A

UBRETON

Directeur de th `ese Maitre de conf ´erence HDR - LE2I - Universit ´e de Bourgogne

GILLES

G

ESQUIERE

` Rapporteur Professeur - LIRIS - Universit ´e Lumi `ere de Lyon

FABRICE

M ´

ERIAUDEAU

Examinateur Professeur - LE2I - Universit ´e de Bourgogne

FRED´ ERIC´

P

AYAN

Examinateur Maitre de conf ´erence - I3S - Universit ´e de Sophia Antipolis

FRED´ ERIC´

T

RUCHETET

Co-directeur Professeur - LE2I - Universit ´e de Bourgogne

N

X X X

(5)
(6)

R EMERCIEMENTS

Avant toute chose, je tiens `a exprimer mes plus sinc `ere remerciements aux diff ´erents acteurs qui ont contribu ´e, de pr `es ou de loin, `a ce projet et qui m’ont permis de le mener

`a bien. Bien entendu, je remercie avant tout la direction du laboratoire Le2i (UMR CNRS 6306) de m’avoir accueilli au sein du d ´epartement Vision du Creusot, ainsi qu’au Conseil R ´egional de Bourgogne, co-financeur de ces travaux.

Je tiens tout d’abord `a remercier mon directeur de th `ese, Olivier AUBRETON, ainsi que mon co-directeur, Fr ´ed ´eric TRUCHETET, pour la confiance qu’ils m’ont accord ´ee pour la r ´ealisation de cette th `ese durant ces trois ann ´ees. La compl ´ementarit ´e de leur encadrements, leur disponibilit ´e, leur pr ´ecieux conseils et le temps qu’ils m’ont accord ´e durant cette p ´eriode m’ont permis de mener ce projet `a terme.

J’exprime ´egalement mes plus sinc `eres remerciements `a Marc ANTONINI et Gilles GESQUIERES de m’avoir fait l’honneur d’accepter de rapporter mon manuscrit et d’avoir consacrer de leur temps `a l’examen de ce m ´emoire. De m ˆeme, je souhaite remercier Fr ´ed ´eric PAYAN et Fabrice MERIAUDEAU d’avoir accept ´e d’ ˆetre examinateurs de cette th `ese.

Bien qu’une th `ese soit un travail personnel, je n’aurais jamais pu aboutir `a ces r ´esultats sans le soutien et l’ambiance de travail qui r `egne au sein du laboratoire. De ce fait, je tiens `a remercier chaleureusement l’ensemble des doctorants, permanents, stagiaires, et bien sur `a Nathalie, secr ´etaire du laboratoire, qui v ´ehiculent une tr `es bonne ambiance au sein de l’ ´equipe.

Enfin, je tiens `a exprimer ma plus sinc `ere gratitude `a ma famille pour m’avoir permis de faire se que je souhaitais et de m’avoir soutenu tout au long de ces ann ´ees.

v

(7)
(8)

S OMMAIRE

1 Introduction 1

1.1 La num ´erisation 3D . . . . 1

1.2 Probl ´ematique . . . . 2

1.3 Contexte de la th `ese . . . . 4

1.4 Contributions . . . . 4

2 Etat de l’art ´ 7 2.1 La num ´erisation 3D . . . . 7

2.1.1 Syst `emes d’acquisition optique passifs . . . . 9

2.1.1.1 St ´er ´eovision . . . . 9

2.1.1.2 Autres syst `emes . . . 10

2.1.2 Syst `emes optique actifs . . . 11

2.1.2.1 Lumi `ere structur ´ee . . . 11

2.1.2.2 Autres syst `emes . . . 12

2.1.3 Synth `ese . . . 12

2.2 Fonctionnement d’un scanner . . . 14

2.2.1 Le mod `ele du st ´enop ´e . . . 14

2.2.1.1 Du rep `ere monde au rep `ere cam ´era . . . 14

2.2.1.2 Du rep `ere cam ´era au rep `ere capteur . . . 15

2.2.1.3 Du rep `ere capteur au rep `ere image . . . 16

2.2.1.4 Mod `ele complet . . . 16

2.2.1.5 Les distorsions . . . 18

2.2.1.6 Calibrage du syst `eme . . . 20

2.2.2 Mise en correspondance . . . 20

vii

(9)

2.2.2.1 Rectification des images . . . 20

2.2.2.2 M ´ethodes locales classiques . . . 22

2.2.2.3 M ´ethodes locales par propagation de germes . . . 23

2.2.2.4 M ´ethodes globales . . . 24

2.2.2.5 Texture al ´eatoire . . . 24

2.2.2.6 Synth `ese . . . 25

2.2.3 Triangulation des points . . . 25

2.3 Extraction d’informations compl ´ementaires . . . 27

2.3.1 Normale `a la surface . . . 27

2.3.1.1 A partir du nuage de points . . . 27

2.3.1.2 A partir d’un maillage . . . 29

2.3.1.3 A partir des images . . . 30

2.3.2 Courbure . . . 30

2.3.2.1 D ´efinition de la courbure . . . 30

2.3.2.2 M ´ethodes de calcul . . . 31

2.3.3 Segmentation 3D . . . 32

2.3.3.1 Croissance de R ´egion . . . 33

2.3.3.2 Ligne de partage des eaux . . . 33

2.3.3.3 Partitionnement de graphes . . . 34

2.3.3.4 Sph `ere gaussienne . . . 34

2.3.4 Synth `ese . . . 34

2.4 Simplification des donn ´ees . . . 35

2.4.1 Simplification d’un nuage de points . . . 35

2.4.1.1 M ´ethodes de clustering . . . 35

2.4.1.2 M ´ethodes coarse-to-fine . . . 36

2.4.1.3 M ´ethodes it ´eratives . . . 36

2.4.2 Simplification d’un maillage . . . 37

2.4.2.1 Regroupement de sommets . . . 37

2.4.2.2 Technique de d ´ecimation . . . 37

(10)

SOMMAIRE ix

2.4.2.3 Surfaces enveloppantes . . . 39

2.4.2.4 Maillage progressif . . . 39

2.4.2.5 Autres m ´ethodes . . . 39

2.4.3 Primitives 3D . . . 40

2.4.3.1 Ransac . . . 41

2.4.3.2 Tranform ´ee de Hough . . . 42

2.4.3.3 M ´ethode de Benk ˜o et al. . . . 43

2.4.3.4 M ´ethode de Sunil et al. . . . 44

2.4.3.5 M ´ethode de B ´eni `ere . . . 45

2.4.3.6 Synth `ese . . . 45

3 Extraction d’informations depuis les images 47 3.1 Calcul des normales . . . 49

3.1.1 Adaptation de la m ´ethode de Song . . . 49

3.1.2 Influence de la densit ´e de points . . . 52

3.1.3 Caract ´erisation du bruit sur les normales . . . 54

3.2 D ´etection d’ar ˆetes saillantes par imagerie . . . 56

3.2.1 Estimation du rayon de courbure . . . 56

3.2.2 Discontinuit ´es . . . 59

3.2.3 Principe . . . 59

3.2.4 R ´esultats . . . 61

3.3 Primitives . . . 62

3.3.1 La sph `ere gaussienne . . . 62

3.3.2 Analyse en composantes principales . . . 63

3.3.2.1 Identification des primitives . . . 64

3.3.2.2 Mod ´elisation des primitives . . . 66

3.3.2.3 V ´erification . . . 70

3.3.2.4 R ´esultats . . . 70

3.4 Conclusion . . . 72

(11)

4 Syst `eme de num ´erisation dynamique 73

4.1 Fonctionnement du syst `eme . . . 73

4.2 Segmentation . . . 76

4.2.1 M ´ethodes globales . . . 78

4.2.2 M ´ethodes mixtes . . . 79

4.2.2.1 Split and Merge . . . 79

4.2.2.2 Optimisation . . . 80

4.2.3 M ´ethodes locales . . . 80

4.2.4 Approche utilis ´ee . . . 80

4.3 Extraction des primitives . . . 82

4.3.1 Ajustement des primitives . . . 83

4.3.2 Affinage de la segmentation . . . 84

4.3.3 Synth `ese . . . 86

4.4 Surfaces param ´etriques . . . 86

4.4.1 Surfaces de B ´ezier . . . 87

4.4.1.1 Courbes de B ´ezier . . . 87

4.4.1.2 Estimation des points de contr ˆole . . . 88

4.4.1.3 D ´ecomposition des objets . . . 92

4.4.2 Test des surfaces . . . 93

4.5 Incr ´ementation et arr ˆet du syst `eme . . . 93

4.6 Conclusion . . . 94

5 R ´esultats 95 5.1 Outil logiciel . . . 95

5.2 R ´esultats ´etape par ´etape . . . 96

5.2.1 Acquisition . . . 97

5.2.2 Marquage des r ´egions . . . 99

5.2.2.1 Cas des primitives . . . 101

5.2.2.2 Cas des surfaces param ´etriques . . . 102

(12)

SOMMAIRE xi

5.2.3 Incr ´ementation du syst `eme . . . 103

5.2.4 R ´esultats . . . 104

5.3 Impact des diff ´erents param `etres . . . 107

5.4 Evaluation de notre m ´ethode . . . 110 ´

5.5 Am ´elioration du syst `eme . . . 112

5.5.1 Principe de la m ´ethode . . . 113

5.5.2 Extraction des param `etres des ellipses . . . 114

5.5.3 Reconstruction de la forme 3D . . . 115

6 Conclusion et perspectives 117 6.1 R ´esum ´e de nos contributions . . . 117

6.2 Perspectives . . . 119

6.3 Publications . . . 121

Bibliographie 123

Annexe A 133

Annexe B 145

Table des figures 151

Liste des tables 157

(13)
(14)

1

I NTRODUCTION

1.1/ L A NUM ERISATION ´ 3D

La num ´erisation 3D est un domaine en constante ´evolution qui int ´eresse de plus en plus le monde de la recherche et le grand public. Le concept de base consiste `a copier num ´eriquement un objet ou une sc `ene en trois dimensions `a l’aide d’un scanner 3D. Si la num ´erisation 3D est devenue un domaine aussi r ´epandu, c’est en grande partie d ˆu `a la forte croissance du nombre et du type d’applications faisant appel `a cette technique (figure 1.1). En effet, aujourd’hui la num ´erisation 3D est devenue un outil tr `es utilis ´e dans de nombreux domaines comme la m ´edecine (simulation du r ´esultat d’une op ´eration, suivi m ´edical, proth `eses), l’arch ´eologie (reconstitution d’objets abˆım ´es, duplication de pi `eces anciennes), le patrimoine (d ´eformation des structures, ´evolution des travaux, archivage des b ˆatiments), ou encore des applications industrielles (contr ˆole qualit ´e, r ´etro-conception). Chaque application a des exigences particuli `eres, la r ´etro-conception demande une grande pr ´ecision l `a o `u la chirurgie n ´ecessite un syst `eme portable pour plus de souplesse. Le patrimoine, quant `a lui, n ´ecessite un syst `eme adapt ´e aux ob- jets de grande dimension afin de num ´eriser l’objet ou la sc `ene beaucoup plus rapidement.

(a) Patrimoine (b) M ´edical (c) Contr ˆole qualit ´e

F

IGURE

1.1 – Diverses applications faisant appel `a la num ´erisation 3D.

De ce fait, il existe de nombreuses technologies diff ´erentes permettant de num ´eriser un objet en 3D et donc, autant de type de scanners (figure 1.2). Parmi ces diff ´erentes

1

(15)

technologies, il y a entre autres les syst `emes `a temps de vol, les scanners `a d ´ecalage de phase ou encore les syst `emes `a triangulation. Chaque technologie a ses avantages et ses inconv ´enients, souvent li ´es `a son domaine d’application. Les syst `emes `a temps de vol, par exemple, sont moins pr ´ecis que les autres technologies de scanners mais ils permettent de reconstruire des objets de grande taille en un temps record, alors que les scanners `a triangulation fournissent des donn ´ees beaucoup plus denses et pr ´ecises mais leur champ de num ´erisation est de l’ordre du centim `etre. Dans les cas industriels, les scanners les plus r ´epandus et les plus adapt ´es aux diff ´erentes applications sont donc les scanners `a triangulation.

(a) Comet (b) Minolta

(c) Kinect (d) Artec

F

IGURE

1.2 – Diff ´erents types de scanner 3D.

1.2/ P ROBL EMATIQUE ´

Avec l’ ´evolution constante des technologies, les scanners 3D fournissent de plus en plus de donn ´ees avec une pr ´ecision toujours plus grande. Cependant, l’augmentation consid ´erable de la taille des donn ´ees pose des probl `emes, les fichiers deviennent tr `es lourds et il peut en d ´ecouler des difficult ´es de transmission ou de stockage. La plupart du temps, les donn ´ees obtenues par les scanners sont ensuite analys ´ees puis trait ´ees.

In ´evitablement, en augmentant la taille des donn ´ees, le temps d’analyse sera ´egalement

augment ´e.

(16)

1.2. PROBL ´ EMATIQUE 3

Actuellement, la chaine d’acquisition classique (figure 1.3) peut se d ´ecomposer en plusieurs ´etapes s ´equentielles faisant chacune appel `a des comp ´etences particuli `eres bien distinctes, ce qui implique que chaque ´etape sera g ´en ´eralement trait ´ee par diff ´erents op ´erateurs. Il y a donc tr `es peu d’interactions entre les diff ´erentes ´etapes de la chaine et chaque partie va ˆetre analys ´ee s ´epar ´ement, ind ´ependamment de son utilisation future.

De ce fait, aujourd’hui, les scanners commerciaux fournissent des nuages tr `es denses compos ´es de plusieurs millions de points procurant ainsi la meilleure pr ´ecision possible lors de l’acquisition, et ce quelle qu’en soit l’utilisation finale.

Si dans certains cas industriels cette quantit ´e d’information semble justifi ´ee (r ´etro- conception), dans bien d’autres cas (contr ˆole des d ´efauts, mesure de distance, ...) calculer autant de points n’est pas forc ´ement n ´ecessaire. Bien au contraire, le fichier obtenu, tr `es volumineux, posera des probl `emes au niveau du stockage et du transfert des donn ´ees. Le temps de calcul n ´ecessaire pour analyser les donn ´ees va lui aussi ˆetre consid ´erablement augment ´e par rapport `a ce qu’il pourrait ˆetre. C’est pourquoi, avant d’ ˆetre trait ´ees, les donn ´ees vont ˆetre simplifi ´ees dans de nombreuses applications indus- trielles, pour r ´eduire le nombre de points par des ´etapes de compression/simplification tout en pr ´eservant le maximum d’informations.

F

IGURE

1.3 – La chaine 3D classique : de l’acquisition `a la compression.

La figure 1.3 illustre le sch ´ema classique que l’on rencontre souvent. Dans un premier temps, l’op ´erateur va acqu ´erir un nuage de points le plus dense possible `a l’aide d’un scanner. L’ ´etape suivante consiste g ´en ´eralement `a calculer des informations compl ´ementaires aux points 3D, comme les normales `a la surface en chaque point, la courbure ou encore l’extraction de primitives g ´eom ´etriques simples (plans, cylindres, ...).

Cette ´etape est g ´en ´eralement appliqu ´ee sur le nuage de points maill ´e, bien que l’on trouve aujourd’hui de plus en plus d’approches permettant d’extraire ces informations di- rectement sur le nuage de points brut non maill ´e. Enfin, en fonction de l’utilisation que l’on souhaite faire des donn ´ees, la derni `ere ´etape consiste `a compresser/simplifier le nuage de points en fonction des diff ´erentes informations extraites lors de l’ ´etape pr ´ec ´edente.

La partie concernant l’extraction des informations et la partie concernant la simplification

sont aujourd’hui assez li ´ees ´etant donn ´e que la plupart des algorithmes de simplifica-

tion de donn ´ees tridimensionnelles n ´ecessitent de calculer ces informations au pr ´ealable.

(17)

Ce sch ´ema classique permet ainsi d’obtenir des donn ´ees nettement moins volumineuses et donc plus rapides `a traiter et plus simples `a utiliser. Cependant cette approche am `ene une question : connaissant l’utilisation finale des donn ´ees, pourquoi calculer autant de points lors de l’acquisition s’il faut en r ´eduire le nombre par la suite ? N’est-il pas possible d’agir directement sur l’acquisition pour adapter les donn ´ees `a leur utilisation finale ? Nous proposons dans nos travaux une m ´ethodologie permettant de r ´epondre positive- ment `a cette derni `ere interrogation.

1.3/ C ONTEXTE DE LA TH ESE `

Avant de pr ´esenter nos contributions, il convient de situer le contexte dans lequel s’inscrit cette th `ese. Les travaux r ´ealis ´es durant cette th `ese s’inscrivent dans un projet, le projet CreActive 3D, regroupant trois partenaires : le laboratoire I3S [1], le laboratoire le2i [2]

et la soci ´et ´e Noomeo [3]. Le projet se divise en deux parties distinctes. La premi `ere partie consiste `a guider l’acquisition `a partir d’une analyse du maillage et la seconde partie, trait ´ee dans ce document, consiste `a extraire des informations depuis les images du scanner en vue de simplifier les donn ´ees. La soci ´et ´e Noomeo d ´eveloppe et produit des scanners commerciaux, principalement destin ´es au domaine de l’a ´eronautique. De ce fait, l’objectif final de ce projet consiste `a appliquer nos travaux `a l’un des scanners de l’entreprise : l’OptiNum (scanner portable). Le domaine principal ´etant l’a ´eronautique, les travaux que nous pr ´esentons dans la suite du document sont exclusivement destin ´es `a des pi `eces manufactur ´ees.

1.4/ C ONTRIBUTIONS

Ce m ´emoire pr ´esente une approche qui permet de num ´eriser les objets de mani `ere

dynamique, en adaptant la densit ´e de points en fonction de la complexit ´e de la forme de

l’objet `a num ´eriser, et ce sans a priori sur la forme de l’objet. L’int ´er ˆet de cette approche

est d’ ´eviter de passer par le sch ´ema classique, en adaptant la densit ´e de points au

niveau de l’acquisition afin d’obtenir des donn ´ees simplifi ´ees directement `a la sortie de

l’acquisition, plut ˆot qu’en calculant un nuage de points dense, qu’il faudra simplifier par

la suite. Etant donn ´e le contexte de la th `ese, le syst `eme de num ´erisation pr ´esent ´e par la

suite a ´et ´e d ´evelopp ´e pour fonctionner sur des objets manufactur ´es. C’est pourquoi, ce

m ´emoire sera pr ´esent ´e de la fac¸on d ´ecrite dans le paragraphe suivant, `a l’image de la

chaine 3D classique.

(18)

1.4. CONTRIBUTIONS 5

Dans un premier chapitre, il sera pr ´esent ´e un ´etat de l’art de la chaine 3D classique,

´etape par ´etape, en allant de l’acquisition `a la compression. Dans cette partie, nous pr ´esenterons tout d’abord les diff ´erentes technologies de scanners qui existent aujour- d’hui, ainsi que le fonctionnement du scanner mis `a notre disposition par la soci ´et ´e Noomeo. Etant donn ´e que le syst `eme dynamique pr ´esent ´e dans ce m ´emoire utilise des donn ´ees du scanner, de nombreux points pr ´esent ´es dans cette partie seront r ´e-utilis ´es par la suite dans d’autres chapitres. La seconde ´etape de la chaine 3D traite de l’extraction d’informations compl ´ementaires aux points 3D. Ainsi, dans un second temps, ce chapitre pr ´esentera les diff ´erents attributs g ´en ´eralement extraits durant cette ´etape, aussi bien sur le nuage de points que sur le maillage. Viendra enfin la derni `ere partie concernant la simplification des donn ´ees et les diff ´erentes m ´ethodes qui permettent de compresser/simplifier des donn ´ees tridimensionnelles.

L’objectif de ce m ´emoire est de pr ´esenter un syst `eme permettant de simplifier les donn ´ees durant l’acquisition. Le syst `eme d ´evelopp ´e s’inspire des diff ´erentes ´etapes de la chaine 3D. La diff ´erence principale, avec les syst `emes classiques, est que les donn ´ees trait ´ees sont les images fournies par le scanner plut ˆot que le nuage de points d ´etermin ´es

`a partir de ces images. Ainsi, dans un second chapitre, nous pr ´esenterons les m ´ethodes d ´evelopp ´ees pour extraire des informations compl ´ementaires `a partir des images fournies par le scanner. Ces informations sont les normales 3D, les discontinuit ´es, ainsi que des primitives g ´eom ´etriques.

Le troisi `eme chapitre de ce m ´emoire pr ´esente comment l’objectif de notre travail, qui consiste `a obtenir des donn ´ees simplifi ´ees `a la sortie de l’acquisition en utilisant les donn ´ees extraites lors de l’ ´etape pr ´ec ´edente (normales, discontinuit ´es, primitives), est atteint. Le principe de fonctionnement complet de notre syst `eme sera pr ´esent ´e dans un quatri `eme chapitre, cette pr ´esentation s’appuyant sur ce qui se fait traditionnellement en 3D dans la chaine classique.

Les r ´esultats obtenus avec notre syst `eme seront pr ´esent ´es et compar ´es `a des m ´ethodes classiques (passant par toutes les ´etapes de la chaine 3D) dans un cinqui `eme chapitre.

Enfin nous conclurons et pr ´esenterons des perspectives envisageables pour am ´eliorer le

syst `eme.

(19)
(20)

2

E ´ TAT DE L ’ ART

Comme pr ´esent ´e en introduction, la chaine 3D peut se d ´ecomposer en trois parties dis- tinctes : l’acquisition 3D, l’extraction d’informations sur le nuage de points et la simplifi- cation/compression des donn ´ees. Dans ce chapitre sont pr ´esent ´ees une ´etude biblio- graphique et un ´etat de l’art de chaque ´etape de la chaine 3D : la num ´erisation 3D (introduction `a la chaine 3D), le fonctionnement d’un scanner (acquisition), l’extraction d’informations et la simplification des donn ´ees.

2.1/ L A NUM ERISATION ´ 3D

Au cours des derni `eres ann ´ees, le nombre de syst `emes d’acquisition 3D commerciaux n’a cess ´e de progresser et leur impl ´ementation ne cesse de s’ ´etendre `a de nouveaux domaines. D `es 1988, Paul Besl [4] pr ´esentait d ´ej `a un ´etat de l’art sur les diff ´erentes m ´ethodes d’acquisition 3D actives et optiques et comparait les diff ´erents syst `emes existants `a l’ ´epoque. Par la suite, Brian Curless [5] d ´ecrit les principes et les technologies des diff ´erents syst `emes de num ´erisation et pr ´esente une arborescence permettant de classer et d’ordonner les diff ´erentes techniques. En s’inspirant de ces travaux, nous proposons une arborescence permettant de classer de mani `ere non exhaustives les diff ´erentes techniques de num ´erisation nous concernant (figure 2.1).

Les diff ´erentes m ´ethodes peuvent ˆetre class ´ees en deux cat ´egories, avec et sans contact. Actuellement, les m ´ethodes ayant la plus grande pr ´ecision sont celles avec contact. Le principe des m ´ethodes avec contact consiste `a palper la surface `a l’aide d’une bille en rubis mont ´ee sur un stylet. Lors du contact entre la surface de l’objet et du palpeur, les coordonn ´ees de la machine sont m ´emoris ´ees. Ces syst `emes sont g ´en ´eralement embarqu ´es sur une Machine `a Mesurer Tridimensionnelle (MMT). Cette technique fournit des r ´esultats avec une pr ´ecision de l’ordre du microm `etre. De ce fait,

7

(21)

Acquisition 3D

Avec contact Sans contact

Conventionnel

Tomographie

Actif

Passif

Shape from X

St ´er ´eovision Emission

R ´eflexion

Interf ´erom ´etrie

Polarisation

Non conventionnel

Shape from fluorescence Shape from

heating

Shape from distorsion

Lumi `ere structur ´ee

F

IGURE

2.1 – Graphe non exhaustif des syst `emes d’acquisition 3D.

les palpeurs sont g ´en ´eralement utilis ´es dans l’industrie pour obtenir une surface de

r ´ef ´erence. Cependant, l’inconv ´enient majeur d’une telle technique r ´eside dans le temps

d’acquisition (quelques points par seconde) qui peut tr `es rapidement devenir tr `es long

en fonction de la taille de la pi `ece `a num ´eriser et de la r ´esolution spatiale d ´esir ´ee.

(22)

2.1. LA NUM ´ ERISATION 3D 9

Les syst `emes de num ´erisation sans contact, quant `a eux, peuvent ˆetre class ´es en deux cat ´egories : les syst `emes conventionnels et non conventionnels. Les approches conventionnelles peuvent ˆetre d ´efinies comme les m ´ethodes s’approchant du syst `eme de vision humain. Parmi les m ´ethodes non conventionnelles on retrouve 3 classes : les m ´ethodes par r ´eflexion (interf ´erom ´etrie [6, 7, 8, 9], polarisation [10, 11, 12]), par ´emission (

scanning from heating

[13],

shape from fluorescence

[14]) et enfin la tomographie.

Dans ce chapitre nous pr ´esentons un ´etat de l’art des diff ´erents syst `emes nous concer- nant, `a savoir les m ´ethodes de num ´erisation conventionnelles (figure 2.1), qui peuvent ˆetre d ´ecompos ´ees en deux branches : les m ´ethodes passives et les m ´ethodes actives.

Les techniques passives utilisent un ou plusieurs capteurs et ne n ´ecessitent aucune source de lumi `ere command ´ee pour obtenir des informations tridimensionnelles, `a l’in- verse des m ´ethodes actives qui se servent de cette source pour obtenir des donn ´ees 3D.

2.1.1/ S YST EMES D ` ’ ACQUISITION OPTIQUE PASSIFS

Comme nous venons de le mentionner, les m ´ethodes passives ne n ´ecessitent pas d’ ´eclairage additionnel pour calculer des informations 3D. Ces syst `emes peuvent faire appel `a un ou plusieurs capteurs (cam ´era, appareil photographique) et utilisent diverses caract ´eristiques pour obtenir des donn ´ees tridimensionnelles comme les mouvements, les diff ´erents points de vue, la nettet ´e de l’image, etc.

2.1.1.1/ S

TER

´

EOVISION

´

La st ´er ´eovision est la m ´ethode la plus r ´epandue et la plus ´etudi ´ee parmi les approches passives. Il s’agit d’une m ´ethode de reconstruction de profondeur calcul ´ee par triangula- tion `a partir de deux images de la m ˆeme sc `ene prise `a partir d’un point de vue diff ´erent.

Pour que le calcul des informations 3D soit possible, les cam ´eras doivent au pr ´ealable ˆetre calibr ´ees, c’est `a dire que les param `etres intrins `eques (focale, position du centre optique, ...) et les param `etres extrins `eques (position et orientation) doivent ˆetre connus.

La figure 2.2 illustre le principe de la st ´er ´eovision. Pour tout point P visible depuis les deux

cam ´eras, il existe une projection de celui-ci dans les plans images Π

1

et Π

2

, not ´es res-

pectivement P

1

et P

2

. Inversement, connaissant les points P

1

et P

2

, ainsi que les centres

optiques des cam ´eras O

1

et O

2

(estim ´es lors de l’ ´etape de calibrage), il est possible

de remonter `a la position du point P qui se trouve `a l’intersection des droites (O

1

P

1

) et

(23)

(O

2

P

2

). De ce fait, seules les surfaces visibles communes aux deux cam ´eras peuvent ˆetre reconstruites avec ce proc ´ed ´e.

F

IGURE

2.2 – Principe de la st ´er ´eovision.

La principale difficult ´e de cette m ´ethode r ´eside dans la mise en correspondance des points entre les diff ´erentes vues. En fonction de la sc `ene `a num ´eriser, il est possible d’ap- pliquer diff ´erentes techniques de mise en correspondance (texture, contrainte ´epipolaire, ...). Les travaux de th `ese de Sylvie Chambon [15] pr ´esentent un bon ´etat de l’art des diff ´erentes approches permettant de faire de la mise en correspondance entre deux vues.

Pour pallier ces contraintes, il est ´egalement possible de projeter une texture pseudo- al ´eatoire sur l’objet `a num ´eriser [16] ce qui facilite grandement la mise en correspondance entre les diff ´erentes vues. La lumi `ere structur ´ee ajout ´ee joue un r ˆole important dans la reconstruction en facilitant l’appariement, mais elle ne participe pas directement `a la mesure de l’information tridimensionnelle. C’est la raison pour laquelle cette approche reste class ´ee comme une m ´ethode passive malgr ´e l’utilisation d’une source de lumi `ere.

2.1.1.2/ A

UTRES SYSTEMES

`

Il existe bien d’autres syst `emes de num ´erisation passifs comme le

shape from tex-

ture

[17], le

shape from motion

[18], ou encore le

shape from focus

[19]. Cepen-

dant, dans le cadre de notre projet le syst `eme utilis ´e est un syst `eme de st ´er ´eovision `a

projection de lumi `ere structur ´ee. C’est pourquoi, nous avons choisi de nous limiter `a ce

type de scanners dans cette partie.

(24)

2.1. LA NUM ´ ERISATION 3D 11

2.1.2/ S YST EMES OPTIQUE ACTIFS `

Les syst `emes passifs sont fortement d ´ependant des conditions d’ ´eclairage et des tex- tures de l’objet. Malheureusement, dans bien des cas, ces ´el ´ements ne peuvent pas ˆetre maˆıtris ´es et les syst `emes d’acquisition 3D deviennent alors moins performants voire tota- lement inop ´erants. Pour rem ´edier `a ces probl `emes, il est possible d’utiliser des syst `emes actifs : l’ ´eclairage est maitris ´e et devient un ´el ´ement important participant directement `a la mesure tridimensionnelle. Il s’agit des m ´ethodes les plus utilis ´ees par les prestataires de services de num ´erisation 3D et par les fournisseurs de scanners commerciaux.

2.1.2.1/ L

UMIERE STRUCTUR

`

EE

´

Les scanners `a lumi `ere structur ´ee projettent un motif lumineux connu sur l’objet `a num ´eriser. Ce motif va alors se d ´eformer en fonction de la surface de l’objet. Le principe d’un tel syst `eme consiste `a analyser la d ´eformation du motif projet ´e pour extraire la pro- fondeur de la sc `ene. Ces syst `emes sont compos ´es d’un ou plusieurs capteurs (cam ´eras) et d’un projecteur, ils se rapprochent finalement d’un syst `eme de st ´er ´eovision classique ; la diff ´erence majeure se situe dans l’appariement des points entre les diff ´erentes vues.

Dans le cas de la st ´er ´eovision, c’est la texture et les informations pr ´esentes sur les images qui sont utilis ´ees alors que dans le cas de syst `emes `a lumi `ere structur ´ee, l’ ´el ´ement permettant la mise en correspondance entre diff ´erentes vues n’est autre que le motif projet ´e. Ces syst `emes ont fait l’objet de tr `es nombreuses recherches lors de ces derni `eres ann ´ees tant les motifs et leurs m ´ethodes d’analyse peuvent ˆetre vari ´es. Salvi et al. [20] proposent un ´etat de l’art des diff ´erentes m ´ethodes ainsi qu’une classification de celles-ci en trois cat ´egories distinctes : les motifs `a encodage temporel [21, 22, 23],

`a encodage spatial [24, 25] et `a encodage couleur [26, 27, 28] (figure 2.3). Chaque type d’encodage a ses propres avantages et inconv ´enients.

Les motifs couleurs utilisent un panel de couleurs pour encoder les points permettant

ainsi une mise en correspondance entre les diff ´erentes vues assez simple. Ce type d’en-

codage permet de n’utiliser qu’une seule projection mais il est tr `es sensible `a la texture de

l’objet `a num ´eriser. A l’inverse, les motifs temporels sont compos ´es d’une succession de

motifs en niveau de gris, rendant ainsi ce codage robuste `a la texture mais tr `es sensible

aux mouvements des objets. Le dernier type d’encodage, qui peut ˆetre en couleur ou en

niveau de gris, utilise le voisinage de chaque pixel qui a la particularit ´e d’ ˆetre unique dans

l’image. Cette m ´ethode a l’avantage d’ ˆetre robuste `a la texture et aux mouvements mais

la complexit ´e des algorithmes de d ´ecodage peut parfois poser des probl `emes au niveau

du temps de calcul. Le choix du motif `a projeter d ´epend donc beaucoup de l’utilisation

(25)

(a) Encodage Couleur (b) Encodage Temporel (c) Encodage Spatial

F

IGURE

2.3 – Motifs de lumi `ere structur ´ee.

que l’on souhaite faire du scanner : objets statiques, mobiles, acquisitions rapides, etc.

Les syst `emes `a lumi `ere structur ´ee sont les scanners les plus fr ´equemment utilis ´es par les fabricants avec les syst `emes `a triangulation active.

2.1.2.2/ A

UTRES SYSTEMES

`

Tout comme pour les syst `emes passifs, seul les scanners `a lumi `ere structur ´ee nous concerne dans le cadre de ce projet. Il existe cependant bien d’autres techniques ac- tives permettant de reconstruire un objet en 3D. Citions entre autres la triangulation laser [29] ou encore les syst `emes `a temps de vol.

2.1.3/ S YNTH ESE `

Toutes les techniques qui viennent d’ ˆetre pr ´esent ´ees ont fait l’objet de nombreuses recherches et la plupart sont utilis ´ees par les fabricants de scanner 3D. Comme cela a

´et ´e mentionn ´e plusieurs fois, chaque syst `eme `a ses avantages et ses inconv ´enients.

Sansoni et al. [30] pr ´esentent un tableau comparatif des avantages et inconv ´enients des diff ´erentes m ´ethodes (tableau 2.1).

Ce tableau permet de se faire une id ´ee du type de technologie vers laquelle s’orien-

ter en fonction de l’application vis ´ee. D’un point de vue g ´en ´eral, les syst `emes optiques

pr ´esentent des avantages tr `es int ´eressants : possibilit ´e de num ´eriser un objet sans

contact, portabilit ´e du syst `eme qui permet de l’utiliser n’importe o `u, bonne pr ´ecision

de mesure y compris pour des cas industriels, existence de diff ´erentes technologies

adapt ´ees `a la plupart des objets (objets de grande taille, objets de taille microscopique,

objets r ´efl ´echissants, ...).

(26)

2.1. LA NUM ´ ERISATION 3D 13

Technologies Avantages Inconv ´enients

- Simple `a mettre en œuvre - Temps de calcul St ´er ´eovision - Bonne pr ´ecision sur des - Donn ´ees ´eparses

cibles bien d ´efinies - Limit ´e `a certaines sc `enes - Faible densit ´e d’acquisition - Simple `a mettre en œuvre - Temps de calcul Photogramm ´etrie - Bonne pr ´ecision sur des - Donn ´ees ´eparses

cibles bien d ´efinies - Limit ´e `a certaines sc `enes - Faible densit ´e d’acquisition Shape from Shading - Simple `a mettre en œuvre - Faible pr ´ecision

Shape from Texture - Simple `a mettre en œuvre - Faible pr ´ecision - Moins bonne pr ´ecision Shape from Motion - Simple `a mettre en œuvre que la st ´er ´eovision

- Donn ´ees ´eparses - Simple `a mettre en œuvre - S ´ecurit ´e li ´ee au laser Triangulation - Pas d’influence de - Volume de mesure limit ´e

Laser la lumi `ere ambiante - Prix

- Bonne densit ´e - Pr ´esence d’occlusions, d’ombres

- Grand volume de mesure - Prix

Temps de vol - Pas d’influence de - Pr ´ecision plus faible la lumi `ere ambiante que la triangulation

- Bonne densit ´e

- Limit ´e `a des surfaces Interf ´erom ´etrie - Pr ´ecision inf ´erieure au µm presque planes

- Prix

Franges de Moir ´e - Simple `a mettre en œuvre - Limit ´e `a des surfaces lisses - Acquisition dense - Complexit ´e du calcul Lumi `ere - Volume de mesure moyen - Pr ´esence d’ombres, d’occlusions structur ´ee - Performances peu influenc ´ees - Prix

par la lumi `ere ambiante

T

ABLE

2.1 – Tableau comparatif des diff ´erentes techniques optiques de num ´erisation 3D

[30].

(27)

2.2/ F ONCTIONNEMENT D ’ UN SCANNER

Dans le cadre du projet qui englobe cette th `ese, la soci ´et ´e Noomeo a mis `a notre dispo- sition un scanner 3D. Ce scanner est un syst `eme compos ´e de deux cam ´eras et utilisant le principe de la st ´er ´eovision aid ´ee par une projection de texture pseudo-al ´eatoire. Afin de bien comprendre le fonctionnement d’un scanner, et plus pr ´ecis ´ement de ce type de scanner, ainsi que certaines notions qui seront utilis ´ees par la suite dans ce m ´emoire, il convient de poser les bases du fonctionnement de ce scanner.

2.2.1/ L E MOD ELE DU ST ` ENOP ´ E ´

Un scanner 3D optique est g ´en ´eralement compos ´e d’une ou plusieurs cam ´eras, qui sont elles-m ˆemes compos ´ees d’un capteur photographique (de type CMOS ou CCD), d’un objectif optique et d’un zoom. Par souci de simplification, les cam ´eras sont g ´en ´eralement mod ´elis ´ees par un mod `ele d ´ecrivant le processus de formation des images. Le mod `ele le plus simple et le plus r ´epandu en vision par ordinateur [31, 32] est le mod `ele st ´enop ´e, ou mod `ele

pinhole

, qui mod ´elise une cam ´era par projection perspective (figure 2.4).

Ce mod `ele permet de transformer un point 3D Q de l’espace monde R

M

en un point image q dans le rep `ere image R

i

. Cette transformation peut se d ´ecomposer en trois transforma- tions ´el ´ementaires successives symbolis ´ees par les fl `eches 1, 2 et 3 sur la figure 2.4. La premi `ere transformation s’effectue entre le rep `ere monde R

M

et le rep `ere de la cam ´era R

c

, la deuxi `eme transformation entre le rep `ere cam ´era R

c

et le rep `ere du capteur R

r

et enfin la derni `ere transformation entre le capteur R

r

et le rep `ere image R

i

.

2.2.1.1/ D

U REPERE MONDE AU REP

`

ERE CAM

`

ERA

´

La transformation entre le rep `ere monde R

M

et le rep `ere cam ´era R

c

(dont l’origine est situ ´ee au centre optique de la cam ´era) est symbolis ´ee par la fl `eche 1 sur la figure 2.4.

Cette transformation peut ˆetre d ´ecompos ´ee par une rotation not ´ee [R] et une translation not ´ee [t]. En vision par ordinateur, on utilise g ´en ´eralement les coordonn ´ees homog `enes car elles permettent d’exprimer le mod `ele st ´enop ´e par une relation lin ´eaire. La relation entre R

M

et R

c

s’ ´ecrit alors :

 

 

 

 

 

 

 

 

 

 

 X

c

Y

c

Z

c

1

 

 

 

 

 

 

 

 

 

 

= R

 

 

 

 

 

 

 

 

 

 

 X Y Z 1

 

 

 

 

 

 

 

 

 

 

+ t =

 

 

 

 

 

 

 

 

 

 

t

x

R

3×3

t

y

t

z

0 0 0 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 X Y Z 1

 

 

 

 

 

 

 

 

 

 

= T

1

 

 

 

 

 

 

 

 

 

 

 X Y Z 1

 

 

 

 

 

 

 

 

 

 

, (2.1)

(28)

2.2. FONCTIONNEMENT D’UN SCANNER 15

F

IGURE

2.4 – Mod ´elisation d’une cam ´era : mod `ele st ´enop ´e.

avec

R =

 

 

 

 

 

 

 

r

11

r

12

r

13

r

21

r

22

r

23

r

31

r

32

r

33

 

 

 

 

 

 

 

. (2.2)

Les param `etres de la matrice de transformation T

1

entre le rep `ere monde et le rep `ere cam ´era sont commun ´ement appel ´es param `etres extrins `eques.

2.2.1.2/ D

U REPERE CAM

`

ERA AU REP

´

ERE CAPTEUR

`

Le passage du rep `ere cam ´era R

c

au rep `ere capteur R

r

est une projection perspective qui

permet de transformer un point 3D (X

c

, Y

c

, Z

c

) en un point image (x, y). Cette transforma-

tion est repr ´esent ´ee par la fl `eche 2 sur la figure 2.4 et s’ ´ecrit de la fac¸on suivante :

(29)

 

 

 

 

 

 

  x y 1

 

 

 

 

 

 

 

=

 

 

 

 

 

 

 

f 0 0 0

0 f 0 0

0 0 1 0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 X

c

Y

c

Z

c

1

 

 

 

 

 

 

 

 

 

 

= T

2

 

 

 

 

 

 

 

 

 

 

 X

c

Y

c

Z

c

1

 

 

 

 

 

 

 

 

 

 

, (2.3)

avec f la distance focale de l’objectif de la cam ´era. Le point q(x, y) est exprim ´e en unit ´e m ´etrique.

2.2.1.3/ D

U REPERE CAPTEUR AU REP

`

ERE IMAGE

`

La troisi `eme et derni `ere transformation, la fl `eche 3 sur la figure 2.4, permet de convertir un point q(x, y), exprim ´e en unit ´e m ´etrique dans le rep `ere capteur R

r

, en un point q(u, v) exprim ´e en pixel dans le rep `ere image R

i

. La transformation entre ces deux rep `eres s’ ´ecrit :

 

 

 

 

 

 

  u v 1

 

 

 

 

 

 

 

=

 

 

 

 

 

 

 

k

x

s x

0

0 k

y

y

0

0 0 1

 

 

 

 

 

 

 

 

 

 

 

 

 

  x y 1

 

 

 

 

 

 

 

= T

3

 

 

 

 

 

 

  x y 1

 

 

 

 

 

 

 

, (2.4)

o `u :

• k

x

et k

y

d ´esignent la densit ´e de pixels par unit ´e de longueur selon les directions x et y du capteur de la cam ´era. Dans le cas id ´eal, o `u les pixels sont carr ´es, on a k

x

= k

y

.

• x

0

et y

0

sont les coordonn ´ees de l’intersection entre l’axe optique de la cam ´era et le plan image. Il s’agit donc de l’origine du rep `ere capteur R

r

. Dans un cas parfait, x

0

et y

0

sont au centre de l’image.

• s, appel ´e

screw factor

en anglais, est le facteur de non-orthogonalit ´e entre les lignes et les colonnes des pixels du capteur de la cam ´era. En g ´en ´eral, ce param `etre est tr `es faible et il est donc tr `es souvent n ´eglig ´e.

2.2.1.4/ M

ODELE COMPLET

`

Le mod `ele st ´enop ´e complet consiste donc `a passer d’un point 3D Q(X, Y , Z) exprim ´e dans le rep `ere monde R

M

`a un point image q(u, v) exprim ´e dans le rep `ere image R

i

en pas- sant par les trois transformations vues pr ´ec ´edemment. Pour un point q(u, v) on peut alors

´ecrire :

(30)

2.2. FONCTIONNEMENT D’UN SCANNER 17

 

 

 

 

 

 

  u v 1

 

 

 

 

 

 

 

= T

3

T

2

T

1

 

 

 

 

 

 

 

 

 

 

 X Y Z 1

 

 

 

 

 

 

 

 

 

 

. (2.5)

En d ´eveloppant (2.6), on obtient :

 

 

 

 

 

 

  u v 1

 

 

 

 

 

 

 

=

 

 

 

 

 

 

 

k

x

s x

0

0 k

y

y

0

0 0 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

f 0 0 0

0 f 0 0

0 0 1 0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

t

x

R

3×3

t

y

t

z

0 0 0 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 X Y Z 1

 

 

 

 

 

 

 

 

 

 

, (2.6)

qui peut se mettre sous la forme suivante :

 

 

 

 

 

 

  u v 1

 

 

 

 

 

 

 

=

 

 

 

 

 

 

 

f

x

s x

0

0 0 f

y

y

0

0

0 0 1 0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

t

x

R

3×3

t

y

t

z

0 0 0 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 X Y Z 1

 

 

 

 

 

 

 

 

 

 

= K

 

 

 

 

 

 

 

 

 

 

t

x

R

3×3

t

y

t

z

0 0 0 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 X Y Z 1

 

 

 

 

 

 

 

 

 

 

. (2.7)

La matrice K est compos ´ee exclusivement de param `etres propres `a la cam ´era, on parle alors de param `etres intrins `eques. On trouve souvent le mod `ele st ´enop ´e ´ecrit sous la forme simplifi ´ee suivante :

 

 

 

 

 

 

  u v 1

 

 

 

 

 

 

 

= K

 

 

 

 R t 0

T

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 X Y Z 1

 

 

 

 

 

 

 

 

 

 

= P

c

 

 

 

 

 

 

 

 

 

 

 X Y Z 1

 

 

 

 

 

 

 

 

 

 

, (2.8)

avec K la matrice des param `etres intrins `eques, [R|t] les param `etres extrins `eques. La matrice P

c

qui englobe les deux matrices K et [R|t] est appel ´ee matrice de projection. Un syst `eme de st ´er ´eovision ´etant compos ´e de deux cam ´eras, il convient de diff ´erencier les diff ´erents rep `eres et matrices de projection afin de ne pas les confondre (figure 2.5).

G ´en ´eralement, pour les distinguer, on ajoute un indice diff ´erent pour chaque cam ´era.

Ainsi dans le cas de la premi `ere cam ´era, la projection du point Q(X, Y , Z) dans le rep `ere

image sera not ´ee q

0

, la projection du rep `ere monde au rep `ere image P

c0

et les diff ´erents

rep `eres R

c0

, R

r0

et R

i0

. De la m ˆeme fac¸on, pour la seconde cam ´era, les rep `eres seront

not ´es R

c1

, R

r1

et R

i1

, la matrice de projection P

c1

et la projection du point Q dans l’image

(31)

F

IGURE

2.5 – Mod ´elisation d’un syst `eme de st ´er ´eovision.

sera not ´ee q

1

. Afin de simplifier les notations, le rep `ere monde R

M

est g ´en ´eralement confondu avec le rep `ere cam ´era R

c0

. De ce fait, la matrice de projection P

c0

ne contient plus que les param `etres intrins `eques de la premi `ere cam ´era, et la relation entre entre R

c0

et R

c1

correspond `a une rotation et une translation not ´ee [R|t] ( `a ne pas confondre avec les param `etres extrins `eques des cam ´eras qui sont d ´esormais not ´es [R

0

|t

0

] et [R

1

|t

1

]).

2.2.1.5/ L

ES DISTORSIONS

Dans tout syst `eme optique, les objectifs cr ´eent in ´evitablement des distorsions au niveau des images. Le mod `ele st ´enop ´e que nous venons de pr ´esenter mod ´elise une cam ´era id ´eale et ne tient donc pas compte des distorsions g ´eom ´etriques induites par l’objectif.

Cependant, Horst Beyer [33] a montr ´e que dans le cas d’applications m ´etrologiques (ce qui est le cas de la num ´erisation 3D), il est indispensable de prendre en compte les distorsions afin de les corriger.

Il existe plusieurs approches permettant de mod ´eliser les distorsions d’une cam ´era.

Dans la plupart des cas, l’approche utilis ´ee est une approche param ´etrique qui consiste

`a mod ´eliser la distorsion par des termes suppl ´ementaires. L’une de ces m ´ethodes,

pr ´esent ´ee par Weng et al. [34], s’inspire des aberrations g ´eom ´etriques des syst `emes

centr ´es en ajoutant au mod `ele des termes correctifs correspondant `a diff ´erents types de

distorsions : radiales, prismatiques ou de d ´ecentrage.

(32)

2.2. FONCTIONNEMENT D’UN SCANNER 19

Dans le mod `ele st ´enop ´e, la distorsion peut ˆetre mod ´elis ´ee par une quatri `eme transforma- tion D qui consiste `a corriger l’image en fonction des termes correctifs li ´es `a la distorsion induite par l’objectif. Le mod `ele complet peut alors ˆetre sch ´ematis ´e sous la forme sui- vante :

Q(X, Y , Z) −→

T1

Q

c

(X

c

, Y

c

, Z

c

) −→

T2

q(x, y) −→

D

q(x

0

, y

0

) −→

T3

q(u

0

, v

0

),

o `u u

0

et v

0

repr ´esentent les coordonn ´ees pixelliques corrig ´ees du point q. Toujours dans le mod `ele pr ´esent ´e par Weng, la distorsion D correspond `a la somme des distorsions radiales, prismatiques et de d ´ecentrage et peut s’ ´ecrire sous la forme suivante :

δx = δx

r

+ δx

p

+ δx

d

, δy = δy

r

+ δy

p

+ δy

d

, (2.9) avec δx

r

et δy

r

la distorsion radiale selon les axes x et y, δx

p

et δy

p

la distorsion pris- matique, puis δx

d

et δy

d

la distorsion de d ´ecentrage. Dans la mod ´elisation pr ´esent ´ee par Weng, les diff ´erentes distorsions s’ ´ecrivent de la fac¸on suivante :

 

 

δx

r

= k

1

x(x

2

+ y

2

)

δy

r

= k

1

y( x

2

+ y

2

) , (2.10)

 

 

δx

p

= s

1

(x

2

+ y

2

)

δy

p

= s

2

(x

2

+ y

2

) , (2.11)

 

 

δx

d

= p

1

(3x

2

+ y

2

) + 2 p

2

xy

δy

d

= 2p

1

xy + p

2

(x

2

+ y

2

) , (2.12) avec k

1

, d

1

, d

2

, p

1

et p

2

les param `etres de distorsions. Ces param `etres peuvent ˆetre estim ´es par une ´etape d’ ´etalonnage de la cam ´era. Il est alors possible d’effectuer la transformation passant d’un point image distordu q(x, y) `a un point image non-distordu q(x

0

, y

0

) et ainsi corriger la distorsion de l’image de la fac¸on suivante :

x

0

= x + δx, y

0

= y + δy. (2.13)

Il est important de noter que ce mod `ele, bien que tr `es utilis ´e n’est pas le seul mod `ele

existant. Il est possible de trouver d’autres mod ´elisations, notamment celles pr ´esent ´ees

par Tsai [35] et Faugeras [36].

(33)

2.2.1.6/ C

ALIBRAGE DU SYSTEME

`

Quel que soit le syst `eme de num ´erisation utilis ´e, pour pouvoir effectuer une reconstruc- tion 3D il faut avant tout connaitre la matrice de projection P

c

. Pour cela, il faut passer par une ´etape de calibrage, qui permet de d ´eterminer les param `etres intrins `eques (y compris les param `etres de distorsion) et extrins `eques de la cam ´era. L’id ´ee g ´en ´erale du calibrage d’une cam ´era consiste `a calculer directement la matrice de projection P

c

ou encore de calculer s ´epar ´ement les param `etres intrins `eques K et extrins `eques [R|t] en connaissant plusieurs points 3D Q

i

(X

i

, Y

i

, Z

i

) et leur observation dans l’image q

i

(u

0i

, v

0i

).

Il existe actuellement de tr `es nombreuses m ´ethodes et toolbox [37, 38] permettant de calibrer une cam ´era. Salvi, Zhang et Remondino [39, 40, 41] propose un ´etat de l’art ainsi qu’un comparatif des diff ´erentes techniques existantes.

2.2.2/ M ISE EN CORRESPONDANCE

Une mesure tridimensionnelle avec un syst `eme de st ´er ´eovision s’ ´etablit en trois ´etapes : la calibration du syst `eme, la mise en correspondance des points entre les images et le calcul de la position du point 3D par triangulation. La mise en correspondance de pixels consiste `a retrouver sur deux images d’une m ˆeme sc `ene, prises avec des points de vue diff ´erents, les deux pixels qui correspondent `a la projection d’un point de la sc `ene. La pr ´ecision de la mesure est directement d ´ependante de la calibration et de la qualit ´e de l’appariement des points entre les images. Cette derni `ere ´etape peut s’av ´erer compliqu ´ee car plusieurs difficult ´es peuvent entraˆıner des r ´esultats erron ´es comme le bruit de l’image, les variations d’intensit ´e ou encore les d ´eformations perspectives entre les deux images.

2.2.2.1/ R

ECTIFICATION DES IMAGES

Actuellement, il existe de nombreuses m ´ethodes permettant de mettre des points en correspondance entre deux images. Cependant, la grande majorit ´e des techniques vont, au pr ´ealable, rectifier les images afin de faciliter la mise en correspondance ; on parle de contrainte ´epipolaire. La notion de g ´eom ´etrie ´epipolaire est primordiale dans l’ ´etape de mise en correspondance des points. Chercher le correspondant d’un point dans toute une image peut s’av ´erer extr ˆemement co ˆuteux en temps de calcul si cette op ´eration est effectu ´ee pour tous les pixels. La contrainte ´epipolaire permet de simplifier le probl `eme.

En effet, Faugeras [36] a d ´emontr ´e que le correspondant d’un point q

0

dans une image

se trouve sur une ligne l

1

(appel ´ee ligne ´epipolaire) dans la seconde image. De ce fait,

il est possible de r ´eduire la zone de recherche du correspondant de q

0

dans la seconde

(34)

2.2. FONCTIONNEMENT D’UN SCANNER 21

image `a une ligne plut ˆot qu’ `a l’image enti `ere (figure 2.6). Les lignes ´epipolaires l

0

et l

1

sont obtenues par les relations suivantes :

l

0

= E × P

c0

(2.14)

l

1

= E

T

× P

c1

, (2.15)

avec E la matrice essentielle, qui peut ˆetre obtenue lors de l’ ´etape de calibrage. Le prin- cipe de la rectification d’images consiste `a placer les ´epipoles e

0

et e

1

`a l’infini, ce qui a pour effet de projeter les plans images dans un seul et m ˆeme plan : on parle alors d’images rectifi ´ees. L’appariement des points se fait toujours selon la ligne ´epipolaire, mais cette fois-ci cette derni `ere correspond `a une seule et m ˆeme ligne l dans les deux images, ce qui simplifie fortement les calculs et les algorithmes (figure 2.7). De plus, g ´en ´eralement les distorsions sont prises en compte lors de l’ ´etape de rectification, per- mettant ainsi de revenir `a un mod `ele st ´enop ´e classique sans distorsion, comme pr ´esent ´e pr ´ec ´edemment.

F

IGURE

2.6 – Illustration de la g ´eom ´etrie ´epipolaire. En rouge, les lignes ´epipolaires et en bleu, le plan ´epipolaire.

La mise en correspondance st ´er ´eoscopique est un domaine qui a ´et ´e fortement ´etudi ´e

ces derni `eres ann ´ees et de nombreuses techniques ont ´et ´e propos ´ees. Il est possible

de regrouper les diff ´erentes techniques d’appariement en deux grandes familles : les

m ´ethodes locales et les m ´ethodes globales.

(35)

(a)

(b)

F

IGURE

2.7 – Rectification des images. a) Images non rectifi ´ees. b) Images rectifi ´ees.

2.2.2.2/ M ´

ETHODES LOCALES CLASSIQUES

Ces m ´ethodes recherchent, par corr ´elation, les points dont le voisinage local est le plus ressemblant entre les deux images. Le candidat dont le score de corr ´elation est le plus

´elev ´e pour un point donn ´e q

0

est retenu comme correspondant, not ´e q

1

. L’utilisation des images rectifi ´ees permet de r ´eduire la recherche du candidat `a une seule ligne de l’image.

Cependant, ces m ´ethodes ayant toujours un candidat (le meilleur score), les erreurs peuvent ˆetre assez fr ´equentes. Afin de les r ´eduire, la plupart des approches ajoutent des contraintes afin d’ ´eliminer les candidats les moins fiables ne v ´erifiant pas certaines contraintes :

• La contrainte sur le score de corr ´elation : seuls les candidats ayant un score de corr ´elation sup ´erieur `a un seuil sont retenus.

• La contrainte d’ordre : l’ordre des pixels dans l’image de r ´ef ´erence et des candidats dans la seconde image doit ˆetre le m ˆeme.

• La contrainte d’unicit ´e : un pixel ne peut ˆetre appair ´e qu’ `a un seul pixel dans la seconde image.

• La contrainte de sym ´etrie : les appariements trouv ´es doivent ˆetre les m ˆemes quelle que soit l’image de r ´ef ´erence.

• La contrainte du gradient de disparit ´e : les disparit ´es ne doivent pas varier brusquement

entre deux pixels voisins.

Références

Documents relatifs

L’Optique ´etudi´ee en PCSI : On distingue traditionnellement l’Optique g´eom´etrique, qui s’ap- puie sur la notion de rayon lumineux et permet d’expliquer la formation des

) le résultat suivant : Toute description d’événements dans l’espace nécessite l’emploi d’un corps rigide auquel les événements doivent être rapportés. ) Je définis la

Questions ` a pr´ eparer sur les syst` emes lin´

°2001 Laurent Bessi` eres (copyleft LDL : Licence pour Documents Libres).. Sources et figures:

´ el´ ementaire Cons´ equences. Coordonn´

Ce nombre F (n, c) se d´ eduit de la remarque suivante : ceux des coloriages o` u le secteur n est bord´ e de deux couleurs diff´ erentes peuvent ˆ etre mis en correspondance avec les

Parcours int´ egrant obligatoirement cette UE : elle fait partie du tronc commun. Parcours pouvant int´ egrer cette UE : tous les

Parcours int´ egrant obligatoirement cette UE : elle fait partie du tronc commun. Parcours pouvant int´ egrer cette UE : tous les