• Aucun résultat trouvé

Chapitre 2. Des données aux connaissances pour l’étude de l’état de

2.3. Données issues d’un processus de traitement

2.3.2. Génération de coordonnées 3D à partir de relevé photographique

Comme nous l’avons expliqué dans la partie précédente, il est possible d’acquérir des données 3D in situ à l’aide d’appareil très précis basé sur les lasers. De nos jours, il est également possible d’obtenir une représentation 3D en nuage de points à partir d’images. Les prises de vue ont été acquises in situ pour documenter le bâti, mais en suivant un protocole optimal il est également possible par traitement de ces images de générer des représentations 3D [Salonia P. et al., 2003].

Ces méthodes, dites indirectes, se basent sur l’exploitation de supports photographiques afin d’extraire des coordonnées spatiales, utilisant diverses techniques de restitution.

Il existe aussi des méthodes indirectes qui se basent sur l’exploitation du support photographique pour extraire les coordonnées spatiales à l’aide de différentes techniques de restitution : il s’agit de la photogrammétrie [Remondino F. et al, 2006] [Sturm P. et al, 2011]. La photogrammétrie se définit comme « la science ou la technique permettant d’obtenir des informations fiables sur l’espace naturel ou sur des objets physiques par l’enregistrement, la mesure et l’interprétation d’images photographiques… » [American Society of Photogrammetry, 1980]. Pendant longtemps, des chambres métriques et semi-métriques ont été utilisées pour l’acquisition photogrammétrique [Carbonnel M., 1968]. Les chambres métriques appartiennent à trois catégories : les chambres métriques, les chambres semi- métriques et les chambres à DTC (CCD) [Grussenmeyer P. et al., 2001]. Avec l’évolution des appareils numériques et des capteurs CCD, des images numériques peuvent être aujourd’hui directement acquises pour servir de bases à l’acquisition photogrammétrique et aux traitements sous-jacents.

La mesure se base sur le calcul des paramètres d’orientation internes et des paramètres d’orientation externes de l’appareil photographique [Kraus K. et al, 1997](Figure 32).

51 Figure 32 : Paramètres de calibration interne et externe.

L’orientation interne consiste à calibrer l’appareil, c’est-à-dire à fixer la position de la focale et à estimer la distorsion de l’image. L’orientation externe détermine la position et l’orientation de l’appareil dans l’espace-objet. Cette orientation est donc composée de six paramètres : trois pour la position (coordonnées suivant les trois axes: X, Y, Z) et trois pour l’orientation (angles autour des trois axes : ϴ, ψ, ω).

À partir de ces paramètres, la restitution photogrammétrique va extraire un ensemble de coordonnées dans l’espace. Le nombre d’images utilisées détermine la méthode : mono, stéréo ou multi-images (Figure 33) [Grussenmeyer P. et al., 2001].

La restitution à partir d’une seule image se base sur la mesure de plusieurs points, puis le redressement est estimé par approximation en considérant que les surfaces sont identifiées par un minimum de quatre points d’appui. Cependant, l’extraction de mesures est contrainte à l’orientation du plan choisi pour la rectification. La restitution à partir d’un couple d’images utilise une configuration stéréo. Les coordonnées 3D peuvent être retrouvées en cherchant l’intersection dans l’espace de deux points homologues sélectionnés entre les images.

Figure 33 : Schéma représentant les trois techniques de restitution photogrammétrique. De gauche à droite : la restitution à partir d’une seule image, d’un couple d’images et d’un bloc multi-image.

52 Pour la restitution à partir de plusieurs images, la méthode se base sur l’ajustement des faisceaux à partir d’un ensemble de correspondances sélectionnées sur les photographies. Sur cette méthode, le calcul des paramètres interne et externe peut être affiné par minimisation d’erreur. Ces trois méthodes ont été, à leur début, relativement manuelles, notamment sur la sélection des points homologues entre les images sur les deux dernières techniques.

Aujourd’hui, des solutions automatiques se développent pour les détections de points de correspondances et d’extraction de caractéristiques, permettant de développer une chaîne de reconstruction automatique à partir d’images non-orientées. Par conséquent, la génération de nuages de points avec différents degrés de densité est possible. Il y a différents outils qui permettent de produire une telle entité avec plus ou moins de performance : l’application [123D Catch] développée par Autodesk, PhotoScan [PhotoScan] de Agisoft, ou encore Bundler [Bundler].

Les paragraphes suivants montrent des exemples de ce qu’il est possible de générer après la phase d’acquisition photographique réalisée in situ en utilisant la suite d’outils photogrammétriques gratuits [Pierrot-Desseiligny M. et al., 2011a] [Pierrot-Desseiligny M. et al., 2011b]. La suite logicielle MIC MAC, développée par l’IGN, permet de réaliser des nuages de points à partir d’un ensemble d’images. Le nuage de points obtenu possède un niveau de cohérence important avec les images ainsi qu’une reproduction de la réalité et une résolution approximativement similaire à des données issues d’un laser. Avant d’obtenir un nuage précis multi-résolution, les outils de photogrammétrie procèdent à un traitement en trois phases. Les résultats (données) obtenus à la suite de ces étapes sont exploitables pour les traitements à venir notamment l’extraction des informations géométriques.

 Calibration et orientation des images : elle constitue la première phase qui est basée sur des méthodes open sources PASTIS et APERO [Pierrot-Desseiligny M. et al, 2011b], constituées de modules permettant de détecter et d’extraire des points communs entre les images, comme le ferait l’œil humain. Ces points sont appelés « Tie points » (points de correspondance ou homologue) (SIFT [Lowe D.G., 1999]) (Figure 34). Peu importe la position de l’individu par rapport à l’objet, un de ses points physiques sera toujours le même en fonction des prises de vue. Ces modules estiment également les paramètres internes et externes de la géométrie de l’appareil, calculent la solution initiale et enfin ajustent les faisceaux de correspondances pour les orientations relatives et absolues. De manière générale, ils calculent la position et l’orientation relatives des images. Cette première étape crée donc des fichiers d’orientation et de calibration, permettant ainsi de visualiser un modèle 3D constitué, d’une part, des points SIFT sous forme de nuage de points, et d’autre part, la position des caméras de chaque prise de vue (Figure 35).

53 Figure 34 : Faisceaux des points SIFT en deux images d'un même

objet : façade Est de l’église Saint-Maurice.

 Corrélation dense multi-vues : connaissant à présent la position des images, une méthode de reconstruction par appariement dense génère des cartes de profondeurs, pour chaque image, en utilisant une approche pyramidale d’appariement. Cette approche donne, pour chaque pixel ou pour un groupe de pixels de l’image, une valeur de profondeur. Ceux-ci sont enfin projetés dans l’espace tridimensionnel en sélectionnant les parties de l’image qui sont les plus pertinentes pour la projection par corrélation.

Figure 35 : Orientation des images autour du nuage du point SIFT: Église Saint-Maurice (à gauche), Chapelle Notre-Dame des Fontaines (à droite).

 Génération du nuage de points : Grâce aux résultats obtenus à travers les deux étapes précédentes, les cartes de profondeurs vont convertir les pixels en points 3D métriques dans un référentiel relatif. Cette conversion est basée sur la projection dans l’espace des pixels de l’image en tenant compte de l’orientation et des positions calculées dans la première phase. En outre, chaque image sert à générer une partie du nuage de points jusqu’à obtenir des coordonnées 3D pour chaque pixel. C’est l’agrégation de toutes ces parties qui permet de constituer le nuage de points final de l’objet étudié (Figure 36).

54 Figure 36 : Nuage de points final par photogrammétrie : église Saint Maurice (à gauche), Chapelle Notre-Dame des

Fontaines (à droite).

Aujourd’hui par le développement croissant de cet outil, il est possible de créer ce même nuage de points avec une ligne de commande comprenant quatre actions (Figure 37).

Le procédé général pour générer le nuage de points permet également, à partir des images, de créer d’autres types de visualisation, qui renferment beaucoup d’information et s’avèrent très utiles pour obtenir un aperçu de la morphologie complexe de l’édifice patrimonial.

Figure 37 : Ligne de commande tout-en-un pour la génération d'un nuage de points dense (MIC MAC).

Il est également possible de réaliser la même méthode sur des photographies montrant des détails caractéristiques de morphologies qui sont, elles aussi, orientées dans le même référentiel que le nuage de points général de l’objet étudié (Figure 38).

55 Le processus général de modélisation 3D automatique, basée sur les images, se place dans un référentiel complètement arbitraire, donc même si le modèle 3D peut atteindre une résolution similaire à celle d’un scanner, il est essentiel de le mettre à l’échelle pour tout traitement futur.

Figure 39 : Nuage de points scanner/Apericloud dans un même référentiel de coordonnées : chapelle Notre-Dame des Fontaines.

Afin de mettre à l’échelle l’ensemble du système image, il faut identifier un nombre de points suffisant en commun entre le modèle 3D du scanner et celui issu de la photogrammétrie puis de les faire coïncider : le modèle photogrammétrique sera alors positionné dans un référentiel de coordonnées métriques absolues (Figure 39). Cette représentation tridimensionnelle rend possible la réalisation d’analyses quantitatives précises et pertinentes d’informations morphologiques et spatiales.