• Aucun résultat trouvé

Les méthodes à triangulation

Dans le document Modèles de vision et synthèse d'images (Page 103-106)

6.2 Rendu progressif

6.2.3 Les méthodes à triangulation

Nous allons, dans cette section, présenter deux méthodes faisant appel à une subdivision constituée d’une triangulation de Delaunay. La première est due à Pighin et al([56]). La deuxième est l’oeuvre de Simmons et Séquin([68]).

La méthode de Pighin et al

Le point de départ de la méthode de Pighin et al est de reprendre ce qui faisait défaut à la méthode de Painter et Sloan, à savoir une interpolation plus efficace lors de la reconstruction de l’image à partir des échantillons, tout en utilisant au maximum les capacités des cartes 3D. Globalement, les auteurs vont donc utiliser une triangulation de Delaunay en lieu et place du kd tree de Painter et Sloan, avec en vue la possibilité d’afficher la structure résultante très rapidement : en effet, la très grande majorité des cartes graphiques actuelles sont capables d’afficher rapidement des triangles de Gouraud en très grand nombre (de l’ordre d’une centaine de millions en une seule passe). Pour traiter les textures, les auteurs vont également mettre à contribution les capacités du matériel graphique, en stockant une “detail map” contenant les textures sans éclairement, qui sera additionnée au rendu lors de l’affichage. La triangulation sera ensuite raffinée à chaque itération en fonction de critères plus simples que ceux de Painter et Sloan. Nous allons maintenant détailler l’algorithme de Pighin et al. Sur la figure 6.3, nous pouvons visualiser les données utilisées par cette méthode, ainsi que le résultat obtenu au bout d’une itération.

Étape 0 : précalculs Il est nécessaire d’effectuer un certain nombre de calculs préliminaires avant

de commencer la phase de rendu. Pour contraindre la triangulation de Delaunay, il nous faut la posi-tion de tous les bords visibles, qu’ils soient issus de bords d’objet, d’ombre ou encore de réflexions dans un miroir plan. Ensuite, il faut constituer une carte, nommée “detail map” par les auteurs, qui contiendra les textures projetées sur les objets, mais sans calcul d’éclairement. Pour les textures “bit-map”, cette opération peut être effectuée très rapidement en utilisant l’accélération matérielle de la carte graphique.

Étape 1 : création de l’ensemble d’échantillons initial Toute méthode progressive commence par

le choix des échantillons de départ. Les auteurs ont ici choisi une grille régulière d’échantillons, dont ils obtiennent ensuite une triangulation de Delaunay. Toutefois, pour limiter les erreurs d’interpola-tion, la triangulation est contrainte sur les bords des objets.

Étape 2 : interpolation L’image est obtenue en affichant les triangles ainsi créés et en superposant

la “detail map” afin d’ajouter les textures. Toutes ces opérations utilisent l’accélération matérielle de la carte graphique.

CHAPITRE 6. RENDU PROGRESSIF ET PERCEPTUEL 6.2. RENDU PROGRESSIF

FIG. 6.3 – Données utilisées par la méthode de prévisualisation de Pighin (de haut en bas, et de gauche

a droite) : position des bords géométriques, maillage de Delaunay contraint associé, carte des textures sans calcul d’éclairement, image résultat.

6.2. RENDU PROGRESSIF CHAPITRE 6. RENDU PROGRESSIF ET PERCEPTUEL

FIG. 6.4 – Données utilisées par la méthode de Simmons (de haut en bas, et de gauche à droite) :

maillage de Delaunay, carte de priorité, échantillons calculés, image reconstruite.

Étape 3 : raffinage Une fois cette triangulation mise en place, un poids est affecté à chaque arc.

Il est égal à la somme de la taille de l’arc avec la différence de luminance entre ses deux extrémités. La structure est parcourue, et un nouvel échantillon est ajouté au milieu de l’arc ayant le poids le plus fort. Le processus recommence ensuite à partir de l’étape 2, jusqu’à ce que l’utilisateur arrête le processus ou que tous les pixels du plan image soient échantillonnés.

Méthode de Simmons et Séquin

Dans [68], Simmons et Séquin ont proposé une méthode similaire, également basée sur une tri-angulation de Delaunay. Nous n’en présenterons ici que les caractéristiques originales par rapport à [56]. Pour le détail complet de la méthode, voir [68]. La figure 6.4 représente les données calculées et utilisées par cette technique.

Contrairement à Pighin et al, qui triangulaient directement le plan image, Simmons et Séquin uti-lisent une triangulation “2D et demi”, selon leurs propres termes. Cette dernière s’applique en effet sur une sphère unité centrée sur le point de vue. Cette projection permet d’éviter de tout recalculer dans le cas où le point de vue bougerait légèrement. L’entité élémentaire de la structure de subdivision n’est plus l’arc mais le triangle. Le poids de chaque triangle est calculé en appliquant une somme pondérée des différentes valeurs R,G,B de chacun de ses sommets et de la différence de profondeur des pixels constituant la cellule. La triangulation complète, une fois projetée sur le plan image, constitue une carte de priorité. Chaque nouvel échantillon est issu d’une suite pseudo-aléatoire 2D altérée suivant la carte de priorité. Il est ajouté à l’intérieur d’un triangle et en crée ainsi trois nouveaux. La condition de Delaunay est vérifiée sur ces nouveaux éléments, et la structure est corrigée si besoin est.

CHAPITRE 6. RENDU PROGRESSIF ET PERCEPTUEL 6.2. RENDU PROGRESSIF

Bilan

Ces deux méthodes ont en commun l’utilisation intensive de l’accélération matérielle dont bénéfi-cient les cartes vidéo modernes. Elles sont donc particulièrement bien adaptées à la pré visualisation de scènes. La méthode de Simmons et Séquin propose même la prise en compte du changement de point de vue, avec une réactualisation en temps réel de la structure de visualisation. Les limites sont toutefois assez rapidement visibles. Premièrement, les scènes géométriquement complexes se-ront difficiles à afficher : les scènes naturelles, par exemple, présentent trop peu de linéarités dans leur géométrie pour pouvoir être approximées rapidement par des triangles. Ensuite, comme précisé plus haut, la scène se doit d’être modélisée avec des facettes, alors qu’il existe d’autres modèles (CSG, splines, blobs,. . . ) permettant parfois une modélisation plus précise ou plus élégante2. Enfin, la cohé-rence spatiale de l’image n’est exploitée que sur les bords visibles, alors qu’une image de synthèse classique comporte beaucoup d’autres zones susceptibles d’être interpolées facilement, à commencer par toutes celles où la luminance des pixels varie peu (ombres douces, éclairement indirect,. . . ). Dans la section suivante, nous allons présenter un algorithme prenant en compte ces faibles variations.

Dans le document Modèles de vision et synthèse d'images (Page 103-106)