• Aucun résultat trouvé

Basée sur la même technique de compression sans perte du maillage grossier que celle utilisée dansCNM[56 ], les taux de compression obtenus sont légèrement meilleurs

sur la plupart des modèles, sachant que l’algorithme considéré nécessite des

informa-tions additionnelles pour l’attribution des débits différents à chaque segment. Le seul

maillage pour lequel les performances sont similaires est le modèle "Rabbit" qui, étant

globalement lisse, engendre un même nombre de bits alloués à chaque segment,

l’en-semble ayant alors des caractéristiques communes (mêmes types de fréquences).

Dans l’approche de Payan et al. les inconnues de l’équation de minimisation sont

cette fois-ci les pas de quantification des sous-bandes basse et haute fréquence

(com-posée des composantes tangentielles et normale pour chaque niveau de résolution). Ils

proposent ainsi d’évaluer la distance géométrique dans l’espace transformé, en

expri-mant l’EQM propre à la géométrie du maillage semi-régulier en fonction de l’erreur

de quantification dans les différentes sous-bandes. L’équation de minimisation est alors

résolue grâce à des modèles de distribution statistique différents pour les composantes

normales et tangentielles, vu que les coefficients sont principalement dirigés suivant la

normale. La sous-bande basse-fréquence étant également prise en compte, les

pondéra-tions appliqués aux coefficients d’ondelettes doivent alors en plus tenir compte des gains

introduits par le schéma lifting (étape "N" sur la figure1.17) pour satisfaire la condition

de normalisation. Néanmoins, les auteurs montrent le gain considérable (pour les taux

de compression) obtenu en considérant cette EQM pondérée, par rapport à une EQM

faisant l’hypothèse de filtres orthogonaux.

Une fois compressées par zerotree, les données sont alors prêtes à être transmises

sur le réseau, pour envisager une reconstruction des maillages du côté client. Nous

dis-posons alors de trois types de fichiers : les fichiers d’encodage sous forme de zerotree

de la géométrie de chaque patch (géométrie du complexe de base et ondelettes), les

fi-chiers d’encodage de la connectivité des complexes de base et enfin le fichier auxiliaire

servant à corriger les éventuelles erreurs produites par le décodeur zerotree. Ce dernier

sera également utilisé lors du recollage des parties grossières des patchs ainsi qu’à la

synthèse.

Les étapes d’analyse précédemment décrites sont alors inversées du côté client. La

première étape consiste à décoder chaque élément du flux binaire séparément, puis à

recoller les parties les plus grossières et enfin appliquer la décomposition ondelettes

inverse. Les étapes du schéma lifting sont également inversées, en commençant par

l’étape de mise à jour (si celle-ci a été considérée), puis de prédiction et enfin de

sur-échantillonnage. Pour un rappel détaillé de l’ensemble des traitements d’analyse et de

synthèse, le lecteur est invité à se référer à la figure5.7.

5.3.6 Décodage séparé de chaque fichier d’ondelettes

Pour reconstituer les "fichiers ondelettes" sous forme ASCII (respectant le principe

du format spécifié par la figure 5.3), il faut d’abord pour chaque patch procéder au

décodage topologique de la connectivité du complexe de base. Ainsi il est possible de

5.3. Principes de notre algorithme de compression adaptative 131

Tab.5.4– Comparaison de la distorsion produite lors de la reconstruction de l’objet

"Ve-nus" (remaillés parNM), pour une même taille de compression (94Ko) en considérant

plusieurs allocations binaires au niveau des patchs.

’#Vsr: nombre de sommets du modèle semi-régulier considéré.’% # V’: rapport du nombre de sommets d’un patch avec le nombre de sommets total. ’# niv.’ : nombre de niveaux de résolution.

’# reg.1’ : nombre de régions produites par la première règle d’agrégation, et ’# reg.2’ : par la seconde (cf.

section??).

’dH’ : distance de Hausdorff relativement à la diagonale de la boîte englobante de l’objet (les chiffres doivent être multipliés par 104).

’12pb (tous)’ : allocation binaire uniforme pour les patchs, avec un codage des12premiers plans de bits pour chacun.

Total patch0 patch1 patch2 patch3 patch4

type - lisse rugueux rugueux rugueux rugueux #Vsr 163 842 103 710 10 513 29 865 16 009 6 881

% # V - 63,3% 6,4% 18,2% 9,8% 4,2% Taille12pb (tous) 94,03 49,52 8,46 17,27 12,04 6,34

dH12pb (tous) 0,879 0,0966 0,0940 0,156 0,0622 0,0565

Taille taille patchs 94,03 49,47 8,46 17,26 12,03 6,34

dHtaille patchs 0,865 0,0969 0,0830 0,156 0,0604 0,0541

Taille *2lisse 94,03 64,38 5,60 11,42 7,95 4,20

dH*2lisse 0,896 0,106 0,268 0,396 0,197 0,177

Taille *2rugueux 94,03 33,97 11,43 23,33 16,28 8,55

Tab. 5.5 – Comparaison de la distorsion produite lors de la reconstruction de l’objet

"Horse" (remaillés parNM), pour une même taille de compression (34 Ko) en

considé-rant plusieurs allocations binaires au niveau des patchs.

’#Vsr: nombre de sommets du modèle semi-régulier considéré.’% # V’: rapport du nombre de sommets d’un patch avec le nombre de sommets total. ’# niv.’ : nombre de niveaux de résolution.

’# reg.1’ : nombre de régions produites par la première règle d’agrégation, et ’# reg.2’ : par la seconde (cf.

section??).

’dH’ : distance de Hausdorff relativement à la diagonale de la boîte englobante de l’objet (les chiffres doivent être multipliés par 104).

’12pb (tous)’ : allocation binaire uniforme pour les patchs, avec un codage des 12premiers plans de bits pour chacun.

Total patch0 patch1 patch2 patch3 patch4

type - rugueux rugueux rugueux lisse rugueux #Vsr 112 642 8 257 21 137 3 633 72 622 7 857

% # V - 7,3% 18,8% 3,2% 64,5% 7,0% Taille12pb (tous) 33,93 3,33 8,27 1,80 17,16 3,25

dH12pb (tous) 0,213 0,0542 0,0569 0,0628 0,0430 0,0590

Taille taille patchs 33,92 2,51 6,31 1,16 21,42 2,41

dH taille patchs 0,220 0,0933 0,0957 0,133 0,0330 0,106

Taille *3lisse 33,92 1,16 2,85 0,56 28,11 1,12

dH*3lisse 0,315 0,259 0,268 0,433 0,0344 0,403

Taille *3rugueux 33,92 4,30 10,89 1,94 12,55 4,11

5.3. Principes de notre algorithme de compression adaptative 133

Fig. 5.7 –

Grandes étapes de notre "framework" d’analyse et de synthèse locales. Celui-ci prend en entrée un maillage semi-régulierMsrobtenu par remaillage sur le modèle irrégulier d’origineMir. Puis une analyse globale en ondelettes décompose le modèle semi-régulier ennniveaux de résolutionM1,M2, ...Mn. Il est alors possible de choisir n’importe lequel de ces maillages plus grossiers Mi pour procéder à sa classification suivie de sa segmentation en régions connexes. Pour compresser indépendamment chaque partition, nous employons une méthode de projection sur le complexe de base permettant de réaliser par la suite une décomposition puis un codage zerotree indépendants. Du point de vue de la synthèse, les complexes de base des partitions sont d’abord recollés puis les coefficients d’ondelettes sont associés à chaque arête du complexe global reformé. La synthèse en ondelettes permet alors une reocnstructionMrec qui peut enfin être comparée à l’objet d’origine.

lancer l’exécutable "code.exe" de Khodakovsky et al.[58] réalisant le décodage zerotree

de la partie géométrique et le regroupement avec la partie topologique pour produire le

fichier "BW" pour chaque région. Le lancement de cet exécutable au décodage considère

les mêmes options que celles précisées précédemment pour le codage. Le fichier

auxi-liaire sera alors consulté pour remettre à jour les fichiers produits, si les cas particuliers

évoqués antérieurement se sont produits.

5.3.7 "Recollage des patchs" et synthèse locale

Le "recollage" est simplifié grâce à la convention de codage non rédondant (basé sur