• Aucun résultat trouvé

Représentation parcimonieuse des images couleur

4.4 Mise en pratique

4.4.1 Représentation parcimonieuse des images couleur

La parcimonie d’une représentation correspond à la puissance descriptive de ses coefficients, associée à une forte concentration de l’information utile dans un petit nombre d’entre eux. Les transformées en ondelettes sont reconnues pour offrir une représentation compacte des images naturelles, c’est-à-dire que quelques coefficients de forte amplitude portent l’essentiel du contenu visuel. Suite à l’essor des ondelettes orthogonales (non-redondantes), qui se sont finalement mon- trées insuffisantes en termes de qualité d’analyse (variance) ainsi que de débruitage (oscillations), il a été remarqué que les représentations redondantes offraient des propriétés nécessaires pour certaines applications. L’on s’est donc intéressé à des représentations redondantes dans lesquelles l’information est la plus compacte possible. Par exemple, les ondelettes non-décimées (algorithme à trous) sont invariantes par translation, et donnent accès à une méthode de débruitage plus effi- cace [31, 71, 138]. L’utilisation plus générale de dictionnaires redondants pour le codage d’image donne dans certains cas de meilleures reconstructions en termes de qualité visuelle, pour une même quantité de données et dans un contexte bas-débit [50]. Celà inclut les ondelettes com- plexes [153], ainsi que les représentations en ondelettes analytiques que nous étudions, comme nous l’avons déjà montré avec les ondelettes quaternioniques (section 2.4). Ces dernières ont une redondance de 4×, et permettent de traiter les contours de façon plus lisse et plus ronde que les ondelettes orthogonales. Il vient que la phase des coefficients peut être quantifiée dûrement sans introduire d’artéfacts significatifs.

Nous attendons des ondelettes monogènes couleur des résultats similaires, puisqu’elles ont été construites sur une extension couleur du signal monogène, lui-même évolution du signal quaternionique. En effet, le sens physique que nous donnons aux coefficients confère une grande puissance de description des formes géométriques couleur, avec peu de nombres. Cet outil est donc un bon candidat à la parcimonie.

Nous proposons ici de tester la faculté à résumer l’information par des reconstructions par- tielles. Plus précisément, nous allons conduire une procédure de sélection et quantification des coefficients, conjointement à une analyse des artéfacts correspondants qui auront été introduits dans l’image reconstruite. En plus d’analyser la compression de l’information, celà nous permet- tra d’identifier les éléments graphiques liés aux différentes composantes de notre représentation.

Stratégie de quantification

La quantification des coefficients d’ondelettes est classique avec les ondelettes réelles, et se base sur un modèle statistique pour optimiser cette procédure. Dans notre cas, les données sont inhabituelles, car il s’agit d’une norme euclidienne (A) d’une part, et d’angles d’autre part (ϕ2,

130 4.4. Mise en pratique 0.1 0.2 0.3 0.4 0.5 1 2 3 4 5 6 A density ✲

Figure 4.11 – Distribution « type Rayleigh » de l’amplitude Ai (γ = 3).

souvent l’hypothèse avec les ondelettes réelles), notre amplitude A suivra une distribution de Rayleigh, comme illustrée à la figure 4.11. Pour les angles, des outils statistiques existent (lois de von Mises), mais ne sont pas très connus dans le domaine du codage par ondelettes (voir aussi la discussion que nous avons déjà eue à la section 2.4.2, page 50, sue la quantification de la phase quaternonique). On comprend vite que l’ensemble des outils habituels pour quantifier des coefficients d’ondelettes ne peut pas s’appliquer dans notre cas.

Dans le cadre de ce travail expérimental, le but n’est pas de construire un schéma optimal, qui nécessite un travail dédié, mais bien de tester la transformée. Etant donnée la portée de cette application, nous pensons que la simplicité de la méthode est primordiale, d’une part pour ne pas noyer la contribution de la transformée en elle-même, et d’autre part car pour avoir une approche compression complète, l’outil proposé nécessite une réflexion approfondie, notamment pour modéliser statistiquement les coefficients. C’est pourquoi nous utiliserons une quantification uniforme de chaque composante A, ϕ2, α et β. Cette méthode inclut de façon sous-jacente une

sélection des coefficients. En effet, les coefficients dont l’amplitude est dans le premier intervalle

de quantification associé, verront leur amplitude mise à zero, ce qui éliminera automatiquement les coordonnées polaires correspondantes puisque Ai,k = cR

i,k = c

G

i,k = c

B

i,k = 0. Celà correspond donc à éliminer des coefficients « complets » - incluant l’amplitude, la phase et l’axe couleur.

Nous proposons de faire varier la précision de quantification pour les différentes composantes des coefficients, pour évaluer le nombre de bits nécessaires pour encoder de manière suffisante les coefficients monogènes. Ensuite, nous pouvons identifier les caractéristiques visuelles des défauts introduits selon la composante dégradée.

On utilisera 4 nombres de bits fixés pour toutes les échelles (BA, Bϕ2, Bα, Bβ), chacun cor-

respondant à une composante. Le niveau de décomposition est 4 (i ∈ {−1, −2, −3, −4}), et la sous-bande basses-fréquences ne sera pas altérée. Ce dernier aspect est justifié en théorie car l’analyse monogène n’a pas de sens physique en basses-fréquences. Pour le point de vue pra- tique, la quantité de données concernée par cette sous-bande est très réduite (16× 16 pour une image 256× 256). De plus, puisque l’analyse monogène n’est pas à propos, on peut considérer les trois coefficients primaires cR

i,k, c

G

i,k et c

B

i,k, à la place des quatre coefficients monogènes Ai,k,

ϕi,k, αi,k et βi,k, ce qui réduit encore la taille des données.

Analyse des résultats

La figure 4.12 illustre les reconstructions d’images couleur pour différentes configurations de (BA, Bϕ2, Bα, Bβ).

Dans la première colonne, il apparait qu’une quantification de A (resp. ϕ, α, β) sur 6 (resp. 2, 3, 4) bits n’introduit pas de défaut visible. En ce qui concerne les angles ϕ, α et β, cette configuration correspond à des intervalles de quantification de π/8, ce qui peut paraître assez approximatif au regard de la qualité de reconstruction. Celà montre que l’information utile a bien été répartie à travers les quatre composantes des coefficients, et à travers la redondance spatiale des pyramides utilisées. En effet, si l’on comptabilise la redondance de 16 : 9 de notre représentation, ainsi que le nombre total de 6 + 2 + 3 + 4 = 15 bits utilisés ici pour coder les coefficients, on obtient une nombre moyen de bits par pixel d’environ 27, ce qui est de l’ordre de grandeur des 24 bits par pixel de départ, dans le format brut de l’image codée en RGB (8 bits par canal couleur). La cohérence de la représentation est donc dans cette première étape confirmée par la stabilité du contenu visuel vis-à-vis de la quantification.

(BA, Bϕ2, Bα, Bβ) (BA, Bϕ2, Bα, Bβ) (BA, Bϕ2, Bα, Bβ) (BA, Bϕ2, Bα, Bβ)

= (6, 2, 3, 4) = (3, 2, 3, 4) = (6, 1, 3, 4) = (6, 2, 1, 2)

PSNR 30 dB PSNR 24 dB PSNR 21 dB PSNR 20 dB

PSNR 33 dB PSNR 23 dB PSNR 25 dB PSNR 24 dB

PSNR 32 dB PSNR 25 dB PSNR 25 dB PSNR 23 dB

Figure 4.12 – Quantification uniforme des coefficients d’ondelettes monogènes couleur pour les images

132 4.4. Mise en pratique

Les bords de l’image circles subissent l’effet pseudo-Gibbs, qui fait apparaître des oscillations. De plus, certaines zones texturées sont lissées, comme les coins inférieurs de l’image mandrill, ou les vêtements de l’image barbara. Ces deux phénomènes sont classiques avec les transformées en ondelettes réelles, ce qui confirme que l’amplitude des ondelettes monogènes couleur est une donnée de même nature que le « module » dans le cas classique. Cependant, cette production d’oscillations n’est pas en accord avec le concept d’ondelettes analytiques, dont l’invariance est théoriquement liée à une réduction de ce phénomène [124]. Ce défaut est lié à la dimension numérique, et notamment à la méthode de reconstruction, qui diffère du Dual-Tree et de la QWT en ce qu’elle n’implique pas de combinaison d’atomes « pairs et impairs ». De plus, nous avions déjà indiqué que les filtres de reconstruction des ondelettes splines polyharmoniques sont très oscillants et très peu isotropes, à cause des contraintes de reconstruction parfaites dont les seuls degrés de libertés ont été utilisés pour affiner les filtres d’analyse. Ceci confirme qu’une reflexion sur la méthode numérique de décomposition et reconstruction devrait être mené de façon plus approfondie. Notons que malgré le caractère non-linéaire de cette opération, aucune fausse couleur n’a été introduite.

Pour observer l’effet d’une forte dégradation de la phase ϕ2, nous avons choisi de l’arrondir

sur les deux valeurs 0 et π/2 (troisième colonne, figure 4.12). Cette quantification sur un seul bit de la phase introduit un phénomène basse-fréquences semblable à celui d’un papier mouillé, que l’on observe par exemple autour des bords des cercles de circles et du pied de table de barbara. Ce phénomène semble provenir des contours mais se répand largement sur toute l’image. La no- tion de « congruence de phase » permet de comprendre ce problème. La congruence de phase a été introduite comme détecteur de contours [108], sous l’hypothèse selon laquelle les contours fortement perçus par le système visuel humain correspondent aux maxima de congruence de phase. La particularité de ces points est donc que l’ensemble des sinusoïdes qui le composent, à différentes fréquences, y ont la même phase. Il s’est avéré que le signal analytique permettait de calculer cette mesure par l’amplitude locale, tout en donnant explicitement cette valeur de phase ϕ2 au niveau des contours. Dans une décomposition en ondelettes analytique comme la

notre, aux positions des maxima d’amplitude, c’est-à-dire des contours, la valeur de ϕ2 doit donc être la même d’une échelle à l’autre. Cependant, s’il s’avère que cette congruence n’est pas parfaite, les phases ne seront pas identiques. Dans ce cas, la procédure de quantification radicale que nous avons employée risque d’arrondir ces valeurs sur des centroïdes différents, et ainsi ac- centuer des différences qui auraient dû rester négligeables. On obtient donc par reconstruction un mauvais alignement des oscillations qui composent les contours. Ceci confirme bien qu’il faut une stratégie plus évoluée pour définir un algorithme de compression comme par exemple une gestion multiéchelle des angles. De plus, une erreur de phase aux échelles grossières entraîne une erreur spatiale large, ce qui explique probablement que les artefacts observés soient principale- ment de nature basses-fréquences. Notons que nous avons observé le même genre de phénomène à la section 2.4.2, en dégradant la phase des coefficients d’ondelettes quaternioniques. Enfin, ici également, aucune fausse couleur n’a été introduite.

La dégradation des angles de l’axe couleur a été testée en quantifiant α et β sur 1 et 2 bits (quatrième colonne, figure 4.12). C’est sans grande surprise que de fausses couleurs sont introduites, témoignant du fait que cette donnée d’axe est la seule à porter une information colorimétrique. Observons par exemple les yeux du mandrill, la main de Barbara ou les lignes de l’image circles.

Pour conclure, ces différentes expérimentations montrent que la transformée en ondelettes monogène couleur que nous avons proposée est stable par rapport à la quantification, et permet d’encoder efficacement des éléments géométriques colorés. En éliminant pour chaque coefficient de faible amplitude A l’ensemble de ses coordonnées polaires, le contenu visuel de l’image est bien conservé, ce qui appuie la parcimonie supposée de cette représentation. La netteté des con- tours, ou bien la qualité des couleurs peuvent être controlées indépendemment, en ajustant la stratégie de quantification de l’amplitude et celle de l’axe couleur. Cet aspect peut être un avan- tage dans une perspective de compression d’image hiérarchisée (« scalable »). En revanche, nous

avons vu que la forme « oscillante » des artefacts liés à la dégradation de l’amplitude suggèrent d’approfondir la problématique de reconstruction par coefficients monogènes. En particulier, il serait intéressant de prendre en compte l’orientation θ afin de diriger de façon analytique les atomes de reconstruction. Malgré celà, constate que l’utilisation d’une méthode de représenta- tion adaptée aux dimensions des images couleur permet d’obtenir une vraie cohérence entre les opérations et les modifications graphiques introduites.

Parmi les nombreuses pistes d’amélioration possibles, une modélisation statistique des coeffi- cients ou une identification des lois par critère d’information permettrait d’optimiser la quantifi- cation. La corrélation spatiale de l’axe couleur, qui semble varier lentement à un changement de signe près, pourrait être étudiée, ainsi que la corrélation en général entre les différentes données redondantes de cette représentation. La qualité de la quantification des angles pourrait varier en fonction de l’amplitude, afin d’économiser des données sur la description de coefficients peu pertinents (d’amplitude faible). Enfin, des contraintes liées au système visuel humain comme une pondération dépendante de l’orientation pourrait facilement être introduite car l’orientation des structures liées à chaque coefficient est accessible via θ.