• Aucun résultat trouvé

Exemple d’un signal régulier par morceaux (512 points)

Les paquets d’ondelettes ont été définis par Coifman, Meyer et Wickerhauser [Coif 92] en généralisant la relation entre les approximations multirésolutions et les ondelettes. Un espace Vjd’une approximation multirésolution se décompose en un espace de résolution

plus basse Vj+1et un espace de détails Wj+1. Cela se fait en divisant la base orthogonale

{φj(t− 2jn)}n∈Zde Vj en deux nouvelles bases orthogonales :

{φj+1(t− 2j+1n)}n∈Z de Vj+1 et {ψj+1(t− 2j+1n)}n∈Z de Wj+1

6.4 Applications

6.4.1 Les ondelettes : un outil polyvalent

Les ondelettes sont employées dans un grand nombre de domaines. On peut citer, entre autres, la géophysique, l’astrophysique, l’imagerie dans tous ses aspects et l’image- rie médicale en particulier, le codage de signaux vidéo, la modélisation du trafic dans les réseaux de communication comme Internet, l’analyse de la turbulence atmosphérique ou celle de souffleries [Abry 97], l’optoélectronique [Dura 06] et la liste est encore longue...

La variété des secteurs concernés et le nombre de problèmes traités sont surprenants [Misi 03]. La question que l’on peut tout de suite se poser est la suivante : "Comment se fait- il qu’un même outil fonctionne pour tant d’applications?" Puisque qu’il est impossible de trou- ver une unique réponse qui soit réellement satisfaisante, nous allons donner quelques raisons qui paraissent plausibles :

– Tout d’abord, la méthode des ondelettes est relativement récente en traitement du

signal. Elle apporte des innovations techniques et permet la construction d’un nou-

veau dictionnaire de formes, reliant des caractéristiques du signal à celles des trans- formées en ondelettes, permettant d’interpréter des propriétés des signaux à partir des structures des coefficients. On sait par exemple, que les coefficients nuls dans une décomposition discrète indiquent que le signal est lisse et que rien ne change,

– Ensuite, la technique des ondelettes constitue en outre un outil d’analyse locale, en quoi elle diffère fortement d’une analyse de Fourier. L’ondelette sait porter son regard localement en inspectant les voisinages d’un point. Les informations codées dans les coefficients sont alors entièrement déterminées par les valeurs du signal situées dans le champ de l’ondelette. Ce travail local est complété par un travail de synthèse qui réalise la comparaison des résultats obtenus en différents points. On

globalise en quelque sorte les analyses locales,

– De plus, les ondelettes analysent le signal échelle par échelle. Elles servent de vé- ritable "microscope mathématique" en regardant le signal à différentes résolutions. Chaque point est ausculté, très finement à petite échelle dans une petite zone et plus grossièrement à grande échelle,

– Enfin, les ondelettes permettent de caractériser certains espaces de signaux un

peu ignorés jusque là parce que difficiles à manipuler. Ces espaces contiennent

des fonctions qui peuvent présenter des parties moins régulières que les fonctions dérivables, séparées par des discontinuités. Ces signaux sont difficiles à aborder par les autres outils actuellement disponibles.

Dans ce qui suit, nous allons enfin voir comment intégrer les ondelettes dans plu-

sieurs modules appartenant à la chaîne biométrique multimodale. Nous montrerons

également que l’utilisation des ondelettes peut répondre de manière très efficace à trois problèmes majeurs en traitement du signal et de l’image, à savoir la compression, l’analyse et le débruitage.

6.4.2 Compression

Partant du signal à comprimer, on le décompose d’abord sur une base orthogonale d’ondelettes au moyen de la transformée discrète. Ensuite, on sélectionne une partie des coefficients par seuillage dur, en conservant intact les coefficients d’approximation de niveau convenablement choisi. Enfin, à partir des coefficients seuillés, on reconstruit le signal original en leur appliquant la transformée discrète inverse. Le signal ainsi obtenu est le signal comprimé.

Le standard de compression d’image bien connu qu’est le JPEG est basé sur une trans- formée de Fourier discrète. Le JPEG analyse l’image par bloc de 8×8 pixels ce qui conduit aux fameux effets de mosaïques que nous avons tous vu au moins une fois, et qui al- tère considérablement la qualité de l’image compressée. Ce défaut est d’autant plus vi- sible que le taux de compression est élevé. Le nouveau standard à venir en compression d’image est le JPEG 2000 [JPEG] (Yves Meyer) et qui est basé sur la transformée en onde- lettes. Cette fois-ci, l’image est analysée de manière globale et la qualité reste très bonne même à un taux de compression élevé. A titre d’exemple, si l’on considère une image originale de 512 × 512 pixels (codée en 24 bits RGB) et d’une taille de 786 Ko, il est très difficile de voir la différence avec la même image compressée par ondelettes d’un ratio de 75 : 1et dont la taille atteint seulement 10.6 Ko (Fig. 6.12). Grâce au JPEG 2000, il est non seulement possible de prévoir la taille du fichier compressé mais aussi de permettre un affichage progressif de l’image. On commence par les détails grossiers de l’image puis les hautes fréquences sont progressivement ajoutées, ce qui a pour effet d’ajouter les détails de plus en plus fin, jusqu’à l’image finale.

(6.12.a) (6.12.b)

(6.12.c) (6.12.d)

FIG. 6.12 – Image originale de 786 Ko (6.12.a). Image compressée avec un ratio de 75 : 1 pour 10, 6 Ko (6.12.b), un ratio de 150 : 1 pour 5, 3 Ko (6.12.c) et un ratio de 300 : 1 pour 2, 6Ko (6.12.d).

Nous allons maintenant montrer comment utiliser la compression par ondelettes

dans le cadre de la biométrie. L’utilisation de l’analyse en composantes principales (PCA)

peut demander beaucoup de ressources CPU et de temps de calcul. Ceci est principa- lement dû à la phase d’extraction des vecteurs propres d’une grande matrice de cova- riance. Bien que l’on puisse contourner en partie ce problème grâce à l’astuce mathéma- tique décrite dans l’article original de M.A. Turk et A.P. Pentland [Turk 91], nous sommes contraints, à la base, de travailler en fonction de la résolution des images.

Un article très intéressant [Sinh 06], montre dix-neuf résultats relatifs à la reconnais- sance faciale par les humains. Le premier résultat qui y est exposé nous concerne tout particulièrement ici :

Résultat 1 : Les humains peuvent reconnaître des visages familiers à très basse résolution. Faisons alors une analogie avec un système biométrique : les "visages familiers" se- raient représentés par les personnes qui ont déjà été enrôlées par le système (donc connues de ce dernier). Cela signifie qu’un système de reconnaissance faciale bien conçu (par exemple, imitant le fonctionnement du cerveau) devrait être capable de reconnaître les personnes enregistrées, même à très faible résolution.

Cependant, avec l’amélioration constante de la résolution que peut fournir une ca- méra ou un appareil photo, il est très tentant d’utiliser toute cette quantité d’information potentielle et de détails supplémentaires pour la reconnaissance faciale. Il faut bien com- prendre qu’autant la reconnaissance par l’iris requiert une grande résolution d’image pour pouvoir analyser correctement la texture de l’iris, autant la reconnaissance faciale

ne demande pas nécessairement une forte résolution des images de visage ; en fait la

montée en résolution permet d’apporter une discrimination entre les individus basée sur des différences très subtiles dans leurs caractéristiques faciales. Par ailleurs, ces schémas de reconnaissance basés sur des images très détaillées ne sont pas toujours disponibles ; ce qui est particulièrement vrai dans les situations où des individus doivent être recon- nus à distance.

Ainsi, dans le but de construire des systèmes robustes à la dégradations des images, on peut prendre comme inspiration le système visuel humain. L’identification à distance des visages est une tâche à laquelle nous sommes confrontés tous les jours où nous de- vons extraire de l’information pertinente à partir d’images à faible résolution. On peut se demander "Comment la performance d’identification des visages change en fonction de la réso- lution des images?"

Les premiers travaux en reconnaissance faciale à basse résolution ont été effectués par L.D. Harmon et B. Julesz [Harm 73a] [Harm 73b]. En travaillant à partir d’images moyennes par bloc de visages familiers, ils ont obtenu des taux de reconnaissance élevés même avec images contenant des blocs de 16 × 16. Plus récemment, Yip et Sinha [Yip 02] se sont aperçus que des sujets pouvaient reconnaître plus de la moitié d’un ensemble d’images de visages familiers qui ont été rendues floues de manière à obtenir une résolu- tion d’image équivalente d’environ 7×10 pixels ; la performance de reconnaissance ayant atteint son niveau le plus haut à une résolution de 19 × 27 pixels.

On peut alors effectuer un test simple pour se rendre encore mieux compte de l’im- pact de la résolution des images de visage sur le taux de reconnaissance faciale. On considère tous les ensembles d’images de la base de données FERET (FB, FC, DUP1 et DUP2) auxquels nous appliquons l’algorithme PCA associé à la mesure de similarité MahCosine(cf. Annexe A.2.4). On trace alors les différentes courbes CMC (Fig. 6.13) à par- tir des différentes matrices de similarité. D’un côté, les images normalisées originales de taille 140 × 120 (traits pointillés cerclés - “Original”), de l’autre, les images normali- sées compressées deux fois par ondelettes bi-orthogonales “bior1.3” (traits pleins étoilés - “WComp”) et dont la taille atteint 38 × 33 ! Il est assez remarquable de constater que

le taux de reconnaissance faciale est non seulement très stable mais que dans trois cas sur quatre, il est sensiblement meilleur lorsque les images ont été compressées par ondelettes.

2

4

6

8

10

0

0.2

0.4

0.6

0.8

1

FB

FC

DUP1

DUP2

Rang

Taux de Reconnaissance

Original

WComp

FIG. 6.13 – Influence de la compression par ondelettes sur le taux de reconnaissance fa-