• Aucun résultat trouvé

Modèle général de la représentation de données

s’agit de trouver la meilleure façon de représenter les données x comme transformées des variables s au moyen de la fonction F. Cela revient donc à trouver un nouvel espace de représentation des données, la meilleure façon dépend bien entendu de la manière dont on veut comprendre les données, donc des hypothèses formulées dans un cadre applicatif déterminé. Dans le cas de l’ICA, l’hypothèse sous-jacente permettant la meilleure re-

présentation des données est que les sources sont statistiquement indépendantes entre elles. On trouvera un cadre mathématique complet dans [Card 02].

En 1961, dans un contexte neurobiologique, H.B. Barlow fait l’hypothèse selon laquelle le rôle des neurones sensoriels primaires est de retirer la redondance statistique de l’entrée sensorielle [Barl 89]. Des variantes de cette hypothèse de "codage efficace" ont été

formulées par de nombreux autres auteurs [Bart 07]. Selon D.J. Field et B.A. Olshausen,

l’ICA modéliserait le travail effectué par les cellules rétiniennes [Olsh 96] [Olsh 97].

L’algorithme ICA [Bart 02] répond à ce dernier défi d’éliminer la redondance statis-

tique. L’ICA est un algorithme global, basé sur le concept intuitif de "contraste". En effet,

pour extraire une information pertinente d’un ensemble riche de données complexes et non structurées, il faut optimiser le contraste, c’est-à-dire disposer de différents points

de vue, à partir de directions les plus éloignées les unes des autres.

Ainsi, en reconnaissance faciale, l’ICA minimise les dépendances statistiques d’ordre élevé des données d’entrée (et non pas seulement du second ordre, comme c’est le cas dans le PCA), en tentant de trouver les bases sur lesquelles les données projetées sont sta- tistiquement indépendantes entre-elles. Rappelons enfin que, dans le cas gaussien, l’ICA coïncide avec le PCA, qui est un des algorithmes les plus connus en reconnaissance fa- ciale.

3.7.2 Liens avec l’Elastic Bunch Graph Matching (EBGM)

L’algorithme EBGM [Wisk 97] tente de surmonter les difficultés causées par les va-

riations de l’image en termes d’éclairement, position, taille, expression faciale et pose. Cet algorithme local extrait une description concise d’un visage sous la forme d’un graphe d’image dans lequel des points caractéristiques [Arca 06] (centres des yeux, du nez, de la bouche, etc.) sont décrits par un jeu de coefficients d’ondelettes de Gabor appelés "Jet".

Un Jet peut alors être vu comme la réponse d’une cellule "simple" du V1. En effet, la

réponse α d’une telle cellule est la corrélation d’une image d’entrée I(x) avec le RF modélisé par une ondelette 2D de Gabor Ψ(x) (3.5) :

αj(x0) =

Z

Enfin, On pourra également se référer aux nombreux travaux du Professeur Jeanny Hérault(LIS, Université Joseph Fourier, Grenoble) sur la modélisation du système visuel, les réseaux de neurones, la transformée de Gabor et l’ICA [Héra 05].

3.7.3 Liens avec l’Analyse en Composantes Principales avec Filtres de Log- Gabor (LG-PCA)

L’algorithme hybride LG-PCA [Perl 05] qui a été présenté dans l’état de l’art peut

être vu comme la combinaison de l’extraction de caractéristiques locales fournies par l’algorithme EBGM et la réduction de dimension offerte par l’action de l’algorithme PCA (cas particulier de l’algorithme ICA). Il a également le grand avantage d’utiliser les filtres de Log-Gabor que nous avons présenté dans le Chapitre 3.6. L’algorithme LG-PCA mo-

déliserait donc à la fois les réponses des cellules simples du V1 ainsi que le travail effectué par les cellules rétiniennes, tout en encodant les images naturelles de manière plus performante grâce aux filtres de Log-Gabor, le rapprochant encore plus du fonc- tionnement de notre cerveau. C’est pourquoi nous avons porté toute notre attention sur

cet algorithme et que nous l’avons implémenté pour les tests de fusion.

3.8 Conclusion

Il existe deux niveaux de perception : le bas-niveau (V1) dont certaines cellules pos- sèdent des tâches spécifiques (reconnaissance de certaines structures géométriques élé- mentaires) et les niveaux suivants (V2 à V7) faisant appel à la cognition. D’autre part, la perception des visages suppose un précâblage couplé à un apprentissage et il existe dans le système visuel, une zone spécialisée dans la reconnaissance faciale (FFA). Par ailleurs, l’étude du cortex visuel primaire a montré qu’il était possible de modéliser les réponses de certaines cellules "simples" par des filtres 2D de Gabor mais que l’on pouvait faire encore mieux en utilisant des filtres de Log-Gabor. Ainsi, certains algorithmes fon- damentaux en reconnaissance faciale (ICA, EBGM et LG-PCA) tentent de reproduire le fonctionnement de notre cerveau. l’ICA modéliserait le travail effectué par les cellules ré- tiniennes en éliminant la redondance statistique des images naturelles. De plus, l’EBGM modéliserait les réponses des cellules corticales simples du V1 grâce à la convolution de certains points caractéristiques d’une image de visage avec des ondelettes 2D de Gabor. Enfin, le LG-PCA permettrait de combiner les avantages de modélisation des deux algo- rithmes précédents en améliorant le codage des images naturelles grâce à l’utilisation de filtres de Log-Gabor. Ce chapitre est le fruit de trois mois d’études en neurosciences qui ont aboutit à la conférence "Le Croisement des TIC et de la Cognition : L’exemple de la Biométrie", pendant la journée "NBIC pour les TIC" (FING), donnée à l’Université Paris Descartes, le 25 Avril 2007.

Chapitre 4

Systèmes d’Acquisition en

Environnement Réel & Bases de

Données

4.1 Introduction

Dans ce chapitre, nous allons décrire nos dispositifs de capture (“sensors”) qui ont permis d’acquérir des images de visage et d’iris. Nous détaillerons ensuite certaines bases de données qui seront utilisées, plus tard, pour nos tests (Chapitre 8).

Il existe deux manières de tester des algorithmes de reconnaissance biométrique : – La première façon consiste à utiliser des bases de données biométriques publiques

(gratuites) ou privées (payantes). C’est une solution relativement facile et certaines bases de données publiques sont devenues des standards (par exemple, FERET pour les visages, CASIA pour les iris), ce qui permet de comparer les résultats de reconnaissance des algorithmes développés à ceux des algorithmes existants. Ce- pendant, dans ces bases de données, nous n’avons accès qu’aux images en sortie des divers dispositifs de capture ; la réalité de l’acquisition des données en environ- nement réel est alors mise de côté,

– La deuxième méthode consiste donc à établir un système biométrique multimo-

dal réel, en utilisant des dispositifs de capture dédiés. La phase d’acquisition est

la première étape dans un système biométrique et la nature de l’environnement (éclairement, reflets, etc.) peut avoir un certain impact sur les performances d’un système biométrique. C’est pourquoi il est recommandé d’effectuer des tests en en- vironnement réel en plus des tests avec les bases de données, même si le nombre d’images acquises est moins important que celui que peut fournir une base de don- nées officielles contenant souvent plusieurs centaines d’individus.

4.2 Systèmes d’acquisition

Le système d’acquisition de biométrie multimodale qui a été mis en place est divisé en deux parties. Un premier dispositif permet de prendre en photo l’iris d’une personne tandis qu’un deuxième appareil est consacré à la capture d’une image de visage.

4.2.1 Système de capture d’images d’iris

Les iris ont été photographiés avec un système adapté (Miles Research) (Fig. 4.1). L’ap- pareil photo est un Nikon D70 associé à une lentille de 105mm. Un guide est fixé à l’ob- jectif et permet d’amener le flash sur quatre spots en sortie d’objectif. Un support permet d’ajuster la position de l’utilisateur et de faire la mise au point sans modifier les réglages de l’appareil. Les photos ont été prises dans une pièce sombre afin d’éviter les reflets. Un éclairement au préalable de la pupille à l’aide d’une led permet de modifier la dilatation de celle-ci.