• Aucun résultat trouvé

Etude d'algorithmes d'authentification pour petits capteurs d'empreinte digitale

N/A
N/A
Protected

Academic year: 2021

Partager "Etude d'algorithmes d'authentification pour petits capteurs d'empreinte digitale"

Copied!
7
0
0

Texte intégral

(1)

HAL Id: hal-01667407

https://hal.archives-ouvertes.fr/hal-01667407

Submitted on 19 Dec 2017

HAL is a multi-disciplinary open access

archive for the deposit and dissemination of

sci-entific research documents, whether they are

pub-lished or not. The documents may come from

teaching and research institutions in France or

abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est

destinée au dépôt et à la diffusion de documents

scientifiques de niveau recherche, publiés ou non,

émanant des établissements d’enseignement et de

recherche français ou étrangers, des laboratoires

publics ou privés.

Etude d’algorithmes d’authentification pour petits

capteurs d’empreinte digitale

Mathilde Bourjot, Régis Perrier, Jean-François Mainguet

To cite this version:

Mathilde Bourjot, Régis Perrier, Jean-François Mainguet. Etude d’algorithmes d’authentification pour

petits capteurs d’empreinte digitale. CORESA 2017, Nov 2017, Caen, France. �hal-01667407�

(2)

Etude d’algorithmes d’authentification pour petits capteurs d’empreinte digitale

Mathilde Bourjot

Régis Perrier

Jean-François Mainguet

CEA Leti - Grenoble

Département Systèmes

{prenom.nom}@cea.fr

Résumé

Les nouveaux capteurs d’empreintes digitales intégrés dans les smartphones ont déclenché une petite révolution dans le domaine de la biométrie. Ils permettent aux utilisa-teurs de s’authentifier sans avoir à retenir de code, tout en garantissant une sécurisation des données annoncée comme très bonne par les fabricants. Cependant, la taille de ces capteurs de l’ordre de quelques millimètres carrés proscrit l’usage d’algorithmes d’authentification à minu-ties. A notre connaissance, peu d’études se sont penchées sur ce problème, malgré l’existence de nombreux algo-rithmes de reconnaissance de formes et de solutions com-merciales supposées robustes. Cette étude cherche à appor-ter une première réponse en analysant les performances de trois algorithmes pour cette application.

Mots clefs

empreinte digitale, petits capteurs, authentification, des-cripteurs, points saillants, corrélation.

1

Introduction

L’intérêt des empreintes digitales pour l’identification hu-maine n’est plus à démontrer depuis longtemps. Si la po-lice les utilise depuis des décennies, leur usage dans les produits commerciaux tels que les ordinateurs et les PDA (Personal Digital Assistant) a commencé vers 2004 où le nombre de capteurs vendus se comptaient en millions.

Figure 1 – Nouveaux modèles de téléphone portable avec un capteur d’empreinte (source : mainguet.org).

Les smartphones ont emballé le mouvement en 2013 lors-qu’Apple a intégré la reconnaissance d’empreinte dans son iPhone. Aujourd’hui la production de capteur atteint le mil-liard par an.

Si les applications gouvernementales s’accommodent de

Cette étude a été financée par un projet Carnot interne au CEA Leti

grands capteurs optiques, ce n’est pas le cas des smart-phones où ces capteurs pour des raisons de coût et d’in-tégration sont de plus en plus petits, ce qui n’est pas sans poser de problèmes. En effet, l’écart de taille entre les cap-teurs gouvernementaux de plusieurs centimètres carrés en-registrant le doigt entier comparée à celle des capteurs in-tégrés aux smartphones des quelques millimètres carrés1

pose question quant à la fiablitité de ces derniers.

Les applications gouvernementales utilisent systématique-ment des algorithmes à minuties ; c’est un standard inter-national. Il a déjà été démontré que ces algorithmes avaient une limite sur le recouvrement minimal entre deux images se situant aux alentours de 7mm pour un capteur à balayage [1]. Une étude plus récente [2] démontre également que plus la surface du capteur est importante, meilleurs sont les taux de vrai refusés (FRR) à un taux de faux accepté (FAR) fixe de 1 pour 10000 : le FRR passe de l’ordre de 1% pour un grand capteur à 20% pour un capteur de 8x8mm2.

FRR: 1% FRR: 5%

@FAR: 1/10000 apple

20 mm2

Figure 2 – Taux de reconnaissance suivant la taille du cap-teur pour un algorithme à minutie [2].

Cependant, ces études sont fondées sur des algorithmes « classiques » dits à minuties. Ces dernières sont des carac-téristiques d’une empreinte digitale dites de niveau 2 ; le niveau 1 étant la forme générale de l’empreinte. Etant don-née les taux de reconnaissance annoncés, et a priori jamais testés ou publiés, par les vendeurs de smartphones2, il pa-rait certain que les algorithmes utilisés pour des petits cap-teurs utilisent d’autres caractéristiques, comme celles dites de niveaux 3 (pores, variations d’épaisseur des lignes, ...). Dans cet article, nous comparons trois algorithmes extraits de la littérature en vision par ordinateur pour cette applica-tion d’authentificaapplica-tion d’empreinte digitale acquise par un petit capteur : une méthode dite directe et deux approches

1. l’iPhone5 avait un capteur de 4.5x4.5mm2

(3)

par descripteurs. A notre connaissance, peu de travaux ce sont intéréssés à l’utilisation de méthodes alternatives aux minuties pour la reconnaissance d’empreinte digitale, à des exceptions près comme [3, 4] qui utilisent des bancs de filtres de Gabor et dont les résultats s’approchant des mé-thodes à minuties, et très récemment [5] qui effectue une comparaison de nombreuses méthodes à descripteurs sur des images d’empreintes de mauvaise qualité et dans la-quelle SIFT se démarque. Les méthodes à minuties ont largement satisfait la demande en algorithmes robustes et rapides depuis les années 90, mais l’introduction de pe-tits capteurs a changé la donne. Plusieurs solutions indus-trielles existent sans qu’il y ait eu d’analyse précise dans la littérature sur les moyens de parvenir à un algorithme de reconnaissance satisfaisant dans ce contexte. Notre étude cherche a apporter une première réponse dans ce sens à l’aide d’algorithmes classiques et eprouvés.

2

Vocabulaire en biométrie

Les systèmes biométriques ont deux phases [6] :

• Une première, l’enrôlement, capture les caractéristiques biologiques de l’utilisateur, ici l’image de l’empreinte digitale. Un traitement réduit l’image initiale à des ca-ractéristiques qui sont enregistrées en mémoire.

• Une seconde, la reconnaissance ou l’authentification, consiste à capturer une image candidate, qui est com-parée à l’enregistrement réalisé lors de l’enrôlement. Un algorithme de comparaison retournera un score de simi-larité, et décidera si l’image candidate est suffisamment proche pour retourner un résultat positif, qui dépendra d’un seuil pré-réglé.

Dans le cas des petits capteurs, l’utilisateur doit présenter son doigt de manière répétitive pour enregistrer une surface de doigt suffisante afin d’augmenter les chances plus tard d’en reconnaitre une portion. Il est logiquement nécessaire de présenter la même portion de peau à l’enrôlement et à la reconnaissance pour reconnaitre quelqu’un.

On définit habituellement deux taux :

• FAR = faux accepté ; il s’agit pour celui-ci d’un pro-blème de sécurité. Il doit être de l’ordre d’au moins 1 pour 10000 pour un système commercial, alors que la police requiert des taux de 1 pour 1 million pour exécu-ter des recherches dans des bases de données de millions de personnes.

• FRR = vrai refusé ; c’est généralement ce taux que les utilisateurs expérimentent de facto, il correspond à un problème de commodité. Il faut qu’il soit suffisamment faible pour ne pas rejeter le système, et est de l’ordre de 1% pour un bon système.

Ces deux taux sont liés : si on diminue le taux de vrai refusé pour que le système soit pratique, alors on augmente forcé-ment la possibilité pour un imposteur d’entrer dans celui-ci. Ils sont couramment représentés sous forme de courbe ROC (Receiver Operating Characteristic) comme nous le verrons dans la partie résultat.

3

Calcul du score de similarité

Nous présentons ici les trois méthodes permettant de cal-culer un score de similarité entre deux images enrôlée et candidate, respectivement notées E et C par la suite. Ces méthodes sont extraites de l’état de l’art et servirons de ré-férence en terme de performance de reconnaissance dans notre contexte de capteur biométrique de petite surface. La première utilise globalement l’intensité des pixels des images pour calculer un score ; elle fait partie de la classe des méthodes appelées directes [7, 8]. Les deux suivantes utilisent des descripteurs pour mettre en correspondance les images, elles sont aujourd’hui largement plus répandues que les premières [9, 10].

Nous considerons que les images sont définies sur une grille régulière discrète de taille (mxn) pixels de sorte que E(x, y) corresponde à l’intensité à valeur dans R de l’image E au pixel de position p = [x, y]T.

3.1

Approche directe

La première méthode utilise la corrélation croisée cen-trée et normalisée pour calculer une surface de correlation γ(u, v) entre les deux images par translation de l’une par rapport à l’autre : γ(u, v) = P x,y∈S(E(x, y) − µ E)(C(x − u, y − v) − µC) σEσC (1) pour u ∈ [−n+1, n−1] et v ∈ [−m+1, m−1]. Le support S contient l’ensemble des coordonnées des pixels {(x, y)} tel que x − u ∈ [1, n] et y − v ∈ [1, m] ; il varie donc se-lon u et v. Les paramètres statistiques sont recalculés pour chaque valeur de u et v avec :

µE= P x,y∈SE(x, y) Card(S) etµ C = P x,y∈SC(x − u, y − v) Card(S) , ainsi que : σE = q P x,y∈S E(x, y) − µ E2 , σC = q P x,y∈S C(x − u, y − v) − µ C2 . Le score de similarité final retenu est le maximum de la surface de correlation :

scor= max γ(u, v) (2)

On peut relever au moins deux avantages à cette méthode : elle est invariante à un changement de luminosité global dans les images et il existe une implémentation rapide de celle-ci [11] ; ces deux critères l’ont souvent avantagée en pratique au dépend de métriques plus robustes [12]. En re-vanche, elle n’est pas invariante aux rotations et ses perfor-mances se dégradent suivant l’amplitude des déformations géométriques locales entre les deux images.

Pour compenser sa sensibilité aux rotations dans cette étude, nous calculons plusieurs scores de corrélation entre l’image E et l’image C tournée par pas de 5 degrés entre -30 et 30 degrés, et retenons le score maximal.

(4)

3.2

Approches par descripteurs

L’utilisation de descripteurs a supplanté depuis de nom-breuses années les approches directes sur la question du recalage d’image [8], en plus d’étendre ses compétences dans des domaines comme la reconnaissance de forme. Le schéma d’utilisation de ceux-ci est assez commun selon les applications visées [7], nous résumons ici les étapes perti-nentes pour notre sujet :

1. identification de points saillants : L’objectif est de re-chercher dans les deux images E et C des coordonnées de pixels, pEet pCrespectivement, tels que leur mise en correspondance soit facilitée par la suite. La littérature est abondante sur le sujet [13, 9, 10], mais il est admis à minima qu’un point saillant doit présenter des variations de contraste autour de lui ; autrement dit les dérivées spa-tiales de l’image dans l’entourage de ce point ne doivent pas être nulles. A l’issue de cette étape, nous obtenons les ensembles {pE} et {pC} pour les deux images, non

nécessairement de même dimension.

2. calcul de descripteurs : Toujours dans l’optique de la mise en correspondance, le descripteur cherche à carac-tériser au mieux la région autour du point saillant. Il doit être discrimant et compact dans la quantité d’informa-tion qu’il contient pour un appariement efficace en terme de robustesse et vitesse de calcul. Une nouvelle fois les travaux sont nombreux sur ce sujet, exploitant la répar-tition spatiale des points pour capturer une forme [14], des histogrammes sur la distribution des gradients de l’image [9], ou des patches orientés [7] ; une vue plus exhaustive est donnée par [8]. Après cette étape, chaque point pi est donc associé à un descripteur Di qui peut

prendre la forme d’un vecteur ou d’une matrice d’infor-mation variée (histogramme, patch, . . . ).

3. mise en correspondance : cette étape recherche les liai-sons une à une entre les points {pE} et {pC} par

com-paraison de leurs descripteurs respectifs. La stratégie la plus simple consiste à rechercher pour chaque point d’in-dice i de E celui qui minimise la fonction distance h de son descripteur avec ceux de C :

ˆ

k = argmin

k

h(DEi , DCk), (3)

où ˆk est l’indice de l’élément de {DC} choisi pour la

mise en correspondance avec DE

i . La fonction h peut

par exemple être une distance euclidienne ou de Ham-ming suivant la caractéristique du descripteur choisi. Pour obtenir une bijection entre les ensembles de points, la même procédure peut être réalisée en inversant les rôles des images, ainsi seuls les appariements qui satis-font le critère de coût minimum de façon symétrique sont retenus ; c’est l’approche qui est utilisée dans ce travail. Nous obtenons alors un nouvel ensemble de points liés entre les deux images {¯pE, ¯pC}. Notons qu’il existe

d’autres stratégies plus élaborées tel que l’algorithme hongrois pour trouver un couplage de poids minimum

dans un graphe biparti [14], ou encore des méthodes de tri des descripteurs dans des arbres ou table de hash pour accélérer leur mise en correspondance [9, 7]. Il est également possible de considérer deux minimums plu-tôt qu’un pour améliorer la robustesse de cette étape par un test du ratio [9], la motivation étant de déterminer à quel point le choix d’une mise en correspondance serait meilleure que la suivante dans la liste.

Afin de satisfaire une contrainte géométrique liée à notre problème selon laquelle le doigt peut subir une rotation et une translation dans le plan du capteur entre deux ac-quisitions, une étape supplémentaire de minimisation de fonction permet d’exclure les appariements aberrants :

ˆ θ, ˆt = argmin θ,t X i ρ ¯pEi − R(θ)(¯pCi + t) (4)

où R(θ) désigne la matrice de rotation dans le plan image et ρ est une fonction permettant un calcul robuste de ˆθ et de ˆt. Ces derniers ne sont pas directement d’in-térêt, ils ne servent ici que de contrainte dans la déter-mination d’un nouvel ensemble de points {¯p¯E, ¯¯pC} qui satisfont chacun :

k¯¯pEi − R(θ)(¯p¯Ci + t)k < , (5) pour chaque indice i des éléments de l’ensemble de points, où k.k désigne la norme euclidienne et  est un scalaire de valeur suffisamment petite. Ceci nous permet de définir le score de similarité final entre E et C :

sdesc= Card({¯¯p E

, ¯p¯C}). (6) Littéralement le score correspond au nombre de bonnes mises en correspondance entre les deux images à l’is-sue de toutes les étapes précédentes. La fonction ρ peut prendre des formes multiples, comme appartenir à la classe des M-estimateurs. En pratique nous utilisons l’al-gorithme de RANSAC [15] pour sa bonne adéquation avec le problème à résoudre.

Il faut préciser que la mise en correspondance proposée ici n’est pas optimale en terme de vitesse de calcul ; ce n’est pas l’objectif de cette étude qui se concentre sur les 2 premières étapes. Par expérience, nous avons constaté que RANSAC rendait l’algorithme général insensible au choix d’une méthode d’appariement de descripteurs plus élabo-rée que l’approche naïve et exhaustive que nous utilisons. Cependant il serait intéressant de chercher à s’affranchir de RANSAC par un meilleur appariement de descripteurs au départ. Nous pouvons maintenant détailler les différences entre les deux approches considérées dans ce papier. SIFT. Cet algorithme qui a pour acronyme Scale Inva-riant Feature Transforma été très populaire depuis le début des années 2000 [9] et reste une référence incontournable en vision par ordinateur. Il optimise toutes les étapes pré-cédemment décrites pour aboutir à une détection de points saillants et une mise en correspondance ayant pour carac-téristiques principales :

(5)

• une grande robustesse aux transformations affines et aux changements d’échelle entre les images, ainsi qu’aux changements de luminosité (étape 1) ;

• une efficacité dans le temps de calcul par la construc-tion de descripteurs compacts et discriminants (étape 2), et par leur indexation dans des arbres pour faciliter leur mise en correspondance (étape 3).

En pratique nous avons fait le choix de n’utiliser dans ce travail que la partie identification des points saillants et calcul du descripteur de la méthode SIFT. Ceci nous per-met une certaine maîtrise de la mise en correspondance en conservant le schéma décrit précédemment, et facilite également la comparaison avec la seconde méthode. Les conséquences sont un temps de calcul supérieur dans notre cas, et un nombre de mise en correspondance erronée plus grand qui est corrigé par la suite à l’aide de RANSAC. Les points saillants de SIFT, également définis comme points clés, sont détectés comme des extremas de la fonction DoG (Difference of Gaussians) appliquée à l’image pour différents facteurs d’échelle. Intuitivement, les contours de l’image sont estimés à différentes échelles par filtrage, et les extremas locaux le long de ces contours et entre échelles adjacentes sont sélectionnés. Après sup-pression des points de faible contraste et de faible courbure le long du contour, un raffinement subpixelique permet une localisation plus précise de ceux-ci. Enfin à chaque point est associé une orientation, déterminée par un calcul de gra-dient dans un environnement local qui dépend de l’échelle à laquelle celui-ci a été détecté ; ceci finalise l’étape 1. Le descripteur SIFT cherche à caractériser l’orientation des gradients dans une fenêtre (16x16) pixels autour de chaque point clé par un classement ingénieux de celles-ci dans des histogrammes[9]. La robustesse du descripteur est assu-rée notamment par pondération des orientations estimées par la magnitude du gradient servant à leur calcul ainsi que par leur distance au point saillant, mais également par un calcul d’orientation qui est relatif à l’orientation même du point clé, et aussi par un seuillage des histogrammes pour améliorer l’indépendance aux conditions d’illumina-tion. Le descripteur SIFT est résumé dans un vecteur conte-nant les valeurs des histogrammes, la fonction de distance h entre deux descripteurs est une distance euclidienne :

h(Di, Dk) = kDi− Dkk. (7)

Ceci complète les étapes 2 et 3 dans le cas de SIFT. Harris-SSD. Nous désignons par Harris-SSD l’utilisa-tion conjointe de points saillants extraits par la méthode d’Harris [13] et de descripteurs dont la comparaison s’ef-fectue par calcul d’une somme des différences entre élé-ments au carré (SSD : Sum Square Differences).

La détection de points saillants par l’algorithme d’Harris et Stephen s’appuie sur un développement de Taylor de la différence des intensités au carré entre l’image concernée et une version de celle-ci légèrement translatée. Cette ex-pression peut être astucieusement réécrite sous une forme

matricielle localement pour chaque pixel : Hx,y = ∇σHE(x, y)∇σHE(x, y)

T

, (8)

où Hx,y désigne la matrice de Harris de taille (2x2) au

pixel (x, y) de l’image E et ∇σHE(x, y) le gradient

se-lon x et y de E lissée par une fenêtre gaussienne de para-mètre σH fixé à 1 dans notre étude. Une analyse en valeur

propre de Hx,y permet de déterminer si le pixel appartient

à une région uniforme, à un contour, où encore à un coin. Ce dernier ayant pour avantage de lever toute ambiguïté spatiale, il devient privilégié dans l’extraction des points caractéristiques après seuillage de la fonction d’Harris sur l’image. Pour chaque point saillants, nous ajoutons un cal-cul d’orientation θ à partir de la valeur locale du gradient estimée pour l’image lissée :

θ(x, y) = arctan2 ∇yσ

θE(x, y), ∇

x

σθE(x, y), (9)

où le paramètre de lissage σθ est fixé à 4. Ainsi chaque

point saillant est caractérisé par une position p et une orien-tation θ ; ceci complète l’étape 1.

Le descripteur utilisé ici correspond à un patch orienté ex-trait autour du point d’intérêt dont nous centrons et nor-malisons les intensités pour limiter sa sensibilité vis a vis des conditions de peau. Soit Ip,θ le patch de taille

(2w+1x2w+1) extrait autour du point p d’orientation θ, nous avons :

D = Ip,θ− µ

Ip,θ

σIp,θ . (10)

Par convention, le patch est extrait par interpolation rela-tivement à θ de sorte à ce que les plus forts gradients soit détectés selon l’axe x de Ip,θ, de même nous avons choisi

w = 7 notre étude. Par extension, D est donc une matrice et la fonction de distance utilisée à un autre descripteur est :

h(Di, Dk) = X x,y Di(x, y) − Dk(x, y) 2 . (11)

Ici h est également connue comme une fonction d’erreur du type SSD (Sum of Square Differences). Ceci finalise l’étape 2 et 3 pour la méthode Harris-SSD ; nous adop-tons ici une version simplifiée de la méthode MOPS (Multi-Scale Oriented Patches) utilisée dans [7] pour la construc-tion de mosaïque d’images.

4

Protocole d’évaluation

Nous détaillons dans cette partie le type des données utili-sées pour comparer les méthodes présentées précédemment ainsi que les critères évalués. Les algorithmes ont été im-plémentés en python et utilisent en grande partie les fonc-tions de la bibliothèque scikit-image [16].

4.1

Données

Nous avons utilisé la base de données biométrique SDUMLA-HMT en libre accès sur internet [17]. Elle com-prend des images acquises par 5 capteurs différents sur 106

(6)

personnes. Pour chaque personne, 6 doigts sont enregis-trés : le pouce, l’index et le majeur de chacune des mains ; chacun des doigts est acquis 8 fois. Nos expérimentations sont faites sur les données du capteur capacitif FT-2BU3. De cette base, nous avons sélectionné 30 personnes aléatoi-rement, totalisant 1440 images de taille (152x200) pixels. Il s’agit de données labélisées puisque les acquisitions sont rangées par dossier selon les individus avec un sous dossier par doigt. En revanche, nous n’avons pas de connaissance sur la quantité de translation et de rotation d’un même doigt entre deux acquisitions.

4.2

Simulation d’un petit capteur

Pour simuler le processus d’acquisition d’un petit capteur, nous avons découpé une image de taille 70x70 pixels dans chaque acquisition. Ce format correspond à une surface de (5x5)mm pour un capteur de 350dpi, soit de l’ordre de grandeur de ceux du marché des smartphones.

Figure 3 – Extraction sur une acquisition à gauche (contours rouges), et exemples d’images extraites à droite. Pour extraire une image centrée sur l’empreinte, nous utili-sons un algorithme K-means qui sépare le fond de l’image de celle de l’empreinte. On détermine ensuite le centre comme le point situé au milieu du rectangle englobant l’empreinte segmentée. Enfin, on extrait la fenêtre de taille (70x70) centrée en ce point ; un exemple est en figure 3.

4.3

Séparation des données

Les images sont ensuite séparées en 2 catégories : images d’enrôlement qui correspondraient aux données enregis-trées par l’utilisateur sur son smartphone lors de la pre-mière utilisation du système biométrique, et images candi-dates qui représenteraient des enregistrements authentiques ou frauduleux faits par le capteur lors de son utilisation. Pour chaque doigt, on sélectionne aléatoirement un nombre n d’acquisitions que l’on utilise comme données d’enrôle-ment, le reste devenant les données candidates.

4.4

Critères évalués

Une table de score est calculée en comparant chaque image candidate avec l’ensemble des images d’enrôlement de chaque doigt, nous obtenons un score par couple {image candidate, doigt enrôlé} qui est fonction des scores indivi-duels de l’image candidate avec chacune des images d’en-rôlement du doigt ; dans les résultats qui suivent nous

uti-3. capteur de Miaxis Biometrics qui utilise une technologie de Finger-print Cards, a priori un clone du capteur FPC10xx à 363dpi

lisons le maximum de ceux-ci. La table de score permet de calculer les taux de FRR et FAR pour différents seuils. Les trois algorithmes sont comparés sur la base des courbes ROC obtenues sur les données extraites.

5

Résultats

La figure 4 résume les performances en reconnaissance des trois algorithmes en fonction du nombre d’images retenues au cours de l’enrôlement ; plus la courbe ROC s’approche du point (0,10−3), meilleur est l’algorithme.

Figure 4 – Courbles ROC pour les trois algorithmes selon le nombre d’images d’enrôlement.

On constate assez logiquement qu’une augmentation du nombre d’images enrôlées permet de réduire nettement le FRR à FAR fixe, le FRR est presque divisé par trois pour les méthodes SIFT et Harris SSD en passant d’une à cinq images d’enrôlement. Il faut noter que ce nombre est bien supérieur à dix pendant la procédure d’enregistrement du doigt réalisée par un smartphone. La quantité des données de la base ne nous permet pas de reproduire un tel enrô-lement, mais il est clairement déterminant pour augmenter les performances d’un algorithme d’authentification. On remarque également que la méthode Harris SSD se dé-marque de SIFT, ceci contredit certains résultats de la lit-térature dont ceux de [5]. Une première explication est que SIFT est un algorithme performant dans des tâches géné-riques avec de nombreux degrées de liberté comme l’inva-riance au facteur d’échelle. Celle-ci n’est pas requise dans notre étude, et n’est d’ailleurs pas prise en compte dans Harris SSD. Ensuite, SIFT par conception cherche des

(7)

ex-trema le long des lignes appartenant à l’image, or ce sont des zones à forte ambiguité dans le cas des empreintes digi-tales. La figure 5 vient renforcer cette observation en com-parant les points saillants détectés par les deux méthodes sur une même acquisition. On remarque que le détecteur d’Harris se concentre exclusivement sur les contours là où SIFT détecte des fonds de vallées ou des sommets de crêtes qui ont a priori moins de chances d’être discrimants.

Harris SIFT

Figure 5 – Points saillants de Harris et SIFT en verts. La seconde explication est liée à la nature des données. Les empreintes sont constituées d’une texture très répéti-tive avec une alternance de vallées et de crètes. Un descrip-teur qui ne s’appuie que sur des histogrammes d’orienta-tion des gradients peut perdre des informad’orienta-tions locales sur la forme de l’empreinte autour du point saillant. La figure 6 montre des exemples de patchs extraits par Harris SSD qui semblent difficiles à résumer à l’aide du descripteur SIFT.

Figure 6 – Exemples de patchs (15x15) pixels extraits au-tour des points saillants de Harris en figure 5.

6

Perspectives

Les résultats obtenus sont préliminaires, la robustesse des algorithmes doit être testée sur plus de données avec des variations dans les conditions de peau plus importantes. Certains paramètres ont été fixés empiriquement par ob-servation des résultats, comme la taille des fenêtres ou les coefficients de lissage pour Harris SSD, ils nécessiteraient une analyse de sensibilité plus poussée.

Il reste des marges de manoeuvre importantes pour accélé-rer l’appariement et probablement se passer de l’étape de RANSAC. Enfin la similarité entre les patchs retenus par la méthode d’Harris SSD sur l’ensemble des données nous suggère que des algorithmes d’apprentissage d’une base de représentation de ceux-ci pourraient ouvrir d’autres pers-pectives dans la façon de calculer le score de similarité.

Références

[1] J.F. Mainguet, W. Gong, et A. Wang. Reducing silicon fingerprint sensor area. Dans

Internatio-nal Conference on Biometric Authentication, volume 3072, pages 301–308, Hong-Kong, 2004.

[2] R. Sanchez-Reillo. The Madrid Report, Next Biome-trics, june 2017.

[3] C. Lee et S. Wang. Fingerprint feature extraction using gabor filters. Electronics Letters, 35(4) :288– 290, Feb 1999.

[4] A. Jain, S. Prabhakar, L. Hong, et S. Pankanti. Filterbank-based fingerprint matching. Transactions on Image Processing, 9(5) :846–859, 2000.

[5] A. Karlsson et J. Hagel. Fingerprint matching-hard cases, Faculty of engineering, Lund University, 2016. [6] A. Jain, A. Ross, et S. Prabhakar. An introduction to biometric recognition. Transactions on Circuits and Systems for Video Technology, 14(1) :4–20, Jan 2004. [7] M. Brown, R. Szeliski, et S. Winder. Multi-image matching using multi-scale oriented patches. Dans Conference on Computer Vision and Pattern Recog-nition, volume 1, pages 510–517, Jun 2005.

[8] R. Szeliski. Computer vision : algorithms and appli-cations. Springer Science and Business Media, 2010. [9] D. G. Lowe. Distinctive image features from scale-invariant keypoints. International Journal of Compu-ter Vision, 60(2) :91–110, 2004.

[10] K. Mikolajczyk et C. Schmid. A performance eva-luation of local descriptors. Transactions on Pattern Analysis and Machine Intelligence, 27(10) :1615– 1630, 2005.

[11] J. P. Lewis. Fast normalized cross-correlation. Vision interface, 10(1) :120–123, 1995.

[12] S. Chambon et A. Crouzil. Mesures de corrélation robustes aux occultations. Dans ORASIS-Journées jeunes chercheurs en vision par ordinateur, Gerard-mer, 2003.

[13] C. Harris et M. Stephens. A combined corner and edge detector. Dans Fourth Alvey Vision Conference, pages 147–151, 1988.

[14] S. Belongie, J. Malik, et J. Puzicha. Shape matching and object recognition using shape contexts. Transac-tions on Pattern Analysis and Machine Intelligence, 24(4) :509–522, 2002.

[15] M. Fischler et Ro. Bolles. Random sample consen-sus : A paradigm for model fitting with applications to image analysis and automated cartography. Com-munications of the ACM, 24(6) :381–395, Juin 1981. [16] S. van der Walt, J.L. Schönberger, J. Nunez-Iglesias,

F. Boulogne, J. D. Warner, N. Yager, E. Gouillart, T. Yu, et the scikit-image contributors. scikit-image : image processing in Python. PeerJ, 2 :e453, 6 2014. [17] Y. Yin, L. Liu, et X. Sun. Sdumla-hmt : A

multi-modal biometric database. Dans Chinese Conference on Biometric Recognition, pages 260–268. Springer-Verlag, 2011.

Figure

Figure 1 – Nouveaux modèles de téléphone portable avec un capteur d’empreinte (source : mainguet.org).
Figure 3 – Extraction sur une acquisition à gauche (contours rouges), et exemples d’images extraites à droite.
Figure 5 – Points saillants de Harris et SIFT en verts.

Références

Documents relatifs

 Érosions détectées avec haute sensibilité chez une majorité des patients du groupe arthrose récente, 50 % dans le groupe arthrose chronique et 10% chez les asymptomatiques,

Le pas élémentaire consiste à faire évoluer d’un an une tranche d’âge. Il est clair que la population d’une tranche d’âge aura, l’année suivante, un an de plus –

Dans le cas d’une non-ostéointégration de l’implant suite à l’utilisation d’un Profile Designer iphysio ® , vous devrez en informer votre conseiller commercial ou le

 Présence d’ADN fœtal libre circulant dans le sang maternel.  Représente l’ensemble du

Prenez le capuchon de protection de la couleur correspondante du Profil Designer iphysio ® en bouche à l’aide de la vis de préhension et clipsez-le dans le fût de vis apparent..

Objectifs : Intégrer le projet : Intégrer le projet d d’é ’écoquartier coquartier dans le dans le tissu urbain existant, en travaillant notamment sur tissu urbain existant,

Suspendue sur une nacelle entre ciel et terre, l’artiste Constance Fulda. relèvera par frottage sur papier les empreintes

À partir d’un lecteur d’empreinte digitale centralisé, on peut accéder à tous les « états de fonctionnement » et à la « programmation » du lecteur d’empreinte