• Aucun résultat trouvé

Repérage automatique:

Dans le document Utilization of 3D data in face recognition (Page 154-157)

Chapter VII. Impact of Regional Alterations on Face Recognition

3. Prétraitement et annotation automatique d'un visage 3D:

3.4. Repérage automatique:

|| − |||| Équation 18 Dans l'équation ci-dessus, Pe est le point à estimer et S sont les points appartenant au voxel V, qui vont contribuer au calcul de la position débruitée de P. Gσ

s est la fonction de pondération spatiale prise comme un filtre Gaussien unidimensionnel. Par conséquent, la pondération décroit avec la distance spatiale à P. Fσr est la longueur de la fonction de pondération, qui est à son tour une fonction Gaussien unidimensionnelle qui fait baisser l'influence des pixels S ayant une valeur normale, Ns, très différente de Np.

3.4. Repérage automatique:

Les points des traits faciaux sont très importants pour beaucoup d'applications de vision par ordinateur comme la normalisation des visages, le recalage et le codage des visages humains basé sur des modèles. En considérant que la coopération du sujet est requise durant l’enregistrement, notre système de repérage automatique repose sur l’hypothèse restrictive d'un environnement d'acquisition bien contrôlé dans lequel les sujets sont inscrits sous les conditions suivantes:

• En pose frontale;

• Sans aucune occlusion ni expression importante.

3.4.1.Analyse du profil vertical:

L'analyse du profil vertical commence par l'extraction de la ligne médiane faciale, et, à cette fin, la méthode proposée dans (Lu, et al., 2005) est utilisée. Pour toute ligne, la position ayant la valeur maximale de z est trouvée, puis, pour chaque colonne, le nombre de ces positions est calculé pour qu'un histogramme soit créé. Le sommet de cet histogramme est choisi pour la position de la ligne médiane verticale. Le point le plus haut de la courbe du profil est détecté comme étant la pointe du nez. Les iris sont localisés grossièrement en haut du visage par rapport à la pointe du nez. Ensuite, les images 2D et 3D du visage subissent une rotation afin d'aligner horizontalement les centres des iris et l'analyse du profil est répété.

Sur la courbe du profil, il existe des bosses (front, nez, lèvres et menton) et des trous entre elles. Les sommets et les nadirs de la courbe du profil sont trouvés à l'aide des points d'intersections des courbes représentant la première et la deuxième dérivées avec l'axe des zéros (les différences entre les éléments adjacents de la ligne médiane).

Désormais, ces points sont connus, le visage peut être divisé en sous-images plus significatives pour localiser ou raffiner les points d'intérêt.

3.4.2.Extraction des points d'intérêt faciaux Yeux:

Les données 2D sont utilisées pour détecter les points d'intérêt autour des yeux, notamment les centres des iris, les coins intérieurs et extérieurs des yeux et les limites supérieures et inférieures des iris. La région "sans peau" est retrouvée en supprimant les pixels avec les valeurs (Cb, Cr) les plus fréquemment présentes dans l’image, en utilisant l'espace YCbCr et les petites îles dans le masque binaire obtenu sont éliminées.

Après l'obtention des régions oculaires, des contours de pixels sont tout d’abord construits en utilisant le filtre de Canny (dit aussi détecteur de Canny). Ensuite, la transformée de Hough est appliquée sur les contours de pixels pour détecter les cercles.

Figure 69: Organigramme du système proposé

Pour chaque cercle détecté, un score de chevauchement est calculé comme étant le rapport des portions détectées du cercle par rapport au périmètre du cercle complet.

Par la suite, les cercles détectés (candidats iris) sont regroupés en deux classes selon leurs positions: côté droit ou côté gauche. Puis, pour toute paire possible (cercle droit, cercle gauche), les mesures qui suivent sont évaluées et utilisées pour éliminer les paires incompatibles:

• La distance verticale des centres: elle ne doit pas dépasser un certain seuil;

• La distance horizontale des centres: elle doit être supérieure à un certain seuil;

• La différence entre les rayons: elle ne doit pas dépasser un certain seuil.

Parmi les paires bien adaptées, celle présentant le score de chevauchement le plus grand est élu pour être les iris. Leurs emplacements sont raffinés dans de plus petites fenêtres situées aux centres des iris détectés.

Pour les coins des yeux, les arêtes horizontales crées par les paupières sont recherchées à la fois sur l'image segmentée en couleurs ainsi que sur l'image en échelle de gris. Après que les deux cartes de contours de pixels soient superposées, des polynômes du deuxième et du troisième ordre sont ajustés pour les arêtes des paupières inférieures et supérieures respectivement, en utilisant la méthode des moindres carrés. Les coins des yeux intérieurs (près de l'arête du nez) sont déterminés comme les points d'intersection des deux polynômes ajustés.

Nez

Les données 3D sont utilisées pour détecter les point3s du nez. La courbure de Gauss minimale est calculée pour tout point appartenant à la région du nez. Ensuite, la détection des arêtes est appliquée à l'image dans laquelle l'intensité est considérée comme la courbure minimale. Ces arêtes révèlent la position des points d'intérêt sur les deux côtés de la pointe du nez.

Sourcils

Dans notre système, une approche de contours actifs basée sur les régions (sans arêtes) est adoptée pour les sourcils. Après l'obtention du contour, seulement la limite supérieure est extraite, ainsi que les informations de l’arête horizontale, obtenues par l'intermédiaire du détecteur de Canny, y sont ajoutées afin d'améliorer la robustesse contre les sections à contours erronés. Finalement, un polynôme du 3ème degré est ajusté pour supprimer les points aberrants, avant que les premiers, plus haut et dernier points soient sélectionnés comme points d’intérêt.

Lèvres

Puisque nous travaillons sur des visages avec des expressions neutres, la bouche est supposée être fermée. Une bouche fermée engendre toujours une ligne plus foncée entre les deux lèvres. En se basant sur cet acquis, le point de contact des lèvres est raffiné en appliquant une analyse de projection verticale. Dans une fenêtre étroite prise autour de ce point-là, les arêtes horizontales sont détectées et en projetant horizontalement ce contour

est utilisée. L’erreur est prise pour être le rapport de la distance Euclidienne entre le coin manuellement étiqueté et le point détecté par la distance interoculaire (DIO); les taux de succès dans la Table 19, pour tout point détecté, sont donnés pour un seuil de 10% de DIO.

Table 19: Les taux de réussite associés à la détection des points de repérage faciaux.

Points Taux de

Réussite Points Taux de

Réussite Points Taux de Réussite Points 1 et 6 77.09% Point 12 75.59% Point 18 87.96%

Points 2 et 5 61.04% Point 13 91.64% Points 19 et 20 97.66%

Points 3 et 4 77.43% Point 14 93.65% Point 21 94.65%

Points 7 et 10 93.48% Point 15 96.99% Point 22 73.58%

Points 8 et 9 95.48% Point 16 88.96% Centres d'iris 100%

Point 11 80.60% Point 17 95.32%

3.4.4.Approche Asymétrique: Apprendre les Variations d'Expressions:

Une des sources de variation les plus critiques dans la reconnaissance faciale est constituée par les expressions faciales, en particulier dans le cas où un seul échantillon par personne est disponible à l’enrolment. Nous abordons ce problème avec un schéma basé sur une analyse par synthèse dans lequel un certain nombre d'images faciales synthétiques avec différentes expressions sont produites. Pour ce faire, un modèle animable 3D est généré pour chaque utilisateur en utilisant 17 points de repérage pour lesquelles une méthode d'extraction automatique est précédemment présentée.

Dans le document Utilization of 3D data in face recognition (Page 154-157)