• Aucun résultat trouvé

Comparaison des déviations standard pour la base ORL

anciens algorithmes non flous. Ce qui est un point important dans la pratique puisque les taux de reconnaissance donnés par ces algorithmes ne vont pas trop varier lorsqu’on refait plusieurs tests différents.

Par ailleurs, l’intégration du flou dans les approches proposées demande un temps de calcul plus grand dû à l’étape de fuzzification qui utilise l’algorithme fuzzy c-means (figure 5.5). Cet inconvénient peut-être limité en cherchant un algorithme de groupe- ment flou plus rapide que le fuzzy c-means. La dernière expérience effectuée consiste à

FIGURE5.5 – Temps d’exécution des algorithmes KSDA et KSDA floue pour la base ORL voir l’effet des fonctions noyaux sur les performances de l’approche fuzzy KSDA. Pour cela, nous avons utilisé le noyau polynomial avec {d = 2, 3}, Gaussien avec le paramètre {σ2 = 105, 107} et enfin la fonction noyau power distance kernel avec {β = 0.5, 1}. Dans

le tableau 5.3, nous remarquons que le noyau polynomial fournit un mauvais résultat, par rapport au noyau Gaussien, tandis que le nouveau noyau avec β = 0.5 offre le meilleur taux de reconnaissance.

Tests sur la base de données Yale B étendue

Nous avons aussi effectué des tests sur la base de données Yale B étendue. Cette base contient 16128 images de 38 personnes sous différentes variations de luminance. Nous avons utilisé un sous ensemble de cette base de données [57]. Ces images ont une taille de 192×168. Pour simplifier les calculs nous avons réduit la taille de ces images à 48×42 pixels.

Le protocole expérimental est le même que précédemment. A cet effet, le nombre d’images d’apprentissage par personne, k, varie de 2 à 9. A chaque étape, k images

TABLE 5.3 – Taux de reconnaissance sur la base ORL pour l’algorithme KSDA flou utilisant différentes fonctions noyau.

Polynomial kernel k d=2 d=3 2 70,25 53,87 3 80,53 68,64 4 88,37 76,16 5 93,30 84,4 6 95,50 90,12 7 96,83 92,41 8 98,37 95,50 9 99,75 97,51 Gaussian RBF kernel k σ2 = 105 σ2 = 107 2 82,03 81,71 3 88,76 87,75 4 93,33 90,87 5 95,75 94,40 6 96,43 96,87 7 97,91 97,66 8 98,87 99,10 9 99,25 99,25

Power distance kernel

k β = 0.5 β = 1 2 86,65 83,53 3 92,82 90,03 4 95,61 93,08 5 96,50 95,80 6 97,68 97,75 7 99,03 97,91 8 99,37 98,87 9 99,75 99,50

sont sélectionnées aléatoirement de la base de données originale afin de constituer l’en- semble d’apprentissage. Le reste des images de chaque personne seront utilisées pour l’étape de test. De plus, pour chaque k, 10 tests ont été réalisés pour calculer la moyenne des taux de reconnaissance.

Dans la figure 5.6, les taux de reconnaissance pour KSDA et KSDA floue sont tra- cés en fonction du nombre d’images d’apprentissage utilisés. Il ressort de cette figure que la méthode KSDA floue, utilisant le noyau Gaussien avec σ2 = 10, surpasse son

ancienne version KSDA. Ceci confirme encore une fois que l’utilisation de l’approche floue améliore les taux de reconnaissance surtout pour une base de données contenant

FIGURE5.6 – Les taux de reconnaissance pour la base de données Yale B étendue

FIGURE5.7 – Temps d’exécution des algorithmes KSDA et KSDA floue sur la base Yale B étendue

des images prises sous une illumination variable. Malheureusement, cette approche augmente aussi le temps nécessaire pour exécuter les algorithmes de reconnaissance (figure 5.7). Afin de chercher les valeurs optimales de σ2 et β qui donnent un taux

TABLE 5.4 – L’effet de variation des valeurs σ2 et β sur les taux de reconnaissance de

l’algorithme KSDA floue k 2 3 σ2 1 10 10+2 10+3 64.947 71,493 49,778 38.743 73.909 79.947 57.631 45.639 β 10−4 10−3 10−2 10−1 69.144 71,921 69.322 67.467 77.105 80,548 76.391 73.834 TABLE5.5 – Taux de reconnaissance sur la base Yale B étendue pour l’algorithme KSDA flou utilisant différentes fonctions noyaux.

Gaussian RBF kernel k σ2 = 10 σ2 = 1 2 71.49 64.94 3 79.94 73.90 4 82.97 80.43 5 88.47 83.52 6 91.80 87.5 7 95.26 92.19 8 97.36 94.84 9 97,91 96.31

Power distance kernel

k β = 10−3 β = 10−2 2 71,92 69.32 3 80,54 76.39 4 84.12 81.65 5 89.15 84.36 6 92.90 88.10 7 95.96 92.61 8 97.89 95.39 9 98.68 97.12

images par personne pour l’apprentissage. Le tableau 5.4 présente les résultats dans lesquels nous avons choisi σ2 = 10et β = 10−3 comme valeurs optimales. En outre, le

tableau 5.5, montre encore une fois que le noyau power distance kernel avec β = 10−3

dépasse le noyau Gaussien traditionnel.

5.7

Conclusion

Dans ce chapitre, nous avons présenté de nouveaux algorithmes de reconnaissance des visages. Ces algorithmes ont été testés avec succès sur des bases de données pu- bliques. D’une part, nous avons intégré la théorie des sous-ensembles flous dans deux algorithmes déjà existant à savoir KSDA et LDA/QR. Donc, en incluant l’ information

d’appartenance floue aux classes, nous avons calculé les matrices de dispersion floues inter et intra classe. Ceci nous a amené à réduire la sensibilité des méthodes originales aux grandes variations entre les images faciales causées par les variations d’éclairage, de la pose et des expressions du visage.

Les résultats expérimentaux sur les bases de données, ORL et Yale B étendue, montrent que les méthodes développées dans le cadre du flou se sont révélées plus robustes.

La meilleure performance des algorithmes flous développés peut être attribuée au fait que le flou gère efficacement l’ambiguïté des images faciales dégradées par la mau- vaise illumination. Cela a été la principale motivation que nous avions pour améliorer la performance des méthodes LDA/QR et KSDA. Enfin, il convient de souligner que le temps d’exécution des méthodes proposées devient un peu plus grand avec l’utilisation de l’algorithme Fuzzy c-means dans l’étape de fuzzification.

D’autre part, nous avons aussi présenté l’algorithme KWSDA qui est une améliora- tion du récent algorithme nommé KSDA. Tout d’abord, nous avons défini une pondé- ration dans le critère d’optimisation de l’algorithme afin de surmonter le problème de chevauchement des classes causé par les données aberrantes dans l’espace des caracté- ristiques d’entrée. Puis, nous avons proposé un moyen simple pour trouver la solution au critère d’optimisation modifié. Enfin, les expériences sur la base de données ORL montrent que KWSDA donne un taux de reconnaissance plus élevé que KSDA.

Les systèmes de reconnaissance du visage reposent sur des algorithmes d’analyse et de reconnaissance des formes dans les images pouvant identifier les personnes qui y sont associées. Malheureusement, ces algorithmes sont plus au moins robustes et possèdent des limitations et des contraintes d’utilisation.

Dans cette thèse, nous nous sommes intéressés au problème de la reconnaissance fa- ciale. Nos travaux contribuent à la mise au point de nouveaux algorithmes plus robustes destinés à reconnaître un individu par son visage.

Nous nous sommes penchés plus particulièrement sur les méthodes de la recon- naissance de visages basées sur la projection statistique. Elles visent à trouver un sous- espace de projection dans lequel les données sont projetées pour réduire leur dimen- sion. Afin de déterminer le sous-espace de projection les approches basées sur l’analyse discriminante linéaire (LDA) maximisent la séparabilité entre classes tout en minimi- sant la séparation intra classe. Toutefois, il est parfois impossible d’utiliser directement l’analyse discriminante linéaire, sur les visages représentés par des vecteurs, à cause du problème de la singularité des matrices de dispersion. De plus, la méthode LDA est sensible aux données aberrantes et elle a tendance de chevaucher les classes qui sont déjà bien séparées dans l’espace des caractéristiques de départ. Il en résulte une mauvaise séparation des classes.

Afin de pallier ces problèmes nous avons introduit l’algorithme RWLDA/QR. Cette approche se distingue par l’utilisation d’une part, de la décomposition QR permettant ainsi d’éviter le problème de singularité ; d’autre part, l’ajout d’une fonction de pon-

dération dans les matrices de dispersion rend l’algorithme plus robuste par rapport à l’influence des classes trop éloignées des autres.

Par ailleurs, RWLDA/QR est un algorithme linéaire et ne prend pas en compte les non-linéarités des données qui peuvent survenir en pratique. C’est ainsi que nous avons proposé l’algorithme non linéaire KRWDA. Il est basé sur l’utilisation de l’astuce noyau pour transformer les données d’entrée vers un espace de caractéristiques de haute di- mension. Puis, traiter ces données dans cet espace afin d’extraire des caractéristiques non linéaires et discriminantes des images faciales. Dans cette étape de "kernelisation", nous avons introduit également deux nouvelles fonctions noyaux qui n’ont pas été utilisées auparavant pour la reconnaissance des visages.

Nous avons mis en évidence les bonnes performances des algorithmes proposés par le biais d’expérimentations menées sur des bases de visages standards. Celles-ci montrent bien que RWLDA/QR et KRWDA améliorent les taux de reconnaissance en comparaison avec des méthodes de référence telles que Fisherface et LDA/QR. Nous avons aussi constaté l’avantage des noyaux logarithmique et distance de puissance notamment leur moindre consommation en temps de calcul.

Dans le souci d’améliorer les taux de reconnaissance nous avons consacré le der- nier chapitre à l’extension floue des algorithmes d’analyse discriminante pour la re- connaissance de visages. En effet, il a été observé qu’avec le flou les taux de bonne classification s’améliorent par rapport aux méthodes de classification classiques. Pour cela, nous avons étudié les fondements théoriques de l’analyse discriminante floue et dégagé ses limites d’application pour la reconnaissance des visages. Afin de corriger ces limitations, nous avons proposé un nouvel algorithme nommé LDA/QR floue. Cet algorithme a donné de bons résultats quant au taux de reconnaissance tout en résolvant le problème SSS.

Dans un deuxième temps, nous avons présenté la méthode KSDA. Cette approche, vise à éviter le problème SSS sans calcul matriciel tout en prenant en compte les non- linéarités des données à travers l’utilisation des noyaux. Cependant, KSDA n’est pas robuste vis-à-vis des observations aberrantes. C’est pourquoi nous avons proposé un autre algorithme nommé KWSDA qui utilise des matrices de dispersion pondérées. Par la suite, on a développé la méthode KSDA floue qui est une extension floue de l’algorithme non linéaire KSDA. Cette méthode permet de gérer l’ambiguïté entre les images de visages acquises sous des conditions variables. Tous ces algorithmes, utilisant la théorie des sous-ensembles flous, ont été testés et évalués à travers des expériences sur des bases standards. Nous avons constaté que le concept flou améliore le taux de reconnaissance des algorithmes. Malheureusement, l’étape de fuzzification par Fuzzy

c-means fait augmenter le temps d’exécution de ces algorithmes. Il faudrait donc ap- porter une attention particulière à cette contrainte lors d’une possible utilisation de ces algorithmes par un système de reconnaissance en temps réel.

Enfin, nous envisageons de nombreuses perspectives de ces travaux autour des dif- férents aspects abordés durant cette thèse.

D’un point de vue général, tous les algorithmes développés au cours de cette thèse sont de nature vectorielle. Puisqu’ils utilisent des vecteurs-images définis par conca- ténation des lignes (ou colonnes) de pixels de l’image. Récemment, plusieurs algo- rithmes utilisant les matrices images sans concaténation, ont été publiés. Nous envi- sagerons donc d’introduire ce mode de représentation matricielle des images dans les algorithmes RWLDA/QR, KRWDA et KSDA.

Par ailleurs, il serait aussi intéressant d’appliquer, les méthodes développées dans ce mémoire, dans un système de sécurité biométrique utilisant l’acquisition vidéo. Dans ce cas, ces algorithmes doivent répondre aux exigences du temps réel. Mais, cela ne peut se faire sans le développement d’algorithmes efficaces de détection et de poursuite des visages dans les séquences vidéo.

[1] T. Ahonen, A. Hadid, and M. Pietikinen. Face description with local binary patterns : Application to face recognition. IEEE Transactions on Pattern Analysis and Machine Intelligence, 28(12) :2037–2041, 2006.

[2] H.F.S. Akamatsu, T. Sasaki, and Y. Suenuga. A robust face identification scheme KL expansion of an invariant feature space. In SPIE Proceedings of Intelligent Robots and Computer Vision : Algorithms and Techniques, pages 71–84, Boston, Massachusetts, USA, 1991.

[3] M. Artac, M. Jogan, and L. Leonardis. Incremental PCA or on-line visual learning and recognition. In Proceedings of the 16 th International Conference on Pattern Recognition (ICPR’02), volume 3, pages 781–784, Quebec City, Canada, 2002. [4] Bamberger and M.L.T. Smith. A filter bank for the directional decomposition of

images : Theory and design. IEEE Transactions on Signal Processing, 40(4) :882–893, 1992.

[5] M. Barlaud. Wavelets in Image communications. Elsevier, 1995.

[6] G. Baudat and F. Anouar. Generalized discriminant analysis using a kernel approach. Neural Computation, 12(10) :2385–2404, 2000.

[7] P.N. Belhumeur, J.P. Hespanha, and D.J. Kriegman. Eigenfaces vs. Fisherfaces : recognition using class specific linear projection. IEEE Transactions on Pattern Analysis and Machine Intelligence, 19(7) :711–720, 1997.

[8] M. Belkin and P. Niyogi. Laplacian eigenmaps for dimensionality reduction and data representation. Neural Computation, 15(6) :1373–1396, 2003.

[9] J. C. Bezdek. Pattern recognition with fuzzy objective function algorithms. Plenum Press, New York, 1981.

[10] I. Borg and P. Groenen. Modern Multidimensional Scaling. Springer-Verlag, New York, 1997.

[11] R. Brunelli and T. Poggio. Face recognition : Features versus templates. IEEE Transactions on Pattern Analysis and Machine Intelligence, 15(10) :1042–1052, 1993.

[12] I. Buciu and I. Pitas. Application of non-negative and local non negative matrix factorization to facial expression recognition. In Proceedings of 17th International Conference on Pattern Recognition ICPR, volume 1, pages 288–291, Cambridge, UK, 2004.

[13] P.J. Burt and E.H. Adelson. The laplacian pyramid as a compact image code. IEEE Transactions on Communication, 31(4) :532–540, 1983.

[14] E. Candès. Ridgelets : Theory and Applications. PhD thesis, Department of Statistics, Stanford University, 1998.

[15] E. Candès and D. Donoho. Curvelets : A surprisingly effective non adaptive representation of objects with edges. Technical report, Department of Statistics, Stanford University, 1999.

[16] H. Cevikalp, M. Wilkes, and A. Barkana. Discriminative common vectors for face recognition. IEEE Transactions on Pattern Analysis and Machine Intelligence, 27(1) :4– 13, 2005.

[17] L. Chen, H. Liao, M. Ko, J. Lin, and G. Yu. A new LDA-based face recognition system which can solve the small sample size problem. Pattern Recognition, 33(10) :1713–1726, 2000.

[18] S. Chen and B.C. Lovell. Face recognition with one sample image per class. In Proceedings of the Eighth Australian and New Zealand Intelligent Information Systems Conference, pages 83–88, Brisbane, Australia, 2003.

[19] Y. Chen and Y. Zhao. Face recognition using DCT and hierarchical RBF model, volume 4224 of LNCS, pages 355–362. Springer-Verlag, 2006.

[20] J-T. Chien and C-C. Wu. Discriminant wavelet faces and nearest feature classifiers for face recognition. IEEE Transactions on Pattern Analysis and Machine Intelligence, 24(12) :1644–1649, 2002.

[21] K. Chougdali, M. Jedra, and N Zahid. Face recognition using relevance weighted LDA with QR decomposition. International Journal on Graphics, Vision and Image Processing, 6(2) :27–31, 2006.

[22] K. Chougdali, M. Jedra, and N. Zahid. Using wavelets based feature extraction and relevance weighted LDA for face recognition. In A. Fred and Anil K. Jain, editors, Proceedings of the 7th International Workshop on Pattern Recognition in Information Systems, PRIS , In conjunction with ICEIS , Funchal, Madeira, Portugal, pages 183–188, 2007.

[23] K. Chougdali, M. Jedra, and N. Zahid. Fuzzy kernel scatter-difference discrimi- nant analysis for face recognition. International Journal on Graphics, Vision and Image Processing, GVIP, 8(2) :9–14, 2008.

[24] K. Chougdali, M. Jedra, and N. Zahid. Kernel weighted scatter-difference-based discriminant analysis for face recognition, volume 5112 of Lecture Notes in Computer Science (LNCS), pages 977–983. Springer, 2008.

[25] K. Chougdali, M. Jedra, and N. Zahid. Reconnaissance de visage par analyse discriminante linéaire floue. In Proceedings de la Conference Internationale sur les Systèmes Intelligents : Théories Et Applications (SITA08), Rabat, Maroc, 2008.

[26] K. Chougdali, M. Jedra, and N Zahid. Contourlet feature based kernel relevance weighted discriminant analysis for face recognition. In IEEE International Confe- rence on Multimedia Computing and Systems, pages 268–272, Ouarzazate, Morroco, 2009.

[27] K. Chougdali, M. Jedra, and N. Zahid. Fuzzy linear and nonlinear discrimi- nant analysis algorithms for face recognition. Intelligent Data Analysis Journal, 13(4) :657–669, 2009.

[28] K. Chougdali, M. Jedra, and N. Zahid. Kernel relevance weighted discriminant analysis for face recognition. Pattern Analysis & Applications journal, 13(2) :213–221, 2010.

[29] F.R.K. Chung. Spectral Graph Theory. American Mathematical Society, 1997. [30] R.R. Coifman and Y. Meyer. Othornormal wave packet bases. Preprint, Departement

of Mathematics, Yale University, USA, 1990.

[31] Comon. Independant component analysis– a new concept ? Signal processing, 36 :287–314, 1994.

[32] Cotrell and Fleming. Face recognition using unsupervised feature extraction. In Proceedings of International conference on Neural Network, pages 322–325, Paris, France, 1990.

[33] T.F. Cox and M.A.A. Cox. Multidimensional Scaling. Chapman & Hall, London, 1995.

[34] L. Cui, Y.Y. Tang, F. Liao, and X. Du. Face recognition based on discriminant waveletfaces. In Proceedings of IEEE International Conference on Systems, Man and Cybernetics, pages 3561–3565, Montréal, Canada, 2007.

[35] D.Q. Dai and P.C. Yuen. Regularized discriminant analysis and its application to face recognition. Pattern Recognition, 36(3) :845–847, 2003.

[36] G. Dai and D.Y. Dit-Yan Yeung. Nonlinear dimensionality reduction for classifica- tion using kernel weighted subspace method. In Proceedings of IEEE International Conference on Image Processing ICIP, volume 2, pages 38–41, Genoa, Italy, 2005. [37] G. Dai and Y. Qian. A Gabor direct fractional-step LDA algorithm for face

recognition. In Proceedings of International Conference on Multimedia & Expo, pages 61–64, Taipei, Taiwan, 2004.

[38] G. Dai and Y. Qian. Kernel generalized nonlinear discriminant analysis algorithm for pattern recognition. In Proceedings of International Conference on Image Processing ICIP, volume 4, pages 2697–2700, Singapore, 2004.

[39] G. Dai, Y. Qian, and S. Jia. A kernel fractional-step nonlinear discriminant analysis for pattern recognition. In Proceedings of 17th International Conference on Pattern Recognition ICPR, volume 2, pages 431–434, Cambrige, UK, 2004.

[40] G. Dai, D.Y. Yeung, and H. Chang. Extending kernel fisher discriminant analysis with the weighted pairwise chernoff criterion. In Proceedings of European Confe- rence on Computer Vision, pages 308–320, Graz, Austria, 2006.

[41] O. Deniz, M. Castrillon, and M. Hernandez. Face recognition using independent component analysis and support vector machines. Pattern Recognition Letters, 24(13) :2153–2157, 2003.

[42] M. N. Do and M. Vetterli. Pyramidal directional filter banks and curvelets. In Proceedings of IEEE International Conference on Image processing Thessaloniki, Greece, Thessaloniki, Greece, 2001.

[43] M.N. Do and M. Vetterli. Contourlets : a directional multiresolution image representation. In Proceedings of International Conference on Image Processing, volume 1, pages 357–360, Rochester, New York, USA, 2002.

[44] M.N. Do and M. Vetterli. Contourlets : a new directional multiresolution image representation. In Conference Record of the Thirty-Sixth Asilomar Conference on Signals, Systems and Computers, volume 1, pages 497–501, Pacific Grove, USA, 2002.

[45] M.N. Do and M. Vetterli. The contourlet transform : an efficient directional multiresolution image representation. IEEE Transactions on Image Processing, 14(12) :2091–2106, 2005.

[46] L. Donoho and C. Grimes. Hessian eigenmaps : new locally linear embedding techniques for high-dimensional data. Technical Report TR-2003-08, Department of Statistics, Stanford University, 2003.

[47] B.A. Draper, K. Baek, M.S. Bartlett, and J.R. Beveridge. Recognizing faces with PCA and ICA. Computer Vision and Image Understanding, 91(1-2) :115–137, 2003. [48] R.P.W. Duin. Classifiers in almost empty spaces. In Proceedings of 15th International

Conference on Pattern Recognition, pages 1–7, Barcelona, Spain, 2000.

[49] J. C. Dunn. A fuzzy relative of the isodata process and its use in detecting compact well-separated clusters. Journal of cybernetics, 3 :32–57, 1973.

[50] H.K. Ekenel and B. Sankur. Feature selection in the independent component subspace for face recognition. Pattern Recognition Letters, 25(12) :1377–1388, 2004. [51] M.J. Er, S. Wu, and J. Lu. Face recognition using radial basis function (RBF) neural

networks. IEEE Transactions on Neural Networks, 13(3) :697–709, 2002.

[52] W. Fan, Y.H. Wang, W. Liu, and T.N. Tan. Combining null space-based Gabor features for face recognition. In Proceedings of International Conference on Pattern Recognition, pages 330–333, Cambridge, England, UK, 2004.

[53] R.Q. Feitosa, C.E. Thomaz, and A. Veiga. Comparing the performance of the discriminant analysis and RBF neural network for face recognition. In Proceedings of International conference on Information Systems Analysis and Synthesis, volume 6, pages 50–56, Orlando, USA, 1999.

[54] K. Fukunaga. Introduction to Statistical Pattern Recognition. Academic Press, 1990. [55] Y. Gao and M.K.H. Leung. Face recognition using line edge map. IEEE

Transactions on Pattern Analysis and Machine Intelligence, 24(6) :764–779, 2002. [56] X. Geng, D.C. Zhan, and Z.H. Zhou. Supervised nonlinear dimensionality

reduction for visualization and classification. IEEE Transactions on Systems, Man, and Cybernetics, Part B, 35(6) :1098–1107, 2005.

[57] A.S. Georghiades, P.N. Belhumeur, and D.J. Kriegman. From few to many : Illumination cone models for face recognition under variable lighting and pose. IEEE Transactions on Pattern Analysis and Machine Intelligence, 23(6) :643–660, 2001.

[58] G.H. Golub and C.F. Van Loan. Matrix Computations. The Johns Hopkins University Press, 1996.

[59] D. Guillamet, M. Bressan, and J. Vitria. A weighted non-negative matrix factori- zation for local representations. In Proceedings of IEEE International Conference on Computer Vision and Pattern Recognition CVPR, volume 1, pages 942–947, Kauai, HI, USA, 2001.

[60] D. Guillamet, B. Schiele, and J. Vitria. Analyzing non-negative matrix factori- zation for image classification. In Proceedings of 16th International Conference on Pattern Recognition, volume 2, pages 116–119, Quebec City, Canada, 2002.

[61] G. Guo. Support vector machines for face recognition. Image and Vision Computing, 19(9-10) :631–638, 2001.

[62] J. Haddadnia, M. Ahmadi, and K Faez. An efficient feature extraction method with peudo zernike moment in RBF neural network based human face recognition system. EURASIP Journal of Applied Signal Processing, 9 :890–891, 2003.

[63] T. Hastie and W. Stuetzle. Principal curves. Journal of the American Statistical Association, 84 :502–516, 1989.

[64] E. Hjelmås and B.K. Low. Face detection : A survey. Computer Vision and Image Understanding, 83(3) :236–274, 2001.

[65] Z.Q. Hong. Algebraic feature extraction of image for recognition. Pattern Recognition, 24(3) :211–219, 1991.

[66] H. Hotelling. Relations between two sets of variates. Biometrika, 28 :312–377, 1936. [67] P. Howland and H.S. Park. Generalizing discriminant analysis using the gene- ralized singular value decomposition. IEEE Transactions on Pattern Analysis and Machine Intelligence, 26(8) :995–1006, 2004.

[68] P. Howland, J.L. Wang, and H.S. Park. Solving the small sample size problem in face recognition using generalized discriminant analysis. Pattern Recognition, 39(2) :277–287, 2006.

[69] M.K. Hu. Visual pattern recognition by moment invariants. IEEE Transactions Information Theory, 8 :179–187, 1962.

[70] R. Huang, Q. Liu, H. Lu, and S. Ma. Solving the small sample size problem of LDA. In Proceedings of International Conference on Pattern Recognition, volume 3,

Documents relatifs