• Aucun résultat trouvé

Comparaison de la DCT avec la méthode de codage

V. Chapitre 4 : Validation et analyse des résultats

4.3 Résultats

4.3.7 Comparaison de la DCT avec la méthode de codage

Le domaine de l’imagerie satellitaire devient de plus en plus important ; il est utilisé dans plusieurs thèmes de recherche. Par conséquent, le développement d’algorithmes de codage et de compression est d’un grand intérêt. Dans ce paragraphe, nous allons comparer notre méthode de codage appelée codage de rang avec la méthode DCT (transformation en cosinus discrète) que nous allons détailler dans le paragraphe suivant [78].

d. Définition de la DCT

La DCT est une fonction mathématique qui permet de changer le domaine de représentation d'un signal. Ainsi un signal temporel ou spatial peut être défini dans un espace fréquentiel, rendant exploitables certaines de ces propriétés.

Dans une image la majorité des informations sont concentrées dans les basses fréquences. La transformation de l'image par la DCT va donc faire apparaître une occupation spectrale réduite, ou une zone de taille relativement petite code une grande partie de l'information.

Figure 40 : le passage du domaine spatial au domaine fréquentiel.

L'application de la DCT fait passer l'information de l'image du domaine spatial en une représentation identique dans le domaine fréquentiel. Pourquoi ce changement de domaine est-il si intéressant? Justement parce qu'une image classique admet une grande continuité entre les valeurs des pixels. Les hautes fréquences étant réservées à des changements rapides d'intensité du pixel, ceux-ci sont en général minimes dans une image. Ainsi on parvient à représenter l'intégralité de l'information de l'image sur très peu de coefficients, correspondant à des fréquences plutôt basses, la composante continue (valeur moyenne de l'image traitée) ayant une grande importance pour l'oeil.

La DCT s'applique à une matrice carrée. Le résultat fourni est représenté dans une matrice de même dimension. Les basses fréquences se trouvant en haut à gauche de la matrice, et les hautes fréquences en bas à droite.

La transformation matricielle DCT étant orthogonale, elle s'accompagne d'une méthode d'inversion pour pouvoir revenir dans le domaine spatial. Ainsi après avoir fait des modifications dans le domaine fréquentiel, éliminer des variations de l'image quasiment invisibles par l'oeil humain, on retourne à une représentation sous forme de pixels.

La formule ci-dessous montre comment calculer la DCT sur une matrice NxN :

) 2 ) 1 2 ( cos( ) 2 ) 1 2 ( cos( ) , ( ) ( ) ( 2 1 ) , ( 1 0 1 0 N j y N i x y x pixel j C i C j i DCT N x N y π π + + =

∑∑

− = − = 2 1 ) (x = C si x vaut 0, et 1 si x >0.

L'information locale de l’image peut être obtenue à l'aide des blocs de la DCT. Le principe est le suivant: l’image est divisée en blocs de taille 32*32 pixels. Chaque bloc est représenté par les coefficients de la DCT. A partir de ces derniers, seuls ceux se trouvant en haut à gauche du bloc sont les plus pertinents et les plus utiles. Kenel et al. [79] ont montré que l’information nécessaire à la réalisation d’une haute précision de la classification est contenue dans les premiers coefficients de la DCT (les basses fréquences) par balayage en zigzag (voir figure 40).

b. Comparaison de la DCT et du codage de rang

Les expériences de ce paragraphe ont été testées en variant la constante C, afin de comparer les résultats des deux méthodes pour chaque noyau et constater le paramètre qui donne la meilleure précision globale de classification.

Figure 42 : Le taux de classification de la DCT et le codage de rang pour le noyau sigmoïde.

Figure 43 : Le taux de classification de la DCT et le codage de rang pour le noyau gaussien.

Les figures 41, 42 et 43 illustrent les résultats de classification de la DCT et du codage du rang, en utilisant les noyaux linéaire, sigmoïde et gaussien. Seul la constante C change de la valeur 10 à10 . 10

On s’aperçoit clairement que plus la valeur de C est grande meilleur est le taux de classification.

Le codage de rang est meilleur pour toute valeur de C, alors que la DCT donne de bons résultats seulement pour les grandes valeurs de C.

On remarque aussi que le noyau gaussien est le meilleur des trois. On obtient des taux de classification élevés pour le codage de rang (la plus petite valeur de la classification obtenue est 92%).

d. Comparaison du codage de rang (second coding) et du premier codage

Figure 44 : Le taux de classification du premier codage et du codage de rang pour le noyau linéaire.

Figure 46 : Le taux de classification du premier codage et du codage de rang pour le noyau gaussien. En prenant en considération les trois figures ci-dessus, on observe que le codage de rang est meilleur pour les grandes valeurs de la constante C.

Même remarque que les premières figures, le noyau gaussien donne de meilleurs résultats que les deux autres, quelque soit la valeur de la constante C, le taux de classification du codage de rang est toujours plus grand que celui du premier codage.

d. Comparaison de la DCT et du premier codage

Figure 48 : Le taux de classification de la DCT et du premier codage pour le noyau sigmoïde.

Figure 49 : Le taux de classification de la DCT et du premier codage pour le noyau gaussien.

Les résultats de classification de la DCT et du premier codage pour les trois noyaux du classifieur sont affichés sur les figures 47, 48 et 49. On constate que le taux de classification atteint de grandes valeurs lorsque la valeur de C est grande.

Pour le noyau linéaire et gaussien, et pour les grandes valeurs de C, la DCT donne un bon résultat comparé au premier codage. Quant au noyau sigmoïde, le premier codage est toujours meilleur pour toute valeur de C.

Nous avons présenté une comparaison sur la performance des trois méthodes : la DCT, le premier codage et le codage de rang. Les résultats de classification testés par le SVM pour trois types de noyaux (linéaire, sigmoïde et gaussien) sont donnés dans les figures 41 à 49.

Seul la constante C change pour toutes les figures. Nous avons remarqué que pour les trois méthodes de compression, on obtient des résultats meilleurs pour les grandes valeurs de C. En tenant compte de chaque figure, nous constatons clairement que le codage de rang donne de bons résultats pour les petites et les grandes valeurs de C, alors que pour la DCT, le taux de classification est élevé seulement pour les grandes valeurs du paramètre C.

Il y a trois avantages significatifs du codage de rang : premièrement, il garde l’information texturelle, deuxièmement, il réduit la taille des données, ce qui réduira le temps de calcul des caractéristiques et finalement, il utilise seulement six caractéristiques alors que la DCT en utilise 169.

4.4 Conclusion

Plusieurs méthodes existantes dans le traitement de l'information texturelle agissent directement sur l'image originelle ou sur des images filtrées. La méthode d'investigation développée ici est le codage de textures à niveaux de gris.

Dans ce chapitre, nous avons présenté une série d’expérimentations en utilisant deux méthodes d’extraction de texture à savoir les matrices de cooccurrence et de corrélogramme. Nous avons appliqué la méthode de codage au niveau du calcul du corrélogramme. Nous avons montré sa pertinence, qui a été évaluée au moyen d’une procédure de classification appliquée à des imagettes. Les résultats de classification sont nettement supérieurs à ceux obtenus à partir du corrélogramme sans codage. Le but était de montrer l’efficacité du corrélogramme avec la nouvelle approche du codage. Ce dernier met en évidence l’information texturelle recherchée et donne des résultats satisfaisants de la classification , la chose que la quantification ne permet pas, et supprime l’information superflue de façon à diminuer la quantité de données à analyser et donc diminuer les temps de calcul.

Nous avons présenté ensuite, une comparaison entre le corrélogramme et la matrice de cooccurrence qui représentent des outils de caractérisation de texture

Avant d’utiliser la matrice de cooccurrence, on lui a appliqué l’approche de codage. On a commencé, tout d’abord, par le premier codage, puis ensuite, on a effectué le codage de rang. La classification par SVM sera réalisée à la fois sur le corrélogramme avec quantification et la matrice de cooccurrence avec codage, pour prouver l’efficacité de ce dernier par rapport à l’autre.

L’objectif était donc de mettre en valeur l’efficacité de la matrice de cooccurrence avec la nouvelle approche du codage comparée avec le corrélogramme.

Finalement, une comparaison avec la DCT a été effectuée, grâce au classifieur SVM. La qualité et la performance des deux méthodes ont été montrées à travers les graphes présentés dans le dernier paragraphe.

V.

Conclusion

L’analyse d’images englobe une multitude de domaines; ici nous en avons abordé un qui est l’analyse de textures. C’est un problème difficile, dû essentiellement au fait qu’il n’existe pas de définition précise et rigoureuse permettant de caractériser complètement la notion de texture.

Le but de ce travail n’a pas été de proposer une nouvelle définition, néanmoins l’idée a été d’extraire, dans les images satellitaires à niveaux de gris, une certaine information caractéristique de la texture. La contribution principale de cette thèse a été de développer des méthodes de codages d’images dont le but est de faire ressortir l’information texturelle. Des premiers travaux ont été menés dans le but d’utiliser les extremums de gris pour caractériser cette notion de texture. Pour ce faire nous avons introduit la notion d’extremum pour montrer qu’elle constitue une bonne caractérisation de la texture.

Les résultats ont montré clairement que cette simple information permet de mettre en évidence certaines caractéristiques des textures originelles.

Néanmoins, on s’est aperçue des limites de cette méthode car la structure de la texture originelle n’est pas toujours bien conservée. Il existe trop de pixels non extremum qui n’apportent pas d’information, et des pixels presque maximum ou minimum qui ne sont pas considérés et qui apporteraient certainement une information intéressante.

Dans le but de mieux faire ressortir la structure des textures, il nous a semblé intéressant d’étendre la notion d’extrémalité à tous les pixels de l’image (pas seulement aux extremums) afin de leur affecter une valeur d’extrémalité pour qu’ils nous apportent tous une information. Autrement dit, si un pixel a la plus grande valeur, on lui affecte une très forte valeur d’extrémalité, s’il a la plus faible valeur, on lui attribue une faible valeur, et dans les autres cas, on lui donne une valeur fonction du nombre de niveaux de gris voisin.

Nous avons donc présenté un premier codage basé sur ce principe ; Il affecte à chaque pixel de l’image une valeur de code résumant une certaine information locale autour de ce dernier. C’est ensuite à partir de codage que l’extraction de texture est réalisée.

Nous avons montré que ce codage est un bon résumé de l’information texturelle, les résultats de classification obtenus à l’aide de ce dernier sont meilleurs que ceux obtenus directement à partir des textures non codées.

Il est important de s’apercevoir que quel que soit le nombre de niveaux de gris dans l’image initiale, son codage ne comporte que 9 valeurs entières comprises entre 0 et 8. Cette réduction est intéressante vis-à-vis du stockage de l’image codée et de son analyse.

Néanmoins, ce codage dégrade la qualité de l’image en perdant l’information d’amplitude ; d’où l’appel au deuxième codage qui permet d’augmenter le nombre de niveau de gris de 9 à 16. Il permet d’améliorer la qualité d’image, en rajoutant l’information d’amplitude perdue au premier codage.

Les résultats de classification obtenus sont beaucoup plus révélateurs de l’efficacité et de la pertinence de ce deuxième codage.

Mis à part ces très bons résultats, la création de ces codages permet de diminuer de façon non arbitraire le nombre des valeurs associées à chaque pixel d’une image (9 pour le premier codage, et 16 pour le deuxième codage). Ceci est un atout algorithmique et un gain de place mémoire très intéressant lors des analyses d’images, en particulier, lors des calculs des matrices de cooccurrence et de corrélogramme.

Il existe plusieurs méthodes permettant de coder ou de compresser les images, nous en avons choisi celle la plus utilisée et la plus classique, DCT, pour la comparer avec nos deux méthodes de codage.

Nous avons remarqué que pour les trois méthodes de compression, on obtient des résultats meilleurs pour les grandes valeurs de C.

En tenant compte des résultats de classification obtenus, nous avons constaté clairement que le codage de rang donne de bons résultats pour les petites et les grandes valeurs de C, alors que pour la DCT, le taux de la classification est élevé seulement pour les grandes valeurs du paramètre C.

L’ensemble de cette thèse a donc permis de montrer que la méthode de codage est une meilleure façon pour compresser une image sans toutefois perdre de l’information texturelle. Il permet de réduire la taille des données, ce qui réduira le temps de calcul des caractéristiques.

Comme ces codages correspondent à un prétraitement des textures, ils peuvent donc être utilisés avant n’importe quel type d’analyse, afin d’améliorer les performances et les résultats.

L’inconvénient de ces codages est qu’il y a une perte d’information générale, car nous ne pouvons pas reconstruire l’image originale. Mais, on s’aperçoit qu’en terme de texture, on fait ressortir l’information demandée.

Au vue de toutes ces remarques, il serait intéressant que chaque personne teste ses propres méthodes d’analyses de textures sur ces codages, afin peut-être d’améliorer à la fois ses performances et ses résultats.

A l’issue des travaux menés dans le cadre de cette thèse, nous citons quelques perspectives qui peuvent être réalisées à court et à moyen terme :

 Le faible nombre de codes permet l’usage de nouveaux attributs. La recherche d’attributs spécifiques à ces codages est aussi une piste à exploiter plus profondément.

 Dans notre travail, la discrimination de textures est réalisée à partir des vecteurs d’attributs caractéristiques par la méthode SVM. Or, en perspective de recherche, il serait intéressant d’utiliser d’autres méthodes de classements comme les méthodes classiques (distance minimum, K plus proche voisins) et d’essayer de construire une distance ou un indice de comparaison directement entre les images codées.

Bibliographie

[1] R.M. Haralick. Statistical and structural approachs to texture. Proceedings of the IEEE In Proceedings of the IEEE, Vol. 67, No. 5, pages 786–804, may 1979.

[2] F. Tomita, Y., and S. Tsuji. Description of textures by a structural analysis. IEEE Transactions on Pattern Analysis and Machine Intelligence, 4(2):183–191, march 1982.

[3] T. Matsuyama, S.-I. Miura, and M. Shirai Nagao. Structural analysis of natural textures by fourier transformation. Computer Vision, Graph. and Image Proc., 24:347–362, 1983.

[4] F.M. Vilnrotter, R. Nevatia, and K.E. Price. Structural analysis of natural textures. IEEE Trans. on Pat. Anal. and Mach. Intel., 8(1):76–89, january 1986.

[5] H-B. Kim and R-H. Park. Extracting spatial arrangement of structural textures using projection information. Pattern Recognition, 25(3):237–245, 1992.

[6] V.V. Starovoitov, S.-Y. Jeong, and R.-H. Park. Investigation of texture periodicity extraction. In Visual Communications and Image Processing, pages 870–881, 1995.

[7] V.V. Starovoitov. Simplified technique of structure extraction from textural images. In 5th Int. Conf. Comput. Anal. of Images and Patterns, pages 259–266, september 1993.

[8] H.H.S. Ip and S.W.C. Lam. Three-dimensional structural texture modeling and segmentation. Pattern Recognition, 28(9):1299–1319, 1995.

[9] A. Gagalowicz. Vers un modèle de textures. PhD thesis, Université Pierre et Marie Curie Paris VI, mai 1983.

[10] Sg. Ferryanto. A kolmogorov-smirnov type statistic for detecting structural changes of textures. Pattern Recognition Letters, 16:247–256, march 1995.

[11] W.K. Pratt, O.D. Faugeras, and A. Gagalowicz. Applications of stochastic texture field models to image processing. IEEE Proceedings, Vol. 69, pages 542–550, may 1981.

[12] T.E. Radjab. Détection de défauts de surface par analyse de texture en temps réel. PhD thesis, INP de Grenoble, novembre 1985.

[13] L. Van Gool, P. Dewaele, and A. Oosterlinck. Texture analysis. Computer Vision, Graphics, and Image Processing, 29:336–357, 1985.

[14] J.S. Weszka, C.R. Dyer, and A. Rosenfeld. A comparative study of texture measures for terrain classification. IEEE Trans. on Sys., Man and Cyber., 6(4):269–285, april 1976.

[15] R.W. Conners and C.A. Harlow. A theoretical comparaison of texture algorithms. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2(3):323–341, may 1980.

[16] A. Pikaz and A. Averbuch. An efficient topological characterization of gray-levels textures, using a multiresolution representation. Graphical Models and Image Processing, 59(1):1–17, january 1997.

[17] M. Unser. Sum and difference histograms for texture classification. IEEE Transactions on Pattern Analysis and Machine Intelligence, 8(1):118–125, january 1986.

[18] Z. Wang, A. Guerriero, and M. De Sario. Comparison of several approaches for the segmentation of texture images. Pattern Recognition Letters, 17:509–521, may 1996.

[19] V. Atalay, E. Gelenbe, and N. Yalabik. Texture generation with the random neural network model. In Artificial Neural Networks, pages 111–116, june 1991.

[20] S.W. Zucker and D. Terzopoulos. Finding structure cooccurrence matrices for texture analysis. Computer Vision Graphics and Image Processing, 12:286–308, 1980.

[21] A. Baraldi and F. Parmiggiani. An investigation of the textural characteristics associated with gray level cooccurrence matrix statistical parameters. IEEE Transactions on Geoscience and Remote Sensing, 33(2):293–304, march 1995.

[22] R.M. Haralick, K. Shanmugan, and Dinstein. Textural features for image classification. IEEE Transactions on Systems, Man and Cybernetics, 3(6):610–621, november 1973.

[23] J. Parkkinen, K. Selk inaho, and E. Oja. Detecting texture periodicity from the cooccurrence matrix. Pattern Recognition Letters, Vol. 11, pages 43–50, 1990.

[24] C.C. Gotlieb and H.E. Kreyszig. Texture descriptors based on co-occurence matrices. Computer Vision, Graphics, and Image Processing, Vol. 1, pages 70–86, 1990.

[25] G. Lohmann. Analysis and synthesis of textures: a co-occurrence-based approach. Computers & Graphics, Vol. 19, Issue 1, pages 29-36, January-February 1995.

[26] I.M. Elfadel and R.W. Picard. Gibbs random fields, cooccurrences, and texture modeling. IEEE Trans. on Pat. Anal. and Mach. Intel., Vol. 16, Issue 1, pages 24–37, january 1994.

[27] L.S. Davis, S.A. Johns, and J.K. Aggarwal. Texture analysis using generalized cooccurrence matrices. IEEE Trans. on PAMI, 1(3):251–259, july 1979.

[28] Michael J. Swain and Dana H. Ballard. Color indexing. International Journal of Computer Vision, Vol. 2, pages 11-32, 1991.

[29] A. K. Jain and A. Vailaya. Image retrival using color and shape. Pattern Recognition Journal, Vol. 29, pages 1233-1244, August 1996.

[30] J.S. De Bonet, P. Viola, and J.W. Fisher. Flexible histograms: A multiresolution target discrimination model. SPIE Proceedings series , Vol. 3371, pages 519-530, 1998.

[31] Giridharan Iyengar and Andrew B. Lippman. Clustering images using relative entropy for efficient retrieval. In Workshop on Very Low bitrate Video Coding, University of Illinois- Urbana Champaign, October 1998.

[32] Nozha Boujemaa. On competitive unsupervised. 15th Ithernational Conference on Pattern Recognition, 1:631—634, 3-7 September 2000.

[33] Beito Li, Edward Chang, and Yi Wu. Discovery of a perceptual distance function for measuring image similarity. ACM Communications on Multimedia Systems, VIII:512—522, April 2003.

[34] Greg Pass and Ramin Zabih. Histogram refinement for contentbased image retrieval. IEEE Workshop on Application of Computer Vision, pages 96—102, December 1996.

[35] J. Huang, S. Ravi Kumer, M. Mitra, W-J Zhu, and R. Zabih. Image indexing using color correlograms. IEEE International Conference on Computer Vision and Pattern Recognition, pages 726— 768, June 1997.

[36] Nicholas R. Howe. Percentile blobs for image similarity. IEEE Workshop on Content- Based Access of Image and Video Librairies, pages 78—83, 21 June 1998.

[37] J. Huang, S.R. Kumar, M. Mitra, W-J. Zhu, et R. Zabih. Image indexing using color correlograms. In IEEE Conf. on Computer Vision and Pattern Recognition, pages 762–768, 1997.

[38] P.P. Ohanian and R.C. Dubes. Performance evaluation for four classes of textural features. Pattern Recognition, 25(8):819–833, 1992.

[39] C.G. Sun and W.G. Wee. Neighboring gray level dependence matrix for texture classification. Computer Vision, Graph. and Image Proc., 23(3):341–352, september 1983.

[40] S. Bothorel. Utilisation de la logique floue dans l’analyse d’image par arbre de décision. PhD thesis, Université de Paris VI, décembre 1996.

[41] S. Beucher. Extrema of grey-tone functions and mathematical morphology. Rapport du Centre de Géostatistique et de Morphologie Mathématique, january 1983.

[42] C.R. Dyer, T-H. Hong, and A. Rosenfeld. Textural classification using gray level cooccurrence based on edge maxima. IEEE Transactions on Systems, Man and Cybernetics, Vol. 10, issue 3, pages 158–163, march 1990.

[43] L.S. Davis and A. Mitiche. Edge detection in textures - maxima selection. Computer Graphics and Image Processing, Vol. 16, pages 158–165, 1981.

[44] I. Dinstein and A.C. Fong-Lochovsky. Computing local minima and maxima of digital images in pipeline image processing systems equipped with hardwxare comparators. In

Documents relatifs