• Aucun résultat trouvé

Développement d’un modèle d’analyse de texture multibande

N/A
N/A
Protected

Academic year: 2021

Partager "Développement d’un modèle d’analyse de texture multibande"

Copied!
191
0
0

Texte intégral

(1)

Département de géomatique appliquée Faculté des lettres et sciences humaines

Université de Sherbrooke

Développement d’un modèle d’analyse de texture multibande

Abdelmounaime Safia

Thèse présentée pour l’obtention du grade de Philosophiæ Doctor (Ph.D.) en télédétection avec cheminement en traitement des images numériques

Directeur de recherche : monsieur le professeur Dong-Chen He

Décembre 2014

(2)
(3)

Résumé

Safia, A. (2014) Développement d’un modèle d’analyse de texture multibande. Thèse présentée pour

l’obtention du grade de Philosophiæ doctor (Ph.D.) en télédétection au Département de géomatique appliquée et au Centre d’applications et de recherches en télédétection (CARTEL) de l’Université de Sherbrooke (Québec, Canada), 173 p.

En télédétection, la texture facilite l’identification des classes de surfaces sur des critères de similitude d’organisation spatiale des pixels. Les méthodes d’analyse texturale utilisées en télédétection et en traitement d’image en général sont principalement proposées pour extraire la texture dans une seule bande à la fois. Pour les images multispectrales, ceci revient à extraire la texture dans chaque bande spectrale séparément. Cette stratégie ignore la dépendance qui existe entre la texture des différentes bandes (texture inter-bande) qui peut être une source d’information additionnelle aux côtés de l’information texturale classique intra-bande. La prise en charge de la texture multibande (intra- et inter-bande) engendre une complexité calculatoire importante.

Dans sa recherche de solution pour l’analyse de la texture multibande, ce projet de thèse revient vers les aspects fondamentaux de l’analyse de la texture, afin de proposer un modèle de texture qui possède intrinsèquement une complexité calculatoire réduite, et cela indépendamment de l’aspect multibande de la texture. Une solution pour la texture multibande est ensuite greffée sur ce nouveau modèle, de manière à lui permettre d’hériter de sa complexité calculatoire réduite.

La première partie de ce projet de recherche introduit donc un nouveau modèle d’analyse de texture appelé modèle d’unité texturale compacte (en anglais : Compact Texture Unit, C-TU). Le C-TU prend comme point de départ le modèle de spectre de texture et propose une réduction significative de sa complexité. Cette réduction est atteinte en proposant une solution générale pour une codification de la texture avec la seule information d’occurrence, sans l’information structurelle.

En prenant avantage de la grande efficacité calculatoire du modèle de C-TU développé, un nouvel indice qui analyse la texture multibande comme un ensemble indissociable d’interactions spatiales intra- et inter-bandes est proposé. Cet indice, dit C-TU multibande, utilise la notion de voisinage multibande afin de comparer le pixel central avec ses voisins dans la même bande et avec ceux des autres bandes spectrales. Ceci permet à l’indice de C-TU multibande d’extraire la texture de plusieurs bandes simultanément. Finalement, une nouvelle base de données de textures couleurs multibandes est proposée, pour une validation des méthodes texturales multibandes.

Une série de tests visant principalement à évaluer la qualité discriminante des solutions proposées a été conduite. L’ensemble des résultats obtenus dont nous faisons rapport ici confirme que le modèle de C-TU proposé ainsi que sa version multibande sont des outils performants pour l’analyse de la texture en télédétection et en traitement d’images en général. Les tests ont également démontré que la nouvelle base de données de textures multibande possède toutes les caractéristiques nécessaires pour être utilisée en validation des méthodes de texture multibande.

Mots clés : unité texturale compacte, unité texturale compacte multibande, texture multibande, base de

données de texture multibande, album de Brodatz, classification texturale, invariance à la rotation, recherche d’images.

(4)

Abstract

Safia, A. (2014) New model for multiband texture analysis. Philosophiae Doctor (Ph.D.) thesis in

remote sensing. Department of Applied Geomatics. Centre of Applications and Researches in Remote Sensing. Sherbrooke University, Quebec, Canada, 173p.

In multispectral images, texture is typically extracted independently in each band using existing grayscale texture methods. However, reducing texture of multispectral images into a set of independent grayscale texture ignores inter-band spatial interactions which can be a valuable source of information. The main obstacle for characterizing texture as intra- and inter-band spatial interactions is that the required calculations are cumbersome.

In the first part of this PhD thesis, a new texture model named the Compact Texture Unit (C-TU) model was proposed. The C-TU model is a general solution for the texture spectrum model, in order to decrease its computational complexity. This simplification comes from the fact that the C-TU model characterizes texture using only statistical information, while the texture spectrum model uses both statistical and structural information. The proposed model was evaluated using a new monoband C-TU descriptor in the context of texture classification and image retrieval. Results showed that the monoband C-TU descriptor that uses the proposed C-TU model provides performances equivalent to those delivered by the texture spectrum model but with much more lower complexity.

The calculation efficiency of the proposed C-TU model is exploited in the second part of this thesis in order to propose a new descriptor for multiband texture characterization. This descriptor, named multiband C-TU, extracts texture as a set of intra- and inter-band spatial interactions simultaneously. The multiband C-TU descriptor is very simple to extract and computationally efficient. The proposed descriptor was compared with three strategies commonly adopted in remote sensing. The first is extracting texture using panchromatic data; the second is extracting texture separately from few new-bands obtained by principal components transform; and the third is extracting texture separately in each spectral band. These strategies were applied using cooccurrence matrix and monoband compact texture descriptors. For all experiments, the proposed descriptor provided the best results.

In the last part of this thesis, a new color texture images database is developed, named Multiband Brodatz Texture database. Images from this database have two important characteristics. First, their chromatic content, even if it is rich, does not have discriminative value, yet it contributes to form texture. Second, their textural content is characterized by high intra- and inter-band variation. These two characteristics make this database ideal for multiband texture analysis without the influence of color information.

Keywords: Compact Texture Unit, Multiband Compact Texture Unit, Multiband texture, Multiband

(5)

Table des matières

Résumé ... i 

Abstract ... ii 

Table des matières ... iii 

Liste des bases de données citées dans la thèse ... vii 

Liste des figures ... viii 

Liste des tableaux ... xi 

Liste des sigles ... xiii 

Liste des symboles ... xiv 

Avant-propos ... xv 

Remerciements ... xvi 

Chapitre 1 ... 1 

1.  Synthèse : contexte, problématique, méthodologie et résultats ... 1 

1.1  Introduction ... 1  1.1.1  Contexte général ... 1  1.1.2  Contexte particulier ... 3  1.1.3  Problématique ... 4  1.2 Objectifs ... 7 1.3 Hypothèses ... 7 1.4 Méthodologie développée ... 8

1.4.1  Notion d’unité texturale compacte ... 9 

1.4.2  Nouveau descripteur pour l’analyse de la texture multibande ... 14 

1.4.3  Nouvelle base de données pour la texture multibande ... 17 

1.5 Processus et données de validation ... 18

1.5.1  Pouvoir de discrimination textural du modèle de C-TU proposé ... 18 

1.5.2  Invariance à la rotation du modèle de C-TU en recherche d’images ... 19 

1.5.3  Invariance à la rotation du modèle de C-TU en classification d’images ... 20 

1.5.4  Validation de l’indice de C-TU multibande ... 21 

(6)

1.6 Résultats ... 29

1.6.1  Comparaison du C-TU avec le modèle original (1990) ... 29 

1.6.2  Évaluation de l’invariance à la rotation du C-TU en recherche d’images ... 30 

1.6.3  Évaluation de l’invariance à la rotation du C-TU en classification d’images ... 31 

1.6.4  Indice de C-TU multibande ... 32 

1.6.5  Base de données de texture multibande ... 38 

1.7 Conclusion ... 40

1.8 Originalité des résultats obtenus ... 42

1.9 Références ... 43

Chapitre 2 ... 47 

Résumé long du premier article et de sa portée scientifique ... 47 

2. Improving the texture spectrum model using a Compact Texture Unit descriptor ... 50

2.1 Introduction ... 51

2.2 Texture spectrum background ... 53

2.2.1  Defining the threshold values ... 54 

2.2.2  Labeling texture units ... 56 

2.2.3  Limitations of the M-tuple labeling system ... 57 

2.3 Proposed Compact Texture Unit ... 58

2.4 Experiments ... 63

2.4.1  Classification algorithm ... 64 

2.4.2  Experiment #1: texture classification ... 64 

2.4.3  Experiment #2: rotation invariant texture retrieval ... 70 

2.4.4  Experiment #3: rotation invariant texture classification ... 73 

2.5 Discussion and conclusion ... 79

2.6 Acknowledgments ... 81

2.7 References ... 82

Chapitre 3 ... 84 

Résumé long du deuxième article et de sa portée scientifique ... 84 

3. Multiband Compact Texture Unit descriptor for intra-band and inter-band texture analysis ... 87

(7)

3.2 Brief review of Compact Texture Unit ... 92

3.3 Multiband Compact Texture Unit descriptor ... 96

3.3.1  Foundation of the proposed multiband C-TU descriptor ... 96 

3.3.2  Multithresholding function for the multiband C-TU descriptor ... 97 

3.3.3  Higher order inter-band C-TU codification ... 101 

3.4 Study area and data ... 103

3.4.1  High spatial and spectral resolution imagery ... 103 

3.4.2  Test site description ... 104 

3.5  Experimental setup ... 109 

3.5.1  Validation process ... 109 

3.5.2  Texture extraction ... 110 

3.5.3  Supervised textural classification ... 111 

3.5.4  Accuracy assessment ... 112 

3.6  Results ... 113 

3.6.1  Extracting monoband texture from panchromatic versus multispectral images ... 113 

3.6.2  Extracting monoband texture from original multispectral versus 3-PCA bands ... 119 

3.6.3  Extracting multiband texture versus monoband texture ... 120 

3.6.4  Extracting multiband texture from 3-PCA bands ... 123 

3.7  Discussion ... 124 

3.8  Conclusion ... 127 

3.9  Acknowledgments ... 128 

3.10 References ... 129 

Chapitre 4 ... 133 

Résumé long du troisième article et de sa portée scientifique ... 133 

4. New Brodatz-based image databases for grayscale color and multiband texture analysis ... 136

4.1 Introduction ... 137

4.2 Normalized grayscale textures ... 139

4.3 Colored textures ... 142

4.3.1  Chromatic content analysis ... 142 

4.3.2  Textural content analysis ... 143 

(8)

4.4  Multiband texture ... 146 

4.4.1  Chromatic content analysis ... 146 

4.4.2  Textural content analysis ... 149 

4.5  Developing the Multiband Brodatz Texture database ... 151 

4.6  Experiments on MBT database ... 155 

4.6.1  Spectral classification ... 156 

4.6.2  Textural extraction and classification ... 157 

4.7  Conclusion ... 159 

4.8  Acknowledgments ... 160 

4.9  References ... 161 

Chapitre 5 ... 165 

5. Discussion et conclusion ... 165

5.1  Modèle d’unité texturale compacte proposé ... 167 

5.2  Indice de texture multibande proposé ... 168 

5.3  Base de données de texture multibande proposée ... 168 

5.4  Ensemble du travail accompli ... 169 

5.5  Limites ... 170 

5.6  Perspectives ... 170 

(9)

Liste des bases de données citées dans la thèse

Brodatz, P. (2014) Brodatz Texture Database. Centre for research and applications in remote sensing, Sherbrooke University, Quebec, Canada,

http://multibandtexture.recherche.usherbrooke.ca/original_brodatz.html

Dana, K. J., Van-Ginneken, B., Nayar, S. K. et Koenderink, J. J. (1999) Columbia-Utrecht Reflectance and Texture database (CUReT). Computer Vision Laboratory, Departement of Computer Science, Columbia University, New York, USA,

http://www1.cs.columbia.edu/CAVE/software/curet/index.php

Ojala, T., Maenpaa, T., Pietikainen, M., Viertola, J., Kyllonen, J. et Huovinen, S. (2007) Outex Texture database (Outex). Center for Machine Vision Research, Department of Computer Science and Engineering, University of Oulu, Finland,

http://www.outex.oulu.fi/

Pickard, R., Graszyk, C., Mann, S., Wachman, J., Pickard, L. et Campbell, L. (2002) Visual Texture database (VisTex). Massachusetts Institute of Technology Media Lab, Cambridge, Massachusetts, USA,

http://vismod.media.mit.edu/vismod/imagery/VisionTexture/vistex.html

Safia, A. et He, D. (2014a) Colored Brodatz Texture (CBT) Database. Centre for research and applications in remote sensing, Sherbrooke University, Québec, Canada,

http://multibandtexture.recherche.usherbrooke.ca/colored%20_brodatz.html

Safia, A. et He, D. (2014b) Multiband Brodatz Texture (MBT) Database. Centre for research and applications in remote sensing, Sherbrooke University, Québec, Canada,

http://multibandtexture.recherche.usherbrooke.ca/multi-band.html

Safia, A. et He, D. (2014c) Normalized Brodatz Texture (NBT) Database. Centre for research and applications in remote sensing, Sherbrooke University, Québec, Canada,

(10)

Liste des figures

Chapitre 1

Figure 1. 1 Modèle original du spectre de texture ... 9

Figure 1. 2 Différentes valeurs de la fonction ζ ... 11

Figure 1. 3 Modèle du spectre de texture compact proposé ... 12

Figure 1. 4 Exemple d’application du modèle de C-TU ... 13

Figure 1. 5 Schéma d’extraction de l’indice de C-TU multibande ... 15

Figure 1. 6 Mosaïque de douze textures de l’album de Brodatz ... 18

Figure 1. 7 Les seize textures utilisées dans le test Contrib_TC00001 ... 19

Figure 1. 8 Mosaïque de 72 images ... 20

Figure 1. 9 Mosaïque du site 1 utilisée pour la validation de l’indice de C-TU multibande ... 23

Figure 1. 10 Image de la composition colorée du site 2 ... 25

Figure 1. 11 Image de la composition colorée du site 3 ... 26

Figure 1. 12 Mosaïque de textures de la MBT proposée ... 28

Figure 1. 13 Résultats de la classification de la mosaïque de textures de Brodatz ... 30

Figure 1. 14 Résultats du test de l’invariance à la rotation ... 32

Figure 1. 15 Classifications du site 1 (six textures de la mosaïque) ... 34

Figure 1. 16 Classifications du site 2 ... 36

Figure 1. 17 Classifications du site 3 ... 37

Figure 1. 18 Contenu colorimétrique ... 38

Figure 1. 19 Contenu textural ... 39

Figure 1. 20 Exemple de textures de la base de la base de données MBT proposée ... 40

Chapitre 2 Figure 2. 1 Distribution of (vi - v0) for an entire image ... 55

Figure 2. 2 Calculation of the original ordered texture unit for different values of M ... 56

Figure 2. 3 Power-based codification ... 57

Figure 2. 4 C-TU codes for different spectral and spatial resolutions ... 59

Figure 2. 5 Calculation of the proposed C-TU ... 60

Figure 2. 6 Different C-TU ... 61

(11)

Figure 2. 8 Locations of the 12 Brodatz textures of experiment #1 ... 64

Figure 2. 9 Classification results for the mosaic in Figure 2.8 ... 70

Figure 2. 10 Location of the 72 images in the mosaic used in Experiment #3 ... 74

Figure 2. 11 Effect of increasing the spectral resolution (M) ... 76

Figure 2. 12 Comparison between the proposed C-TU descriptor and the LBPriu2 ... 76

Figure 2. 13 Classification of Figure 2.10 ... 78

Chapitre 3 Figure 3. 1 C-TU model ... 95

Figure 3. 2 Extraction scheme of the multiband C-TU descriptor ... 97

Figure 3. 3 Geographic location of the study area ... 105

Figure 3. 4 Images of site 1 (mosaic). See Table 3.3 for classes description. ... 106

Figure 3. 5 Images of site 2. See Table 3.4 for classes description. ... 107

Figure 3. 6 Images of site 3. See Table 3.5 for classes description. ... 108

Figure 3. 7 Classifications of site 1 ... 114

Figure 3. 8 Classifications of site 2 ... 115

Figure 3. 9 Classifications of site 3 ... 116

Chapitre 4 Figure 4. 1 Samples of Brodatz grayscale textures ... 140

Figure 4. 2 Histograms of the six texture images shown in Figure 4.1 ... 140

Figure 4. 3 Normalized textures in Figure 4.1 ... 141

Figure 4. 4 Histograms of the six textures shown in Figure 4.3 ... 141

Figure 4. 5 Examples of color texture images from the VisTex database ... 142

Figure 4. 6 RGB histograms of VisTex images in Figure 4.5 ... 143

Figure 4. 7 RGB channels of the Fabric.0001 texture image ... 144

Figure 4. 8 GLCM features per-row correlation coefficient profile (Fabric.0001) ... 145

Figure 4. 9 Texture samples from the CBT database ... 146

Figure 4. 10 Three multiband textures ... 147

Figure 4. 11 RGB histograms of the three texture images in Figure 4.10 ... 148

Figure 4. 12 Color content comparison between multiband and VisTex textures ... 149

(12)

Figure 4. 14 Texture image samples from the MBT database ... 152

Figure 4. 15 Color and texture content of some images from the MBT database ... 153

Figure 4. 16 Mosaic of eight textures from the MBT database ... 156

(13)

Liste des tableaux Chapitre 1

Tableau 1. 2 Gain du modèle proposé par rapport au modèle original ... 14

Tableau 1. 3 Codes additionnels pour la fonction ζ ... 16

Tableau 1. 4 Description des classes du site 1 (mosaïque) ... 27

Tableau 1. 5 Description des classes du site 2 ... 27

Tableau 1. 6 Description des classes du site 3 ... 27

Tableau 1. 7 Résultats de l’indice LBP avec le test Contrib_TC00001 ... 31

Chapitre 2 Table 2. 1 Number of C-TU for different values of N and M ... 60

Table 2. 2 Ratio of the total number of ordered texture units to the number of C-TU ... 62

Table 2. 3 Experiment #1 — Classification accuracy using the C-TU descriptor ... 66

Table 2. 4 Experiment #1 — Classification accuracy using texture spectrum and GLCM ... 68

Table 2. 5 Experiment #2 — Image retrieval accuracy Contrib_TC00001 using the C-TU ... 72

Table 2. 6 Experiment #3 — Classification rate using the C-TU ... 75

Table 2. 7 Experiment #3 — Classification rate using the LBPriu2 ... 78

Chapitre 3 Table 3. 1 Values of the thresholding function for the case of M=3 ... 100

Table 3. 2 Algorithm for retrieving values of the function ζ ... 101

Table 3. 3 Site 1 classes description (mosaic) ... 106

Table 3. 4 Site 2 classes description ... 107

Table 3. 5 Site 3 classes description ... 108

Table 3. 6 Number of textural bands used in each classification ... 110

Table 3. 7 Training data description ... 112

Table 3. 8 Classification rates of the eight classifications conducted in site 1 (mosaic) ... 117

Table 3. 9 Classification rates of the eight classifications conducted in site 2 ... 117

Table 3. 10 Classification rates of the eight classifications conducted in site 3 ... 117

(14)

Chapitre 4

Table 4. 1 RGB correlation coefficients of VisTex images in Figure 4.5 ... 143

Table 4. 2 Correlation coefficients of the textural content of images in Fabric.0001 ... 144

Table 4. 3 RGB correlation coefficients of images in Figure 4.10 ... 148

Table 4. 4 Correlation coefficients of the textural content of images in Figure 4.10 ... 150

(15)

Liste des sigles

Nous avons conservé les mêmes sigles tout au long de la thèse, peu importe la langue de rédaction du chapitre. Nous donnons ici, à titre indicatif, les noms en français.

CBT Colored Brodatz Texture database

dans le texte en français : base de données de texture colorée de Brodatz C-TU Compact Texture Unit

dans le texte en français : unité texturale compacte CUReT Columbia-Utrecht Reflectance and Texture database GLCM Gray Level Cooccurrence Matrix

dans le texte en français : matrice de cooccurrence des niveaux de gris HSI Hue, Saturation and Intensity transformation

dans le texte en français : transformation de teinte, saturation et intensité LBP Local Binary Pattern

dans le texte en français : patron local binaire LBPriu2 Rotation invariant and uniform local binary pattern

dans le texte en français : patron local binaire uniforme et invariant à la rotation MBT Multiband Brodatz Texture database

dans le texte en français : base de données de texture multibande de Brodatz MIT Massachusetts Institute of Technology

NBT Normalized Brodatz Texture database

dans le texte en français : base de données de texture normalisée de Brodatz NC-TU Compact Texture Unit Number

dans le texte en français : identifiant d’unité texturale compacte NMB C-TU Multiband Compact Texture Unit Number

dans le texte en français : identifiant d’unité texturale multibande compacte NTU Texture Unit Number (non ordered texture unit)

dans le texte en français : identifiant d’unité texturale (unité texturale non ordonnée) PCA Principal Components Analysis

dans le texte en français : analyse en composantes principales RGB Red, Green and Blue color system

dans le texte en français : système de couleur rouge, vert et bleu TS Texture Spectrum histogram

TSR Texture Spectrum for Reference data

TSS Texture Spectrum for unknown Sample

VHSR Very High Spatial Resolution

dans le texte en français : très haute résolution spatiale VisTex Visual Texture database

(16)

Liste des symboles

Δk kth subdivision of the set Ω

dans le texte en français : kième subdivision de l’ensemble Ω ζ Local multithresholding function

dans le texte en français : fonction de multiseuillage local η Set of natural numbers

dans le texte en français : ensemble des nombres naturels m

 Micrometer

dans le texte en français : micromètre

Ψ0,N Neighborhood of N pixels centered on pixel v0

dans le texte en français : voisinage de N pixels centré sur le pixel v0

Ω Definition domain of the local spectral variations in an image

dans le texte en français : domaine de définition des variations spectrales locales d’une image

Ek Code (ζ) of a given pixel whose difference with its associated central pixel belongs to Δk dans le texte en français : code (ζ) d’un pixel dont l’écart avec son pixel central appartient au sous-ensemble Δk

M Spectral resolution of texture analysis

dans le texte en français : résolution spectrale de l’analyse texturale N Spatial resolution of texture analysis

dans le texte en français : résolution spatiale de l’analyse texturale T Textural domain

dans le texte en français : domaine textural v0 Central pixel of neighborhood Ψ0,N

dans le texte en français : pixel central du voisinage Ψ0,N

vi Pixel at the position i in the neighborhood Ψ0,N

dans le texte en français : pixel à la position i dans le voisinage Ψ0,N W Wavelet coefficient

(17)

Avant-propos

La présente thèse suit le format d’une thèse par articles. Son premier chapitre est rédigé en français sous forme de synthèse de l’ensemble du travail accompli; il peut être lu indépendamment du reste de la thèse. Ainsi, ce chapitre contient l’ensemble des sections de la thèse, à savoir : la problématique, les objectifs et les hypothèses, le résumé de la méthodologie développée, le résumé des données de validation utilisées, le résumé des résultats et la section de discussion et de conclusion. Les trois chapitres qui suivent reproduisent chacun le corps d'un article dans son format original, en anglais. Chaque chapitre est précédé d'un résumé long, en français, du contenu de l’article auquel il se réfère, ainsi que de sa portée scientifique. Ces résumés permettent un passage souple entre les différents articles. Ils permettent également de lier le contenu de chaque article aux différents objectifs de cette thèse. Le cinquième et dernier chapitre transmet les conclusions et perspectives du présent travail de thèse.

Les références exactes des trois articles constitués en chapitres sont :

Safia, A. et He, D. (accepté pour publication) Multiband compact texture unit descriptor for intra-band and inter-band texture analysis. ISPRS Journal of Photogrammetry and Remote Sensing.

Safia, A. et He, D. (2013a) Improving the texture spectrum model using a compact texture unit descriptor. Journal of Communication and Computer, vol. 10, n° 2, p. 234-251.

Safia, A. et He, D. (2013) New Brodatz-based image databases for grayscale color and multiband texture analysis. ISRN Machine Vision, Article ID 876386, 1-14 p.

(18)

Remerciements

Je remercie mon directeur de recherche, monsieur le professeur Dong-Chen He, pour son soutien aussi bien scientifique que financier. Travailler sous sa direction est une belle aventure scientifique; avec lui j’ai appris à toujours repousser les limites. J’exprime ici mes remerciements aux membres du jury qui ont accepté d’examiner cette thèse. Je remercie monsieur Hui Zhong Lu, analyste en calcul scientifique à l'Université de Sherbrooke, au Réseau québécois de calcul de haute performance (RQCHP), pour son support technique lors de l’utilisation de Mammouth. Ma gratitude va vers monsieur Léo Provencher, du département de géomatique appliquée, pour son aide. Je remercie également madame Geneviève Pinard-Prévost, linguiste et enseignante à l'Université de Sherbrooke, pour la révision de la thèse. Enfin, mes remerciements au Conseil de recherches en sciences naturelles et en génie du Canada (CRSNG) pour son soutien financier.

(19)

Chapitre 1

1. Synthèse : contexte, problématique, méthodologie et résultats

Ce premier chapitre est un résumé long de la thèse. Il est rédigé de façon à donner au lecteur un aperçu global et précis de l’ensemble du travail accompli. D’abord, il explique l’intérêt scientifique derrière le regard nouveau que notre recherche pose sur l’analyse de la texture, dans le domaine de l’imagerie multibande en général, et dans celui des images de télédétection en particulier. Ensuite, il présente le modèle de texture développé dans le cadre de cette thèse, les tests exécutés ainsi que les principaux résultats obtenus. Le chapitre se termine avec les principales conclusions et contributions originales de ce travail de recherche.

1.1 Introduction

Il est utile de s’intéresser à la texture puisque, dépendamment du domaine d’étude, elle peut être considérée comme une source de bruit ou, au contraire, une précieuse source d’information. Dans le domaine de la vision par ordinateur, par exemple, où il est question d’identifier la forme des objets, la texture peut générer des contours supplémentaires qui peuvent compliquer la tâche de reconstruction da la forme des objets. Dans d’autres domaines, comme celui des sciences de la Terre notamment, la texture peut révéler une forme d’organisation spatiale de pixels qui peut être liée à l’existence d’un certain phénomène dans le territoire étudié. C’est sous ce deuxième angle, où la texture est valorisée en tant que source d’informations, que ce travail de thèse pose un regard sur les méthodes conventionnelles d’analyse de texture afin d’y proposer des améliorations.

1.1.1 Contexte général

L’extraction de l’information géographique à partir des images de télédétection fait communément appel à l’information spectrale, dite aussi signature spectrale, c'est-à-dire la valeur spectrale de chaque pixel prise individuellement dans les différentes bandes spectrales. Dans le cas où les classes d’intérêt

(20)

possèdent une forte similitude spectrale (risque de confusion spectrale), il est difficile d’opérer un processus d’extraction d’informations en se basant uniquement sur cette seule signature spectrale. Dans ce contexte de confusion, la texture est souvent sollicitée afin d’améliorer le pouvoir de discrimination du système d’extraction d’informations. L’un des avantages de l’utilisation de la texture est qu’elle n’est pas externe à l’image, mais plutôt révélée par les pixels formant les différentes régions de l’image. La texture est liée à l’organisation spatiale des pixels (Haralick et al., 1973). Elle a été utilisée dans diverses applications en télédétection, incluant la foresterie, aussi bien pour la cartographie des espèces (Franklin et al., 2001) que pour l’estimation des attributs biophysiques (Franklin et al., 2001) et en milieu urbain (Zhang and Li, 2009). L’information de texture est extraite de divers types de capteurs radars mono, double et quadra polarisation (Luckman et al., 1997; Luckman et al., 1997; Beaulieu and Touzi, 2004; Safia and Iftene, 2005; Sarker et al., 2013) et de capteurs optiques (Franklin et al., 2001; Cutler et al., 2012).

La disponibilité grandissante des images satellites de très haute résolution spatiale (en anglais : Very High Spatial Resolution, VHSR), depuis le lancement du premier satellite pour les applications civiles, en 1999, a ouvert la voie à diverses applications en télédétection. Ceci inclut la foresterie (Johansen et al., 2007; Wulder et al., 2008), l’agriculture (Mitrakis et al., 2008), le milieu côtier (Mishra et al., 2005) ainsi que le milieu urbain (Carleer and Wolff, 2006; Nichol and Wong, 2007). La conclusion générale qui se dégage lors de la revue de littérature de ces applications permet d’avancer que l’amélioration significative de la résolution spatiale de ces images n’a pas produit l’amélioration attendue en classification thématique. En fait, s’apparentant davantage à l’interprétation visuelle, ces images posent des difficultés méthodologiques lors de leur analyse automatique ou semi-automatique. Ces difficultés sont attribuables à la fine résolution spatiale qui induit une importante variabilité intra-classe. La similitude spectrale entre les différentes classes rend peu efficace l’utilisation de la seule signature spectrale (Herold et al., 2003). L’une des solutions de plus en plus appliquées est l'analyse

(21)

d’images orientée objet. La première phase de cette approche, proposée d’abord par Kettig and Landgrebe (1976), consiste à diviser l’image en un ensemble de segments homogènes appelés objets. La seconde phase consiste à calculer, pour ces objets, un ensemble d’attributs sur la base desquels les classes de ces objets sont déterminées. L’information de texture est l’un de ces attributs, en plus de ceux relatifs à l’information spectrale, géométrique et topologique. Des techniques d’agrégation d’objets peuvent aussi être appliquées aux objets issus de la première phase, dans la logique d’une structure multiéchelle (Baatz et Schäpe, 2000), afin d’améliorer la classification des objets.

1.1.2 Contexte particulier

Que ce soit pour les images à moyenne résolution ou à très haute résolution spatiale, ou encore pour les processus d’extraction d’informations par pixel ou par objet, l’information texturale a souvent été extraite sur une seule bande. Dès les premiers travaux, la texture a été reconnue comme étant une information monochrome (Haralick et al., 1973). En télédétection, les images panchromatiques, de meilleure résolution spatiale, ont souvent été préférées aux images multispectrales pour l’extraction de la texture (Brenning et al., 2012; Ursani et al., 2012). Il est aussi possible d’extraire la texture à partir d'images multispectrales à moyenne résolution. Néanmoins, l’utilisation de cette donnée reste limitée à cause de la faible résolution spatiale. La fine résolution spatiale des nouveaux capteurs a cependant encouragé l’extraction de la texture dans les images multispectrales (Franklin et al., 2000; Li et al., 2010). Typiquement, la texture dans les images multispectrales est extraite dans chaque bande séparément. Ceci revient à considérer la texture d’une image multibande comme étant un ensemble de textures monochromes. Cette façon de procéder a l’avantage de pouvoir extraire la texture en utilisant les méthodes développées pour les images monochromes. De plus, elle simplifie grandement la notion de texture dans le contexte des images multibandes, car elle exclut l’existence de toute forme d’interaction entre les différentes bandes pour la formation de la texture de l’image multibande.

(22)

La plupart des travaux qui traitent de l’analyse texturale en tenant compte de l’interaction entre les différentes bandes spectrales ont été conduits sur des images naturelles à trois bandes, à savoir la bande du rouge, du vert et du bleu (en anglais : Red, Green and Blue, RGB). Dans ce domaine d’imagerie naturelle, les techniques de changement d'espace de couleur servent souvent à la séparation du contenu chromatique de l’image de son contenu spatial monochrome. Cette séparation permet non seulement de profiter des connaissances et des techniques bien établies du domaine de la couleur, mais également de continuer à profiter de l’usage des techniques monochromes d’extraction de la texture (Ohta et al., 1980; Drimbarean and Whelan, 2001a; Chun et al., 2008). Avec cette décomposition, la texture monochrome, extraite de la composante spatiale de l’image couleur, peut être pondérée par les composantes chromatiques (Van de Wouwer et al., 1999). Elle peut aussi être extraite à partir du résultat d’un pur traitement spectral sous l’hypothèse que la texture des images couleur est le résultat de la répartition spatiale de la couleur. La matrice de cooccurrence des niveaux de gris (en anglais : Gray Level Cooccurrence Matrix, GLCM) a été utilisée, par exemple, pour extraire la texture sur la base de la cooccurrence de pixels ayant comme comptes numériques des classes de couleurs (Ohta et al., 1980) ou encore des mesures de cooccurrence hybrides couleur/radiométrie (Vadivel et al., 2007). Le point commun de ces méthodes d’analyse de texture dans le contexte d’images multibandes est la perception de la texture comme information spatiale monochrome (interactions spatiales intra-bande) telle qu'introduite durant les années soixante-dix par Haralick et al. (1973). Cette façon de voir la texture ignore l’existence d’une certaine interaction spatiale entre les différentes bandes qui peuvent contribuer à la formation de la texture multibande.

1.1.3 Problématique

L’information spatiale inter-bande peut être une précieuse source de discrimination entre les classes, particulièrement si les bandes spectrales sont faiblement corrélées entre elles (Rosenfeld et al., 1982), sauf que son extraction mène à des défis calculatoires importants. En effet, à la base, l’extraction de la

(23)

texture monochrome (la seule composante intra-bande) est déjà exigeante en termes de calcul, puisqu'elle implique des traitements qui s’effectuent localement sur chaque pixel de l’image en incluant les pixels qui forment son voisinage. Dans ce sens, la caractérisation complète de la texture des images multibandes par la prise en charge simultanée des interactions spatiales intra-bandes (texture monochrome) et inter-bandes engendre une importante complexité calculatoire. Cette complexité globale constitue l’une des limites majeures pour une adoption de la caractérisation de la texture avec ses deux composantes, intra- et inter-bande. Il est donc important de proposer des modèles d’analyse de texture qui soient intéressants du point de vue de la complexité calculatoire, et robustes quant à la pertinence de la description texturale. Cette exigence en matière de complexité calculatoire trouve encore plus de sens quand il est question de traiter des images de télédétection caractérisées par leur gros volume de données.

Les rares travaux sur la caractérisation de la texture des images multibandes en un ensemble d’interactions spatiales intra- et inter-bandes proposent des indices de texture qui codifient ces deux informations sur un maximum de deux bandes simultanément, en raison de cette complexité calculatoire. À titre d’exemple, la généralisation stricte de la méthode de la GLCM sur une image à m niveaux de gris et b bandes spectrales fait intervenir des matrices de cooccurrence de dimension 2b ayant m2b éléments. Si l’extraction des indices de la GLCM est restreinte à seulement deux bandes à la fois, cela revient à manipuler, localement autour de chaque pixel, des matrices de tailles 2564, ce qui est en pratique difficilement réalisable. Afin de réduire cette complexité, la GLCM a été remplacée par sa version simplifiée, connue sous le nom des histogrammes des sommes des différences (Rosenfeld et al., 1982). Cette version permet de manipuler des matrices de tailles 2562 pour des indices de texture intra- et inter-bandes extraits sur uniquement deux bandes. Même si, pour le cas de deux bandes, l’extraction de la texture multibande a été partiellement résolue, ceci constitue une sérieuse limite.

(24)

En traitement d’images en général et en analyse de texture en particulier, il est important de disposer d’une base de données bien documentée avec laquelle les performances des différentes méthodes d’analyse de texture peuvent être comparées. Des bases de données existent pour l’analyse de texture monochrome. La plus populaire est celle tirée de l’album de Brodatz constitué de 112 textures (Brodatz, 1966). Pour comparer les méthodes qui travaillent sur l’analyse de la texture dans les images naturelles à trois bandes et qui approchent la texture comme une interaction entre la couleur et la texture monochrome, il importe d’avoir des images dont les deux contenus texturaux, monochrome et chromatique, sont discriminants. Parmi les bases de données de cette catégorie, on peut citer la Visual Texture1 (VisTex) (Pickard et al., 2002) du Media Lab Massachusetts Institute of Technology (MIT) ou encore Outex2 de l’Université de Oulu en Finlande (Ojala et al., 2002a; Ojala et al., 2007). Il n’existe pas de base de données standard dédiée à la comparaison entre les méthodes d’analyse de texture multibande. Les exigences d’une telle base de données sont particulières en matière de contenu textural et chromatique. En effet, pour que la comparaison des performances des méthodes d’analyse de texture multibande soit faite uniquement sur la base de l’information texturale, ces images doivent avoir un contenu chromatique non informatif. C’est uniquement sous cette condition que toute bonne performance des méthodes d’analyse de texture peut être attribuée avec certitude à la qualité des indices de texture multibande utilisés. L’autre défi que recèle une telle base de données est lié à son contenu textural, en l’occurrence un contenu textural intra et inter-bande riche. Puisque les variations spectrales entre les différentes bandes engendrent naturellement de la couleur, il faut faire en sorte que cette variation soit uniquement le résultat d’une variation de texture entre les différentes bandes. Cela revient en d’autres termes à enlever la composante chromatique informative de premier ordre et à y

1 Disponible à l’adresse http://vismod.media.mit.edu/vismod/imagery/VisionTexture/vistex.html 2 Disponible à l’adresse http://www.outex.oulu.fi/

(25)

laisser uniquement celle qui contribue à la formation de la texture, plus précisément la composante inter-bande de la texture.

Les trois paragraphes qui forment cette problématique introduisent les trois insuffisances auxquelles ce projet de thèse tente d'apporter une contribution scientifique, à savoir : 1) la nécessité de disposer d’un modèle de texture dont la complexité soit attrayante; 2) l’intérêt de caractériser la texture multibande sur plusieurs bandes simultanément et; 3) la nécessité de disposer d’une base de données dédiée à l’analyse de texture multibande.

1.2 Objectifs

L’objectif principal de ce projet de thèse est de développer un modèle de texture multibande qui prenne en compte simultanément les interactions spatiales intra- et inter-bandes. Les objectifs spécifiques sont :

̵ Développer un modèle de texture en se basant sur celui de spectre de texture (He and Wang, 1990), proposé pour la texture monochrome, qui doit avoir une complexité calculatoire réduite garantissant son applicabilité dans le domaine de la texture multibande;

̵ Proposer un nouvel indice qui extrait la texture multibande à partir du modèle développé; ̵ Proposer une nouvelle base de données images pour une évaluation standardisée des méthodes

multibandes d’extraction de la texture.

1.3 Hypothèses

L’hypothèse principale de ce travail est que, pour les images satellitaires multispectrales de très haute résolution spatiale, la caractérisation de la texture par la prise en compte des interactions spatiales intra- et inter-bandes apporte plus d’informations que la caractérisation de la texture avec la seule information spatiale intra-bande. Les sous-hypothèses suivantes peuvent être avancées :

̵ Il est possible de réduire la complexité calculatoire du modèle de spectre de texture, tout en préservant sa performance en analyse de la texture;

(26)

̵ La caractérisation de la texture multibande, comme un ensemble d’interactions intra- et inter-bandes, est plus efficace que sa caractérisation avec la seule composante intra-bande dans l’image panchromatique ou dans les différentes bandes spectrales;

̵ Il est possible de générer des images couleur dont le pur contenu colorimétrique soit à la fois non-discriminant et partie indissociable de la texture de ces images.

1.4 Méthodologie développée

La caractérisation de la texture d’un pixel donné dans l’image passe par l’analyse de sa valeur ainsi que de celle des pixels formant son voisinage. Parmi les modèles d’analyse texturale proposés dans la littérature, le modèle de spectre de texture (He and Wang, 1990) est l’un des rares qui utilisent simultanément les valeurs de tous les pixels (N) du voisinage immédiat pour caractériser la texture. Cette particularité lui confère un maximum de résolution spatiale (égale à N) en analyse texturale. À titre de comparaison, la GLCM (Haralick et al., 1973) a une résolution spatiale de texture N = 2, puisque les pixels dans le voisinage sont analysés deux à deux (Haralick et al., 1973). Le spectre de texture a été utilisé dans plusieurs domaines incluant les sciences de la Terre (Wang and He, 1990a), l’industrie pour l’inspection des surface (Kiran et al., 1998) et l’aide au diagnostic médical (Sun et al., 1996).

Deux informations sont utilisées par le modèle de spectre de texture pour décrire la texture. La première information est de type structurel, codée grâce à des structures de base dites unités texturales. Elle est liée aux emplacements relatifs des pixels les uns par rapport aux autres dans le voisinage immédiat du pixel (He and Wang, 1990). La deuxième information est de type statistique, extraite à partir d’histogrammes locaux des unités texturales (He and Wang, 1990). Dans un plus récent travail, He and Wang (2010b) ont proposé une forme simplifiée du spectre de texture pour le cas particulier d’unités texturales extraites sur un voisinage de quatre pixels (N = 4). Cette forme simplifiée ignore l’information structurelle (positions relatives des pixels) et garde intacte l’information statistique. Les

(27)

auteurs rapportent dans leur étude que la forme simplifiée réduit la complexité calculatoire du modèle original, tout en préservant son pouvoir de discrimination texturale.

Dans le cadre de ce projet, nous proposons une solution générale de la forme simplifiée du modèle de spectre de texture. Par solution générale, nous entendons l’utilisation de différentes tailles de voisinage ainsi que de différents types de subdivision de la distribution de la variation spectrale locale des niveaux de gris dans l’image (Safia and He, 2013a). Cette solution est basée sur la notion de l’unité texturale compacte (en anglais : Compact Texture Unit, C-TU), présentée ci-après.

1.4.1 Notion d’unité texturale compacte

L’équation 1.1 et la figure 1.1 explicitent le principe ainsi que le système de codage du modèle original de spectre de texture (He and Wang, 1990), lequel attribue un identifiant unique pour chaque unité texturale (en anglais : Texture Unit Number, NTU).

    8 1 1 0) . 3 ( i i i TU v v N

(1.1)

ζ est la fonction de multiseuillage des variations spectrales locales des niveaux de gris dans l’image, donnée par la figure 1.1(b3); vi est la valeur du pixel à la position i dans le voisinage; NTU est

l’identifiant de l’unité texturale.

Figure 1. 1 Modèle original du spectre de texture (a) trois voisinages différents mais similaires (b) modèle original de codage

(28)

Deux handicaps peuvent être relevés dans ce modèle (Safia and He, 2013a) : 1) il est exigeant du point de vue des moyens de calcul (manipulation d’histogrammes de tailles M N); 2) la similitude potentielle entre deux configurations texturales n’est pas retrouvée dans leurs NTU. En effet, nous montrons dans

la figure 1.1(a) trois voisinages très similaires de taille 3x3. La seule différence entre les voisinages 1.1(a1) et 1.1(a2) est la permutation entre les valeurs du cinquième et du huitième pixel. L’ordre de numérotation des pixels est indiqué dans la figure 1.1(b1). Le même type de similarité peut également être relevé entre les voisinages a1 et a3. Dans ce cas, la permutation s’opère entre le premier et le septième pixel avec, en plus, l’apparition d’un pixel (huitième pixel) plus brillant que le pixel central. Dans la figure 1.1(c), les NTU résultants de ces trois voisinages sont très différents. La similarité

visuelle entre les trois voisinages n’est donc pas retrouvée dans leurs NTU, à savoir 2480, 374 et 6123

(figure 1.1(c)).

Lorsque l’information structurelle n’est pas prise en compte, seule l’occurrence des valeurs dans les unités texturales (figure 1.1(c)), données par la fonction ζ, est considérée. Ainsi, les deux premiers voisinages dans la figure 1.1(a) doivent se voir assigner le même NTU. De même, la différence entre le

troisième voisinage (figure 1.1(a3)) et les deux premiers ne doit être due qu’à l’apparition du pixel brillant. Pour atteindre cet objectif, un nouveau système de codification a été proposé dans Safia and He (2013a). Ce système de codage se base sur la fonction ζ. La formule de codification est présentée par l’équation 1.2.

 

N i i TU C

v

v

N

1

(

0

)

(1.2)

ζ est la fonction de multiseuillage des variations spectrales locales des niveaux de gris dans l’image; vi

est la valeur du pixel à la position i dans le voisinage; N est le nombre de pixels dans le voisinage; NC-TU est l’identifiant de l’unité texturale compacte (en anglais : Compact Texture Unit Number).

(29)

La figure 1.2 explicite les valeurs de la fonction ζ pour différentes configurations (M et N) de voisinage. Ces valeurs ont été obtenues par un algorithme proposé dans le cadre de cette thèse (chapitre 3, tableau 3.2), et implémenté sur le calculateur Mammouth de l’Université de Sherbrooke (Calcul Canada, 2014). La solution a nécessité un temps de calcul équivalant à l’utilisation de 109 196 processeurs pendant vingt-quatre heures.

Figure 1. 2 Différentes valeurs de la fonction ζ

Différentes valeurs de la fonction ζ pour différentes tailles de voisinages (N) et différentes subdivisions de la distribution de la variabilité spectrale locale des pixels dans l’image (M)

Δk intervalles subdivisant le domaine de variation spectrale locale des niveaux de gris

Dans ce nouveau système de codification (équation 1.2), toutes les unités texturales qui ne diffèrent entre elles que par les positions relatives de leurs valeurs (codes) sont compactées en une seule unité texturale, d’où le nom d’unité texturale compacte (C-TU). La solution proposée est regroupée sous le nom générique de modèle d’unité texturale compacte (en anglais : Compact Texture Unit model, C-TU model).

(30)

La figure 1.3 montre comment les trois voisinages précédents sont codifiés par le modèle de C-TU proposé. Dans ce système, les deux premiers voisinages, ayant la même information d’occurrence, se sont vu attribuer le même identifiant (NC-TU = 30). Cependant, le nouveau système de codification a

attribué un identifiant différent au troisième voisinage (NC-TU = 38) puisque son information

d’occurrence est différente des deux premiers voisinages. Nous pouvons noter également que la différence entre les NC-TU des deux premiers voisinages par rapport à celui du troisième est

relativement petite (30 et 38). Ceci démontre que, pour le modèle de C-TU proposé, la similitude visuelle entre les voisinages (configuration locale de la texture) est traduite dans les NC-TU.

Figure 1. 3 Modèle du spectre de texture compact proposé (a1) et (a2) trois voisinages

(b) modèle de C-TU proposé pour le cas de M = 3 et N = 8 (c) trois C-TU correspondant aux trois voisinages

La figure 1.4 illustre l'application du modèle de C-TU proposé pour différents types de subdivisions M de la distribution de la variabilité spectrale locale des niveaux de gris (Safia and He, 2013a).

Comparativement au modèle original, le modèle de C-TU a l’avantage d’être grandement simplifié, puisqu’il manipule des histogrammes d’une taille de (M+N-1)! / (N!×(M-1)!), alors que le modèle original utilise des histogrammes de tailles M N.

(31)

Figure 1. 4 Exemple d’application du modèle de C-TU

Application pour un voisinage de N = 8 pixels avec trois types de subdivisions (Δ) de la distribution de la variabilité spectrale dans l’image. Les valeurs de la fonction ζ sont prises de la figure 1.2.

(a) deux intervalles (M = 2) (b) trois intervalles (M = 3) (c) cinq intervalles (M = 5)

Les tableaux 1.1 et 1.2 donnent, pour quelques configurations de M et N, la taille des histogrammes du modèle de C-TU et la réduction en termes de taille d’histogramme, par rapport au modèle original. Cette simplification place le modèle proposé en bonne position de candidature pour l’analyse de la texture multibande qui est, comme indiqué plus haut, très exigeante en termes de calcul. L’autre avantage du modèle de C-TU est qu’il est invariant à la rotation de la texture (Safia and He, 2013a). Ceci revient à pouvoir identifier les textures sous différents angles de rotation. Cette particularité peut être intéressante dans certaines applications telles que l’observation de la Terre (où les classes naturelles sont souvent disposées de façon aléatoire) ou la recherche d’images par le contenu sur internet ou dans une base de données locale.

(32)

Tableau 1. 1 Taille des histogrammes des C-TU Résolution spectrale (M) N 2 3 5 7 9 4 5 15 70 210 495 6 7 28 210 924 3003 8 9 45 495 3003 12870 12 13 91 1820 18564 16 17 153 4845 74613 24 25 325 20475

Les tailles sont données pour différentes résolutions spatiales (N) et spectrales (M).

Tableau 1. 2 Gain du modèle proposé par rapport au modèle original Résolution spectrale (M) N 2 3 5 7 9 4 3 5 9 11 13 6 9 26 74 127 177 8 28 146 789 1920 3345 12 315 5840 1.E+05 7.E+05 16 3855 281351 3.E+07 4.E+08

24 7.E+05 9.E+08 3.E+12

Le gain est donné sous forme de rapport entre les tailles des histogrammes du modèle original et du C-TU pour différentes résolutions spatiales (N) et spectrales (M).

1.4.2 Nouveau descripteur pour l’analyse de la texture multibande

Basé sur le modèle de C-TU, un nouveau descripteur de la texture multibande, nommé le C-TU multibande, a été proposé (Safia and He, 2014). Ce descripteur analyse la texture d’un pixel dans une image multispectrale, en intégrant simultanément les interactions intra- et inter-bandes (Safia and He, 2014). Le fondement théorique de ce nouvel indice est le suivant : la comparaison du pixel central dans une bande spectrale donnée avec ses voisins dans la même bande (comme dans le modèle original) informe sur la texture intra-bande, et la comparaison de ce même pixel avec les pixels de chacune des autres bandes informe sur la variation texturale inter-bande. Ce principe d’extraction est illustré par la figure 1.5 (Safia and He, 2014), pour une image à trois bandes spectrales et un voisinage de 8 pixels (Wang, 1994). L’indice de C-TU multibande génère un nombre de bandes texturales égal à celui des

(33)

bandes spectrales en entrée. Dans la figure 1.5, c’est l’indice de texture multibande tel que perçu par la bande 1 (bande du pixel central du voisinage multispectral) qui est calculé.

Figure 1. 5 Schéma d’extraction de l’indice de C-TU multibande

La solution proposée par Safia and He (2013a) pour le modèle de C-TU permet l’utilisation d’un voisinage dont la taille maximale est égale à N = 24 pixels, comme indiqué par la figure 1.2. Pour l’indice de C-TU multibande, ceci revient à extraire la texture multibande dans un maximum de six bandes spectrales simultanément, dans le cas où un voisinage de quatre pixels dans chaque bande est utilisé (4 pixels × 6 bandes). Il est également possible d’extraire la texture multibande sur trois bandes en utilisant un voisinage de huit pixels (8 pixels × 3 bandes). Afin de pouvoir utiliser davantage de bandes, des codes additionnels ont été proposés (Safia and He, 2014). Ces codes explorent le cas particulier de M = 3 (tableau 1.3) qui représente la subdivision standard de la distribution de la variabilité spectrale locale des niveaux de gris dans l’image (He and Wang, 1990; Safia and He, 2013a).

(34)

Tableau 1. 3 Codes additionnels pour la fonction ζ

N Codes Nb C-TU N Codes Nb C-TU

4 1 2 6 15 56 1 2 58 1653 8 1 2 10 45 60 1 2 62 1891 12 1 2 14 91 64 1 2 66 2154 16 1 2 18 153 68 1 2 70 2415 20 1 2 22 231 72 1 2 74 2701 24 1 2 26 325 76 1 2 78 3003 28 1 2 30 435 80 1 2 82 3321 32 1 2 34 561 84 1 2 86 3655 36 1 2 38 703 88 1 2 90 4005 40 1 2 42 861 92 1 2 94 4371 44 1 2 46 1035 96 1 2 98 4753 48 1 2 50 1225 100 1 2 102 5151 52 1 2 54 1431 104 1 2 106 5565

Les codes, générés par un algorithme3, sont donnés pour différentes résolutions spatiales (N) pour

le cas d’une résolution spectrale M = 3.

L’avantage de l’indice de C-TU multibande proposé réside dans sa capacité à extraire la texture inter-bande entre un important nombre de inter-bandes simultanément. Ceci a été rendu possible grâce à l’importante simplification du modèle de C-TU (Safia and He, 2014). À titre d’exemple, la codification sur un voisinage de quatre pixels de la texture multibande, dans une image de vingt-six bandes, génère un voisinage multispectral de N = 4 × 26 = 106 pixels (avec M = 3). La complexité relative à l’extraction de la texture multibande (formée d’une interaction intra-bande et de 25 interactions inter-bandes), sur ce voisinage de 106 pixels, est inférieure à la complexité relative à l’extraction de la seule texture intra-bande en utilisant le modèle original de He and Wang (1990) calculé avec M = 3 et N = 8. En effet, le cas de la texture multibande génère des histogrammes de taille 5565, alors que le modèle original génère des histogrammes de taille 6561.

L’autre avantage de l’indice de C-TU multibande est qu’il génère le même nombre de bandes texturales que celui des bandes spectrales utilisées. Les rares méthodes qui abordent l’extraction de la texture sur plus d’une bande spectrale travaillent sur un maximum de deux bandes à la fois (Rosenfeld

(35)

et al., 1982; Panjwani and Healey, 1995; Shi and Healey, 2003). Ceci revient à générer, pour une image à p bandes, p!/(2×(p-2)!) bandes de textures multispectrales inter-bandes (338 bandes de textures pour l’exemple précédent de l’image à 26 bandes spectrales). Cet avantage trouve tout son sens en regard de l'important volume d'images de télédétection ou encore des applications en temps réel. Au moment d'écrire ces lignes, aucun autre indice n'a su atteindre la performance calculatoire de l’indice de C-TU multibande proposé. Un algorithme proposé dans Safia and He (2014), disponible en ligne, a été proposé pour générer des codes pour la fonction ζ pour extraire la texture dans un nombre de bandes encore plus grand (plus de 26 bandes). Ceci ouvre la voie pour la première fois à l’extraction de la texture multibande dans les images hyperspectrales.

1.4.3 Nouvelle base de données pour la texture multibande

Afin de rendre non informatif le contenu colorimétrique d’une image, il faut rendre non informatif le contenu spectral de chacune de ses trois bandes. Cela revient à rendre très similaire l’histogramme des bandes de cette image couleur (Safia and He, 2013b). Dans ce sens, deux images couleurs dont les histogrammes des six bandes spectrales sont identiques ne peuvent être séparées avec la pure information colorimétrique. Si, en plus, le contenu textural des bandes spectrales de ces images exhibe une différence importante, il en résultera des images candidates pour la base de données de validation des méthodes d’analyse de texture multibande. Pour développer cette base de données, les images de l’album de Brodatz (1966) ont été prises comme point de départ pour la richesse de leur contenu textural. Les histogrammes de ces images ont été modifiés pour les rendre similaires. Ces images ont ensuite été réunies trois à trois afin de former les trois bandes spectrales des nouvelles images couleurs de la base de données de texture multibande. Cette nouvelle base de données est appelée base de données de texture multibande de Brodatz (en anglais : MultiBand Texture database, MBT) (Safia and He, 2013b).

(36)

1.5 Processus et données de validation

L’ensemble des validations conduites ici visent à tester, dans des conditions défiantes, le pouvoir discriminant des indices de textures développés. Pour cela, un processus de classification simple a été retenu, où toute performance enregistrée est principalement liée à la pertinence des indices développés. L’algorithme du minimum de distance euclidienne a été adopté dans un processus de classification dirigée.

1.5.1 Pouvoir de discrimination textural du modèle de C-TU proposé

La première validation a porté sur le noyau central du modèle de C-TU, à savoir la qualité de la caractérisation de la texture à partir de la seule information d’occurrence. Elle a été faite sur la base du test introduit dans He and Wang (2010b) afin de garder le lien avec les travaux antérieurs, mais en utilisant une mosaïque de douze textures (au lieu de six) de l’album de Brodatz (1966) (figure 1.6).

Figure 1. 6 Mosaïque de douze textures de l’album de Brodatz

Cette mosaïque est utilisée dans la comparaison du modèle de C-TU avec le modèle original de spectre de texture et la GLCM.

(37)

Le défi de cette validation consistait à identifier ces textures en utilisant l’information texturale du C-TU. Le résultat obtenu à l’aide du modèle proposé a été comparé à celui du modèle original de spectre de texture ainsi qu'à celui de la GLCM (Safia and He, 2013a).

1.5.2 Invariance à la rotation du modèle de C-TU en recherche d’images

La deuxième validation a porté sur l’invariance à la rotation du modèle de C-TU, lorsqu’il est utilisé avec un voisinage symétrique de type circulaire (Arof and Deravi, 1998). Le test est relatif à la recherche d’images par le contenu textural. Les données utilisées sont celles du test Contrib_TC00001, qui est un test standard (Ojala et al., 2002b). Ce test consiste à classifier 1120 images de textures ayant subi des rotations avec 10 angles différents. La performance du modèle proposé, en recherche d’images, a été comparée à celle de l’indice du patron local binaire (en anglais : Local Binary Pattern, LBP), également adopté dans la littérature (Ojala et al., 2002b). Seize différentes images de l’album de Brodatz sont utilisées pour ce test (figure 1.7).

Figure 1. 7 Les seize textures utilisées dans le test Contrib_TC00001

Le test est relatif à l’invariance de l’indice de C-TU à la rotation dans le contexte de recherche d’images par le contenu textural.

(38)

1.5.3 Invariance à la rotation du modèle de C-TU en classification d’images

La troisième validation a porté sur l’invariance à la rotation, dans le cas où les textures à identifier se trouvent dans la même image. Cette problématique est fréquente en télédétection, où la disposition des différentes classes thématiques est aléatoire. Dans ce domaine, l’invariance à la rotation présente deux difficultés additionnelles comparativement à la recherche d’images : 1) la séparation des multiples textures composant les régions frontalières; 2) la stabilité de l’indice de texture calculé localement (alors qu’en recherche d’image il est calculé globalement, avec une seule mesure de texture pour toute l’image). Six différentes rotations ont été appliquées sur les douze textures de la première validation (figure 1.6). Les 72 textures résultantes (12 × 6) ont été ensuite réunies en une grande mosaïque (figure 1.8). Le test consiste à vérifier si l’indice de C-TU saura identifier les douze classes de textures auxquelles appartiennent les 72 images.

Figure 1. 8 Mosaïque de 72 images

Cette mosaïque est utilisée dans la validation de l’invariance à la rotation du C-TU. Ces images sont issues des douze textures de bases (figure 1.6) ayant subi six rotations différentes. Il s’agit de rotations avec les angles de 0°, 15°, 30°, 45°, 60° et 75°.

(39)

1.5.4 Validation de l’indice de C-TU multibande

La quatrième validation a porté sur l’avantage d’extraire la texture comme étant une information spatiale multibande, comparée à la stratégie classique de texture monobande. Les données choisies sont celles du capteur WorldView-2, à huit bandes spectrales, pansharpenées à 0,5 m de résolution spatiale, ainsi que la composante panchromatique de cette image. Ce choix est motivé par deux facteurs : 1) la très haute résolution spatiale rehausse le contenu textural de l’image (Chen et al., 2004); 2) WorldView-2 offre l’un des contenus spectraux les plus riches dans la catégorie des satellites de très haute résolution spatiale, avec huit bandes spectrales. Ces deux caractéristiques peuvent contribuer à un contenu spectral et textural riche et faiblement corrélé (Safia and He, 2013b), ce qui augmente les chances d’avoir une importante composante texturale inter-bande. Trois sites ont été sélectionnés pour la validation de l’indice de C-TU multibande. Le premier correspond à une mosaïque de sites, alors que les deux autres sont des espaces naturels continus. Les trois sites sont présentés dans le chapitre 3 (figures 3.3 à 3.6). La vérité terrain de ces sites, principalement forestiers, est dérivée du paramètre de groupement d’essences de stratification écoforestière issue de l’inventaire écoforestier (Ministère des Ressources naturelles, 2013).

Le choix de travailler sur une mosaïque offre l’avantage de conduire une validation de la performance de l’indice dans son aspect quantitatif, puisque les classes des différentes textures sont parfaitement contrôlées. En plus de la validation d’ordre quantitatif, les deux sites relatifs aux espaces naturels continus permettent quant à eux une validation de la performance de l’indice de C-TU multibande dans son aspect qualitatif, lequel est lié à la concordance entre les limites des différentes classes telles que représentées sur les cartes forestières. Ainsi, l’utilisation de deux types de données (mosaïque de sites et espace naturel continu) pour l’évaluation de l’indice de texture multibande proposé, tant dans ses aspects qualitatifs que quantitatifs, peut contribuer à une connaissance assez large de ses performances.

(40)

A- Données sous forme de mosaïque (site 1)

Le choix de travailler sur une mosaïque d’images formées par des classes pures a été retenu. Pour cela, six localisations (figure 1.9) ont été identifiées sur la scène WorldView-2, représentant six différentes classes. Une image de 300 × 300 pixels a ensuite été extraite dans chacune des localisations. Le choix des localisations de chacune de ces images a été assisté par un photointerprète ayant une bonne connaissance de la région d’étude, en plus de l’utilisation des différentes cartes thématiques disponibles. Les classes thématiques de ces six textures ainsi que les codes des classes forestières sont issus de la Norme de stratification écoforestière (Ministère des Ressources naturelles, 2013); ils sont présentés dans le tableau 1.4.

L’image du site 1 ainsi formée a été classifiée en utilisant l’indice de texture C-TU multibande exposé dans la section 1.4.2. L’indice proposé a été comparé à trois méthodes communément utilisées pour l’extraction de la texture dans les images multispectrales (Safia and He, 2014). La première est celle de l’extraction de la texture en utilisant uniquement la bande panchromatique, sous l’hypothèse que la texture est principalement une information monochrome. La deuxième consiste à extraire la texture monobande dans des néo-canaux dérivés à partir des bandes originales en utilisant une analyse en composantes principales (en anglais : Principle Components Analysis, PCA). L’hypothèse sous-jacente prévoit qu’il est possible de concentrer l’ensemble de la variation spectrale, contenue initialement dans les huit bandes, dans un nombre réduit de bandes. Enfin, la troisième méthode à laquelle l’indice de texture multibande proposé a été comparé est l’extraction de la texture monobande dans chacune des huit bandes originales, indépendamment les unes des autres. Ceci est conduit sous l’hypothèse que chaque bande spectrale contribue indépendamment des autres bandes à la formation de la texture multibande de l’image.

(41)

Figure 1. 9 Mosaïque du site 1 utilisée pour la validation de l’indice de C-TU multibande

Les bandes WorldView-2 utilisées pour générer la composition colorée sont la bande 4 pour le canal rouge, la bande 3 pour le canal vert et la bande 2 pour le canal bleu.

(42)

B- Données d’espace naturel continu (sites 2 et 3)

La validation conduite avec le deuxième type de données se voulait différente de la précédente dans la mesure où elle a été conduite sur un espace naturel continu (et non une mosaïque) avec toute la complexité qui peut le caractériser. Les sites choisis sont pésentés par les figures 1.10 et 1.11; nous y référerons dans le texte comme étant les sites 2 et 3. Pour chacun de ces deux sites, trois types d’images ont été utilisés, comme cela a été le cas pour le site 1, à savoir : une image panchromatique, une image issue des trois premières composantes principales (3-PCA) et finalement l’image multispectrale à huit bandes. Le processus de validation a été conduit exactement comme décrit ci-haut pour le site 1. Le but était toujours de vérifier, dans un contexte plus naturel, l’avantage de l’extraction de la texture multibande par rapport à son extraction comme une information spatiale monobande. Les cartes de vérité terrain des sites de validation 2 et 3 (sous-figures 1.16(i) et 1.17(i)) ont été produites sur la base des fichiers vecteurs issus des données écoforestières (Ministère des Ressources naturelles, 2013). La description de chacune des classes contenues dans les deux sites est donnée par les tableaux 1.5 et 1.6.

Le processus de classification et de validation conduit dans les trois sites est décrit dans le troisième chapitre (section 3.5). Les matrices de confusion ont été produites sur la base de l’ensemble des pixels contenus dans les images des trois sites.

(43)

Figure 1. 10 Image de la composition colorée du site 2

Les bandes WorldView-2 utilisées pour générer la composition colorée sont la bande 4 pour le canal rouge, la bande 3 pour le canal vert et la bande 2 pour le canal bleu. Les limites (en blanc) correspondent au fichier vecteur issu de la carte de vérité terrain. La description des classes est donnée dans le tableau 1.5.

(44)

Figure 1. 11 Image de la composition colorée du site 3

Les bandes WorldView-2 utilisées pour générer la composition colorée sont la bande 4 pour le canal rouge, la bande 3 pour le canal vert et la bande 2 pour le canal bleu. Les limites (en blanc) correspondent au fichier vecteur issu de la carte de vérité terrain. La description des classes est donnée dans le tableau 1.6.

Références

Documents relatifs

We now provide some simulations conducted on arbi- trary functions of the class of functions with bounded derivative (the class F ): Fig. 16 shows 4 arbitrary se- lected

We make a number of cross-linguistic comparisons in which we investigate the syntactic behavior of verbs in German, Bangla, and Korean which correspond to the English

In the rst stage the basis function parameters are de- termined using the input data alone, which corresponds to a density estimation problem using a mixture model in

The F-B algorithm relies on a factorization of the joint probability function to obtain locally recursive methods One of the key points in this paper is that the

Three criteria were used to measure the performance of the learning algorithm: experts' parameters deviation from the true values, square root of prediction MSE and

Although the applications in this paper were restricted to networks with Gaussian units, the Probability Matching algorithm can be applied to any reinforcement learning task

This paper describes a new method for lens distortion calibration using only point correspondences in multiple views, without the need to know either the 3D location of the

The other algorithms mentioned in the table are the mixture of factorial distributions (MF), the completely factorized model (which assumes that every variable is independent of