• Aucun résultat trouvé

Extraction de caractéristiques de texture pour la classification d'images satellites

N/A
N/A
Protected

Academic year: 2021

Partager "Extraction de caractéristiques de texture pour la classification d'images satellites"

Copied!
97
0
0

Texte intégral

(1)

THÈSE

En vue de l’obtention du

DOCTORAT DE L

UNIVERSITÉ DE TOULOUSE

Délivré par l’Université Toulouse III – Paul Sabatier Discipline ou spécialité : Informatique et Télécommunications

Présentée et soutenue par Hanifi Majdoulayne Le 02 / 11 / 2009

Extraction de caractéristiques de texture pour la classification d’images

satellites

JURY

Président :

Driss ABOUTAJDINE – PES - Faculté des Sciences de Rabat Examinateurs :

Florence SEDES - PES – IRIT de Toulouse Noureddine MOUADDIB – PES – INRIA de Nantes Abderrahim ELMOATAZ – PES - Université de Caen

Ahmed HAMMOUCH – PES – ENSET de Rabat Abdelali LASFAR – PA – FST de Salé Maroc

Ecole doctorale : Mathématiques, Informatique et Télécommunications de Toulouse Unité de recherche : IRIT

(2)

Avant propos

Les travaux présentés dans ce mémoire ont été effectués au Laboratoire de Recherche en Informatique et Télécommunications (LRIT), à la Faculté des Sciences de Rabat (FSR) en collaboration avec l’Institut de recherche en Informatique de Toulouse (IRIT), à l’Université Paul Sabatier de Toulouse dans le cadre d’une thèse en cotutelle internationale.

Je tiens à remercier M. Driss Aboutajdine, Professeur à la FSR et directeur du LRIT. Sans l’environnement de recherche qu’il a su créer, je n’aurais pas pu me lancer dans la préparation de cette thèse. J’exprime ici ma profonde gratitude à son égard et l’estime respectueuse que je lui porte. Merci aussi à mon encadrant de thèse, Mr. Abdelali Lasfar, Professeur assistant à la FST. Grâce à lui, j’ai pu entreprendre une thèse dans mon domaine favori : Traitement d’images. Je tiens à le remercier pour ces années de soutien, pour ses précieux conseils, et pour sa manière très simple de toujours trouver les mots d’encouragement qui ne manquaient pas de raviver ma motivation.

Je tiens également à remercier ma directrice de thèse au sein de l’IRIT, Mme. Florence Sedes, Professeur à l'Université Paul Sabatier à Toulouse. Qu’elle trouve d’abord mes remerciements pour la confiance qu’elle m’a toujours témoignée. L’intérêt constant qu’elle a pris pour ce travail, m’a permis de ne pas m’égarer dans des problèmes flous et de ne jamais perdre de vue l’essentiel, en donnant de son temps et en acceptant de partager ses expériences.

Je tiens aussi à remercier les membres du jury :

• M. Driss Aboutajdine, Professeur à la Faculté des Sciences de Rabat, qui m’a fait l’honneur de présider ce jury.

• Mme. Florence Sedes, Professeur à l'Université Paul Sabatier à Toulouse, qui m’a fait l’honneur de co-diriger ma thèse.

• M. Abdelali Lasfar, Professeur Assistant à la Faculté des Sciences Techniques de Salé, qui m’a fait l’honneur de co-diriger ma thèse.

• M. Ahmed Hammouch, Professeur à lEcole Normale Supérieure de l’Enseignement Technique de Rabat, de m’avoir fait l’honneur de rapporter ma thèse.

• M. Abderrahim Elmoataz, Professeur à l’Université de Caen, de m’avoir fait l’honneur de rapporter ma thèse.

(3)

• M. Noureddine Mouaddib, Professeur à l'Institut National de Recherche en Informatique et en Automatique, d’avoir accepté d’être examinateur de ma thèse.

Au cours de la préparation de ma thèse, j'ai bénéficié d'une bourse d'excellence octroyée par le Centre National de la Recherche Scientifique et Technique (CNRST), et ce dans le cadre du programme des bourses de recherche initié par le ministère de l'Éducation Nationale, de l'Enseignement Supérieur, de la Formation des Cadres et de la Recherche Scientifique.

Par ailleurs, c’est avec beaucoup d’émotions que je remercie ma maman, mon mari et mes frères et sœurs pour leurs nombreux sacrifices ainsi que pour le soutien et la confiance qu’ils m’ont toujours accordés. Il m’est difficile de traduire par les mots l’affection et la gratitude que je leur réserve. Aussi, est-ce à eux que je dédie ces heurs de travail, de joies et de souffrances qu’ils ont partagés. J’espère qu’ils se réjouissent de la réussite qui couronne mes efforts.

Enfin, je désire remercier tout particulièrement des amis, grâce auxquels j’ai pu puiser toute la force dont j’avais besoin pour arriver au terme de ce travail. Dans les conseils desquels j’ai pu rechercher à chaque fois que le besoin s’en faisait ressentir, le courage de ne pas abandonner et la foi dans l’ouvrage entrepris.

(4)

Table des Matières

I. Introduction ... 9

II. Chapitre 1 : Télédétection et caractérisation de texture ... 13

1.1 Introduction ... 13 1.2 Caractérisation de texture... 14 1.2.1 La texture... 15 1.2.2 Textures structurelles ... 16 1.2.3 Textures aléatoires... 17 1.2.4 Textures directionnelles ... 18

1.3 Les matrices de cooccurrence ... 19

1.4 Le corrélogramme ... 23

1.4.1 Définition 1 : ... 24

1.4.2 Définition 2 : ... 24

1.5 Conclusion... 26

III. Chapitre 2 : Prétraitement et codage de texture ... 28

2.1 Introduction ... 28

2.2 Système de classification ... 30

2.3 Texture ... 31

2.4 Codage de niveau de gris ... 34

2.4.1 L’extremum voisin ... 36

2.4.2 Codage de pixel voisin : ... 37

2.5 Procédure des deux codages... 44

2.6 Conclusion... 48

IV. Chapitre 3 : Classification ... 49

3.1 Introduction ... 49

3.2. Théorie de l’apprentissage ... 50

3.2.1. Introduction ... 50

3.2.2. Apprentissage supervisé ... 51

3.3 Les Machines à Vecteurs Supports (SVM) ... 52

3.3.1 Introduction ... 52

(5)

3.3.3 Les SVM linéaires ... 53

3.3.4 SVM pour le cas multiclasses ... 61

3.4 Conclusion... 62

V. Chapitre 4 : Validation et analyse des résultats... 64

4.1 Introduction ... 64

4.2 Expérimentations... 65

4.2.1 Base de texture ... 65

4.2.2 Les attributs utilisés... 66

4.3 Résultats ... 67

4.3.1 Conditions expérimentales ... 67

4.3.2 Premier codage ... 68

4.3.3 Deuxième codage ... 68

4.3.4 Deuxième codage avec différents noyaux SVM ... 70

4.3.5 Application du corrélogramme codé ... 73

4.3.6 Comparaison des deux matrices : cooccurrence et corrélogramme ... 75

4.3.7 Comparaison de la DCT avec la méthode de codage... 77

4.4 Conclusion... 84

VI. Conclusion... 86

(6)

Table des figures

Figure 1 : Les trois canaux de l’image SPOT ... 14

Figure 2 : Information texture et information couleur ... 16

Figure 3 : Textures structurelles... 17

Figure 4 : Textures aléatoires ... 18

Figure 5 : Textures directionnelles... 18

Figure 7 : Exemple de matrices de cooccurrence construites à partir d’une image 4 × 4 composée de 4 niveaux de gris... 21

Figure 8 : Construction de la texture par différentes occurrences de l’objet à des échelles ... 32

Figure 9 : Textures différentes ayant la même granulométrie ... 33

Figure 10 : Trois textures de types différents : la première est de type directionnel, la seconde de type structurel et la troisième de type aléatoire ... 34

Figure 11 : Trois images associées aux 3 textures de la figure 3 représentant les pixels minima (en noir) et maxima (en blanc) locaux ... 35

Figure 12 : Principe du codage d’un pixel x en fonction de ses voisins ... 37

Figure 13 : Exemple du codage de niveau de gris sur un pixel. L’image de gauche représente les niveaux de gris de 9 pixels; l’image de droite fournit le codage de niveau de gris du pixel central ... 38

Figure 14 : Exemple de 4 représentations graphiques de textures à l’aide du codage de niveau de gris ... 41

Figure 15 : Quelques images de la base de Brodatz... 42

Figure 16 : Texture de Brodatz suivie de son image des extrema ainsi que de son codage de niveau de gris ... 43

Figure 17 : Illustration des cinq classes de textures de gauche à droite : zone urbaine, sol, forêt, mer et route ... 44

Figure 18 : Le logiciel qui permet de découper l’image en imagettes. ... 44

Figure 19 : Etapes de calcul des paramètres d’Haralick. ... 47

Figure 20 : les modules d’un système d’apprentissage ... 51

Figure 21 : Principe de la technique SVM. ... 53

Figure 22 : L’hyperplan correspondant à la fonction de décision d’un classifieur linéaire dans 2 ℜ ... 54 Figure 23 : Expression de la marge pour l’exemplex ... 55 i

(7)

Figure 24 : Hyperplans canoniques. ... 56 Figure 25 : Le même jeu de données classé par un hyperplan à marge maximale (à gauche) et un hyperplan quelconque ne commettant pas d’erreur sur le training set (à droite). La boule grisée est un exemple du test set. ... 57 Figure 26 Deux exemples mappés dans un espace de dimension infinie... 60 Figure 27 : Echantillons de la base de texture... 66 Figure 34 : Courbe représentant le taux de classification du noyau linéaire du classifieur en fonction du paramètre C ... 73 Figure 35 : Courbe représentant le taux de classification du noyau polynomial du classifieur en fonction du paramètre C ... 74 Figure 36 : Courbe représentant le taux de classification du noyau gaussien du classifieur en fonction du paramètre C ... 74 Figure 37 : Pourcentage de la classification en fonction du paramètre C pour le noyau linéaire.

... 76 Figure 38 : Pourcentage de la classification en fonction du paramètre C pour le noyau

polynomial... 76 Figure 39 : Pourcentage de la classification en fonction du paramètre C pour le noyau

sigmoïde. ... 77 Figure 40 : le passage du domaine spatial au domaine fréquentiel. ... 78 Figure 41 : Le taux de classification de la DCT et le codage de rang pour le noyau linéaire.. 79 Figure 42 : Le taux de classification de la DCT et le codage de rang pour le noyau sigmoïde.

... 80 Figure 43 : Le taux de classification de la DCT et le codage de rang pour le noyau gaussien.80 Figure 44 : Le taux de classification du premier codage et du codage de rang pour le noyau linéaire. ... 81 Figure 45 : Le taux de classification du premier codage et du codage de rang pour le noyau sigmoïde. ... 81 Figure 46 : Le taux de classification du premier codage et du codage de rang pour le noyau gaussien. ... 82 Figure 47 : Le taux de classification de la DCT et du premier codage pour le noyau linéaire.82 Figure 48 : Le taux de classification de la DCT et du premier codage pour le noyau sigmoïde.

... 83 Figure 49 : Le taux de classification de la DCT et du premier codage pour le noyau gaussien.

(8)

Liste des Tableau

Tableau 1 : Précision globale de la classification par SVM... 68

Tableau 2 : Précision globale de la classification par SVM... 69

Tableau 3 : La précision globale pour chaque noyau... 70

Tableau 4 : Le nombre de Support Vector pour chaque noyau... 71

(9)

Introduction

Les premières vues de la terre depuis l’espace datent des années 1946. Elles ont été prises par des appareils photographiques embarqués sur des fusées. Les premiers vols habités ont montré l’intérêt de pouvoir disposer de bases d’observation spatiale. Ainsi dès les années 60, les vols Gemini et Apollo ont rapporté les premières photographies couleurs de l’océan et de la terre.

Avec l’apparition de la télédétection, des satellites d’observation offrent régulièrement un grand nombre d’images, de données et d’informations inaccessibles depuis le sol. La télédétection est devenue ainsi une discipline très importante, car elle est désormais un outil d’aide à la décision très précieux et indispensable pour la gestion des ressources terrestres. L’analyse et l’interprétation de ces images de télédétection constituent un champ important de recherche et d’études scientifiques. Plusieurs applications en tirent profit, par exemple, le suivi de la déforestation, l’évolution de la désertification, l’évolution des ressources en eau, la cartographie de l’occupation du sol, l’inventaire des ressources agricoles, la construction et la mise à jour des cartes topographiques, la mise à jour des plans cadastraux, la découverte des maladies des forêts, la localisation des zones de pollution, de végétation, d’industrie, etc. De même, les bases de données actuelles dont l’objectif est d’étudier les changements locaux sur les territoires se basent de plus en plus sur des images spatiales.

L’amélioration de la perception permet de visualiser et d’analyser des objets jamais vus auparavant en télédétection. Par exemple, on peut percevoir des objets comme des voitures, des bâtiments, et des arbres, ce qui génère des images très hétérogènes. La quantité croissante d’images disponibles et l’augmentation de leur taille génèrent des masses de données. En effet, la résolution des images d’observation civile atteint les niveaux métriques et infra métriques. Par exemple, les satellites SPOT 5 (Satellite Pour l’Observation de la Terre) (CNES, France), ALOS (NASDA, Japon), IKONOS (Space Imaging, Etats-Unis) fournissent des images entre 2.5 et 0.6 mètres de résolution avec une taille de 24000 lignes × 24000 colonnes. Ces progrès ont été réalisés en un laps de temps très court et les techniques de traitement d’images n’ont pas évolué aussi vite que les technologies d’acquisition.

Le besoin de développer de nouvelles méthodes d’exploitation, d’interprétation et d’analyse de ces données, pour en permettre une exploitation plus complète, se fait fortement ressentir. Les outils d’analyse disponibles s’avèrant insuffisants, le DataMining est né de ce besoin.

(10)

Le domaine du DataMining, dit aussi « fouille de données » , et plus généralement l’extraction de connaissances des données (ECD), ou Knowledge Discovery in Databases (KDD), regroupe les diverses techniques permettant de trouver, dans des bases de données, des connaissances qui ne sont pas accessibles par les outils d’analyse classiques. Ces techniques permettent ainsi de découvrir des modèles prévisionnels, des règles de classification et d'autres types de connaissances qui serviront à l'aide à la décision. L’originalité de ce domaine est qu’il fait appel à plusieurs domaines tels que le domaine des statistiques, de l’intelligence artificielle, et des bases de données. Dans cette perspective, la classification des images satellitaires est une discipline dans laquelle des avancées sont indispensables, afin de parvenir à des processus efficaces d’extraction de connaissances pertinentes.

Cette thèse s’inscrit dans le cadre général du traitement des données multimédias. Nous avons plus particulièrement exploité les images satellitaires pour la mise en application de ces traitements. Nous nous sommes intéressés à l’extraction de variables et de caractéristiques texturelles ; nous avons proposé une nouvelle méthode de pré-traitement des textures afin d’améliorer l’extraction de ces attributs caractéristiques.

Nous avons travaillé sur des images à niveaux de gris. nous nous sommes intéressés à l’extraction de caractéristiques et à la classification supervisée d’images en utilisant une approche de type région, sachant que cette dernière est caractérisée par ses propriétés texturelles qui sont en général décrites par un vecteur caractéristique.

C’est un thème important en analyse d’images car il possède de nombreuses applications, comme par exemple la classification de terrains à partir d’images aériennes ou satellitaires, l’interprétation d’images médicales, l’analyse d’images en microbiologie, la détection automatique de défauts ou de malformations, etc.

Face à l’accroissement rapide des tailles dans les bases d’images, il est nécessaire de développer de nouveaux algorithmes de traitement facilitant à la fois le stockage et le traitement de ces données.

Le chapitre 1 de cette thèse présente les différentes caractéristiques d’images utilisées dans le domaine de la télédétection, et se focalise sur le problème de l’analyse de textures.

Dans ce cadre, nous avons développé une nouvelle approche destinée à étudier et caractériser les textures.

(11)

Nous nous intéressons dans ce travail aux algorithmes de sélection de caractéristiques (appelées aussi descripteurs), qui permettent d’extraire une information non redondante et pertinente, en vue d’une exploitation efficace des bases d’images.

Nous citerons, en détail, les différentes méthodes d’extraction de caractéristiques, en l’occurrence la méthode des matrices de cooccurrence et celle du corrélogramme. Une partie sera consacrée à la présentation des attributs utilisés pour caractériser l’information texturelle.

L’augmentation de la résolution des satellites récents a, paradoxalement, perturbé les chercheurs lors des premières classifications sur des données à haute résolution. Les cartes très homogènes, obtenues jusqu’alors en moyenne résolution, devenaient très fragmentées et difficiles à utiliser avec les mêmes algorithmes de classification.

Une façon de remédier à ce problème consiste à caractériser le pixel en cours de classification par des paramètres mesurant l’organisation spatiale des pixels de son voisinage.

Il existe plusieurs approches à l’analyse de texture dans les images. Dans le cadre des images satellitaires, l’approche statistique semble être habituellement retenue, ainsi que les méthodes des matrices de cooccurrences et du corrélogramme, basées sur l’analyse statistique au deuxième ordre (au sens des probabilités sur des couples de pixels). Et ce sont les deux dernières méthodes sur lesquelles nous allons se baser pour en extraire l’information texturelle sous forme d’un vecteur. Ces matrices présentent des inconvénients, tels que la taille mémoire nécessaire et le temps de calcul des paramètres élevé. Pour contourner ce problème, nous avons cherché une méthode de réduction du nombre de niveaux de gris (permettant de passer, dans un premier temps de 256 niveaux à 9 niveaux de gris, puis ensuite pour améliorer la qualité de l’image, passer de 9 à 16 niveaux de gris), tout en conservant la structure et la texture de l’image.

Le chapitre 2 est consacré à la présentation de cette nouvelle méthode de prétraitement des textures afin d’améliorer l’extraction d’attributs caractéristiques.

Le chapitre 3 introduit les concepts fondamentaux du Machine Learning supervisé dans le cas de la classification dans le but de tester la pertinence du codage proposé.

Nous nous intéressons aux machines à vecteurs de support (SVM) car elles limitent le risque de surapprentissage du fait de leur capacité de régularisation (ce risque étant particulièrement important lorsque le nombre de caractéristiques, c'est-à-dire la dimension, est grand face au nombre de données).

(12)

Nous donnerons une idée intuitive de ce qu’est la classification supervisée par SVM, nous nous emploierons à la formaliser en définissant sa forme mathématique.

Le chapitre 4 expose, les résultats des classifications de textures réalisées à l’aide des attributs sur les textures codées.

Cette nouvelle approche caractérise les relations spatiales et les relations à niveaux de gris entre les pixels d’une image. Elle nous a permis de créer deux codages, à partir desquels nous extrairons des informations susceptibles de caractériser les textures.

Nous montrons dans ce chapitre les résultats obtenus avec une base d’images constituée de 120 imagettes. Nous allons leur appliquer la matrice de cooccurrence et le corrélogramme (après avoir appliqué bien évidemment la méthode du codage) afin de pouvoir calculer les caractéristiques qui servent à la classification.

Plusieurs noyaux du classifieur SVM (linéaire, polynomial, gaussien et sigmoïde) ont été utilisés pour discuter des différents résultats.

La conclusion souligne l’avantage de l’approche utilisée, tout en discutant des résultats obtenus tout au long de cette thèse, et évoquant certaines perspectives à donner à ce travail.

(13)

I.

Chapitre 1 : Télédétection et caractérisation

de texture

1.1 Introduction

Nous portons nos efforts sur l’extraction de l’information, la classification et la reconnaissance d’objets. La particularité du domaine d’application de ces derniers, est que les aspects relatifs à la géométrie tridimensionnelle n’interviennent pas au premier chef pour les objets à reconnaître. Plusieurs autres caractéristiques telles que la couleur, la texture, les formes planes, etc. constituent les aspects les plus sollicités dans la tâche de reconnaissance. L’interprétation des images consiste à reconnaître les objets détectés par le biais de plusieurs techniques de classification.

L’enjeu de recherche dans ce domaine dépasse le simple cadre de la compression ou de la classification puisqu’il s’agit d’extraire une information structurée de haut niveau permettant de reconnaître et d’indexer les images.

La complexité de traitement exigée par ces applications a motivé plusieurs chercheurs en vision pour s’impliquer dans la résolution de problèmes particuliers. On trouve, parmi ces problèmes, l’extraction des routes ou des réseaux routiers, qui nécessite non seulement la reconnaissance d’objets (les routes) mais aussi une grande précision sur leur géométrie. On trouve aussi le problème de localisation des forêts et des zones de végétation, qui représente une partie importante des traitements. L’extraction de ce type d’information fait jouer l’aspect texture comme facteur indéniable.

Au vu des images sur lesquelles nous souhaitons travailler, nous nous sommes intéressés à l’extraction de caractéristiques et à la classification supervisée d’images satellitaires de type SPOT en utilisant une approche de type région, sachant que chacune est caractérisée par ses propriétés texturelles. En fait chaque information texturelle est en général décrite par un vecteur caractéristique.

Les images SPOT enregistrent trois images (trois canaux) de la même zone à chaque passage, le canal XS1, XS2 et XS3, dont chacune correspond à une image en 256 nuances de gris (cf. figure 1) :

(14)

Figure 1 : Les trois canaux de l’image SPOT

• le canal XS1 qui correspond à l’énergie dégagée dans le vert, identifie des surfaces particulières, les sols de couleur verte à partir des canaux XS1 et XS2,

• le canal XS2 correspondant à l’énergie dégagée dans le rouge. La différence entre ce canal et le canal XS3 a pour effet de bien mettre en valeur tout ce qui est activité chlorophyllienne. On utilise donc cette différence comme un indice de végétation,

• le canal XS3 qui correspond à l’énergie dégagée dans l’infrarouge proche. Dans ce canal les surfaces en eau s’identifient facilement.

Avant de commencer le traitement, on doit pouvoir segmenter l’image en la subdivisant en régions qui représentent des caractéristiques similaires.

Dans un premier temps, nous allons décrire les différentes méthodes d’extraction de caractéristiques, puis ensuite nous détaillerons l’approche proposée.

Il est important de trouver les caractéristiques appropriées et pertinentes qui peuvent être extraites des images.

Divers descripteurs sont utilisés pour la caractérisation d’images. Les principaux descripteurs d’images sont la couleur, la texture et la forme. Parmi ces trois descripteurs la couleur est la plus souvent utilisée et donne actuellement les meilleurs résultats. La texture est aussi très utilisée bien qu’elle soit plus complexe à mettre en oeuvre que la couleur.

1.2 Caractérisation de texture

Dans le traitement d’images, l’analyse de textures joue un rôle très important. Elle permet l’identification des objets. En effet, nous verrons qu’il est inévitable, pour distinguer les différentes régions d’une image de même couleur, d’extraire une information texturelle. Malgré cette importance, nous verrons tout d’abord qu’il est difficile de caractériser précisément la texture. Nous essayerons néanmoins d’en donner une définition générale. Ensuite, dans un deuxième paragraphe, nous présenterons différentes méthodes d’analyse de

(15)

textures. Nous mettrons en évidence les principales méthodes d’extraction de paramètres permettant d’identifier les textures. L’accent sera mis sur l’utilisation des matrices de cooccurrence et de corrélogramme, car elles sont une bonne caractérisation de la notion de texture. Comme le but de notre première analyse est d’extraire et de tester des paramètres caractérisant les textures, nous présenterons les paramètres les plus utilisés.

1.2.1 La texture

Dans le dictionnaire, les définitions de la texture se restreignent à des cas particuliers, elles sont généralement associées à des domaines précis d’activité. La première d’entre elles se réfère au tissage. On apprend que la texture est l’état d’une étoffe ou d’un matériau qui est tissé.

D’après cette définition, la texture est la perception du résultat du tissage correspondant à la manière dont les fils ont été entrecroisés. Ici, la texture représente l’aspect structuré de l’étoffe qui est créé par un maillage particulier. Une deuxième définition, associée à la géologie, dit que la texture est un ensemble de caractères définissant l’agencement et les relations spatiales des minéraux d’une roche. On retrouve ici également un fort aspect structurel associé à une notion d’arrangement spatial correspondant à l’état général de la roche.

Ces deux définitions mettent donc en avant une nature structurée de la texture. Nous verrons plus loin qu’il n’est pas toujours possible de la considérer ainsi.

La texture est une caractéristique propre de l’objet ; elle nous permet de le décrire partiellement.

Bien sûr, la forme et la couleur sont deux autres caractéristiques très importantes. Pour faire la distinction entre une orange et une cerise, les informations forme et couleur sont certainement plus significatives que l’information texture. Mais l’information texture devient primordiale lorsqu’on veut faire la distinction entre deux zones d’une image de même couleur (ou bien de même niveau de gris). La figure 2 illustre ce phénomène. Dans la première image, il est tout à fait possible de faire la différence entre les deux zones de l’image simplement avec l’information couleur fournie par les niveaux de gris. En effet, la zone de gauche est globalement d’intensité lumineuse beaucoup plus forte que celle de droite. Par contre, dans la deuxième image, il n’est pas possible de distinguer les deux zones à l’aide de leurs valeurs de gris. Dans ce cas, c’est l’information texture qui prédomine.

La zone de gauche est caractérisée par une texture orientée, contrairement à celle de droite qui ressemble plus à une mosaïque.

(16)

Figure 2 : Information texture et information couleur

1.2.2 Textures structurelles

Avant d’essayer de donner une définition à la texture, examinons les figures suivantes. On peut classer l’ensemble des textures en plusieurs catégories dont deux grandes qui correspondent à deux définitions : l’une déterministe, l’autre probabiliste [1]. La figure 3 présente un premier type de textures dites structurelles. On les appelle ainsi car on peut les considérer comme étant la répartition spatiale de motifs élémentaires de base dans différentes directions de l’espace suivant une certaine règle de placement. En effet, on s’aperçoit que la première représente un mur de brique, elle est composée d’un ensemble d’éléments de base (les briques) disposés relativement régulièrement de manière horizontale. La deuxième texture est aussi composée de motifs de base alvéolés agencés d’une manière particulière les uns à côté des autres.

Cette catégorie de textures a engendré des méthodes d’analyse dites structurelles [2] [3] [4] [5] [6] [7] [8].

(17)

Figure 3 : Textures structurelles

Ces méthodes supposent que les textures sont formées d’éléments structurants de base. L’idée générale de ces méthodes est une recherche et une description des éléments structurants suivie d’une étude de la répartition spatiale de ces derniers. Cette description permet donc une certaine caractérisation de la texture étudiée. Malgré l’importance des travaux de ce type, il s’avère parfois difficile de les mettre en pratique car il n’existe pas toujours de motifs isolables ou de fréquence de répétition spatiale dominante. C’est le cas des textures illustrées par les figures 4 et 5.

1.2.3 Textures aléatoires

Le deuxième type de textures est exposé dans la figure 4. Contrairement aux deux premières, celles-ci ont un aspect anarchique tout en restant globalement homogènes. On ne peut pas en extraire de motifs de base se répétant spatialement. On les appelle des textures aléatoires. Cette catégorie a fourni d’autres travaux de recherches plutôt fondés sur des méthodes d’analyse statistique [9] [10] [11]. Dans ces cas-là, l’image texturée I(.)est considérée comme étant un processus aléatoire bidimensionnel.

(18)

Figure 4 : Textures aléatoires

1.2.4 Textures directionnelles

Hormis ces deux catégories de textures, il en existe d’autres comme, par exemple, les textures directionnelles (Figure 5). Ces textures ne sont pas totalement aléatoires et ne présentent pas d’éléments structurants de base. Néanmoins, elles se caractérisent par certaines orientations. La texture de gauche de la figure 6 laisse apparaître des lignes obliques, tandis que celle droite possède des lignes verticales.

Figure 5 : Textures directionnelles

Ces différentes catégories de textures nous montrent qu’il est difficile d’en donner une définition précise. Les définitions semblent s’adapter aux différents types de textures : l’une donne une information structurelle, déterministe et constructive (identification de la texture

(19)

par ses éléments de base et leur agencement), l’autre (type aléatoire) donne une information plus anarchique et beaucoup moins facile à décrire visuellement.

Actuellement, il n’existe pas de définition “universelle” de la texture. Pourtant, on peut essayer d’en donner une en combinant ces deux types d’information.

La texture est une propriété inhérente aux surfaces ou aux régions d’image. Elle décrit la distribution et les relations entre pixels appartenant à ces régions. On peut la caractériser par la donnée de deux niveaux d’information :

• une information locale qui correspond, soit aux éléments la composant pour des textures structurelles, soit simplement au niveau de gris de chaque pixel.

• une information globale qui correspond à la distribution spatiale de l’information locale (aspect général de la texture).

C’est à partir de cette définition que nous allons essayer d’aborder le problème de l’extraction de paramètres de texture. Dans la suite, nous essayerons de mettre en évidence des informations texturelles locales pour ensuite les exploiter globalement en étudiant leurs relations spatiales.

La texture a suscité de nombreuses recherches et travaux d’application [12] qui ont engendré une multitude de méthodes d’analyse [1] [13] [14] [15]. Ces méthodes ont pour objet de caractériser [16] ou décrire [2], de discriminer [17], de segmenter [18] ou de synthétiser [19] les textures. Dans ce travail, nous nous sommes intéressés plus particulièrement à la manière d’extraire l’information caractéristique pour la discrimination de textures. Ces travaux insistent surtout sur la façon de transformer les images (par la construction de codages) pour faire ressortir l’information texturelle.

Après une présentation de quelques méthodes usuelles d’analyse, on détaillera celles qui sont en rapport avec cette thèse comme les matrices de cooccurrence et le corrélogramme. Elles seront complètement détaillées car elles serviront de référence de travail pour la deuxième partie de cette thèse concernant la construction de paramètres et de caractéristiques destinés à la discrimination de texture des différentes images à niveaux de gris.

1.3 Les matrices de cooccurrence

Du fait de leur richesse en information de texture, les matrices de cooccurrences sont devenues les plus connues et les plus utilisées pour extraire ces caractéristiques de textures. Elles estiment des propriétés des images relatives à des statistiques de second ordre.

(20)

Une matrice de cooccurrence mesure la probabilité d’apparition des paires de valeurs de pixels situés à une certaine distance dans l’image. Elle est basée sur le calcul de la probabilité

) , , , (i j δ θ

P qui représente le nombre de fois où un pixel de niveau de couleur i apparaît à une distance relative δ d’un pixel de niveau de couleur j et selon une orientation θ donnée.

.

Les directions angulaires θ classiquement utilisées sont 0, 45, 90 et 135 degrés. Les relations de voisinage entre pixels, nécessaires au calcul des matrices, sont illustrées en figure 6 ; par exemple, les plus proches voisins de ‘x’ selon la direction θ=135 degrés sont les pixels 4 et 8. Les caractéristiques extraites à partir de ces matrices contiennent des informations notamment sur l’homogénéité, les dépendances linéaires entre les niveaux de gris, le contraste et la complexité de cette image.

Les matrices obtenues selon ces quatre directions sont alors calculées comme dans (1), (2), (3) et (4) où (k, l) sont les coordonnées d’un pixel de niveau de couleur i∈[0,nmax −1] et (m, n) celles du pixel de niveau de couleur j∈[0,nmax −1]

( )

(

)

{

, ,( , ) ( ) ( 0, , , )

}

) 0 , , , ( , , 2 j I i I n l m k tq M N n m l k j i P δ = ∈ × − = − =δ kl = mn = (1)       = = = − − = − ∨ − = − = − × ∈ = j I i I n l m k n l m k tq M N n m l k j i P n m l k, , 2 , ), , ( ) , ( ) ( )) , ( ), , (( ) 45 , , , ( δ δ δ δ δ (2)

{

(( , ),( , )) ( ) ( , 0, , )

}

) 90 , , , ( 2 , , j I i I n l m k tq M N n m l k j i P δ = ∈ × − =δ − = kl = mn = (3)       = = − = − − = − ∨ = − = − × ∈ = j I i I n l m k n l m k tq M N n m l k j i P n m l k, , 2 , , , ( ) , ( ) ( )) , ( ), , (( ) 135 , , , ( δ δ δ δ δ (4)

La figure 7 montre un exemple de calcul des P(i,j) à partir d’une petite image 4× 4 composée de quatre niveaux de gris (0, 1, 2,3). Cet exemple se limite au cas δ = 1 et θ=0. L’élément (2,

4 3 2 5 X 1 6 7 8 0 degrés 45 degrés 90 degrés 135 degrés

(21)

2

3) de la matrice P(1, 0) est égal à 4, cela signifie qu’il existe 4 configurations dans l’image ou un pixel de niveau de gris 2 est séparé horizontalement d’un autre pixel de niveau de gris 3 par une distance 1. Ces configurations sont représentées en trait gris sur l’image.

0 0 1 2 0 1 3 2 0 2 3 2 1 2 3 0 P (i,j,1,0°) = P (i,j,1,90°) =

Figure 7 : Exemple de matrices de cooccurrence construites à partir d’une image 4 × 4 composée de 4 niveaux

de gris

La plupart des images sont codées sur 256 niveaux de gris, par conséquent, la taille des matrices de cooccurrence est de 256 × 256. On s’aperçoit ainsi que ces matrices comptabilisent une très grosse quantité d’informations difficile à exploiter directement. C’est pourquoi, un certain nombre d’auteurs comme Zucker [20] ont essayé d’extraire de l’information de ces matrices afin de mettre en évidence la structure des textures. Mais c’est Haralick et al [1] qui ont proposé les premiers 14 paramètres, caractérisant les textures, issus de ces matrices. Voici 6 paramètres considérés comme étant les plus utilisés et les plus pertinents [21] :  L’énergie : =

∑∑

(

( )

)

i j ij P ENE δ,θ 2

Ce paramètre mesure l’uniformité de la texture. Il atteint de fortes valeurs lorsque la distribution des niveaux de gris est constante ou de forme périodique. Dans ce dernier cas, les

2 2 1 1 2 0 2 1 1 2 0 4 1 1 4 0 2 1 0 0 1 2 1 0 0 1 0 5 0 0 5 0 4 2 0 1 2 0 1 1 0 1 6 0 1 1 0 4 0 1 2 2 1 0 1 1 2 1 0 2 2 1 2 0 Image 3 P (i,j,1,45°) = P (i,j,1,135°) =

(22)

valeurs élevées d’énergie sont obtenues pour les matrices P(d, θ) lorsque (d, θ) correspond à la période.  Le contraste : =

∑∑

(

(

) ( )

)

i j ij P j i CST 2 δ,θ

La valeur en est d’autant plus élevée que la texture présente un fort contraste. Ce paramètre est fortement non corrélé à l’énergie.

 L’entropie : =−

∑∑

(

( ) ( )

)

i j ij ij P P ENT log δ,θ δ,θ

Ce paramètre mesure le désordre dans l’image. Contrairement à l’énergie, l’entropie atteint de fortes valeurs lorsque la texture est complètement aléatoire (sans structure apparente). Elle est fortement corrélée (par l’inverse) à l’énergie.

 La variance : VAR =

∑∑

(( −µ)2 (δ,θ)) i j ij P i

La variance mesure l’hétérogénéité de la texture. Elle augmente lorsque les niveaux de gris différent de leur moyenne. La variance est indépendante du contraste.

 La corrélation :

∑∑

(

)(

) ( )

      − − = i j ij P j i COR 2 , σ θ δ µ µ

COR mesure la dépendance linéaire (relativement à (δ , θ)) des niveaux de gris de l’image. La corrélation n’est corrélée ni à l’énergie, ni à l’entropie.

 Le moment inverse :

( )

(

)

∑∑

− + = i j ij j i P IDM 2 1 ,θ δ

IDM (Inverse Difference Moment) mesure l’homogénéité de l’image. Ce paramètre est corrélé à une combinaison linéaire des variables ENE et CST.

(23)

De nombreuses études ont été menées afin de caractériser, classifier, modéliser les textures à l’aide de ces paramètres ([22], [23], [24], [25], [26]).

La méthode d’extraction de ces paramètres basée sur le calcul des matrices de cooccurrence est une des méthodes les plus proches de la notion de texture. Elles mettent effectivement en avant les relations qui existent entre les pixels de l’image en faisant intervenir l’aspect local (les niveaux de gris) et l’aspect spatial ((δ ,θ)).

Dans la plupart des études, les auteurs calculent ces matrices de cooccurrence sur les images brutes ou filtrées, donc toujours à partir des niveaux de gris. Davis, Johns et Aggarwal [27] ont généralisé cette utilisation à tous les types d’information (incluant les niveaux de gris), ils ont transformé les images en codant certains pixels par une autre information que celle des niveaux de gris. Ensuite, ils ont calculé les matrices de cooccurrence à partir de ces nouvelles images codes.

Dans cette thèse, nous utilisons le même principe qui consiste à coder une image par une autre information que les niveaux de gris et nous appliquons la matrice de cooccurrence afin d’en extraire des attributs texturels.

1.4 Le corrélogramme

La représentation d’images la plus commune du domaine du traitement d’images dans les bases de données est l’histogramme de couleur. Il est raisonnable de penser que les images qui se ressemblent aient des compositions de couleur similaires et donc il est envisageable que les histogrammes soient intéressants. Les histogrammes de couleur ont d’autres avantages : ils sont invariants par rapport à la taille, à l’échelle et à la rotation des images. De plus ils sont compacts si nous les comparons avec la taille des images. Une fois que les images sont représentées par les histogrammes dans un espace de couleurs, nous pouvons choisir une parmi les différentes mesures de similarité existantes. Swain et Ballard [28] introduisent la notion d’intersection d’histogrammes, qui est équivalente à la distance Manhattan (norme L1) pour des histogrammes normalisés. D’autres mesures souvent utilisées sont les normes Ln et en particulier L1 et L2 [29], l’estimation χ2 [30], la divergence KL [31], et la logique floue [32] [33]. Un des problèmes de l’utilisation directe des histogrammes est qu’un petit décalage des valeurs des vecteurs caractéristiques implique une grande différence entre des deux histogrammes en utilisant une des mesures de similarité communes. Les histogrammes de couleurs souffrent d’un manque d’information locale parce que ces derniers n’enregistrent pas la structure locale des couleurs mais seulement la composition globale. Le vecteur de

(24)

cohérence de couleurs [34] est une représentation affinée de l’histogramme où les couleurs sont divisées en deux composantes : cohérente et non cohérente. La composante cohérente comporte le nombre de pixels voisins ayant la même couleur que le pixel en cours. La distance entre les histogrammes de ce type dépend des deux composantes. Une autre représentation plus affinée de l’histogramme est le corrélogramme de couleurs [35] qui enregistre la probabilité de présence d’une couleur dans un voisinage prédéfini d’une autre couleur. Une nouvelle représentation des informations locales et globales conjointement est nommée « histogrammes de blobs » [36].

1.4.1 Définition 1

Un corrélogramme présente les corrélations spatiales entre les niveaux de gris en fonction de la distance interpixel. Pour une image A de N pixels, quantifiée sur n niveaux de gris

{

c1,c2,....cn

}

.

Chaque pixel p en (x, y) est doté d’un niveau de gris A (p) :

c A

p∈ = A( p)= c

Pour une distance d

{

1,2,...N

}

fixée à priori, le corrélogramme du niveau de gris i par rapport à j est défini par :

[

p A p p k

]

prob j i c j i c A p k c c = ∈ − = ∈ 1 1 2 1 ) ( , / γ ∀k

{

1,2,...d

}

Pour tout pixel de niveaux de gris cidans l’image,

) ( , k c ci j

γ donne la probabilité de trouver à une distance

k un pixel de niveau de griscj.

1.4.2 Définition 2

J. Huang et al. [37] définissent le corrélogramme couleur d’une image I comme un tableau indexé par des couples de couleurs, dont la d -ième entrée pour le couple de couleurs

) ,

(crα crβ spécifie la probabilité de trouver un pixel de couleur crβà la distance d d’un pixel de couleurcrα.

Le corrélogramme couleur exprime comment la corrélation spatiale de couples de couleurs évolue en fonction de la distance dans l’image.

Pour une distance d et un couple de couleurs(crα,crβ), le corrélogramme couleur ) , ( ) ( β α c c

COd r r est défini par :

(

)

{

P P I Ic P c c P c P P d

}

card c c CO d = 1 2 ∈ × 1 = 2 = 1− 2 = ) ( , ) ( , ) ( , ) , (rα rβ r rα r rβ

(25)

ou cr(P1)et cr(P2) correspondent respectivement aux couleurs des pixels P et1 P . 2

Le corrélogramme couleur CO(d)(crα,crβ)contient le nombre de couples de pixels )

,

(P1 P2 d’une imageI , séparés par la distance dtels que la couleur du pixel P soit 1 crαet celle du pixel P soit2 cβ

r .

Généralement, on utilise la norme L pour mesurer la distance entre deux pixels P et 1 P de 2 coordonnées respectives (x1,y1) et

(

x2, y2

)

:

{

1 2 1 2

}

2

1 P max x x , y y

P − = − −

Le corrélogramme couleur prend simultanément en compte la distribution globale des couleurs des pixels ainsi que la corrélation des couleurs entre pixels voisins. Il est notamment utilisé comme signature dans le cadre de l’indexation d’images couleur [37].

Lors de l’analyse de ces matrices de cooccurrence et de corrélogramme, les auteurs sont tentés de diminuer le nombre de niveaux de gris des images afin de réduire la taille de ces matrices ([24], [25], [38], [23], [39], [20]).

Ces auteurs se sont basés sur la notion d’extremum, que l’on exploitera de manière plus fine dans le deuxième chapitre de cette thèse.

La notion d’extremum de gris est énormément utilisée car elle est liée à beaucoup de méthodes de caractérisation de textures, mais aussi à beaucoup de méthodes générales d’analyse d’images. En effet, certains filtres sont basés sur la recherche de ces extremums pour ensuite en calculer la moyenne, la médiane, etc.

Ces extremums sont très utilisés lors de la détection de contour [40], comme par exemple lors de la recherche de ligne de partage des eaux [41]. Certains auteurs se sont attachés à étudier ces extremums de gris en déterminant leur disposition [42] ou en calculant leur nombre dans l’image. D’autres comme Davis [43] ou Dinstein [44] se sont interrogés sur la manière dont il était possible d’extraire ces extremums.

Cette méthode comme n’importe quelle autre, présente des inconvénients que nous avons essayé de résoudre en inventant notre méthode de codage détaillée dans le chapitre suivant. Aussi, quelques auteurs ont présenté des codages de texture par vecteurs de rang.

Examinons un peu plus en détails les travaux de Bi [45] sur ce sujet :

En effet, l’idée de Bi a été d’utiliser la notion de vecteur de rang [46] pour construire un codage de texture. Pour ce faire, en considérant chaque pixel x, un rang est attribué à chacun

(26)

des 4 pixels voisins de x (les deux pixels horizontaux et les deux verticaux) en fonction de leurs niveaux de gris. Le pixel qui a le plus petit niveau de gris reçoit le rang 0, et ainsi de suite jusqu’à l’affectation du rang 3 au pixel de plus grand niveau de gris. Ces quatre rangs forment un vecteur à quatre composantes (r0, r1, r2, r3). Chaque composante ri correspond à une position autour du pixel x : si (i, j) sont les coordonnées de x, r0 est le rang du pixel (i − 1, j), r1 correspond au pixel (i, j − 1), r2 au pixel (i + 1, j) et r3 au pixel (i, j + 1). Ainsi, le vecteur de rang permet de caractériser la distribution spatiale des niveaux de gris des 4 voisins horizontaux et verticaux de x. En fait, Bi construit deux types de vecteurs de rang : le vecteur de rang distinct qui attribut des rangs différents à deux pixels voisins de même niveau de gris et le vecteur de rang général qui attribue le même rang aux pixels voisins de même niveau de gris.

Ensuite, afin d’affecter à chaque pixel x une valeur de code, Bi définit un codage des vecteurs de rang par la formule suivante :

= × = 3 0 4 ) ( i i ri x C

Ce codage est identique pour les deux types de vecteurs. Ainsi, suivant le vecteur, C(x) peut prendre soit 24 valeurs (vecteur de rang distinct), soit 75 (vecteur de rang général). Une image à niveaux de gris peut donc être codée par une image composée de 24 ou 75 codes.

L’intérêt de cette méthode est qu’elle prend très bien en compte l’information de distribution spatiale du niveau de gris dans le 4-voisinage des pixels des images. Les résultats que Bi obtient le prouvent (voir [45]). Néanmoins, le grand nombre de codes (24 ou 75) qui permettent de mettre en évidence toutes les configurations de distribution possibles est trop élevé si on veut appliquer certaines méthodes d’analyse sur ce codage. C’est pourquoi, dans la deuxième partie de cette thèse, nous construirons des codages avec peu de codes afin de pouvoir appliquer des calculs de matrices de cooccurrence généralisées. De plus, pour limiter ce nombre de codes, Bi ne considère que le 4-voisinage et ne prend donc pas en compte les 4 autres voisins d’un pixel (voisins diagonaux). Ceci restreint l’information de distribution spatiale. Contrairement à ceci, nous développerons ici des codages qui examinent le 8-voisinage des pixels.

1.5 Conclusion

L’analyse d’images englobe une multitude de domaines ; ici nous avons abordé celui de l’analyse de textures.

(27)

L’analyse de textures est un problème difficile. Cette difficulté est due essentiellement au fait qu’il n’existe pas de définition précise et rigoureuse permettant de caractériser complètement la notion de texture.

Le premier chapitre de cette thèse avait pour but de commenter les différents paramètres caractérisant les images satellites qui servent par la suite à leur interprétation et à leur classification.

Nous avons également évoqué les algorithmes permettant l’extraction de ces paramètres, en l’occurrence les matrices de cooccurrence et de corrélogramme.

Le but de la première partie de ce travail a été d’extraire, dans les images à niveaux de gris, une certaine information caractéristique de la texture. Notre principale contribution dans la deuxième partie de cette thèse sera de développer des méthodes de codages d’images dont le but est de faire ressortir l’information texturelle.

(28)

II.

Chapitre 2 : Prétraitement et codage de

texture

2.1 Introduction

Après avoir donné un état de l’art sur la télédétection et les différentes méthodes d’extraction de caractéristiques, nous pouvons nous rendre compte du rôle important que joue la texture dans la chaîne de traitement des images. Ainsi dans ce présent chapitre, nous proposons dans un premier temps, les rappels concernant l’utilisation de la texture dans les images satellitaires, puis, dans un second temps, la méthode de codage développée.

Nous présentons d’abord les définitions nécessaires à la compréhension des méthodes de la description d’images satellitaires basée sur la texture. Nous détaillerons ensuite notre contribution.

Notre domaine de recherche en imagerie satellitaire se focalise sur la reconnaissance d’objets. La nature de ces objets est aussi variée que les méthodologies utilisées. On peut citer notamment les problèmes de détection de zones urbaines, de réseaux linéiques, de bâtiments, de véhicules….

Il s’agit, dans tout ces cas, de reconnaître et de tester des paramètres caractérisant la texture des types d’objets, et ce en utilisant des méthodes de classement utilisées pour la validation.

Les images acquises par les satellites présentent une source d’information inégalée pour la reconnaissance, le suivi, la précision, la gestion des ressources et des activités humaines de notre planète. Elles constituent un moyen efficace et économique pour extraire de précieuses informations géographiques et de véritables outils de décision, elles contribuent à observer et analyser les phénomène d’évolution du territoire et ainsi à appréhender aux mieux les changements sur de larges zones ou sur des sites précis.

Au vu des images sur lesquelles nous souhaitons travailler, nous nous sommes intéressés à l’analyse d’images satellites en utilisant une approche de type région, sachant que cette dernière est caractérisée par ses propriétés texturelles.

(29)

La texture est une des plus importantes caractéristiques utilisées pour identifier les différentes régions d’une image. Son étude est difficile, car il n’existe pas de définition universelle permettant d’appréhender la notion de texture. Néanmoins, de nombreuses méthodes, utilisant des modèles statistiques ou structurels, ont été développées pour caractériser les textures. Du fait de leur richesse en information de texture, nous avons opté pour les matrices de cooccurrence et de corrélogramme. Ces dernières contiennent une masse très importante d’informations difficilement manipulable. C’est pour cela qu’elles ne sont pas utilisées directement mais à travers des mesures dites caractéristiques de texture. En 1973, Haralick et al. [47] ont en proposé quatorze. Bien que corrélés entre eux, ces caractéristiques réduisent l’information contenue dans les matrices de cooccurrence et permettent une meilleure discrimination entre les différents types de textures. Le choix du vecteur de déplacement et de la taille de la fenêtre du voisinage sur laquelle s’effectue la mesure sont les paramètres sur lesquels repose la réussite de la méthode. La difficulté à surmonter lors de l’application de cette technique réside justement dans le choix de ces paramètres car ils varient en fonction du type d’images et de textures. Pour ce qui est du vecteur de déplacement, si toutes les directions sont étudiées avec différents pas de déplacement, un grand nombre de matrices de cooccurrence doit être calculé. Ceci conduit à une grande complexité calculatoire. Plusieurs études ont été menées pour déterminer une distance ou une orientation optimale. En 1986, Weszka a conclu, qu’en pratique, une distance courte donne généralement de bons résultats [48]. La taille de la fenêtre d’analyse doit satisfaire deux critères contradictoires à savoir, la plus petite possible pour réduire le risque de mélange des textures différentes et, en même temps, la plus grande possible pour pouvoir extraire des statistiques assez robustes et significatives.

Parmi les quatorze indices proposés par Haralick, nous avons choisi pour notre études les plus utilisés en télédétection [49], [50], [51], [52], [53] à savoir : le contraste, l’entropie, l’homogénéité, la corrélation, le second moment angulaire et la directivité. L’information texturale extraite à partir de la matrice de cooccurrence et de corrélogramme est paramétrée par les grandeurs suivantes : la taille de la fenêtre d’analyse, le pas de déplacement, la direction suivant laquelle les deux pixels comparés est choisie et enfin le nombre de niveaux de gris. Afin de fixer ces paramètres, une série de tests utilisant différentes combinaisons a été réalisée. Pour chaque cas, une extraction des six caractéristiques de texture retenues sur la base d’images codées à 16 niveaux de gris a été effectuée. En ce qui concerne l’orientation, celle ci n’apporte pas un grand changement à la performance de la classification. Pour cette raison et pour des raisons de rapidité de calcul, il a été jugé suffisant de prendre une seule

(30)

direction. Pour ce qui est tant de la taille de la fenêtre que du pas de déplacement, le taux de bonne classification le plus élevé a été obtenu pour une fenêtre de 32*32 et un pas de déplacement d’un pixel. Ce sont donc ces paramètres qui vont être retenus pour la suite du traitement.

La plupart des études faites sur l’extraction d’information texturelle agissent directement sur les niveaux de gris de l’image. Dans cette thèse, nous nous sommes basés sur une nouvelle méthode destinée à coder les niveaux de gris. Par conséquent, l’étude sera faite sur les codes des niveaux de gris.

L’astuce de ce codage consiste à étudier les pixels voisins du pixel traité et lui affecter une valeur de code et non un niveau de gris.

2.2 Système de classification

L’image satellitaire naît d’un capteur situé sur le satellite en question et d’une scène observée. Un capteur est caractérisé par un certain nombre de bandes, de 1 à 200, dont chacune correspond à une longueur d’onde du spectre allant du visible à l’infrarouge. Le capteur synthétise pour chaque bande une image que l’on peut représenter en niveau de gris et dont la résolution peut varier de quelques mètres à quelques centimètres par pixel.

Ce découpage spectral plus fin autorise des mesures radiométriques plus précises et permet donc une caractérisation plus exacte du matériau présent sur le terrain. Le terme multispectral qualifie une image dotée de plusieurs bandes. Une image couleur classique est typiquement multispectrale, avec trois bandes. Une image hyperspectrale est une image pour laquelle nous disposons d’un spectre continu pour chaque pixel. En pratique, une image hyperspectrale est une image qui contient un très grand nombre de bandes, plusieurs dizaines ou centaines.

L’objectif du traitement d’image satellitaire est d’en extraire le maximum d’informations qui intéresse l’utilisateur de l’image et d’évacuer tout ce qui est superflu. On souhaite pouvoir attribuer une étiquette parmi une collection définie auparavant à chaque point, dans le but de réaliser une classification sur des images satellitaires.

Cette collection d’étiquettes est ce que l’on appelle l’ensemble des classes qui pourrait être : zone urbaine, forêt, mer, montagne….

Il existe deux grandes familles de techniques de classification d’images : supervisée et non supervisée. La dernière ne demande aucune connaissance a priori de l’utilisateur, soit il existe

(31)

une collection universelle de classes et leurs caractéristiques sont définies automatiquement lors de la classification.

La classification supervisée demande à l’utilisateur d’instruire le système en désignant des zones de l’image comme étant des échantillons représentatifs des classes à extraire. La classification est donc précédée d’un apprentissage.

Pour instruire le système, il faut avoir une bonne connaissance du terrain observé. Pour cela il faut disposer d’une vérité terrain (ensemble de données garanties exactes). C’est un outil pour réaliser un bon apprentissage, ainsi que pour valider une classification. Il est suffisant de disposer d’une vérité terrain sur une portion de l’image où les types de chaque région sont représentés.

Dans notre cas, nous effectuons une classification supervisée. Celle-ci s’organise en quatre étapes :

 L’espace des états : De l’image satellites, on extrait des critères jugés suffisamment

discriminants pour la classification à suivre (le niveau de gris est un critère par exemple). Cet ensemble définit un espace, dont la dimension est égale au nombre de critères extraits.

 Les zones d’apprentissage : On définit sur l’image des zones d’apprentissage, qui

sont des régions de l’image que l’on juge représentatives d’une certaine classe. Par exemple, en vue de classifier une image de zone urbaine, on sélectionnera un ensemble de bâtiments pour réaliser l’apprentissage de la classe « zone urbaine ».  L’apprentissage : Il consiste, pour une classe donnée, à rassembler l’ensemble des

pixels situés dans ses zones d’apprentissage et d’étudier la répartition de leurs vecteurs associés dans l’espace des états.

 Le classifieur : La classification est le problème inverse de l’apprentissage. Ça

consiste à utiliser l’information issue de l’apprentissage pour attribuer à chaque point ou à chaque région de l’image une catégorie ou une classe.

2.3 Texture

Malgré la somme considérable de travaux consacrés à l’analyse d’images texturées, force est de constater que ceux-ci n’ont pas abouti à une définition unique ni à des méthodes qui tiennent compte de l’ensemble des aspects relatifs à la notion de texture. C’est pourquoi les

(32)

outils développés dans la littérature sont souvent spécifiques à une classe de textures, ou liés à une propriété particulière comme par exemple l’anisotropie [54] ou la complexité [55].

La texture est souvent présentée comme une structure hiérarchique à deux niveaux. Le premier concerne les primitives, briques à partir desquelles est construite la texture [56]. Le second niveau est relatif aux arrangements spatiaux des primitives. Les approches dites statistiques se fondent la plupart du temps sur les niveaux de gris des pixels et sur la description statistique de leurs arrangements. Les approches structurales, au contraire, consistent en premier lieu à identifier et décrire les primitives, puis à caractériser de façon statistique leurs arrangements mutuels. Propriété fondamentale de certaines textures, l’orientation est parfois utilisée dans les approches structurales pour la description des primitives [57]. En revanche, les approches purement statistiques qui s’appuient sur la distribution des niveaux de gris des pixels sans tenir compte de leur appartenance à une primitive, négligent l’aspect structural de certaines textures et, dans le cas de textures orientées, leur caractère directionnel.

Soit une image constitué d’un unique objet quelconque. La présence d'un seul objet ne peut pas être a priori considérée comme une texture. Par contre, si une autre image est constituée d'un ensemble d'objets ayant des caractéristiques (de forme, de luminance...) similaires à l'objet décrit précédemment, alors cette population peut être considérée comme une texture.

Figure 8 : Construction de la texture par différentes occurrences de l’objet à des échelles distinctes

Une texture a ensuite été construite en plaçant dans l'image différentes occurrences de cet objet à des échelles distinctes.

Dans cet exemple, la population des objets représentés dans l'image est statistiquement décrite par leur granulométrie.

Objet unique Texture

(33)

On verra dans la suite si les caractéristiques de la distribution de cette population suffisent à décrire la texture. On peut montrer que cela n'est pas le cas en reprenant l'exemple de la Figure 8 et en construisant une deuxième texture d'apparence visuelle distincte mais basée sur la même granulométrie et le même objet de référence (Figure 9).

Figure 9 : Textures différentes ayant la même granulométrie

Il convient donc d'introduire un nouvel élément pour compléter la définition de la notion de texture : la répartition spatiale. En effet, c'est l'agencement spatial des objets qui est la cause des différences d'impressions visuelles observées sur la Figure 9.

La combinaison : agencement spatial + statistique d'une population d'objets permet ainsi de définir la notion de texture.

Pour parvenir à exploiter la texture des images, il existe divers modèles qui permettent de la caractériser.

Les méthodes d’analyse de texture sont nombreuses et il serait difficile d’en faire une revue exhaustive. Parmi les plus populaires, et sans doute les plus efficaces en analyse de texture monodimensionnelle, on trouve les approches utilisant les matrices de cooccurrence pour extraire des paramètres caractéristiques de la texture observée. Cette approche donne de bons résultats pour les images monodimensionnelles, mais son adaptation aux images multidimensionnelles parait irréalisable. En effet, une matrice de cooccurrence est une matrice de dimension N×N, où N est le nombre de niveau de gris quantifiés de l’image. Le temps de calcul est donc tellement important que les auteurs ont tendance à diminuer le nombre de niveaux de gris des images afin de réduire la taille des matrices et de rendre les résultats plus significatifs ([58], [59], [60], [61], [62], [63]).

(34)

Dans cette thèse, nous essayons de contourner ce problème, en introduisant une nouvelle méthode de codage qui permet aussi de diminuer le nombre de niveaux de gris.

2.4 Codage de niveau de gris

Dans ce chapitre, nous nous intéressons aux valeurs extrêmes de gris des images afin de montrer qu’elles constituent une bonne caractérisation de la texture.

Avant de présenter notre étude, examinons quelques exemples illustrant l’intérêt que peut avoir l’étude des extremums de gris. Intéressons nous aux textures de la figure 10. La première d’entre elles laisse apparaître des zones allongées et obliques qui sont alternativement foncées et claires. De manière générale, on distingue une orientation oblique dans la texture composée de “lignes floues” sombres et claires. Ainsi, cet alignement oblique des pixels sombres et des pixels clairs nous permet de distinguer une certaine texture. La deuxième texture est une sorte de maillage particulier caractérisé par un certain agencement de lignes horizontales, verticales et obliques. Ces lignes sont assez sombres; elles ressortent bien par rapport au fond de l’image qui est composé de niveaux de gris clairs. Enfin, la dernière texture est aléatoire, on remarque un fort contraste entre tous les pixels voisins dans l’image.

Figure 10 : Trois textures de types différents : la première est de type directionnel, la seconde de type structurel

et la troisième de type aléatoire

Lorsqu’on aperçoit ces textures sans les regarder en détail, on distingue en priorité les fortes et les faibles intensités lumineuses. Ceci fait donc apparaître l’aspect directionnel de la première texture, le maillage de la seconde et le caractère aléatoire de la troisième. Notre oeil est donc attiré par les valeurs extrêmes de gris présentes dans l’image. Ces valeurs correspondent à un certain nombre de pixels qui sont des extremums locaux d’intensité de

(35)

gris. La figure 11 met en évidence les différents extremums locaux des trois textures de la figure 10. Nous verrons plus loin ce qu’est exactement un extremum local, néanmoins nous pouvons déjà dire qu’un pixel est un minimum local (respectivement maximum local) si les niveaux de gris de ses voisins sont tous supérieurs (respectivement tous inférieurs) au sien. Dans la figure 11, le voisinage utilisé est composé des 8 voisins d’un pixel. Les minimums locaux sont représentés en noir et les maximums locaux sont en blanc. Il apparaît clairement que cette simple information des extremums locaux permet de mettre en évidence certaines caractéristiques des textures originales. Dans le premier cas, la disposition spatiale des pixels noirs et blancs permet de retrouver la structure directionnelle de départ. L’aspect aléatoire de la troisième texture est caractérisé par le fait qu’il y a un grand nombre de pixels extremums noirs à côté de pixels blancs, répartis sur toute l’image. Il est plus difficile de retrouver la structure de la deuxième texture juste avec l’image des extremums. Par contre, le nombre et la disposition de ces derniers dans l’image permettent de la distinguer totalement des deux autres.

Figure 11 : Trois images associées aux 3 textures de la figure 3 représentant les pixels minima (en noir) et

maxima (en blanc) locaux

Il nous a semblé intéressant d’extraire et de traiter l’information donnée par les extremums de gris pour caractériser une texture. Dans un premier temps, nous présenterons la notion d’extremum voisin. Cette définition va nous permettre de créer deux codages de textures. Ces codages nous serviront, lors des classements, à montrer l’importance des extremums de gris dans la discrimination des textures.

Figure

Figure 7 : Exemple de matrices de cooccurrence construites à partir d’une image 4 × 4 composée de 4 niveaux
Figure 8 : Construction  de la texture par différentes occurrences de  l’objet à des échelles  distinctes
Figure 10 : Trois textures de types différents : la première est de type directionnel, la seconde de type structurel
Figure 11 : Trois images associées aux 3 textures de la figure 3 représentant les pixels minima (en noir) et
+7

Références

Documents relatifs

We develop a quantitative single cell-based mathematical model for multi-cellular tumor spheroids (MCTS) of SK-MES-1 cells, a non-small cell lung cancer (NSCLC) cell line, grow-

In our case, to decompose the image into geometric and texture component, we assume that the geometrical part is given by a partial reconstruction ˜ I of the original image I in

Les taux de classification que nous présentons (tableau 3) sont ceux obtenus suivant chaque type de descripteurs, sur 19 images qui correspondent à celles des tests psycho- visuels

Les taux de classification que nous présentons dans le Tableau 3 sont ceux obtenus suivant chaque type de descripteurs, sur 19 images qui correspondent à celles des tests

Une fois l’information spatiale pertinente identifiée, i.e., les électrodes (comme dans l’exemple ci-dessus), des carac- téristiques peuvent-être extraites du signal de

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des

This study is a textual contrastive analysis of English and Arabic. The focus is on reference as a cohesive device and the shifts that may occur when

many others, that the conjugate gradient and Lanczos methods are two different ways of produc- ing a basis for the same (Krylov) subspace, and while the former is most