• Aucun résultat trouvé

Apport de l'information mutuelle pour la sélection d'attributs et la classification des images hyperspectrales

N/A
N/A
Protected

Academic year: 2021

Partager "Apport de l'information mutuelle pour la sélection d'attributs et la classification des images hyperspectrales"

Copied!
123
0
0

Texte intégral

(1)

UNIVERSITÉ MOHAMMED V

FACULTÉ DES SCIENCES

Rabat

N° d’ordre: 2730

THÈSE DE DOCTORAT

Présentée par :

Elkebir SARHROUNI

Discipline : Sciences de l’ingénieur

Spécialité : Informatique et Télécommunications

Apport de l'information mutuelle pour la sélection

d'attributs et la classification des images

hyperspectrales

Soutenue le 27/09/2014

Devant le jury

Président :

Driss ABOUTAJDINE, PES, FS, UM5, Rabat.

Examinateurs :

Rochdi MESSOUSSI...PES, FS, UIT, Kenitra.

Mohamed EL MARRAKI...PES, FS, UM5, Rabat.

Omar BOUATTANE...PES, ENSET, UH2, Casablanca.

Mohammed EL HASSOUNI...PH, FLSH, UM5, Rabat.

Ahmed HAMMOUCH...PES, ENSET, UM5, Rabat.

Faculté des Sciences, 4 Avenue Ibn Battouta B.P. 1014 RP, Rabat – Maroc Tel +212 (0) 5 37 77 18 34/35/38, Fax : +212 (0) 5 37 77 42 61, http://www.fsr.ac.ma

(2)
(3)

esum´

e

La t´el´ed´etection par imagerie hyperspectrale (HSI) permet de classifier les r´egions cibles et reproduire les cartes th´ematiques. Une HSI contient plus d’une centaine de mesures bidirectionnelles appel´ees bandes (ou simplement des images), de la mˆeme r´egion appel´ee la V´erit´e de terrain (Ground Truth :GT). Les bandes sont prises dans des fr´equences juxtapos´es. Malheureusement, certaines bandes sont re-dondantes, d’autres sont bruyamment mesur´ees, et leur haute dimensionnalit´e font d´ecroitre le taux de classification. La probl´ematique est de trouver le groupe d’attri-buts (images) de dimension r´eduite pour classifier les points de la r´egion. Certaines m´ethodes utilisent l’information mutuelle (IM) et un seuillage pour s´electionner des images pertinentes, sans traitement de redondance ; d’autres m´ethodes contrˆolent et ´eliminent la redondance. Cependant, la r´eduction de dimensionalit´e est trait´ee par fois en tant que s´election d’attributs, d’autre fois en tant que extraction d’at-tributs, sans aucun lien entre les sch´emas utilis´es. Ici, dans un premier temps, nous pr´esentons l’´etat de l’art de la r´eduction de dimensionalit´e, et nous synth´etisons un tableau de bord, qui r´esume toute op´eration de r´eduction de dimensionalit´e. Ce sch´ema g´en´eral permet d’analyser les algorithmes existants, et de synth´etiser d’autres. Dans un deuxi`eme temps, nous introduisons un sch´ema acceptant la re-dondance utile. Une bande contient de l’information redondante utile si elle contri-but `a la production d’une v´erit´e de terrain estim´ee dont la valeur de l’IM avec la GT est importante. Pour contrˆoler la redondance, nous introduisons un seuil compl´ementaire, par quoi la v´erit´e de terrain estim´ee doit augmenter la derni`ere valeur de l’IM avec la GT, pour que la bande test´ee soit retenue. Ce processus est une ”strat´egie filtre”, qui donne de bonne performence avec un faible coˆut de cal-cul. Dans la troisi`eme ´etape , nous notons que d’autres ´etudes utilisent des formes normalis´ees de l’IM, comme l’incertitude sym´etrique, dans des applications d’ima-gerie m´edicale. Donc, nous introduisons un algorithme bas´e ´egalement sur l’IM pour s´electionner les bandes, mais il applique le coefficient d’incertitude sym´etrique pour le contrˆole de la redondance et d’augmenter la pr´ecision de la classification. Cet algorithme est un outil de s´election d’attributs et une ”strat´egie wrapper”. Ensuite, nous utilisons deux autres formes de IM , ils donnent , pratiquement les mˆeme per-formences. Nous concluons sur l’efficacit´e de cette m´ethode pour s´electionner les bandes pertinentes et ´eliminer les bandes redondantes. Dans la quatri`eme ´etape, nous concevons un algorithme bas´e sur l’IM en combinaison avec l’algorithme Du dradient descendantr (”SA : steepest ascent”), afin d’automatiser la s´election les bandes. Cet algorithme est un outil de s´election d’attributs et une strat´egie de wrapper. Ce sh´ema met en relief le cas o`u la d´ecision humaine peut-ˆetre diff´erente de celle d’un algorithme intelligent. Enfin, nous introduisons un nouveau sch´ema utilisant aussi l’IM, mais il ne retient que les bandes minimisant la probabilit´e d’er-reur de classification. Nous contrˆolons la redondance par un seuil compl´ementaire. Ainsi, la bonne bande candidate doit contribuer `a diminuer la derni`ere probabilit´e d’erreur augment´ee par le seuil. Ce processus est une ”strat´egie wrapper”, on obtient de hautes performances de pr´ecision de la classification mais il est plus coˆuteux que la strat´egie filtre. L’´etude est conduite sur l’IHS AVIRIS 92AV3C, et le classifieur

(4)

ii

utilis´e est le SVM .

Mots-clefs :Images Hyperspectrales , Classification, Selection d’attributs, Infor-mation Mutuelle, InforInfor-mation mutuelle normalis´ee, Pertinence d’attributs, Redon-dance d’attributs, Probabilit´e d’erreur, T´el´ed´etection.

(5)

Abstract

Hyperspectral images (HSI) classification is a high method for remote sensing to reproduce different thematic maps . The HSI contains more than a hundred bidirec-tional measures called bands (or simply images), of the same region called Ground Truth (GT). They are taken at juxtaposed frequencies. Unfortunately, some bands are redundant, others are noisily measured, and the high dimensionality of features madkes the classification accuracy poor. The problematic is how to find the good bands to classify the region points. Some methods use Mutual Information (MI) and thresholding, to select only relevant images. Others control and avoid redundancy. But they process the dimensionality reduction, some times as selection, other times as extraction methods without any relationship. Here , we introduce a survey on all schemes used, and we synthesize a dashboard, that helps user to study selection and extraction features. Fristly, We establish this study on HSI AVIRIS 92AV3C, and the classifier used is SVM (Support Voctor Machine). There are some methods to control and eliminate redundancy by selecting the band top ranking the MI, and if its neighbors have sensibly the same MI with the GT, they will be considered redundant and so discarded. This is the most inconvenient of this method, so some precious information can be discarded. In the second method that we introduce, we accept the useful redundancy : a band contains useful redundancy if it contributes to produce an estimated reference map that has a higher MI value with the GT. To control redundancy, we introduce a complementary threshold added to last value of MI. This process is a Filter strategy ; it gets a better performance of classification accuracy and not expensive, but less preferment than wrapper strategy. In the third step, we note that others studies use the MI’s normalized forms, like Symmetric Un-certainty, in medical imagery applications. So we introduce an algorithm based also on MI to select relevant bands and it apply the symmetric uncertainty coefficient to control redundancy and increase the accuracy of classification. This algorithm is a feature selection tool and a wrapper strategy. This is an effectiveness scheme to control redundancy. Then we use two other forms of MI, they give, pratically the same performence. We conclude the effectiveness of this method and algorithm to select the relevant and no redundant bands. In the forth step, we design an algorithm based also on MI combined with steepest ascent algorithm, to improve a symmetric uncertainty coefficient-based strategy, and select relevant bands for classification of HSI. This algorithm is a feature selection tool and a wrapper stra-tegy. In this schema we had to clear the difference of the result’s algorithm and the human decision, and this can be viewed as a case study which human decision is different to an intelligent algorithm. Finally, we introduce a new scheme using also mutual information, but it retains only the bands minimizing the error proba-bility of classification. To control redundancy, also we introduce a complementary threshold. So the good band candidate must contribute to decrease the last error probability augmented by the threshold. This process is a wrapper strategy ; it gets high performance of classification accuracy but it is expensive than filter strategy.

Keyword : Hyperspectral images, Classification, Feature selection, Mutual Infor-mation, Normalized Mutual inforInfor-mation, Relevence, Redundancy, Error Probability, Remote Sensing.

(6)

Avant-propos

Les travaux de recherche effectu´es dans le cadre de cette th`ese ont ´et´e initi´es au sein du Laboratoire de Recherche en Informatique et T´el´ecommunications `

a la Facult´e des Sciences de Rabat, dirig´e par Monsieur le professeur Driss ABOUTAJDINE, qui me fait l’honneur de pr´esider le Jury de cette th`ese.

Je tiens `a exprimer mes sinc`eres remerciements :

Au professeur Driss ABOUTAJDINE, pour son dynamisme, ses comp´etences scientifiques qu’il a mis `a notre servise pendant la pr´eparation de cette th`ese. Qu’il trouve ici le t´emoignage de mon estime et ma profonde reconnaissance pour ses conseils pertinents, ses recommandations pr´ecieuses et son suivi rigoureux, qui m’ont permis de mener `a bien les travaux de cette th`ese.

Au professeur Ahmed HAMMOUCH, mon directeur de th`ese, pour son encadre-ment, son suivi rigoureux, ses recommandations pr´ecieuses, sa patience et ses grandes qualit´es humaines et ´egalement pour sa disponibilit´e tout au long de la r´ealisation de ce travail. Qu’il trouve ici le t´emoignage de mon estime et ma profonde gratitude.

Au professeur Mohammed EL MARRAKI de la Facult´e des Sciences de Rabat-Universit´e Moahammed V qui a sacrifi´e de son temps pertinent pour juger ce travail et d’en ˆetre rapporteur et qui m’a fait l’honneur d’ˆetre parmi les membres du Jury. Qu’il trouve ici le t´emoignage de mon estime et ma profonde reconnaissance. Au professeur Rochdi MESSOUSSI de la Facult´e des Sciences de K´enitra-Universit´e Ibn Tofail qui a consacr´e de son temps pr´ecieux pour ´evaluer ce travail et d’en ˆ

etre rapporteur et qui m’a fait l’honneur d’ˆetre parmi les membres du Jury. Qu’il trouve ici le t´emoignage de mon estime et ma profonde gratitude.

Aau professeur Mohammed EL HASSOUNI de la Facult´e des Lettres de Rabat-Universit´e Moahammed V, pour son examinations fructueuses et ses remarques pr´ecieuses et qui a bien accept´e de faire partie de ce Jury. Qu’il trouve ici le t´emoignage de mon estime et ma profonde reconnaissance.

Au professeur Omar BOUATTANE de l’Ecole Normale Sup´erieur de l’Enseigne-ment Technique de l’Universit´e HassnII, pour son examination frofonde et ses remarques pertinente et qui a bien accept´e d’ˆetre parmi les membres du Jury. Qu’ils trouvent ici le t´emoignage de mon respect et ma sinc`ere gratitude.

Enfin merci `a ceux que je n’ai pas pu citer mais qui ont toutes mes amiti´es et ma reconnaissance.

(7)
(8)

Table des mati`

eres

Resume i

Abstract iii

Avant-propos v

Introduction G´en´erale ix

Chapitre 1 : G´en´eralit´es sur les images hyperspectrales 1

1.1 Introduction `a la t´el´ed´etection. . . 1

1.1.1 D´efinition de l’imagerie hyperspectrale . . . 2

1.1.2 Proc´ed`es d’acquisition des images hyperspectrales . . . 4

1.2 Pr´etraitement des images hyperspectrales . . . 7

1.2.1 Les principales ´etapes de pr´etraitement . . . 7

1.2.2 Exemple d’image hyperspectrale : AVIRIS 92AV3C . . . 8

1.3 Probl´ematiques relatives aux IHS . . . 9

1.4 Conclusion . . . 11

Chapitre 2 : Plateforme g´en´erique de r´eduction de dimensionnalit´e des images hyperspectrales 13 2.1 G´en´eralit´e sur la classification des images hyperspectrales . . . 13

2.1.1 Notion de pertinence des attributs . . . 14

2.2 M´ethodes de r´eduction de dimensionnalit´e . . . 15

2.2.1 Cat´egorisation des m´ethodes de r´eduction de dimensionnalit´e selon le processus de g´en´eration des attributs . . . 15

2.2.2 Cat´egorisation des m´ethodes de r´eduction de dimensionnalit´e selon leur d´ependance de l’´etape de classification . . . 22

2.3 Sch´ema de synth`ese . . . 25

2.4 Conclusion . . . 28

Chapitre 3 : R´eduction de dimensionnalit´e des IHS : strat´egie filtre bas´ee sur l’information mutuelle 29 3.1 Mesure de l’information : rappel th´eorique . . . 29

3.1.1 Propri´et´es de l’iInformation mutuelle . . . 31

3.1.2 Utilisation de l’IM pour la s´election d’attributs . . . 32

3.2 Algorithme propos´e. . . 34

(9)

viii Table des mati`eres

3.2.2 Algorithme . . . 35

3.3 R´esultats . . . 36

3.3.1 Commentaires . . . 36

3.3.2 Sch´ematisation de l’algorithme propos´e . . . 37

3.4 Conclusion . . . 40

Chapitre 4 : S´election d’attributs utilisant l’information mutuelle nor-mali´ee 41 4.1 Rappel sur la forme normals´ee de l’IM . . . 41

4.2 Principales formes de l’IM normalis´ee (IMN) . . . 42

4.2.1 Premi`ere forme de l’IM normalis´ee . . . 42

4.2.2 Deuxi`eme forme de l’IM normalis´ee. . . 42

4.2.3 Troisi`eme forme de l’IM normalis´ee . . . 43

4.3 Principe de la m´ethode propos´ee . . . 43

4.3.1 S´election des bandes pertinentes . . . 44

4.3.2 D´etection des bandes redondantes . . . 45

4.3.3 Algorithme propos´e . . . 47

4.4 R´esultats . . . 49

4.4.1 Application sur l’IHS AVIRIS 92AV3C . . . 49

4.4.2 Discussions . . . 50

4.4.3 Sch´ematisation de l’algorithme propos´e . . . 52

4.5 Conclusion . . . 54

Chapitre 5 : S´election d’attributs bas´ee sur l’IM et le gradient ascen-dant 55 5.1 Principe des m´ethodes du gradient . . . 55

5.2 Algorithme ”steepest ascent” propos´e . . . 57

5.2.1 R`egles de d´eplacement . . . 57

5.2.2 Les maxima locaux . . . 58

5.2.3 Algorithme propos´e . . . 58

5.3 R´esultats . . . 58

5.3.1 Discussions . . . 64

5.3.2 Sch´ematisation de l’algorithme propos´e . . . 64

5.4 Conclusion . . . 66

Chapitre 6 : Strat´egie wrapper bas´ee sur l’IM en minimisant l’erreur de probabili´e 67 6.1 Contexte de l’utilisation du th´eor`eme de Fano . . . 67

(10)

Table des mati`eres ix

6.1.2 Expression de l’intervalle de Fano. . . 69

6.2 Principe de l’algorithme bas´e sur l’in´egalit´e de Fano . . . 71

6.2.1 Description de la m´ethode propos´ee . . . 72

6.2.2 Algorithme minimisant l’intevalle de Fano . . . 72

6.3 R´esultats et analyse . . . 73

6.3.1 R´esultats . . . 73

6.3.2 Analyses. . . 73

6.3.3 Sch´ematisation de l’algorithme propos´e . . . 76

6.4 Conclusion . . . 79

Chapitre 7 : Conclusion g´en´erale 81

Liste des Abr´eviations 85

Annexe : Contributions de l’Auteur 87

(11)
(12)

Liste des tableaux

1.1 Comparaison num´erique des domaines Multispectral, Hyperspectral

et Ultra spectral. . . 3

3.1 IM de la VT avec les bandes synth´etiques, et leurs taux de classification 34

3.2 R´esultas illustrant l’´elimination de la redondance avec l’algorithme 1 ; pour diff´erents seuils (T h) . . . 37

4.1 Le coefficient d’incertitude sym´etrique des bandes synth´etiques

pertinentes- premi`ere forme. . . 46

4.2 IM normali´ee sym´etrique des bandes synth´etiques

pertinentes-deuxi`eme forme. . . 46

4.3 IM normali´ee asym´etrique des bandes synth´etiques

pertinentes-trois`eme forme. . . 47

4.4 Taux de calssification en fonction des couples de seuils (TH,IM), et

les nombres des bandes retenues correspondant- premi`ere forme. . . 49

4.5 Taux de calssification en fonction des couples de seuils (TH,IM), et

les nombres des bandes retenues correspondant-deuxi`eme forme. . . 50

4.6 Taux de calssification en fonction des couples de seuils (TH,IM), et

les nombres des bandes retenues correspondant-trois`eme forme. . . . 51

5.1 Evolution des trajectoire sur l’espace des couples du coefficent d’in-certitude sym´etrique, [Sarhrouni 2013b]. . . 60

5.2 Les transitions de la premi`ere trajectoire avec les op´erateurs mis en oeuvre, [Sarhrouni 2013b]. . . 61

5.3 les transitions de la deuxi`eme trajectoire avec les op´erateurs mis en oeuvre, [Sarhrouni 2013b]. . . 62

5.4 Les transitions de la trois`eme trajectoire avec les op´erateurs mis en oeuvre, [Sarhrouni 2013b]. . . 63

6.1 R´esultats illustrant l’´elimination de la redondance en utilisant l’al-gorithme bas´e sur l’in´egalit´e de Fano, pour des seuils (T h) . . . 74

(13)
(14)

Table des figures

1.1 Spectre ´electromagn´etique [Itten 2008] . . . 2

1.2 Concept de l’imagerie spectroscopique [Itten 2008] . . . 3

1.3 Sch´ematisation des diff´erences entre les IHS, les IMS et les images monochrome. . . 4

1.4 Exemple de l’IMS et de l’IHS [Geomatics 2004]. . . 4

1.5 Une vue d’ensemble conceptuelle d’un syst`eme d’information bas´e sur la t´el´ed´etection [Landgrebe 2000] . . . 5

1.6 Sch´ema de principe du mod`ele de syst`eme de t´el´ed´etection [Kerekes 2003]. . . 5

1.7 La g´en´eration d’un cube d’image en utilisant un capteur hyperspec-tral a´eroport´e [Report 2008] . . . 6

1.8 Processus d’acquisition de l’image hyperspecrale AVIRIS 92AV3C [Gomez 2009] . . . 7

1.9 Les Niveaux d’´etude des IHS [Report 2008] . . . 7

1.10 Le cube 3D des donn´ees de Indian Pine : AVIRIS 92AV3C . . . 8

1.11 Exemple de bandes d’IHS AVIRIS 92AV3C [Pakorn 2005] . . . 9

1.12 La distribution non uniforme de l’informations dans les IHS.. . . 10

2.1 Processus de s´election d’attributs avec validation [Dash 1997] . . . . 16

2.2 Processus d’extraction d’attributs , le feedback correspond `a la re-cherche it´erative [Raymer 2000] . . . 17

2.3 Sch´ema de la g´en´eration des attributs, [Sarhrouni 2013a] . . . 18

2.4 R´eduction de dimensionnalit´e en quatre ´etapes, [Sarhrouni 2013a]. . 19

2.5 Les Cat´egories de fonctions d’´evaluation selon Ben-Bassat, [Ben-Bassat 1982]) . . . 21

2.6 Les Cat´egories de fonctions d’´evaluation, Doak [Doak 1992]) . . . 21

2.7 Le mod`eel filtre dans lequel les attributs sont filtr´es ind´ependement de l’algorithme d’induction selon George [George 1994] . . . 23

2.8 Dans le mod`ele wrapper, l’algorithme d’induction est utilis´e comme boˆıte noire par l’algorithme de s´election [George 1994]. . . 23

2.9 Principe du sch´ema mixte filtre-wrapper, [Sarhrouni 2013a] . . . 25

2.10 Interaction du mod`ele mixte propos´e avec les mesures d’´evaluation, [Sarhrouni 2013a] . . . 26

2.11 Tableau de bord propos´e pour l’analyse et la synth`ese des algorithmes de r´eduction de dimensionnalit´e, [Sarhrouni 2013a] . . . 27

(15)

xiv Table des figures

3.1 Diagramme de Venn . . . 30

3.2 L’analyse de la m´ethode pr´esent´ee par Guo. [Guo 2006] . . . 32

3.3 L’algorirhme MIFS [Kwak 1999] . . . 33

3.4 Trois bandes synth´etis´ees pour illustrer le principe de l’algorithme .1 34

3.5 Sch´ema de r´eduction de dimensionnalit´e correspondant a l’algorithme 1.. . . 39

4.1 Illustration de L’Incertitude Sym´etrique . . . 43

4.2 Les bandes synth´etiques utilis´ees pour l’´etude.. . . 44

4.3 Information Mutuelle de la VT et des bandes synth´etiques,

[Sarhrouni 2012a,Sarhrouni 2014,Sarhrouni 2012b]. . . 45

4.4 La classification de la r´egion Indiana Pine [Landgrebe 1998] ave l’al-gorithme .2, [Sarhrouni 2012a,Sarhrouni 2014,Sarhrouni 2012b] . . 52

4.5 Sch´ema de r´eduction de dimensionnalit´e correspondant a l’algorithme 2.. . . 53

5.1 Demi-espace (translat´e) des directions de mont´ee d de f en x. . . 56

5.2 Sch´ema de r´eduction de dimensionnalit´e correspondant a l’algorithme 4 [Sarhrouni 2013b]. . . 65

6.1 La notion du Pixel-Vecteur . . . 68

6.2 Information Mutuelle de AVIRIS 92AV3C avec la VT (trait continu)

et avec la v´erit´e de terrain approxim´e par la moyenne des bandes 170 `

a 210 (trait interrompu), [Sarhrouni 2012e,Sarhrouni 2012c]. . . 68

6.3 Taux de classification en utilisant l’algorithme bas´e sur l’in´egalit´e de Fano, pour plusieurs seuils . . . 75

6.4 Reconstruction de la v´erit´e de terrain (VT). . . 75

6.5 Sch´ema de r´eduction de dimensionnalit´e correspondant a l’algorithme 5.. . . 78

(16)

Introduction g´

en´

erale

Contexte g´

en´

eral

Aujourd’hui, nous assistons `a des progr`es consid´erables dans le domaine de la t´el´ed´etection, notamment dans la technologie des capteurs hyperspectraux pour l’acquisition des donn´ees et au niveau des techniques d’analyse et de traitement de ces donn´ees. La gamme des disciplines qui peuvent utiliser cette technologie ne cesse d’augmenter [Pontius 2008].

La t´el´ed´etection par imagerie hyperspectrale consiste `a acqu´erir des images dans plusieurs centaines de bandes spectrales contig¨ues et identiquement g´eor´ef´erenc´ees. Elle est li´ee `a la fois `a l’´etude de, l’intensit´e du pixel, l’interd´ependance des pixels [Clark 1995] et la r´eflectance d’un pixel selon la longueur d’onde intercept´ee par les capteurs [Schatzman 1963,Kruse 2000].

L’analyse d’une image hyperspectrale (IHS) a toujours comme but une in-terpr´etation, et est donc sous-jacente `a la r´esolution d’un probl`eme de classifica-tion et/ou de reconnaissance de formes. Le processus de classificaclassifica-tion est une ´etape importante. Il consiste, dans le cas d’une image classique, `a grouper les objets en classes de mˆeme type et ´eventuellement de d´efinir ces classes d’appartenance. Dans le cas des images hyperspectrales la classification doit fournir une carte indiquant par exemple les ´etendues d’eau, les forˆets, les zones cultiv´ees, les zones urbaines, le r´eseau routier, etc. En d’autres termes, elle permet d’´etablir des cartes th´ematiques de l’occupation terrestre.

Probl´

ematique

La classification des images hyperspectrales est une proc´edure complexe et dif-ficile `a cause de leurs dimensionnalit´es importantes. On assiste ainsi, au probl`eme de ”la mal´ediction de dimensionnalit´e” [Huges 1968]. D’autre part, les bandes adjacentes sont fortement corr´el´ees et de ce fait, elles sont redondantes. La r´eduction de dimensionnalit´e est donc une n´ecessit´e. Il existe plusieurs m´ethodes de r´eduction de dimensionnalit´e et de classification des images hyperspectrales bas´ees sur des approches statistiques [Hyv¨arinen 2000,Mura 2011], les algorithmes g´en´etiques [Jamshidpour 2010,Hand 2001,Raymer 2000,Kudo 2000], les m´ethodes de gradient [Serpico 2001, Ughade 2011, Mir´o , Demir 2008], la discrimination par le maximum d’entropie [Jebara 2000, Novovicova 2004] etc. En 2006, Guo a initi´e l’utilisation de l’information mutuelle (IM) pour la classification des IHS [Guo 2006, Guo 2008, Sotoca 2006]. Il a utilis´e une approche filtre bas´ee sur l’IM

(17)

2 Introduction g´en´erale

pour s´electionner les bandes pertinentes et ´eliminer celles redondantes. Les r´esultats obtenus ´etaient prometteurs comparativement aux m´ethodes classiques. Cepen-dant, les performances restent encore limit´ees et le nombre de bandes s´electionn´ees est relativement ´elev´e. Ceci est dˆu aux inconv´enients li´es aux approches filtre [George 1994]. Dans le cadre de cette th`ese, nous nous sommes int´eress´es `a la strat´egie wrapper bas´ee sur l’information mutuelle conjugu´ee `a des mesures des probabilit´es d’erreurs de classification pour la s´election des bandes les plus perti-nentes.

Objectif

L’objectif g´en´eral de cette th`ese est d’´evaluer l’apport de l’information mutuelle, selon diverses strat´egies, pour la r´eduction de dimensionnalit´e et la classification des images hyperspectrales, afin de reproduire les cartes th´ematiques. Il s’agit de propo-ser des m´ethodes originales de r´eduction de dimensionnalit´e par s´election de bandes, en utilisant l’information mutuelle suivie d’une classification proprement dite. Le classifieur utilis´e est le SVM. L’application est faite sur l’IHS AVIRIS 92AV3C [Landgrebe 1998]. L’objectif vis´e ´etant d’´evaluer l’efficacit´e de ces approches pour une exploitation cartographique automatis´ee.

Principales contributions

Cinq principales contributions ont ´et´e apport´ees dans ce travail dont les r´esultats ont ´et´e publi´es dans des conf´erences et des journaux internationaux.

La premi`ere contribution consistait en une synth`ese d’un nouveau sch´ema comme tableau de bord pour analyser et synth´etiser les algorithmes de r´eduction de dimensionnalit´e [Sarhrouni 2013a]. Celui-ci comprend plusieurs ´etapes `a savoir ; la g´en´eration d’attribut, l’´evaluation, le test d’arrˆet et la validation. Dans notre contribution, l’´etape g´en´eration d´esigne la s´election ou l’extraction ou une combi-naison des deux. Notre sch´ema nous a permis de relever l’existence d’un spectre de m´ethodes entre la strat´egie filtre proprement dite (que nous d´esignons par filtre pur) et celle wrapper proprement dite (que nous d´esignons par wrapper pur) et ceci grˆace `a l’´etude de la d´ependance de l’´etape d’´evaluation vis-`a-vis de l’´etape de validation,

La deuxi`eme contribution concerne l’´evaluation des performances d’un sch´ema type filtre [Sarhrouni 2012d]. Dans cette contribution, nous avons utilis´e le regroupement des bandes des IHS par moyenage comme approximation de la v´erit´e de terrain. Ainsi les bandes sont ordonn´ees selon leur information mutuelle

(18)

Introduction g´en´erale 3

avec la v´erit´e de terrain. Une bande est retenue si elle permet d’augmenter d’un seuil l’information mutuelle de la v´erit´e de terrain estim´e avec la v´erit´e de terrain originale. L’ensemble des bandes retenues sont envoy´es au classifieur SVM pour produire la carte th´ematique. Cette ´etude nous a permis de v´erifier le faible coˆut de calcul de ce type de strat´egie et ses performances limit´ees.

La troisi`eme contribution concerne un algorithme qui traite s´epar´ement la pertinence et la redondance [Sarhrouni 2012a,Sarhrouni 2012b]. La pertinence est mesur´ee par seuillage de l’information mutuelle des bandes. La redondance est mesur´ee en utilisant l’information mutuelle normalis´ee (le coefficient d’incertitude sym´etrique) inter-bandes. Ainsi, pour un couple de seuils (seuil de pertinence, seuil de redondance) cet algorithme g´en`ere un nombre de bandes associ´ees `a un taux de classification. C’est un sch´ema wrapper qui produit des r´esultats tr`es int´eressants pour la classification des donn´ees d’AVIRIS 92AV3C. Cependant, le choix de la solution est subjectif. Cette contribution a ´et´e compl´et´ee par une ´etude comparative portant sur les diff´erentes formes de l’information mutuelle normalis´ee. Nous avons trait´e principalement deux formes du coefficient d’incertitude sym´etrique et la normalisation par l’entropie. Ceci nous a permis de conclure l’int´erˆet des formes sym´etriques en termes de coˆut de calcul [Sarhrouni 2014].

La quatri`eme contribution repose sur les r´esultats de la troisi`eme contribution, et permet de pallier au probl`eme de subjectivit´e du choix de la solution. Ce qui nous am`ene a automatis´e cette tˆache avec une strat´egie ”Steepest Ascent” et une base de r`egles de d´eplacement d’une solution `a l’autre [Sarhrouni 2013b]. Partant d’un couple de seuil pertinence-redondance pris al´eatoirement, l’algo-rithme calcul le gain du taux de classification par rapport au nombre de bandes n´ecessaires, et applique l’op´erateur correspondant issu de la base de r`egle. L’al-gorithme doit ˆetre appel´e plusieurs fois pour pallier au probl`eme de maxima locaux.

La cinqui`eme contribution est un sch´ema wrapper utilsant l’information mutuelle et contrˆolant l’intervalle de probabilit´e d’erreur mesur´e par l’in´egalit´e de Fano [Sarhrouni 2012e, Sarhrouni 2012c]. Les bandes sont ordonn´ees selon leur information mutuelle avec la v´erit´e de terrain. Une bande int`egre l’ensemble de solutions si elle permet de diminuer l’intervalle de Fano (probabilit´e d’erreur) calcul´e entre la v´erit´e de terrain et la carte th´ematique reproduite avec le classi-fieur de validation (SVM). C’est un sch´ema wrapper coˆuteux en temps de calcul, mais il est important pour les applications qui demandent des performances ´elev´ees.

(19)

4 Introduction g´en´erale

Organisation de la th`

ese

La suite de ce m´emoire est structur´ee en six chapitres plus une conclusion g´en´erale. Dans le premier chapitre, nous donnons un aper¸cu sur l’acquisition des images hyperspectrales et nous pr´esentons un ´etat de l’art des m´ethodes disponibles pour leurs traitements. Nous nous int´eressons plus particuli`erement aux m´ethodes de classification des IHS et aux probl´ematiques li´ees principalement `a leur dimension-nalit´e ´elev´ee.

Dans le deuxi`eme chapitre, nous abordons la probl´ematique de r´eduction de dimensionnalit´e d’une mani`ere g´en´erale, les diff´erentes approches, les mesures et les sch´emas utilis´es. Nous ´etudierons les principales approches existantes dans ce contexte, puis nous synth´etisons un nouveau sch´ema comme tableau de bord pour analyser et synth´etiser les algorithmes de r´eduction de dimensionnalit´e.

Le troisi`eme chapitre, s’int´eresse `a la mesure de l’information pour d´evelopper des algorithmes de r´eduction de dimensionnalit´e appliqu´es aux images hyperspec-trales. Dans ce sens, il pr´esente une approche filtre utilisant l’information mutuelle puis discute les limitations de ce type de m´ethodes.

Dans le quatri`eme chapitre, nous introduisons des m´ethodes heuristiques utilisant des formes particuli`eres de l’information mutuelle : l’information mutuelle normalis´ee. Nous impl´ementons un algorithme qui traite s´epar´ement la redondance et la pertinence des bandes des images hyperspectrales. Cette approche, de type wrapper, a ´et´e test´ee `a travers des exemples synth´etiques et r´eels. C’est une m´ethode performante, mais le choix des solutions reste subjectif.

Pour pallier `a ce probl`eme, nous avons propos´e, dans le cinqui`eme chapitre, un algorithme bas´e sur le gradient ascendant, qui permet la s´election des attributs de fa¸con automatique en nous basant sur la pertinence d’un d´eplacement d’une solution `a l’autre.

Le sixi`eme chapitre est d´edi´e `a la pr´esentation d’un algorithme de type wrapper, qui r´ealise la s´election en minimisant la probabilit´e d’erreur. Cette m´ethode utilise l’in´egalit´e de Fano pour produire un intervalle d’erreur `a minimiser. Un attribut sera retenu s’il contribue `a minimiser cet intervalle.

(20)

Introduction g´en´erale 5

des approches d´evelopp´ees et propose ´egalement des perspectives et des pistes de recherche pour continuer les travaux entrepris.

(21)
(22)

Chapitre 1

en´

eralit´

es sur les images

hyperspectrales

Sommaire

1.1 Introduction `a la t´el´ed´etection . . . 1 1.1.1 D´efinition de l’imagerie hyperspectrale . . . 2 1.1.2 Proc´ed`es d’acquisition des images hyperspectrales . . . 4

1.2 Pr´etraitement des images hyperspectrales . . . 7

1.2.1 Les principales ´etapes de pr´etraitement . . . 7 1.2.2 Exemple d’image hyperspectrale : AVIRIS 92AV3C. . . 8 1.3 Probl´ematiques relatives aux IHS . . . 9 1.4 Conclusion . . . 11

Aujourd’hui nous assistons `a des progr`es importants dans le domaine de la t´el´ed´etection, notamment dans la technologie des capteurs hyperspectraux pour l’acquisition des donn´ees. Des progr`es on t´et´e r´ealis´es, ´egalement, au niveau des techniques d’analyse de ces donn´ees. La gamme de disciplines utilisant cette tech-nologie ne cesse d’augmenter [Pontius 2008].

Dans ce chapitre nous nous int´eressons, successivement, aux atouts de cette technologie, `a la d´efinition des images hyperspectrales, leurs proc´ed´es d’acquisition ainsi que leurs pr´etraitements. Nous verrons ´egalement les probl´ematiques, li´ees `a son utilisation, dues principalement `a la dimensionnalit´e importante de ces images acquises.

1.1

Introduction `

a la t´

el´

ed´

etection

La t´el´ed´etection est r´ealis´ee par l’examen des caract´eristiques d’une cible, observ´ees dans plusieurs r´egions du spectre ´electromagn´etique. La transmission atmosph´erique du rayonnement ´electromagn´etique est particuli`erement ´elev´ee dans les domaines du visible (400 nm `a 700 nm ), proche infrarouge (700 nm `a 1300 nm ) et les ondes courtes infrarouges (1300 nm `a 3000 nm). Le soleil est, biensˆur la source principale de ces radiations. Le maximum de rayonnement solaire se trouve entre 400 nm et 500 nm. D’autres domaines sont fr´equemment utilis´es en

(23)

2 Chapitre 1. G´en´eralit´es sur les images hyperspectrales

t´el´ed´etection, mais pour la plupart des applications en imagerie spectroscopique seulement ces trois domaines sont int´eressants, figure1.1.

Le principe de la t´el´ed´etection repose sur le constat que la surface terrestre, et

Figure 1.1 – Spectre ´electromagn´etique [Itten 2008]

les objets y se trouvant, r´eagissent diff´erement `a la radiation du soleil, selon le type des mat´eriaux et leurs conditions physiques (humidit´e etc.). Les plantes par exemple pr´esentent diff´erentes caract´eristiques spectrales dans le visible et le proche infrarouge. Les min´eraux se distinguent principalement dans la gamme des ondes courtes infrarouges .

1.1.1 D´efinition de l’imagerie hyperspectrale

Une d´efinition g´en´erique de l’IHS a ´et´e formul´ee par Kruse [Kruse 2000] : ”L’ima-gerie hyperspectrale consiste `a acqu´erir des spectres pour tous les pixels d’une image, o`u un spectre est une mesure contigue d’une distribution de longueur d’onde, avec une r´esolution suffisante pour r´esoudre la variabilit´e naturelle du syst`eme d’int´erˆet”. Le sch´ema de la figure1.2indique le principe de l’imagerie spectroscopique.

Chang [Chang 2007] distingue trois principales caract´eristiques pour s´eparer les IHS des images multispectrales (l’image couleur (RVB) est un cas particulier d’image multispectrale (IMS)) :

(24)

1.1. Introduction `a la t´el´ed´etection 3

Figure 1.2 – Concept de l’imagerie spectroscopique [Itten 2008]

1. Le nombre des bandes des IHS est de l’orde des centaines, tandis que celui des images multispectrales est de trois (image RVB) `a une dizaine ;

2. La r´esolution spectrale (longueur d’onde centrale divis´ee par la largeur de la bande spectrale) est de l’orde de 100 contre une dizaine pour les images multispectrales (la r´esolution des IHS est de 5 `a10 nm, par exemple celle de AVIRIS 92AV3C [Landgrebe 1998] est 8 nm et la bande 100 a une largeur [1.3075-1.3172 µm] [Pakorn 2005] ) ;

3. Les bandes sont r´eguli`erement espac´ees et quasi-continues , mais les bandes des images multispectrales sont irr´eguli`erement espac´ees et de largeurs vari´ees. La figure 1.3et le tableau 1.1r´esument ces diff´erences.

Table 1.1 – Comparaison num´erique des domaines Multispectral, Hyperspectral et Ultra spectral.

Nous soulignons ici la richesse des IHS en terme de d´etails d’information relative `a chaque pixel, et la possibilit´e de discrimination des substances de la sc`ene. La figure

(25)

4 Chapitre 1. G´en´eralit´es sur les images hyperspectrales

Figure 1.3 – Sch´ematisation des diff´erences entre les IHS, les IMS et les images monochrome.

Figure 1.4 – Exemple de l’IMS et de l’IHS [Geomatics 2004].

Dans cette figure, l’image multispectrale Landsat ETM, dispose de 3 bandes dans la r´egion visible du spectre tandis que HSI (AVRIS) dispose de 28 bandes contigu¨es `a peu pr`es dans la mˆeme r´egion du spectre .

les donn´ees hyperspectrales permettent la construction de mod`eles statistiques plus robustes, que la repr´esentation des couleurs tri-chromatique : on peut identifier un sous-ensemble de bandes originales pour une tˆache donn´ee. Ainssi elles permettent l’´etude spectrale des substances non min´erales, d’une fa¸con qui ne peut pas ˆetre faite par des proc´edures d’imagerie RVB classiques en raison de leurs similitudes de couleur, de poids et de forme [Pic´on 2009,Ahmad 2011,Goetz 1985].

Enfin, on peut conclure que selon le besoin et l’application, on peut consid´erer une image hyperspectrale comme un ensemble d’images ou un ensemble de spectres.

1.1.2 Proc´ed`es d’acquisition des images hyperspectrales

Habituellement, le plus utilis´e comme source d’illumination est le soleil : ce qui correspond au syst`emes de t´el´edetection passifs. Les capteurs mesurent la lumi`ere r´efl´echie (ou l’´energie ´emise) `a partir des zones d’int´erˆet. Les donn´ees sont enfin

(26)

1.1. Introduction `a la t´el´ed´etection 5

transmises vers la terre pour l’analyse manuelle (par des expert) ou automatique. Il est parfois int´eressant de fusionner des donn´ees auxiliaires et de l’expertise humaine avec le flux de donn´ees [Kerekes 2003, Landgrebe 2000], dans une vue d’ensemble du syst`eme de t´el´ed´etection complet, voir figure1.6et figure 1.5.

Figure 1.5 – Une vue d’ensemble conceptuelle d’un syst`eme d’information bas´e sur la t´el´ed´etection [Landgrebe 2000]

Figure 1.6 – Sch´ema de principe du mod`ele de syst`eme de t´el´ed´etection [Kerekes 2003].

Dans cette figure, Les classes, tels que des arbres ou des routes, peuvent ˆetre repr´esent´ees par des statistiques spectrales de premier et de second ordre.

De point de vue technique, deux approches sont utilis´ees pour l’aquisition des images hyperspectrales [Polder 2001]. La premi`ere consiste `a acqu´erir une s´equence d’images `a diff´erentes longueurs d’onde (staring system), en utilisant des filtres variables positionn´es devant une cam´era matricielle, comme l’indique la figure 1.7.

(27)

6 Chapitre 1. G´en´eralit´es sur les images hyperspectrales

La deuxi`eme approche consiste `a acqu´erir une s´equence d’images, lignes par linges, tel que pour chaque pixel d’une ligne, un spectre complet est mesur´e (approche push-broom). Une dimension permet d’enregistrer l’information spatiale et l’autre la dimension spectrale. La dimension spatiale est acquise par d´eplacement relatif du capteur par rapport `a l’objet, voir figures1.8.

Figure 1.7 – La g´en´eration d’un cube d’image en utilisant un capteur hyperspectral a´eroport´e [Report 2008]

Notons que dans la lit´erature, on peut citer la distinction de deux zones d’apprˆoches des IHS : cot´e fournisseur, et cot´e utilisateur [Report 2008] , comme l’indique le pro-jet europ´een ”Hyperspectral Remote Sensing in Europe Specific Support Action”, figure 1.9.

1. Le premier cˆot´e, relatif aux fournisseurs de donn´ees, permet de livrer une information de qualit´e avec toutes les corrections n´ecessaires : correction ra-diom´etrique, correction g´eom´etrique, correction atmosph´erique et ´evaluation objective de la qualit´e des donn´ees.

2. Le second espace, relatif aux utilisateurs, permet d’extraire les informations pertinentes. Il s’agit particuli`erement des m´ethodes de transformation de donn´ees, de s´election d’attributs, de d´eveloppement des librairies spectrales ainsi que des algorithmes de classification et de d´etection de formes.

(28)

1.2. Pr´etraitement des images hyperspectrales 7

Figure 1.8 – Processus d’acquisition de l’image hyperspecrale AVIRIS 92AV3C [Gomez 2009]

Figure 1.9 – Les Niveaux d’´etude des IHS [Report 2008]

1.2

Pr´

etraitement des images hyperspectrales

1.2.1 Les principales ´etapes de pr´etraitement

Le pr´etraitement de l’image hyperspectrale comprend quatre ´etapes :

1. L’´etalonnage de l’image en ce qui concerne le bruit du capteur : celui-ci varie avec les conditions m´et´eorologiques [Green 1998].

2. La correction de la distorsion g´eom´etrique caus´ee par le mouvement de la plate-forme en vertu de diff´erentes perturbations atmosph´eriques.

3. La geo-registration de l’image en utilisant une m´ethode de triangulation avec r´e-´echantillonnage bilin´eaire [Bajwa 2004].

Aussi faut-il tenir compte de la r´ealit´e du terrain qui n’est pas seulement complexe mais aussi dynamique : la reflectance d’un point de la v´erit´e de terrain n’est pas tr`es

(29)

8 Chapitre 1. G´en´eralit´es sur les images hyperspectrales

stable. Elle ´evolue dans le temps selon les saisons, d’o`u la n´ec´essit´e d’une correction ad´equate des donn´ees.

1.2.2 Exemple d’image hyperspectrale : AVIRIS 92AV3C

La NASA utilise maintenant l’instrument ”Airborne Visual and Infra-Red Ima-ging Spectrometer” (AVIRIS). AVIRIS acquiert des donn´ees dans le domaine spectral de 0,4 `a 2,45 microns (exemple : la bande 100 a une largeur [1.3075-1.3172 µm]) de 224 canaux spectraux, dont 4 bandes ne contiennent que des z´eros. L’appareil est port´e dans un avion ER-2 (un U-2 avion espion modifi´e) `

a 19.800 m`etres (65.000 pieds). La r´esolution au sol est de 20 m`etres, avec un meilleur facteur signal-sur-bruit. Les donn´ees-cube de l’image hyperspectrale uti-lis´ees dans les exp´eriences dans cette th`ese sont acquises `a partir du capteur AVI-RIS (AVIAVI-RIS 92AV3C), et elles ont ´et´e recueillies sur un site d’essai appel´e Indiana Pine dans le nord-ouest d’Indiana [Landgrebe 1998]. Elles sont disponibles dans (ftp ://ftp.ecn.purdue.edu/biehl/MultiSpec/92AV3C).

Figure 1.10 – Le cube 3D des donn´ees de Indian Pine : AVIRIS 92AV3C L’une des bandes de cette image est repr´esent´ee sur la figure 1.11. Chaque image est de taille 145x145 pixels. Les deux tiers de la sc`ene sont couverts de terres agricoles et un tiers est couvert de forˆets et d’autres. Deux voies principales (autoroute double), une petite route, une voie ferr´ee, le logement `a faible densit´e, et d’autres structures de construction peuvent aussi ˆetre vus dans la sc`ene. La base de donn´ees est accompagn´ee d’une carte de r´ef´erence, de sorte que 49% des pixels sont ´etiquet´es comme appartenant `a l’une des 16 classes de v´eg´etation, nous disposons,donc, d’une v´erit´e de terrain partiellelle, voir figure 1.10, [Pakorn 2005], [Pakorn 2005], [Hwang 2009].

(30)

1.3. Probl´ematiques relatives aux IHS 9

Figure 1.11 – Exemple de bandes d’IHS AVIRIS 92AV3C [Pakorn 2005]

que nous avons extraites de l’IHS AVIRIS 92AV3C. L’axe des abssices indique le nombre de bandes spectrales (1-220), et l’axe des ordonn´ees repr´esente la valeur du pixel selon les diff´erentes longueurs d’ondes (bandes). Un chevauchement impor-tant entre deux classes se produit dans certaines bandes en raison de la similitude naturelle et la variabilit´e de la r´eflectance spectrale : la classe ’9’ par exemple est pr`esque ”noy´ee” dans les deux autres. Pour les s´eparer, nous devons tenir compte de leurs caract´eristiques statistiques, telles que les moyennes figure 1.12 (b) et les ´

ecarts types figure1.12(c) pour chaque bande spectrale. Si nous ignorons les statis-tiques de deuxi`eme ordre ou d’ordre sup´erieur (c’est `a dire en utilisant uniquement la diff´erence entre les moyennes des deux classes), les trois classes semblent ˆetre plus s´eparables dans les bandes 20-25, 70-75, et 120-140. En consid´erant les autres bandes, tel que la gamme 60-65, ces classes se chevauchent largement.

1.3

Probl´

ematiques relatives aux IHS

L’augmentation du nombre de bandes spectrales, dans l’imagerie hyperspectral, permet a priori d’augmenter la s´eparabilit´e entre les classes. Cependant trop de bandes et une grande quantit´e de donn´ees entraˆınent, non seulement, des difficult´es de stockage de donn´ees et de transmission, mais aussi de nouveaux d´efis en mati`ere de technologie de traitement d’image hyperspectrale ; en particulier la reconnais-sance de formes et la classification th´ematique [Simin 2009]. Nous notons aussi que la pr´ecision de l’estimation statistique, diminue avec la dimension de l’espace conduisant de ce fait `a des r´esultats de classification m´ediocres (la mal´ediction de la dimensionnalit´e) [Huges 1968]. Un autre ph´enom`ene tr`es connu en imagerie

(31)

hyper-10 Chapitre 1. G´en´eralit´es sur les images hyperspectrales

Figure 1.12 – La distribution non uniforme de l’informations dans les IHS. Dans cette figure (a) Les r´eponses spectrales pour trois classes ”16”, ”14” et ”9” de v´eg´etation dans AVIRIS 92AV3C. Les caract´eristiques statistiques de la r´eflectance spectrale des valeurs dans chaque bande spectrale : (b) les moyennes, (c) les ´ ecarts-types.

spectral est la distribution non uniforme des informations discriminatoires dans des bandes spectrales diff´erentes. Ainsi une large redondance d’informations est rep´er´ee

(32)

1.4. Conclusion 11

entre bandes spectrales adjacentes et un manque f’information existe dans d’autre r´egions spectrales. Ceci soul`eve la question de pertinence-redondance des attributs (bandes).

La r´eduction de la dimensionnalit´e des IHS devient alors un pr´etraitement in´evitable pour la classification des images hyperspectrales [Huang 2009]. Ce pr´etraitement englobe aussi bien les techniques d’extraction de donn´ees que la s´election d’attributs proprement dite. R´eduire efficacement la quantit´e de donn´ees ou s´electionner les bandes pertinentes associ´ees `a une application particuli`ere est une tˆache prioritaire pour l’analyse d’images hyperspectrales [Hwang 2009]. Cepen-dant, les approches d’identification des attributs des images hyperspectrales ne sont pas satisfaisantes dans la majorit´e des cas.

1.4

Conclusion

Dans ce chapitre, nous avons pr´esent´e les images hyperspectrales et leurs propri´et´es dans le cadre de classification de sc`enes complexes. C’est une tech-nologie riche en terme d’applications pluridisciplinaires. Mais elle pr´esente des probl´ematiques li´ees `a l’acquisition et au traitement des images.

Dans le cadre de cette th`ese, nous nous int´eressons plus particuli`erement `a l’as-pect traitement de donn´ees. Deux probl´ematiques sont trait´ees : comment ´eliminer la redondance des bandes (attributs) et comment s´electionner ou extraire les bandes pertinentes. Notre objectif de la th`ese est de proposer des approches permettant en particulier, de traiter la r´eduction de dimensionnalit´e des images hyperspectrales par s´election d’attributs utilisant l’information mutuelle, et en tenant compte du compromis redondance-pertinence.

(33)
(34)

Chapitre 2

Plateforme g´

en´

erique de

eduction de dimensionnalit´

e

des images hyperspectrales

Sommaire

2.1 G´en´eralit´e sur la classification des images hyperspectrales. 13 2.1.1 Notion de pertinence des attributs . . . 14 2.2 M´ethodes de r´eduction de dimensionnalit´e . . . 15

2.2.1 Cat´egorisation des m´ethodes de r´eduction de dimensionnalit´e selon le processus de g´en´eration des attributs . . . 15 2.2.2 Cat´egorisation des m´ethodes de r´eduction de dimensionnalit´e

selon leur d´ependance de l’´etape de classification . . . 22 2.3 Sch´ema de synth`ese . . . 25 2.4 Conclusion . . . 28

En traitement des images hyperspectrales, nous sommes confront´es aux grandes quantit´es d’informations. La probl´ematique est de r´eduire la dimensionnalit´e de ces images hyperspectrales. Dans la litt´erature plusieurs sch´emas ont ´et´e d´evelopp´es comme les strat´egies Filtre, Wrapper, hybrides etc. Dans ce chapitre, nous discutons ces sh´emas afin d’en extraire une plateforme g´en´erique d’analyse et de synht`ese des applications de r´eduction de dimensionnalit´e des images hyperspectrales.

2.1

en´

eralit´

e sur la classification des images

hyper-spectrales

Dans la litt´erature, pour r´esoudre le probl`eme de classification, deux approches principales ont ´et´e propos´ees : la classification supervis´ee et celle non supervis´ees [Tyagi 2008]. Les techniques de classification supervis´ees sont des m´ethodes qui n´ecessitent la disponibilit´e d’un sous ensemble de donn´ees d´ej`a classifi´ees (ici une partie de la carte v´erit´e terrain) qui sert pour l’apprentissage du classifieur. Elles exploitent l’information incluse dans l’ensemble d’apprentissage.

(35)

14

Chapitre 2. Plateforme g´en´erique de r´eduction de dimensionnalit´e des images hyperspectrales effectuent une classification en consid´erant seulement l’information qui est conte-nue dans les donn´ees `a classifier, sans apprentissage. En g´en´eral, les m´ethodes supervis´ees offrent une plus grande pr´ecision par rapport `a celles non supervis´ees. Cependant, dans de nombreuses applications, l’information d’apprentissage n’est pas disponible, ou la collecte d’information de v´erit´e de terrain est un processus complexe et coˆuteux. Dans ces cas, il est obligatoire d’adopter des algorithmes non supervis´es.

2.1.1 Notion de pertinence des attributs

John, Kohavi et Pfleger [George 1994] ont abord´e le probl`eme d’attributs non pertinents et le probl`eme de s´election des sous-ensembles en pr´esentant les d´efinitions de deux types de pertinence : faible et forte.

Kohavi [Kohavi 1997] a largement ´etudi´e la relation de la pertinence en utilisant des algorithmes wrapper et Filtre. Gennari [Gennari 1989] stipule qu’un attribut est pertinent si la connaissance de sa valeur peut changer l’estimation de la classe. Gearge [George 1994] ajoute que l’attribut est pertient si la probabilit´e de la classe, ´

etant donn´e tous les attributs, peut changer lorsqu’on ´ellimine l’information qu’il apporte.

La pertinence est dite faible dans le sens o`u la supression de l’attribut concern´e ne se fait pas sans d´egradation de la pr´ecision de pr´ediction : donc il contribut `a la pr´ediction de la classe.

La majorit´e des probl`emes de classification des objets r´eels exigent un appren-tissage supervis´e o`u les probabilit´es des classes et la probabilit´e conditionnelle des classes ne sont pas connues, et chaque instance est associ´ee `a une ´etiquette de classe. Dans ces situations r´eelles, les attributs pertinents sont souvent inconnues `

a priori. Par cons´equent, de nombreux attributs candidats sont introduits afin de mieux repr´esenter le domaine. Malheureusement, beaucoup d’entre eux sont partiellement ou compl`etement non pertinents ou redondants. Un attribut non pertinent n’affecte pas positivement la pr´ecision de classification, et un attribut redondant n’ajoute rien de nouveau au r´esultat de classification pr´ec´edant. Dans de nombreuses applications, tel que la t´el´ed´ection par image hyperspectrale, la taille des donn´ees est si grande que l’apprentissage peut ne pas fonctionner aussi bien avant de retirer ces attributs ind´esirables. R´eduire le nombre d’at-tributs inutiles ou redondants r´eduit consid´erablement le temps d’ex´ecution

(36)

2.2. M´ethodes de r´eduction de dimensionnalit´e 15

d’un algorithme d’apprentissage. L’objectif des m´ethodes de s´election d’attributs est de choisir un sous-ensemble d’attributs qui sont pertinents pour la classification.

Nous pouvons noter ici que [Wang 1997] utilise deux axiomes pour caract´eriser la s´election des attributs. L’axiome suffisant : le sous-ensemble d’attributs choisis doit ˆetre capable de reproduire les exemples d’apprentissage sans perte d’informa-tion. L’axiome n´ecessaire est : ”la plus simple parmi les diff´erentes alternatives est pr´ef´erable pour la pr´ediction”.

2.2

ethodes de r´

eduction de dimensionnalit´

e

La r´eduction de dimensionnalit´e consiste `a utiliser des m´ethodes dites data-adaptives utilisant l’information `a priori disponible, pour nous informer quelles variables sont manifestement pertinentes ou non pour la classification [Hand 2001,Huges 1968].

2.2.1 Cat´egorisation des m´ethodes de r´eduction de dimensionna-lit´e selon le processus de g´en´eration des attributs

Vu du cˆot´e g´en´eration d’attributs [Sarhrouni 2013a], les m´ethodes de r´eduction de dimensionnalit´e peuvent ˆetre r´eparties en trois grandes classes :

1. Celle qui r´ealisent la r´eduction par transformation des vecteurs des donn´es, ce qui donne l’extraction d’attributs,

2. Ou sans transformation de vecteur de donn´ees, ce qui est une s´election d’at-tributs,

3. Ou bien une s´election suivie d’extraction d’attributs.

2.2.1.1 R´eduction de dimensionnalit´e par s´election d’attributs

La s´election d’attributs est d´efinie par de nombreux auteurs sous des angles diff´erents. Mais, ces d´efinitions sont similaires dans l’intuition et / ou le contenu. La liste suivante ´enum`ere celles qui sont conceptuellement diff´erentes et couvrent un ´eventail de d´efinitions, voir [Dash 1997].

1. Id´ealis´ee : trouver le sous-ensemble d’attributs de taille minimale qui est n´ecessaire et suffisant `a la classification des classes [´era 1992].

(37)

16

Chapitre 2. Plateforme g´en´erique de r´eduction de dimensionnalit´e des images hyperspectrales

2. Classique : s´electionner un sous-ensemble de M attributs `a partir d’un ensemble de taille N , tel que M < N , de telle sorte que la valeur d’une fonction de crit`ere est optimis´ee sur l’ensemble des sous-ensembles de taille M [Narendra 1977].

3. Am´elioration de la pr´ecision de pr´ediction : le but de la s´election est de choi-sir un sous-ensemble d’attributs pour am´eliorer la pr´ecision de pr´ediction, ou en diminuer la taille de la structure sans diminution significative de la pr´ecision calcul´ee par classifieur construit en utilisant uniquement les attri-buts s´electionn´ees [´era 1992].

4. Approximation de distribution originale des classes : l’objectif de la s´election des attributs est de trouver le sous-ensemble minimal de telle sorte que la distribution (des classes) qui en r´esulte (et qui tient compte uniquement du sous ensemble concern´e) soit aussi prˆoche que possible de la distributions originale des classes (qui tient compte de tous les attributs [´era 1992].

Les algorithmes de r´eduction de dimensionnalit´e comportent en g´en´erale quatre ´

etapes de base [Dash 1997] [Chen 2006] (figure 2.1) : 1. Une proc´edure de g´en´eration du candidat suivant,

2. Une fonction d’´evaluation pour ´evaluer le sous ensemble pr´esent, 3. Un crit`ere d’arrˆet pour d´ecider quand arrˆeter la recherche,

4. Une proc´edure de validation, pour d´ecider de retenir le sous ensemble ou l’abondonner.

Figure 2.1 – Processus de s´election d’attributs avec validation [Dash 1997] La recherche du meilleur sous ensemble peut ˆetre am´elior´ee en utilisant cer-taines hypoth`eses sur la fonction d’´evaluation. L’hypoth`ese la plus utilis´e est ”mo-notonicit´e”. Id´ealement, si N est le nombre de bandes, les m´ethodes de s´election

(38)

2.2. M´ethodes de r´eduction de dimensionnalit´e 17

d’attributs cherchent parmi les 2N − 1 sous-ensembles d’attributs (bandes), celui qui optimise une certaine fonction d’´evaluation. D’autres m´ethodes bas´ees sur des recherches heuristiques ou al´eatoires tentent de r´eduire la complexit´e de calcul en compromettant les performances. Ces m´ethodes ont besoin d’un crit`ere d’arrˆet pour ´

eviter une recherche exhaustive de sous-ensembles.

2.2.1.2 R´eduction de dimensionnalit´e par extraction d’attributs

Celle approche consiste `a r´eduire la dimensionalit´e d’attributs par la T ransf ormation des donn´ees en projettant l’espace original sur un sous-espace de dimension inf´erieur qui pr´eserve l’essentiel de l’information. L’id´ee ici, est de trans-former les mesures, par des fonctions lin´eaires ou non li´eaires, dans une ´etape de pr´etraitement, ce qui entraine en g´en´erale un ensemble r´eduit, de variables d´eriv´ees utilis´ees comme entr´ees d’un classifieur [Raymer 2000].

Figure 2.2 – Processus d’extraction d’attributs , le feedback correspond `a la re-cherche it´erative [Raymer 2000]

Ces m´ethodes pr´esentent l’inconv´enient de ne pas ˆetre forc´ement bien adapt´ees `

a l’objectif global d’am´eliorer les performances de classification, bien que leurs ap-plications sont int´eressantes [Hand 2001].

Parmi les exemples de cette approche on peut citer l’analyse en composantes principales (dans lequel nous essayons de trouver les directions dans l’espace d’entr´ee qui ont le plus de variance, la poursuite de projection dans lequel un algorithme recherche des projections lin´eaires int´eressantes, les techniques connexes telles que l’analyse factorielle et les l’analyse les composants ind´ependantes.

2.2.1.3 Critique des cat´egorisation par s´election et par extraction d’at-tributs

D’apr`es les d´efinitions de la s´election cit´ees, les processus d´ecrits sont des algorithmes complets de r´eduction de dimensionnalit´es : on d´efinit la s´election et

(39)

18

Chapitre 2. Plateforme g´en´erique de r´eduction de dimensionnalit´e des images hyperspectrales

le processus de s´election tout en pr´esentant un processus de r´eduction. En ce qui nous concerne, nous d´ecrirons les termes ”s´election” et ”extraction” en tant que r´ealisation particuli`ere de la fonction ”g´en´eration” des sous ensembles. Donc nous d´ecrirons, dans les paragraphes suivant, les quatres ´etapes du sch´ema de Dash [Dash 1997] pour la r´eduction de dimensionnalit´e [Sarhrouni 2013a].

Comme l’indique la figure 2.3, le sch´ema de la s´election suivi de d’extraction se r´eduit `a une s´election si la transformation est unitaire, et on aura une extrac-tion d’attributs si la s´election reproduit tous les vecteurs d’entr´ee. Notons aussi que le noyau de la s´election peut ˆetre ”un algorithme qui est une proc´edure bien d´efinie qui prend des donn´ees en entr´ee et produit en sortie des mod`eles (”pat-terns”)” [Hand 2001]. Une proc´edure bien d´efinie veut dire qu’elle peut ˆetre cod´ee pr´ecis´ement sous forme de suite finie de r`egles, et elle doit se terminer apr`es un nombre fini d’´etapes. Un algorithme bien form´e occupe tout le rectangle. Comme il peut ˆetre une m´ethode n´ecessitant d’ˆetre ins´er´ee dans un algorithme et qu’elle n’occupera pas tout l’aire du r´ectangle, car une m´ethode de calcul ne poss`ede pas de garantie qu’elle se termine en nombre finie d’it´erations (par exemple la technique de recherche ”steepest descent” est une m´ethode de calcul qui n’est pas, en elle mˆeme, un algorithme). De mˆeme pour la transformation lin´eaire ou non qui permet de r´ealiser l’extraction [Sarhrouni 2013a].

Figure 2.3 – Sch´ema de la g´en´eration des attributs, [Sarhrouni 2013a]

2.2.1.4 Synth`ese des ´etapes de r´eduction de dimensionnalit´e

Nous r´eservons le terme ”s´election” pour la fonction ”g´en´eration” de sous en-semble, au mˆeme ordre que le terme ”extraction”. En reprenant l’id´ee des quatre ´

etapes de Dash [Dash 1997], nous avons le sch´ema globale de la r´eduction de di-mensionnalit´e figure, 2.4, [Sarhrouni 2013a].

(40)

extrac-2.2. M´ethodes de r´eduction de dimensionnalit´e 19

tion ou s´election suivie d’extraction.

2. Une fonction d’´evaluation pour ´evaluer le sous ensemble pr´esent 3. Un crit`ere d’arrˆet pour d´ecider quand arrˆeter la recherche

4. Une proc´edure de validation, pour d´ecider de retenir le sous ensemble ou l’abandonner.

Figure 2.4 – R´eduction de dimensionnalit´e en quatre ´etapes, [Sarhrouni 2013a]. Notons ici que le noyau du bloc de g´en´eration peut ˆetre r´ealis´e de deux fa¸cons : un algorithme ind´ependant qui occupe tout le bloc, ou une m´ethode qui a besoin d’ˆetre ins´er´ee dans un algorithme. D’autre part, relativement `a l’extraction d’attributs, la s´election de variables est plus simple et directe, et l’ensemble r´esultant de la r´eduction d’attributs est plus facile `a interpr´eter.

1. Proc´edures de g´en´eration

Dans la litt´erature, plusieurs approches sous-optimales pour la s´election des attributs ont ´et´e propos´ees. Nous allons pr´esenter un br`ef inventaire des proc´edures de g´en´eration des sous ensembles d’attributs, ind´ependament de leurs appartenance en s´election ou en extraction.

– Les M´ethodes S´equentilles : s´election s´equentielle ”Forward” (SFS), s´election s´equentielle ”Backward” (SBS), SFFS et SBFS [Jain 1997,

Pudil 1993,Hand 2001,Somol 1999,Pudil 1994a,Pudil 1994b,Ferri 1994] ; – La Rechechre G´en´etique : Jamshidpour [Jamshidpour 2010] utilise un algorithme g´en´etique en compl´ement d’un filtre pour la s´election des bandes hyperspectrales ; [Hand 2001, Inza 2001, Kim 2000, Raymer 2000,

Kudo 2000] ;

– La m´ethode Steepest Ascent :[Serpico 2001, Ughade 2011, Mir´o ,

(41)

20

Chapitre 2. Plateforme g´en´erique de r´eduction de dimensionnalit´e des images hyperspectrales

– L’Analyse en Composantes Ind´ependantes (ACI) : [Hyv¨arinen 2000,

Mura 2011,Bayliss 1997, Hyvarinen 1999, Comon 1994, Hyvarinen 2001b,

Cardoso 1999,Cardoso 1997,Pearlmutte 1996,Linsker 1992,Barlow 1961,

Lee 2000,Jouteau 2003,Hyvarinen 2001a,Jimenez 95,Jones 1987] ; – La m´ethode SVM : elle appartient `a la famille des m´ethode `a noyau qui

sont moins sensibles `a la dimensionnalit´e des donn´ees et ont d´ej`a montr´e de forte performance dans plusieurs application [Guo 2008], voir aussi : [Chang 2011,Hand 2001,A.Sung 1998] ;

– L’Analyse en Composantes Principales : Hwang [Hwang 2009] adopt´e la distance Bhattacharya et analyse en composantes principales (bas´e sur l’image transform´ee) pour la s´election des attributs en IHS. voir aussi :[Oja 95b, Hyvarinen 2001b, Hyvarinen 1999, Oja 95a, Jolliffe 1986,

Kendall 1975,Homayouni 2005] ;

– Les r´eseaux de neurones :[Novakovic 2011, Giacinto 2000, Teodoro 2010,

Bruzzone 1999,Huang 2009] ; 2. Fonctions d’´evaluation

L’une des plus importantes propri´et´es des mod´eles de pr´ediction est la pr´ecision de classification. Ainssi diverses mesures de pr´ecision ont ´et´e con¸cues. Ces mesures peuvent ´egalement ˆetre utilis´ees pour choisir entre les mod`eles ainssi que les valeurs des param`etres dans les mod`eles. Elles sont appell´ees des fonctions de score et sont des mesures de l’utilit´e informationnelle d’un sous ensemble [Hand 2001], et qui est atteignable sous la contrainte de mono-tonie de la fonction de score [Demir 2008].

Ben-Bassat [Ben-Bassat 1982] en pr´esente trois cat´egories : La mesure d’infor-mation ou d’incertitude, mesures de distance, et les mesures de d´ependance ; il sugg`ere que les mesures de d´ependance peuvent ˆetre r´epartis entre les deux premi`eres cat´egories, ce que nous pouvons sch´ematiser comme l’indique la Figure 2.5.

Doak [Doak 1992] divise les fonctions d’´evaluation en trois cat´egories : les mesures des donn´ees intrins`eques, le taux d’erreur de classification, et le taux d’erreur estim´e ou incr´emental , o`u la troisi`eme cat´egorie est une variante de la seconde cat´egorie. Les mesures des donn´ees intrins`eques comprennent la distance, l’entropie, et les mesures de la d´ependance. Nous repr´esentons cette cat´egorisation dans la Figure2.6.

Dash [Dash 1997] divise les fonctions d’´evaluation en cinq cat´egories : la dis-tance, l’information (ou l’incertitude), la d´ependance, la coh´erence ou consis-tance, et le taux d’erreur du classifieur ; il d´efinis ainsi :

(42)

2.2. M´ethodes de r´eduction de dimensionnalit´e 21

Figure 2.5 – Les Cat´egories de fonctions d’´evaluation selon Ben-Bassat, [Ben-Bassat 1982])

Figure 2.6 – Les Cat´egories de fonctions d’´evaluation, Doak [Doak 1992])

divergence ou de discrimination. Par exemple la distance euclidienne, la distance Bhattacharya et Jeffries-Matusita (JM) [Hwang 2009].

(b) - Les mesures de l’information ou de gain d’information d’un attribut A est d´efini comme la diff´erence entre l’incertitude `a priori, et l’incertitude `

a post´eriori attendue en utilisant l’attribut A. Par exemple la mesure de l’entropie).

(43)

coef-22

Chapitre 2. Plateforme g´en´erique de r´eduction de dimensionnalit´e des images hyperspectrales

ficient de corr´elation et le Gain d’informations (GI) [Frank 2005]. Dash [Dash 1997] indique aussi que, toutes les m´ethodes bas´ees sur les mesures de d´ependances peuvent ˆetre divis´ees entre la mesure de l’information et la mesure de distance ; mais elles sont conceptuellement diff´erentes [Ben-Bassat 1982].

(d) Les mesures de consistance : elles sont fortement li´ees aux donn´ees d’en-trainement.

(e) les mesures du taux d’erreur de classifieur ou wrapper, Leur niveau de pr´ecision est tr`es ´elev´e, bien que tr`es coˆuteux en calcul.

3. Crit`eres d’arrˆet

Sans un crit`ere d’arrˆet appropri´e le processus de s´election peut diverger.Les crit`eres d’arrˆet bas´e sur la proc´edure de g´en´eration comprennent : (i) si un nombre pr´ed´efini d’attributs est atteint, et (ii) si un nombre pr´ed´efini d’it´erations est atteint. Les crit`ere d’arrˆet bas´es sur la fonction d’´evaluation peut ˆetre : (i) si l’addition (ou la suppression) d’un attribut ne produit pas un meilleur sous-ensemble, et (ii) si un sous-ensemble optimal selon une fonction d’´evaluation est obtenu [Sarhrouni 2013a].

4. Proc´edures de validation

C’est g´en´eralement un classifieur tel que les r´eseaux de neurones, les kNN et le SVM, selon si la classification est supervis´ee ou non.

2.2.2 Cat´egorisation des m´ethodes de r´eduction de dimensionna-lit´e selon leur d´ependance de l’´etape de classification

Langley [Langley 1994] distingue les approche ”Filtre” et les approches ”Warp-per”. Les m´ethodes ”Filtre” sont ind´ependantes de l’algorithme d’induction, tandis que les m´ethodes ”Wrapper” utilisent l’algorithme d’induction comme la fonction d’´evaluation.

Dans ce contexte on peut distinguer les m´ethodes de r´eduction de dimensionnalit´e selon [Sarhrouni 2013a] :

1. Qu’elles font appel aux classfieurs dans le processus d’´evaluation des sous ensembles, c’est `a dire strat´egie wrapper ;

2. ou elles font appel `a une production d’estimation de la classe (v´erit´e de terrain) par une autre fa¸con que le classfieur utilis´e dans l’´etape de Validation ; 3. ou bien elles ne font appel `a aucun classifieur dans l’´evaluation des sous

(44)

2.2. M´ethodes de r´eduction de dimensionnalit´e 23

2.2.2.1 Strat´egie filtre

L’inconv´enient majeur de cet approche est qu’elle ne tient pas compte totalement de l’effet des attributs s´electionn´es sur les performances de l’algorithme d’induction. La figure 2.7 d´ecrit le mod`ele de s´election des attributs qualifi´e de Filtre (Filter approach) qui caract´erise ces algorithmes.

Figure 2.7 – Le mod`eel filtre dans lequel les attributs sont filtr´es ind´ependement de l’algorithme d’induction selon George [George 1994]

2.2.2.2 Strat´egie wrapper

Dans le mod`eel dit ”wrapper”, l’algorithme d’induction lui mˆeme est utilis´e pour d´ecider sur la pertinence d’un attribut. Cet approche consiste `a utiliser le classificateur comme une ”boˆıte noire” et d’avoir une boucle externe (ou wrapper) qui ajoute et soustrait syst´ematiquement les attributs `a l’ensemble actuel. Chaque sous-ensemble ´etant ´evalu´e sur la base des performances du mod`ele de classification produit. George [George 1994] indique ce processus selon le sch´ema de la figure2.8.

Figure 2.8 – Dans le mod`ele wrapper, l’algorithme d’induction est utilis´e comme boˆıte noire par l’algorithme de s´election [George 1994].

(45)

24

Chapitre 2. Plateforme g´en´erique de r´eduction de dimensionnalit´e des images hyperspectrales

2.2.2.3 Strat´egie hybride

Nous pr´ecisons ici que Chen [Chen 2006] propose une combinaison Hybride Filtre-Wrapper pour la s´election d’attributs. Jamshidpour [Jamshidpour 2010] r´ealise une combinaison des deux strat´egies pour la s´election des bandes hyperspec-trales, le segment Wrapper de son mod`ele est constitu´e d’un algorithme g´en´etique. 2.2.2.4 Strat´egie embarqu´ee

C’est une approche qui int`egre la s´election des attributs dans le classifieur de vali-dation. Elle s’app`elle aussi l’approche int´egr´ee. Ainssi Guo [Guo 2005], par exemple, module le noyau du classifieur SVM par l’information mutuelle des bandes dans un sch´ema de classification des IHS.

2.2.2.5 Critique des deux strat´egies filtre et wrapper

Nous remarquons, d’apr`es leurs sch´emas, que la strat´egie wrapper diff`ere de strat´egie filtre par la pr´esence d’une boucle qui utilise le ”mˆeme” algorithme d’induction (de classification) pour renseigner la g´en´eration d’attributs sur la pertinence d’un sous ensemble d’attributs candidats. Cependant, il existe dans la lit´erature des mod`eles utilisant des approximations de la classe (la v´erit´e de terrain) sans utiliser l’algorithme d’induction. Sarhrouni et al. [Sarhrouni 2012d] utilisent un moyennage approximation de la v´erit´e de terrain pour la r´eduction de dimensionnalit´e et la classification des images hyperspectrales. Demir [Demir 2008] utilise une troisi`eme strat´egie dite”groupement d’attributs” ; elle consiste `a rem-placer un sous ensemble d’attributs qui sont fortement corr´el´es par leur moyenne. Nous consid´erons que c’est une forme d’extracion de donn´ees, [Ahmad 2011]. Aussi Aymen [Ayman 2012] utilise le calcul de cross-correlation entre bandes spectrales pour regrouper les bandes ayant une redondance spectral. Guo [Guo 2006] utilise aussi la moyenne (qui est un regroupement d’attributs) de certaines bandes comme approximation de la v´erit´e de terrain [Sarhrouni 2013a], [George 1994]. Nous proposons, par la suite, une g´en´eralisation dite ”Strat´egie Mixte Filtre-Wrapper”, [Sarhrouni 2013a].

2.2.2.6 Strat´egie mixte filtre-wrapper

Nous proposons ici de tenir compte du fait que l’algorithme d’induction lui mˆeme n’est pas utilis´e pour d´ecider quant `a la pertinence d’un attribut. Nous ajoutons qu’il faut consid´erer le degr`es d’appartenance d’une m´ethode quelconque `a chacunes des deux strat´egies Filtre et Wrapper. Par exemple si le ”feedfack”, est r´ealis´e par la

Références

Documents relatifs

C’est aussi un cancer qui reste grave malgré les améliorations indiscutables de la prise en charge et la guérison d’un patient sur deux : en 2005, près de 17 000 décès étaient

Le remboursement des dépenses de maladie par la mutuelle ne peut être supérieur au montant des frais restant à la charge effective du membre participant ou de ses ayants droit.

en cas d’immobilisation de plus de 2 jours d’un enfant bénéficiaire au domicile, à la suite d’une maladie ou d’un accident, nous organisons et prenons en charge pour

2 On note Y = | X | la variable aléatoire correspondant aux nouveaux gains de Geneviève. Y) la variable aléa- toire correspondant au tirage de 5 boules dans l’urne avec

Dans le processus possédant le jeton, le tableau tampon contient les dates de la dernière possession du jeton par les autres processus donc si demande[i]&lt;tampon[i], le processus P

Afin de pouvoir continuer à accompagner sur leurs frais de santé les retraités dont les revenus sont les plus faibles, le Conseil d’administration de la Mutuelle a décidé

Une m´ ethode statique n’a pas acc` es ` a l’´ etat de la classe, il s’agit d’une fonction utilitaire rattach´ ee ` a la classe (attention aux faux amis avec d’autres

Evaluation et comparaison de mod` eles en apprentissage supervis´ e (Quelques) Aspects th´ eoriques en apprentissage automatique Les m´ ethodes lin´ eaires et leurs p´