• Aucun résultat trouvé

Proposition d'un filtre d'image satellite pour la localisation des zones potentiellement humides sur le département de la Drôme

N/A
N/A
Protected

Academic year: 2021

Partager "Proposition d'un filtre d'image satellite pour la localisation des zones potentiellement humides sur le département de la Drôme"

Copied!
49
0
0

Texte intégral

(1)

HAL Id: hal-02609195

https://hal.inrae.fr/hal-02609195

Submitted on 16 May 2020

HAL is a multi-disciplinary open access archive for the deposit and dissemination of sci-entific research documents, whether they are pub-lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.

Proposition d’un filtre d’image satellite pour la

localisation des zones potentiellement humides sur le

département de la Drôme

A. Oucherif

To cite this version:

A. Oucherif. Proposition d’un filtre d’image satellite pour la localisation des zones potentiellement humides sur le département de la Drôme. [Rapport de recherche] irstea. 2017, pp.48. �hal-02609195�

(2)

Rapport de stage doctoral dans le cadre de la

bourse PROFAS:

Partie concernée de la thèse : Proposition

d’un filtre pour la localisation des zones

potentiellement humides sur le département

de la Drôme

Amel OUCHERIF

Période : 30-09-16 au 29-04-17

Encadrants : André PAQUIER, Pascal BREIL, Irstea Lyon

(Thèse en co-encadrement : ENP Alger, Irstea Lyon)

(3)

Plan de travail

I. Introduction générale

II. Définition et typologie de la télédétection II.1. Télédétection passive

II.2. Télédétection active

III. Définition des principaux concepts liés à la télédétection III.1. Spectre et ondes électromagnétiques

III.2. Radiométrie, radiance et irradiance III.3. Réponse spectrale

III.4. Prétraitement de l’image

III.4.1. Prétraitement radiométrique III.4.2. Correction atmosphérique IV. Principaux indices spectraux

IV.1. Indice de végétation par différence normalisée NDVI IV.2. Indice de brillance IB

IV.3. Indice d’humidité par différence normalisée NDWI IV.4. Transformation chapeau haut-de-forme

V. Classification cartographique V.1. Introduction

V.2. Méthodes de discrétisation

V.2.1. Discrétisation par équidistance

V.2.2. Discrétisation par progression arithmétique V.2.3. Discrétisation par progression géométrique V.2.4. Discrétisation selon les quantiles

V.2.5. Discrétisation selon la méthode de Jenks V.2.6. Discrétisation manuelle

VI. Théorie de la décision

VI.1. Quelques définitions des concepts de base de la théorie de la décision VI.1.1. Critère

VI.1.2. Décision

VI.1.3. Règle de décision VI.1.4. Objectif

VI.1.5. Evaluation multicritères VI.1.6. Incertitude et risque

VI.2. Développement des critères et approche booléenne

VI.3. Approche non booléenne par pondération par combinaison linéaire : processus hiérarchique analytique

IV.3.1. Introduction

IV.3.2. Description de la méthode de la hiérarchisation analytique VII. Application : cas du département de la Drôme

VII.1. Présentation de la zone d’étude

VII.2. Résultats des indices issus de la télédétection

VII.2.1. Résultats et interprétation du calcul de l’indice de végétation par différence normalisée NDVI

VII.2.2. Résultats et interprétation du calcul de l’indice d’humidité par différence normalisée NDWI

(4)

VII.2.3. Résultats et interprétation du calcul de la composante d’humidité de la transformation haut-de-forme

VII.2.4. Résultats et interprétation du calcul de l’indice de brillance IB

VII.2.5. Résultats et interprétation du calcul de l’indice topographique d’humidité TWI VII.2.6. Résultats et interprétation du calcul des ruptures de pente

VIII. Protocole méthodologique pour la construction du filtre de localisation des zones à potentiel humide

VII.1. Description du cadre méthodologique VII.2. Résultats obtenus

IX. Construction d’un filtre pour la cartographie de l’hydrographie de surface X. Evaluation des filtres proposés

X.1. Table de contingence

X.2. Evaluation du filtre de détection de l’hydrographie de surface

(5)

1

I. Introduction générale

La télédétection est, de nos jours, un outil qui se révèle, de plus en plus, puissant pour l’analyse de l’environnement. C’est une discipline qui a essentiellement pour objectif, de donner une vision synoptique de l’environnement spatial examiné suivant un cycle d’observation répétitif permettant ainsi d’établir des études diachroniques avec une capacité d’acquisition caractérisée par divers modes.

Pour le cas de la présente étude, l’objectif de l’utilisation des techniques de télédétection est de prendre comme base d’analyse des données thématiques, en vue de parvenir à effectuer une cartographie thématique qui pourrait être considérée comme un outil d’aide à la décision dans le cadre de la localisation de zones potentiellement humides.

II. Définition et typologie de la télédétection

La naissance de la télédétection a pour principale origine la photographie, l’optique et la spectrométrie. Cette dernière est intimement liée au domaine qui traite du spectre électromagnétique ainsi que les sciences aéronautiques.

La télédétection peut être définie comme la technique qui permet l’acquisition d’un ensemble d’informations sur un objet observé grâce à un instrument de mesure n’ayant pas de contact direct avec l’objet en question.

Suivant l’instrument de mesure utilisé, deux types de télédétection peuvent être distingués :

La télédétection passive : dans ce cas, le capteur enregistre l’intensité de l’énergie électromagnétique naturelle provenant du Soleil et émise par la Terre. C’est le cas pour les capteurs embarqués sur des satellites ou sur une plateforme aérienne.

La télédétection active : pour ce type de capteurs, le système d’acquisition émet lui-même des radiations et reçoit le signal de retour et ce, selon les caractéristiques structurelles de la surface observée et suivant les longueurs d’ondes de l’énergie incidente.

Dans ce qui suit, nous nous proposons de présenter les différents concepts relatifs à la télédétection.

III. Définition des principaux concepts liés à la télédétection

III.1. Spectres et ondes électromagnétiques

L’énergie électromagnétique peut être décrite comme étant des ondes qui se propagent selon un mouvement harmonique, c’est-à-dire selon des intervalles réguliers dans le temps, et à la vitesse de la lumière.

(6)

2 Les radiations électromagnétiques consistent en un champ électrique dont la magnitude varie suivant la direction perpendiculaire à celle de propagation. Le champ magnétique qui la caractérise se propage en phase avec le champ électrique. Ce mouvement est décrit par des longueurs d’ondes et une fréquence.

Ainsi, le spectre électromagnétique est une série de radiations classées selon la longueur d’onde, la fréquence ou l’énergie photonique. Notons que sont prises en compte les ondes électromagnétiques de n’importe quelle longueur d’onde allant de l’Angstrom à plusieurs kilomètres, comme montré dans le schéma ci-après :

Figure 1 : Les différentes longueurs d'ondes du spectre électromagnétique

L’existence de différentes régions dans le spectre électromagnétique est due principalement au fait que la sensibilité spectrale diffère, selon le type du capteur mis en œuvre.

III.2. Radiométrie, radiance et irradiance

La radiométrie, au sens global, est la science qui traite de la quantification de l’énergie émise

ou incidente sur une surface. C’est aussi la discipline qui s’intéresse à la définition et la mesure des unités radiométriques qui varient en fonction de la longueur d’ondes.

La radiance est le terme radiométrique de référence en télédétection. Elle représente

l’intensité du rayonnement émis par une surface par unité d’angle solide, mesurée par le capteur, sur un plan perpendiculaire à la direction considérée. Par conséquent, cette valeur décrit ce qui est mesuré dans le monde réel par les capteurs utilisés. L’irradiance, quant à elle, représente l’intensité de l’énergie électromagnétique incidente.

La radiance a pour expression la formule suivante :

       A cos 1 L 2

 : angle formé par la radiation incidente et le plan ;  : flux de la radiation émise ; A : portion infinitésimal du plan joint par la radiation incidente et  : portion infinitésimal de l’angle solide.

(7)

3 Pour ce qui est de la réflectance, celle-ci représente un concept qui est largement utilisé et qui se définit comme le rapport de la radiance sur l’irradiance, exprimé en pourcentage, avec des valeurs comprises entre 0 et 1. La réflectance est plus connue sous le nom d’albédo ou brillance.

Il convient de noter que cette notion n’est pas une unité radiométrique en soi. Cependant, lorsque les mesures se font en référence à un intervalle de longueurs d’ondes bien défini, on parle de réflectance spectrale.

III.3. Réponse spectrale

La visualisation des images satellitaires est le résultat de la conversion du signal enregistré par le capteur en des valeurs discrètes appelées les comptes numériques associés à chaque pixel. Comme ce signal est fonction des caractéristiques structurelles physiques de l’objet détecté, il est possible d’établir une correspondance entre la quantité de l’énergie réfléchie et la nature des objets, selon les différentes longueurs d’ondes.

En termes graphiques, le signal enregistré par le capteur peut être représenté comme la variation de la réflectance en fonction de la longueur d’onde. La courbe obtenue est appelée « réponse spectrale ».

La télédétection passive dans les bandes allant de l’ultraviolet (0.3 µm) au moyen infrarouge (2.5 µm) traite de l’étude et de la mesure des caractéristiques de la réflexion, dans l’objectif d’identifier les surfaces de même comportement qui devraient correspondre à des objets similaires.

Cependant, la réponse spectrale n’est pas univoque ; le comportement spectral des objets appartenant à une même classe peut générer des réponses spectrales différentes. Les facteurs à l’origine de cette variation dans la courbe de réflectance spectrale peuvent être :

 Statiques : comme la pente et l’exposition ;

 Dynamiques : induisant des différences dans le comportement spectral d’un même pixel dans le temps. Par exemple : les cycles phénologiques des végétaux, conditions phytosanitaires, humidité du sol en surface, conditions atmosphériques, position du soleil, etc.

Les courbes de la réflectance spectrale d’un objet changent en fonction de la variabilité de l’environnement local et c’est aussi lié au fait que l’énergie réfléchie reçue par le capteur est influencée par les pixels voisins au pixel cible, en termes de direction et d’instant d’observation. Par conséquent, il est évident que pour les pixels mixtes, la reconnaissance de la réponse spectrale pourrait se révéler très difficile.

(8)

4 Ainsi, plusieurs efforts ont été consentis pour la classification et la description des objets à partir des signatures spectrales. Par conséquent, cela dénote la continuelle évolution qui caractérise ce domaine.

En outre, une autre discipline est en pleine expansion qui est celle de la télédétection active par radar qui exploite les radiations micro-ondes pour des applications allant de la géologie structurelles et la prospection hydrogéologique, jusqu’à la recherche sur la surface des mers et la morphologie alluvionnaire.

Pour notre cas, compte tenu de la disponibilité et de l’accès aux données, nous nous limiterons à l’application des méthodes propres à la télédétection passive appliquée à l’imagerie satellitaire optique.

III.4. Prétraitement d’image

Préalablement à leur utilisation pour interprétation, les données collectées par les capteurs embarqués dans différentes plateformes requièrent une correction des erreurs dues au bruit et aux distorsions générées durant l’acquisition et la transmission. Certaines de ces opérations sont effectuées au niveau de la station de réception tandis que d’autres prétraitements basiques sont effectués par l’utilisateur.

Deux principaux types de prétraitements peuvent être distingués.

III.4.1. Prétraitement radiométrique

Les distorsions causées par les erreurs radiométriques induisent une distribution non représentative de l’information contenue dans les bandes spectrales. Ces distorsions peuvent être éliminées ou atténuées par un prétraitement radiométrique qui dépend des facteurs qui suivent :

 Erreurs liées à un arrêt du fonctionnement des capteurs durant l’acquisition ;

 Caractéristiques géométriques du système d’acquisition et de la position du soleil particulièrement son inclinaison;

 Couche atmosphérique entre le capteur et la scène détectée affectant la réponse spectrale et le contraste des images. L’atmosphère influence les données en agissant comme une barrière limitant la propagation des ondes électromagnétiques se traduisant par le phénomène de l’absorption et agissant comme une source d’énergie imaginaire par le phénomène de réflexion.

Dans certaines applications, les distorsions radiométriques peuvent être négligeables mais elles demeurent une source de bruit si l’objectif de l’étude est l’extraction d’une

(9)

5 information physique (exemple : réflectance en surface et température). Dans ce cas, les facteurs cités ci-après sont à prendre en compte :

 Redéfinition de l’unité physique originale du capteur qui est la radiance à travers la calibration et la correction des anomalies radiométriques liées aux problèmes de scan ;

 Normalisation du signal en se basant sur les conditions d’illumination de la scène et l’orographie ;

 Correction de l’effet atmosphérique.

III.4.2. Correction atmosphérique

L’atmosphère fait référence à une couche de gaz, comme un ensemble, entourant la Terre. La complexité de la dynamique de ses processus (chimiques, physiques et optiques) affecte les phénomènes qui se produisent à la surface de la Terre.

L’intérêt de l’interaction entre les radiations électromagnétiques et l’atmosphère est lié au fait que les composantes atmosphériques diffusent, réfléchissent et absorbent l’énergie électromagnétique changeant ainsi la radiance originale des objets observés par un capteur. Dans différentes applications (détermination de la réflectance au sol, l’albédo, la température ; extraction des paramètres biophysiques ; détection de changements, etc.), il est nécessaire d’effectuer une correction de l’effet atmosphérique. Cette dernière, en plus d’éliminer du signal, les effets d’absorption et de réflexion atmosphériques, elle inclut aussi la calibration radiométrique et la normalisation des effets dus à la géométrie du système.

Il n’y pas une méthode unique pour la correction atmosphérique qui soit simple, précise, et largement utilisée. Par conséquent, un certain nombre de méthodes numériques ont été développées, pour certains types de problèmes bien spécifiques et à différents niveaux de précision. En se basant sur la quantité et la précision des paramètres atmosphériques requis, les méthodes d’étude de l’effet atmosphérique peuvent être scindées en deux groupes :

 Modèles basés sur la physique et le transfert radiatif (transfert par rayonnement) ;

 Méthodes basées sur les images.

La première catégorie inclut les modèles résolvant les équations de transfert de l’énergie électromagnétique radiatif à travers l’atmosphère (transfert radiatif). Pour décrire précisément la propagation de la radiation, ces modèles requièrent la collecte de mesures in situ des propriétés optiques de l’atmosphère acquises au même instant que celui de l’acquisition de la scène. En général, l’algorithme de transfert radiatif combiné avec la mesure des paramètres atmosphériques produit l’évaluation la plus précise. Cependant, ces procédures sont souvent coûteuses et compliquées pour être communément appliquées.

(10)

6 D’autres méthodes ont été proposées, où les informations sur les propriétés atmosphériques peuvent être tirées à partir de l’image. Ces modèles produisent des résultats moins précis comparés à ceux basés sur le transfert radiatif mais sont largement utilisés car se révélant être une bonne alternative.

IV. Principaux indices spectraux

La nécessité d’observer les conditions naturelles et sociales d’un territoire sur une certaine durée pouvant aller de plusieurs mois à plusieurs années, requiert l’utilisation d’indices uniformes et comparables entre eux.

La transformation d’images est un procédé qui traite de la manipulation des bandes spectrales constituant l’image dont la source est un capteur multispectral ou bien un ensemble d’images de la même région prises à des moments différents. Une nouvelle image est alors générée de manière à mettre en exergue certaines caractéristiques en les rehaussant en vue de leur utilisation pour interprétation ou pour traitement avant une classification automatique.

Ce type de traitement peut être pratiqué sur une seule bande ou sur plusieurs bandes spectrales, aboutissant à des rapports de bandes appelés aussi rapports spectraux. Le calcul de ces derniers représente le procédé de transformation d’images le plus commun.

Pour notre cas d’étude, un ensemble d’indices spectraux a été utilisé comme explicité ci-après :

Les indices de végétation sont liés au couvert végétal et procurent des informations très utiles sur la productivité de la biomasse et sur l’état de santé de la végétation.

Ces indices sont directement corrélés à l’activité chlorophyllienne et à l’indice foliaire (LAI) et varient suivant le cycle phénologique. Ils sont aussi sensibles aux facteurs extérieurs tels que le comportement spectral du sol et la géométrie liée aux angles de prise de vue et à la position du soleil ainsi que l’effet atmosphérique.

La base théorique des indices de végétation empiriques dérive de l’examination de signatures spectrales typiques des feuilles. En effet, les régions rouge et proche infrarouge du spectre électromagnétique sont adjacentes. La faible réflectance de la végétation dans le rouge est donc immédiatement suivie par une augmentation importante de la réflectance dans le proche infrarouge. Lorsque la concentration en chlorophylle augmente, l’absorption dans la région rouge augmente aussi, ce qui génère une faible réflectance.

La chlorophylle absorbe l’énergie des régions bleue et rouge du spectre et absorbe peu dans la région verte. La réflectance dans cette région est surtout affectée par d’autres pigments, comme les caroténoïdes et les anthocyanes.

(11)

7 La plupart des indices de végétation sont basés sur la différence de réflectance dans le visible et dans le proche infrarouge. Comme la chlorophylle se trouve dans toutes les plantes vertes et qu’elle a une absorption caractéristique dans le rouge, c’est souvent cette partie de la région visible du spectre qui est choisie, plutôt que d’utiliser toute la région visible.

Pratiquement, toutes les radiations dans la région proche infrarouge sont caractérisées par une très petite absorption selon la structure de la canopée. De ce fait, le contraste entre les réponses dans le rouge et le proche infrarouge représente une mesure sensible à la densité de la végétation avec un maximum de différence jusqu’à atteindre la canopée totale et un contraste minimal dans les cibles avec un petit et/ou aucun couvert végétal. Pour les couverts végétaux minimes ou moyens, le contraste est le résultat des changements dans le rouge et le proche infrarouge, tandis que pour ceux plus denses, seul le proche infrarouge contribue à augmenter les contrastes.

De ce fait, des indices spectraux ont été mis en place en fonction de la structure de la canopée et des paramètres physiologiques (pigments, photosynthèse).

La complexité structurale des couverts et la multitude des facteurs externes perturbateurs (géométrie de visée, élévation solaire, effets atmosphériques et propriétés optiques du sol) sont à l’origine de la multiplicité des indices. Ils sont classés en deux catégories :

1. Indices obtenus à partir de la combinaison des données radiométriques originales à savoir les bandes du visible et le proche infrarouge à travers le diagnostic de la réponse spectrale ;

2. Indices obtenus par modification des bandes spectrales acquises par le capteur, comme la transformation chapeau haut-de-forme.

Pour la première catégorie, les indices de végétation ne modifiant pas l’information radiométrique originelle, améliorent la différence enregistrée entre les basses réflectances dans le visible, en particulier dans le rouge et le bleu, et les hautes réflectances dans le proche infrarouge. La combinaison peut être sous forme de ratios, de pentes ou d’autres formules. Plusieurs types d’indices peuvent être distingués et se présentent comme suit :

 Indices intrinsèques : ils consistent en de simples opérations arithmétiques entre bandes comme l’indice de végétation par différence normalisée (NDVI) basé, uniquement, sur les réflectances spectrales mesurées.

 Indices relatifs à la droite des sols : ils impliquent l’utilisation de paramètres liés au sol comme l’indice de végétation perpendiculaire (PVI) et son dérivé (WDVI : indice de végétation par différence pondérée).

(12)

8

 Indices ajustés au sol : comme l’indice de végétation par sol ajusté (SAVI) et sa modification TSAVI et MSAVI.

 Indices avec correction de l’effet atmosphérique : comme le GEMI (l’indice environnemental de contrôle global).

Pour notre cas, 4 indices ont été utilisés dans le cadre de l’étude effectuée à savoir : IV.1. Indice de végétation par différence normalisée NDVI

Cet indice joue un rôle particulier en ce que ce dernier permet d’établir une comparaison entre des images acquises à des périodes différentes à travers la mise en évidence de l’évolution du couvert végétal.

Comme tous les indices de végétation, le NDVI exprime l’absorption spectrale de la chlorophylle dans la bande rouge par rapport à la réflexion dans la bande proche infrarouge influencée par la structure des feuilles.

Appelé aussi indice de Tucker, il a pour expression la formule suivante :

R PIR R PIR NDVI   

Avec, PIR et R les réflectances dans les bandes proche infrarouge et rouge respectivement. La normalisation par la somme des deux bandes permet de réduire les effets d’éclairement. Le NDVI conserve une valeur constante quel que soit l’éclairement global, contrairement à la simple différence.

En théorie, les valeurs sont comprises entre -1 et +1.

Les valeurs positives caractérisent les formations végétales dont les plus élevées correspondent aux couverts les plus denses.

Etant un ratio, le NDVI présente l’avantage de minimiser certains types de bruit provenant de corrélations entre bandes et des influences attribuées à l’irradiance, aux nuages et ombres nuageuses, soleil et angles de prise de vue. Le rapport permet aussi de réduire les erreurs liées aux instruments de mesure et à la calibration.

L’inconvénient le plus important est l’insensibilité aux variations de la végétation autour de certaines conditions d’occupation des sols. De même, les dépendances spectrales dues aux effets atmosphériques ne sont pas prises en compte.

Cependant, le NDVI reste un très bon indicateur largement utilisé par la communauté scientifique traitant des questions portant sur l’étude du couvert végétal.

(13)

9 Cet indice représente la moyenne des brillances de l’image et est sensible à la brillance des sols liée à l’humidité et à la présence de sels en surface. Il oppose les surfaces bâties très réfléchies aux surfaces absorbantes comme les sols très humides voire couverts d’eau qui apparaissent alors très sombres. Cet indice mélange donc les espèces très humides avec les surfaces en eau alors que certains types de végétation très réfléchissants se confondent avec les espaces construits. La formule permettant de le calculer est la suivante :

2 2 PIR

R

IB  ; IV.3. Indice d’humidité par différence normalisée NDWI

Les indices de stress hydrique varient en fonction de la teneur en eau des feuilles permettant de déceler les végétaux en stress hydrique et sont très utiles par suite pour le suivi de la végétation en zone sèche.

Parmi ces indices, le plus connu est l’Indice de teneur en eau par différence normalisée NDWI. Cet indice utilise la bande proche infrarouge et une bande de l’infrarouge à courtes longueurs d’onde. Au lieu de la bande rouge, où la réflectance est affectée par la chlorophylle, le NDWI utilise une bande de l’infrarouge à courtes longueurs d’onde (1500-1750 nm), où l’eau possède un pic d’absorption. La bande du proche infrarouge est la même que celle du NDVI car l’eau n’absorbe pas dans cette région du spectre électromagnétique.

Le NDWI est calculé par l’expression qui suit :

SWIR PIR SWIR PIR NDWI    ;

Notons que cette formule est utilisée dans le cas où l’objectif est la mise en évidence de la teneur en eau des feuilles du couvert végétal.

IV.4. Transformation chapeau haut-de-forme

Pour la seconde catégorie mentionnée précédemment, où les indices sont obtenus par modification des bandes spectrales acquises par le capteur, nous nous intéressons, dans le cadre de notre étude, à la transformation chapeau haut-de-forme.

L’analyse de données provenant de la télédétection requiert une synthèse de l’information contenue dans les bandes spectrales discrètes en une information susceptible d’être associée aux caractéristiques physiques des différentes classes composant l’image.

Ce processus de synthétisation de l’information peut être divisé en trois parties :

 Comprendre la corrélation entre les bandes spectrales par rapport aux classes qui composent l’image ;

(14)

10

 Réduire le nombre des bandes spectrales total de manière à n’en garder que l’information pertinente ;

 Extraire les caractéristiques physiques de la scène à partir des propriétés spectrales. Le caractère multispectral des images offre la possibilité de générer de nouvelles bandes appelées les pseudo-bandes. Celles-ci représentent une alternative pour la description des bandes originales en effectuant une combinaison linéaire entre elles.

Pour le cas de la présente étude, la transformation se prêtant le plus au contexte de l’étude est celle du chapeau haut-de-forme.

Cette transformation a été mise au point par Khauth et Thomas en 1976, à partir d’images satellitaires issues du capteur Landsat MSS puis TM (Crist et Cicone, 1984). La technique consiste en la génération de bandes synthétiques avec des informations décorrélées et une signification physique spécifique à partir de l’information initiale collectée par le satellite. L’analyse des données Landsat sur des régions agricoles a montré que, pour n’importe quelle date, les 4 bandes MSS primaires occupent un seul plan avec les différentes paires de bandes donnant des vues avec covariance du plan. Cette distribution plane des données résulte des corrélations entre deux bandes du visible et les deux bandes infrarouges qui se présentent comme le résultat des réflectances de la végétation et du sol.

La transformation haut-de-forme fait une rotation sur le plan des données MSS de sorte à avoir une concentration de la variabilité de la majeure partie des données sur deux propriétés. Le plan formé par les données est tel que les deux propriétés qui le définissent soient directement liées aux caractéristiques physiques de la scène.

La luminosité, qui est la première propriété, est la somme pondérée de toutes les bandes et est définie dans la direction principale de variation de la réflectance du sol. Cela mesure donc la luminosité du sol, c’est-à-dire la réflectance totale.

La seconde propriété qui est le verdoiement, est le contraste entre les bandes du visible et le proche infrarouge. La réflexion de cette dernière résultant de la structure cellulaire de la végétation verte et l’absorption du rayonnement du visible par les pigments, produisent de grandes valeurs de verdoiement pour les cibles avec de grandes densités de la végétation verte, tandis que la courbe de réflectance la plus plate est exprimée dans les valeurs les plus petites de verdoiement.

Une troisième propriété qui est le jaunissement, originellement définie dans la direction spectrale attendue à correspondre à la senescence de la plante par rapport aux données Landsat MSS, mais redéfinie comme servant au diagnostic d’humidité en utilisant les données Landsat postérieures aux données MSS (exemple : capteur TM Thematic Mapper).

(15)

11 Etant une transformation linéaire, les relations euclidiennes dans les données brutes sont conservées mais presque 95% ou plus de la variabilité totale (la majeure partie de l’information pertinente) est concentrée dans les trois propriétés et deviennent ainsi, facilement interprétables. De plus, comme c’est une transformation caractérisée par l’invariance, les propriétés sont consistantes entre scènes et peuvent être interprétées une fois les données normalisées par rapport aux effets extérieurs comme l’illumination et la géométrie.

Ces caractéristiques remarquables ont permis une adoption répandue de cette transformation sur les données Landsat MSS au départ, et par la suite, sur les données Landsat, en général. En effet, au cours des dernières années, le lancement de Landsat 4 TM, a suscité l’intérêt sur les possibilités d’appliquer cette transformation sur les données Landsat TM. Les caractéristiques de la réflectance des scènes qui donnent une concentration sur le plan avec les données MSS, et le positionnement similaire de certaines bandes spectrales des capteurs TM et MSS, suggèrent qu’une telle transformation pourrait se révéler utile d’autant plus que le nombre des canaux et la gamme spectrale des données TM sont plus importants que celles des données MSS. Par conséquent, l’amélioration de l’interprétation par réduction du nombre de bandes spectrales du capteur TM devient plus attrayante.

L’étude réalisée par Crist et Cicone, est incontournable pour la présentation du filtre morphologique en question. En effet, ils ont établi un succinct état de l’art sur les travaux de certains scientifiques concernant l’application de cette transformation sur les données du capteur TM et ont présenté la méthode en se basant sur une simulation effectuées sur des données TM.

Leurs travaux ont montré que la végétation et les sols observés sur des données TM occupaient trois dimensions définissant deux plans et une zone de transition entre les deux. Ainsi, les principales propriétés découlant de cette transformation multispectrale sont les suivantes :

 La luminosité : c’est la première propriété, qui est la somme pondérée des six bandes TM. En tant que telle, elle est sensible aux changements de la réflectance totale et aux caractéristiques physiques qui affectent la réflectance totale. De ce fait, les différences dans les caractéristiques des sols comme la taille des particules seront clairement exprimées par la luminosité, tandis que l’augmentation de la densité de la végétation qui aura tendance à augmenter la réponse de la région proche infrarouge et diminuer celle du visible, causera moins de changements dans la luminosité.

(16)

12

 Le verdoiement : cette seconde propriété est sensible à la combinaison de l’importante absorption dans les bandes du visible (suite aux pigments des plantes et principalement la chlorophylle) et la grande réflectance dans le proche infrarouge (due à la structure interne des feuilles) qui est une caractéristique de la végétation verte. Avec la propriété luminosité, le verdoiement représente « le plan de la végétation ».

 L’humidité : c’est la troisième propriété et représentant une nouvelle information. L’appellation obéit à une certaine logique car les plus longues bandes infrarouges ont été définies comme les plus sensibles à l’humidité du sol (Stoner and Baumgardner). De ce fait, les changements de l’humidité, affecteront beaucoup plus les plus longues bandes infrarouges que celles du visible et les plus courtes bandes infrarouges, et un contraste entre ces deux types de bandes mettront en évidence les caractéristiques hygrométriques des scènes. L’humidité, avec la luminosité, définissent le « plan des sols » dans l’espace de la transformation haut-de-forme.

Figure 2 : schéma des différents plans de la transformation chapeau haut-de-forme

Pour le cas de notre étude, le capteur considéré étant Landsat 8 OLI, les formules utilisées pour obtenir les composantes recherchées sont les suivantes :

(17)

13                         . 2 4559 . 0 1 7117 . 0 3407 . 0 3283 . 0 1973 . 0 1511 . 0 ; 2 1608 . 0 1 0713 . 0 7276 . 0 5424 . 0 2430 . 0 2941 . 0 ; 2 1872 . 0 1 5080 . 0 5599 . 0 4733 . 0 2786 . 0 3029 . 0 min SWIR SWIR NIR R G B Humidité SWIR SWIR NIR R G B t Verdoiemen SWIR SWIR NIR R G B osité Lu Avec :         . court rarouge inf : SWIR ; rarouge inf proche : NIR ; Rouge : R ; Vert : G ; bleu : B

En résumé, ces propriétés aident à comprendre, en termes spectraux, la relation sol-végétation en fonction des changements de la végétation au cours du temps. Les variations en chlorophylle ont un comportement caractéristique qui peut être mis en évidence par une représentation graphique temporelle et spectrale de l’indice de verdoiement.

V. Classification cartographique

La classification est un processus très important, en matière de cartographie, car permettant une visualisation claire des cartes produites. Elle peut être définie comme la méthode qui consiste en la définition d’une segmentation des différents individus qui composent la série de données analysée et ce, en ayant comme condition sine qua non, l’homogénéité des classes, le plus possible.

Le processus de classification est basé sur 4 principales étapes énumérées ci-après :

 Choix de la mesure d’éloignement entre individus (généralement, c’est la distance euclidienne qui est retenue) ;

 Choix du critère d’homogénéité des classes (généralement, c’est l’inertie) ;

 Choix de la méthode de classification (hiérarchique ascendante, descendante,…) ;

 Choix du nombre de classes.

L’homogénéité des classes est mesurée par l’inertie qui doit être minimale pour une classe et maximale entre classes.

La classification est caractérisée par un élément clé qui permet le traitement statistique de l’information, en l’occurrence, la discrétisation. Celle-ci a pour objectif de transformer la variable quantitative étudiée en une variable ordonnée afin d’en faciliter la lecture, pour des besoins de cartographique, pour notre cas.

«Perdre le moins possible d’information, du point de vue de la statistique, reviendrait à cartographier toutes les valeurs, sans discrétisation préalable. Or, nous savons que les règles de la perception visuelle contredisent cette exigence, la lisibilité de l’image cartographique étant d’autant plus grande que le nombre de signes distincts, donc de classes, est petit. Il est

(18)

14 donc indispensable de procéder à une «réduction» de l’information statistique.» (BEGUIN & PUMAIN, 1994)

Ainsi, la discrétisation ou encore la réduction statistique doit assurer la conservation de l’information en la rendant plus simple à lire. Pour cela, certaines règles doivent être respectées qui sont comme suit :

 Visualisation graphique des paramètres de tendance centrale de la série des valeurs (moyenne, écart-type, mode,…) pour mieux orienter le choix de la méthode de discrétisation ;

 Conservation de la forme de la distribution car la méthode de discrétisation prend en considération la forme du modèle théorique de la série ;

 Application du principe de ressemblance / dissemblance qui s’exprime par la minimisation de la variance intraclasse et la maximisation de celle interclasse.

Pour la représentation graphique en cartographie, 3 règles de lisibilité doivent être prises en compte :

La densité graphique : relative à la charge d’un graphique en information textuelle et/ou graphique. Un optimum est à rechercher pour éviter d’obtenir une carte vide ou trop chargée ;

La lisibilité angulaire : une forme visuelle est limitée par une série de lignes formant des angles entre elles. La lisibilité diminue quand les côtés des angles se raccourcissent trop ;

La lisibilité rétinienne : elle représente le contraste des informations dans le sens où les éléments qui composent la carte doivent avoir des poids graphiques différents pour assurer une meilleure structuration.

Ainsi, on retiendra qu’en pratique, généralement, un nombre de classes égal à 4 est choisi afin de réunir toutes les conditions ci-dessus citées.

En outre, il convient de souligner qu’il existe une bonne panoplie de méthodes de discrétisation. Le choix est souvent difficile à faire mais il reste principalement basé sur les propriétés de la distribution, et les possibilités de la représentation cartographique et des objectifs que l’on se fixe.

Dans ce qui suit, nous allons présenter les méthodes de discrétisation les plus utilisées en pratique.

(19)

15 Comme son nom l’indique, dans cette méthode, l’écart entre les classes est constant. Elle consiste à se fixer à un nombre de classe k souhaité, pour ensuite constituer les bornes des classes en prenant pour pas la quantité suivante : [(max – min)/k].

Elle est utilisée pour la représentation d’une distribution uniforme mais qui est très peu rencontrée en pratique. Si la distribution est asymétrique, cette méthode pourrait produire des classes vides. C’est pourquoi, l’emploi de ce genre de discrétisation n’est pas indiqué pour ce type de distribution.

V.2. Discrétisation par progression arithmétique

L’amplitude des classes augmente selon une progression arithmétique à raison de r. En d’autres termes, on constitue les classes à partir de la quantité [(max – min)/k], représentant ainsi la raison r, à laquelle on ajoutera la valeur minimale au fur et à mesure de la constitution des classes. Elle se prête bien pour des distributions asymétriques avec beaucoup de valeurs faibles et peu de valeurs fortes.

V.3. Méthode par progression géométrique

Au même titre que la progression arithmétique, cette méthode se prête bien à la distribution dissymétrique particulièrement pour celles où les données sont regroupées sur les valeurs faibles car elle minimise l’écart avec les valeurs fortes faiblement représentées.

V.4. Discrétisation selon les quantiles (par équifréquence)

Toutes les classes sont, dans la mesure du possible, équiréparties, c’est-à-dire qu’elles ont le même nombre d’individus (même effectif), en se basant sur le tri par ordre croissant des éléments et le calcul de l’effectif idéal par classe (qui est égal à (effectif total/k)).

Les classes successives sont constituées à partir des éléments classés selon leur rang. Ensuite, les limites des classes sont représentées par les valeurs extrêmes de chaque classe. Cependant, le poids des valeurs extrêmes s’en trouve diminué suite à leur regroupement avec des valeurs proches de la moyenne pour équilibrer les classes.

V.5. Discrétisation selon la méthode de Jenks

Avant de présenter succinctement la méthode, il nous paraît opportun de présenter le scientifique l’ayant mis au point, à savoir : Jenks. Ainsi, Jenks était un cartographe de profession. Son intérêt pour les statistiques a pris de l’importance en effectuant une étude sur la représentation ombrée des cartes afin de mettre en exergue les variations de la variable considérée dans une zone géographique.

Pour ce qui est de la méthode, celle-ci est basée sur le principe de ressemblance/dissemblance, par le calcul de la distance paramétrique entre toutes les valeurs de la série. La variance intraclasse est minimisée tandis que la variance interclasse est maximisée. C’est un

(20)

16 algorithme itératif qui forme autant de couples qu’il y a de combinaisons de valeurs tirées par ordre croissant, pour un nombre de classes donné. La variance (interclasse et intraclasse) est alors calculée en se basant sur le nombre de classes souhaité. C’est une méthode qui respecte l’allure de la série, ce qui fait d’elle, la méthode la plus adaptées des méthodes statistiques. Elle convient bien aux distributions dissymétriques.

V.6. Discrétisation manuelle

Appelée aussi méthode des seuils observés, elle consiste en le découpage de la série manuellement par le modélisateur à partir de la visualisation graphique de l’histogramme de fréquence selon les discontinuités. Elle se prête bien à des séries asymétriques plurimodales. Elle a l’avantage d’obliger l’opérateur à analyser graphiquement les valeurs pour éviter une discrétisation aveugle. Mais, elle reste, quand même, une méthode assez subjective.

En conclusion, il convient de souligner que les résultats en pratique nous enseignent qu’il n’existe présentement pas de solution qui s’impose systématiquement face à la diversité des situations. L’expérience et l’honnêteté scientifique de l’opérateur demeurent donc les seuls gages de garantie de l’objectivité des cartes par plage. En effet, il n’existe pas une méthode unique mais des orientations pour mieux effectuer les choix. Cependant, l’observation des valeurs par l’opérateur est primordiale pour un bon choix.

VI. Théorie de la décision

Les problèmes décisionnels à référence spatiale présentent toutes les caractéristiques des problèmes multicritères. Par conséquent, l’analyse multicritère devient incontournable.

Le processus décisionnel est dominé par l’incertitude et le risque. Il est donc impératif d’établir des règles de décision et des modèles prédictifs des résultats.

A présent, présentons quelques concepts relatifs à la théorie décisionnelle.

VI.1. Quelques définitions des concepts de base de la théorie de la décision

Dans ce qui suit, nous allons présenter quelques définitions de base en théorie de la décision.

VI.1.1. Critère

C’est l’élément de base d’une décision. Il est évaluable ou mesurable. Deux types de critères peuvent être distingués : les facteurs et les contraintes.

VI.1.2. Décision

(21)

17 Pour ce qui est de la contrainte et du facteur, ce dernier sert à renforcer ou à réduire la pertinence d’une alternative. C’est la variable décisionnelle et elle agit d’une manière progressive.

La contrainte, quant à elle, elle représente le facteur limitant. Elle est souvent représentée d’une manière booléenne.

VI.1.3. Règle de décision

C’est l’analyse multicritères consistant en la combinaison des critères pour obtenir une évaluation sur la base d’un seuillage. Elle aboutit à un indice permettant de comparer plusieurs alternatives entre elles.

Pour sélectionner les éléments les plus pertinents par rapport aux règles de décision, deux types de choix peuvent être effectués, à savoir :

 Choix fonctionnel : comparaison mathématique par optimisation ;

 Choix heuristique : démarches à suivre dont le résultat peut être égal ou approximatif au choix fonctionnel.

VI.1.4. Objectif

C’est la base de l’organisation des règles de décision. Le choix des critères à prendre en compte et leur pondération seront différents selon le décideur.

VI.1.5. Evaluation multicritères

Afin de satisfaire un objectif particulier, on a souvent recours à l’analyse de plusieurs critères. Deux procédures sont souvent combinées :

 La superposition booléenne en se basant sur des opérateurs d’intersection qui jouent le rôle de contraintes ;

 Combinaison linéaire pondérée (WLC) jouant le rôle de facteur et caractérisée par des coefficients de pondération.

Le résultat de cette analyse est une carte d’aptitude avec des zones masquées par des contraintes booléennes et finalement seuillées pour se prononcer sur la décision finale à prendre.

VI.1.6. Incertitude et risque

L’information est l’élément clé de la prise de décision mais elle n’est souvent pas parfaitement connue. En général, deux sources d’incertitude peuvent être distinguées :

 Incertitude liée à la base de données : c’est l’erreur relative à la précision de la mesure de la variable concernée dans la base de données qu’on utilise.

(22)

18

 Incertitude liée à la règle de décision : cela fait référence au type de la règle choisi (booléen ou autre).

En ce qui concerne le risque, celui-ci exprime la possibilité que la décision prise soit fausse. VI.2. Développement des critères et approche booléenne

La première étape de l’approche booléenne consiste à identifier les critères à considérer. Ceux-ci sont exprimés sous forme de rasters booléens de deux types : facteurs et contraintes. Tous les critères sont normalisés à la même échelle booléenne et la méthode d’agrégation est l’intersection booléenne, c’est-à-dire la multiplication des critères ou l’utilisation du connecteur logique « ET ». C’est la méthode la plus courante mais qui limite sévèrement l’analyse et contraint les choix de décision car l’aptitude d’un critère ne peut compenser le manque d’aptitude pour un autre. Par conséquent, l’approche booléenne est une méthode caractérisée par une prudence excessive en matière de risque car il n’existe pas de compromis. Une autre limite peut être soulignée qui est exprimée par le critère ‘importance’. En effet, en appliquant cette méthode, on considère que tous les facteurs dans la carte d’aptitude possèdent le même poids, ce qui est peu fréquent en pratique.

Cela étant, ce problème peut être contourné par la pondération des facteurs qui régira le niveau de compensation d’un facteur par rapport à un autre.

VI.3. Approche non booléenne par pondération par combinaison linéaire : Processus hiérarchique analytique

VI.3.1. Introduction

Contrairement à la méthode booléenne, les facteurs sont normalisés suivant une échelle d’aptitude continue, allant du moins apte au plus apte.

L’agrégation des facteurs se fait par combinaison linéaire pondérée assurant ainsi la continuité par rapport à la progression de l’aptitude et la compensation des facteurs à travers les coefficients de pondération. C’est une méthode qui est entre la prudence extrême et la prise de risque extrême.

Appelée aussi la pondération par compromis, la pondération des facteurs à agréger permet d’attribuer des poids à ces derniers. Il existe plusieurs méthodes permettant de définir ces poids ; pour notre cas, nous avons opté pour la méthode de hiérarchie analytique.

C’est une technique basée sur la construction d’une matrice de comparaison par paires en termes d’importance relative par rapport à l’objectif décisif. Par la suite, un rapport de cohérence est calculé afin de juger de la consistance du raisonnement suivi lors de l’élaboration des comparaisons par paires.

(23)

19 Dans le contexte de l’aide à la décision, le processus de la hiérarchisation analytique permet l’organisation des composantes importantes d’un problème sous forme hiérarchique, à la manière d’un arbre généalogique. C’est un outil particulièrement utile pour l’évolution des critères.

La hiérarchisation analytique est une théorie de mesure à travers la comparaison par paires et est basée sur les jugements des experts qui indiquent l’importance d’un critère par rapport à un autre.

L’analyse hiérarchique a été utilisée avec succès dans différents domaines car sa capacité à traiter des données aussi bien quantitatives que qualitatives a fait d’elle une méthodologie idéale pour les problèmes de priorisation en considérant différents critères.

Les décisions complexes sont réduites à une série de comparaisons simples appelées comparaisons par paire, entre des éléments de la hiérarchie de décision. En synthétisant les résultats de ces comparaisons, le processus hiérarchique analytique peut aider à parvenir à la meilleure décision possible et à présenter de manière claire la rationalité des choix. Chaque indicateur est comparé successivement avec les autres indicateurs de ce même critère (comparaison deux à deux).

Rappelons qu’un critère est une norme qui permet de porter un jugement. Un indicateur, quant à lui, est une variable ou une composante de l’environnement étudié. Il ne doit véhiculer qu’un seul message significatif appelé information. Il représente l’agrégation d’une ou de plusieurs données liées entre elles par des relations bien établies.

Il existe deux manières pour classer un ensemble d’éléments de décision : le classement régulier et le classement ordinal.

Classement régulier

Dans ce classement, le « rang » de chaque élément de décision est déterminé par l’importance que l’on accorde à cet élément, telle qu’elle est perçue. Les rangs s’échelonnent de 1 à 9 selon l’échelle des valeurs de Saaty qui se présente comme suit :

(24)

20

Intensité d’importance Définition

1 Importance égale

3 Modérément plus important

5 plus important

7 Fortement plus important

9 Extrêmement plus important

2, 4, 6, 8 Valeurs intermédiaires

Classement ordinal

Chaque expert liste les éléments de décision par ordre d’importance. Contrairement au classement régulier où les différents éléments de décision peuvent avoir le même rang, le classement ordinal oblige les experts à hiérarchiser les éléments les uns par rapport aux autres, en fonction de leur importance. Chaque élément est plus ou moins important relativement aux autres éléments considérés.

IV.3.2. Description de la méthode de la hiérarchisation analytique

Le processus hiérarchique analytique a l’avantage de permettre la structuration des critères en définissant des priorités. Cette méthode permet la participation active de différents acteurs dans l’exploration des options possibles pour comprendre avant d’arriver à la décision finale. De ce fait, l’objectif de cette approche est de porter un jugement sur les alternatives pour un but particulier en développant des priorités pour ces dernières et pour les critères retenus. Tout d’abord, une matrice de comparaison par paires est construite pour préciser les priorités des critères en termes de leur importance dans l’atteinte de l’objectif. Les priorités des alternatives apparaissent en termes de leur performance en fonction de chaque critère. Par conséquent, cette méthode est régie par trois principes, à savoir : la décomposition, le jugement comparatif, et la synthèse des priorités.

En organisant et évaluant les alternatives en tenant compte de la hiérarchie multifacettes des attributs, un outil d’aide à la décision quantitative est mis en place, en vue de traiter des problèmes complexes non structurés.

Les priorités sont distribuées selon la hiérarchie de l’architecture définie, et les valeurs dépendent de l’information renseignée par le modélisateur. Plusieurs comparaisons par paires sont basées sur une échelle de comparaison standard de 9 niveaux telle que définie par Saaty, comme explicité précédemment.

Le jugement est construit en se basant sur les meilleures informations disponibles et l’expérience de l’opérateur.

(25)

21 La hiérarchisation analytique se fait en quatre étapes qui peuvent être décrites comme suit :

1. Construction de la hiérarchie décisionnelle ;

2. Détermination de l’importance relative des attributs ; 3. Evaluation des alternatives et calcul du poids global ; 4. Vérification de la cohérence des évaluations subjectives.

Dans la première étape, la décision est décomposée en ses éléments indépendants et représentée dans un diagramme hiérarchique qui devrait avoir au moins 3 niveaux (but, attributs et alternatives). Ensuite, on évalue subjectivement les paires d’attributs selon l’échelle de Saaty.

Dans la troisième étape, un poids est calculé pour chaque attribut. Enfin, on évalue la consistance du raisonnement.

En termes mathématiques, la méthode se présente comme suit :

Soit C la série des critères qui s’écrit sous la forme : C

Cj / j1,2,....,n

. La matrice de comparaison par paires s’écrit alors de la manière suivante :

0 aij , aij 1 aji , 1 aii ; ann 1 an n 1 a 11 a A               

Une matrice positive est réciproque si : 

      aij 1 aji

Elle est consistante si la condition suivante est vérifiée : aij*ajkaik;k1,....,n Ainsi, on aura : aij aik ajk 1 aij. Donc : une matrice consistante est réciproque.

Une matrice est dite presque consistante si elle représente une petite perturbation d’une matrice consistante.

L’usage veut que la solution soit de nature à rechercher un vecteur w = (w1,…,wn) tel que la matrice W =(wi / wj) soit proche de la matrice ‘A’ par minimisation. Cependant, la proximité du résultat par minimisation des valeurs numériques donne peu d’informations sur la précision avec laquelle chaque élément domine un autre dans la matrice.

La hiérarchisation analytique permet l’incohérence car en portant un jugement, l’opérateur est, cardinalement, plus enclin à être incohérent que cohérent car il ne peut estimer précisément les mesures même à partir d’une échelle connue et plus encore quand il s’agit de manipuler l’intangible.

(26)

22 L’une des raisons pour lesquelles une matrice entière est étoffée, est d’améliorer la cohérence des jugements en pratique. Pour diverses raisons, un minimum d’incohérence devrait être considéré comme admis au lieu d’une cohérence forcée sans connaissance précise des valeurs. La hiérarchisation analytique utilise aussi le principe de composition hiérarchique pour obtenir des priorités composites de toutes les alternatives par rapport à chaque critère. Cela consiste en la multiplication de chaque priorité d’une alternative par la priorité du critère qui lui correspond, pour faire l’addition de tous les critères afin d’obtenir la priorité globale de l’alternative en question.

Le poids relatif est donné par le vecteur des valeurs propres adéquat correspondant aux valeurs maximales des valeurs propres dans l’équation qui suit :

max

*w; w

A  

Si les comparaisons par paires sont complètement consistantes, la matrice A est de rang 1 et

max

n;

Dans ce cas, les poids peuvent être obtenus en normalisant l’une des lignes ou colonnes de la matrice ‘A’. Ainsi, le résultat de cette analyse est intimement lié à la matrice de comparaison par paires. La construction de cette matrice est, donc, délicate.

Pour ce qui est du test de consistance, comme son nom l’indique, il permet de vérifier la cohérence de la matrice de comparaison par paires et si la relation de transitivité existe réellement.

La procédure à suivre se présente comme suit : La consistance est définie par : aij*ajk aik;

On écrit alors le vecteur des sommes pondérées Ws :

 

Ws

 

A *

 

W ; Avec : [A] : matrice de comparaison par paires ; {W} : vecteur des poids calculés.

Ensuite, on détermine le vecteur de consistance défini par :

consist

 

Ws *

1 W

; et l’indice de consistance CI est alors calculé par l’expression suivante :

n

n 1

CI max   ;

max

étant la valeur maximale des valeurs propres, n représentant le nombre de critères. Enfin, le ratio de consistance CR est calculé par :

RI CI CR ;

Le seuil maximal du CR est de 0.1. Si le seuil est dépassé, on refait la comparaison par paires en réévaluant le jugement pour avoir des valeurs de comparaison raisonnables.

(27)

23 Notons que l’indice aléatoire RI est tabulé selon le nombre de critères comme suit :

n 1 2 3 4 5 6 7 8 9 10

RI Random Index 0.00 0.00 0.58 0.90 1.12 1.24 1.32 1.41 1.45 1.49

VII. Application : cas du département de la Drôme

VII.1. Présentation de la zone d’étude

Le département de la Drôme est un département français situé dans le quart sud-est de la France, en région Auvergne-Rhône-Alpes. Son nom vient de la rivière du même nom (la Drôme), longue de 110 km. C’est une rivière préalpine et représente l’un des affluents du Rhône.

 Contexte géo-climatique

Afin de caractériser le relief drômois, deux grands ensembles peuvent être distingués à savoir les massifs préalpins et la dépression rhodanienne. Les massifs préalpins comprennent du nord au sud, le Vercors, le Haut-Diois et les Baronnies. Pour ce qui est de la dépression rhodanienne, celle-ci s’étend du nord au sud, des vallées de l’Isère, de la Drôme, jusqu’au Jabron.

Le climat est continental montagnard à l’Est alors qu’il est sous influence océanique à l’Ouest. Au sud de la vallée du Jabron, l’influence méditerranéenne domine. Les précipitations sont de l’ordre de 800 mm par an sauf sur les plateaux du Vercors et le Haut-Diois où elles atteignent respectivement 1400 mm et 1100 mm par an (IFN, 1996). Au niveau de l’hydrographie, la Drôme, longue de 110 kilomètres et axée d’Est en Ouest, draine tout le centre du département. Le Rhône sert d’exutoire pour l’ensemble des eaux drômoises.

La rivière Drôme prend sa source au niveau de la Bâtie des Fonds, à 1030m d’altitude et conflue en rive gauche du Rhône après un parcours de plus de 100km, sur les communes de Loriol-sur-Drôme et de Livron, à 86m d’altitude.

Les principaux affluents de la Drôme proviennent du Vercors, et la rejoignent en rive droite. Il s’agit du Bès, de la Sure, et de la Gervanne. Le seul affluent important en rive gauche est la Roanne qui prend sa source dans le massif du Diois.

Les figures qui suivent montrent une situation géographique de la zone d’étude ainsi que les principaux cours d’eau qui la caractérisent.

(28)

24 Figure 3: localisation de la zone d'étude sur le territoire français

(29)

25 Figure 4: Département de la Drôme avec ses principaux cours d'eau

(30)

26 VII.2. Résultats des indices issus de la télédétection

Selon les données disponibles et la possibilité de calculer les indices spectraux suivant le capteur retenu, les rapports de bandes considérés sont au nombre de quatre, en l’occurrence : le NDVI (indice de végétation par différence normalisée), l’indice de brillance IB, le NDWI (indice d’humidité par différence normalisée) et enfin les trois composantes résultant de la transformation chapeau haut-de-forme.

Le calcul des indices précités a été effectué après réalisation des différents prétraitements détaillés précédemment.

Les résultats obtenus pour chaque indice spectral calculé sont données sous forme de raster dans les figures suivantes :

VII.2.1. Résultats et interprétation du calcul de l’indice de végétation par différence normalisée NDVI

(31)

27 Figure 5: NDVI calculé sur la Drôme

Interprétation des résultats

Nous remarquons à partir de la carte que les zones à fort indice de végétation représentent celles à couvert végétal dense car il y a une forte absorption suite à l’importante activité

(32)

28 chlorophyllienne des pigments. Le puits d’absorption s’élargit car la bande rouge devient saturée et c’est uniquement la bande proche infrarouge qui augmente le contraste ; ceci d’une part.

D’autre part, on peut constater que la relation est proportionnelle entre la diminution de la valeur de l’indice de végétation et la présence de plans d’eau. Ainsi, plus l’indice de végétation diminue, plus les plans d’eau sont mis en évidence. Ce qui confirme le précepte théorique selon lequel pour des valeurs très faibles du NDVI, la classe d’occupation des sols qui est indiquée est celle correspondant aux eaux présentes en surface, en l’occurrence les cours d’eau permanents et les plans d’eau. Cela s’explique par l’importance de la réflectance dans la bande spectrale rouge par rapport à la réflectance enregistrée dans la bande infrarouge. De ce fait, le seuil ayant été choisi pour la construction du filtre des zones potentiellement humides correspond aux valeurs négatives de l’indice de végétation par différence normalisée.

VII.2.2. Résultats et interprétation du calcul de l’indice d’humidité par différence normalisée NDWI

(33)

29 Figure 6: NDWI calculé sur la Drôme

Interprétation des résultats

Comme l’indique son nom, cet indice a pour principale caractéristique la mise en exergue des classes correspond aux entités hydriques. En effet, l’eau a pour propriétés spectrales, une grande absorption dans la bande infrarouge à courte longueur d’onde (SWIR) et une faible

(34)

30 absorption dans la bande proche infrarouge. De ce fait, plus la valeur de cet indice augmente, plus les eaux superficielles sont détectées car la bande SWIR devient saturée suite à l’importance de la réflectance dans la bande proche-infrarouge. Par conséquent, les valeurs positives de cet indice indiquent la présence de l’eau sur le couvert végétal. Ce qui suggère des traces d’humidité au niveau de la zone en question.

VII.2.3. Résultats et interprétation du calcul de la composante d’humidité de la transformation haut-de-forme

(35)

31 Figure 7: Composante ‘humidité’ issue de la transformation chapeau haut-de-forme

(36)

32 Commentaire des résultats

Nous pouvons constater à travers la formule mathématique régissant cette composante issue de la transformation chapeau haut-de-forme que les coefficients pondérant les réflectances des courtes bandes proche infrarouge SWIR sont les plus élevés car les variations des caractéristiques hygrométriques sont plus sensibles à cette gamme de longueurs d’ondes. Ainsi, pour le filtre proposé, toutes les valeurs ont été prises en compte avec une pondération jugée raisonnable (d’après les calculs présentés plus loin).

(37)

33 Figure 8: indice de brillance calculé sur la Drôme

Interprétation des résultats

Cet indice reflète le comportement spectral du sol nu englobant plusieurs effets à savoir : le type du sol, la teneur en matière organique et la teneur en humidité du sol. Compte tenu de la stabilité temporelle relative de la teneur en matière organique et du type de sol, cet indice est

(38)

34 considéré comme étant un bon indicateur des conditions d’humidité du sol au moment de la prise de vue. Cela étant, il reste un indice difficile à interpréter, mais tenant compte de la carte obtenue, on peut conclure que les valeurs les plus faibles correspondent aux surfaces humides. Mais pour le cas du filtre, toutes les valeurs ont été prises en considération avec une faible pondération pour éviter l’attribution d’un poids trop élevé aux cours d’eau car les zones recherchées ne sont pas forcément rivulaires uniquement.

(39)

35 Figure 9: Indice topographique calculé sur la Drôme

Interprétation des résultats

Nous remarquons à partir de la carte que les valeurs les plus faibles correspondent aux crêtes, tandis que les valeurs les plus fortes caractérisent les dépressions de drainage. Sachant que les zones à fort indice topographique favorisent la formation d’une zone potentiellement humide,

(40)

36 la classe correspondant aux valeurs les plus fortes pour cet indice a été retenue comme critère pour la composition du filtre objet de notre étude.

VII.2.6. Résultats et interprétation du calcul des ruptures de pente

Figure 10: ruptures de pentes calculées sur la Drôme Interprétation des résultats

Les ruptures des pentes caractérisent les courbures du relief. Les valeurs positives de cet indice caractérisent les courbures convexes, tandis que celles négatives caractérisent les courbures concaves. De ce fait, le critère convenant au présent cas d’étude est celui

Figure

Figure 1 : Les différentes longueurs d'ondes du spectre électromagnétique
Figure 2 : schéma des différents plans de la transformation chapeau haut-de-forme
Figure 10: ruptures de pentes calculées sur la Drôme  Interprétation des résultats
Figure 11: cartographie des zones potentiellement humides sur la Drôme

Références

Documents relatifs

La végétation, si elle est spontanée, peut être qualifiée d'hygrophile lorsque la moitié des espèces dominantes (espèces qui suffisent à atteindre 50 % de taux de

Dans un 1 er temps, on pourra simplifier le problème et négliger les frottements de l’air et appliquer le principe de conservation de l’énergie mécanique. Dans un 2 nd temps,

ﺾﻌﺑ ﰲ ﺪﳒ ﺎﻨﻧأ ذإ ،ﺞﺘﻨﳌا ﻒﻴﻟﺎﻜﺗ ﺎﻬﻌﻣ ﺖﻌﻔﺗرا ةدﻮﳉا ﺖﻌﻔﺗرا ﺎﻤﻠﻛ ﻪﻧأ ﻰﻠﻋ ﻢﺋﺎﻘﻟا مﻮﻬﻔﳌا ﺾﻔﺨﻨﻣ ﺔﻴﻟﺎﻌﻟا ةدﻮﳉا وذ ﺞﺘﻨﳌا نﻮﻜﻳ يأ ﻒﻴﻟﺎﻜﺘﻟاو ةدﻮﳉا ﲔﺑ ﺔﻴﺴﻜﻋ ﺔﻗﻼﻋ

Selon des données probantes de niveau consensus, les injections de corticostéroïdes ne sont pas recommandées comme modalité initiale de traitement pour réduire la douleur et augmenter

nouveau 3 à 24 mois Différence de changement intergroupe : aucune différence statistiquement significative pour le CMS entre les trois groupes. ADL : Activity of daily

* Détermination de la graduation 100 : on plonge le réservoir du thermomètre dans de l’eau en ébullition sous la pression atmosphérique normale.. Le liquide dans le capillaire

L’événement « manger une salade verte et une pizza aux quatre fromages » a une probabilité de 1/6. L’événement «manger une salade verte, une pizza végétarienne et une

Le registre épique vise à impressionner le lecteur, à provoquer son admiration pour les exploits, parfois merveilleux, toujours extraordinaires, d’un héros individuel ou