• Aucun résultat trouvé

L’analyse des informations exogènes, le cas particulier des données satellitaires

Dans le document Habilitation à diriger des recherches (Page 117-159)

Mise en ordre de l’information géographique sur le Paysage et

2.3. L’analyse des informations exogènes, le cas particulier des données satellitaires

À l’exception des images acquises par une technologie à balayage9, les données issues de la télédétection « passive » sont directement, ou presque, utilisables (ce qui est loin d’être le cas avec les images radars dont nous ne parlerons pas ici). Avant même d’intervenir sur la géométrie et le géoréférencement des données il est possible de les visualiser. Nous n’insisterons pas sur les technologies et algorithmes de visualisation et d’étalement de dynamique abondamment décrits dans la littérature. De même, ayant déjà évoqués quelques aspects techniques et « pièges » liés à la géométrie et aux rééchantillonnages des images en première partie, nous ne développerons pas ce thème lui aussi abondamment documenté. Tout juste rappellerons-nous qu’en ce domaine une longue expérience concrète est bien souvent indispensable pour réellement appréhender la question. Enfin, nous n’évoquerons pas les nombreux indices et autres analyses factorielles qui ont pour but de produire des néocanaux représentant une information synthétique (cf. plus bas). Ce sont des traitements très utiles, couramment utilisés et abondamment décrits mais dont la mise en œuvre est complètement automatique et ne nécessite pas une pratique approfondie de l’outil. Or nos propos se veulent avant tout un éclairage personnel des expériences acquises dans la mise en œuvre de la télédétection.

9 Les données Landsat MSS et TM ne sont pas acquises par une technologie CCD mais par un procédé lié à l’oscillation d’un miroir. Outre que les temps d’acquisition sont plus longs (25 s contre 9 s pour une scène SPOT, par exemple) cette technologie nécessite des traitements spécifiques pour donner forme aux scènes : éliminer le décalage vers l’ouest – la terre ne s’arrête pas ! - des blocs de lignes correspondants à une fauchée d’oscillation ; rééchantillonner l’image pour assurer une cohérence géométrique aux données initialement perturbées par les vitesses d’oscillation du miroir ; éliminer l’effet de lignage dû au balayage entre les blocs de lignes…

Une fois traduite sous forme d’image, d’une multitude d’images en fait puisqu’il suffit de changer les canaux et/ou l’ordre de la composition colorée et/ou les étalements de dynamique pour obtenir une représentation différente de la même information initiale, la lecture de celle-ci fait appel aux règles d’interprétation visuelle et de connaissance du terrain observé. Cette mise en scène de l’information numérique est le premier contact incontournable avec les données et joue par conséquent un rôle majeur dans la manière dont on procédera par la suite. Il est évident que, à ce niveau d’intervention, dans une très grande majorité des cas on cherchera à cartographier ce qu’on voit concrètement dans les images, quelle que soit la méthode utilisée pour y parvenir. Une des plus simples et des plus efficaces bien que fastidieuse consiste à réaliser une carte d’occupation du sol en partant d’une interprétation visuelle.

2.3.1. Nomenclature et interprétation d’images

Les images donnent à voir une scène directement assimilable par nos sens parce que représentant la même information – ou presque – que celle qui résulte de la vision directe : le spectre visible du rayonnement électromagnétique. La partie infrarouge de ce spectre, bien qu’inaccessible à nos yeux, est interprétée par analogie lorsqu’on la traduit dans une image en composition colorée. Assez rapidement le jeu des couleurs qui en résulte – classiquement la végétation dans les teintes rouges – ne perturbe pas la lecture des images.

On « reconnaît » les éléments de l’occupation du sol en intégrant leurs couleurs, leurs formes, leurs voisinages, leurs textures… La carte d’occupation du sol s’imprime en temps réel dans nos schèmes personnels au fur et à mesure que l’on promène notre regard sur la scène reconstituée comme si nous étions nous-mêmes en orbite. En quelque sorte « il n’y a plus qu’à » dessiner cette interprétation mentale…

S’il n’existe pas d’application informatique capable de remplacer efficacement l’interprétation visuelle des images, il n’en demeure pas moins que celle-ci doit reposer sur un langage commun et normé. Les échelles de restitution pour l’interprétation et le rendu final doivent être précisées de même que la taille de la maille élémentaire d’interprétation

permettre une lecture exhaustive de l’occupation du sol et être organisés hiérarchiquement.

Une telle nomenclature reflète le niveau d’observation voulu initialement, qui définit lui-même le choix des caractéristiques techniques des images elles-lui-mêmes arrêtant les échelles

« d’interprétation » et de restitution sérieusement envisageable…

Un exemple connu est la nomenclature Corine Land Cover (Coordination Information Environnement) mise en place par l’agence européenne de l’environnement en 1989, « the Corine land cover database provides a pan-European inventory of biophysical land cover, using a 44 class nomenclature. It is made available on a 250m by 250m grid database which has been aggregated from the original vector data at 1:100 000. Corine land cover is a key database for integrated environmental assessment » (site de l’AEE10). Plusieurs centaines d’images ont été nécessaires, des premières données MSS utilisées sur des sites pilotes à la finalisation du programme avec des scènes SPOT XS orthorectifiées. Sous couvert d’accord préalable (facilement accordé pour des applications scientifiques) il est possible d’obtenir gratuitement les données Corine au format raster ou vecteur, globalement ou par région d’intérêt…

La figure 39 présente la cartographie Corine à différentes échelles. Il est clair qu’au-delà du 1/250 000, initialement prévu comme échelle de restitution, les données ne sont d’aucun intérêt. Au 1/100 000, la comparisaon avec une image Spot panchromatique le souligne particulièrement : le détail des éléments de l’occupation du sol est gommé tant d’un point de vue graphique que thématique. Outre que la méthodologie développée pour Corine n’est pas adaptée à des niveaux très fins de description spatiale des paysages, les résolutions des images ont considérablement évoluées entre les données MSS utilisées sur les sites pilotes – c’est le cas du sud-ouest de la France – et les données TM et XS observées ensuite.

10 On trouve à l’URL http://dataservice.eea.eu.int/dataservice, un excellent manuscrit décrivant en détail la mise en place de la nomenclature CORINE et les règles à appliquer. Ce manuel permet de prendre conscience qu’on ne se rend toujours pas compte de la difficulté inhérente à une telle démarche.

0 1 2 4 km

0 5 10 20 km

0 200 400 800 km

1/250 000 1/100 000

1/100 000 - S potPan

chromatique

Figure 39 : Corine Land Cover à différentes échelles

La figure 40 détaille ces différences pour la région de Figueras en Espagne. On y voit les polygones d’occupation du sol de Corine Land Cover (interprétation d’une image MSS de 1973) en vis-à-vis à une image Landsat TM de 1997 interprétée avec la même nomenclature mais à partir d’un document au 1/25 000 pour une restitution au 1/50 000.

Ces différences seraient bien entendu encore plus marquées avec des images actuelles.

Entre les deux documents les écarts sont très importants et mettent en évidence l’inadéquation de la méthode Corine pour des analyse à haute résolution spatiale.

Figueras

Figueras

Corine - MSS 1973 Corine - TM 1997

composition colorée - TM 1997

composition colorée - MSS 1973

Figure 40 : Corine d’hier et d’aujourd’hui…

On peut se poser la question de l’utilisation de Corine pour l’avenir notamment dans une perspective de suivi diachronique des changements de l’occupation du sol ? Nous l’avons clairement rappelé, si ce n’est dans les mêmes conditions d’interprétation et pour une description pan-européenne, il n’est pas envisageable d’intégrer les résultats pour des analyses multidates. En revanche, l’état des lieux qu’ils ont permis – même si plus de 15 ans séparent les images les plus anciennes des plus récentes – et surtout la méthodologie développée restent une référence. L’idéal, dans une perspective de suivi des changements, serait de disposer des données brutes numériques qui ont servies à dresser l’inventaire Corine Land Cover. La mise en ligne de telles informations actuellement possible après accord ouvre évidemment des perspectives intéressantes pour élargir la portée des applications issues de Corine Land Cover.

Pour des études qui nécessitent de plus grandes échelles de restitution il est possible de garder la base thématique de la nomenclature (annexe 7igure) et d’y introduire des sous-thèmes dédiés à une description plus détaillée de l’espace fondée sur une maille d’observation initiale beaucoup plus fine : « Pour les espaces bâtis, la nomenclature de CORINE ne distingue pas l’habitat proprement dit des zones d’activités, et surtout sa mise à jour décadaire ne répond pas aux exigences de suivi annuel ou au mieux tri-annuel des évolutions. Pour les espaces naturels, les seuils minima de surface liés à l’échelle de saisie (1:100 000) ne permettent pas la représentation de petites zones de loisirs ou d’espaces boisés. Cependant, grâce à sa nomenclature détaillée, la version 2000 de CORINE peut servir à dériver un inventaire initial des espaces naturels à cette date, par sélection des thèmes « ni agricoles ni artificiels », avant mise à jour par un procédé permettant d’affiner le partitionnement géographique ». (Espace et Aménagement du territoire : Des tableaux de bord pour une politique de développement durable, Rapport du groupe de réflexion Présidé par Jean POULIT Conseiller du président du CNES, 2003).

Figure 41 : Le MOS et la cartographie à très grande échelle

L’IAURIF (Institut d’Aménagement et d’Urbanisme de la Région Île-de-France) propose une méthodologie d’interprétation d’images fondée sur la nomenclature MOS (Mode

d’Occupation du Sol) qui décline jusqu’à 110 postes observés à partir d’orthophotographies de la région parisienne (figure 41). Les images Quickbird ou Ikonos conviendraient ici tout aussi bien d’autant plus que les prochaines missions de l’IGN utiliseront un capteur numérique et non plus le support argentique.

Dans les deux cas, la démarche s’appuie sur des données de nature identique mais avec des niveaux d’interprétation et des échelles de restitution différents. L’interprétation visuelle des images est à l’heure actuelle grandement facilitée par la possibilité de numériser en temps réel les objets identifiés. Elle reste néanmoins une méthode longue et fastidieuse – donc coûteuse – d’utilisation des images satellites. Elle est cependant incontournable dans certains cas notamment pour la cartographie détaillée des milieux urbains qui n’est pas encore réalisable de manière « automatique » malgré les très hautes résolutions spatiales des images déjà citées. On pourrait même dire que l’augmentation de la précision contribue encore à compliquer les analyses ! Nous l’avons évoqué plus haut, les milieux urbains sont composés d’une mosaïque de petits éléments surfaciques et linéaires dont la signification varie non pas en fonction de leur signature spectrale mais en fonction de l’utilisation sociale qui en est faite. On observe très nettement sur la figure 42 qu’une allée dans le site industriel n’est pas identifiée de la même manière qu’une voie de communication alors qu’elle sont en tout point comparable en termes spectral et géométrique. De fait, les nomenclatures utilisées pour asseoir l’interprétation des images sont fondées sur la reconnaissance d’objets complexes qui intègre non seulement la « teinte » mais également la forme, la texture et le contexte géographique général. Toutes ces informations sont analysées en temps réel par un opérateur humain spécialisé – nous le rappelions plus haut – mais dépasse largement les possibilités des applications informatiques.

En mettant à part l’analyse des milieux urbains et des infrastructures de transport qui demandent une approche particulière, les traitements de cartographie de l’occupation du sol sont néanmoins couramment utilisés en télédétection. D’une part, ils donnent des résultats d’assez bonne qualité et, d’autre part, ils permettent de réduire considérablement les coûts et les temps de traitement.

2.3.2. Pixels et classification

Les principes de classification d’images sont connus et abondamment décrits dans la littérature. Nous nous contenterons d’en rappeler les logiques de manière à pouvoir attirer l’attention sur ce qui nous semble être des pièges à éviter. On distingue deux types de classifications, supervisées ou non. Nous avons vu plus haut les principes de classifications en analyse des données (nuées dynamiques ou décomposition de la variance et arbre hiérarchique). Ils peuvent s’appliquer aux données satellitaires dans une démarche non-supervisée où la signification thématique des classes est à interpréter a posteriori. Dans le cas particulier de la télédétection, plus les éléments d’occupation du sol occupent de grandes surfaces bien circonscrites plus les résultats seront probants… Mais de tels cas de figure s’observent rarement ce qui rend toujours problématique la définition thématique des classes ainsi mises au jour. Les CAH sont par ailleurs très peu utilisées en traitement d’images. Non pas qu’elles donnent de mauvais résultats mais elles imposent des contraintes techniques très lourdes et longues en temps de calcul. Par exemple, une image SPOT 5 en mode multibande de 60 km de côté est composée de 36.106 pixels. Le tableau de distances initiales comptera donc 36 millions de lignes et 36 millions de colonnes ! Même s’il est symétrique la première itération demandera 6.48000018 10 14 calculs de distances (9)… Le problème est identique avec la méthode de Ward, le nombre de combinaisons possibles pour décomposer la variance est donné par la formule de Stirling (10) :

(9) N = n*(n+1)/2

(10) S(n,k) = ((n-1)*(k-1)) + S(n-1,k-1) avec S(n,1) = S(n,n) = 1

où : n : nombre d’individus ; k : nombre de classes ;

N : nombre de distances à calculer.

Cette contrainte interdit toute mise en œuvre exhaustive de la procédure, avec n = 36 106 et k = 2, soit le premier regroupement possible, le nombre de Stirling est de 179 999 995 ! Il est cependant toujours possible de classer un échantillon représentatif et d’agréger ensuite les pixels selon une règle de proximité aux noyaux des classes retenues (cf. plus bas). Nous le rappelions en première partie, le plan d’échantillonnage devra alors être fondé sur une méthode systématique aléatoire non-alignée de manière à intégrer en plus des valeurs radiométriques les critères de localisation spatiale des points échantillonnés.

Toutes ces raisons expliquent pourquoi les classifications dites supervisées sont souvent préférées de manière à introduire d’entrée la connaissance que l’on a du terrain pour élaborer les règles statistiques d’agrégation des pixels. La classification supervisée repose sur la correspondance entre des bibliothèques de signatures spectrales et les différents modes d’occupation du sol. On sait que ce type de cartographie n’a qu’une valeur indicative et doit être manipulée avec circonspection. En effet, il n’est pas possible de définir les termes d’une relation constante entre objets et signatures spectrales et ce d’autant plus que la valeur de luminance apparente exo-atmosphérique des pixels n’est en rien comparable au modèle de radiance élaboré au sol11. Néanmoins, on peut raisonnablement espérer obtenir des résultats intéressants en comparant les pixels d’une image avec des ensembles de pixels préalablement identifiés et interprétés, c’est le principe même des classifications supervisées.

On retrouve ici la notion d’échantillon représentatif et tout son corollaire. Même si une image effectue le recensement exhaustif d’une population de pixels selon plusieurs variables on ne pourra appliquer des critères probabilistes pour définir le plan d’échantillonnage en vue d’une classification supervisée. Tout au plus veillera-t-on à couvrir le plus possible toute l’image pendant la phase d’identification des sites témoins (souvent appelés « zone d’apprentissage ») de manière à tenir compte d’éventuelles distorsions locales du signal.

11 Des modèles performants de correction atmosphérique existent, ils nécessitent un nombre de paramètres très difficile à réunir dans la majorité des cas (paramètres décrivant les variables « instables » de l’atmosphère) puisqu’ils demandent un sondage vertical de l’atmosphère réalisé pendant la prise de vue…

Figure 42 : Zones d’apprentissage et statistiques associées

La figure 43 présente un exemple d’identification de zone d’apprentissage et de tableau de statistiques descriptives qui serviront à définir les propriétés de chaque zone ou ensemble de zones. La mise en place d’une nomenclature est requise afin de dresser l’inventaire des thèmes à identifier. Contrairement à une nomenclature élaborée pour une interprétation visuelle des images, celle qui est retenue pour une classification doit tenir compte de la nature du signal et de la logique mathématique du classement. « La même couverture peut avoir différentes utilisations : par exemple, la forêt peut être utilisée pour le bois, le tourisme ou comme réserve hydrologique et faunique. La même utilisation peut avoir plusieurs couvertures : par exemple, une terre agricole peut être en sol nu, végétalisée ou couverte d’eau d’irrigation. La télédétection ne « voit » que la couverture du sol, parce

que seule celle-ci se manifeste par des caractères détectables à distance, comme des variations des propriétés optiques de la surface. L’utilisation du sol doit alors être obtenue par déduction et analyse de la couverture du sol » (Bonn, 1996).

1 Chaque classe est définie par une borne min. et max.

pour chaque canal. Les points inclus dans les bornes d'une classe y sont affectés, les autres ne sont classés

dans une 11èmeclasse. Les zones hachurées correspondent aux zones de confusion.

Agrégation selon la plus petite distance Chaque classe est définie par un centre de gravité qui n’est autre

que la moyenne de tous les points d'apprentissage. On agrège les points selon la plus petite distance linéaire euclidienne à un

centre de gravité. Tous les poins sont classés En filigrane la partitionfinale de l’espace des valeurs.

Méthode probabiliste

Les classes sont définies par des ellipses d’équiprobabilité (algorithme des maximums de vraissemblance). Les points sont

agrégés à la classe pour laquelle la probabilité est la plus forte.

Figure 43 : Trois méthodes principales d’agrégation

Une prairie naturelle, une pelouse dans un quartier pavillonnaire ou celle d’un terrain de sport seront caractérisées par une même luminance apparente et on ne pourra les distinguer, d’autant plus que les algorithmes de classement les plus répandus fonctionnent pixel par pixel sans intégrer de logique spatiale. D’où de nombreuses confusions résiduelles irréductibles quelle que soit la technique de classement retenue (figure 43). On

en distingue principalement trois : les méthodes par seuillage ; les méthodes par agrégation selon un critère de distance et les méthodes probabilistes.

Les méthodes par seuillage consistent à classer un individu dans une des k classes pour laquelle la valeur de luminance apparente pour tous les canaux utilisés est comprise dans les bornes minimales et maximales définies par les zones d’apprentissage. La classe k+1 est celle des individus qui ne vérifient pas ces conditions. C’est une méthode rapide à mettre en œuvre mais qui donne rarement de bons résultats du fait des trop nombreuses confusions thématiques (cf. figure 43).

Les méthodes d’agrégation selon la plus petite distance (11) à un point offre l’avantage de classer tous les individus dans les k classes définies. Pour chacune d’entre-elles la moyenne arithmétique de tous les canaux est considérée comme un centroïde – on retrouve les hypothèses faites dans la cadre des méthodes paramétriques – dont on calcule la distance aux individus à classer. Ceux-ci sont agrégés à la classe la plus proche. Les cercles, sphères ou hyperspheres obtenus partitionnent tous l’espace de représentation des canaux comme le montre la figure 43. La masse des confusions est réduite mais elle demeure importante.

Lorsque la distance spectrale euclidienne n’est pas significative – en milieu urbain, par exemple – on préfère utiliser le distance de Mahalanobis (12) qui assure une meilleure séparabilité des classes.

DSxy, c : distance spectrale entre le pixel xy et la moyenne arithmétique de la

(12) DMxy, c = (X – Mc)T.(Covc-1).(X-Mc) où : X : vecteur des signatures du pixel xy ;

c : une classe ;

Mc : moyenne arithmétique des pixels de la classes c ;

T : fonction de transposition ; Covc-1

: inverse de la matrice de covariance des signatures des pixels de la classe c ;

DMxy, c : distance de Mahalanobis entre le pixel xy et la classe c.

Les méthodes probabilistes « permettent de segmenter l’espace spectral suivant des règles de décision où les risques d’erreur sont minimisés par calcul de probabilités » (Bonn, 1996). Des tables de probabilités sont dressées selon un principe appelé maximum de vraisemblance (13 et 14).

(13) P(Bi|A) > P(Bj|A)

où : P(Bx|A) : probabilité de l’évènement Bx sachant que l’évènement A est réalisé ; (14) P(A|Bi).P(Bi) > P(A|Bj).P(Bj)

Où : P(A|Bx) : probabilité de l’évènement A sachant que l’évènement Bx est réalisé ;

Où : P(A|Bx) : probabilité de l’évènement A sachant que l’évènement Bx est réalisé ;

Dans le document Habilitation à diriger des recherches (Page 117-159)