• Aucun résultat trouvé

L’approche spatiale obéit à un principe d’exhaustivité (tout le territoire est classifié) et à un principe topologique (les polygones ne se recouvrent pas et partagent les mêmes limites), constituant un intérêt majeur par rapport à d’autres approches. Les moyens techniques utilisés pour cette représentation et cette classification déterminent la précision des données. Cette approche apporte de nombreux avantages. Tout d’abord, il est possible de réinterpréter la donnée brute avec une nouvelle nomenclature plus fine ou une unité minimale cartographiée plus précise, par exemple. Dans les autres approches, la donnée brute n’est pas fixée avant la classification. Autrement dit, avec une approche spatiale, la classification est plus aisément vérifiable. Un autre avantage est que la donnée spatiale est directement exprimée en surface, ce qui évite d’avoir à recourir à des règles statistiques d’extrapolation et d’avoir des problèmes liés à la représentativité de points mal classés. Un troisième avantage est qu’il s’agit d’une donnée spatialement explicite aisément comparable à d’autres données spatiales par intersection via un SIG. De plus, là où les enquêtes de terrain ou bien les campagnes de photographies aériennes restent coûteuses à mettre en place année après année, la répétition est au cœur du dispositif satellitaire, ce qui assure une continuité utile pour créer de longues séries temporelles à partir des années 1970 (Zhu et Woodcock, 2014). Enfin, l’intérêt de la télédétection satellitaire a aussi été démontré pour suivre certaines classes d’occupation en particulier : les surfaces urbanisées (Guérois, 2008 ; Jacqueminet et al, 2013 ; Mertes et al, 2015),les forêts (Zhu et al, 2012 ; Xin al 2013 ; Cherrington al 2015), les cultures (Corgne, 2004 ; Waldner al 2015 ; Valero al 2016), les prairies (Bock et al, 2005 ; Ichter et al, 2014 ; Zlinsky et al, 2014), les zones humides (Dahl, 2004 ; Vacquie, 2011 ; Tiner, et al. 2015) et les surfaces en eau (Verpoorter et al, 2014).

Limites

Il est nécessaire de procéder à différents prétraitements (corrections géométriques, radiométriques, homogénéisation, rehaussement) des données brutes avant d’en traiter directement les informations pour produire des cartes d’occupation du sol (Girard & Girard, 1999). En particulier, le redressement, pour que l’ensemble des vues se superposent parfaitement, oblige à recalculer, (rééchantillonnage) la valeur des pixels, en fonction de leur nouvelle localisation1. L’ensemble des procédures de retraitement, de correction et de calibrage des données satellitaires est essentiel pour s’assurer de la qualité de la comparaison des données dans le temps, et donc de la pertinence des analyses de changements d’occupation du sol qui en sont tirées. Ces opérations peuvent être longues et à l’origine de certaines erreurs. La classification à partir des données acquises par les capteurs relève d’une approche moins intuitive qu’une interprétation visuelle (sur le terrain ou à partir de photos aériennes), et dès lors l’évaluation de l’exactitude fait appel à une plus grande technicité. Si la télédétection satellitaire permet de suivre avec plus d’acuité l’occupation biophysique du sol, l’interprétation de l’utilisation du sol reste un exercice plus complexe. De plus, comme toute approche spatiale, la simplification de la complexité du terrain reste un inconvénient majeur. En, effet, le polygone appartenant à une classe peut correspondre à une surface hétérogène, et ses limites peuvent mal correspondre à la situation réelle (voir section 3.3.2). Les utilisateurs de produits issus de télédétection soulignent régulièrement leur incapacité à répondre aux besoins de précision (Townshend, 1992 ; Wilkinson, 1996 ; Gallego, 2004 ; Lu et al, 2008). Cette notion de précision sera définie en section 3.3.1, car elle recouvre différentes dimensions.

L’approche classique consistant à classer chaque pixel puis à comptabiliser le nombre de pixel dans une classe pour connaitre la superficie totale de celle-ci induit un biais de mesure important : à moins que les erreurs soient absolument symétriques, les erreurs sont proportionnelles à la taille d’une classe (Czaplewski, 1992 ; Gallego, 2004 ; Stehman, 2005 ; Särndal et al, 1992). L’estimation des intervalles de confiance et de l’erreur standard est un exercice nécessaire mais qui ne prend pas toujours en compte ces éléments (McRoberts, 2011) : les méthodes développées pour évaluer l’exactitude des surfaces estimées restent encore sous-employées (Olofsson et al, 2013).

Qualité

La qualité des produits d’occupation du sol issus de télédétection satellitaire dépend en premier lieu de la qualité de l’image brute, des corrections effectuées – notamment le rééchantillonnage – et ensuite des niveaux de résolution du produit : i/ la résolution spatiale, qui s’exprime en unité minimale détectée (déterminant la taille du pixel) mais aussi en échelle de visualisation (par exemple 1/50 000e) ; ii/ la résolution radiométrique ; et iii/ la résolution temporelle. Néanmoins la question de la qualité des produits d’occupation du sol est traditionnellement basée sur la qualité de la classification. Cette qualité s’exprime en capacité à détecter les mêmes classes que pour des valeurs de référence (nous reviendrons sur les limites de ce paradigme en section 3.3.1). Ainsi, traditionnellement, la mesure de la qualité désigne la vérification de l’exactitude de la classification, opération fondamentale en analyse mono-date de données d’imagerie satellitaire (Foody, 2002 ; 2010 ; Olofsson al 2013 ; 2014 ; voir section 3.3). Un premier niveau de vérification de la pertinence de la carte produite est le contrôle qualité, qui consiste à classifier de nouveau une zone (automatiquement ou par interprétation d’expert). Le second niveau de vérification plus approfondi est la validation qui consiste à vérifier les informations produites en échantillonnant des points de contrôle sur le terrain afin de comparer la vision in situ et la carte. Les sources d’incohérences et d’erreurs entre la valeur de référence et la valeur classifiée ont généralement des causes spatiales (voir 3.3.2) ou thématiques (voir 3.3.3) (Bossard et al 2000 ; Congalton, 2005). L’évaluation de l’exactitude se divise en deux types : le type conventionnel (Congalton & Green, 1999) et la « fuzzy accuracy assessment »

1

Ce recalcul, ou rééchantillonnage, est généralement effectué selon trois méthodes principales : le plus proche voisin, l'interpolation bilinéaire et la convolution cubique

(« vérification floue ») décrite par Gopal et Woodcock (1995) et appliquée notamment par Laba et al. (2002) et Mahoney et al. (2007) (voir section 3.3).

L’évaluation conventionnelle de l’exactitude d’une carte d’occupation du sol est mesurée en confrontant la carte à une valeur de référence (sensée refléter au mieux la réalité, soit le terrain soit carte considérée plus juste). Leurs taux d’accord sont mesurés via une matrice de confusion (Card, 1982) à partir de laquelle plusieurs indices généraux peuvent être calculés. On considère traditionnellement quatre phases dans les protocoles d’évaluation de l’exactitude : i) le plan d’échantillonnage pour choisir les sites de références ; ii) la création des valeurs de référence, iii) la classification des sites de références, iv) la comparaison entre la carte et la référence (Stehman & Czaplewski, 1998) ; Wulder et al, 2006). Cette évaluation est généralement synthétisée sous la forme d’une matrice de confusion afin de traiter statistiquement les chances que la carte a de présenter une information erronée au regard de la réalité de terrain. L’indicateur d’incertitude ainsi calculé est la proportion de territoire correctement estimé, à la manière d’une vérification des estimations d’un modèle. La matrice de confusion est un outil classique pour mesurer la justesse, et donc la qualité, d’un système de classification à partir d’une comparaison entre valeur estimée et valeur réelle, pour chaque classe. Elle est utilisée en apprentissage supervisé. Elle se présente comme un tableau à double entrée ou matrice, avec en colonne les estimations pour chaque classe, et en ligne les données de référence pour chaque classe (dites éventuellement valeurs réelles). La matrice de confusion permet de mesurer rapidement les différences entre ces deux jeux de valeurs, en indiquant d’une part les erreurs d’omission (des données sont oubliées dans une classe) et d’autre part de commission (des données sont présentes à tort dans une classe).

Tableau 3.4. Matrice de confusion, erreurs d’omission et de commission

Estimation Erreurs d’omission Classe A Classe B Référence Classe A 96 4 0.04 Classe B 7 93 0.07 Erreurs de commission 0.07 0.04

Pour 100 points appartenant réellement à la classe A (total de la ligne « référence – classe A »), seuls 96 sont estimés correctement (surfaces « A » bien classées en « A »), les 4 autres ont été classés, à tort, en B. Autrement dit, 4 points de classe A ont été omis. Les totaux des colonnes indiquent l’ensemble des catégories telles qu’elles ont été classées. Sur les 103 valeurs estimées en A (total de la colonne « Estimation – classe A »), 7 appartiennent en réalité à la classe B et ont été classés en A à tort. Autrement dit, sur tous les points classés en A, 7 erreurs ont été commises.

Cette matrice permet ainsi de déterminer deux types d’erreurs qui reflètent la précision de la donnée produite dans deux dimensions : l’erreur d’omission renseigne la précision du producteur (producer’s accuracy), et l’erreur de commission renseigne la précision de l’utilisateur (user’s

accuracy). Dans l’exemple ci-dessus, l’erreur d’omission renseigne sur le fait que les points devant

appartenir à une classe n’ont pas tous été identifiés comme tels ; et l’erreur de commission renseigne sur le fait que des points ont été interprétés comme appartenant à tort à une classe plutôt qu’une autre. Ces deux éléments permettent de calculer le taux d’erreur global qui indique la précision globale

(overall accuracy) (Foody, 2002). Cette évaluation classique est devenue plus complexe avec des

cartes d’occupation couvrant des territoires de plus en plus grands et avec des classes de plus en plus fines : ces processus ont été affinés au niveau de chaque classe individuellement (par ex. Laba et al., 2002; Stehman et al., 2003; Wickham et al., 2004; Wulder et al., 2006). Pour une revue critique des différentes mesures d’exactitude, on se référera à Liu et al (2007).

La vérification floue (fuzzy accuracy assessment) permet d’évaluer une classification en l’absence de vérité-terrain (Gopal et Woodcock, 1995 ; Laba, et al. 2002 ; Mahoney, et al. 2007). Elle se fonde sur le concept d’ensembles flous (fuzzy sets) introduit par Zadeh (1965) pour se référer à l’imprécision inhérente au raisonnement humain. Cette notion repose sur l’idée qu’un objet n’a pas à appartenir uniquement et forcément à une seule catégorie et que différents objets d’une même carte peuvent ne pas avoir la même certitude. Les limites spatiales peuvent aussi être incertaines et non clairement tracées (Woodcock, 1996).

La proportion de territoire correctement classifié est généralement assortie d’un indice Kappa. Il existe plusieurs indices kappa (Pontius, 2000 ; Pontius et Millones, 2011). Cet indice est utilisé traditionnellement en statistiques pour les analyses multivariées et pour évaluer la pertinence des modèles. Il exprime le taux d'accord entre deux cartes, corrigé par ce qui aurait été attendu par hasard. Son usage est courant dans le domaine satellitaire. Pontius et Millones (2011) souhaitent amener la communauté scientifique à abandonner l’usage de ces indices « inutiles, trompeurs et erronés » pour les sciences de l’utilisation et occupation des terres, s’inscrivant dans la suite de nombreux articles précédents critiquant son usage mais qui restaient en débat. Selon eux, l’indice kappa évalue l’exactitude d’une carte en la comparant à des valeurs aléatoires alors que l’étalon à l’aune duquel comparer la carte produite n’est en aucun cas alétoire. De plus, cet indice se focalise sur les accords alors qu’il convient d’analyser d’abord les désaccords : la persistance de la majorité du territoire ne doit pas être prise en compte. A la place, ces auteurs proposent de calculer des indices plus intuitifs de concordance de l’ampleur et de la localisation du changement (« quantity and location agreement »).

Qualité, intérêts et limites pour la détection des changements

Outline

Documents relatifs