• Aucun résultat trouvé

Exemple de traitement de classification de l’usage du territoire

CHAPITRE 2 LE TRAITEMENT D’IMAGES SATELLITAIRES

2.7 Exemple de traitement de classification de l’usage du territoire

Avant de conclure ce chapitre qui nous a servi à souligner les différentes étapes du traitement d’images satellitaires, dans un contexte de gestion de catastrophe reposant sur les résultats d’analyse de télédétection, nous donnerons ici un exemple concret de la chaîne de traitement utilisée. L’article que nous présentons traite de la classification d’une image à haute

résolution pour en établir l’occupation du territoire sans qu’il n’y ait de palier de détection de changement, ce qui est le thème du prochain chapitre. Nous avons choisi cet article parmi plusieurs, car il contient beaucoup d’information sur le problème, mais surtout parce que les différents éléments que nous avons soulignés dans cette section y apparaissent presque tous. L’article en question est « Object-based urban detailed land cover classification with high spatial resolution IKONOS imagery » de (Pu, Landry et Yu, 2011). Cet article traite de la classification de l’usage du territoire d’une zone de la ville de Tampa en Floride. Cette région est un bon exemple du type de données qui ont à être traitées en télédétection et peut être considérée comme représentative des scénarios plausibles de gestion de catastrophe, car la zone contient des portions de territoire présentant des caractéristiques urbaines ainsi que naturelles.

Les données sources proviennent du satellite IKONOS et sont une image panchromatique à 1,0 m de résolution allant de 526 à 929 nm et une image multispectrale à 4,0 m de résolution composée de quatre bandes, une bleue allant de 445 à 516 nm, une verte allant de 506 à 595 nm, une rouge allant de 632 à 698 et une proche infrarouge allant de 757 à 853 nm. Ces images furent fusionnées pour obtenir une représentation multispectrale à une résolution de 1,0 m comme celle de l’image panchromatique à l’aide de la technique de rehaussement par composantes principales. Les auteurs mentionnent que, bien que cette technique soit reconnue pour effectuer ce type de combinaison de l’information image, qu’il n’est en rien garanti que de légères déformations de l’information originale contenue par les bandes de l’image multispectrale ne viennent affecter l’évaluation de la qualité de classification résultante. Par contre, ils soulignent que ce type d’image rehaussée est reconnu pour permettre une meilleure classification de la végétation forestière et des zones urbaines.

D’autres sources de données ont servi pour les analyses menées pour aider à établir les échantillons représentatifs de chaque classe d’occupation du territoire recherchée. Ces données sont des images multispectrales aéroportées, de différentes sections de la zone sous analyse, ayant 0,3 m de résolution et comportant trois bandes; une rouge, une bleue et une verte.

L’objectif expérimental de ces travaux est de comparer la qualité de la classification de l’usage du territoire obtenue de l’utilisation de descripteurs pixelliques d’une part et de descripteurs de type objets image de l’autre. Entre autres, cette étude vise à vérifier si l’utilisation d’objets image, et des mesures leur étant associées, permet de réduire l’incidence du phénomène de classification d’aspect poivre et sel qui résulte de l’utilisation de mesures pixelliques pour effectuer la classification d’images à haute et à très haute résolution.

La comparaison de la classification résultante à d’autres images ne fait pas partie de l’exercice, donc l’aspect de détection de changement n’entre pas en considération dans cet article. Le recalage des images non plus ne fait pas partie des opérations requises par ce travail d’analyse de contenu puisqu’il n’y a qu’une seule image qui est traitée.

Les méthodes de classification utilisées sont un réseau de neurones de type perceptron multicouche et un classificateur à distance minimale. Les deux méthodes utilisées sont des techniques supervisées de classification. Donc, il est indispensable d’avoir des échantillons étiquetés de chaque classe d’intérêt pour être en mesure de les utiliser. Les échantillons de la base d’apprentissage ont été établis par observation en utilisant les images aéroportées complétées des données d’un recensement écologique mené en 2006-2007 par la ville de Tampa.

Pour être en mesure de comparer des mesures pixelliques à des mesures de type objet image, il a fallu trouver des descripteurs qui pouvaient être extraits de l’image pour les deux cas de figure. Comme les descripteurs géométriques de forme ne peuvent être utilisés pour décrire les pixels, ces descripteurs furent évalués dans un deuxième volet de leurs travaux ne reposant que sur les descripteurs d’objets images et visant à évaluer si le nombre de descripteurs utilisés permet d’améliorer la qualité de la classification de manière significative. Deux jeux de descripteurs ont donc été utilisés pour ces travaux.

Le premier jeu de descripteurs est composé des quatre bandes rehaussées de l’image multispectrale, de trois bandes HSI calculées des bandes 1,2 et 3 de l’image Ikonos, d’une

bande composée de l’indice SAVI, (soil adjusted vegetation index) qui est un indicateur du type de l’indice NDVI qui a été mentionné plus tôt, et d’une bande d’information de texture extraite de la bande 4, proche infrarouge, de l’image multispectrale et contenant de l’information d’homogénéité et de cooccurrence de valeurs. Tous ces descripteurs ont été préparés à l’aide du logiciel ENVI et ajoutés à l’image originale comme couches supplémentaires d’information.

Le deuxième jeu de descripteurs est constitué des neuf premiers auxquels sont ajoutés 27 autres mesures relevant plus spécifiquement des objets image. Ces 27 autres variables comportent 23 variables spectrales, neuf de texture et quatre caractéristiques de forme. Il est évident que ces descripteurs ne peuvent être utilisés pour la comparaison de la performance de classification entre les mesures pixelliques et celles calculées à partir des objets image. Elles servent plutôt à permettre d’évaluer l’impact du nombre de descripteurs et de leur type sur la qualité de la classification en utilisant différentes quantités de descripteurs avec les mêmes méthodes de classification.

Les objets image qui ont été utilisés pour le calcul de ces descripteurs supplémentaires ont été obtenus par segmentation en utilisant une procédure de segmentation hiérarchique du logiciel eCognition 5.0 de la compagnie Definiens. Les 9 variables initiales ont été utilisées pour cette opération de segmentation.

Il est intéressant de noter que, bien qu’il soit assez évident qu’il soit essentiel d’avoir des objets pour mener des analyses basées sur les objets, la plupart des auteurs omettent de mentionner comment ils arrivent à la représentation par objet. Il arrive même dans bien des cas qu’il y ait confusion au niveau du concept même de l’extraction des objets qui se traduit par des propositions du type : « Les mesures pixelliques ne sont pas utilisées ici, car… ». Ceci peut laisser croire qu’elles ne servent pas au traitement ou qu’elles ne contribuent que de manière insignifiante à la segmentation. Par contre, du point de vue du traitement d’image, il est inconcevable qu’il soit possible de réaliser la segmentation du contenu d’une image sans avoir recours à des descripteurs aussi simples soient-ils, autrement comment serait-il

possible d’établir une mesure de similitude suffisante pour permettre de grouper des pixels voisins?

Par la suite, pour éliminer la redondance potentielle de certains de ces descripteurs, les auteurs ont mené une analyse statistique reposant sur l’analyse discriminante16, stepwise discriminant analysys (SDA) en anglais, pour identifier les variables les plus probantes à utiliser. Cette approche permet de limiter le nombre de variables à celles qui permettent réellement d’expliquer la variation de contenu dans un jeu d’échantillons. Comme il est préférable d’utiliser des variables qui maximisent la séparation entre les différentes classes et qui minimisent la variabilité intra classe pour simplifier la tâche de classification, il est très utile dans bien des situations de procéder à des analyses statistiques de ce type pour nous permettre d’utiliser des descriptions qui sont justifiées et pertinentes.

27 des variables originales ont été retenues comme ayant une contribution significative à la description des classes représentées par les échantillons étiquetés utilisés pour cette analyse. Pour mener ces essais, les auteurs ont utilisé un module de traitement statistique du logiciel SAS.

La procédure de classification qu’ils ont utilisée est hiérarchique et est divisée en trois paliers de classification. Au premier niveau la classification permet de séparer les zones où il y a de la végétation de celles qui n’en n’ont pas. Cette division initiale du contenu a été réalisée à l’aide d’un seuillage de la variable SAVI. Le seuil a été établi par observation de l’histogramme de cette variable puis ajusté manuellement pour obtenir un résultat qui soit visuellement acceptable. Les deux autres niveaux de classifications permettent de décomposer ces deux groupes de bases en type de couverture végétale d’une part et en type de couverture urbaine, sablonneuse ou d’eau de l’autre.

16 L’analyse factorielle discriminante ou analyse discriminante est une technique statistique qui vise à décrire,

expliquer et prédire l’appartenance à des groupes prédéfinis (classes, modalités de la variable à prédire, …) d’un ensemble d’observations (individus, exemples, …) à partir d’une série de variables prédictives (descripteurs, variables exogènes, …)

Nous voyons ici que ce que nous disions plus tôt au sujet de la classification hiérarchique fait déjà partie de l’approche de résolution adoptée dans cet article spécifique, mais aussi, comme les auteurs le mentionnent dans le texte, par bien d’autres chercheurs du domaine.

Ce que nous mentionnions au sujet de la structure de classification progressive est aussi utilisé ici pour effectuer la classification de l’usage du territoire par paliers successifs. En premier lieu deux grandes classes, qui sont faciles à séparer, ont été identifiées en utilisant une variable simple, puis la classification de ces deux protoclasses a été réalisée séparément pour arriver à une décomposition secondaire qui peut elle aussi être reprise pour en extraire un type d’information spécifique ou encore d’autre sous classifications tertiaires.

Pour ce qui est de la classification proprement dite, les auteurs de cet article ont eu recours à deux méthodes différentes. La classification à l’aide du réseau de neurones a été réalisée avec un logiciel dédié qui n’est pas nommé et qui a été développé par Y. Pao. Pour la classification à distance minimale, ils ont utilisé une procédure du logiciel SAS qui utilise la distance de Mahalanobis pour établir la proximité des échantillons des différentes classes modélisées.

Les résultats de leurs travaux soulignent qu’il est bel et bien possible de minimiser, voire même presque d’éliminer, le phénomène de classification poivre et sel en utilisant des mesures extraites des objets image, obtenus par segmentation, plutôt que des mesures pixelliques. Cette amélioration provient en partie du fait que la segmentation de l’image en objets permet de diluer l’impact des variations locales des variables de base par le calcul de la moyenne sur la région de chacune des variables, ce qui devient le descripteur équivalent. Donc, la représentation finale qui est utilisée pour la classification permet de regrouper un nombre donné de pixels, qui peuvent avoir des variations notables au sein de l’objet, mais qui sont représentés au final par une mesure uniforme, non morcelée, pour la totalité de l’objet résultant. Les variations locales se fondent donc dans le tout et nous obtenons une représentation du contenu de chaque objet qui est plus homogène que les valeurs de ses pixels constituants ne le sont.

Pour ce qui est de l’analyse de l’impact du nombre de descripteurs sur la qualité de la classification, ils ont mené plusieurs essais pour être en mesure de comparer les classificateurs et les nombres de descripteurs entre eux de manière probante et significative. Ce qu’ils ont découvert est que le nombre de descripteurs a un impact sur la qualité de la classification finale du point de vue de l’expérience dans son ensemble. Par contre, d’un essai à l’autre, la performance de classification était beaucoup plus variable que ce qu’ils ont obtenu lors de leurs premiers tests portant sur la pertinence de différentes combinaisons de mesures. Cette variabilité des résultats, lorsqu’analysée d’un point de vue statistique, a révélé que l’amélioration de la performance d’un classificateur donné, par rapport à lui-même, n’était pas statistiquement significative dans leur contexte d’analyse. Cette constatation vaut pour les deux types de classificateurs qu’ils ont utilisés lors de leurs tests.

En ce qui concerne la différence de qualité de classification entre les deux types de classificateurs évalués, ils ont trouvé que le réseau de neurones était supérieur au classificateur à distance minimale pour un nombre équivalent de descripteurs, et ce, de manière statistiquement significative.

Nous voyons qu’au final les auteurs ont développé un classificateur hiérarchique qui repose sur l’utilisation de 27 variables qui permet d’arriver à un taux de classification correcte de l’usage du territoire dans la région de Tampa en Floride de 81,53% qui est établi en utilisant 441 pixel pour lesquels la classe réelle est connue. Ce résultat est atteint par classification successive des données image, pixelliques en un premier temps puis des objets image obtenus du traitement par la suite. Pour isoler au premier niveau de décomposition les zones avec couverture végétale des autres zones, un seuillage simple est utilisé. Des deux protoclasses résultantes, une classification secondaire plus précise, est obtenue en utilisant un réseau de neurones pour séparer leur contenu en sous-classes plus descriptives des réels phénomènes d’intérêt en télédétection.

Pour revenir sur ce que nous avons dit sur la pérennité du savoir et la réutilisabilité des modèles de classification, nous voulons souligner que, bien que nous n’ayons pas mentionné

les différents paramètres utilisés lors de ces expériences, le contenu de base de ce qui pourrait être utile à mémoriser pour faciliter la réutilisation des résultats est décrit dans cette section. Nous avons mentionné l’imageur qui a été utilisé, le type des images utilisées, comment elles ont été prétraitées, les variables supplémentaires qui ont été extraites, celles qui ont été retenues à la suite d’une analyse statistique, les types de classificateurs qui ont été utilisés, le taux de succès de classification obtenu du meilleur des deux ainsi que la procédure de traitement séquentielle avec les variables pertinentes à utiliser pour les différents paliers de classification établis.

S’il venait à y avoir une autre analyse de ce type à réaliser pour la même région avec des données images provenant du même satellite, nous comprenons que la disponibilité de ces données pourrait accélérer considérablement le traitement et l’analyse de l’image. Ceci vient principalement du fait que l’analyste n’aurait qu’à consulter l’enregistrement de ce que nous venons de souligner pour être en mesure de reproduire la même logique de résolution qui est représentée par le modèle de traitement que ces chercheurs ont développé.

Ici nous trouvons qu’il est important de souligner un autre fait très important qui est exprimé dans cet article mais qui est aussi présent dans de nombreux travaux traitant de la télédétection. Nous avons mentionné les logiciels qui ont été utilisés par les auteurs pour arriver aux résultats qu’ils ont obtenus. Nous remarquons qu’il y en a plusieurs, ce qui nous pousse à souligner qu’il est fort probable qu’en plus des travaux qu’ils menaient, ces chercheurs ont sûrement dû développer des procédures de transcription de données pour permettre le passage d’une plateforme de travail à l’autre. Ceci diminue forcément l’efficacité du traitement pris du point de vue de l’analyse de télédétection proprement dite. Il est très fréquent que les chercheurs aient à utiliser de nombreux logiciels pour être en mesure de réaliser toutes les opérations requises pour une analyse donnée.

Ceci nous semble difficile à concilier avec la notion d’urgence que nous soulignons depuis le début de notre analyse. Ne semble-t-il pas que l’incorporation de tous les éléments que nous avons fait ressortir dans l’analyse de cet article ainsi que de ceux que nous avons mentionnés

jusqu’ici au sein d’un seul outil de traitement permettrait non seulement d’éliminer la possibilité qu’il y ait erreur de transcodage tout en permettant d’augmenter l’efficacité, et donc la vitesse, à laquelle ces travaux pourraient être réalisés?

Nous reviendrons sur ceci plus tard dans ce document. Pour l’instant nous passerons à l’analyse de ce que signifie la détection de changements en télédétection et surtout dans le contexte de la gestion de catastrophe.