• Aucun résultat trouvé

Cas d’utilisation de détection de changement en télédétection

CHAPITRE 3 LA DÉTECTION DE DIFFÉRENCE ET DE CHANGEMENT

3.5 La détection de différence/changement et les techniques usuelles

3.5.4 Cas d’utilisation de détection de changement en télédétection

Tel que nous l’avons mentionné dans ce chapitre, il y a dans la littérature reliée à la télédétection un nombre imposant d’articles qui traitent des différents aspects de la problématique de la détection de changement. Ceci n’est pas surprenant lorsque nous nous rappelons que pour bien des phénomènes qui sont d’une importance majeure pour la sécurité de l’humanité et la protection de l’environnement, il n’y a pas d’autres moyens efficaces pour réaliser leur analyse et leur suivi dans le temps. Que ce soit pour des raisons de taille de la

surface à analyser, de manque d’accessibilité de la zone ou toute autre raison il n’en est pas moins important d’être en mesure d’analyser ces phénomènes.

Par contre, il n’y a que très peu d’articles qui traitent de la détection de changement dans un contexte de gestion de catastrophe pour les diverses raisons que nous avons mentionnées. Il y a tout de même certains articles traitant de ce contexte qui commencent à faire surface. Nous ne présenterons ici que des concepts issus de la littérature générale associée à la détection de changement, mais nous présenterons certains des articles traitant de la gestion de catastrophe au prochain chapitre qui traite de l’analyse des résultats d’une intervention de grande ampleur, celle qui a suivi le tremblement de terre d’Haïti en 2010.

Nous ne donnerons pas de détails exhaustifs des articles que nous avons ciblés pour cette section, mais présenterons plutôt les grandes lignes de ce que nous avons noté. Nous ne retenons ici que 27 articles traitant de différents cas d’utilisation des techniques et des concepts de la détection de changement tel qu’utilisé en télédétection. La liste complète des articles se retrouve à l’ANNEXE II de ce document.

Dans ces 27 articles, nous avons isolé certains des concepts qui ont été présentés dans ce chapitre et que nous considérons comme étant les plus importants en ce qui concerne l’utilisation et le développement de ces techniques de traitement et d’analyse menant à une quantification des changements y étant représentés.

Le premier point qui nous semble très important à souligner, et qui à notre sens est un problème considérable, est le nombre de logiciels qui sont utilisés pour réaliser ces analyses. Nous ne parlons pas de différences de plateforme logicielle entre les articles, ce qui en soi serait normal, car le choix d’un outil est une chose personnelle qui découle de nos mécanismes de travail personnel ou de ce qui nous est disponibles. Nous parlons ici de la nécessité d’utiliser plusieurs logiciels pour réaliser la séquence de traitements requise pour effectuer une seule analyse sans quoi les outils requis ne peuvent être mis en cascade comme

nous l’avons souligné avec l’exemple de traitement de la section 2.7 qui conclut le chapitre deux. Parmi les 27 articles retenus, nous retrouvons les outils logiciels suivants :

• Envi, • eCognition, • Definiens Pro, • Erdas Imagine 8.7, • Matlab, • Mosaics, • GICS, • GEORIS,

• Plusieurs logiciels propriétaires développés sur mesure et non commercialisés.

Chacun de ces outils a ses avantages et désavantages, mais le point le plus important à retenir est que dans plusieurs situations il est impossible de reproduire certaines des expériences présentées dans quelques articles avec d’autres outils que ceux qu’ils ont utilisés à cause de la non-disponibilité des fonctions requises sur certaines plateformes de travail. L’intérêt que nous avons pour une technique de détection de changement plutôt qu’une autre, dans un contexte donné, est proportionnel à sa simplicité d’utilisation et/ou d’implantation. Si nous considérons ceci, ainsi que la contrainte d’efficacité qui est reliée à l’analyse d’images satellitaires dans un contexte de gestion de catastrophe, nous comprenons aisément que les algorithmes qui ne peuvent être programmés facilement et efficacement ou qui ne sont pas disponibles dans un logiciel donné ou ne peuvent être ajoutés sous forme de plugiciel à un logiciel que nous utilisons, ne seront pas utilisés par les intervenants menant les analyses.

Ce n’est bien sûr pas le seul problème que nous soulèverons ici, mais il nous semble que ce point soit important à considérer lorsque nous nous demandons pourquoi tel ou tel algorithme n’est pas utilisé dans un contexte donné bien que les résultats qui peuvent être obtenus par

son utilisation sont théoriquement supérieurs à ceux des autres algorithmes d’une même catégorie.

Les autres points que nous présenterons sont reliés à certains aspects de la problématique de la détection de changement en soi plutôt qu’à l’ensemble de la discipline de la télédétection comme le sont la diversité de plateforme de traitement et la disponibilité versus la non- disponibilité de certains algorithmes spécifiques.

En ce qui concerne les images et leurs résolutions propres, nous devons souligner que les recherches documentaires que nous avons réalisées dans le cadre de ce travail portaient sur la détection de changement réalisée à l’aide d’images satellitaires à haute et à très haute résolution. Les points qui seront présentés ici ne se rapporteront donc qu’à ces formats d’images. Par contre, en fonction de ce que nous avons présenté dans ce document le lecteur doit comprendre que si une technique de détection de changement fonctionne à une résolution donnée, il est plus que très probable qu’elle le soit aussi à des résolutions moindres moyennant un ajustement du concept pour tenir compte de la nouvelle résolution.

Des travaux que nous avons retenus, nous constatons que plusieurs résolutions image différentes sont utilisées pour arriver à différentes fins comme nous l’avons mentionné. Par contre, dans les 27 articles que nous avons retenus nous retrouvons les formats d’images suivants ainsi que leur fréquence d’utilisation :

• Environ 52% traitent de l’utilisation d’images Quickbird ayant une résolution de 0,6 m en mode panchromatique et de 2,4 m en mode multispectrale, les images panchromatiques et multispectrales sont fusionnées pour effectuer un rehaussement dans certains cas,

• Environ 37% des images utilisées proviennent de l’une ou l’autre des plateformes LandSat et ont une résolution allant de 15 à 60m en fonction des différentes bandes utilisées ainsi que des modes d’acquisition,

• Environ 7% des articles retenus utilisent des images Ikonos ayant une résolution de 0,8 m en mode panchromatique et de 4 m en mode multispectrale, les articles retenus ne présentent pas de données Ikonos fusionnées pour rehaussement mais la résolution théorique d’une image Ikonos de ce type est de 0,8 m.

La somme de toutes ces fractions ne donne pas 100% ce qui peut sembler étrange, mais ici nous tenons à préciser que certains auteurs travaillent avec des données simulées qui ne proviennent d'aucunes des catégories d’images que nous avons présentées dans ce document. Les données qu’ils utilisent sont conçues de manière à reproduire les caractéristiques de différents formats d’images connus, mais avec l’avantage de connaitre la vérité absolue pour chaque pixel. Ceci permet d’évaluer les algorithmes qu’ils présentent avec certitude en ce qui concerne la performance absolue qui est difficile à obtenir avec des images de cas réel à part dans certaines circonstances pour lesquelles il y a des données exogènes qui permettent d’établir la vérité terrain d’une manière quasi absolue. Nous comprenons, par contre, qu’il est tout de même possible, même dans ces contextes très contraignants, qu’il y ait une légère mesure d’incertitudes en ce qui concerne la performance absolue d’une technique.

De ces articles environ 26% traitent d’images rehaussées, qui sont le produit de la fusion d’images panchromatiques et multispectrales, conjointement avec les images sources. Différents éléments sont présentés dans ces articles, mais dans l’ensemble il s’agit de l’évaluation de la performance de différentes techniques de traitement en fonction des images sources versus celle du même algorithme utilisé pour traiter une image rehaussée de la même scène.

Ce qui est le plus important à souligner selon nous est le fait que parmi ces articles presque 82% traitent de combinaisons d’images recalées. Ce fait n’est pas mentionné dans chacun de ces articles, mais en analysant le texte nous nous rendons compte qu’il s’agit bien d’images qui sont recalées. Ceci, comme nous l’avons souligné à plusieurs endroits dans ce texte, est un problème qui doit être résolu. Qu’il s’agisse de techniques de détection de changement qui ne sont pas affectées négativement par la qualité du recalage, ou du moins qui y sont peu

sensibles, ou de techniques de recalage plus performantes, il est impératif que nous trouvions un moyen de nous abstraire de la complexité découlant de cette particularité pour que les techniques de détection de changement puissent devenir plus généralisables et donc plus automatisables. Sans ceci, il nous semble que le traitement par objet ou encore par oscillation et minimisation de l’erreur résiduelle soit plus propice à nous permettre de développer des techniques de détection de changement flexibles et performantes.

L’analyse multi-échelle ou multirésolution est utilisée dans presque 30% des articles que nous avons retenus. Par contre, près de 63% de ces articles traitent de l’analyse des vecteurs de changement. Ceci va dans le sens de la recherche actuelle qui gravite autour du concept de l’estimation et de la quantification du bruit de recalage résiduel qui, comme nous l’avons mentionné, peut être modélisé en utilisant une combinaison d’analyse des vecteurs de changement et l’analyse multi-échelle pour aider à définir les seuils de séparation du contenu probant versus le contenu accidentel de la classe des changements détectés.

L’analyse des vecteurs de changement est la technique de détection de changement la plus utilisée dans cette série d’articles. Ceci est en partie dû au fait que de nombreux travaux portent sur ce thème à l'heure actuelle, car il semble que le concept directeur de cette famille de techniques nous permette d’arriver à nous abstraire de la contrainte de recalage dans bien des cas. Il n’est donc pas surprenant que près de 52% des articles traitent de l’une ou l’autre des facettes techniques de ce groupe de méthodes et de leur potentiel analytique.

Un dernier point qui nous semble intéressant à souligner est que l’agrégation supervisée et/ou non supervisée est utilisée dans près de 33% des articles retenus. De ces derniers presque 56% traitent de différents aspects de l’analyse des vecteurs de changements. Rappelons-nous ce qui a été dit à ce sujet concernant la séparabilité des types de changements en fonction des nouvelles variables qui sont calculées avec la technique des vecteurs de changement. Dans ce contexte précis, nous n’avons pas vraiment les moyens de nous représenter ce que ces amas peuvent signifier au sein de l’image, mais nous savons qu’ils sont regroupés dans le nouvel espace de représentation en fonction de la similitude des changements survenus. L’agrégation

est donc une technique appropriée pour nous aider à séparer les amas automatiquement, ou semi automatiquement, pour nous permettre par la suite de revenir sur l’image originale et analyser ce que les agrégats identifiés représentent conceptuellement.

Les auteurs des autres articles dans cette série utilisent l’agrégation pour établir des échantillons de départ pour d’autres procédures de traitement qui sont supervisées dans bien des cas. Essentiellement, nous parlons de traitements qui utilisent certains des concepts d’analyse hiérarchique présentés dans l’analyse de l’article de (Pu, Landry et Yu, 2011) qui est à la section 2.7. Dans la plupart de ces articles l’agrégation est souvent utilisée pour créer un masque binaire de changement versus de non-changement qui est utilisé pour restreindre les analyses ultérieures.

Pour le moment, par contre, la détection de changement reposant sur l’utilisation d’images satellitaires à haute et à très haute résolution, peu importe les raisons que nous pouvons invoquer, demeure un problème qui n’est pas résolu. De nombreux travaux traitent de ce thème de recherche et un nombre impressionnant de techniques sont mises de l’avant par les acteurs de cette discipline. Par contre, peu de ces techniques semblent être valides pour tous les cas de figure que nous pouvons rencontrer, et ce, encore plus dans un contexte de gestion de catastrophe où nous devons faire avec des délais très courts.

Nous nous arrêterons ici et tenterons de remettre tous ces concepts en contexte dans le prochain chapitre qui traite d’une action de gestion de catastrophe à grand déploiement.