• Aucun résultat trouvé

4. Discussion

4.2. Problèmes rencontrés

Au cours de ces différents traitements, de nombreuses difficultés ont été rencontrées, notamment au niveau des prétraitements pour le mosaïquage des images. Il a en effet nécessité beaucoup de tests puisque le logiciel utilisé demandait plusieurs conditions, comme l’utilisation de seulement trois bandes. Ce sont également de longs traitements qui ont pu être automatisés via un script Python afin de faire une boucle de traitements, à cause du grand nombre d’images par site.

Deux mosaïques ont ainsi été générées, puisqu’il était impossible de produire une mosaïque à quatre bandes. De plus, deux géoréférencements ont été nécessaires pour chaque site, par mosaïque. Il est en effet impossible de caler les deux mosaïques entre elles avec le logiciel d’appariement, par manque de liens entre les deux. Il est donc possible qu’il y ait un très léger décalage entre les deux mosaïques géoréférencées. De plus, le géoréférencement n’est pas parfait et doit se faire à la main à cause de la différence de résolution et de date avec les orthophotographies. Cette différence se remarque au niveau de la végétation qui a énormément changé, c’est pourquoi le géoréférencement se base à partir d’objets fixes sur les images plutôt que la végétation. Il pose également problème pour les traitements suivant, les applications OTB ne supportent pas le système de projection en Lambert 93. Les mosaïques sont alors reprojetées dans le système par défaut WGS 64, afin de poursuivre les traitements. A la fin des traitements de classifications, elles sont encore reprojetées en Lambert 93. Ce problème n’a malheureusement pas été résolu pour le moment.

Les traitements de segmentation ont été assez compliqués à mettre en place à cause de la grande taille des mosaïques, attachée à leur résolution spatiale très fine. Ils nécessitent beaucoup de mémoire et il n’a pas été possible d’appliquer une méthode de segmentation sur les mosaïques entières. Ainsi, les segmentations n’ont été faites que sur des zones réduites des mosaïques, elles ont été sélectionnées de façon à représenter au maximum des différentes informations des mosaïques. C’est-à-dire des zones regroupant tous les types de végétation présents dans les sites. De plus, le manque de mémoire pour le traitement de la segmentation Mean-Shift a contraint à n’utiliser qu’une primitive. En effet, les tests sur de très petites zones avec des images contenant toutes les primitives ont révélé une meilleure segmentation. Cependant en augmentant la taille des zones de l’image, elle est devenue impossible à réaliser. La solution adaptée est alors de produire une segmentation sur des

tuiles de la mosaïque, mais les effets de bordures sont trop importants. Néanmoins, les bandes R, V, PIR et NDVI apportent une bonne segmentation malgré les quelques régions non représentées comme un arbuste isolé (Figure 26). Ce phénomène est dû au seuil de la taille des objets prédéfinie au départ, il était important de fixer un seuil assez élevé à cause de la résolution fine des mosaïques. Le nombre d’objets serait alors énorme si le seuil avait été plus faible, la segmentation n’aurait alors pas grand intérêt. Le dernier problème de la segmentation est la limite de la taille des objets (Figure 26). Mais pour la plupart, cela n’a pas d’incidence sur les objets, deux objets délimités par ce genre de contour net appartiennent à la même classe de végétation.

Figure 26 : Problèmes de la segmentation : les régions non segmentées (1) et la taille des objets limitée (2).

Cette segmentation a donc un impact sur la classification par objet puisqu’elle n’est donc pas réalisée sur les mosaïques entières. De plus, la classification s’est faite que sur des toutes petites zones de l’image, créant ainsi de nombreux effets de bordure que la figure 26 montre. Cette classification est d’ailleurs peu développée sur la librairie OTB puisqu’il n’existe que très peu d’algorithmes et ils sont très limités comme l’OBIA. De plus, elle n’est basée que sur les bandes de base de l’image ainsi que le NDVI. Il manque les informations texturales de l’image, permettant de mieux distinguer les différents types de végétation. Cependant, pour l’instant l’image concaténée regroupant toutes les primitives est trop lourde pour être traitées en classification par objets. Ainsi, cette classification reste la meilleure possibilité s’il est possible d’intégrer les primitives texturales dans la classification OBIA. Il reste donc de nombreux paramètres pour les classifications par objets à explorer pour ces mosaïques.

Le problème de la grande taille des mosaïques revient pour l’interpolation du MNT, il faut obligatoirement traiter l’image en tuiles pour l’ultime étape qu’est l’interpolation. L’algorithme est impossible à réaliser sur la mosaïque entière malgré la dégradation et l’érosion. Cependant, l’assemblage des tuiles après l’interpolation, pour obtenir une mosaïque du MNT, ne crée aucun effet de bordure. Cette méthode d’estimation de hauteur reste tout de même très limitée puisqu’il faut préalablement effectuer une classification SVM. Cette dernière montre qu’elle n’est pas forcément fiable et efficace comme sur la mosaïque du marais de Pontet et ne doit pas apporter de très bonnes informations sur le sol. L’extraction du sol par NDVI a été testée, c’est-à-dire qu’un masque est créé à partir des valeurs faibles du NDVI, représentant le sol et les herbacées. Cependant cette méthode d’extraction ne s’est pas révélée efficace puisque le masque englobait aussi certains arbres. C’est donc une autre approche à améliorer pour créer un meilleur MNT. De plus, il existe un biais statistique dans la relation entre la hauteur mesurée et la hauteur estimée. Le coefficient de la droite est de 2,50 indiquant que la hauteur réelle est deux fois plus importante que la hauteur estimée. Cette différence importante entre les deux variables est due aux valeurs relatives du MNS produit de base. Cette valeur doit alors être spécifique au site de la mare 2 d’Aumelas et permet donc pas de l’utiliser sur d’autres sites.

Conclusion et perspectives

Ce stage a contribué à illustrer le potentiel de l’outil drone pour étudier et suivre la végétation naturelle. De nombreuses approches ont été testées, que ce soit sur le terrain ou par traitements des images. Les deux protocoles de terrain choisis sont spécifiquement adaptés pour les campagnes d’acquisition d’images issues de drone. Ils permettent également l’obtention d’images de qualité. Le positionnement juxtaposé des deux capteurs (APN) est une méthode qui fonctionne. En effet, le logiciel d’appariement des images a pu démontrer la performance du calage sur les milieux naturels. Ce logiciel est encore au stade expérimental, mais a un véritable potentiel. Le choix de ne pas utiliser des cibles n’affecte en rien l’orthorectification et le mosaïquage, vu les excellentes mosaïques produites. Cependant, le géoréférencement est assez complexe à mettre en place à cause des différences visuelles avec l’orthophotographie, mais il reste tout de même acceptable. Ce dernier pose également quelques soucis avec les traitements d’images qui ne supportent pas le système de projection. Malgré tout, les applications libres d’OTB sont productives et font avancer les traitements d’images issues de drone.

Les différentes primitives et segmentations sélectionnées permettent d’obtenir des classifications efficaces. Néanmoins, seules les classifications SVM et OBIA sont d’intérêts et classifient le mieux les différents groupes végétaux. Vu la qualité d’images et la résolution fine, la meilleure classification reste celle par objet. La nouveauté est l’utilisation de la 3D pour estimer la hauteur de végétation. Ce travail a démontré que les hauteurs d’arbre relatives du MNS sont proportionnelles aux mesures effectuées sur le terrain. Il est alors possible de calculer la hauteur des arbres et arbustes sans faire de mesures sur le terrain.

La segmentation et la classification par objets sont encore à améliorer, tous leurs potentiels n’ont pas encore été explorés. En effet, grâce au langage de programation il est possible d’améliorer ces approches de segmentation et de classification. Cependant, le manque d’algorithmes dans les logiciels à libre accès, comme les applications OTB, limite l’approche de classification OBIA. L’objectif final de cette classification serait de réussir à intégrer des informations texturales pour améliorer cette classification, mais reste pour l’instant impossible avec OTB, mais cette approche est en cours de développement sur la librairie OTB. Sur eCognition, un logiciel payant, les segmentations et les classifications par objets sont très bien développées mais restent inaccessibles pour de nombreuses personnes. C’est exactement la même chose pour le logiciel de mosaïquage qui est payant. Il existe alors un logiciel libre, OpenMapDrone, spécialisé dans le traitement d’images issues de drone. Il est encore en développement et semble complexe dans l’utilisation, avec des algorithmes et des langages uniques au logiciel. Il serait alors intéressant de tester ce logiciel sur les images des sites d’études et faire une comparaison avec les traitements du logiciel Smart3DCapture.

Les paramètres de la tristéréoscopie des images seraient également à intégrer dans la classification. Elle pourrait être en effet un atout pour distinguer les arbres des arbustes par exemple. L’exploitation de la tristéréoscopie est également à améliorer dans l’estimation de la hauteur de végétation afin de trouver de meilleurs algorithmes pour traiter le MNS et l’exploitation du NDVI afin de créer le masque du sol, au lieu des classes de la classification SVM.

En dernier lieu, l’automatisation de la chaîne de traitements par un script Python ou R serait nécessaire pour les nouvelles images à traiter puisque le but final de ce projet est de suivre l’évolution de la végétation de manière temporelle.

Références

Bibliographie

Alleaume, S., Laventure, S., and Deshayes, M. (2013). CARHAB – Q2 Appui méthodologique à la cartographie des végétations naturelles et semi-naturelles des milieux ouverts de basse altitude. Rapport d’avancement - Juillet 2013 (Irstea-MEDDE).

Anderson, K., and Gaston, K.J. (2013). Lightweight unmanned aerial vehicles will revolutionize spatial ecology. Front. Ecol. Environ. 11, 138–146.

Bantegnie, M., and Conjard, S. (2014). Utilisation d’Images à très haute résolution spatiale (THRS) pour l’identification d’habitats spécifiques - Géomatique et Télédétection pour l’analyse spatiale des milieux montagnards. Master 2 – Science du Territoire – Systèmes Territoriaux, Aide à la Décision, Environnement. IGA – UJF.

Breckenridge, R.P., Dakins, M., Bunting, S., Harbour, J.L., and White, S. (2011). Comparison of Unmanned Aerial Vehicle Platforms for Assessing Vegetation Cover in Sagebrush Steppe Ecosystems. Rangel. Ecol. Manag. 64, 521–532.

Chabot, D., and Bird, D.M. (2013). Small unmanned aircraft: precise and convenient new tools for surveying wetlands. J. Unmanned Veh. Syst. 01, 15–24.

Congalton, R.G. (1991). A review of assessing the accuracy of classifications of remotely sensed data. Remote Sens. Environ. 37, 35–46.

Hardin, P.J., and Hardin, T.J. (2010). Small-Scale Remotely Piloted Vehicles in Environmental Research: Remotely piloted vehicles in environmental research. Geogr. Compass 4, 1297–1311. Knoth, C., Klein, B., Prinz, T., and Kleinebecker, T. (2013). Unmanned aerial vehicles as innovative remote sensing platforms for high-resolution infrared imagery to support restoration monitoring in cut-over bogs. Appl. Veg. Sci. 16, 509–517.

Laliberte, A.S., Herrick, J.E., Rango, A., and Winters, C. (2010). Acquisition, Orthorectification, and Object-based Classification of Unmanned Aerial Vehicle (UAV) Imagery for Rangeland Monitoring. Photogramm. Eng. Remote Sens. 76, 661–672.

Laliberte, A.S., Goforth, M.A., Steele, C.M., and Rango, A. (2011). Multispectral Remote Sensing from Unmanned Aircraft: Image Processing Workflows and Applications for Rangeland Environments. Remote Sens. 3, 2529–2551.

Lebourgeois, V., Bégué, A., Labbé, S., Mallavan, B., Prévot, L., and Roux, B. (2008). Can Commercial Digital Cameras Be Used as Multispectral Sensors? A Crop Monitoring Test. Sensors 8, 7300–7322.

Lowe, D.G. (1999). Object recognition from local scale-invariant features. (IEEE), pp. 1150–1157 vol.2.

Lucie, X. (2013). Optimisation du paramètrage et évaluation de la qualité de MNS photogrammétriques pour une utilisation dans le domaine forestier - Impact de la résolution et de la qualité des données. Mémoire de soutenance de Diplôme d’Ingénieur INSA spécialité topographie. Rabatel, G., and Labbé, S. (2014). Registration of visible and near infrared aerial images based on Fourier-Mellin Transform. In: RHEA 2014, 2nde International Conference on Robotics and associated High-technologies and Equipment for Agriculture and forestry, Madrid, Spain, May 21-23, 2014, pp 329-338.

Rabatel, G., Labbé, S., and Gorretta, N. (2012). Getting simultaneous red and near infrared bands from a single digital camera for plant monitoring applications. CIGR-Ageng 2012. International Conference on Agricultural Engineering, Jul 2012, Valencia, Spain. 6 p.

Raclot, D., Puech, C., Mathys, N., Roux, B., Jacome, A., Asseline, J., and Bailly, J.-S. (2005). Photographies aériennes prises par drone et Modèle Numérique de Terrain : apports pour l’observatoire sur l’érosion de Draix. Géomorphologie Relief Process. Environ. 7–20.

Torres-Sánchez, J., López-Granados, F., De Castro, A.I., and Peña-Barragán, J.M. (2013). Configuration and Specifications of an Unmanned Aerial Vehicle (UAV) for Early Site Specific Weed Management. PLoS ONE 8, e58210.

Torres-Sánchez, J., Peña, J.M., de Castro, A.I., and López-Granados, F. (2014). Multi-temporal mapping of the vegetation fraction in early-season wheat fields using images from UAV. Comput. Electron. Agric. 103, 104–113.

Zarco-Tejada, P.J., Diaz-Varela, R., Angileri, V., and Loudjani, P. (2014). Tree height quantification using very high resolution imagery acquired from an unmanned aerial vehicle (UAV) and automatic 3D photo-reconstruction methods. Eur. J. Agron. 55, 89–99.

Webographie

Acute3D – Capturing Reality. Consulté le 30 juillet 2015. Disponible sur : http://www.acute3d.com CEN – Conservatoire d’espaces naturels de Savoie. Consulté le 20 juillet 2015. Disponible sur : http://www.cen-savoie.org

CookBook – OrfeoToolbox. Consulté le 29 juillet 2015. Disponible sur : http://www.orfeo-toolbox.org/CookBook

ESA (European Space Agency). Spectral signatures. Consulté le 29 juillet 2015). Disponible sur : http://www.esa.int/SPECIALS/Eduspace_EN/SEMPNQ3Z2OF_0.html

GRASS GIS 7.1 – Reference Manual. Consulté le 31 juillet 2015. Disponible sur : http://grass.osgeo.org/grass71/manuals/r.fillnulls.html

IGN - Espace professionnel. BD ORTHO® 50 cm par départements. Consulté le 27 juillet 2015). Disponible sur: http://professionnels.ign.fr/bdortho-50cm-par-departements

INPN – Inventaire National du Patrimoine Naturel. Consulté le 20 juillet 2015. Disponible sur : http://inpn.mnhn.fr/accueil/index

INPN – Inventaire National du Patrimoine Naturel. Fiche habitat des marais calcaires à Cladiummariscus. Consultée le 21 juillet 2015. Disponible sur : http://inpn.mnhn.fr/ docs/cahab/habitats-declines/7210.pdf

INPN – Inventaire National du Patrimoine Naturel. Fiche habitat des mares temporaires méditerranéennes. Consultée le 21 juillet 2015. Disponible sur : http://inpn.mnhn.fr/ docs/cahab/habitats-declines/3170.pdf

Irstea – Institut national de recherche en sciences et technologies pour l’environnement et l’agriculture. Consulté le 25 juillet 2015. Disponible sur : http://www.irstea.fr

Irstea Montpellier – Institut national de recherche en sciences et technologies pour l’environnement et l’agriculture de Montpellier. Consulté le 25 juillet 2015. Disponible sur : http://www.irstea.fr/linstitut/nos-centres/montpellier

ITAP – UMR Information, Technologies, Analyses environnementales et Procédés agricoles. Projet RHEA (Robot Fleets for Highly Effective Agriculture and Forestry Management). Consulté le 31 juillet. Disponible sur : http://itap.irstea.fr/?p=1966

OpenCV. Support Vector Machines. Consulté le 30 juillet 2015. Disponible sur : http://docs.opencv.org/modules/ml/doc/support_vector_machines.html

RHEA project. Résumé en français du projet RHEA. Consulté le 31 juillet 2015. Disponible sur : http://www.rhea-project.eu/SummaryFrench.php

Software Guide – OrfeoToolbox. Consulté le 31 juillet 2015. Disponible sur : http://www.orfeo-toolbox.org/SoftwareGuide

TETIS – UMR Territoires, Environnement, Télédétection et Information Spatiale. Consulté le 25 juillet 2015. Disponible sur : https://tetis.teledetection.fr/index.php/fr

Trame verte et bleue. Projet CarHab. Consulté le 25 juillet 2015. Disponible sur : http://www.trameverteetbleue.fr/outils-methodes/donnees-mobilisables/projet-carhab

Tutoriel QGIS – UMR ADESS – CNRS. Paramétrage du géoréférencement. Consulté le 5 août 2015. Disponible sur : http://www.ades.cnrs.fr/tutoqgis/04_04_parametrage.php

Université Mathématique de Toulouse. Classification supervisée et SVM. Consulté le 30 juillet 2015. Disponible sur : http://www.math.univ-toulouse.fr/~agarivie/Telecom/PESTO/TP_SVM_Pesto.pdf Wiki – OrfeoToolbox. Consultée le 29 juillet 2015. Disponible sur : http://wiki.orfeo-toolbox.org/index.php/Main_Page

Annexes

Annexe I : Fiche descriptive de l'appareil photographique numérique SIGMA DP2 Merill (source : site internet de SIGMA).

Annexe II : Paramètres d'appariement du logiciel TraitIm. La passe 1 (ou premier passage d'appariement) a une tolérance homographique de 20 alors que la passefinale a une tolérance homographique de 0,5.

Indice Formule Mode Energy

(Angular Second Moment) ∑ ∑{𝑝(𝑖, 𝑗)}²

𝑗 𝑖 Simple Inertia (Contrast) 𝑛² {∑ ∑ 𝑝(𝑖, 𝑗) 𝑁𝑔 𝑗=1 𝑁𝑔 𝑖=1 } 𝑁𝑔−1 𝑛=0 Simple Correlation 1 𝜎𝑥𝜎𝑦(∑ 𝑖𝑗 𝑝(𝑖, 𝑗) 𝑖𝑗 − 𝜇𝑥𝜇𝑦) Simple

Inverse Difference Moment

(Homogeneity) 1 1 + (𝑖 − 𝑗)² 𝑖𝑗 𝑝𝑖𝑗 Simple Cluster shade ∑((𝑖 − 𝜇) + (𝑗 − 𝜇))3𝑝(𝑖, 𝑗) 𝑖𝑗 Simple Cluster prominence ∑((𝑖 − 𝜇) + (𝑗 − 𝜇))4𝑝(𝑖, 𝑗) 𝑖𝑗 Simple Entropy − ∑ 𝑝𝑖𝑗log(𝑝𝑖𝑗) 𝑖𝑗 Simple Haralick’s correlation (𝑖, 𝑗)𝑝(𝑖, 𝑗) − 𝜇𝑡² 𝜎𝑡² 𝑖𝑗 Simple Variance ∑(𝑖 − 𝜇)²𝑝𝑖𝑗 𝑖𝑗 Advenced Sum Average ∑ 𝑖𝑝𝑥+𝑦(𝑖) 2𝑁𝑔 𝑖=2 Advenced Sum Variance ∑(𝑖 − 𝑓8)2𝑝𝑥+𝑦(𝑖) 2𝑁𝑔 𝑖=2 Advenced

Sum Entropy − ∑ 𝑝𝑥+𝑦(𝑖)log (𝑝𝑥+𝑦

2𝑁𝑔

𝑖=2

(𝑖)) Advenced

Difference Variance 𝜎2(𝑝𝑥−𝑦) Advenced

DifferenceEntropy ∑ 𝑝𝑥−𝑦

𝑁𝑔−1

𝑖=0

(𝑖)log (𝑝𝑥−𝑦(𝑖)) Advenced

Information Measures of Correlation (IC1)

𝐻𝑋𝑌 − 𝐻𝑋𝑌1

max (𝐻𝑋, 𝐻𝑌) Advenced

Information Measures of Correlation

(IC2) (1 − exp[2(𝐻𝑋𝑌2 − 𝐻𝑋)])1/2 Advenced

Mean ∑ 𝑖𝑝(𝑖, 𝑗) 𝑖𝑗 Advenced Dissimilarity ∑(𝑖 − 𝑗)𝑝(1, 𝑗)² 𝑖𝑗 Advenced

- 𝑝(𝑖, 𝑗) : l’entrée (i,j) de la matrice de cooccurrence normalisée - 𝑁𝑔 : nombre des différents niveaux de gris de l’image

- 𝑝𝑥(𝑖) = ∑ 𝑝𝑗 𝑖𝑗: l’entrée i de la matrice de probabilité marginale obtenue en sommant sur les lignes de 𝑝𝑖𝑗

- 𝑝𝑦(𝑗) = ∑ 𝑝𝑖 𝑖𝑗

- 𝜇𝑥, 𝜇𝑦: les moyennes respectives de px et de py

- 𝜎𝑥, 𝜎𝑦 : les moyennes respectives de px et de py

Annexe VII : Représentation en 3D du site de la mare 2 d'Aumelas, grâce à la superposition de la mosaïque et de son MNS.

Annexe VIII : Répartition des heures de travail selon les différentes tâches effectuées pendant le stage.

15% 4% 2% 36% 34% 9%

Répartition des heures de travail

Bibliographie Terrain Séminaires Prétraitements Traitements Rédaction rapport

Résumé

Ce stage s’inscrit dans le cadre du programme CarHab porté par le MEDDE visant à réaliser une cartographie de la végétation naturelle et semi-naturelle en France à l’échelle du 1:25000. CarHab consiste donc à la recherche de méthodes et d’outils, pour l’acquisition et le traitement d’images, afin de créer une carte finale optimale en 2025. Ainsi, Irstea et le CBN s’associent afin d’étudier et d’exploiter le potentiel des images issues de drone qui permettraient la réalisation d’une cartographie phytosociologique fine des milieux ouverts difficilement accessibles ou sensibles. Les milieux étudiés pour ce projet sont des sites Natura 2000, les mares temporaires des Causses d’Aumelas et le marais du Pontet, avec une végétation est unique et rare.

Ce stage a donc permis de tester des protocoles de terrain et différentes approches de traitements d’images issues de drone. Le principal enjeu est de caler des images acquises dans le domaine du proche-infrarouge avec des images du visible, afin de pouvoir calculer des indices radiométriques pour mieux distinguer les différents types de végétation. Les images obtenues sont par la suite d’appariées entre elles pour produire des mosaïques recouvrant toute la surface des sites d’études.

Ces mosaïques sont traitées par des primitives radiométriques (NDVI, NDWI2 et BI2) et texturales (Haralick et SFS) et par une segmentation (Mean-Shift). Des traitements de classification sont enfin effectués sur ces mosaïques permettant la distinction des différentes associations végétales. La classification non supervisée (K-means) et la classification supervisée, dont une approche pixel à pixel (SVM) et une approche orientée objet (OBIA), ont été testées. L’approche OBIA semble alors être la meilleure classification mais reste limitée par la grande taille des mosaïques et par le manque d’algorithmes dans les librairies en libre accès. L’exploration de la tristéréoscopie est le dernier enjeu de ce stage. Elle a permis l’estimation de la hauteur de végétation grâce à la génération d’un modèle numérique de surface des sites d’études. Il existe en effet une relation linéaire entre la hauteur estimée et la hauteur mesurée sur le terrain et rend alors possible le calcul des hauteurs d’arbres sans mesures sur le terrain.

Il reste encore beaucoup de possibilités de traitements de ces images issues de drone. La tristéréoscopie est en effet un élément qui peut être intégré dans la classification de la végétation naturelle. De plus, l’automatisation de la chaîne de traitements serait nécessaire puisque le but final de ce projet est de suivre l’évolution de la végétation de manière temporelle.

Mots clés

Documents relatifs