• Aucun résultat trouvé

Les compositions colorées mettent en évidence des informations sur la surface du sol. L’objectif de la télédétection va alors être d’attribuer des pixels à des classes définies, afin de représenter de manière semi-automatique les éléments classés sur l’orthophoto.

On distingue deux méthodes de classification.

La classification supervisée :

Il s’agit d’une classification subjective, qui consiste à associer des groupes de pixels à des classes prédéfinies en tenant compte des caractéristiques du terrain en présence. Les classes sont ainsi choisies avant de lancer le calcul, afin d’indiquer par des exemples au logiciel quel types de pixels correspondent à quels types d’éléments du sol (Jean-Paul Lacombe, 2007).

La classification non supervisée

Cette classification commence par définir un nombre de classes, sans tenir compte de la réalité terrain, et de lancer un calcul automatique. L’ordinateur choisi alors quels pixels attribuer aux classes, en se basant sur des calculs statistiques. La légende des classes, i.e. la correspondance à des objets du terrain, se fait alors après le lancement du calcul (Jean-Paul Lacombe, 2007).

4 ANALYSE DES DONNEES EXISTANTES 4.1 Données à disposition

M. David Cotter, du bureau Ingéo SA à Haute-Nendaz (VS) a mis à ma disposition un vol effectué en 2014, sur le secteur d’étude à l’aide d’une caméra RGB. Les données concernant ce vol sont:

Les photos prises par le drone avec une résolution de 11 cm/px

Le plan de vol

Un plan cadastral de la zone de vol avec les cépages indiqués

L’extrait cadastral fourni par David Cotter comporte 8 cépages différents, répartis sur 11 parcelles.

Des informations supplémentaires sur les cépages ont été fournies par Laurence Rey de la commune d’Ayent. Ces données ont été mises à disposition sous forme de tableau avec les cépages attribués pour chaque numéro de parcelles.

Cependant, la totalité des parcelles survolées par le drone n’a pas forcément de cépage attribué.

Toutefois, l’ensemble des informations récoltées suffiront à réaliser des classifications sur une partie d’entre elles.

Figure 7 Cépages fournis sur l'extrait du parcellaire fourni par David Cotter

4.2 Extraction de caractéristiques géométriques

A partir des données du vol et des photos, un modèle numérique de surface (MNS) a été calculé sur Pix 4D avec une résolution de 10 cm/px. Le résultat, dont une capture a été prise en figure 8, présente un maillage lissé où les rangs des vignes ne sont pas modélisés.

Figure 8 Modèle numérique de surface issu d'un vol avec une résolution à 10cm/px

Un des objectifs du projet est d’extraire les rangs des vignes afin de pouvoir n’appliquer la télédétection que sur les pixels correspondant à la vigne.

L’hypothèse est que le vol a été réalisé avec une résolution insuffisante pour permettre de détecter les différences de hauteur entre le sol et les rangs de vigne. En effet, une étude réalisée en 2015, présentée lors de la semaine « Geospatial Week » à La Grande Motte en France (Use a very high-resolution airborne images to analyse 3D canopy architecture of vineyard, 2015) présente une solution permettant d’extraire les rangs de vignes sur une parcelle, en soustrayant le modèle numérique de terrain (MNT) au MNS. Pour se faire, une résolution de vol à 4 cm/px s’est montrée nécessaire dans leur protocole afin de modéliser correctement les rangs en limitant l’influence de la canopée des vignes. En effet, la canopée des vignes, à savoir la partie supérieure vue depuis le ciel, peut se montrer relativement large et surmonter un feuillage relativement dense. Ainsi, l’extraction des variations d’altitude nécessite une résolution fine afin de produire un modèle 3D de qualité.

Les données à disposition ne permettent donc pas d’extraire avec suffisamment de précision la géométrie du terrain. L’enjeu est alors d’effectuer des vols supplémentaires, à plus haute résolution, comme préconisé dans l’étude citée précédemment, pour permettre une modélisation des rangs de vignes plus fine.

5 PROTOCOLE DE MESURE

L’analyse des modélisations issues du vol effectué en 2014 avec une résolution de l’ordre de 10cm/px a permis de mettre en évidence l’influence de la résolution du vol pour extraire précisément des caractéristiques géométriques sur le secteur afin d’extraire les rangs de vignes. Des vols supplémentaires ont alors été planifiés.

5.1 Mise en place d’un plan de vol

Différents plans de vols ont été planifiés sur Emotion 2. Le principal critère sur lequel il a fallu être attentif est la résolution, à savoir la taille d’un pixel au sol, exprimée en cm/px.

Le secteur sur lequel nous portons l’étude est un terrain relativement accidenté avec de fort changement de pente. La taille d’un pixel se calcul avec la formule suivante :

Résolution : Taille d’un pixel au sol

R =1 px H

p, ! " ′ !! $

Formule 2 Résolution d'un pixel au sol

La formule 2 ci-dessus montre que la résolution est proportionnelle à la hauteur de vol. Pour illustrer la relation entre la hauteur de vol et la résolution, le schéma 3 représente un vol horizontal dans la direction de la pente du terrain. Les indications de hauteurs de vol et de résolutions ont été fournies lors de la mise en place de plans de vol sur Emotion2.

On constate que plus la photo est prise depuis un point de vue haut, plus la taille du pixel au sol est grande. L’influence de la variation de la hauteur de vol sur la résolution n’est pas négligeable dans le cas d’un terrain à fort relief. Il apparaît donc comme nécessaire d’effectuer des vols en palier, afin de suivre au mieux les courbes de niveau du secteur d’étude. En l’occurrence le secteur présente des pentes dont les directions sont différentes. Il faudra alors orienter au mieux les lignes de vol, afin de perdre le mois de résolution possible sur l’ensemble du secteur.

Pour se faire, nous avons utilisé le modèle d’élévation, proposé dans Emotion, comme l’illustre la figure 9 ci-contre. Il s’agit d’un modèle numérique de terrain qui permet d’avoir une idée des intensités et des directions des pentes du terrain.

Afin d’avoir une acquisition permettant d’obtenir une résolution moyenne de 4cm/px au sol et le meilleur recouvrement possible, nous avons effectué 4 plans de vol, à savoir de deux types par caméra.

Les vignes étant des objets linéaires, hauts et peu espacés entre eux, il est important de concevoir un plan de vol qui limite au mieux les points cachés, comme par exemple, ceux se trouvant au sol.

Hmin

Schéma 3 Evolution de la taille d'un pixel au sol en fonction de la hauteur de vol

Figure 9 Plan de vol tenant compte de du modèle d'élévation

Dans cet objectif, nous avons imaginé deux types de plans de vol :

Un vol avec des lignes de vol parallèles en palier, suivant le modèle numérique de terrain

Figure 10 Plan de vol en palier, vue de dessus et de profil

Comme nous l’avons vu précédemment, il est nécessaire pour ce type de terrain avec de fortes dénivelées, de prendre en compte le relief afin de ne pas dégrader la résolution des photos. Pour se faire, l’emprise du vol a été placée sur le secteur, les lignes de vol orientées de telle sorte à ce qu’elles soient globalement parallèles aux courbes de niveau (Cf. Figure 10). Cette configuration se fera au moyen de deux vols. Une fois le premier vol terminé, le second suivra la même configuration, translatée de la moitié de la distance entre deux lignes de vol.

Un vol avec des lignes de vol perpendiculaire

Le plan de vol ci-après sur la figure 11 a été réalisé avec des lignes de vol perpendiculaires.

L’avantage d’une telle configuration de vol est qu’elle permet de prendre des photos de quatre points de vue différents et de limiter ainsi la présence de points cachés au sol.

Le problème avec une configuration perpendiculaire est, qu’en présence d’un terrain avec une forte dénivelée, il est impossible de planifier des lignes de vol perpendiculaires aux courbes de niveau qui suivent le terrain, comme l’illustre la vue de profile sur la figure 11. Les lignes de vol dans le sens de la pente du terrain vont alors produire une résolution globale qui sera dégradée par rapport aux lignes de vol parallèles aux courbes de niveau qui suivent, par palier, le relief du terrain.

Après discussion avec David Cotter, habitué des vols de drone en région montagneuse, nous avons opté pour des vols en paliers qui suivent les courbes de niveau.

Figure 11 Lignes de vol perpendiculaires, vue de dessus et de profil

5.2 Paramétrage du vol

Afin de garantir un recouvrement global fiable, malgré un vent assez fréquent sur la zone de vol nous avons fixé un recouvrement latéral entre les photos de 80% et longitudinal de 65%. Puis nous avons descendu la résolution jusqu’à obtenir une résolution moyenne proche de 4cm/px. Il a fallu être attentif au temps de vol, sachant qu’une batterie a en moyenne une autonomie de 20 à 30 min.

En effet, nous disposions de 2 heures pour effectuer le vol. En effet, le soleil est trop rasant avant 9h et le vent se lève vers les 11h. Le dossier du paramétrage des plans de vol transmis à David Cotter avant d’aller sur le terrain est annexé au présent rapport.

5.3 Points d’appuis

Nous avons matérialisé des points d’appuis de façon à ce qu’ils soient répartis au mieux sur l’ensemble de la zone de vol.

Dans la mesure du possible, il a été choisi de prendre un maximum d’objets déjà matérialisés, du type regards, marquages de route, que nous avons au besoin peint avec un spray orange. Seul le point 6 a été matérialisé par une cible amovible rectangulaire jaune fluorescent. Les fiches signalétiques correspondantes sont annexées au présent document (Annexe 5.2).

Figure 12 Répartition des points d'appui sur la zone de vol

5.4 Matériel utilisé pour l’acquisition

Le matériel utilisé pour réaliser des acquisitions supplémentaires ainsi que les personnes qui l’ont mis à disposition sont indiqués dans le tableau 2 suivant.

Matériel Photo Propriétaire

Un drone eBee Bureau Ingéo SA

Une caméra RGB

S.O.D.A. Bureau Ingéo SA

Une caméra S110 NIR HEIG-VD

Un GNSS de Leica avec rover GS14 et console

CS10

Bureau Ingéo SA

Tableau 2 Matériel mis à disposition (SenseFly)

5.5 Règlementation

Le secteur sur lequel porte l’étude se trouve à proximité d’un aérodrome militaire et civil.

L’Ordonnance du DETEC sur les Aéronef de Catégories Spéciales (OACS) fixe des règles à respecter pour effectuer des vols, notamment de drones, en présence de telle installation aérienne. Le drone eBee utilisé lors de notre vol fait partie de la catégorie des aéronefs sans occupant d’un poids allant jusqu’à 30kg. L’Office Fédéral de l’Aviation Civile (OFAC) a mis à disposition sur le géoportail fédéral (Map.Geo.Admin) des données concernant les zones de restriction de vol pour les drones.

Comme l’indique la figure 13, le secteur d’étude se situe dans une zone avec interdiction de vol limité (au-delà de 150m au-dessus du sol).

Nous avons pris garde avec David Cotter de réaliser un plan de vol ne dépasant pas les 100m au dessus du sol, afin de ne pas avoir à demander d’autorisation auprès de l’autorité compétente.

Figure 13 Extrait de la couche de l'OFAC sur le guichet cartographique (Map.Geo.Admin, 2017)

5.6 Vol sur le secteur

Comme nous l’avons mentionné précédemment, le secteur sur lequel nous souhaitions réaliser les vols est relativement accidenté avec une forte dénivelée et peu de parcelles sans culture de vignes. La figure 14 présente le secteur de décollage et d’atterrissage du drone que nous avons choisi qui, malgré une pente assez forte avait l’avantage de ne pas disposer de vignes.

Les vols ont finalement été réalisés sur deux jours : les 8 et 9 juin. En effet, plusieurs problèmes inattendus sont survenus.

Pour commencer, les plans de vols réalisés à l’aide d’Emotion 2 ne sont pas dans un format compatible avec Emotion 3. David Cotter, ayant téléchargé la 3ème version d’Emotion pour pouvoir utiliser sa caméra S.O.D.A de Sensefly récemment acquise, il a fallu refaire les plans de vols préparés, sur place avec Emotion 3. Cependant, l’évolution de l’interface entre Emotion 2 et Emotion 3 est peu intuitive. Par conséquent, du temps a été pris pour comprendre comment paramétrer les vols tels que planifiés sur Emotion 2. Plusieurs appels téléphoniques à l’entreprise Sensefly ont été nécessaires pour résoudre nos différents problèmes le plus rapidement possible.

Puis, alors que le vol RGB s’est effectué sans encombre, la caméra NIR n’était pas paramétrée dans le bon mode. Alors que la plupart des appareils photo montés sur drones doivent être configurés en mode automatique, la caméra S110 NIR doit se trouver en mode C. En effet, en lisant les brochures techniques, nous nous sommes aperçus que ce réglage était nécessaire pour qu’Emotion puisse dialoguer avec la caméra et inscrire, notamment, les mesures d’inclinaisons dans les métadonnées des images. La résolution de ces divers problèmes a pris du temps et les conditions de vols n’étaient plus optimales pour pouvoir faire le vol avec la caméra NIR le même jour.

6 TRAITEMENT DES ACQUISITIONS

Afin de pouvoir exploiter les données qui seront produites à partir des images issues des vols, et les utiliser pour établir un cadastre viticole, il est préférable de se placer dans le système de projection métrique suisse.

6.1 Géoréférencement des photos

Pour géoréférencer les photos prises par le drone, les points d’appuis ont été mesurés au GNSS. Le fichier de mesures exporté permet d’attribuer les coordonnées aux objets mesurés directement dans les images. Dans le cas présent, les coordonnées des points sont en MN95, tandis que les coordonnées des photos sont en WGS84. Cela n’a que très peu d’influence. En effet, Pix4D va caler l’ensemble du nuage sur les points d’appuis.

N’ayant pas utilisé un drone muni d’un capteur RTK, dont les mesures sont plus précises, le logiciel considère les coordonnées des prises de vue des photos comme des valeurs approximatives.

Figure 14 Zone de décollage et d'atterrissage du drone

Le géoréférencement des photos se fait en sélectionnant les cibles, matérialisées sur le terrain, directement sur les photos où elles apparaissent. Les points d’appuis ont pour la plupart été autant faciles à déterminer sur les photos RGB que sur celles en proche infrarouge. Les images en proche-infrarouge sont tout de même moins nettes (Cf. Figure 15).

Les points qui étaient les plus nets ont été sélectionnés dans le maximum de photos. En effet, la sélection de chaque point s’est faite dans au moins 4 photos en privilégiant des points de vue différents.

Les résidus des points d’appuis sur les images est de l’ordre du cm, jusqu’à 2cm, comme le montre tableau du résultat Pix4D du vol NIR sur le géoréférencement (Tableau 3). Ces résidus sont largement acceptables pour l’utilisation que nous allons faire des produits photogrammétriques.

Tableau 3 Résultat Pix4D du géoréférencement des photos issues du vol NIR

6.2 Création de produits photogrammétriques

Pour chaque vol (NIR et RGB), des produits photogrammétriques de type raster ont été calculés.

Vol RGB Vol NIR

Orthophoto à 10cm/px MNS à 10 cm/px MNT à 16cm/px

Orthophoto à 10cm/px

Carte de réflectance à 10 cm/px

Tableau 4 Produits photogrammétriques calculés

L’idéal aurait été d’attribuer la même résolution au MNT qu’au MNS, cependant, il n’est pas possible de descendre en dessous de 5 fois la résolution moyenne (GSD) calculée par Pix4D lors du processus initial. La carte de réflectance a été produite plus tard dans le projet après discussion avec l’experte et le professeur responsable lors de la soutenance intermédiaire. Des tests seront réalisés dans le chapitre 8.3 pour démontrer l’apport de la carte de réflectance par rapport à l’orthophoto, en matière de classification des cépages.

L’ensemble des résultats des calculs Pix4D seront utilisés tout au long du projet pour extraire les rangs de vignes et appliquer la classification des cépages.

Figure 15 Points d'appuis sur une photo RGB et une photo NIR

7 EXTRACTION DES RANGS DE VIGNES

7.1 Méthode 1 : Caractéristiques géométriques avec les images RGB

7.1.1 MODELE NUMERIQUE D’ELEVATION (MNE)

Afin de créer un modèle digital d’élévation, nous nous sommes inspirés de l’étude portant sur l’extraction des rangs de vignes à l’aide d’images de drone à très haute résolution (Use a very

high-resolution airborne images to analyse 3D canopy architecture of vineyard, 2015).

Dans cette étude, la méthode expliquée consiste à soustraire le modèle numérique de surface (MNS), par le modèle numérique de terrain (MNT), afin de produire un modèle numérique d’élévation (MNE). En pratique, les rasters issus directement du calcul de Pix4D associent à chaque pixel une altitude. De plus, pour rappel, un MNT modélise la surface du sol, tandis que le MNS prend en plus en considération le sol et les objets tridimensionnels présents sur le sol. Ainsi, en faisant la différence entre le MNS et le MNT, le sol n’est alors plus pris en compte, aux erreurs de modélisation près. Cette étape a été faite à l’aide de l’outil « Calculatrice raster » d’Arcmap.

7.1.2 DECOUPAGE DU PERIMETRE D’ETUDE

Afin de trouver une symbologie adaptée pour représenter les rangs de vignes, le résultat du calcul de soustraction, présenté à la figure 16, a été découpé. Le but de ce découpage est d’enlever les éléments très hauts, tels que les bâtiments et les arbres, pour pouvoir représenter le raster en seuil.

Pour se faire, l’outil ArcMap utilisé est l’outil « Extraction par masque ». Cet outil permet de découper un raster à partir d’un fichier de forme. Il a alors suffi de dessiner un polygone qui contienne les vignes débarrassées des bâtiments et des arbres. Cette manipulation a permis d’adapter la symbologie pour visualiser les rangs de vignes.

7.1.3 SEUILLAGE DES HAUTEURS DE MNE

Le seuillage des hauteurs sur les pixels du MNE consiste à attribuer une valeur pour tous les pixels compris entre deux plages de hauteur, et pas de valeur à ceux en sont en dehors. Le schéma 4 présente en vue de profil sur un rang de vigne ce que l’on entend par seuil

Schéma 4 Extraction des rangs par seuillage des hauteurs du MNE

Pour commencer, une symbologie par seuil a été réalisée sur le MNE découpé.

Les premiers seuils minimal et maximal choisis ont été respectivement 10cm et 1.5m. Pour faire ressortir les rangs de vignes, la symbologie a été adaptée de façon à représenter les pixels compris dans l’intervalle des seuils choisis en blanc et les autres en noir.

Comme le montre la figure 17, ce premier résultat permet de mettre en évidence les rangs de vignes.

Figure 17 MNE avant / après symbologie par seuil (blanc supérieur à 10cm, noir inférieur)

L’étape suivante a été de tester plusieurs affichages en faisant varier le seuil minimal. Le but est alors de trouver quel seuil permet de représenter le plus finement les rangs de vignes.Pour simplifier la comparaison des résultats, les résultats des différents tests ont été superposés avec des couleurs différentes. Un extrait de ces tests superposés est affiché sur la figure 18.

Figure 18 Comparaison des différents tests de seuillage

Le seuil minimal qui représente le mieux la majorité des rangs de vigne du secteur est de 10cm.

Le seuil maximal, fixé à 1.5m, suffi à débarrasser le raster des objets trop hauts, tout en conservant les pixels des vignes. Cette représentation met en évidence les rangs de vignes sur la majorité du secteur. Des objets qui ne correspondent pas aux vignes sont toutefois toujours présents mais restent dans l’ensemble peu nombreux. Il s’agit entre autres de voiture sur les routes au milieu des vignes.

Le seuil maximal, fixé à 1.5m, suffi à débarrasser le raster des objets trop hauts, tout en conservant les pixels des vignes. Cette représentation met en évidence les rangs de vignes sur la majorité du secteur. Des objets qui ne correspondent pas aux vignes sont toutefois toujours présents mais restent dans l’ensemble peu nombreux. Il s’agit entre autres de voiture sur les routes au milieu des vignes.

Documents relatifs