• Aucun résultat trouvé

Égalisation colorimétrique et détection de végétation dans des images aériennes couleur

N/A
N/A
Protected

Academic year: 2021

Partager "Égalisation colorimétrique et détection de végétation dans des images aériennes couleur"

Copied!
68
0
0

Texte intégral

(1)

HAL Id: hal-02598758

https://hal.inrae.fr/hal-02598758

Submitted on 16 May 2020

HAL is a multi-disciplinary open access

archive for the deposit and dissemination of

sci-entific research documents, whether they are

pub-lished or not. The documents may come from

L’archive ouverte pluridisciplinaire HAL, est

destinée au dépôt et à la diffusion de documents

scientifiques de niveau recherche, publiés ou non,

émanant des établissements d’enseignement et de

Égalisation colorimétrique et détection de végétation

dans des images aériennes couleur

A. Rudnik

To cite this version:

A. Rudnik. Égalisation colorimétrique et détection de végétation dans des images aériennes couleur.

Sciences de l’environnement. 2013. �hal-02598758�

(2)

Master Informatique spécialité image

28 février - 31 août 2013

Rapport de stage de fin d’études

Égalisation colorimétrique et détection

de végétation dans des images aériennes

couleur

Aurélie Rudnik

Maître de stage : Lionel Pénard

Tuteur pédagogique : Jean-Michel Moreau

(3)
(4)

Remerciements

Mes remerciements s’adressent à Monsieur Lionel Pénard, qui, en tant que maître de stage s’est soucié de ma compréhension des problèmes abordés, et des détails du sujet.

Je tiens aussi à remercier Madame Kerstin Ebert, qui s’est montrée à l’écoute et disponible.

Je remercie également Monsieur Jérémy Girerd-Rey, mon collègue de bureau et également de promotion, pour l’entraide que l’on s’est donnée.

Pour finir, je remercie tous les membres de l’équipe HHLY pour m’avoir ac-cueillie avec gentillesse.

(5)

Sommaire

Remerciements . . . . 1 Sommaire . . . . 2 Introduction . . . 3 1 Irstea . . . 3 2 APRiM . . . 4 3 Sujet du stage . . . 4 I Données 6 1 Zone d’étude . . . 6

2 Acquisition des données . . . 7

3 Géoréférencement des images . . . 7

4 Orthorectification des images . . . 9

5 Données utilisées lors du stage . . . 9

II Égalisation colorimétrique d’un ensemble d’images 11 1 Introduction . . . 11

2 Méthode de modification par itérations d’images . . . 12

3 Méthode de modification par histogramme moyenne . . . 21

III Détection de la végétation 28 1 Introduction . . . 28

2 Méthodes utilisées . . . 32

Conclusion . . . 41

1 Bilan sur l’égalisation . . . 41

2 Bilan sur la végétation . . . 41

3 Perspectives . . . 41

Annexes . . . . 43

Table des matières . . . 60

Table des figures . . . . 62

Liste des tableaux . . . . 63

(6)

Introduction

1

Irstea

1.1

Activités

L’Institut de recherche en sciences et technologies pour l’environnement et l’agriculture (Irstea) est un organisme dont les recherches sont basées sur l’envi-ronnement et l’agriculture. La préoccupation d’Irstea est double : adopter une attitude responsable et cohérente vis-à-vis de l’environnement et mieux se pré-munir face aux risques, qu’ils soient naturels ou induits par l’activité humaine. C’est pourquoi ses domaines d’interventions comportent la gestion durable de l’agriculture, des espaces ruraux, des ressources piscicoles et de la forêt, le dé-veloppement des territoires ruraux, les services publics ruraux de l’eau et des déchets, l’hydraulique de l’espace rural, la qualité des milieux aquatiques, l’op-timisation des usages des pesticides et des fertilisants, la santé et sécurité des opérateurs agricoles, la sécurité sanitaire et l’hygiène des aliments.

1.2

Partenariats

Irstea possède plusieurs partenariats dans le domaine public, tels que le ministère de l’Alimentation, de l’Agriculture et de la Pêche, dont Irstea est sous la tutelle, et le ministère de l’Écologie, de l’Énergie, du Développement durable et de la Mer. Il développe également de nombreux partenariats avec les régions, départements, ainsi que les intercommunalités par le biais de ses implantations métropolitaines. D’autres partenariats peuvent aussi être cités comme ceux avec Véolia, Suez, EDF ou Unilever.

Irstea travaille également avec des partenaires européens dans le cadre de Partnership for European Environmental Research (PEER) qui a une volonté de mise en commun des capacités de recherche et de valorisation dans le domaine de l’environnement.

1.3

Équipes

Irstea est implanté dans toute la France par le biais de neuf centres régionaux, ainsi que deux implantations hors centres. Ces centres régionaux sont organisés en différentes unités de recherche basées sur l’agroalimentaire, les écosystèmes, les risques naturels, le traitement des déchets, la gestion des territoires ainsi que les milieux aquatiques.

Les recherches du centre de Lyon portent sur le domaine de l’eau. Les cher-cheurs, ingénieurs, techniciens, doctorants et stagiaires composent deux unités

(7)

de recherches :

– L’unité Milieux Aquatiques, Ecologie et Pollution (MAEP), appelée éga-lement MALY : Milieux Aquatiques LYON,

– L’unité Hydrologie-Hydraulique (HH), appelée également HHLY : Hydro-logie-Hydraulique LYON, composée des équipes Hydrologie des bassins versants, Métrologie et Hydraulique des rivières dans laquelle ce stage a été effectué.

Plus de détails sur Irstea Lyon sont disponibles dans un organigramme (An-nexe A).

L’unité HH effectue ses recherches sur les processus et la modélisation des régimes hydrologiques des bassins versants ainsi que l’hydraulique et la morpho-logie des rivières afin de mieux gérer les ressources en eau et les risques liés aux inondations et aux sécheresses.

C’est dans le contexte de l’étude de la morphologie fluviale que le logiciel APRiM a été mis au point.

2

APRiM

2.1

Fonction

Automatic Processing for River Morphology (APRiM) est un logiciel mis au point par Irstea pour automatiser le traitement de données concernant une rivière, et plus particulièrement sa morphologie. Il permet à l’utilisateur de relever des informations pertinentes sur les rivières comme la surface et position des bancs, la ligne d’eau, etc. à partir de Modèles Numériques de Terrain (MNT) et de photographies aériennes.

Le logiciel a été créé en 2011 par Maxime Morel [1] et poursuivi par Ar-mand Poli [2] lors de leurs stages de master 2. Tous deux ont travaillé sur la segmentation des bancs et des lits de rivières.

2.2

Aspect technique

APRiM a été codé dans le langage C++, utilisant un grand nombre de librairies donc voici les plus importantes :

– OpenCv pour gérer les images,

– GeoTiff pour gérer les images orthorectifiées et les MNT, – GTKmm pour gérer l’interface graphique.

3

Sujet du stage

3.1

Problématique

APRiM contient déjà un module de détection de bancs de rivière (voir [1] et [2]). Cependant, il n’existe pas encore de traitement ciblé sur la végétation. Dans le cadre des recherches sur la morphologie des rivières, la végétation est impor-tante pour déterminer la stabilité des bancs. De plus, la présence de végétation est une cause possible d’échec de segmentation de bancs. Il est donc nécessaire de développer un module de segmentation de végétation. D’autre part, il n’y a

(8)

aucun moyen de s’assurer de la compatibilité colorimétrique des images à traiter. C’est pourquoi un module d’égalisation d’un ensemble d’images est également nécessaire.

L’objectif du stage est donc de créer deux nouveaux modules pour APRiM.

3.2

Objectifs

Le sujet de ce stage se décompose en deux parties. Premièrement, dévelop-per l’égalisation colorimétrique d’images, qui améliorerait la visualisation des images dans l’interface et faciliterait la segmentation à l’utilisateur. Et deuxiè-mement, développer la détection de végétation, qui apporterait des informations supplémentaires sur la rivière étudiée et permettrait une optimisation de la seg-mentation des bancs.

3.3

Plan du rapport

La première partie de ce rapport traitera des données utilisées par APRiM, la deuxième partie développera l’égalisation des images, et la troisième par-tie abordera les différentes méthodes de détection de végétation. Pour finir, la conclusion dressera un bilan des méthodes vues dans les deux dernières parties.

(9)

Chapitre I

Données

1

Zone d’étude

La rivière de l’Arc se situe dans la vallée de la Maurienne, en Savoie, et est depuis de nombreuses années un site d’étude d’Irstea. L’Arc est un exemple de rivière comportant des bancs de graviers alternés. De plus, elle compte plusieurs barrages. Cette rivière est donc un bon site pour une étude morphologique et sédimentaire. Les tests réalisés pour ce rapport proviennent d’une zone particu-lière de l’Arc située près de la commune Sainte-Marie-de-Cuines (figure 1).

Figure 1 – Site d’étude. La pastille rouge étant Sainte-Marie-de-Cuines (image Google).

Les stagiaires précédents, Maxime Morel et Armand Poli, ont travaillé tous deux sur ces images de l’Arc dans le cadre de la conception d’APRiM.

(10)

2

Acquisition des données

2.1

Données possédées par Irstea

Deux séries d’images, basées sur la zone de l’Arc, ont été utilisées pour les tests sur les différentes méthodes abordées dans ce rapport. La date de prise de vue diffère : la première série d’images a été prise en mai 2010, et la deuxième série en septembre 2010.

Ces données ont été fournies à Irstea par la société Sintegra1. Après

l’acquisi-tion des nuages de points du terrain, Sintegra a appliqué des pré-traitements sur les données afin de supprimer le sur-sol. La végétation et les ponts par exemple ont été ainsi supprimés car ils pouvaient interférer avec les données importantes tels que le sol ou la surface de l’eau. Ces nuages ainsi traités ont été découpés en dalles que l’on appelle des Modèles Numérique de Terain (MNT).

Malgré cela, les images aériennes ne peuvent pas encore être associées aux MNT afin de traiter à la fois les données topographiques et colorimétriques de Sintegra. Il faut, pour cela, orthorectifier ces images.

2.2

Traitement des données

L’orthorectification d’une image est le fait de la déformer pour qu’elle cor-responde à la précision spatiale d’une carte. Cette carte est obtenue à partir d’acquisition LIght Detection And Ranging (Lidar). Un système Lidar permet de mesurer, à la manière d’un radar, la distance entre le capteur et l’obstacle rencontré par le laser émis. Cette technologie est utilisée à des fins de télédé-tection, géographie ou encore sismologie. Les acquisitions peuvent s’effectuer à partir de systèmes Lidar immobiles, comme par exemple sur pieds ou par le Frequency Addition Source of Optical Radiation (FASOR), ou à partir de sys-tèmes mobiles, comme des robots sur chenilles ou des voitures. Irstea possède des données issues d’une acquisition Lidar à partir d’un hélicoptère.

En plus du système Lidar, l’hélicoptère est équipé d’une antenne Global Po-sition System (GPS), pour associer le nuage de points acquis à des coordonnées terrestres, ainsi que d’une caméra pour des photos aériennes du vol, comme présenté dans la figure 2.

Cependant, les distorsions du capteur de la caméra avec le relief de la Terre provoquent des déformations de l’image. L’objectif de l’orthorectification est de corriger géométriquement ces distorsions et donc de rendre superposables les images aériennes aux MNT issus de l’acquisition Lidar.

3

Géoréférencement des images

3.1

Stéréopréparation

L’orthorectification se base sur le géoréférencement. L’objectif premier est de faire la correspondance entre les points image et les points terrain.

Pour cela, il faut effectuer un relevé topographique manuel en allant directe-ment sur le site d’étude. La façon la plus simple et la plus sûre pour trouver des points qui se correspondent dans l’image et sur le terrain est de choisir aupara-vant des points remarquables. Un point remarquable doit avoir la particularité

(11)

Figure 2 – Schéma d’un vol Lidar.

de permettre à l’utilisateur de retrouver facilement le pixel qui correspond au point terrain.

Pour ce stage, ces points ont été en grande partie des angles de tracés de route, très facile à repérer sur une image et généralement dégagés en vue aé-rienne, ou divers objets comme des poteaux, panneaux, des plaques d’égouts, ou des conteneurs à ordures.

Le dernier relevé Lidar de l’Arc datant de septembre 2010, une autre difficulté s’ajoute au relevé topographique : trouver des points remarquables sur une image de 2010 qui sont susceptibles de ne pas avoir été détruits (tracé de route modifiés, objets déplacés, etc.).

Une fois les coordonnées des points terrain collectées, il faut, à la main, trouver les correspondances entre les images afin d’orienter celles-ci. C’est un travail long et fastidieux dû au fait qu’il n’existe pas d’automatisation pour cette tâche.

Le relevé de points sur le terrain, ainsi que le travail de correspondance entre les points terrain et image ont été effectués durant ce stage. Environ 250 points terrain ont été relevés et assimilés à une soixantaine d’images pour un total d’environ 1200 correspondances. Ces points ont été collectés sur le site de l’Arc sur 5 km, de Sainte-Marie-de-Cuines à Pontamafrey.

3.2

Orientation des images

La dernière étape avant l’orthorectification est l’orientation de l’image dans l’espace. L’orientation d’une image est le calcul des paramètres extrinsèques de la caméra ayant servi à prendre les photographies. Ces paramètres sont calculés à partir des paramètres intrinsèques de la caméra, fournis en même temps que les images et les MNT. Les paramètres extrinsèques, ainsi que les points collectés lors du géoréférencement, vont permettre de supprimer les distorsions de l’image provoquées par la caméra.

C’est à l’aide du logiciel Micmac [3], fourni par IGN, que les images de l’Arc ont été orientées de façon automatique.

(12)

4

Orthorectification des images

Comme expliqué auparavant, une image orthorectifiée est une image super-posable à une carte plane. Le principe est de faire la projection de l’image sur le MNT, comme schématisé dans la figure 3.

Figure 3 – Schéma d’une orthorectification.

Ainsi, l’image obtenue donnera l’impression d’avoir été prise verticalement par rapport au terrain (figure 4). L’enjeu est de corriger l’angle de prise de vue et les inclinaisons du terrain.

(a) Image avant orthorectification (b) Image après orthorectification

Figure 4 – Schéma représentant la projection d’une scène sur une image avant et après orthorectification

Les photographies orthorectifiées seront utiles afin d’établir un parallèle entre colorimétrie et coordonnées terrain.

APRiM permet de créer les images orthorectifiées à partir des images orien-tées et des MNT correspondants, ainsi que leurs emprises et résolutions.

5

Données utilisées lors du stage

Lors de l’étape d’orientation des images, le logiciel Micmac a rencontré quelques problèmes, bloquant le processus d’orthorectification des images. Ainsi,

(13)

les images présentées dans ce rapport proviennent d’ensembles de photographies orthorectifiées avant le stage. Ces images ont été superposées pour un meilleur rendu visuel.

Cependant, l’orthorectification demande une grande rigueur dans les données topographiques. En effet des données contenant un écart de précision, aussi infime soit-il, peuvent avoir un impact sur le calcul du présumé angle de prise de vue et ainsi fausser le résultat.

C’est pourquoi la superposition des images exposées en résultats dans ce rapport n’est pas parfaite. Malgré tout, cela n’influe en aucun cas, ou de façon négligeable, les résultats des méthodes présentées.

Deux ensembles ont été utilisés dans ce rapport afin d’exposer les résultats : – L’ensemble de mai 2010 (figure I.5(a)), qui contient huit images,

– L’ensemble de septembre 2010 (figure I.5(b)), qui en contient sept.

(a) Mai 2010

(b) Septembre 2010

(14)

Chapitre II

Égalisation colorimétrique

d’un ensemble d’images

1

Introduction

1.1

Données

L’acquisition Lidar d’une rivière dure souvent plusieurs heures. Lors de cette manœuvre, les conditions d’éclairement peuvent changer. Ce changement est dû à la position du soleil, ou aux conditions climatiques (nuages). Les données colorimétriques de deux photographies pourtant acquises durant le même vol peuvent donc être très différentes.

1.2

Objectif

L’égalisation d’une série de photographies est utile pour deux raisons. Premièrement, APRiM comporte plusieurs modules de segmentation utili-sant plusieurs paramètres colorimétriques. Il serait utile à l’utilisateur de traiter une série de photographies, et non pas une photographie à la fois, en choisissant à chaque fois les bons paramètres. L’égalisation permettrait de conserver ces paramètres pour l’ensemble des images.

Enfin, APRiM comportera à terme une interface qui permettra à l’utilisa-teur de visualiser l’ensemble des images d’une rivière. L’égalisation serait utilisée pour améliorer la visualisation. L’utilisateur ne percevra plus, ou du moins per-cevra moins, les écarts colorimétriques entre les images.

C’est pour répondre à ces besoins que deux méthodes basées sur la modifi-cation par spécifimodifi-cation d’histogramme ont été mises au point.

1.3

Modification d’image par spécification d’histogramme

L’algorithme 1 de modification d’image par spécification d’histogramme est l’algorithme de base utilisé dans les deux méthodes présentées ci-dessous.

De plus, plusieurs canaux des espaces colorimétriques RGB et HSV ont été utilisés. Ainsi, des modes de modification ont été créés :

– HSV, où les canaux H, S et V subissent une modification par spécification, – RGB, où les canaux R, G et B subissent une modification par spécification,

(15)

– SV, où uniquement les canaux S et V subissent une modification,

– RGBSV, dont le principe est d’appliquer une première fois la spécification avec le mode de modification RGB, puis une deuxième fois avec le mode SV.

Ces modes de modification ont été appliqués aux images pour chaque mé-thode d’égalisation testée.

Algorithme 1 : SpecificationHistogramme

Input : depart L’histogramme de l’image de départ de 256 valeurs, cible

L’histogramme cible de 256 valeurs

Output : correspondance le tableau de correspondance de 256 valeurs

Calculer l’histogramme cumulé Cdepartde depart

Calculer l’histogramme cumulé Ccible de cible i ← 0

j ← 0

while i 6= 256 ∧ j 6= 256 do while Ccible[j] ≥ Cdepart[i] do

correspondance[i] ← j i ← i + 1

end

j ← j + 1

end

2

Méthode de modification par itérations

d’ima-ges

2.1

Principe

Cette méthode consiste à modifier successivement les images d’un ensemble de proche en proche par spécification d’histogramme calculé sur l’intersection de deux images successives. La correspondance est calculée à partir de l’histo-gramme de l’intersection des deux images. Ainsi, la deuxième image sera modi-fiée par la correspondance entre l’histogramme d’une sous-image de la première et la sous-image de la deuxième, puis la troisième image sera modifiée par la cor-respondance entre l’histogramme de la sous-image de la deuxième image déjà modifiée et la sous-image de la troisième, ainsi expliqué dans l’algorithme 2. Une sous image est calculée à partir de l’intersection, c’est-à-dire l’endroit où les deux images se superposent.

Il est important de souligner qu’uniquement l’histogramme de la sous-image de l’image 1 est utilisé sur la sous-image de l’image 2. Le schéma 6 reproduit une itération de cet algorithme.

CalculerIntersectionImage() est la fonction qui renvoie la sous-image de la première image en entrée sur la partie de recouvrement entre les deux images en entrée. Et où CalculerHistogramme() est la fonction qui calcule l’histogramme

(16)

d’une l’image. Correspondance() est la fonction qui calcule la correspondance des intensités de l’image en entrée avec le tableau de correspondance calculé auparavant.

Figure 6 – Schéma du principe de l’algorithme par itération

Algorithme 2 : EgalisationIterative Input : E L’ensemble de N images à égaliser Output : F L’ensemble de N images égalisées

F [1] ← E[1]

for i ← 1 to N do

SousImage1 ← CalculerIntersectionImage(F [i], E[i + 1]) SousImage2 ← CalculerIntersectionImage(E[i + 1], F [i]) HistogrammeCible ← CalculerHistogramme(SousImage1) HistogrammeDepart ← CalculerHistogramme(SousImage2) correspondance ← Specif icationHistogramme(HistogrammeDe-part, HistogrammeCible)

F [i + 1] ← Correspondance(E[i + 1], correspondance)

end

2.2

Limites présumées de la méthode

La modification d’image par spécification d’histogramme modifie l’image pour que son histogramme ressemble à l’histogramme cible. Elle déplace les valeurs de certaines intensités en les ajoutant à d’autres, laissant ainsi ces inten-sités avec des valeurs à 0. Il en résulte des cassures dans les histogrammes. La spécification d’histogramme dégrade donc l’histogramme de l’image modifiée. De plus, lors des itérations, ces intensités aux valeurs 0 ne se verront jamais changées, dû à l’algorithme même (algorithme 1). Plus le nombre d’itérations

(17)

est grand, plus le nombre d’intensités aux valeurs 0 de l’histogramme de l’image courante aura le risque d’être grand (figure 7).

Les images suivantes alors modifiées par spécification d’histogrammes déjà dégradés, se trouveront elles-même dégradées. Après plusieurs itérations, les images pourraient être trop dégradées et ne seraient plus acceptables.

Le nombre d’images de l’ensemble est donc un facteur important à prendre en compte lorsque cette méthode est utilisée.

(a) Itération 0 (b) Itération 1

(c) Itération 7

Figure 7 – Évolution des histogrammes des images modifiées par la méthode itérative

2.3

Résultats

Résultats qualitatifs

Afin de mieux représenter les résultats, notamment pour l’égalisation, les images ont été superposées. Les superpositions des images originales sont dis-ponibles à la fin du chapitre 1. De plus, pour faciliter la lecture des résultats et rendre ainsi les défauts plus visibles, un filtre de rehaussement du contraste et de la luminosité leur a été appliqué. Il est à noter que le même filtre a été appliqué aux images avant et après égalisation, pour toutes les méthodes de ce chapitre. Malgré la présence d’un filtre, la prise de vue de septembre n’est pas présente dans ces résultats car les changements ne sont pas visibles sur cet ensemble. L’image des superpositions de l’ensemble original de mai se trouve à la figure 8.

(18)

L’itération 0 est située à l’amont de la rivière, c’est-à-dire à gauche de l’image.

(a) Image non filtrée

(b) Image filtrée

Figure 8 – Superposition de l’ensemble de mai

D’après les résultats obtenus (figure 9), les superpositions sont visuellement égales car peu distinctes. Le rendu après égalisation est meilleur que sans éga-lisation. Dans l’image originale, les contrastes aux limites des images qui se superposent sont très nets. Ils le sont un peu moins à l’amont, et sont beaucoup plus estompés à l’aval (figure 10).

La couleur de l’eau est l’unique élément comparable. Ce sont les résultats numériques et surtout les résultats de la segmentation qui seront importants pour comparer les modes de modification de cette méthode.

Résultats quantitatifs

Afin de quantifier la différence entre les images avant et après égalisation, une moyenne des écarts (ME) entre deux images qui se superposent a été calcu-lée avant et après égalisation. Un écart est la valeur absolue de la différence des intensités d’un même pixel pour même canal de deux images qui se superposent. Cela revient à dire que ce sont les sous-images de l’image 1 et l’image 2 qui sont comparées. Les sous-images sont calculées à partir de la zone de recouvrement des deux images. Dans la même optique, un écart type des différences (ET) a également été calculé.

Notations :

– Intensité d’un pixel i de l’image k : pk i

(19)

(a) Spécification avec le mode de modification HSV

(b) Spécification avec le mode de modification RGB

(c) Spécification avec le mode de modification RGBSV

(d) Spécification avec le mode de modification SV

Figure 9 – Résultats filtrés de l’égalisation avec la méthode itérative pour mai avec les différents modes de modification.

– Différence d’intensité d’un pixel i entre les images k et k + 1 :

Dif fi= pki − p k+1 i

(20)

(a) Amont de l’image originale (b) Aval de l’image originale

(c) Amont de l’image modifiée avec le mode de modification SV

(d) Aval de l’image modifiée avec le mode de mo-dification SV

Figure 10 – Comparaison de l’image originale et du résultat de la méthode itérative en mode de modification SV filtrés de l’amont et de l’aval de la rivière

– Écart d’intensité d’un pixel entre les images k et k + 1 :i=| pki − p

k+1 i |

– Moyenne des Écarts entre les images k et k + 1 de N pixels (ME) :

M Ek,k+1= 1

N

X

i∈Ik,k+1

i

– Moyenne des différences entre les images k et k + 1 de N pixels :

Mk,k+1= 1 N X i∈Ik,k+1 pki − pk+1 i

(21)

– Variance des différences entre les images k et k + 1 : Vk,k+1= 1 N X i∈Ik,k+1 (Dif fi− Mk,k+1)2

– Écart-type des différences (ET) :

ETk,k+1= √

Vk,k+1

– Image modifiée de k : k

– Pourcentage des variations entre deux images k et k + 1 et de leurs modi-fiées de la moyenne des écarts :

M Ek,k+1− M Ek,k+1 M Ek,k+1 × 100

– Pourcentage des variations entre deux images k et k+1 et de leur modifiées de l’écart-type des différences :

ETk,k+1− ETk,k+1 ETk,k+1 × 100

Les moyennes et écart-types ont donc été calculés pour les deux ensembles mai et septembre avant égalisation, et après égalisation, et pour chaque mode de modification (MM). De plus, il est à noter que ces valeurs sont calculées à partir de chaque canal R, G, B, H, S et V de l’image. Les tableaux 1 et 2 contiennent les pourcentages de variation entre les valeurs de l’ensemble avant et après égalisation.

Les tableaux détaillant les moyennes des écarts, ainsi que les écart-types des différences des images pour les ensembles complets de mai et septembre, avant et après égalisation se trouvent en annexes B, C, D et E.

L’ensemble d’images de mai contient huit images(sept pour septembre), et donc sept intersections d’images (six pour septembre), d’où le nombre de valeurs dans les tableaux pour chaque mode de modification).

D’après les résultats de l’égalisation par itération d’images de mai (tableaux 1 et 2) et de septembre (Annexe F), la méthode améliore les écarts entre deux superpositions pour les canaux R, G, B et V, à l’inverse des canaux H et S. Une hypothèse possible est que cela se produit car, pour la plupart des modes de modification, le canal H n’est pas changé. Les résultats médiocres des modes de modification RGB et RGBSV pour les canaux H et S peuvent valider cette hypothèse. Néanmoins, cela n’explique pas pourquoi le mode de modification HSV détériore les écarts de teinte entre deux images alors qu’il est censé les améliorer ou pourquoi le canal S est lui aussi dégradé pour tous les modes de modification.

De plus, une dérive est observable pour tous les canaux : les écarts s’amé-liorent de plus en plus au fil des itérations pour les canaux R, G, B et V, et s’aggravent pour les canaux H et S. Cela est peut-être dû au fait que les images sont détériorées par les itérations de la spécification d’histogramme.

(22)

% R G B

MM ME ET ME ET ME ET

HSV & -6,74 & -4,17 & -7,87 & -5,25 & -5,53 & -2,82 & -6,89 & -5,18 & -9,26 & -7,17 & -5,96 & -3,31 & -11,28 & -7,97 & -12,36 & -8,73 & -7,46 & -5,68 & -8,94 & -8,11 & -12,61 & -9,85 & -6,56 & -6,48 & -11,49 & -9,91 & -15,34 & -11,81 & -8,43 & -7,26 & -13,56 & -12,37 & -19,84 & -15,30 & -8,72 & -8,27 & -15,12 & -13,38 & -21,50 & -17,56 & -9,61 & -8,00 RGB & -5,41 & -3,70 & -7,44 & -5,13 & -5,19 & -3,13 & -5,86 & -4,38 & -10,05 & -7,92 & -5,71 & -3,34 & -6,55 & -4,49 & -14,95 & -10,48 & -6,38 & -3,71 & -8,00 & -6,10 & -14,41 & -10,22 & -8,70 & -5,71 & -11,94 & -7,61 & -18,56 & -12,09 & -12,79 & -8,04 & -14,56 & -10,03 & -21,01 & -14,27 & -12,36 & -10,12 & -15,85 & -10,80 & -23,30 & -16,59 & -11,83 & -10,77 RGBSV & -6,23 & -4,03 & -7,13 & -5,13 & -4,48 & -2,42

& -5,59 & -4,10 & -10,07 & -8,18 & -3,62 & -1,76 & -8,75 & -5,42 & -16,27 & -11,28 & -2,75 & -0,59 & -6,85 & -5,63 & -14,28 & -10,10 & -4,02 & -3,27 & -11,52 & -8,06 & -19,50 & -12,94 & -8,42 & -5,89 & -15,21 & -12,92 & -22,83 & -16,97 & -7,78 & -8,39 & -17,98 & -14,75 & -26,54 & -20,55 & -6,49 & -7,96 SV & -6,82 & -4,29 & -7,13 & -4,95 & -5,38 & -2,76 & -7,26 & -5,52 & -9,32 & -7,34 & -5,62 & -3,18 & -12,06 & -8,60 & -13,27 & -9,88 & -6,38 & -4,81 & -10,54 & -9,07 & -13,13 & -10,36 & -5,90 & -6,64 & -13,68 & -11,10 & -16,80 & -12,19 & -8,20 & -7,83 & -15,91 & -13,59 & -19,43 & -14,39 & -8,87 & -8,87 & -18,21 & -14,74 & -19,65 & -15,91 & -10,69 & -9,43 Table 1 – Tableau de pourcentages de variations de comparaison des résultats RGB pour la méthode itérative pour mai.

Résultats de la segmentation des bancs

Afin de valider cette méthode, une segmentation de bancs utilisant les mêmes paramètres a été appliquée aux ensembles obtenus pour chaque ensemble d’ima-ges et chaque mode de modification.

Les deux paramètres principaux pour la segmentation de bancs sont des seuils pour les canaux H et S. Selon le rapport d’Armand Poli [2], les valeurs optimales pour la segmentation de bancs est 50 pour les deux seuils. Néanmoins, un changement colorimétrique a été effectué sur les images. Plusieurs segmenta-tions sur les ensembles superposés ont donc été effectuées avec des valeurs de H et S comprises dans un intervalle de [0 − 100] chacunes. La figure 11 représente une de ces segmentations sur l’ensemble de mai pour le mode de modification SV et les valeurs H = 74 et S = 76.

(23)

% H S V

MM ME ET ME ET ME ET

HSV % 0,14 % 2,08 & -0,60 & -0,45 & -7,00 & -4,91 & -0,65 % 7,13 & -0,29 & -0,27 & -9,08 & -6,95 & -5,43 % 8,08 % 1,99 % 2,31 & -12,14 & -9,32

% 1,80 % 19,16 % 3,53 % 3,36 & -13,36 & -10,44

% 7,89 % 23,10 % 5,38 % 4,43 & -15,94 & -11,82

% 22,05 % 29,69 % 8,32 % 6,56 & -18,42 & -13,63

% 34,44 % 45,05 % 8,41 % 7,60 & -21,25 & -15,57

RGB % 6,20 % 4,92 % 2,78 & -1,32 & -7,43 & -4,99

% 36,57 % 32,18 % 3,17 & -2,39 & -7,71 & -5,66

% 67,80 % 62,14 % 26,42 % 12,01 & -7,73 & -5,42

% 69,28 % 68,33 % 22,08 % 12,29 & -9,61 & -7,51

% 88,97 % 85,80 % 18,98 % 5,20 & -15,26 & -10,36

% 74,89 % 62,41 % 6,75 & -2,21 & -17,85 & -12,50

% 88,62 % 82,58 % 0,23 & -7,13 & -19,74 & -13,57 RGBSV % 10,80 % 7,14 % 2,54 % 0,00 & -6,93 & -4,98 % 42,07 % 36,68 % 8,63 % 3,25 & -7,57 & -6,00 % 75,66 % 68,62 % 32,88 % 21,21 & -8,22 & -6,45 % 74,11 % 72,15 % 37,75 % 21,97 & -10,32 & -8,48 % 92,21 % 87,00 % 32,71 % 15,02 & -16,14 & -11,39 % 75,55 % 62,24 % 21,30 % 8,30 & -18,96 & -13,61 % 88,71 % 82,05 % 12,22 % 1,55 & -21,40 & -14,90

SV % 4,25 % 2,00 & -0,60 & -0,45 & -7,00 & -4,91

% 3,56 % 2,63 & -0,29 & -0,27 & -9,08 & -6,95

% 5,65 % 5,54 % 1,99 % 2,31 & -12,14 & -9,32

% 3,53 % 2,01 % 3,53 % 3,36 & -13,36 & -10,44

% 1,07 % 0,59 % 5,38 % 4,43 & -15,94 & -11,82

& -0,88 & -0,97 % 8,32 % 6,56 & -18,42 & -13,63 & -1,22 & -1,70 % 8,41 % 7,60 & -21,25 & -15,57 Table 2 – Tableau de pourcentages de variations de comparaison des résultats HSV pour la méthode itérative pour mai.

Le tableau 3 dresse un bilan des segmentations sur les résultats de l’égalisa-tion par méthode successive. Un segmental’égalisa-tion dite échouée est une segmental’égalisa-tion dont aucune valeur de H et de S comprise dans l’intervalle [0−100] n’a segmenté correctement les bancs.

La segmentation sur les résultats de la méthode d’égalisation par itération d’images montrent que l’égalisation avec les modes de modification HSV et SV est efficace. Cette déduction peut être mise en parallèle avec les résultats quantitatifs pour les canaux H, S et V qui montraient alors de meilleures valeurs pour les modes HSV et SV.

(24)

Figure 11 – Résultat d’une segmentation de bancs pour le mode de modifi-cation SV de la méthode d’égalisation par itération d’images. H = 74 et S = 76 MM Segmentation Mai HSV Réussie RGB Échouée RGBSV Échouée SV Réussie Septembre HSV Réussie RGB Échouée RGBSV Échouée SV Réussie

Table 3 – Tableau bilan de la segmentation sur les résultats de la méthode d’égalisation par itération d’images

2.4

Bilan

La méthode d’égalisation par itération d’images a révélé de bons résultats visuels et numériques, autant pour l’ensemble de mai que sur celui de septembre. Elle possède néanmoins un point faible : celui de dégrader les images après plusieurs itérations. Cette méthode est donc à utiliser sur un petit ensemble, ou sur plusieurs sous-ensembles d’un grand ensemble. L’objectif de réduire les écarts colorimétriques dans un ensemble d’images est néanmoins atteint. De plus, une seule segmentation peut être effectuée sur l’ensemble des images. Cette méthode est donc valide.

3

Méthode de modification par histogramme

moyenne

3.1

Principe

Le principe de cette méthode est de modifier les images de l’ensemble par spécification d’un histogramme unique. Cet histogramme est un histogramme moyenne calculé à partir de tous les histogrammes de l’ensemble d’images à égaliser.

(25)

Le procédé, exposé dans l’algorithme 3, est de faire la moyenne de chaque valeur d’intensité de tous les histogrammes des images de l’ensemble en ad-ditionnant le nombre de pixels par intensités de chaque canal, et en divisant ceux-ci par le nombre d’images.

Algorithme 3 : CalculHistogrammeMoyenne Input : E l’ensemble de N histogrammes de 256 valeurs Output : moyenne L’histogramme moyenne de 256 valeurs for i ← 1 to 256 do

for j ← 1 to N do

moyenne[i] ← moyenne[i] + E[j][i]

end

moyenne[i] ← moyenne[i]/N

end

Une fois cet histogramme généré, il sera utilisé pour modifier les images de l’ensemble, comme indiqué dans l’algorithme 4.

Algorithme 4 : EgalisationMoyenne Input : E L’ensemble de N images à égaliser Output : F L’ensemble de N images égalisées for i ← 1 to N do

H[i] ← CalculerHistogramme(E[i])

end

moyenne ← CalculHistogrammeM oyenne(H)

for i ← 1 to N do

correspondance ← Specif icationHistogramme(H[i], moyenne) F [i] ← Correspondance(E[i], correspondance)

end

3.2

Limites présumées de la méthode

La méthode de modification par histogramme moyenne se base sur le cal-cul d’un histogramme unique. Cet histogramme moyenne est obtenu à par-tir de toutes les images de l’ensemble. Cependant, les images d’une prise de vue peuvent être très différentes colorimétriquement. L’idée d’un histogramme moyenne est de mettre toutes les images sur le même niveau colorimétrique. Les qualités colorimétriques, mais aussi les défauts de chaque image est alors condensé dans un seul histogramme. Cela peut améliorer certaines images, comme en empirer d’autres.

3.3

Résultats

Résultats qualitatifs

Comme pour la méthode précédente, les modes de modification (dont les résultats sont présents dans la figure 12) ne peuvent être comparés

(26)

visuelle-ment car les écarts entre les superpositions semblent être les mêmes. L’unique différence est la couleur de l’eau.

(a) Spécification avec le mode de modification HSV

(b) Spécification avec le mode de modification RGB

(c) Spécification avec le mode de modification RGBSV

(d) Spécification avec le mode de modification SV

Figure 12 – Résultats filtrés de l’égalisation avec la méthode moyenne pour mai avec les différents modes de modification.

(27)

Comparées à l’image originale, les images égalisées montrent qu’à l’amont, la différence entre deux images superposées est plus visible qu’avant. Une amé-lioration est néanmoins présente en aval (figure 13).

(a) Amont de l’image originale (b) Aval de l’image originale

(c) Amont de l’image modifiée avec le mode de modification SV

(d) Aval de l’image modifiée avec le mode de mo-dification SV

Figure 13 – Comparaison de l’image originale et du résultat de la méthode moyenne en mode de modification SV filtrés de l’amont et de l’aval de la rivière

(28)

Résultats quantitatifs

À l’instar de la méthode d’égalisation par itération d’images, les moyennes des écarts et les écart-types de la différence entre deux images ont été calculés. Les pourcentages de variation entre l’ensemble original et les ensembles égalisés se trouvent dans la figures 4 pour les canaux R, G et B, et dans la figure 5 pour les canaux H, S et V. Le détails des moyennes et écart-types se trouvent en annexes G et H. Les tableaux des pourcentages pour septembre se trouvent en annexe I. % R G B MM ME ET ME ET ME ET HSV % 9,77 % 10,94 % 6,78 % 9,28 % 11,00 % 9,86 % 10,31 % 9,14 % 8,52 % 9,19 % 10,62 % 9,30 % 2,83 % 3,06 % 3,50 % 4,39 % 10,70 % 7,00 % 4,15 % 3,38 % 5,60 % 3,68 % 5,03 % 4,20 % 2,71 & -0,24 % 4,02 % 0,24 % 2,18 % 0,14

& -5,24 & -8,12 & -5,56 & -8,28 & -3,70 & -6,59 & -8,62 & -10,26 & -8,42 & -9,26 & -8,33 & -7,47

RGB % 6,34 % 7,52 % 7,19 % 10,13 % 13,57 % 10,01

% 8,51 % 7,52 % 7,95 % 9,04 % 10,08 % 7,48

% 4,85 % 4,30 % 2,05 % 3,24 % 8,92 % 5,15

% 4,51 % 3,78 % 3,85 % 2,93 % 5,19 % 4,57

% 3,28 % 0,20 % 2,10 & -0,71 % 2,19 % 0,95

& -4,27 & -7,11 & -5,88 & -7,95 & -4,12 & -6,18 & -6,56 & -17,28 & -8,89 & -9,52 & -6,73 & -6,33 RGBSV % 7,10 % 8,02 % 6,16 % 9,64 % 13,77 % 10,77

% 8,19 % 7,94 % 7,02 % 8,86 % 10,19 % 8,76

% 4,12 % 4,18 % 1,76 % 3,52 % 11,21 % 7,17

% 5,76 % 4,04 % 4,28 % 2,82 % 6,64 % 5,43

% 3,42 % 0,04 % 2,52 & -0,96 % 3,22 % 1,25

& -4,96 & -8,13 & -5,59 & -8,35 & -3,31 & -6,51 & -8,24 & -11,14 & -8,94 & -10,44 & -5,94 & -6,92

SV % 6,32 % 8,27 % 6,99 % 9,44 % 11,00 % 9,85

% 8,66 % 8,72 % 9,08 % 9,09 % 10,32 % 9,18

% 2,98 % 3,27 % 3,12 % 4,23 % 10,39 % 6,74

% 4,67 % 3,26 % 4,52 % 3,22 % 4,82 % 4,18

% 2,17 & -0,70 % 1,63 & -1,00 % 2,28 % 0,25

& -5,05 & -8,17 & -6,41 & -8,55 & -3,90 & -6,69 & -8,83 & -9,47 & -7,54 & -9,83 & -8,40 & -7,54 Table 4 – Tableau de pourcentages de variations de comparaison des résultats RGB pour la méthode de l’histogramme moyenne pour mai.

Les résultats des canaux R, G et B valident les résultats visuels : les premières itérations (situées en amont) creusent les différences entre les images, et les améliorent aux dernières itérations.

Le bilan est plus mauvais pour les canaux H, S et V. En effet, presque tous les écarts et différences ont augmenté par rapport à l’ensemble original.

(29)

% H S V MM ME ET ME ET ME ET HSV % 26,77 % 22,88 % 11,46 % 7,64 % 7,10 % 9,44 % 21,96 % 15,77 % 6,30 % 3,59 % 8,47 % 9,07 % 9,83 % 8,70 % 19,01 % 5,97 % 3,69 % 3,95 % 8,54 % 4,84 % 5,06 % 4,90 % 3,78 % 3,00 % 6,31 % 0,70 % 4,81 % 3,13 % 1,70 & -0,78 % 4,30 % 0,99 % 2,98 % 1,68 & -5,30 & -8,17 % 5,87 % 7,92 % 2,87 % 1,79 & -10,08 & -9,73 RGB % 50,05 % 102,46 % 23,70 % 11,41 % 6,42 % 9,12 % 25,35 % 28,90 % 18,32 % 11,20 % 8,86 % 9,04 % 24,95 % 24,73 % 24,28 % 14,99 % 6,42 % 4,67 % 15,65 % 18,66 % 8,25 % 8,35 % 4,76 % 3,55 % 12,96 % 11,41 % 12,52 % 7,07 % 1,62 & -0,46 % 15,45 % 8,24 % 12,26 % 5,81 & -6,20 & -8,23 % 27,49 % 22,47 % 8,47 % 2,45 & -9,43 & -8,80 RGBSV % 52,87 % 104,15 % 26,13 % 15,76 % 5,33 % 8,46 % 29,40 % 32,12 % 21,19 % 14,74 % 7,07 % 8,58 % 31,85 % 30,12 % 29,73 % 15,20 % 4,60 % 4,61 % 19,07 % 21,13 % 10,80 % 8,80 % 5,24 % 3,58 % 15,56 % 12,24 % 13,32 % 6,45 % 1,90 & -0,66 % 17,28 % 8,03 % 8,79 % 2,98 & -5,52 & -8,36

% 29,47 % 22,68 % 5,49 & -0,84 & -8,78 & -9,25

SV % 4,19 % 2,93 % 11,46 % 7,64 % 7,10 % 9,44

% 4,76 % 3,77 % 6,30 % 3,59 % 8,47 % 9,07

% 6,16 % 5,25 % 19,01 % 5,97 % 3,69 % 3,95

% 3,74 % 1,67 % 5,06 % 4,90 % 3,78 % 3,00

% 2,63 % 0,48 % 4,81 % 3,13 % 1,70 & -0,78

% 0,73 & -0,58 % 2,98 % 1,68 & -5,30 & -8,17

& -0,58 & -1,54 % 2,87 % 1,79 & -10,08 & -9,73 Table 5 – Tableau de pourcentages de variations de comparaison des résultats HSV pour la méthode de l’histogramme moyenne pour mai.

Résultats de la segmentation

Comme pour la méthode précédente, une segmentation des bancs de rivière a été appliquée aux ensembles d’images égalisées avec la méthode de modification par histogramme moyenne. Cette segmentation est la même utilisée pour la méthode d’égalisation par itération d’images. Le tableau 6 dresse la liste des caractéristiques de segmentation sur les résultats obtenus pour l’égalisation par histogramme moyenne.

D’après les résultats, les bancs et le lit de la rivière sont segmentés correcte-ment pour les modes de modification HSV, RGBSV et SV. Seuls les résultats des segmentation pour le mode RGB sont disparates. Le fait que les segmentations aient donné de bons résultats est étonnant, étant donné les résultats quantitatifs médiocres.

(30)

MM Segmentation Mai HSV Réussie RGB Échouée RGBSV Réussie SV Réussie Septembre HSV Réussie RGB Réussie RGBSV Réussie SV Réussie

Table 6 – Tableau bilan de la segmentation sur les résultats de la méthode d’égalisation par histogramme moyenne

3.4

Bilan

Cette méthode a montré des résultats disparates visuellement, et de plu-tôt mauvais résultats numériquement. L’objectif à atteindre était de réduire les écarts colorimétriques dans un ensemble d’images. Il est donc incertain que cette méthode soit totalement inefficace. De plus, les résultats de la segmentation sur les ensembles après égalisation sont bons. Cette méthode est donc également valide.

(31)

Chapitre III

Détection de la végétation

1

Introduction

1.1

Objectif

Afin de compléter le logiciel APRiM, un module de détection de végétation a été créé.

Tout comme l’égalisation, la détection de végétation sera utile pour les autres modules de détection déjà existants dans APRiM. En effet, la présence de vé-gétation met en échec certains de ces modules : le résultat de la figure 14 aurait du classer la végétation dans la classe banc.

(a) Image du banc végétalisé avant la segmentation

(b) Image du banc végétalisé après la segmentation (rouge : banc, bleu : eau)

Figure 14 – Exemple de non détection d’un banc végétalisé

Le but est de détecter la végétation pour pouvoir l’intégrer aux bancs et ainsi, permettre une meilleure détection de bancs de la rivière.

La végétation est aussi une donnée essentielle lorsque l’on souhaite connaître la stabilité d’un banc. Plus la végétation s’installe et perdure sur un banc, plus ce banc sera stable, et inversement.

(32)

1.2

Définition de la végétation

Détecter la végétation implique de définir la végétation, ou plutôt définir les attributs propres à la végétation. Trois types de données peuvent être utilisées à ces fins.

Données radiométriques

Les proches infrarouges sont des données intéressantes à traiter lorsque l’on veut détecter de la végétation sur une image. La végétation possède une signa-ture spectrale propre. En effet, une grande partie de la lumière est absorbée par la végétation lors de sa photosynthèse, tandis que beaucoup des rayons proches-infrarouge sont réfléchis (figure 15.a). Ainsi, la signature de la végétation est un taux élevé de proche infrarouge, et un faible taux de vert et de bleu [4]. La signature radiométrique de la végétation est présentée dans la figure 15.b.

(a) Schéma d’absorption de lu-mière d’une feuille

(b) Graphe de signature radiométrique de végéta-tion

Figure 15 – Réflexion du rayonnement solaire par la végétation Ainsi, beaucoup de méthodes ont été mises au point pour détecter la végé-tation dans une image avec des indices. Il existe de nombreux indices de végéta-tion déterminés par le proche-infrarouge. Sont à citer le Normalized Difference Vegetation Index (NDVI)[5], ainsi que ses dérivés Soil Adjusted Vegetation In-dex (SAVI)[6] et Green Atmospherically Resistant InIn-dex (GARI)[7], prenant en compte les effets du sol et atmosphériques.

Irstea possède des données proches infrarouges mais elles ne seront cependant pas utilisées pour la détection de végétation. En effet, APRiM a pour objectif de n’utiliser que des données provenant d’un vol Lidar, à savoir des MNT et des images aériennes, au cas où l’utilisateur ne possède pas d’images infrarouges.

Un autre indice de végétation ne recquérant aucune donnée infrarouge a été mis au point. Visible Atmospherically Resistant Index (VARI)[8] ne tient compte que de la réflectance du vert (Rvert), du rouge (Rrouge) et du bleu (Rbleu) se

calcule de cette façon :

V ARI = Rvert− Rrouge Rvert+ Rrouge− Rbleu

(33)

Malheureusement, les données que possède Irstea sont des données RGB. Alors qu’il est facile de convertir des données brutes (longueur d’ondes) en don-nées RGB, l’inverse est impossible. Aucun indice de végétation ne sera alors utilisé dans APRiM pour détecter la végétation.

Données Lidar

Un modèle numérique de surface (MNS) est un nuage de points décrivant le sur-sol et/ou le sol d’une région. Une autre solution aurait été de se baser sur les MNS. En effet la végétation est reconnaissable grâce à sa signature particulière sur les modèles de terrains [9]. Lors du vol Lidar, le laser émis est reflété par la végétation. Or la végétation possède plusieurs niveaux et est quasi sans cesse en mouvement. Il en résulte une acquisition Lidar peu régulière. Par exemple le laser peut être reflété par des feuilles sur une multitude d’altitudes (figure 16.a). La signature de la végétation est donc un ensemble de points n’ayant pas d’altitude régulière (figure 16.b).

(a) Schéma d’acquisition Lidar sur de la végétation

(b) Graphe de signature spatiale de végéta-tion

Figure 16 – Signature Lidar de la végétation

Malheureusement, Irstea Lyon ne possède pas de MNS, les données brutes acquises lors du vol Lidar étant traitées pour n’obtenir que des MNT, car ces données sont destinées à l’étude de la morphologie des rivières. Les informations recueillies par ces vols Lidar ont été traitées pour ne garder que le sol, et donc supprimer le sur-sol, et ainsi la végétation. Ces données sont donc inutilisables dans le cadre de ce stage.

Données colorimétriques

La dernière possibilité était d’utiliser uniquement la colorimétrie des images aériennes. Après analyse des images, il a été décidé que la couleur verte définis-sait la végétation. L’enjeu principal de cette partie est de trouver des méthodes qui définissent le vert sur une image.

(34)

1.3

Note sur les résultats des méthodes

Afin de valider les résultats des classifications des méthodes suivantes, une segmentation manuelle a été réalisée sur le même ensemble d’images que celui auquel la détection de végétation a été appliquée (figure 17). Cependant, sur plusieurs images, certaines zones laissent le doute quant à leur appartenance à la végétation. La figure 18 montre une de ces zones.

(a) Image de mai originale (b) Image de septembre originale

(c) Segmentation manuelle sur mai (d) Segmentation manuelle sur septembre

Figure 17 – Segmentation manuelle sur mai et septembre

La partie brun-vert peut être interprétée comme de la terre ou de la végé-tation. C’est à la personne qui fait la segmentation manuelle de choisir entre les deux. La segmentation manuelle est donc à l’appréciation de la personne qui l’a faite, et peut donc varier selon les choix de chacun. C’est pourquoi ces comparaisons sont inexactes.

Après analyse des photographies, les zones ambiguës s’avèrent toujours être des zones terreuses ou des zones dont l’herbe a jauni ou est dispersée.

(35)

(a) Image de mai (b) Zoom sur une zone ambiguë

Figure 18 – Exemple de zone dont la présence de végétation est ambiguë

2

Méthodes utilisées

2.1

Vert supérieur

Théorie

Dans le cadre de détection de la végétation pour de l’agriculture de précision, Chun-Chieh Yang et al [10] ont mis au point une méthode simple qui permet de calculer la densité de végétation. Pour cela, les auteurs ont d’abord détecté la végétation en se basant sur un ratio de vert.

La méthode développée par Chun-Chieh et al pour détecter la végétation à partir de photographies se base uniquement sur une équation logique 2 sur les intensités des trois canaux rouge (Irouge), vert (Ivert) et bleu (Ibleu) de l’image. En effet, si la valeur de vert est plus grande que celle du rouge et du bleu, alors le ratio est respecté et le pixel en question est classé comme de la végétation.

Ivert> Irouge∧ Ivert > Ibleu (2)

Résultats

Le tableau 7 et les tableaux des méthodes suivantes (tableaux 8, 9 et 11) contiennent les pourcentages des résultats des pixels bien classés, sur-détectés et sous-détectés. Un pixel dit bien classé (BC) est un pixel ayant été détecté comme étant de la végétation et faisant partie de l’image de référence. Un pixel

(36)

sous-(a) Segmentation sur mai (b) Segmentation sur septembre

(c) Comparaison avec la segmentation manuelle sur mai

(d) Comparaison avec la segmentation manuelle sur septembre

Figure 19 – Résultats de la méthode du vert supérieur. Le rouge représente la sur-détection et le bleu la sous-détection.

% Pixels bien classés Sous-détection Sur-détection

Mai 99.15 0.84 30.64

Septembre 62.61 37.38 21.67

Table 7 – Tableau de pourcentages de la méthode du vert supérieur entre la méthode manuelle et la méthode automatique.

détecté est un pixel dit faux-négatif (FN). Il est présent dans l’image segmentée manuellement, mais pas dans l’image segmentée automatiquement. Un pixel sur-détecté est dit faux-positif (FP) et il a été détecté par la segmentation automatique, mais ne fait pas partie des pixels classés végétation dans l’image de référence. Les pourcentages présents dans ces tableaux ont été calculés selon

(37)

les taux suivants :

T aux BC = N ombre de pixels BC

N ombre de pixels classés végétation dans l0image de réf érence

T aux F N = N ombre de pixels F N

N ombre de pixels classés végétation dans l0image de réf érence

T aux F P = N ombre de pixels F P

N ombre de pixels BC + N ombre de pixels F P

Cette méthode a prouvé une mauvaise efficacité lors des tests avec les images de rivières, dont les résultats sont présents dans la figure 19 et le tableau 7. Une explication simple peut être apportée à ce problème. En effet la méthode a été testée sur des images contenant uniquement de la végétation de couleur verte et de la terre de couleur brune. L’efficacité de cette méthode peut être questionnée quand l’image contient d’autres couleurs comme le gris pour les routes ou le bleu pour l’eau, présentes toutes deux dans les images de rivières qu’Irstea a en sa possession.

2.2

Seuillages

Principe

Premier test L’idée de cette méthode est simplement de traiter l’image dans l’espace colorimétrique HSV et de seuiller la teinte, le canal H. Comme indiqué dans la figure 20, le vert est compris entre 60˚ et 180˚. Le principe est donc d’isoler le vert sur le canal H avec deux seuils. Le calcul logique 3 représente ce premier test.

seuil1 < Hpixel< seuil2 (3)

Figure 20 – Espace HSV

Les résultats de cette segmentation montrent que celle-ci n’est pas complète. En effet, la figure 21 montre que malgré deux seuils sur le canal H appliqués

(38)

à l’image, d’autres objets sont détectés comme les routes ou la rivière. Les pourcentages de sur et sous détection confirment cette première observation (tableau 8).

(a) Segmentation sur mai (b) Segmentation sur septembre

(c) Comparaison avec la segmentation manuelle sur mai

(d) Comparaison avec la segmentation manuelle sur septembre

Figure 21 – Seuillage sur le canal H avec les seuils 70 et 140. Le rouge représente la sur-détection et le bleu la sous-détection.

% Pixels bien classés Sous-détection Sur-détection

Mai 86.11 13.88 15.61

Septembre 29.51 70.48 32.28

Table 8 – Tableau de pourcentages du premier test entre la méthode manuelle et la méthode automatique

(39)

Deuxième test L’objectif de ce deuxième test est de pallier ce problème. Un nouveau seuillage est nécessaire. En effet, le canal H indique la teinte du pixel, mais une autre information sur la couleur est indispensable : la saturation. La saturation, contenue dans le canal S d’une image, détermine si la couleur est pâle ou vive. Plus la saturation est basse, plus la couleur est pâle. Un nouveau paramètre s’ajoute donc à la définition du vert dans la végétation. Le canal S est ainsi ciblé pour permettre d’écarter les objets non voulus de la segmentation.

L’image est donc seuillée sur les canaux H et S, comme le calcul logique 4 le montre. De plus, un flou gaussien a été appliqué à l’image avant le seuillage.

seuilH1 < Hpixel< seuilH2 ∧ seuilS < Spixel (4)

Les résultats de cette deuxième tentative de détection sont présents dans la figure 22 et le tableau 9. La végétation n’est pas totalement détectée, notamment la présence d’ombres sur celle-ci. De plus, des routes et une petite partie des rails ont été détectés.

% Pixels bien classés Sous-détection Sur-détection

Mai 94.02 5.97 4.81

Septembre 95.31 4.68171 13.04

Table 9 – Tableau de pourcentages du deuxième test entre la méthode manuelle et la méthode automatique

Troisième test Ce troisième test a pour objectif d’inclure dans la végétation les ombres sur la végétation et les zones dont l’herbe est plus jaune, et d’exclure les routes.

Le principe est un seuillage par hystérésis : après application d’un seuillage de deux seuils sur le canal H et d’un seuil sur le canal S, d’autres seuillages correspondants aux ombres et aux routes sont appliqués à l’image suivant les résultats obtenus. La première étape se base donc sur le calcul logique du test précédent (équation 4). Les seuils de cette première étape se veulent très res-trictifs afin d’écarter les pixels de route ou d’eau qui pourraient être détectés. Ainsi, l’image obtenue à la première étape est exclusivement du vert vif, et la totalité de la végétation n’est pas détectée.

Ce processus est indispensable car la deuxième étape est d’appliquer une croissance de région aux pixels ainsi trouvés. En effet, l’idée est de filtrer uni-quement les pixels verts vif en première étape, puis d’accepter le reste de la végétation. Après analyse des photographies, le reste de cette végétation s’avère être :

– La végétation moins verte : des pixels verts qui n’ont pas passé le test de la première étape.

– Les ombres sur la végétation : des pixels plus sombres présents à cause des ombres des arbres sur de l’herbe ou d’autres arbres.

– L’herbe jaunie : des pixels plutôt jaunes qui n’ont pas passé le test de la première étape mais qui font néanmoins partie de la végétation.

La croissance de région possède donc des paramètres pour l’ombre, le reste de la végétation et les zones d’herbes jaunie.

(40)

(a) Segmentation sur mai (b) Segmentation sur septembre

(c) Comparaison avec la segmentation manuelle sur mai

(d) Comparaison avec la segmentation manuelle sur septembre

Figure 22 – Seuillage sur le canal H et avec les seuils 70 et 150 et sur le canal S avec le seuil 17. Le rouge représente la sur-détection et le bleu la sous-détection.

Les pixels verts Le reste de la végétation verte est acceptée en utilisant le même calcul logique que la première étape (équation 4), en seuillant les canaux H et S, mais en utilisant des seuils moins restrictifs. Néanmoins, ces seuils ne permettraient pas d’accepter des routes ou de l’eau dans la segmentation.

Les ombres La valeur du canal V détermine si la couleur du pixel est sombre. C’est ce canal qui a été la cible pour accepter les ombres dans la seg-mentation. Après une analyse des images, il a été décidé que les ombres étaient comprises entre 0 et 25 du canal V. Le calcul logique qui permet d’accepter les ombres dans la segmentation de végétation se trouve à l’équation 5.

(41)

L’herbe jaunie Malgré l’ajout de seuils moins restrictifs, les zones d’herbe jaunie ne sont toujours pas détectées. Après une analyse des photographies, les canaux S et V se sont révélés utiles pour détecter uniquement l’herbe jaunie. En effet, un pixel dont la saturation est inférieure à 10 environ et la valeur supérieure à 30 environ est un pixel d’herbe jaunie (équation 6).

Spixel< seuilS ∧ Vpixel> seuilV (6)

Il est important de noter que ces seuils sont appliqués sur un pixel unique-ment si l’un de ses voisins est compris dans la végétation.

Résultats

Les résultats de ce dernier test se trouvent dans la figure 23 et dans le tableau 11. Ils ont été obtenus à partir des paramètres contenus dans le tableau 10.

Paramètres Mai Septembre Première étape : seuilH1 70 65

seuilH2 145 145 seuilS 15 15 Pixels verts : seuilH1 50 45 seuilH2 145 145

seuilS 13 15 Ombre : seuilV 25 25 Herbe jaunie : seuilS 10 10 seuilV 35 30

Table 10 – Tableau de paramètres utilisés pour le troisième test

% Pixels bien classés Sous-détection Sur-détection

Mai 94.69 5.30 4.09

Septembre 96.90 3.09 6.60

Table 11 – Tableau de pourcentages du troisième test entre la méthode ma-nuelle et la méthode automatique

Les tableaux des tests précédents (tableaux 8 et 9) mis en relation avec le tableau obtenu pour le troisième test (tableau 11) montrent que lors de ce dernier test, la segmentation de végétation a été grandement améliorée. En effet, les routes et l’eau ont été écartées de la segmentation, alors que les ombres et l’herbe jaunie ont été acceptées. Avec plus de 94% de pixels correctement détectés, ces résultats sont plutôt bons.

Limites présumées de la méthode

Cette méthode de détection de végétation se base uniquement sur la colo-rimétrie de l’image. Ainsi, tout pixel vert vif ou voisin sombre d’un pixel vert vif sera considéré comme étant de la végétation. Le nombre peu important de types de données peut poser des limites à cette méthode. Premièrement, elle dépend de la date de la prise de vue de la photo. En effet, les couleurs peuvent

(42)

(a) Segmentation sur mai (b) Segmentation sur septembre

(c) Comparaison avec la segmentation manuelle sur mai. Le rouge représente la sur-détection et le bleu la sous-détection.

(d) Comparaison avec la segmentation manuelle sur septembre. Le rouge représente la sur-détection et le bleu la sous-détection.

Figure 23 – Résultats du troisième test

varier fortement lors des saisons ; où les feuilles des arbres deviennent brunes puis tombent lors de l’automne/hiver, ce qui rendrait la détection impossible.

L’inverse est également possible. Un objet vert ou sombre ne faisant pas partie de la végétation peut être compris dans la photographie et sera détecté comme étant de la végétation. Cependant, uniquement la détection sur les berges et les bancs de la rivière est intéressante. Il y a donc peu de chances qu’un objet parasite fausse la segmentation de la végétation.

Post-traitements

Le post-traitement de la détection de végétation est la classification par régions. Ce module est déjà présent dans APRiM et il a été facile de le réutiliser

(43)

dans ce but. Ainsi, la région végétation sera du même format de données que la région banc et la région lit de rivière.

(44)

Conclusion

1

Bilan sur l’égalisation

L’objectif de l’égalisation d’un ensemble de photographies était de réduire les écarts colorimétriques dans cet ensemble.

L’égalisation par itération d’images est efficace, mais uniquement sur un pe-tit nombre d’itérations. Cependant, le fait d’égaliser plusieurs sous-ensembles d’une série de photographies réduirait l’écart colorimétrique pour chaque sous-ensemble, mais pas de l’ensemble total.

L’égalisation par histogramme moyenne est moins efficace que la précédente du point de vue qualitatif et quantitatif, mais ne possède aucune limite quant au nombre d’images à traiter. Elle est néanmoins plus performante lorsqu’il s’agit d’utiliser le module de segmentation de bancs.

Cependant, à cause de problèmes d’orthorectification de photographies les tests n’ont été réalisés que sur des petits ensembles d’images (sept et huit images en tout). Lors d’une prise de vue Lidar, des centaines de photographies sont récupérées. Un petit échantillon n’est pas représentatif de toutes les différences colorimétriques d’une prise de vue. C’est pourquoi, pour valider pleinement ces méthodes, il serait nécessaire de les tester sur de plus grands ensembles.

2

Bilan sur la végétation

Le deuxième objectif du stage était de détecter la végétation sur une image couleur. Malgré le nombre restreint de type de données, une segmentation a été mis au point en se basant sur un seuillage de la teinte et de la saturation, puis une croissance de région a été appliquée à l’image résultat.

3

Perspectives

La méthode de détection de végétation est efficace, mais pourrait encore être améliorée en intégrant d’autres types de données à APRiM :

– Les données radiométriques, notamment les données infrarouges, qui per-mettrait le calcul d’un indice de végétation,

– Les MNS, qui permettrait, en plus de détecter la végétation, d’évaluer la hauteur de la végétation, et ainsi d’en déduire la stabilité d’un banc

(45)

plus sûrement qu’avec seulement la surface occupée par la végétation sur celui-ci.

Une nouvelle méthode développée avec ces types de données compléteraient donc la segmentation déjà existante.

(46)

Annexes

(47)

Rappel de notations :

– Intensité d’un pixel i de l’image k : pk i,j

– Sous-image de l’image k, intersection de k et k + 1 : Ik,k+1

– Différence d’intensité d’un pixel i entre les images k et k + 1 :

Dif fi= pki − p k+1 i

– Écart d’intensité d’un pixel entre les images k et k + 1 :i=| pki − p

k+1 i |

– Moyenne des Écarts entre les images k et k + 1 de N pixels (ME) :

M Ek,k+1= 1

N

X

i∈Ik,k+1

i

– Moyenne des différences entre les images k et k + 1 de N pixels :

Mk,k+1= 1 N X i∈Ik,k+1 pki − pk+1 i

– Variance des différences entre les images k et k + 1 :

Vk,k+1= 1

N

X

i∈Ik,k+1

(Dif fi− Mk,k+1)2

– Écart-type des différences (ET) :

ETk,k+1= √

Vk,k+1

– Image modifiée de k :k

– Pourcentage des variations entre deux images k et k + 1 et de leurs modi-fiées de la moyenne des écarts :

M Ek,k+1− M Ek,k+1 M Ek,k+1 × 100

– Pourcentage des variations entre deux images k et k+1 et de leur modifiées de l’écart-type des différences :

ETk,k+1− ETk,k+1 ETk,k+1 × 100

(48)

B

Tableau des variations des moyennes et écarts-types de

l’ensemble mai avant égalisation

Pour les canaux R, G et B

R G B ME ET ME ET ME ET 10,42 14,26 9,82 13,39 9,68 13,96 7,86 11,03 7,42 10,48 7,57 10,85 7,80 10,82 7,37 10,26 7,49 10,75 6,88 10,69 6,44 10,17 6,84 11,25 9,33 14,43 8,85 13,88 9,50 15,73 13,89 22,96 13,34 22,10 14,53 26,17 17,68 27,76 16,71 26,32 19,06 32,49

Pour les canaux H, S et V

H S V ME ET ME ET ME ET 7,14 11,76 10,87 17,70 9,92 13,54 6,02 10,01 7,72 12,22 7,73 10,75 6,25 10,31 6,11 9,70 7,59 10,57 6,51 10,96 6,04 10,02 6,63 10,32 7,79 13,32 8,32 14,40 9,16 14,15 11,80 21,42 12,77 21,75 13,53 22,42 14,86 24,83 16,97 27,55 17,01 26,46

(49)

C

Tableau des variations des moyennes et écarts-types de

l’ensemble septembre avant égalisation

Pour les canaux R, G et B

R G B ME ET ME ET ME ET 22,86 33,37 21,11 31,07 20,49 32,41 21,63 31,21 20,05 28,89 18,66 29,33 20,50 31,14 19,05 28,95 18,44 30,35 20,46 31,57 19,07 29,44 18,52 30,59 19,45 30,46 18,14 28,43 17,32 29,22 23,35 34,61 21,64 32,52 20,74 32,78

Pour les canaux H, S et V

H S V ME ET ME ET ME ET 7,72 14,09 15,91 24,50 22,06 32,20 7,36 13,64 14,15 22,47 21,00 30,10 7,02 13,52 14,63 23,23 19,87 30,09 6,79 13,16 14,70 23,00 19,81 30,50 6,60 12,86 14,13 22,29 18,81 29,45 9,38 17,79 15,67 23,42 22,46 33,43

(50)

D

Tableau des variations des moyennes et écarts-types

de la méthode de modification par itérations d’images

pour mai

Pour les canaux R, G et B

% H S V MM ME ET ME ET ME ET HSV 9,72 13,66 9,04 12,69 9,15 13,57 7,32 10,46 6,73 9,72 7,12 10,49 6,92 9,96 6,46 9,37 6,94 10,14 6,27 9,83 5,63 9,17 6,39 10,52 8,26 13,00 7,50 12,24 8,70 14,59 12,01 20,12 10,70 18,72 13,26 24,00 15,00 24,04 13,11 21,70 17,23 29,89 RGB 9,85 13,73 9,09 12,71 9,18 13,52 7,40 10,55 6,67 9,65 7,14 10,49 7,29 10,33 6,27 9,19 7,02 10,35 6,33 10,04 5,51 9,13 6,24 10,61 8,22 13,33 7,21 12,20 8,28 14,47 11,87 20,66 10,54 18,95 12,74 23,52 14,87 24,76 12,81 21,96 16,81 28,99 RGBSV 9,77 13,68 9,12 12,71 9,25 13,62 7,42 10,58 6,67 9,62 7,29 10,66 7,11 10,23 6,17 9,10 7,29 10,68 6,41 10,09 5,52 9,14 6,56 10,89 8,26 13,27 7,13 12,08 8,70 14,81 11,78 20,00 10,30 18,35 13,40 23,97 14,50 23,67 12,27 20,91 17,82 29,90 SV 9,71 13,64 9,12 12,73 9,16 13,58 7,29 10,42 6,73 9,71 7,14 10,50 6,86 9,89 6,39 9,25 7,02 10,23 6,16 9,72 5,60 9,12 6,43 10,51 8,05 12,83 7,37 12,19 8,72 14,50 11,68 19,84 10,75 18,92 13,24 23,84 14,46 23,67 13,42 22,14 17,02 29,43

Références

Documents relatifs

Si la saturation des répétitions (qui apparaissent comme une perturbation de l’expression du sens et rejoignent la fonction critique du texte) est un fait dans la liste poétique

The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.. L’archive ouverte pluridisciplinaire HAL, est

We presented the first case of chondroid metaplasia within paraspinal connective tissue, combined with severe spinal degeneration. Our microscopic findings could not be ex-

deuxième objectif du projet SécuriViande était donc de trouver de nouveaux modes de production industrielle afin de mettre sur le marché des produits à base de viande

Figure 12 – (a) Filtre de Prewitt classique appliqu´e `a l’image omnidirectionnelle, (b) Filtre de Prewitt classique appliqu´e `a l’image d´esanamorphos´ee, (c) Filtre de

Le schéma classique de fonctionnement de cette approche se divise en quatre étapes : l’extraction d’un vecteur caractéristique par pixel, la quantification des vecteurs en

J’ai également ciblé mon travail sur la place que l’on donne aux animaux familiers dans une structure d’accueil, le choix de l’animal, les contraintes de la prise en charge,

The combination of the five main parameters, N/P-DEC, N/P-CENT and SEWER, allowed us to estimate the circularity of human excreta management as the total amount of N and P returned