• Aucun résultat trouvé

PARTIE III : CADRE DE LA RECHERCHE

8.5. Les analyses des données sur les physionomies végétales

8.5.1. Les analyses de sensibilité

Les analyses de sensibilité des paramètres polarimétriques reposent sur une série d’objets représentant diverses classes physionomiques identifiées à l’aide des différentes données de support tel que présenté en détail dans le chapitre 9. Pour chaque objet, une série de statistiques (moyenne, écart-type, aplatissement, asymétrie) ont été calculées pour l’ensemble des paramètres polarimétriques et des paramètres standards (coefficient de rétrodiffusion, différence de phase entre canaux en polarisation parallèle). Cette approche "orientée objet" permet d’améliorer la compréhension des résultats en réduisant la variabilité des statistiques inhérente à l’échelle du pixel. Néanmoins, dans la mesure du possible, chaque classe physionomique a été représentée par un grand nombre d’objets pour obtenir un portrait réaliste de chacune des physionomies végétales. Les analyses de sensibilité sont surtout basées sur des graphiques 2D (ou 3D) permettant d’évaluer la relation entre les différents paramètres de la décomposition de Touzi et/ou les autres paramètres étudiés par classe physionomique. Le chapitre 9 sera consacré aux analyses de sensibilité des données ALOS et le chapitre 11 à celles de données RS2.

8.5.2. Le classificateur supervisé SVM

L’un des apports originaux de cette thèse concernera le développement d’un arbre hiérarchique de classification (Chapitre 13 et 14) basé sur le seuillage des paramètres de la décomposition de Touzi. Ce type de classification est robuste et repose fortement sur la

118 connaissance qu’à l’utilisateur du milieu à classifier et possède l’avantage de produire des règles de décisions explicites (pas de phénomène de boîte noire). Mais l’utilisateur ne peut pas simultanément tenir compte d’une grande quantité de paramètres et de classes lors du processus de classification. Or il est fortement probable que la séparabilité entre les classes physionomiques puisse être améliorée en augmentant la dimensionnalité, c’est-à-dire en tenant compte simultanément d’un plusieurs paramètres lors de la classification.

La machine à vecteur de support (SVM, de l’anglais support vector machine, Vapnik et al., 1998; Boser et al., 1992) est un classificateur non linéaire (Figure 8.5-1A) qui est de plus en plus populaire pour la classification des images radar (Lardeux et al., 2006; Frison et al., 2009; Bhattacharya et Touzi, 2011). Sa popularité grandissante tient à sa capacité d’intégrer plusieurs paramètres et en grande quantité ce qui est souvent nécessaire pour obtenir une classification précise (Bhattacharya et Touzi, 2011) avec les données radar. Sa nature non paramétrique est de plus adaptée à la classification des images radar (et des paramètres qui en sont dérivés) de distributions statistiques variées.

L’algorithme LIBSVM (Chang et Lin, 2011)20, une extension de l’algorithme nu-SVM (Scholkopf et al., 2001), a été utilisé dans sa version implémentée dans ENVI. Le SVM est essentiellement un classificateur binaire (Figure 8.5-1A) et une stratégie doit être adoptée pour un problème de classification multiclasse. La stratégie du vote (Wu et al., 2004) est la plus simple et consiste à comparer chaque paire de classes selon un critère de décision donné et l’étiquette de classe finale sera assignée à celle qui aura remporté le plus de victoire. L’algorithme LIBSVM intègre quant à lui une stratégie par paire de classes mais probabiliste (décrite dans Wu et al., 2004) permettant d’évaluer le degré d’appartenance d’un échantillon à une classe donnée.

Le SVM sépare les classes selon une surface de décision, appelée hyperplan optimal (Figure 8.5-1B), qui maximise la marge entre les classes et les points de données les plus proches de l’hyperplan sont appelés vecteurs de support. Les vecteurs de support sont les éléments essentiels de la phase d'apprentissage (ENVI, 201021) et leur sélection dépend en partie d’un paramètre de pénalité qui permet un degré plus ou moins élevé d'erreur de classification ce qui

20

http://www.csie.ntu.edu.tw/~cjlin/libsvm/

21

est particulièrement important pour les échantillons de classes qui ne sont pas entièrement séparables lors de la phase d’apprentissage (ENVI, 2010). Le paramètre de pénalité contrôle ainsi le compromis entre la possibilité de tolérer des erreurs lors de l’entraînement et la formation de marges rigides qui mènera au surentraînement (Moutrakis et al., 2010) du modèle donc à une perte de sa capacité de généralisation.

La phase d’apprentissage du SVM est aussi basée sur le concept de noyau (kernel). Cela consiste à utiliser un classificateur linéaire pour résoudre un problème non linéaire en transformant l'espace de représentation des données d'entrée en un espace de plus grande dimension, dans lequel le classificateur linéaire est alors utilisé :

"… if a problem is non-linear, instead of trying to fit a non-linear model, one can map the

problem from the input space to a new (higher-dimensional) space (called the feature space) by doing a nonlinear transformation using suitably chosen basis functions and then use a linear model in the feature space. This is known as the `kernel trick'" (Sewell, 2009).

Le choix de la fonction noyau pour effectuer cette transformation est important et il existe plusieurs types de noyau et quatre sont implémentés dans ENVI soit le noyau linéaire, RBF (radial basis function), Polynomial et Sigmoide. En ce qui concerne la classification des images radar, le noyau RBF semble faire l’objet d’un consensus (Frison et al., 2009) et il a été utilisé pour l’ensemble des classifications SVM présentées au chapitre 13. Lors de la phase d’apprentissage, ≈5 % des objets de chaque classe physionomique (≈10% pour la classe de Zizanie) ont été utilisés. Les mêmes objets ont été utilisés pour l’ensemble des classifications.

Mentionnons que le SVM applique un rééchelonnement des données (généralement dans l’intervalle [-1,+1] ou [0, 1]) pour éviter que les attributs (paramètres) possédant une plus étendue dominent les autres. Le rééchelonnement linéaire est généralement recommandé (ENVI, 2010) et il a été utilisé lors de nos classifications. Mais l’effet de rééchelonnement sur les différents paramètres de la décomposition de Touzi (et par extension sur l’utilisation optimale de l’information polarimétrique contenue dans ces paramètres) reste à évaluer et pourrait faire l’objet d’une future étude.

120 Linéairement séparable↓ Non linéairement séparable ↓ (A) (B)

Figure 8.5-1 : Principes de base de la machine à vecteur de support

8.5.3. Les analyses de séparabilité

Des statistiques extraites des objets définis précédemment ont été utilisées pour évaluer la séparabilité des classes physionomiques à l’intérieur des milieux humides ou entre classes physionomiques similaires en milieu humide et milieu sec. Cette évaluation a été réalisée à l’aide de l’algorithme de divergence transformée qui est présenté en détail dans Jensen (2005). Un programme a été créé à cet effet dans l’environnement Matlab pour l’automatisation du calcul.

La divergence (Dij) entre deux classes se mesure par la comparaison de leur matrice de covariance et de leur vecteur de moyennes respectif dont les dimensions sont équivalentes au nombre de bandes ou paramètres utilisés pour représenter chaque classe. La divergence (Dij) entre la classe i et la classe j correspond à :





1 1

1 1

1

cov cov cov cov

2 1 cov cov 2 j i ij i j T i j i j i j D tr tr m m m m                          (8.5-1)

où covi etcovj sont les matrices de covariance des classes i et j , cov 1

i

cov 1

j

l’inverse des

matrices de covariances, mi et mj les vecteurs de moyennes des classes i et j . La contribution individuelle de chaque coefficient de rétrodiffusion ou paramètre de décomposition à la divergence totale peut être évaluée par (Jensen, 2005) :

2 2

2 2 2 2 2 1 1 1 1 1 1 2 2 ij i j i j j i i j D s s m m s s s s                      (8.5-2) où les matrices de covariance et les vecteurs de moyennes sont remplacés par la variance des classes (si2,s2j) et les moyennes des classes. Les classes facilement séparables donnent des valeurs de divergences très élevées. La divergence transformée (DTij) est généralement utilisée pour donner un poids exponentiellement décroissant aux distances croissantes entre les classes (Jensen, 2005) :

8

2 1 Dij

ij

DT  e (8.5-3)

Le multiplicateur 2 sert à échelonner les résultats et représente la valeur maximale que peut prendre la divergence transformée qui devient alors bornée en 0 et 2. Il est communément admis qu’une valeur DTij< 1 indique une très faible séparabilité entre deux classes, 1 <

ij

DT <1.9 indique une séparabilité plutôt faible alors que DTij>1.9 représente une parfaite séparabilité. Il est parfois mentionné que les divergences transformées supérieures à 1.7 indiquent une séparabilité acceptable entre deux classes d’occupation du sol.

Pour assurer la robustesse des observations, toutes les divergences transformées correspondent à la moyenne d’une série de divergences transformées. Par exemple, considérant la classe i comprenant 155 objets et un total de 18600 pixels et la classe j comprenant 203 objets et 24360 pixels, chaque itération sélectionnera aléatoirement une fraction des pixels de chaque classe, calculera la divergence transformée et recommencera la procédure selon le nombre d’itérations souhaité : 1 ij ij x DT DT n

(8.5-4)

où le nombre d’itérations (n) a été fixé à 10 et le pourcentage des pixels sélectionnés pour chaque classe lors des itérations à 25 %. Les résultats des analyses de séparabilité sont présentés aux chapitres 11 et 13 pour ALOS et RS2 respectivement.

122

CHAPITRE 9

9. PHYSIONOMIES VÉGÉTALES DES MILIEUX HUMIDES DE LA