• Aucun résultat trouvé

Dans cete partie, nous utilisons la méthode BNP-PCA pour réaliser une étape de prétraitement classique en imagerie hyperspectrale. Pour ce type d’imagerie, le spectre de la lumière est échantillonné à haute fréquence sur une large bande spectrale. Par exemple, le capteur Aviris développé par la Nasa (Green et al.,1998), acquiert 224 bandes entre 400 et 2500 nm, de largeur 10 nm. L’ensemble des pixels est appelé e cube hyperspectral u. Ces notions sont illustrées à la igure4.9.

Une hypothèse couramment admise, nommée hypothèse de mélange linéaire est que chaque objet macroscopique possède une signature spec- trale propre et chaque pixel est une combinaison convexe de signatures spectrales. Les signatures spectrales sont appelées spectres purs et les pro- portions du mélange abondances. En pratique, on ajoute aussi un bruit additif lié à la mesure. Le démélange hyperspectrale consiste à estimer ces signatures spectrales et leurs proportions au sein de chaque pixel. C’est

méthodes d’estimation de la dimension de sous-espace. Les deux pre- mières sont des méthodes issues de l’apprentissage automatique savoir L-PCA et OVPCA, proposées respectivement par Minka (2000) et Smídl et uinn (2007), déjà évoquées dans la partie4.1.2. La troisième méthode est HySime (Bioucas-Dias et Nascimento,2008) et est spéciique à l’hy- perspectral. Notons que les diférentes campagnes de mesures terrain ont amené les spécialistes à s’accorder sur une dizaine de spectres purs, soit un sous-espace de dimension 9 environ.

Résultats. La tableau4.3résume les résultats d’estimation de la dimen- sion du sous-espace. HySime est la méthode qui fournit l’estimateur le plus proche de la dimension réelle. On observe que les méthodes d’ap- prentissage automatique, ainsi que l’estimateur bKMAPmsurestiment d’un

facteur 2 la dimension.

T 4.3 : Résultats de l’estimation de la dimension du sous-espace décrivant le cube hyperspectral Cuprite, pour les méthodes L-PCA, OVPCA et HySime, ainsi que les estimateurs bKKSet bKMAPm.

Algorithme Kb L-PCA 25 OVPCA 23 HySime 10 b KKS 13 b KMAPm 25

L’estimateur bKKStrouve un sous-espace de dimension 13 ce qui est

proche de la valeur recherchée. Notons qu’ici, les modèles d’analyse as- sociés aux méthodes L-PCA, OVPCA etBNP-PCAdifèrent du modèle de mélange linéaire. Cete erreur de modélisation peut être à l’origine des écarts entre les performances de HySime, méthode spécialisée et les méthodes génériques d’estimation de la dimension. Une analyse compara- tive sur des données synthétiques permetrait de quantiier l’efet de cete erreur. 2 4 6 8 10 12 Direction k 0 5 10 15 20 Sharpness index PCA HySime OVPCA BNP-PCA F 4.10 : Évolution du Sharpness Index des bKKSpremiers vecteurs propres de l’ACP(bleu foncé) ainsi que des directions signiicatives (orange) inférées parBNP-PCA.

Pertinence du sous-espace. Pour évaluer la pertinence du sous-espace inféré parBNP-PCA, on s’intéresse aux cartes de projection du cube hy- perspectral. Ces cartes sont obtenues en projetant l’ensemble des pixels du cube hyperspectral sur les directions p1, . . . , pKb. Chaque carte est une

image en niveau de gris. On évalue la pertinence d’une carte de projec- tion en mesurant son Sharpness Index, introduit par Blanchet et Moisan (2012). Cet indice mesure la distance entre un signal et un processus Gaus- sien représentant le bruit. Plus l’indice est élevé, et moins le signal est susceptible de contenir du bruit.

La igure4.10montre les Sharpness Index des 13 premières cartes de pro- jections obtenues avec l’estimateur de la base du sous-espace conditionné à 13, décrit dans la partie4.4.3, ainsi que des 13 premiers vecteurs propres de l’ACP. On observe qu’à l’exception des directions 3, 5 et 7 nos estima-

y q - 137 teurs fournissent des Sharpness Index meilleurs que ceux obtenus avec

les vecteurs propres de l’ACPou les autres approches. Cela signiie que les directions inférées parBNP-PCAont capturé davantage d’informa- tions spatiales pertinente ce qui augurent de meilleures performances de démélange.

4.7 C

N proposé dans ce chapitre uneanalyse en composantes

principales bayésienne non paramétrique (BNP-PCA). En s’appuyant sur

l’interprétation probabiliste de l’ACP proposée par Tipping et Bishop (1999b), la base du sous-espace d’intérêt est vue comme une variable latente. Leprocessus du bufet indien, une loi a priori non paramétrique pour les modèles à variables latentes est couplée à une loi uniforme sur la variété des matrices orthonormées, à travers le modèle d’analyse

y=P(zx) +e, (4.52) où y est le vecteur d’observation, P une matrice orthonormée, z un vec- teur binaire, x le vecteur de coeicient et e un bruit additif. La parcimonie dans l’utilisation des colonnes de la base orthonormée induite par l’IBP fait que seul un sous-ensemble des colonnes est signiicatif. Ces colonnes forment la base du sous-espace d’intérêt. Ainsi, la dimension de ce sous- espace n’est pas ixée à l’avance et est également une variable aléatoire. Nous avons proposé un algorithme MCMC pour échantillonner suivant la loi a posteriori jointe du modèle dans le but d’approcher des estimateurs.

Comme la dimension du sous-espace est une variable aléatoire, nous avons étudié la consistance d’un estimateur MAP. En particulier, nous avons montré deux résultats négatifs d’inconsistance concernant l’estima- teur déini par

b

KMAPα = arg max

k∈{0,...,D}

P[K=k|Y,α]. (4.53) Ces résultats airment que lorsque le nombre d’observations tend vers l’inini, la loi a posteriori ne converge pas vers un Dirac en la bonne va- leur. Ce résultat négatif nous a amené à considérer un estimateur alterna- tif, basé sur des tests statistiques que nous avons validé numériquement. Ce nouvel estimateur exploite la distribution a posteriori des directions non-signiicatives, et compare leur écart à une loi uniforme via des pro- duits scalaires.

L’algorithme BNP-PCA a été validé à travers quatre expériences sur des jeux de données synthétiques. Nous retiendrons que

— l’algorithme BNP-PCA identiie correctement les sous-espaces sur des exemples simples,

— le nouvel estimateur proposé reconnaît un signal composé uniquement de bruit,

— l’estimateur marginalisé par rapport à α bKMAPmdéini par

b

KMAPm= arg max

k∈{0,...,D}

s’est avéré numériquement consistant sur l’exemple considéré. — l’algorithme BNP-PCA n’est pas capable de détecter un signal plus

faible que le bruit.

Pour inir, le modèle BNP-PCA a été utilisé dans deux applications sur des données réelles.

La première expérience a consisté à coupler l’estimation de sous-espace à une tâche de classiication non supervisée. L’objectif est de séparer en deux classes un jeux de données sans les pré-traiter. L’algorithme inal permet d’approcher un estimateur des labels intégrés sur l’ensemble des sous-espaces. Numériquement, les performances sont proches de celles obtenue en utilisant une méthode classique après avoir pré-traité les données.

La seconde expérience a consisté à estimer la dimension du sous-espace d’un cube hyperspectral, ou, de manière équivalente le nombre de com- posantes macroscopiques. Les estimateurs approchés avecBNP-PCAont trouvé une valeur proche plus de la valeur oracle que les méthodes d’es- timation de sous-espace issue de l’apprentissage automatique mais sans toutefois égaler les méthodes adaptées à ce type d’imagerie.

Pour inir, le modèleBNP-PCAétend laPPCAproposée par Tipping et Bishop (1999b) en rendant aléatoire la dimension du sous-espace sans passer par un modèle hiérarchique diicile à manipuler et échantillonner. L’algorithme MCMC proposé est capable d’estimer un sous-espace perti- nent et sa dimension. Malgré un résultat négatif concernant un estimateur de la dimension, les estimateurs proposés se sont révélés numériquement convaincants. Les deux applications ont montré que BNP-PCA permet de traiter un problème d’apprentissage sans aucun réglage de paramètres concernant la réduction de la dimension.

4.8 P