• Aucun résultat trouvé

Chapitre 3 – M´ ethodes hybrides SpaceCORR-NMF

3.2 Approche propos´ ee

3.2.2 La m´ ethode MC-NMF

La version de la NMF que nous utilisons est bas´ee sur les algorithmes multiplicatifs de Lee et Seung [89] (voir Section 1.4.2.2 pour plus de d´etails). Dans la Section 1.4.2.3 portant sur la convergence et l’unicit´e de la NMF, nous avons mentionn´e un ensemble de strat´egies possibles pour am´eliorer les r´esultats de la NMF (e.g. choix de l’initialisation, ajout de contrainte suppl´ementaire...). Nous discuterons de l’initialisation dans la section suivante. La version “seule” (en opposition `a la m´ethode hybride) d´ecrite ici comprend un algorithme multiplicatif auquel on ajoute une version modifi´ee de l’analyse Monte-Carlo introduite par O. Bern´e et al. [15] et une ´etape de normalisation `a chaque it´eration. La m´ethode compl`ete que nous proposons, appel´e MC-NMF (pour Monte-Carlo NMF) est d´ecrite dans les paragraphes suivants.

3.2.2.1 Algorithme multiplicatif et normalisation

Nous rappelons ici l’algorithme multiplicatif de Lee et Seung bas´e sur la distance eucli- dienne D(X||AS) comme mesure de similarit´e. La fonction de coˆut `a minimiser est donc :

J (A, S) = 1

2kX − ASk

2

F. A > 0, S > 0. (3.7)

Les ´equations de mise `a jour multiplicatives permettant l’estimation des matrices A et S sont alors les suivantes :

S ← S (ATX) (ATAS) (3.8)

A ← A (XST) (ASST). (3.9) A chaque it´eration, les spectres estim´es (i.e. les colonnes de la matrice A) sont normalis´es suivant :

N

X

n=1

o`u a` est la `i`eme colonne de A. Cette ´etape de normalisation a pour objectif de r´eduire le do-

maine des solutions possibles en compensant l’ind´etermination d’´echelle de la d´ecomposition (voir l’exp´erimentation sur donn´ees r´eelles de la Section 3.4.2). Enfin la condition d’arrˆet fixant la convergence de l’algorithme est bas´ee sur la variation de la distance D entre deux it´erations successives :

D(k)(X|| ˆA ˆS) − D(k−1)(X|| ˆA ˆS)

D(k)(X|| ˆA ˆS) 6 , (3.11)

o`u D(k) est la valeur de la distance D `a l’it´eration k. 3.2.2.2 Analyse Monte-Carlo

L’objectif de cette ´etape est de r´eduire l’influence des minima locaux et donc de compenser la non unicit´e de la solution obtenue. Pour cela, les spectres ´el´ementaires (i.e. la matrice de m´elange A) est estim´ee par une analyse Monte-Carlo. L’id´ee est de r´ealiser un grand nombre K (typiquement 100) de NMF avec une initialisation al´eatoire `a chaque factorisation. On obtient ainsi K estimations diff´erentes de la matrice A, contenant chacune une estimation des L spectres ´el´ementaires. Ces K×L spectres sont ensuite regroup´es en L classes {ω1, ..., ωL} par

une m´ethode de classification. Comme pour l’´etape d’estimation de la matrice de m´elange de la m´ethode SpaceCORR (Section 3.2.1), nous utilisons l’algorithme du k-means [131]. Chaque classe ω` obtenue contient toutes les estimations du mˆeme spectre ´el´ementaire associ´e `a une

source.

Dans la version propos´ee par O. Bern´e et al. [15], les spectres finaux (i.e. l’estimation des colonnes de la matrice A) sont obtenus en choisissant comme repr´esentant d’une classe le centre de chaque cluster. La variance intra-classe des individus permettait de quantifier la dispersion des solutions donn´ees par la NMF.

Nous proposons une alternative pour estimer le spectre le plus repr´esentatif d’une classe en utilisant une estimation de la densit´e de probabilit´e (PDF pour Probability Density Func- tion en anglais) des K intensit´es obtenues `a chaque ´echantillon de longueur d’onde.

La m´ethode des noyaux de Parzen ou fenˆetres de Parzen [131] est une m´ethode non param´etrique permettant d’estimer la PDF d’une variable al´eatoire en chaque point de son support.

Ainsi pour une classe et une longueur d’onde donn´ee, on obtient une estimation de la PDF de l’intensit´e u du rayonnement, not´ee fω`,n. Une estimation du spectre ´el´ementaire le plus

repr´esentatif d’une classe est obtenue en s´electionnant, pour chaque ´echantillon de longueur d’onde, l’intensit´e u la plus probable :

ˆ

a`(n) = argmax u

fω`,n(u) ∀` ∈ {1, . . . , L}, (3.12)

o`u ˆa` est l’estimation de la `i`eme colonne de A. L’erreur d’estimation `a chaque ´echantillon de

longueur d’onde n, pour une colonne donn´ee, est d´etermin´ee en s´electionnant les intensit´es dont les probabilit´es associ´ees sont ´egales `a max (fω`,n) /2. On d´efinit donc l’intervalle d’erreur

[α`(n), β`(n)] de ˆa`(n) tel que :

fω`,n(ˆa`(n) − α`(n)) = fω`,n(ˆa`(n) + β`(n)) =

1

Nous illustrons cette proc´edure sur la Figure 3.1 montrant un exemple de PDF annot´ee avec les diff´erents points caract´eristiques pr´ec´edemment d´efinis.

Figure 3.1 – Densit´e de probabilit´e fω`,n des intensit´es de la classe ω` pour une longueur

d’onde n donn´ee.

3.2.2.3 Reconstruction des sources

L’´etape finale de la m´ethode MC-NMF consiste `a estimer les L sources spatiales `a partir des spectres ´el´ementaires et des observations, sous la contrainte de non n´egativit´e. Cette proc´edure est identique `a celle utilis´ee pour la m´ethode SpaceCORR d´etaill´ee dans pr´ec´edemment. Le lecteur peut se reporter `a la Section 3.2.1.3 illustrant l’utilisation de l’al- gorithme NNLS [88] dans notre contexte.

En pratique, l’algorithme de MC-NMF se r´esume donc `a : Entr´ees : X l’ensemble des observations, L le nombre de sources. Sorties : A les spectres ´el´ementaires, S les cartes sources.

1. NMF :

— Initialisation al´eatoire de A et S.

— Mise `a jour de A et S suivant les r`egles multiplicatives Eq. (3.8) et (3.9). A chaque it´eration, les colonnes de A sont normalis´ees suivant Eq. (3.10).

— Arrˆet des mises `a jour lorsque le crit`ere Eq. (3.11) est v´erifi´e.

2. L’´etape 1 est r´ep´et´ee K fois. On obtient finalement K × L spectres ´el´ementaires. 3. Classification de l’ensemble des spectres ´el´ementaires estim´es en L clusters avec un

algorithme de k-means.

4. Pour chaque cluster d’indice `, l’estimation de l’intensit´e la plus probable `a chaque longueur d’onde permet de construire le spectre ´el´ementaire ˆa`repr´esentatif du cluster

suivant Eq. (3.12). Les barres d’erreurs de cette estimation sont d´eduites avec Eq. (3.13).

5. Reconstruction des sources S par minimisation du crit`ere Eq. (3.6) (NNLS).