• Aucun résultat trouvé

Cas limites de validité de l’étude

2.5 Discussions

2.5.5 Cas limites de validité de l’étude

normale est nulle. Donc considérer ce nouveau problème permet de déterminer exactement les k vecteurs propres qui satisfont les hypothèses du théorème 2.3. Du point de vue de l’algorithme 3, l’étape de normalisation revient à considérer la matrice D−1/2AD−1/2donc les valeurs propres seront inférieures ou égales à 1. Donc les k vecteurs propres satisfaisant les hypothèses du théorème 2.3 correspondent aux k plus grandes valeurs propres. Pour résumer, si la matrice affinité normalisée est proche d’une discrétisation du noyau de Green KN du problème (PN) alors on pourra limiter la base Hilbertienne des fonctions propres (vn)nde l’opérateur de Laplace avec conditions de Neumann

aux k premières fonctions propres associées à la valeur propre 1.

Pour appuyer cette nouvelle approche et pour incorporer l’étape de normalisation, des expéri- mentations numériques sont effectuées sur les exemples 1 et 2. Sur les figures 2.22 et 2.23 (a)-(b)-(c), les 3 plus petites fonctions propres de l’opérateur de Laplace avec conditions de Neumann aux fron- tières sont représentées. Et (d)-(e)-(f), les 3 plus grands vecteurs propres de D−1/2AD−1/2 associés à la valeur propre 1. Dans les deux cas, l’allure des fonctions propres et des vecteurs propres est similaire et ne réfute pas cette approche de l’étape de normalisation.

Algorithm 3 Algorithme de classification spectrale Input : Ensemble des données S, Nombre de clusters k

1. Construction de la matrice affinité A ∈ RN ×N définie par : Aij =

(

exp(− kxi− xjk2/2σ2) si i 6= j,

0 sinon.

2. Construction de la matrice normalisée L = D−1/2AD−1/2où D matrice diagonale définie par :

Di,i= N

X

j=1

Aij.

3. Construction de la matrice X = [X1X2..Xk] ∈ RN ×kformée à partir des k plus grands vecteurs

propres xi, i = {1, .., k} de L.

4. Construction de la matrice Y formée en normalisant les lignes de X : Yij = Xij  P jXij2 1/2.

5. Traiter chaque ligne de Y comme un point de Rk et les classer en k clusters via la méthode K-means.

6. Assigner le point original xiau cluster j si et seulement si la ligne i de la matrice Y est assignée

au cluster j.

2.5.5 Cas limites de validité de l’étude

Des exemples ont été recensés pour montrer les limites du clustering spectral. Nadler et al [80] expliquent que la mesure de similarité, basée sur une notion locale, est insuffisante dans certains cas

80 Classification et éléments spectraux de la matrice affinité gaussienne

(a) Première fonction propre de (PΩN)

(b) Deuxième fonction propre de (PΩN)

(c) Troisième fonction propre de (PΩN)

(d) Premier vecteur propre de A (e) Deuxième vecteur propre de A (f) Troisième vecteur propre de A

Figure 2.22 – Exemple 1 : Vecteurs propres avec étape de normalisation

(a) Première fonction propre de (PΩN)

(b) Deuxième fonction propre de (PΩN)

(c) Troisième fonction propre de (PΩN)

(d) Premier vecteur propre de A (e) Deuxième vecteur propre de A (f) Troisième vecteur propre de A

2.5.5 Cas limites de validité de l’étude 81

pour définir une partition globale. Plusieurs exemples montrent ces limites notamment une bille sur une règle ou bien le cas de 3 nuages de points issus de distributions gaussiennes avec des paramètres différents représentés figure 2.24.

Figure 2.24 – Exemples de cas limites [80]

Cette interprétation via l’équation de la chaleur et les éléments finis permettent de donner une explication. En effet, les exemples évoqués ci-dessus présentent des clusters ayant une surface de contact entre eux. Ce genre de configuration ne permet pas d’appliquer des conditions aux frontières entre les clusters. Ainsi, les fonctions propres issues de l’équation de la chaleur (PRp) restreinte au

support des clusters sont localisées sur une seule composante connexe à support sur les deux clus- ters. Les exemples traités par Nadler et al relèvent donc a priori plutôt de la reconnaissance de forme que de la classification de données.

Chapitre 3

Parallélisation de la classification

spectrale

Dans ce chapitre, l’aspect numérique est privilégié. Un des objectifs des méthodes de classifica- tion non supervisée est de les appliquer sur de grands ensembles de données. Or l’étape d’extraction des vecteurs propres est très coûteuse car la matrice d’affinité (1.1) est pleine. Ainsi, des limites en terme de coût numérique apparaissent. Plusieurs approches via le calcul parallèle ont été envisa- gées récemment pour pallier ce défaut. En effet, divers auteurs exploitent des techniques d’Algèbre linéaire comme la méthode de Nyström [44] ou bien des méthodes d’Arnoldi [92, 38] pour une im- plémentation en parallèle et afin de réduire le coût numérique. Cependant, la matrice affinité entière est construite et utilisée dans l’algorithme. De plus, le problème du choix préalable du nombre de classes k reste ouvert.

Dans ce chapitre, les propriétés théoriques développées au chapitre précédent sont exploitées pour proposer deux nouvelles stratégies de clustering spectral par décompositions en sous-domaines. En appliquant indépendamment l’algorithme sur des sous-domaines particuliers, on montre que la réunion des partitions locales représente une partition globale ou une sous-partition de l’ensemble des points. Nous proposons d’appliquer le clustering spectral sur des sous-domaines directement en divisant l’ensemble des données en sous-ensembles via leurs coordonnées géométriques. Avec un paramètre global d’affinité gaussienne (1.1) et une méthode pour déterminer le nombre de clusters, chaque processus applique indépendamment l’algorithme clustering spectral sur des sous ensembles de données et fournit une partition locale. Une étape de regroupement assure la connexion entre les sous-ensembles de points et détermine une partition globale à partir des locales. Après une première phase d’expérimentations numériques, une alternative sera proposée puis testée sur des cas géométriques et des cas de segmentation d’images. Le potentiel de parallélisme de l’algorithme tout comme son comportement numérique et ses limitations seront étudiés.

3.1

Classification spectrale parallèle : justification

Il a été démontré [11, 12] que l’affinité gaussienne (1.1) peut être interprétée comme une discré- tisation du noyau de la chaleur. En particulier, d’après le précédent chapitre, nous avons montré que cette matrice est une représentation discrète d’un opérateur de la chaleur défini sur un domaine, approprié de Rp. Grâce aux propriétés spectrales de l’équation de la chaleur, les vecteurs propres de cette matrice sont asymptotiquement une représentation discrète de fonctions propres L2 dont les supports sont inclus sur une seule composante connexe à la fois.

Appliquer le clustering spectral revient donc à projeter sur le support de ces fonctions propres

84 Parallélisation de la classification spectrale

particulières. Ainsi, le clustering spectral est appliqué sur des sous-domaines pour identifier les composantes connexes. Les sous-domaines sont définis de façon directe en divisant l’ensemble des données ponctuelles S en se servant de leurs coordonnées géométriques. Un partitionnement peut alors être extrait indépendamment et en parallèle sur chaque sous-ensemble. Puis, en vue d’une étape de regroupement des partitions locales issues des différents sous-domaines, le clustering spectral est appliqué sur un ensemble spécifique de données correspondant à une bande d’intersection le long des frontières du découpage géométrique des données. La connexion des clusters dont le support s’étend sur plusieurs sous-domaines sera assurée via une relation d’équivalence [86] : ∀xi1, xi2, xi3 ∈ S,

Si xi1, xi2 ∈ C 1 et x

i2, xi3 ∈ C

2 alors C1∪ C2⊂ P et x

i1, xi2, xi3, ∈ P (3.1)

où S est l’ensemble des données, C1 et C2 deux clusters distincts et P un cluster plus grand dans

lequel sont inclus C1 et C2.