• Aucun résultat trouvé

Couplage d'un problème de classification et d'estimation de densité par des noyaux gaussiens

N/A
N/A
Protected

Academic year: 2021

Partager "Couplage d'un problème de classification et d'estimation de densité par des noyaux gaussiens"

Copied!
5
0
0

Texte intégral

(1)

HAL Id: hal-00308540

https://hal.archives-ouvertes.fr/hal-00308540

Submitted on 31 Jul 2008

HAL is a multi-disciplinary open access archive for the deposit and dissemination of sci-entific research documents, whether they are pub-lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.

Couplage d’un problème de classification et d’estimation

de densité par des noyaux gaussiens

Catherine Aaron

To cite this version:

Catherine Aaron. Couplage d’un problème de classification et d’estimation de densité par des noyaux gaussiens. 12-èmes Rencontres de la Société Francophone de Classification, 2005, Montreal, Canada. pp.27-30. �hal-00308540�

(2)

Couplage d’un problème de classification et d’estimation de

densité par des noyaux gaussiens

Aaron Catherine

SAMOS-MATISSE Université Paris 1 90 rue de Tolbiac Paris, France, 75013

RÉSUMÉ. La classification et l’estimation de densité d’un nuage de point issu du tirage d’un mélange de lois sont deux problèmes intimement liés. En effet la connaissance de la densité induit une classification naturelle dans laquelle le nombre de classe est connu (et correspond au nombre de modes), d’autre part la connaissance de la classification permet de localiser dans l’espace les points correspondant a chacune des composantes du mélange et simplifie le problème de l’estimation de densité. Dans la pratique aucune de ses deux données n’est disponible. Dans ce papier o n propose une méthode permettant de résoudre conjointement ces deux problèmes.

MOTS-CLÉS : Classification, estimation de densité, noyaux gaussien, taille de fenêtre, cross -validation

1 Introduction

1.1 Problématique

On dispose de N observations dans Rp qui correspondent, par hypothèse, aux réalisation d’un mélange de k lois uni-modales et on se propose de résoudre le double problème : estimation de la densité du nuage de point (par une méthode à noyau) et segmentation des données. Dans un premier temps on va montrer en quoi ces deux problèmes sont implicitement liés.

1.2 Classification sous hypothèse de densité connue

Si on suppose que la densité totale du nuage est connue, Wishart’s a proposé, en 1969, une méthode de classification des données autour des domaines d’attraction des modes. Il y a autant de groupes que de modes et chaque point est affecté à la classe du mode qui « l’attire » (on peut lier le point au mode par un chemin croissant de densité). Visuellement cette classification est relativement naturelle (voir figure 1)

1.3 Densité sous hypothèse de classification connue

La principale difficulté pour l’estimation de densité par une méthode à noyau consiste a trouver une « bonne » taille pour la fenêtre des noyaux. Dans le cas d’une densité uni-modale on peut utiliser la cross-validation qui donne des résultats pertinents. Dans le cas de densités multi-modales avec hétérogénéité des dispersion autour des modes la recherche d’une taille unique (sur tout le nuage) de fenêtre est vouée à l’échec (voir figure 2). Dans ce cas on cherchera des tailles de fenêtres dépendant des points. Si la

(3)

classification des données est connue, une méthode naturelle serait de chercher une taille de fenêtre par classe.

Figure 1 : classification sous hypothèse de densité connue

Figure 2 : Densité multi-modale avec hétérogénéité de dispersion et taille de fenêtre unique on n’estime jamais les deux composantes a la fois

2 Estimation de densité par noyaux et cross-validation

2.1 Estimation de densité par noyaux gaussiens

Dans toute la suite nous ne traiterons que le cas des variables uni-dimensionnelles pour simplifier l’écriture des équations mais la généralisation au cas multidimensionnel est aisé.

On note 2 2 2 1 ( ) ( , , ) exp 2 2 x y x y h h h ϕ π  −  =  

L’estimation de la densité d’un nuage de N points xi par noyaux gaussien de taille de fenêtre h est

donné par : 1 1 ˆ ( ) ( , , ) N h i i f x x x h N = ϕ

=

tout le problème se résumant à déterminer un h « correct ». Pour cela nous avons choisi la méthode dite de « cross-validation » exposée ci-dessous

2.2 Dans le cas d’une seule taille de fenêtre

On note ˆ ( ) 1 ( , , ) 1 h i j j i f x x x h N ϕ − ≠ =

la densité estimée si on avait toute la base sauf le point i et on

cherche a maximiser en h la pseudo-vraisemblance ( ) ˆhi( )i

i L h =

f x . L’annulation de la dérivée en h mène à : 2 2 ( , , )( ) 1 ( , , ) i j i j j i i i j j i x x h x x h N x x h ϕ ϕ ≠ ≠ − =

0 0 , 6 1,2 1,8 2 , 4 3 3 , 6 4 , 2 4 , 8 5 , 4 6 6 , 6 7 , 2 7 , 8 8 , 4 9 9 , 6 10,2 -5 0 5 10 15 20 25 30 Classe 2 Classe 1 Classe 3 Classe 2 Classe 1 Classe 3

(4)

2.3 Dans le cas de plusieurs tailles de fenêtres

Dans le cas où il y a K classes avec σ( )j la classe de j la densité estimée est : ( ) 1 1 ˆ ( ) ( , , ) N h i i i f x x x h N = ϕ σ

=

et la maximisation de la pseudo-vraisemblance donne : 2 , ( ) , ( ) 2 ( ) ( ) ( , , )( ) ( , , ) ( , , ) ( , , ) i j k i j i j k j i j k j i j k k i i j j i i j j j i j i x x h x x x x h h x x h x x h σ σ σ σ ϕ ϕ ϕ ϕ ≠ = ≠ = ≠ ≠ − =

3 Algorithme de classification

L’algorithme proposé est un algorithme stochastique en effet, ici, l’aspect stochastique a un double avantage d’une part on évite de converger vers le maximum de la vraisemblance en N classes avec une taille de fenêtre tendant vers

0

et, d’un point de vue pratique on diminue notoirement le temps de calcul. A l’état initial on a une seule classe et une taille de fenêtre h0 puis, on itère Nit1:

- On tire N1<N points yjsans remise qui serviront de points sur lesquels on « posera » les

noyaux

- on transforme les tailles de fenêtres pour maximiser la pseudo-vraisemblance de l’ensemble de la base en en effectuant

Nit

2 fois :

2 , ( ) , ( ) 1 ( ) ( ) ( , , ( ))( ) ( , , ( )) ( 1) : ( , , ( )) ( , , ( )) j i i t j i it it it j i j i i j k i j i j k y x j k y x j k k i i j j i i j j y x y x x y h it x y x y h it h it x y h it x y h it σ σ σ σ ϕ ϕ ϕ ϕ ≠ = ≠ = ≠ ≠ − + =

- on classe les données autour des modes observés pour obtenir la fonction

σ

it+1

- enfin obtient les nouvelles tailles de fenêtres par moyenne des valeurs de h it1k( +1) sur la nouvelle classification : 1 1 1 ( ) ( ) ' ' ( ) ' ( 1) ( 1) 1 it it it i i k k i k h it h it σ σ σ + + = = + + =

Pour finir on effectue un dernier tour d’opération sur l’ensemble de la base et non uniquement sous un sous ensemble tiré aléatoirement

Figure 3 : Etapes de l’algorithme

Dens(it) Dens(it+1)

on optimise les 3 tailles de fenêtres correspondants à dens(it) et on obtient trois tailles de fenêtres intermédiaires

1 1 1

1( 1), 2( 1), 3( 1)

h it+ h it+ h it+

Le regroupement autour de mode donne 2 classes

On calcule

h it

1

( )

et

h it

2

( )

comme moyennes des fenêtres intermédiaires 1 1( 1) h it+ 1 2( 1) h it+ 1 3( 1) h it+ 80% 20% 40% 60% 1 1 1( 1) 0.8 (1 1) 0.2 (2 1) h it+ = h it+ + h it+ h it2( + =1) 0.4 (h it21 + +1) 0.6 (h it31 +1)

(5)

4 Quelques résultats

Les résultats suivants sont le résultat d’estimation de densité et de classification sur des bases simulées en dimension 1 (ce qui permet de visualiser la différence entre les densités estimées et les « vraies » densités du tirage ). Les lois simulées sont toutes des mélanges de gaussiennes. Les paramètres de l’algorithme sont, dans tous les cas : N1= N/ 2,

1 10 it N = et 2 3 it N =

Figure 4 : Quelques résultats (a) : 200 points tirés pour moitié sur ℵ(0,1) et pour moitié sur ℵ(10,5) 2

exemples (pseudo-vraisemblance, estimation de densité et segmentation) et comparaison de la densité estimée

à la vraie densité. (b) 300 points tirés pour tiers sur ℵ(0,1), pour tiers sur ℵ(3,1) et pour tiers sur ℵ(12,5)

5 Conclusion-perspectives

La méthode semble prometteuse mais nécessite encore des amélioration. En particulier on aimerait construire un indicateur nous permettant de déterminer quand un mode est « significatif » afin de ne pas scinder en un trop grand nombre de classe (cf figure4 exemple (b) ou des modes annexes apparaissent qui, visuellement ne semble pas « importants » mais qui numériquement induisent des erreurs de classification).

6 Bibliographie

.[BIC 0.3] BICEGO M, CRISTANI M., FUSIELLO A., MURINO V., Watershed-based unsupervised

clustering, document de travail. http://profs.sci.univr.it/~bicego/bicego_murino_emmcvpr03.pdf. [MIC 01] MICHALIS K., TITSIAS., ARISTIDIS C LIKAS., (2001), Shared Kernel Models for Class

Conditional Density Estimation., IEE Transaction on Neural Network Vol 12 N°5

[SAI 96] SAIN S., SCOTT W., On Locally Adaptative Density EStimation, Journal of the American Statistical Association Vol 91 N°436

.[STU 03] STUETZLE W., Estimation of the cluster tree of a density by analysing the minimal spanning

tree of a sample, http://www.stat.washington.edu/wxs/Learning-papers/mst.pdf

[WIS 69] WISHART D., Mode Analysis : A Generalization of Nearest Neighbor which Reduce Chaining

Effect, Numerical Taxinomy, Ed A.J. Cole, Academic Press,282-311

Figure

Figure 1 : classification sous hypothèse de densité connue
Figure 3 : Etapes de l’algorithme
Figure 4 :  Quelques  résultats (a) : 200 points tirés pour moitié sur  ℵ (0,1)  et pour moitié  sur  ℵ (10,5)  2  exemples (pseudo-vraisemblance, estimation de densité et segmentation) et comparaison de la densité estimée  à la vraie densité

Références

Documents relatifs

- Nous utilisons la méthode des inégalités de Sobolev faibles de Bakry-Michel pour obtenir quand t tend vers l’infini, une borne infé- rieure et une borne supérieure

La distribution dépend d'un paramètre b, en plus du paramètre a qui carac- térise le support ; on considère les séparations du système des masses en deux classes [0,s] et [s,~]

[r]

⊲ les estimées ne sont pas des densités de probabilité car leur intégrale sur l’ensemble des observations diverge.. Estimation non-paramétrique

De surcroît, la « connaissance intime du nombre », pour reprendre l’expression de René Thom, n’est possible que si tout nombre est non seulement conçu comme nombre ordinal et

Cet état d’équilibre est réalisé à une profondeur dite profondeur ou niveau de compensation pour laquelle la pression de charge est la même en tout point.. À cette profondeur,

RESUME. Dans le cas de l’estimateur du noyau de Parzen-Rosenblatt, ou de l’histogramme, ce choix se limite essentiellement à la détermination de la fenêtre

Ceci suppose pour chaque militant de notre pédagogie, humilité et audace : humilité restée dans le sillage d'une modestie qui, chez le Maître, s'est toujours