• Aucun résultat trouvé

• ACP non-lin ´eaire – auto-encodage

N/A
N/A
Protected

Academic year: 2022

Partager "• ACP non-lin ´eaire – auto-encodage"

Copied!
41
0
0

Texte intégral

(1)

• Typologie de la r ´eduction de dimension

• m ´ethode de base: ACP

• “groupement (clustering) des dimensions”

• extensions:

ACP non-lin ´eaire (NLPCA)

´echelonnement multidimensionnel (multidimensional scaling MDS)

cartes auto-organisatrices (self-organizing maps SOM)

local linear embedding (LLE)

ISOMAP

courbes principales (principal curves)

(2)

• ACP non-lin ´eaire – auto-encodage

• mod `ele de r ´eseau de ACP

x1 x2 xd

x1 x2 xd

x1

x2 xd

Γ(F2)

x

F2

F1

F1

1 k

...

sortie

entr´ee lin´eaire

(3)

• ACP non-lin ´eaire – auto-encodage

• extension non-lin ´eaire

x1 x2 xd

x1 x2 xd

x1

x2 xd

Γ(F2)

x

F2

F1

F1

1 k

...

sortie

entr´ee lin´eaire

non-lin´eaire

non-lin´eaire

(4)

• ´Echelonnement multidimensionnel (MDS)

• repr ´esentation de dimension r ´eduite qui pr ´eserve les distances

x1

x2

x3

y1

y2

xi xj

yi dij yj δij

espace de source espace de cible

(5)

• ´Echelonnement multidimensionnel (MDS)

• fonctions d’erreur

Jee= !i<j(di j"i j)2

!i<j"2i j

Jf f =

!

i<j

!di j"i j

"i j

"2

Je f = 1

!i<j"i j

!

i<j

(di j"i j)2

"i j

(6)

• ´Echelonnement multidimensionnel (MDS)

• minimisation

descente de gradient standard

• initialisation

les d" coordonn´ees avec les variances plus grandes

ACPavec d" composantes

(7)

• ´Echelonnement multidimensionnel (MDS)

0 1 1 5 10 15 20

x1

x2

x3

y1

y2

source target

(8)

• Cartes auto-organisatrices (SOM)

x

i

appartient `a V

!

avec un poids W

i,!

W

i,!

ne d ´epend que de la distance entre

v!

et

v(xi)

• fonction de fen ˆetre typique

y* y

y

*

y1 y2

Λ

(9)

• Cartes auto-organisatrices (SOM)

SOM( X

n

)

1

C

(0)

#

v

(0)1 , . . . ,

v

(0)k $

2

j

0 3

faire

4 recalculer

W

(j)

5

pour

!

1

`a k faire

6

v

(!j+1)

1

n

n i=1

!

W

(i,!j)

x

i

7

jj +

1

8

jusqu’`a changement

>

seuil

(10)

• Cartes auto-organisatrices (SOM)

2

dimensions −→

1

dimension

0 20 100

25,000 50,000 75,000

1000 10,000

100,000 150,000

(11)

• Cartes auto-organisatrices (SOM)

2

dimensions −→

2

dimensions

100 1000 10,000 25,000 50,000

75,000 100,000 150,000 200,000 300,000

(12)

• Cartes auto-organisatrices (SOM)

• probl `eme: minimum local

0 1000 25000 400000

(13)

• Cartes auto-organisatrices (SOM)

• estimation de densit ´e

0 1000 400,000 800,000

(14)

• Cartes auto-organis. (SOM) – th ´eorie de communication

• Codage de source – quantification vectorielle:

• fonction d’erreur: J

s

= !

n

i=1

% x

i

v

(xi)

%

2

(15)

• Codage de canal – correction d’erreur:

• probabilit ´e d’erreur d’un bit: p

• distance de Hamming entre des mots de code: d

i,j

= d

H

%

c(v

i

), c(v

j

)

&

• probabilit ´e d’erreur de code: p

i,j

= p

di,j

(1 − p)

ddi,j

• fonction d’erreur: J

c

= !

n

i=1 c

!

j=1

% v

(xi)

v

j

%

2

p

xi,j

• Codage conjoint de canal-source

• fonction d’erreur: J

s+c

= !

n

i=1 c

!

j=1

% x

i

v

j

%

2

p

xi,j

(16)

• Probl `eme g ´en ´erale: surfaces compliqu ´ees → minima local

• Solution 1: ISOMAP

• distance geod ´esique: chemins plus courts dans le graphe de simi- larit ´e

• MDS standard sur les distances geod ´esiques

(17)
(18)
(19)
(20)
(21)
(22)

• Solution 2: Local linear embedding (LLE)

• Etape 1: trouver l’ensemble des ´ voisins

Vxi

• Etape 2: approximer les points avec une ´ combinaison lin ´eaire de leurs plus proches voisins:

minW n i=1

!

'' ''

'

x

i

− !

xjVxi

w

i,j

x

j

'' '' '

2

• Etape 3: reconstruire les points dans l’espace de projection en util- ´ isant les m ˆemes poids:

minY n i=1

!

'' ''

'

y

i

− !

xjVxi

w

i,j

y

j

'' '' '

2

(23)

translations bors. By sym struction we metric prop opposed to ticular fram invariance t forced by th rows of the

Suppose nonlinear m

## D. To a exists a lin translation, maps the h each neighb nates on the struction we ric propertie exactly such expect their try in the o

(24)

LLE c mapping b step of th observatio vector Y!i nates on th d-dimensi embeddin

$

This cost based on but here mizing th cost in Eq vectors Y! the proble by solvin lem (9), w tors prov coordinat Implem straightfo points we est neighb tance or i l

(25)
(26)

• d ´esavantage d’ISOMAP:

• temps d’ex ´ecution: O(n

3

)

• projeter des nouveaux points

• construire la fonction de projection explicitement

• probl `eme d’interpolation

• probl `eme d’apprentissage supervis ´e (r ´egression multidimensionnelle)

(27)

• Probl `eme: bruit

Data points Generating curve Polygonal principal curve HS principal curve

(28)

• Le biais du mod `ele

(0)

f * (0)

# * f

#

(29)

• Le biais de l’estimation

f(0) (0) f $

# $

# $ $

(30)

• Solution: courbes principales polygonales

• Mesurer la distance de la courbe au lieu des sommets

S

i

S

i+1

s

i

i

v

i-1

V

i+1

v

S

i-

s

i-2

s

i+1

v

i+1

1

V

i-

2

1 i

S

i-

V

s

i-1

(31)

• Courbes principales polygonales

Vertex optimization Projection Initialization

Convergence?

k > c(n, )?%

Add new vertex START

END

N Y

Y

N

(32)

• Courbes principales polygonales

(a) (b) (c)

(d) (e) (f)

(33)

• Courbes principales polygonales

• bruit r ´eduit

Data points Generating curve Polygonal principal curve BR principal curve HS principal curve

(34)

• Courbes principales polygonales

• beaucoup de points

Data points Generating curve Polygonal principal curve HS principal curve

(35)

• d ´esavantages des courbes principales:

• minima local

Data points Generating curve Polygonal principal curve HS principal curve

Data points Generating curve Polygonal principal curve HS principal curve

• extension aux surfaces n’est pas ´evident

→ la plupart des applications sont dans le traitement d’image

(36)

• Skeletisation des caract `eres

(a)

Character template Polygonal principal curve

(b)

Character template Polygonal principal curve

(c)

Character template Polygonal principal curve

(d)

Character template Polygonal principal curve

(37)

• Skeletisation des caract `eres

(a)

Character template Skeleton graph

(b)

Character template Skeleton graph

(c)

Character template Skeleton graph

(d)

Character template Skeleton graph

(38)

• Apprentissage non-supervis ´e pour la classification: analyse discriminante

• but: trouver la meilleure projection qui pr ´eserve l’information discrim- inante

• Discriminante de Fisher

y = w

t

x

(39)

• Analyse discriminante

0.5 1 1.5

0.5 1 1.5 2

0.5 1 1.5 x1

-0.5 0.5 1 1.5 2

x2

w w

x1 x2

(40)

i

=

1

n

i

!

xDi

x

m

˜i

=

1

n

i

!

yYi

y =

1

n

i

!

xDi

w

t

x

• trouver w qui maximise | m

˜1

m

˜2

| = | w

t

(

1

2

) |

• Id ´ee 2: s ´eparer les moyennes projet ´ees normalis ´ees par les variances par classe

s

˜2i

= !

yYi

(y − m

˜i

)

2

J(w) = ( m

˜1

m

˜2

)

2

˜

s

21

+ s

˜22

(41)

S

i

= !

xDi

(x −

i

)(x −

i

)

t

S

W

= S

1

+ S

2

s

˜2i

= !

xDi

(w

t

xw

ti

)

2

= !

xDi

w

t

(x −

i

)(x −

i

)

t

w = w

t

S

i

w

s

˜21

+ s

˜22

= w

t

S

W

w

S

B

= (

1

2

)(

1

2

)

t

• ( m

˜1

m

˜2

)

2

= (w

t1

w

t2

)

2

= w

t

(

1

2

)(

1

2

)

t

w = w

t

S

B

w

J(w) = w

t

S

B

w w

t

S

W

w

w

max

= S

W1

(

1

2

)

Références

Documents relatifs

D´ eterminer son domaine de d´ efinition et calculer une primitive sur chacun des intervalles o` u elle est

Math´ ematiques pour les Sciences (MS2) Examen du 5 juin 2007 (2 `eme session), dur´ee : 2 heures Les documents et les calculatrices ne sont pas autoris´ees..

Pour des raisons techniques, si, un jour donn´ e, on utilise le hangar H, le lendemain on r´ eutilisera ce mˆ eme hangar avec une probabilit´ e de 0, 5 et si, un jour donn´ e,

10.4.2. Soit E un espace vectoriel de dimension finie. D´ emontrer qu’il existe une base orthonormale de E dans laquelle la matrice de u est triangulaire. Soient E un espace

Obligatoires : copies s´epar´ees pour chaque partie ; num´erotation des copies de 1/n `a n/n ; votre nom sur chaque copie ; num´erotation des questions ; r´esolution dans l’ordre

Toutes les justifications doivent figurer sur votre copie, mais la r´edaction doit rester sobre.. Vous pouvez admettre un r´esultat, `a condition de le signaler

Pour terminer cet exemple par une synth`ese, observons que nous sommes parvenus `a r´ecrire le probl`eme d’optimisation initial sous la forme d’un syst`eme lin´eaire augment´e

Mˆeme si les m´ethodes pr´esent´ees ci-dessus permettent de ramener de mani`ere syst´ematique n’importe quel probl`eme d’optimisation lin´eaire sous forme g´en´erale en