• Typologie de la r ´eduction de dimension
• m ´ethode de base: ACP
• “groupement (clustering) des dimensions”
• extensions:
• ACP non-lin ´eaire (NLPCA)
• ´echelonnement multidimensionnel (multidimensional scaling – MDS)
• cartes auto-organisatrices (self-organizing maps – SOM)
• local linear embedding (LLE)
• ISOMAP
• courbes principales (principal curves)
• ACP non-lin ´eaire – auto-encodage
• mod `ele de r ´eseau de ACP
x1 x2 xd
x1 x2 xd
x1
x2 xd
Γ(F2)
x
F2
F1
F1
1 k
...
sortie
entr´ee lin´eaire
• ACP non-lin ´eaire – auto-encodage
• extension non-lin ´eaire
x1 x2 xd
x1 x2 xd
x1
x2 xd
Γ(F2)
x
F2
F1
F1
1 k
...
sortie
entr´ee lin´eaire
non-lin´eaire
non-lin´eaire
• ´Echelonnement multidimensionnel (MDS)
• repr ´esentation de dimension r ´eduite qui pr ´eserve les distances
x1
x2
x3
y1
y2
xi xj
yi dij yj δij
espace de source espace de cible
• ´Echelonnement multidimensionnel (MDS)
• fonctions d’erreur
• Jee= !i<j(di j−"i j)2
!i<j"2i j
• Jf f =
!
i<j
!di j−"i j
"i j
"2
• Je f = 1
!i<j"i j
!
i<j
(di j−"i j)2
"i j
• ´Echelonnement multidimensionnel (MDS)
• minimisation
• descente de gradient standard
• initialisation
• les d" coordonn´ees avec les variances plus grandes
• ACPavec d" composantes
• ´Echelonnement multidimensionnel (MDS)
0 1 1 5 10 15 20
x1
x2
x3
y1
y2
source target
• Cartes auto-organisatrices (SOM)
• x
iappartient `a V
!avec un poids W
i,!• W
i,!ne d ´epend que de la distance entre
v!et
v(xi)• fonction de fen ˆetre typique
y* y
y
*y1 y2
Λ
• Cartes auto-organisatrices (SOM)
SOM( X
n)
1
C
(0)←
#v
(0)1 , . . . ,v
(0)k $2
j ←
0 3faire
4 recalculer
W
(j)5
pour
!←
1`a k faire
6v
(!j+1)←
1n
n i=1
!
W
(i,!j)x
i7
j ← j +
18
jusqu’`a changement
>seuil
• Cartes auto-organisatrices (SOM)
•
2dimensions −→
1dimension
0 20 100
25,000 50,000 75,000
1000 10,000
100,000 150,000
• Cartes auto-organisatrices (SOM)
•
2dimensions −→
2dimensions
100 1000 10,000 25,000 50,000
75,000 100,000 150,000 200,000 300,000
• Cartes auto-organisatrices (SOM)
• probl `eme: minimum local
0 1000 25000 400000
• Cartes auto-organisatrices (SOM)
• estimation de densit ´e
0 1000 400,000 800,000
• Cartes auto-organis. (SOM) – th ´eorie de communication
• Codage de source – quantification vectorielle:
• fonction d’erreur: J
s= !
ni=1
% x
i− v
(xi)%
2• Codage de canal – correction d’erreur:
• probabilit ´e d’erreur d’un bit: p
• distance de Hamming entre des mots de code: d
i,j= d
H%
c(v
i), c(v
j)
&• probabilit ´e d’erreur de code: p
i,j= p
di,j(1 − p)
d−di,j• fonction d’erreur: J
c= !
ni=1 c
!
j=1% v
(xi)− v
j%
2p
xi,j• Codage conjoint de canal-source
• fonction d’erreur: J
s+c= !
ni=1 c
!
j=1% x
i− v
j%
2p
xi,j• Probl `eme g ´en ´erale: surfaces compliqu ´ees → minima local
• Solution 1: ISOMAP
• distance geod ´esique: chemins plus courts dans le graphe de simi- larit ´e
• MDS standard sur les distances geod ´esiques
• Solution 2: Local linear embedding (LLE)
• Etape 1: trouver l’ensemble des ´ voisins
Vxi• Etape 2: approximer les points avec une ´ combinaison lin ´eaire de leurs plus proches voisins:
minW n i=1
!
'' ''
'
x
i− !
xj∈Vxi
w
i,jx
j'' '' '
2
• Etape 3: reconstruire les points dans l’espace de projection en util- ´ isant les m ˆemes poids:
minY n i=1
!
'' ''
'
y
i− !
xj∈Vxi
w
i,jy
j'' '' '
2
translations bors. By sym struction we metric prop opposed to ticular fram invariance t forced by th rows of the
Suppose nonlinear m
## D. To a exists a lin translation, maps the h each neighb nates on the struction we ric propertie exactly such expect their try in the o
LLE c mapping b step of th observatio vector Y!i nates on th d-dimensi embeddin
$
This cost based on but here mizing th cost in Eq vectors Y! the proble by solvin lem (9), w tors prov coordinat Implem straightfo points we est neighb tance or i l
• d ´esavantage d’ISOMAP:
• temps d’ex ´ecution: O(n
3)
• projeter des nouveaux points
• construire la fonction de projection explicitement
• probl `eme d’interpolation
• probl `eme d’apprentissage supervis ´e (r ´egression multidimensionnelle)
• Probl `eme: bruit
Data points Generating curve Polygonal principal curve HS principal curve
• Le biais du mod `ele
(0)
f * (0)
# * f
#
• Le biais de l’estimation
f(0) (0) f $
# $
# $ $
• Solution: courbes principales polygonales
• Mesurer la distance de la courbe au lieu des sommets
S
iS
i+1s
ii
v
i-1V
i+1v
S
i-s
i-2s
i+1v
i+11
V
i-
2
1 i
S
i-V
s
i-1• Courbes principales polygonales
Vertex optimization Projection Initialization
Convergence?
k > c(n, )?%
Add new vertex START
END
N Y
Y
N
• Courbes principales polygonales
(a) (b) (c)
(d) (e) (f)
• Courbes principales polygonales
• bruit r ´eduit
Data points Generating curve Polygonal principal curve BR principal curve HS principal curve
• Courbes principales polygonales
• beaucoup de points
Data points Generating curve Polygonal principal curve HS principal curve
• d ´esavantages des courbes principales:
• minima local
Data points Generating curve Polygonal principal curve HS principal curve
Data points Generating curve Polygonal principal curve HS principal curve
• extension aux surfaces n’est pas ´evident
→ la plupart des applications sont dans le traitement d’image
• Skeletisation des caract `eres
(a)
Character template Polygonal principal curve
(b)
Character template Polygonal principal curve
(c)
Character template Polygonal principal curve
(d)
Character template Polygonal principal curve
• Skeletisation des caract `eres
(a)
Character template Skeleton graph
(b)
Character template Skeleton graph
(c)
Character template Skeleton graph
(d)
Character template Skeleton graph
• Apprentissage non-supervis ´e pour la classification: analyse discriminante
• but: trouver la meilleure projection qui pr ´eserve l’information discrim- inante
• Discriminante de Fisher
• y = w
tx
• Analyse discriminante
0.5 1 1.5
0.5 1 1.5 2
0.5 1 1.5 x1
-0.5 0.5 1 1.5 2
x2
w w
x1 x2
•
i=
1n
i!
x∈Di
x
• m
˜i=
1n
i!
y∈Yi
y =
1n
i!
x∈Di
w
tx
• trouver w qui maximise | m
˜1− m
˜2| = | w
t(
1−
2) |
• Id ´ee 2: s ´eparer les moyennes projet ´ees normalis ´ees par les variances par classe
• s
˜2i= !
y∈Yi
(y − m
˜i)
2• J(w) = ( m
˜1− m
˜2)
2˜
s
21+ s
˜22• S
i= !
x∈Di
(x −
i)(x −
i)
t• S
W= S
1+ S
2• s
˜2i= !
x∈Di
(w
tx − w
ti)
2= !
x∈Di