Université Paris 13/Younès Bennani Traitement Informatique des Données 1
ILOG 3
Traitement
Informatique des Données
Younès BENNANI
Plan du cours
• Reconnaissances des Formes
• Méthodes statistiques
• Méthodes paramétriques
• Méthodes non-paramétriques
• Classification automatique
• Extraction et sélection de traits
• Méthodes structurelles
• Structures de chaîne
• Extraction de primitives
• Méthodes syntaxiques
• Grammaires et automates
• Arbres et graphes
• Méthodes Factorielles
• Analyse en Composantes Principales
• Analyse des correspondances
• Analyse Discriminante
• Modèles Connexionnistes
• Modèles supervisés
• Modèles non-supervisés
• Modèles Hybrides
Université Paris 13/Younès Bennani Traitement Informatique des Données 3
Reconnaissance Statistique des Formes
Partie I
1 Younès BENNANI
• Keinosuke Fukunaga
« Statistical Pattern Recognition »
Acacemic Press
Computer Science and Scientific Computing
• M. Friedman & A. Kandel
« Introduction to Pattern Recognition »
World Scientific
Machine Perception & Artificial Intelligence, Vol. 32.
• A. & Y. Belaïd
« Reconnaissance des Formes »
Inter Editions
Informatique & Intelligence Artificielle
Bibliographie (RdF)
Université Paris 13/Younès Bennani Traitement Informatique des Données 5
A
RdF Statistique et Structurelle
a b d c
e
f g h
=[x
1, x
2, …, x
n]
= b b b h h h a a
=[x
1, x
2, …, x
n]
= 0000000 …1100111000...
X
X
RdF Structurelle RdF Statistique
Méthodes syntaxiques - Grammaires et automates - Arbres et graphes
Méthodes statistiques
- Méthodes paramétriques+ non-paramétriques - Extraction et sélection de traits
- Classification automatique
A
Codage numérique des formes
t x(t)
t1 t2 t3 tn-1 tn
X =
x
1x
2M
x
n!
"
#
# #
$
%
&
&
&
=
x t ( )
1x t ( )
2M x t ( )
n!
"
#
#
# #
$
%
&
&
&
X =
x
1x
2M
x
n!
"
#
# #
$
%
&
&
&
= x ( ) 1 x ( ) 2 M
x n ( )
!
"
#
#
#
$
%
&
&
&
Pixel #1
Pixel #n
Université Paris 13/Younès Bennani Traitement Informatique des Données 7
Formes et variabilité
Représentation numérique
Un exemple : Chernoff faces of the speaker data
Université Paris 13/Younès Bennani Traitement Informatique des Données 9
Classification : «!Clustering!»
Espace des formes
regroupement
C 3
C 4
C 2
C 1
Espace des « clusters »
Classement
Espace des formes
identification
Espace de d écision
C 1
C 2
C 3
C 4
Université Paris 13/Younès Bennani Traitement Informatique des Données 11
Système de RdF
Codage Prétraitement Analyse Décision
Apprentissage
fréquenc e(Hz)
Monde Physique Espace des Formes
Analogique --> Numérique Espace de Représentation Microphone
Caméra
Sélection de l'info. nécessaire Elimination du bruit Suppression de la redondance
Calcul de paramètres Espace des Paramètres
Modélisation Espace des Noms
Reconnaissance
Calcul de distance ou de probabilité
Système de RdF
g(X, W)
:. g
+1
-1
+1 -1
Professeur
X = x
1x
2M
x
n!
"
#
# #
$
%
&
&
&
W=
w1
w2
M wn
!
"
#
# #
$
%
&
&
&
Université Paris 13/Younès Bennani Traitement Informatique des Données 13
Système de RdF
Classificateur :.
X =
x
1x
2M
x
n!
"
#
#
#
$
%
&
&
&
Max P C ( i / X )
ou Min d X, ( C i )
Espace des formes Espace des décisions
Linear Discriminant Functions
x x x
x x
x x x x
x
o o o
o o
o o o
o o o
X
iC
2C
1g(x)=0 g(x)> 0) g(x)< 0
Définir des fonctions permettant de séparer des classes représentées par leurs échantillons.
g(x)=W.X
t=w
1x
1+w
2x
2+ … +w
nx
n+w
n+1g( x) = W.X
t> 0 si x !C
1< 0 si x ! C
2"
#
$
% $
Université Paris 13/Younès Bennani Traitement Informatique des Données 15
Linear Discriminant Functions
Soit M le nombre de classes : C
1, C
2, . . . , C
M1 classe contre le reste :
Il existe M fonctions de discrimination :
g
k(x) = W
k.X
tk = {1, 2, . . . , M}
x x x x x x
x x
x x
o o o
o o
o o o o o
o l l
l l l
l l l
g
j(x)=0 l
C
iC
jg
k( x) = W
k. X
t> 0 si x !C
kk =1 K M
< 0 sinon
"
#
$
% $
Linear Discriminant Functions
Classes séparables 2 à 2 :
Il existe M(M-1)/2 fonctions de discrimination : g
ij(x) = W
ij.X
tsi x ! C
ialors g
ij(x) > 0 " j!i
et g
ij(x) = - g
ji(x)
Cas particulier :
g
ij(x) = g
i(x) - g
j(x) = (W
i- W
j).X
t= W
ij.X
tx x x x x x
x x
x x
o o o
o o
o o o o o
o l l l l
C
iUniversité Paris 13/Younès Bennani Traitement Informatique des Données 17
Méthodes paramétriques
Bayes Classifier
N observations D = { X
1, X
2,...,X
N} dans #
nréparties en M classes {C
1,C
2,..., C
M}, on cherche à estimer la probabilité d'appartenance a posteriori
de X à chacune des c classes.
P(C
i) : probabilité a priori d'appartenance à la classe C
i.
P(X/C
i) : la densité de probabilité conditionnelle dans la classe C
i.
x x x
x x
x x x x
x
o o o
o o o o
o o
o o
l l l l
l
l l
l l l
l l l
l
X
iC
iMéthodes paramétriques
Bayes Classifier
Supposons que soient connues P(C
i) et P(X/C
i), pour tout i variant de 1 à M, et supposons que l'on veuille identifier la classe d'un objet inconnu X :
La règle de Bayes consiste à déterminer la probabilité d'appartenance a posteriori de X à chacune des M classes :
P(C i / X ) = P(X / C i )P(C i ) P( X / C i )P(C i )
i =1 M
!
Probabilité a priori d’appartenance à la classe Ci Densité de probabilité conditionnelle dans la classe Ci
Probabilité a posteriori d’appartenance de X à la classe Ci
Université Paris 13/Younès Bennani Traitement Informatique des Données 19
Méthodes paramétriques
Bayes Classifier
L'objet X sera affecté à la classe pour laquelle P(C
i/X) sera maximum.
Une autre formulation du problème sera de calculer les fonctions discriminantes g
i(X) :
g i ( X ) = P ( X / C i )P (C i )
La règle de décision sera alors d'affecter X à la classe C
icorrespondant à g
i(X) maximum.
Bayes Classifier
Hypothèse de Multi-normalité
$ ( µ i , % i ) pour la classe C
iµ
iest le vecteur moyenne
%
iest la matrice de covariance
µ
i= µ
1= 1
N X
1kk=1 N
!
µ
2= 1 N X
2kk=1 N
!
M µ
n= 1
N X
nkk=1 N
!
"
#
$
$
$
$
$
$
%
&
' ' ' ' ' '
!
i=
var( X
1) cov( X
1, X
2) L L cov( X
1, X
n) var( X
2)
M M M M M
M M M
cov(X
n, X
1) L L var( X
n)
"
#
$
$
$ $
%
&
' '
' ' var( X
i) = !
2(X
i) = 1 N (X
ikk=1 N
" # µ
i)
21
N kk
Université Paris 13/Younès Bennani Traitement Informatique des Données 21
Bayes Classifier
Hypothèse de Multi-normalité
x x x
x x
x x x x
x
o o o
o o o o
o o
o o
l l l l
l
l l
l l l
l l l
l
"
1#
1"
2#
2"
3#
3Bayes Classifier
Hypothèse de Multi-normalité
P( X / C i ) = 1 (2 ! )
n 2 " i
1 2
e #
1
2 (X #µ i ) t " i #1 (X # µ i )
$
% & '
( )
La fonction de densité multi-normale a pour expression :
Université Paris 13/Younès Bennani Traitement Informatique des Données 23
Bayes Classifier
Hypothèse de Multi-normalité
La fonction de décision est :
g i ( X ) = ! 1
2 ( X ! µ i ) t " i !1 ( X ! µ i ) ! n
2 ln 2# [ ] ! 1
2 ln [ ] " i + ln [ P(C i ) ]
si l'on prend le logarithme népérien :
g i (X ) = ln P(X / C [ i ) ] + ln P(C [ i ) ]
g i ( X ) = P ( X / C i )P (C i )
Bayes Classifier
Hypothèse de Multi-normalité
Université Paris 13/Younès Bennani Traitement Informatique des Données 25
Bayes Classifier
Hypothèse de Multi-normalité et d’équi-covariance
La fonction de décision est :
g i ( X ) = ! 1
2 ( X ! µ i ) t " !1 ( X ! µ i ) + ln [ P(C i ) ] P(X / C i ) !"( µ i , #)
les classes ont une même matrice de covariance :
Bayes Classifier
Hypothèse de Multi-normalité, d’équi-covariance et d’équi-probabilité
g i ( X ) = ! 1
2 ( X ! µ i ) t " !1 ( X ! µ i )
En faisant l'hypothèse supplémentaire d'égalité d'appartenance à priori aux classes, la fonction de décision devient :
On retrouve la distance de Mahalanobis :
d mahalanobis
2 ( X,µ i ) = ( X ! µ i ) t " !1 ( X ! µ i )
P(C i ) = P( C j ) ! i, j
Université Paris 13/Younès Bennani Traitement Informatique des Données 27
Exercice
µ 1 = 1 0
!
"
# $
% , µ 2 = 0
1
!
"
# $
% , µ 3 = 2
2
!
"
# $
%
On considère dans l’espace 2-D un problème à 3 classes :
- Donner les expressions des fonctions de décision - Donner les expressions des frontières entre les 3 classes - Donner une représentation graphique
P C ( ) 1 = P C ( ) 2 = 1
4 , P C ( ) 3 = 1
2
= = 1 0
0 2
!
"
# $
%
& 2
& 1 , & 3 = ! " # 1 0 0 1 $ %
Exercice (corrigé)
La fonction de décision pour C
1:
! 1 = ! 2 = 2, 1
2 ln ! 1 = 1
2 ln ! 2 = 1 2 ln 2
! 3 = 1, 1
2 ln ! 3 = 0
! 1 "1 = ! 2 "1 = 1 0
0 1
2
#
$
% &
'
( , ! 3 "1 = 1 0
0 1
#
$
% &
'
g
1(X) = ! 1 2
x
1x
2"
#
$ %
& ! 1 0
"
# $ %
&
' ( )
* + ,
t
1 0
0 1/ 2
"
# $ %
&
x
1x
2"
#
$ %
& ! 1 0
"
# $ %
&
' ( )
* + , ! 1
2 ln(2) + ln 1 4
"
# %
&
= ! 1
2 ( x
1! 1 x
2) " 1 0 1/ 2 0
#
$ %
&
x
1!1 x
2"
#
$ %
& ! 1
2 ln(2) + ln 1 4
"
# %
&
1 1 5
Université Paris 13/Younès Bennani Traitement Informatique des Données 29
Les fonctions de décision :
g
2(X) = ! 1 2 x
12+ 1
2 ( x
2! 1 )
2"
#
$
% ! 5 2 ln(2) g
3( X) = ! 1
2 [ ( x
1! 2 )
2+ ( x
2! 2 )
2] ! ln(2)
g
1( X) = ! 1
2 ( x
1!1 )
2+ 1 2 x
22"
#
$
% ! 5 2 ln(2)
Les frontières entre les 3 classes :
entre C
1et C
2g
12( X) = g
1( X) ! g
2( X )
= x
1! x
22 ! 1
4 = 0
entre C
1et C
3entre C
2et C
3g
13( X) = g
1( X) ! g
3(X)
= x
224 ! 2x
2! x
1+ 7 ! 3ln(2)
2 = 0
g
23( X) = g
2(X ) ! g
3(X )
= x
1 24 ! 2 x
1! x
2+ 7 ! 3ln(2)
2 = 0
Représentation graphique
-2 -1 0 1 2 3 4 5 6 7 8
-6 -4 -2 0 2 4 6 8