Université Paris 13/Younès Bennani Reconnaissance des Formes 1
Master Pro. EID
Reconnaissance des Formes
Younès BENNANI
Plan du cours
• Méthodes statistiques
• Méthodes paramétriques
• Méthodes non-paramétriques
• Classification automatique
• Extraction et sélection de traits
• Méthodes structurelles
• Structures de chaîne
• Extraction de primitives
• Méthodes syntaxiques
• Grammaires et automates
• Arbres et graphes
Université Paris 13/Younès Bennani Reconnaissance des Formes 3
Reconnaissance Statistique des Formes
Partie I
1
Younès BENNANI• Keinosuke Fukunaga
« Statistical Pattern Recognition »
Acacemic Press
Computer Science and Scientific Computing
• M. Friedman & A. Kandel
« Introduction to Pattern Recognition »
World Scientific
Machine Perception & Artificial Intelligence, Vol. 32.
• A. & Y. Belaïd
« Reconnaissance des Formes »
Inter Editions
Informatique & Intelligence Artificielle
Bibliographie
Université Paris 13/Younès Bennani Reconnaissance des Formes 5
A
RdF Statistique et Structurelle
a b d c
e
f g h
=[x1, x2, …, xn]
= b b b h h h a a
=[x1, x2, …, xn]
= 0000000 …1100111000...
X
X
RdF Structurelle RdF Statistique
Méthodes syntaxiques - Grammaires et automates - Arbres et graphes
Méthodes statistiques
- Méthodes paramétriques+ non-paramétriques - Extraction et sélection de traits
- Classification automatique
A
Codage numérique des formes
t x(t)
t1 t2 t3 tn-1 tn
X =
x
1x
2M
x
n!
"
#
# #
$
%
&
&
&
=
x t ( )
1x t ( )
2M x t ( )
n!
"
#
#
# #
$
%
&
&
&
X =
x
1x
2M
x
n!
"
#
# #
$
%
&
&
&
= x ( ) 1 x ( ) 2 M
x n ( )
!
"
#
#
#
$
%
&
&
&
Pixel #1
Pixel #n
Université Paris 13/Younès Bennani Reconnaissance des Formes 7
Formes et variabilité
Représentation numérique
Un exemple :
Chernoff faces of the speaker dataUniversité Paris 13/Younès Bennani Reconnaissance des Formes 9
Classification : «!Clustering!»
Espace des formes
regroupement
C3
C4
C2
C1
Espace des « clusters »
Classement
Espace des formes
identification
Espace de décision
C1
C2
C3
C4
Université Paris 13/Younès Bennani Reconnaissance des Formes 11
Système de RdF
Codage Prétraitement Analyse Décision
Apprentissage
fréquenc e(Hz)
Monde Physique Espace des Formes
Analogique --> Numérique Espace de Représentation Microphone
Caméra
Sélection de l'info. nécessaire Elimination du bruit Suppression de la redondance
Calcul de paramètres Espace des Paramètres
Modélisation Espace des Noms
Reconnaissance Calcul de distance ou
de probabilité
Système de RdF
g(X, W)
:.
g+1
-1
+1 -1
Professeur
X= x1
x2
M xn
!
"
#
# #
$
%
&
&
&
W=
w1
w2
M wn
!
"
#
# #
$
%
&
&
&
Université Paris 13/Younès Bennani Reconnaissance des Formes 13
Système de RdF
Classificateur :.
X=
x1
x2
M xn
!
"
#
# #
$
%
&
&
&
Max P C (
i/ X )
ou Min d X, ( C
i)
Espace des formes Espace des décisions
Linear Discriminant Functions
x x x
x x
x x x x
x
oo o
o o
o o o
o o o
Xi
C2
C1
g(x)=0 g(x)> 0) g(x)< 0
Définir des fonctions permettant de séparer des classes représentées par leurs échantillons.
g(x)=W.Xt =w1 x1+w2 x2+ … +wn xn +wn+1
g(x)=W.Xt
>0 si x
!C
1<0 si x
!C
2"
#
$
% $
Université Paris 13/Younès Bennani Reconnaissance des Formes 15
Linear Discriminant Functions
Soit M le nombre de classes : C1 ,C2, . . . , CM 1 classe contre le reste :
Il existe M fonctions de discrimination :
gk(x) = Wk.Xt k = {1, 2, . . . , M}
x x x x x x
x x
x x
oo o
o o
o o o oo
o l l
l l l
ll l
gj(x)=0 l
Ci
Cj
gk(x)=Wk.Xt
>0 si x!Ck k=1KM
<0 sinon
"
#
$
% $
Linear Discriminant Functions
Classes séparables 2 à 2 :
Il existe M(M-1)/2 fonctions de discrimination : gij(x) = Wij.Xt si x ! Ci alors gij(x) > 0 " j!i
et gij(x) = - gji(x)
Cas particulier :
gij(x) = gi(x) - gj(x) = (Wi- Wj).Xt = Wij.Xt
x x x x x x
x x
x x
oo o
o o
o o o oo
o l l l l
Ci
Université Paris 13/Younès Bennani Reconnaissance des Formes 17
Méthodes paramétriques
Bayes Classifier
N observations D = { X1, X2,...,XN} dans #n réparties en M classes {C1,C2,..., CM}, on cherche à estimer la probabilité d'appartenance a posteriori
de X à chacune des c classes.
P(Ci) : probabilité a priori d'appartenance à la classe Ci.
P(X/Ci) : la densité de probabilité conditionnelle dans la classe Ci.
x x x
x x
x x x x
x
oo o
o oo o
o o
o o
l l l l
l
l l
l l l
l l l
l
Xi
Ci
Méthodes paramétriques
Bayes Classifier
Supposons que soient connues P(Ci) et P(X/Ci), pour tout i variant de 1 à M, et supposons que l'on veuille identifier la classe d'un objet inconnu X :
La règle de Bayes consiste à déterminer la probabilité d'appartenance a posteriori de X à chacune des M classes :
P(C
i/ X) = P(X / C
i) P(C
i) P( X / C
i) P(C
i)
i=1 M
!
Probabilité a priori d’appartenance à la classe Ci Densité de probabilité conditionnelle dans la classe Ci
Probabilité a posteriori d’appartenance de X à la classe Ci
Université Paris 13/Younès Bennani Reconnaissance des Formes 19
Méthodes paramétriques
Bayes Classifier
L'objet X sera affecté à la classe pour laquelle P(Ci/X) sera maximum.
Une autre formulation du problème sera de calculer les fonctions discriminantes gi(X) :
g i ( X ) = P( X / C i )P (C i )
La règle de décision sera alors d'affecter X à la classe Ci correspondant à gi(X) maximum.
Bayes Classifier
Hypothèse de Multi-normalité
$ (µ
i, %
i) pour la classe
Ciµ
iest le vecteur moyenne
%
iest la matrice de covariance
µi= µ1= 1
N X1 k k=1
N
!
µ2= 1 N X2k
k=1 N
!
M µn= 1
N Xn k k=1
N
!
"
#
$
$
$
$
$
$
%
&
' ' ' ' ' '
!i=
var(X1) cov(X1,X2) L L cov(X1,Xn) var(X2)
M M M M M
M M M
cov(Xn,X1) L L var(Xn)
"
#
$
$
$ $
%
&
' '
' ' var(Xi)=!2(Xi)= 1 N (Xik
k=1 N
"
#µi)21 N k
!
kUniversité Paris 13/Younès Bennani Reconnaissance des Formes 21
Bayes Classifier
Hypothèse de Multi-normalité
x x x
x x
x x x x
x
oo o
o oo o
o o
o o
l l l l
l
l l
l l l
l l l
l
"1
#1
"2
#2
"3
#3
Bayes Classifier
Hypothèse de Multi-normalité
P(X / C
i) = 1 (2 ! )
n 2
"
i1 2
e
#1
2(X#µi)t"i#1(X#µi)
$
% & '
( ) La fonction de densité multi-normale a pour expression :
Université Paris 13/Younès Bennani Reconnaissance des Formes 23
Bayes Classifier
Hypothèse de Multi-normalité
La fonction de décision est :
g
i( X ) = ! 1
2 ( X ! µ
i)
t"
i!1( X ! µ
i) ! n
2 ln 2 [ ] # ! 1
2 ln [ ] "
i+ ln [ P(C
i) ]
si l'on prend le logarithme népérien :
g
i(X ) = ln P(X / C [
i) ] + ln P(C [
i) ]
g i ( X ) = P( X / C i )P (C i )
Bayes Classifier
Hypothèse de Multi-normalité
Université Paris 13/Younès Bennani Reconnaissance des Formes 25
Bayes Classifier
Hypothèse de Multi-normalité et d’équi-covariance
La fonction de décision est :
g
i( X ) = ! 1
2 ( X ! µ
i)
t"
!1( X ! µ
i) + ln [ P(C
i) ] P( X / C
i) !"( µ
i, #)
les classes ont une même matrice de covariance :
Bayes Classifier
Hypothèse de Multi-normalité, d’équi-covariance et d’équi-probabilité
g
i( X ) = ! 1
2 ( X ! µ
i)
t"
!1( X ! µ
i)
En faisant l'hypothèse supplémentaire d'égalité d'appartenance à priori aux classes, la fonction de décision devient :
On retrouve la distance de Mahalanobis :
d
mahalanobis2
( X, µ
i) = ( X ! µ
i)
t"
!1( X ! µ
i)
P(C
i) = P( C
j) ! i, j
Université Paris 13/Younès Bennani Reconnaissance des Formes 27
Exercice
µ
1= 1 0
!
"
# $
% , µ
2= 0 1
!
"
# $
% , µ
3= 2 2
!
"
# $
%
On considère dans l’espace 2-D un problème à 3 classes :
- Donner les expressions des fonctions de décision - Donner les expressions des frontières entre les 3 classes - Donner une représentation graphique
P C ( )
1= P C ( )
2= 1
4 , P C ( )
3= 1
2
= = 1 0
0 2
!
"
# $
%
&
2&
1, &
3= ! " # 1 0 0 1 $ %
Exercice (corrigé)
La fonction de décision pour C1:
!
1= !
2= 2, 1
2 ln !
1= 1
2 ln !
2= 1 2 ln 2
!
3= 1, 1
2 ln !
3= 0
!
1"1= !
2"1= 1 0
0
12
#
$
% &
'
( , !
3"1= 1 0
0 1
#
$
% &
'
g1(X)
= !
1 2x1 x2
"
#
$ %
& !
1 0"
#
$ %
&
' ( )
* + ,
t 1 0
0 1/ 2
"
#
$ %
&
x1 x2
"
#
$ %
& !
1 0"
#
$ %
&
' ( )
* + , !
12ln(2)
+
ln 1 4"
# %
&
= !
12
(
x1!
1 x2)
1 00 1/ 2
"
#
$ %
&
x1
!1
x2"
#
$ %
& !
12ln(2)
+
ln 1 4"
# %
&
1 1 5
Université Paris 13/Younès Bennani Reconnaissance des Formes 29
Les fonctions de décision :
g2(X)= !1 2 x12+1
2
(
x2!1)
2"
#
$
% !5 2ln(2) g3(X) =!1
2
[ (
x1!2)
2+(
x2!2)
2]
!ln(2)g1(X)
= !
12
(
x1!
1)
2+
12x22
"
#
$
% !
5 2ln(2)Les frontières entre les 3 classes :
entre C1 et C2 g12(X)=g1(X) !g2(X)
=x1!x2 2 !1
4 =0
entre C1 et C3
entre C2 et C3
g13(X)=g1(X)!g3(X)
= x22
4 !2x2!x1+7!3ln(2)
2 =0
g23(X)=g2(X)!g3(X)
= x12
4 !2x1!x2+7!3ln(2)
2 =0
Représentation graphique
-2 -1 0 1 2 3 4 5 6 7 8
-6 -4 -2 0 2 4 6 8
µ1
µ2
µ3 g12(X)
g13(X) g23(X)