• Aucun résultat trouvé

Younès BENNANI

N/A
N/A
Protected

Academic year: 2022

Partager "Younès BENNANI"

Copied!
15
0
0

Texte intégral

(1)

Université Paris 13/Younès Bennani Traitement Informatique des Données 1

ILOG 3

Traitement

Informatique des Données

Younès BENNANI

Plan du cours

• Reconnaissances des Formes

• Méthodes statistiques

• Méthodes paramétriques

• Méthodes non-paramétriques

• Classification automatique

• Extraction et sélection de traits

• Méthodes structurelles

• Structures de chaîne

• Extraction de primitives

• Méthodes syntaxiques

• Grammaires et automates

• Arbres et graphes

• Méthodes Factorielles

• Analyse en Composantes Principales

• Analyse des correspondances

• Analyse Discriminante

• Modèles Connexionnistes

• Modèles supervisés

• Modèles non-supervisés

• Modèles Hybrides

(2)

Université Paris 13/Younès Bennani Traitement Informatique des Données 3

Reconnaissance Statistique des Formes

Partie I

1 Younès BENNANI

• Keinosuke Fukunaga

« Statistical Pattern Recognition »

Acacemic Press

Computer Science and Scientific Computing

• M. Friedman & A. Kandel

« Introduction to Pattern Recognition »

World Scientific

Machine Perception & Artificial Intelligence, Vol. 32.

• A. & Y. Belaïd

« Reconnaissance des Formes »

Inter Editions

Informatique & Intelligence Artificielle

Bibliographie (RdF)

(3)

Université Paris 13/Younès Bennani Traitement Informatique des Données 5

A

RdF Statistique et Structurelle

a b d c

e

f g h

=[x

1

, x

2

, …, x

n

]

= b b b h h h a a

=[x

1

, x

2

, …, x

n

]

= 0000000 …1100111000...

X

X

RdF Structurelle RdF Statistique

Méthodes syntaxiques - Grammaires et automates - Arbres et graphes

Méthodes statistiques

- Méthodes paramétriques+ non-paramétriques - Extraction et sélection de traits

- Classification automatique

A

Codage numérique des formes

t x(t)

t1 t2 t3 tn-1 tn

X =

x

1

x

2

M

x

n

!

"

#

# #

$

%

&

&

&

=

x t ( )

1

x t ( )

2

M x t ( )

n

!

"

#

#

# #

$

%

&

&

&

X =

x

1

x

2

M

x

n

!

"

#

# #

$

%

&

&

&

= x ( ) 1 x ( ) 2 M

x n ( )

!

"

#

#

#

$

%

&

&

&

Pixel #1

Pixel #n

(4)

Université Paris 13/Younès Bennani Traitement Informatique des Données 7

Formes et variabilité

Représentation numérique

Un exemple : Chernoff faces of the speaker data

(5)

Université Paris 13/Younès Bennani Traitement Informatique des Données 9

Classification : «!Clustering!»

Espace des formes

regroupement

C 3

C 4

C 2

C 1

Espace des « clusters »

Classement

Espace des formes

identification

Espace de d écision

C 1

C 2

C 3

C 4

(6)

Université Paris 13/Younès Bennani Traitement Informatique des Données 11

Système de RdF

Codage Prétraitement Analyse Décision

Apprentissage

fréquenc e(Hz)

Monde Physique Espace des Formes

Analogique --> Numérique Espace de Représentation Microphone

Caméra

Sélection de l'info. nécessaire Elimination du bruit Suppression de la redondance

Calcul de paramètres Espace des Paramètres

Modélisation Espace des Noms

Reconnaissance

Calcul de distance ou de probabilité

Système de RdF

g(X, W)

:. g

+1

-1

+1 -1

Professeur

X = x

1

x

2

M

x

n

!

"

#

# #

$

%

&

&

&

W=

w1

w2

M wn

!

"

#

# #

$

%

&

&

&

(7)

Université Paris 13/Younès Bennani Traitement Informatique des Données 13

Système de RdF

Classificateur :.

X =

x

1

x

2

M

x

n

!

"

#

#

#

$

%

&

&

&

Max P C ( i / X )

ou Min d X, ( C i )

Espace des formes Espace des décisions

Linear Discriminant Functions

x x x

x x

x x x x

x

o o o

o o

o o o

o o o

X

i

C

2

C

1

g(x)=0 g(x)> 0) g(x)< 0

Définir des fonctions permettant de séparer des classes représentées par leurs échantillons.

g(x)=W.X

t

=w

1

x

1

+w

2

x

2

+ … +w

n

x

n

+w

n+1

g( x) = W.X

t

> 0 si x !C

1

< 0 si x ! C

2

"

#

$

% $

(8)

Université Paris 13/Younès Bennani Traitement Informatique des Données 15

Linear Discriminant Functions

Soit M le nombre de classes : C

1

, C

2

, . . . , C

M

1 classe contre le reste :

Il existe M fonctions de discrimination :

g

k

(x) = W

k

.X

t

k = {1, 2, . . . , M}

x x x x x x

x x

x x

o o o

o o

o o o o o

o l l

l l l

l l l

g

j

(x)=0 l

C

i

C

j

g

k

( x) = W

k

. X

t

> 0 si x !C

k

k =1 K M

< 0 sinon

"

#

$

% $

Linear Discriminant Functions

Classes séparables 2 à 2 :

Il existe M(M-1)/2 fonctions de discrimination : g

ij

(x) = W

ij

.X

t

si x ! C

i

alors g

ij

(x) > 0 " j!i

et g

ij

(x) = - g

ji

(x)

Cas particulier :

g

ij

(x) = g

i

(x) - g

j

(x) = (W

i

- W

j

).X

t

= W

ij

.X

t

x x x x x x

x x

x x

o o o

o o

o o o o o

o l l l l

C

i

(9)

Université Paris 13/Younès Bennani Traitement Informatique des Données 17

Méthodes paramétriques

Bayes Classifier

N observations D = { X

1

, X

2

,...,X

N

} dans #

n

réparties en M classes {C

1

,C

2

,..., C

M

}, on cherche à estimer la probabilité d'appartenance a posteriori

de X à chacune des c classes.

P(C

i

) : probabilité a priori d'appartenance à la classe C

i

.

P(X/C

i

) : la densité de probabilité conditionnelle dans la classe C

i

.

x x x

x x

x x x x

x

o o o

o o o o

o o

o o

l l l l

l

l l

l l l

l l l

l

X

i

C

i

Méthodes paramétriques

Bayes Classifier

Supposons que soient connues P(C

i

) et P(X/C

i

), pour tout i variant de 1 à M, et supposons que l'on veuille identifier la classe d'un objet inconnu X :

La règle de Bayes consiste à déterminer la probabilité d'appartenance a posteriori de X à chacune des M classes :

P(C i / X ) = P(X / C i )P(C i ) P( X / C i )P(C i )

i =1 M

!

Probabilité a priori d’appartenance à la classe Ci Densité de probabilité conditionnelle dans la classe Ci

Probabilité a posteriori d’appartenance de X à la classe Ci

(10)

Université Paris 13/Younès Bennani Traitement Informatique des Données 19

Méthodes paramétriques

Bayes Classifier

L'objet X sera affecté à la classe pour laquelle P(C

i

/X) sera maximum.

Une autre formulation du problème sera de calculer les fonctions discriminantes g

i

(X) :

g i ( X ) = P ( X / C i )P (C i )

La règle de décision sera alors d'affecter X à la classe C

i

correspondant à g

i

(X) maximum.

Bayes Classifier

Hypothèse de Multi-normalité

$ ( µ i , % i ) pour la classe C

i

µ

i

est le vecteur moyenne

%

i

est la matrice de covariance

µ

i

= µ

1

= 1

N X

1k

k=1 N

!

µ

2

= 1 N X

2k

k=1 N

!

M µ

n

= 1

N X

nk

k=1 N

!

"

#

$

$

$

$

$

$

%

&

' ' ' ' ' '

!

i

=

var( X

1

) cov( X

1

, X

2

) L L cov( X

1

, X

n

) var( X

2

)

M M M M M

M M M

cov(X

n

, X

1

) L L var( X

n

)

"

#

$

$

$ $

%

&

' '

' ' var( X

i

) = !

2

(X

i

) = 1 N (X

ik

k=1 N

" # µ

i

)

2

1

N k

k

(11)

Université Paris 13/Younès Bennani Traitement Informatique des Données 21

Bayes Classifier

Hypothèse de Multi-normalité

x x x

x x

x x x x

x

o o o

o o o o

o o

o o

l l l l

l

l l

l l l

l l l

l

"

1

#

1

"

2

#

2

"

3

#

3

Bayes Classifier

Hypothèse de Multi-normalité

P( X / C i ) = 1 (2 ! )

n 2 " i

1 2

e #

1

2 (X #µ i ) t " i #1 (X # µ i )

$

% & '

( )

La fonction de densité multi-normale a pour expression :

(12)

Université Paris 13/Younès Bennani Traitement Informatique des Données 23

Bayes Classifier

Hypothèse de Multi-normalité

La fonction de décision est :

g i ( X ) = ! 1

2 ( X ! µ i ) t " i !1 ( X ! µ i ) ! n

2 ln 2# [ ] ! 1

2 ln [ ] " i + ln [ P(C i ) ]

si l'on prend le logarithme népérien :

g i (X ) = ln P(X / C [ i ) ] + ln P(C [ i ) ]

g i ( X ) = P ( X / C i )P (C i )

Bayes Classifier

Hypothèse de Multi-normalité

(13)

Université Paris 13/Younès Bennani Traitement Informatique des Données 25

Bayes Classifier

Hypothèse de Multi-normalité et d’équi-covariance

La fonction de décision est :

g i ( X ) = ! 1

2 ( X ! µ i ) t " !1 ( X ! µ i ) + ln [ P(C i ) ] P(X / C i ) !"( µ i , #)

les classes ont une même matrice de covariance :

Bayes Classifier

Hypothèse de Multi-normalité, d’équi-covariance et d’équi-probabilité

g i ( X ) = ! 1

2 ( X ! µ i ) t " !1 ( X ! µ i )

En faisant l'hypothèse supplémentaire d'égalité d'appartenance à priori aux classes, la fonction de décision devient :

On retrouve la distance de Mahalanobis :

d mahalanobis

2 ( X,µ i ) = ( X ! µ i ) t " !1 ( X ! µ i )

P(C i ) = P( C j ) ! i, j

(14)

Université Paris 13/Younès Bennani Traitement Informatique des Données 27

Exercice

µ 1 = 1 0

!

"

# $

% , µ 2 = 0

1

!

"

# $

% , µ 3 = 2

2

!

"

# $

%

On considère dans l’espace 2-D un problème à 3 classes :

- Donner les expressions des fonctions de décision - Donner les expressions des frontières entre les 3 classes - Donner une représentation graphique

P C ( ) 1 = P C ( ) 2 = 1

4 , P C ( ) 3 = 1

2

= = 1 0

0 2

!

"

# $

%

& 2

& 1 , & 3 = ! " # 1 0 0 1 $ %

Exercice (corrigé)

La fonction de décision pour C

1

:

! 1 = ! 2 = 2, 1

2 ln ! 1 = 1

2 ln ! 2 = 1 2 ln 2

! 3 = 1, 1

2 ln ! 3 = 0

! 1 "1 = ! 2 "1 = 1 0

0 1

2

#

$

% &

'

( , ! 3 "1 = 1 0

0 1

#

$

% &

'

g

1

(X) = ! 1 2

x

1

x

2

"

#

$ %

& ! 1 0

"

# $ %

&

' ( )

* + ,

t

1 0

0 1/ 2

"

# $ %

&

x

1

x

2

"

#

$ %

& ! 1 0

"

# $ %

&

' ( )

* + , ! 1

2 ln(2) + ln 1 4

"

# %

&

= ! 1

2 ( x

1

! 1 x

2

) " 1 0 1/ 2 0

#

$ %

&

x

1

!1 x

2

"

#

$ %

& ! 1

2 ln(2) + ln 1 4

"

# %

&

1 1 5

(15)

Université Paris 13/Younès Bennani Traitement Informatique des Données 29

Les fonctions de décision :

g

2

(X) = ! 1 2 x

12

+ 1

2 ( x

2

! 1 )

2

"

#

$

% ! 5 2 ln(2) g

3

( X) = ! 1

2 [ ( x

1

! 2 )

2

+ ( x

2

! 2 )

2

] ! ln(2)

g

1

( X) = ! 1

2 ( x

1

!1 )

2

+ 1 2 x

22

"

#

$

% ! 5 2 ln(2)

Les frontières entre les 3 classes :

entre C

1

et C

2

g

12

( X) = g

1

( X) ! g

2

( X )

= x

1

! x

2

2 ! 1

4 = 0

entre C

1

et C

3

entre C

2

et C

3

g

13

( X) = g

1

( X) ! g

3

(X)

= x

22

4 ! 2x

2

! x

1

+ 7 ! 3ln(2)

2 = 0

g

23

( X) = g

2

(X ) ! g

3

(X )

= x

1 2

4 ! 2 x

1

! x

2

+ 7 ! 3ln(2)

2 = 0

Représentation graphique

-2 -1 0 1 2 3 4 5 6 7 8

-6 -4 -2 0 2 4 6 8

µ

1

µ

2

µ

3

g

12

( X)

g

13

( X)

g

23

( X)

Références

Documents relatifs

Cette dualité suppose « d’installer » une chaîne d’analyse et de modélisation contrainte par le diagnostic des modèles (climatiques et hydrologiques) et l’interaction

SEGMENT .text ;;;marque le début du segment de code ;;;marque le début du segment de code ;;;marque le début du segment de code ;;;marque le début du segment de code global

Université Paris 13/Younès Bennani Traitement Informatique des Données 1.. 2

Université Paris 13/Younès Bennani Traitement Informatique des Données 1.. 5

- on lui présente un exemple en entrée et le réseau calcule une sortie qui dépend de l’architecture et des poids appris. A

« Si un ensemble de formes est linéairement séparable, alors l’algorithme d’apprentissage du Perceptron converge vers une solution correcte en un nombre fini

Université Paris 13/Younès Bennani Traitement Informatique des Données 1.. 9

EPAT’14, Carry-Le-Rouet 7-12 juin 2014 Apprentissage par réseaux de neurones artificiels / Younès Bennani (LIPN-Univ. Paris 13) 7.. Le