• Aucun résultat trouvé

Reconnaissance Statistique des Formes

N/A
N/A
Protected

Academic year: 2022

Partager "Reconnaissance Statistique des Formes"

Copied!
24
0
0

Texte intégral

(1)

Université Paris 13/Younès Bennani Reconnaissance des Formes 1

Reconnaissance Statistique des Formes

6

Younès BENNANI

Université Paris 13/Younès Bennani Reconnaissance des Formes 2

(2)

Université Paris 13/Younès Bennani Reconnaissance des Formes 3

Principe général :

«!Dans une séquence optimale de décisions, quelle que soit la première décision prise, les décisions subséquentes forment une sous-séquence optimale, compte tenu des résultats de la première décision!» Bellman (1957), Dynamic Programming

Princeton University Press.

Programmation Dynamique

But :

Chercher la ressemblance entre deux chaînes par le calcul d’une distance.

A B

M Chemin optimal

Chemin optimal Chemin optimal

Université Paris 13/Younès Bennani Reconnaissance des Formes 4

Programmation Dynamique exemple

Objectif :

Construire une route entre deux villes V1 et V12, minimisant le coût de construction.

V1

V2

V3

V4

V9

V10

V11

V5

V7

V8

V6

V12

C(xi,xj)=C(V1,V4)=6 0

5

7

8

12 4

9 8 5

7

4 6

3 4 8 0

4 6

5 2

7

(3)

Université Paris 13/Younès Bennani Reconnaissance des Formes 5

Programmation Dynamique exemple

Problème :

Chercher les villes intermédiaires Vi, Vj, Vk, qui minimisent le coût de construction C(V1, V12).

C V

(

1,V12

)

= C V

(

1,Vi

)

+C V

(

i,Vj

)

+C V

(

j,Vk

)

+C V

(

k,V12

)

Vi!E1=

{

V2,V3,V4

}

Vj!E2=

{

V5,V6,V7,V8

}

Vk!E3=

{

V9,V10,V11

}

C V

(

1,Vj

)

=minVi!E1

[

C V

(

1,Vi

)

+C V

(

i,Vj

) ]

"Vj!E2

C V

(

1,Vk

)

=min

Vj!E2

C V

(

1,Vj

)

+C V

(

j,Vk

)

[ ]

"Vk!E3

C V

(

1,V12

)

=Vmin

k!E3

C V

(

1,Vk

)

+C V

(

k,V12

)

[ ]

Université Paris 13/Younès Bennani Reconnaissance des Formes 6

Programmation Dynamique exemple

C V( 1,V5)=min

C V( 1,V2)+C V( 2,V5)=0+7=7

C V( 1,V3)+C V( 3,V5)= / !

C V( 1,V4)+C V( 4,V5)= / !

"

#

$

$

%

&

' '

=7

C V( 1,V6)=min

C V( 1,V2)+C V( 2,V6)=0+8=8

C V( 1,V3)+C V( 3,V6)=5+4=9

C V( 1,V4)+C V( 4,V6)= / !

"

#

$

$

%

&

' '

=8

C V( 1,V7)=min

C V( 1,V2)+C V( 2,V7)=0+12=12

C V( 1,V3)+C V( 3,V7)=5+8=13

C V( 1,V4)+C V( 4,V7)=6+5=11

"

#

$

$

%

&

' '

=11

C V( 1,V8)=min

C V( 1,V2)+C V( 2,V8)= / !

C V( 1,V3)+C V( 3,V8)=5+9=14

C V( 1,V4)+C V( 4,V8)=6+7=13

"

#

$

$

%

&

' '

=13

C V( 1,V9)=min

C V( 1,V5)+C V( 5,V9)=7+4=11

C V( 1,V6)+C V( 6,V9)=8+6=14

C V( 1,V7)+C V( 7,V9)=11+4=15

C V( 1,V8)+C V( 8,V9)= / !

"

#

$

$

$

%

&

' ' '

=11

C V( 1,V10)=min

C V( 1,V5)+C V( 5,V10)= / !

C V( 1,V6)+C V( 6,V10)=8+3=11

C V( 1,V7)+C V( 7,V10)=11+8=19 C V( 1,V8)+C V( 8,V10)=13+4=17

"

#

$

$

$

%

&

' ' '

=11

C V( 1,V11)=min

C V( 1,V5)+C V( 5,V11)= / !

C V( 1,V6)+C V( 6,V11)= / !

C V( 1,V7)+C V( 7,V11)=11+0=11

C V( 1,V8)+C V( 8,V11)=13+6=19

"

#

$

$

$

%

&

' ' '

=11

C V( 1,V12)=min

C V( 1,V9)+C V( 9,V12)=11+5=16 C V( 1,V10)+C V( 10,V12)=11+3=14

C V( 1,V11)+C V( 11,V12)=11+7=18

!

"

#

#

$

%

&

&

=14'(V1,V2,V6,V10,V12)

(4)

Université Paris 13/Younès Bennani Reconnaissance des Formes 7

Distance entre séquences

La distance entre séquences peut être calculée par minimisation de distances locales entre les éléments des séquences : optimisation de la ressemblance.

Déterminer la ressemblance entre une forme candidate et plusieurs formes de référence (prototypes), de longueur non nécessairement égales.

Exemple en biologie :

Séquences de nucléotides : Séquence 1 = ACGTCGTTC Séquence 2 = AGGCCTCGC

4 correspondances Séquence 1 = ACG - - TCGTTC

Séquence 2 = AGGCCTCG - -C

6 correspondances

Université Paris 13/Younès Bennani Reconnaissance des Formes 8

Distance d’édition

la comparaison peut se faire en terme de transformations permettant de passer d'une séquence à l'autre.

La distance d’édition D entre X et Y, est le coût minimum d’une suite de transformations élémentaires permettant de passer de X à Y.

On considère 3 transformations élémentaires : - Insertion d’un élément xi

- Suppression d’un élément yi - Substitution d’un élément xi par yj

! est le caractère vide

L’algorithme de Wagner et Fisher calcule la distance d’édition avec une complexité O(n.m) par programmation dynamique.

(5)

Université Paris 13/Younès Bennani Reconnaissance des Formes 9

Principe

Il existe 3 manières de progresser dans les 2 séquences pour aboutir à (xr , yk) :

• Venir de (xr-1 , yk-1) et faire SUB(xr , yk)

• Venir de (xr , yk-1) et faire CRE(!, yk)

• Venir de (xr-1 , yk) et faire DES(xr , !)

On choisit le chemin qui minimise la distance D(r,k) entre les 2 sous-séquences X(r) et Y(k) selon la formule suivante :

X (n ) = { } x

i i=1Kn

Y (m) = { } y

i i=1Km

xr-1 xr xr+1 yr+1

yk yk-1

Université Paris 13/Younès Bennani Reconnaissance des Formes 10

Algorithme

Début

n " length(x), m " length(y) D(0,0) " 0

pour i de 0 à n faire D(i,0) " i finpour

pour j de 0 à m faire D(0,j) " j finpour

pour i de 1 à n faire

pour j de 1 à m faire CRE d1 " D(i-1, j) + 1 DES d2 " D(i, j-1) + 1

SUB d3 " D(i-1, j-1) + 1 - # (xi,yj) D(i, j) " min(d1, d2, d3)

finpour finpour

D(n,m) = distance entre les 2 séquences Fin

#(xi,yj):

Fonction de Kronecker

#=1 si xi=yj

#=0 sinon

Distance d’édition

(6)

Université Paris 13/Younès Bennani Reconnaissance des Formes 11

Exemple

d e s u c x e e x h a u s t e d

Suppression d’un symbole de X Insertion d’un symbole de Y dans X

Remplacer un symbole de X par un de Y Pas de changement

Y = e x h a u s t e d X = e x c u s e d

D(X,Y)=3

X Y

Université Paris 13/Younès Bennani Reconnaissance des Formes 12

Alignement Temporel Dynamique

Dynamic Time Warping : DTW

Etant donné un signal d’entrée T, l’objectif de la DTW est de trouver l’indice du mot le plus semblable parmi l’ensemble des mots d’un Dictionnaire

!

n ˆ

!

D=

{

R1,R2, ...,RN

}

!

n =ˆ argmin

1"n"N

D R

(

n,T

)

(7)

Université Paris 13/Younès Bennani Reconnaissance des Formes 13

Alignement Temporel Dynamique

Dynamic Time Warping : DTW

!

R(p,n)=

r1n r2n L L rpn M M M M M M M M M M r12 r22 L L rp2 r11 r21 L L rp1

"

#

$

$

$

$

$ $

%

&

' ' ' ' ' '

T(p,m)=

t11 t12 L L t1m t21 t22 L L M

M M M M M M M M M M tp1 L L L tpm

!

"

#

#

#

#

$

%

&

&

&

&

DTW se propose d'établir entre 2 matrices R et T (mots) le rapprochement qui maximise les meilleures mises en correspondance.

référence

test

Chemin de recalage

r( n) r( j(k))

r(1)

t(1) t(2 ) t(i(k)) t(m)

R(p,n)

T(p,m) r(j(k)) coïncide avec t(i(k))

DTW permet de réaliser (de façon optimale) un alignement temporel non linéaire de façon récursive.

Université Paris 13/Younès Bennani Reconnaissance des Formes 14

Alignement Temporel Dynamique

Dynamic Time Warping : DTW

Chemins de recalage :

l’ajustement non-linéaire entre R et T peut être représenté par un chemin C :

!

C = c

1

, c

2

, ..., c

K

c

k

= ( i

(k)

, j

(k)

)

Cette séquence met en coïncidence le i(k)ème

vecteur de la forme R et le j(k)ème vecteur de la forme T.

Elle est appelée la « warping function » ou le chemin de recalage.

Chemin de recalage

r(n) r( j(k ))

r(1)

t(1) t(2 ) t(i(k)) t(m) R(p,n)

T(p,m) r(j(k)) coïncide avec t(i(k)) le nombre de coïncidences effectuées par le chemin de recalage.

(8)

Université Paris 13/Younès Bennani Reconnaissance des Formes 15

Alignement Temporel Dynamique

Dynamic Time Warping : DTW

!

D(C)=

d c( )i .wi i=1

K

"

wi

i=1 K

"

La somme pondérée des erreurs le long du chemin de recalage C est :

Le problème à résoudre devient :

Coefficient de pondération

!

D(Rn,T)=min

C

d c( )i .wi i=1

K

"

wi

i=1 K

"

#

$

%

%

%

%

&

' ( ( ( (

Ce qui revient à chercher parmi tous les chemins possibles, le chemin qui minimise la dissemblance entre R et T.

Université Paris 13/Younès Bennani Reconnaissance des Formes 16

Restrictions sur les possibilités d ’évolution du chemin de recalage : Pour correspondre à une réalité physique, le chemin de recalage doit respecter certaines conditions de continuité :

La monotonie :

croissante respectant l ’évolution dans le temps :

La régularité :

un chemin ne peut aboutir au point (i,j) qu’en passant obligatoirement par les points (i-1,j) ou (i-1,j-1) ou (i,j-1) Conditions aux limites :

mettre en correspondance les éléments terminaux :

Alignement Temporel Dynamique

Dynamic Time Warping : DTW

!

i(k"1)#i(k) j(k"1)# j(k)

!

i(1)=1 i(K)=n j(1)=1 j(K)=m

(xi-1 , yj-1) (xi , yj-1) (xi-1 , yj)

(xi , yj)

W=2 W=1

W=1

(9)

Université Paris 13/Younès Bennani Reconnaissance des Formes 17

Alignement Temporel Dynamique

Dynamic Time Warping : DTW

Dans ce cas, le problème à résoudre devient :

!

D(R,T)= 1 n+mmin

C d c( )i .wi i=1

K

"

Coefficient de pondération :

et donc :

La distance :

!

wk=i(k)"i(k"1)+ j(k)" j(k"1)

!

wk

k=1 K

"

=n+m

!

D(C)= 1

n+m d c( )i .wi i=1

K

"

Ce problème peut être résolu efficacement par programmation dynamique.

Cette technique est basée sur le principe de l’optimalité (Bellman).

Pour chaque point de l’espace, évaluer la meilleure manière d’entrer dans cet état en respectant les contraintes et en minimisant la contribution à la distance globale.

Université Paris 13/Younès Bennani Reconnaissance des Formes 18

Alignement Temporel Dynamique

Dynamic Time Warping : DTW

Il suffit donc d’étudier les transitions autorisées et d’appliquer la relation récursive locale :

!

D(1,1)=d(r(1),t(1))

D(i,j)=min

D(i"1,j)+d(r(i),t(j)) D(i"1,j"1)+2d(r(i),t(j))

D(i,j"1)+d(r(i),t(j))

#

$ %

&

% D(R,T)= 1

n+mD(n,m)

(10)

Université Paris 13/Younès Bennani Reconnaissance des Formes 19

Algorithme

Début

Initialisation

Dcum(1, 1) " d(1, 1) x 2 pour j de 2 à m faire

Dcum(1, j) " ! finpour

Programmation Dynamique

pour i de 2 à n faire

pour j de 1 à m faire

finpour finpour

Calcul du taux de dissemblance

Fin.

Dcum(i,j)= min

Dcum(i!1,j)+d(i,j) Dcum(i!1,j!1)+2.d(i,j)

Dcum(i,j!1)+d(i,j)

"

#

$

% $

D(X,Y)= Dcum(n,m) n+m

Université Paris 13/Younès Bennani Reconnaissance des Formes 20

DTW : exemple

T = 1 4 9

!

"

# #

$

%

&

&

2 7 6

!

"

# #

$

%

&

&

1 22

3

!

"

# #

$

%

&

&

9 7 2

!

"

# #

$

%

&

&

3 5 4

!

"

# #

$

%

&

&

' ( ) )

* + , , R =

2 4 9

!

"

# #

$

%

&

&

2 7 6

!

"

# #

$

%

&

&

4 20

3

!

"

# #

$

%

&

&

2 22

3

!

"

# #

$

%

&

&

8 7 2

!

"

# #

$

%

&

&

4 4 4

!

"

# #

$

%

&

&

' ( ) )

* + , ,

6 5 4 3 2 1

1 2 3 4 5 Distance de Hamming

6 ! 55 58 25 19

5 ! 48 36 15 24

4 ! 38 13 36 55

3 ! 20 12 31 48

2 ! 2 21 32 37

1 2 8 33 50 57

1 2 3 4 5

D(T , R) = 19

6 + 5 = 1.7

R

T

Chemin de recalage

(11)

Université Paris 13/Younès Bennani Reconnaissance des Formes 21

DTW pour le classement

A A A B B B C

C

B A C

Prototypes Classe C

Prototypes Classe B

Prototypes Classe A

Test

Université Paris 13/Younès Bennani Reconnaissance des Formes 22

Méthodes stochastiques

B A C

Modèle Classe C

Modèle Classe B

Modèle Classe A

Test

(12)

Université Paris 13/Younès Bennani Reconnaissance des Formes 23

Méthodes Stochastiques

Modèles de Markov Cachés Hidden Markov Models (HMMs)

Dynamic Time Warping (DTW) comparent un échantillon à une référence en utilisant une distance.

Méthodes Stochastiques comparent un échantillon avec un modèle, prenant en compte plus de variabilité.

La distance est remplacée par des probabilités calculées par apprentissage.

Les HMMs introduits par BAUM dans les années 60.

Ils sont utilisés pour modéliser des séquences d ’observations.

Ils sont utilisés à partir des années 70 en reconnaissance de la parole où ils se sont imposés comme le modèle de référence.

Appliqués ensuite à la reconnaissance de caractères manuscripts, au traitement d ’images, à la bioinformatique, ...

Université Paris 13/Younès Bennani Reconnaissance des Formes 24

Méthodes Stochastiques

Hidden Markov Models (HMMs) Exemple

pile:1 ƒace:1

S1 S2

0.3 0.4

0.7

0.6

O = pppffpppfffppfffffpp

V = { p, f }

S = S

1

S

1

S

1

S

2

S

2

S

1

S

1

S

1

S

2

S

2

S

2

S

1

S

1

S

2

S

2

S

2

S

2

S

2

S

1

S

1

(13)

Université Paris 13/Younès Bennani Reconnaissance des Formes 25

Méthodes Stochastiques

Hidden Markov Models (HMMs) Exemple

O = pppffpppfffppfffffpp

V = { p, f }

S = KKKKKKKK

?

p : 0.75 ƒ : 0.25

p : 0.2 ƒ : 0.8

S1 S2

0.3 0.4

0.7

0.6

Université Paris 13/Younès Bennani Reconnaissance des Formes 26

Méthodes Stochastiques

Hidden Markov Models (HMMs) Exemple

a : 1 a : 0.2

b : 0.8

b : 0.75 c : 0.25

a : 0.6 b : 0.1 c : 0.3

c : 1

S1 S2 S3 S4 S5

0.5 0.3

0.7

1

0.25

0.25

1

1

V = { a, b , c }

s1 a s1 a s2 a

s3 b s4 b s4 b

s5 c s5 c s5 c

s5 c s5 c s5 c

s5 c s5 c s5 c

s2 b s2 b s2 b

"1.6 10-3 "1.9 10-4 "3.2 10-5

(14)

Université Paris 13/Younès Bennani Reconnaissance des Formes 27

Méthodes Stochastiques

Hidden Markov Models (HMMs) Notations

! = ( A, B, " )

V=

{ }

vi i=1

M un alphabet de M symboles O=

{ }

ot t=1

T un ensemble d'observations où ot !V S =

{ }

si i=1

N un ensemble de N états

!=

{ }

"i i=1

N un vecteur de distribution d'états initiaux

A=

{ }

aij i,Nj=1 matrice carrée des transitions

où aij est la probabilité de passer de l'état sià l'état sj

aij !0 et aij =1

j=1 N

"

B=

{

bj(k)

}

i,j=1

N matrice des probabilités de production du symbole vk

alors que!se trouve à l'état sj

bj(k)"0 et bj(k)=1

k=1 M

#

Université Paris 13/Younès Bennani Reconnaissance des Formes 28

Méthodes Stochastiques

Hidden Markov Models (HMMs)

Les 3 problèmes classiques des HMMs

1. Évaluation :

Soit un HMM ! et une séquence de symbole O = o

1

, o

2

, …, o

T

donnés.

Quelle est la probabilité de générer O avec ! ?

2. Décodage :

Quelle est la séquence d ’états Q = q

1

, q

2

, …, q

T

de ! qui a la

probabilité maximale de générer O ?

3. Apprentissage :

Comment ajuster les paramètres de ! de manière à maximiser la

Probabilité de générer O ?

(15)

Université Paris 13/Younès Bennani Reconnaissance des Formes 29

Méthodes Stochastiques

Hidden Markov Models (HMMs) Problème 1 : Évaluation

Soit un HMM ! et une séquence de symbole O = o

1

, o

2

, …, o

T

donnés.

Calculer P(O / ! )

- Méthode directe :

consiste à énumérer toutes les séquences d’états possibles de longueur T.

- Algorithme de Forward-Backward :

l’observation peut se faire en 2 temps :

- émission du début O(1:t) en aboutissant à l’état qi au temps t

- émission de la fin O(t+1:T) sachant que l’on part de qi

Université Paris 13/Younès Bennani Reconnaissance des Formes 30

Méthodes Stochastiques

Hidden Markov Models (HMMs) Évaluation : Méthode directe

P(O / ! )

La probabilité de la séquence d’observation O = o1, o2, …, oT

étant donné le modèle !, est égale à la somme sur tous les chemins d’états possibles Q des probabilités conjointes de O et de Q :

P(O / !) = P(O, Q / !) = P(O / Q, !) P(Q / !)

"

Q

"

Q

(16)

Université Paris 13/Younès Bennani Reconnaissance des Formes 31

Méthodes Stochastiques

Hidden Markov Models (HMMs) Évaluation : Méthode directe

P(O / ! )

P(O / Q, ! ) = b

q1

(o

1

) b

q2

(o

2

) ... b

qT

(o

T

) P(Q / !) = "

q1

a

q1q2

a

q2q3

... a

qT#1qT

P(O / !) = "

q1

b

q1

(o

1

) a

q1q2

b

q2

(o

2

) ... a

qT#1qT

b

qT

(o

T

)

$

Q

Or et

$ 2T multiplications par séquence d’états possible Dans le pire des cas : NT séquences d ’états possibles

$ O(T NT) opérations.

Ex. : N=5 et T=100 $ " 10 72 opérations

Université Paris 13/Younès Bennani Reconnaissance des Formes 32

Méthodes Stochastiques

Hidden Markov Models (HMMs) Évaluation : Forward-Backward

P(O / ! )

l’observation peut se faire en 2 temps :

- émission du début O(1:t) en aboutissant à l’état qi au temps t

- émission de la fin O(t+1:T) sachant que l’on part de qi

P(O / ! ) = " (t , q

i

) # (t, q

i

)

qi

$

Probabilité d ’émettre le début O(1:t) en aboutissant à l’état qi au temps t

Probabilité d ’émettre la fin O(t+1:T) sachant que l’on part de qi Le calcul de % se fait avec t croissant

tandis que celui de & se fait avec t décroissant d ’où Forward-Backward

(17)

Université Paris 13/Younès Bennani Reconnaissance des Formes 33

Méthodes Stochastiques

Hidden Markov Models (HMMs) Procédure Forward

P(O/!)= "(t,qi)#(t,qi)

qi

$

= "t(i)#t(i)

qi

$

!

t

(i ) = P(o

1

o

2

K o

t

,q

t

= s

i

/ " ) à t = 1 on a :

!

1

(i) = "

i

b

i

(o

1

) 1 # i # N

!

pour 1 " t " T # 1, 1 " i " N

$

t+1

( j) = $

t

(i)a

ij

i=1 N

& %

' ( )

* + b

j

(o

t+1

)

P(O / ! ) = "

T

(i)

i=1 N

#

Initialisation :

Induction :

Terminaison :

$ O(T N2) opérations.

Ex. : N=5 et T=100 $ " 3000 opérations

Université Paris 13/Younès Bennani Reconnaissance des Formes 34

Méthodes Stochastiques

Hidden Markov Models (HMMs) Procédure Backward

P(O/!)= "(t,qi)#(t,qi)

qi

$

= "t(i)#t(i)

qi

$

!

t

(i) = P(o

t+1

o

t+2

K o

T

, q

t

= s

i

/ " ) à t = T on a :

!

T

(i) = 1 1 " i " N

!

pour T "1 # t # 1, 1 $ i $ N

%

t

(i) = a

ij

j=1 N

& b

j

(o

t+1

) %

t+1

( j )

P(O / ! ) = "

i

b

i

(o

1

) #

1

(i)

i=1 N

$

Initialisation :

Induction :

Terminaison :

$ O(T N2) opérations.

Ex. : N=5 et T=100

$ " 3000 opérations

(18)

Université Paris 13/Younès Bennani Reconnaissance des Formes 35

Méthodes Stochastiques

Hidden Markov Models (HMMs) Procédure Backward

!

P(O/")= #t(i)$t(i)

qi

%

!

P(O / " ) = #

T

(i)

i=1 N

$ = %

i

b

i

( ) o

1

&

1

(i)

i=1 N

$

Calcul de la probabilité d’observation :

Obtenue en prenant les valeurs de % et & à un instant t quelconque :

Cependant, on utilise le plus souvent les valeurs obtenues pour deux cas particuliers (t=1) ou (t=T) :

Université Paris 13/Younès Bennani Reconnaissance des Formes 36

Hidden Markov Models (HMMs) Procédure Forward-Backward

Exemple

!

A=

0.3 0.5 0.2 0 0.3 0.7

0 0 1

"

#

$

$ $

%

&

' ' '

!

B=

1 0

0.5 0.5

0 1

"

#

$

$ $

%

&

' ' '

!

" = 0.6 0.4 0

#

$

%

% %

&

' ( ( (

1 3 2

0.2

0.7 1

0.3

0.5 0.3

Calcul de % pour la suite d’observations : a a b b

!

V =

{

a,b

}

a a b b S2

S3

S1

0 0 0.162 0.212

0.2 0.072 0.108

0.6 0.18 0 0

+

%1(i) %2(i) %3(i) %4(i)

0.18 0.2232

!

"1(1)=#1b1(a)=0.6$1=0.6

"1(2)=#2b2(a)=0.4$0.5=0.2

"1(3)=#3b3(a)=0$0=0

!

"2(1)=["1(1)#a11+"1(2)#a21+"1(3)#a31]b1(a)

=[0.6#0.3+0.2#0+0#0]#1=0.18

"2(2)=["1(1)#a12+"1(2)#a22+"1(3)#a32]b2(a)

=[0.6#0.5+0.2#0.3+0#0]#0.5=0.18

"2(3)=["1(1)#a13+"1(2)#a23+"1(3)#a33]b3(a)

=[0.6#0.2+0.2#0.7+0#1]#0=0

! a12

! a13

! a23

! a11

! a33

! a22

!

"1

!

"2

!

"3

! b1(a)

!

b2(a)

!

b3(a)

! b1(b)

!

b2(b)

!

b3(b)

t états

(19)

Université Paris 13/Younès Bennani Reconnaissance des Formes 37

Méthodes Stochastiques

Hidden Markov Models (HMMs) Problème 2 : Décodage

Soit un HMM ! et une séquence de symbole O = o

1

, o

2

, …, o

T

donnés.

Quelle est la séquence d’états Q = q

1

, q

2

, …, q

T

de ! qui a la

probabilité maximale de générer O ?

!

P(Q /O, " ) = P(Q,O / " )

Pour cela, on utilise l ’algorithme de Viterbi.

Université Paris 13/Younès Bennani Reconnaissance des Formes 38

Méthodes Stochastiques

Hidden Markov Models (HMMs) Algorithme de Viterbi

Soit !

t

(i) la probabilité du meilleur che min amenant à l' état s

i

à t en é tan t guidé par les t premières observations

!

t

(i) = max

q1q2Kqt"1

P(q

1

K q

t

= s

i

, o

1

o

2

K o

t

/ # )

Références

Documents relatifs

- on connaît les distances entre les points d'un ensemble de données - on cherche à obtenir une représentation en faible dimension de ces points. La méthode de positionnement

1/Trouver les différents chemins possibles permettant de générer la

Quels sont les problèmes que l’on rencontre lorsqu’on veut faire un système de reconnaissance de la qualité de l’air ?.. Présentez brièvement les critères utilisés pour

Quels sont les problèmes qu’on rencontre lorsqu’on veut faire un système de reconnaissance visuelle du visage ?... Page 2 sur 2 Exercice

Chaque forme est étiquetée par un opérateur appelé professeur, cette étiquette permet d’indiquer au module d’apprentissage la classe dans laquelle le professeur souhaite que

Selon vous, quel type d’apprentissage s’adapte bien à la reconnaissance de l’écriture

Expliquez le rôle de l’étape « pré-traitement » dans le processus d’une reconnaissance vocale.. Qu’est ce que les primitives en

Quels sont les problèmes qu’on rencontre lorsqu’on veut faire un système de reconnaissance visuelle du visage ?.. Quels sont les problèmes qu’on rencontre