• Aucun résultat trouvé

3.3 Etat de l’art de la d´etection du mouvement 95 ´

3.3.2 La mod´elisation markovienne

L’approche markovienne en traitement d’images est tr`es utilis´ee dans des domaines aussi vari´es que la restauration d’images bruit´ees, la segmentation d’objets, la mod´elisation de textures ou la synth`ese d’images textur´ees, la classification d’images, l’extraction de contours, ou encore la d´etection du mouvement et l’analyse de sc`enes dynamiques. La mod´elisation markovienne, associ´ee aux techniques d’estimation bay´esienne, est en r´ealit´e une approche statistique qui permet de prendre en compte diverses informations contex- tuelles. Ces informations g´en´eralement issues des relations statistiques existent entre un point et son voisinage et s’expriment sous la forme d’interactions spatiales ou tempo- relles, formant ainsi un ensemble de connaissances a priori. En consid´erant le mouve- ment comme une variation de l’intensit´e des pixels dans l’image et comme un ph´enom`ene al´eatoire, nous pouvons mod´eliser le mouvement comme un ´ev´enement probabiliste [BL93] [MHC94] [Hen96] [CDLC96].

D´efinition 17 Une suite d’images al´eatoire X est une fonction de Ω × Z3 × N dans

{0, . . . , 1}, o`u :

– Ω est l’univers probabiliste, – Z3 est l’espace discret,

– N est le temps discret,

– N ∈ N est le nombre de niveaux de gris.

Pour s∈ Z2× N, X(s) : Ω → {0, . . . , 1} est la variable al´eatoire au site s.

Pour w ∈ Ω, X(ω) : N → {0, . . . , N} est la suite d’images correspondant `a l’´ev`enement ω.

S= Z2× N est l’ensemble des sites et V = {0, . . . , N} est l’ensemble des niveaux des gris, et E = VS

l’ensemble des suites d’images.

Chaˆıne de Markov

D´efinition 18 (chaˆıne de Markov) Une suite (Xn)n de variables al´eatoires `a valeurs

dans E est une chaˆıne de Markov si et seulement si, pour tout n∈ N, pour tout x0, . . . , xn

de E tels que P (X0= x0, . . . , Xn = xn) > 0, et pour tout xn+1 de E :

1. P (Xn+1 = xn+1|X0 = x0, . . . , Xn = xn) = P (Xn+1= xn+1|Xn= xn)

et ∀k > 0 et ∀n > 0, P (Xn+k+1= x|Xn+k = x′) = P (Xn+1 = x|Xn= x′)

2. P (X0 = x0, X1 = x1, . . . , Xn= xn) = qi0pi0i1pi1i2...pin−1in

∀i, j, n ∈ N, pij = P (Xn+1 = xj|Xn= xi) ⇒          ∀i, qi ≥ 0 et n X i=1 qj = 1 ∀i, j, pij ≥ 0 et n X k=1 pik = 1

Une chaˆıne de Markov est caract´eris´ee par la donn´ee, d’une part pij, 1 ≤ i, j ≤ r,

que l’on appelle les probabilit´es de transition de l’´etat i `a l’´etat j, et d’autre part des probabilit´es initiales qi, 1≤ i ≤ r. Les pij forment la matrice de transition de la forme :

p =      p11 p12 . . . p1n p21 . . . p2n .. . ... pn1 . . . pnn     

telle que ∀i, j, pij ≥ 0 et n

X

k=1

pik = 1

Remarque : Soient q(n)i = P (Xn = xj|X0 = xi), la probabilit´e (inconditionnelle) que

la chaˆıne de Markov soit dans l’´etat i `a l’instant n, et soit p(n)ij = P (Xn= xj|X0 = xi), la

probabilit´e conditionnelle de passer de xi `a xj en n ´etapes.

Ainsi, qi(n)= n X j=1 qjp(n)ij ,∀i = 1, . . . , n 1. ∀k ≥ 0, ∀i, j = 1, . . . , n, p(n)ij = P (Xn+k = Ej|Xk = Ei) 2. ∀n ≥ 0, ∀ij = 1, . . . , r, p(1)ij = pij p(n+1)ij = r X k=1 pikpkj(n) Propri´et´e 4 P (Xn+1 = Ein+1, . . . , Xn+k = Ein+k|X0 = Ei0, . . . , Xn = Ein) = pinin+1. . . pin+k−1in+k = P (X1 = Ein+k, . . . , Xk = Ein+k|X0 = Ein) [AG92]

Application `a la d´etection du mouvement

L’approche markovienne est pertinente dans le cadre de la d´etection du mouvement car il n’est pas rare qu’une sc`ene abrite des r´egions (ou des pixels) ou le mouvement est plus souvent observ´es (plus probable). Moyennant l’hypoth`ese de cam´era fixe et d’´eclairement quasi constant de la sc`ene, il existe un lien entre objets mobiles et changements temporels de la fonction de luminance. Cela conduit naturellement `a prendre comme observation la valeur absolue de la d´eriv´ee temporelle de la fonction de luminance I(x, y, t) qui est approch´ee num´eriquement par une diff´erence entre les instants t et dt :

Y (x, y, t) =|I(x, y, t) − I(x, y, t − dt)|

Par ailleurs, les ´etiquettes pertinentes dans le cas de la d´etection sont les suivantes :

I(x, y) = 

0 fixe 1 mobile

L’application de la mod´elisation markovienne `a la d´etection du mouvement se fait en trois ´etapes :

1. une ´etape de mod´elisation (utilisation des champs de Markov) 2. une ´etape de simulation (utilisation des champs de Gibbs)

3. une ´etape d’optimisation (utilisation des algorithmes ICM6 ou recuit simul´e)

Champ al´eatoire

X : Ω → VS o`u S est l’ensemble des sites (ou des pixels) d’une image et V est

l’ensemble des valeurs des sites.

∀w ∈ Ω, Xw : S→ V est la r´ealisation d’un champ al´eatoire.

∀s ∈ S, Xs: Ωs → V est la variable al´eatoire du pixel

V ={0, 1} = {fixe, mobile} et S = Z3 ou S = Z× N

topologie sur S : relation de d´ependance des v.a. Xs

Champ de Markov

Un champ de Markov est d´efini relativement `a un voisinage. A ce voisinage sont associ´ees des cliques, d´efinies comme ´etant des sous-ensembles de sites voisins du site s, incluant ce site et tels que deux sites de la clique soient toujours mutuellement voisins.

(1) (2)

Fig. 3.3 – La forme des diff´erents cliques sur Z2 en 4-connexit´e (1) et en 8-connexit´e (2)

D´efinition 19 Le champ al´eatoire X est un champ de Markov relativement au syst`eme au voisinage de V si et seulement si pour tout s ∈ S et pour tout xr ∈ V :

P (Xs= xs / Xr= xr , r 6= s) = P (Xs = xs / Xr = xr , r ∈ Vs)

La seconde condition induit une propri´et´e de localit´e : la valeur d’une ´etiquette en un site ne d´epend pas des ´etiquettes de tous les autres sites de l’image, mais uniquement des ´etiquettes des sites voisins.

Le champ des ´etiquettes est estim´e au sens du crit`ere du Maximum A Posteriori (MAP). Il conduit `a la recherche de la configuration la plus probable du champ d’´etiquettes par maximisation de la probabilit´e conditionnelle des ´etiquettes relativement aux observa- tions. Ainsi, pour d´etecter le mouvement, nous recherchons la r´ealisation la plus probable d’un champ de Markov dit ”cach´e”, `a partir d’un champ connu dit ”observation”.

Champ de Gibbs

D´efinition 20 (Mesure de Gibbs) X : Ω→ ES est un champ de Gibbs s’il existe une

fonction U(´energie), U : ES → R telle que :

P (X = x) = e

−U (x)

Z

avec Z = X

x∈VS

e−U (x) repr´esente une constante de normalisation, nomm´ee fonction de partition ou mesure de Gibbs (ou de Boltzmann) d’´energie U.

Propri´et´e 5 (Th´eor`eme de Hammersley-Clifford) Soit X un champ al´eatoire `a va- leur dans E tel que ∀x ∈ E, P (X = x) > 0. X est un champ de Markov relativement au syst`eme de voisinage V si et seulement si sa distribution P (X = x) est une mesure de Gibbs associ´ee `a V.

U(x) est la fonction d’´energie associ´ee au mod`ele a priori et s’exprime sous la forme : U(x) =X

c∈C

Vc(x)

o`u C d´esigne l’ensemble des cliques de l’image. Chaque terme Vc(e) est une fonction de

potentiel ´el´ementaire associ´ee `a une clique c donn´ee. La Figure 3.4 pr´esente les param`etres intervenant dans le calcul de la fonctionnelle d’´energie dans le cas du 10-voisinage spatio- temporel (8 voisins spatiaux et 2 voisins temporels).

D´efinition 21 (Mod`ele de Potts) Vx(s, r) = −βsr si x(s) = x(r) sr si x(s)6= x(r) une clique c = (s,r) t s t−1 t+1 r r r r r r r r r r un pixel central s un voisin r

Fig. 3.4 – Les param`etres intervenant dans le calcul de la fonctionnelle d’´energie dans le cas du 10-voisinage spatio-temporel (8 voisins spatiaux et 2 voisins temporels).

Ces potentiels sont d´efinis sp´ecifiquement vis-`a-vis du probl`eme `a r´esoudre, la seule contrainte `a respecter est que chacun de ces potentiels ne d´epende que des sites de la

clique c = (s, r). Ces fonctions de potentiel permettent d’introduire des contraintes sur les solutions recherch´ees dont celle d’homog´en´eit´e spatiale du champ des ´etiquettes7.

U(x) = Um(x) + Ua(x, y)

Le terme Um est appel´e ´energie du mod`ele. Il exprime une hypoth`ese de r´egularit´e par

des potentiels qui mesurent la disparit´e.

Um(x) = X s∈S X r∈VS Vx(s, r) ≃ X s X r ±βsr

Le terme Uaest appel´e ´energie attach´ee aux donn´ees ou ´energie d’ad´equation. Il mesure

un lien significatif entre le r´esultat de la segmentation des donn´ees du probl`eme. Son rˆole consiste `a ´eviter que le terme de r´egularisation repr´esent´e par l’´energie du mod`ele n’´eloigne trop le r´esultat de l’initialisation.

Ua(x, y) = 12 X s∈S (y(s)− Ψ(s))) avec Ψ(s) =  0 si x(s) = 0 fixe βsr si x(s) = 1 mouvement On suppose P (X = x) = e−Um(s)Z s et P (Y = y|X = x) = e−Uα(x,y)

Zr (mod`ele de bruit liant

X et Y ).

alors ArgminxU(x) = argmaxxP (X = x)P (Y = y|X = x) = argmaxxP (X = x|Y =

x) crit`ere Bayesien du Maximum a priori

Conclusion

La minimisation de la fonction ´energie est un probl`eme non trivial car cette fonction est a priori non convexe. Les principales techniques sont les algorithmes de Recuit-simul´e qui offrent de bons r´esultats mais dont le coˆut de calcul est ´elev´e et les algorithmes ICM qui sont des algorithmes de relaxation d´eterministe. Ces algorithmes sont sous- optimaux, puisqu’ils n’autorisent des changements d’´etiquettes que si ceux-ci engendrent une diminution d’´energie. Ils ne garantissent donc pas de trouver le minimum global et sont donc tr`es d´ependants de l’initialisation [Dum96] [BL93]. De plus, les mod`eles d’´etiquetage existants sont fond´es sur certaines hypoth`eses restrictives, par exemple : le d´eplacement de l’objet mobile entre images voisines doit ˆetre sup´erieur `a sa taille ou,

dans le contraire, cet objet ne doit pas ˆetre uniforme. De tels algorithmes sont complexe `a int´egrer dans un circuit comme celui de la r´etine num´erique. Nous verrons dans la suite du manuscrit comment toutefois envisager une implantation, notamment avec l’aide de fonctions asynchrones dont on disposerait dans les futurs mod`eles de r´etines[Gie05].