• Aucun résultat trouvé

5.4 Comparaison des m´ etriques : Mahalanobis g´ en´ eralis´ ee

5.4.3 R´ esum´ e des r´ esultats

A travers de cette ´etude comparative nous avons pu class´es les types des s´equences vid´eo en fonction des m´ethodes d’estimation de mouve- ment adapt´ees et crit`eres appliqu´es. La table 5.4 r´esume ce classement.

5.5

Conclusion

Sans ou avec influence du bruit, les performances d’estimation de mouvement par les m´ethodes propos´ees ”GMM2” et ”GMM3” sont sup´erieures `a celles des m´ethodes classiques ”SAD”, ”SSE” et ”NCC”. Aussi, avec introduction du bruit Gaussien, la m´ethode ”GMM3-2” en prenant en compte la suppression de la composante de faible poids, suppos´ee un bruit Gaussien, parrait la plus efficace et permet une bonne interpr´etation des r´esultats.

Toutefois, il est n´ecessaire d’accorder une attention particuli`ere au probl`eme du choix de la m´etrique utilis´ee comme mesure de similarit´e,

dans ce contexte, les performances des crit`eres bas´es sur les m´etriques de Mahalanobis g´en´eralis´ee et de Kullback-Leibler sont ´evalu´ees, dans les deux cas, sans et avec influence du niveau bruit. Une comparaison de l’estimation de mouvement obtenue par les deux crit`eres peut nous indiquer que :

- En absence du niveau de bruit Gaussien, l’estimation de mouve- ment bas´ee sur le crit`ere de la distance de mahalanobis g´en´eralis´ee est la plus efficace.

Il a ´et´e d´emontr´e au paragraphe 3.2.2 du chapitre 3 que la distance de Mahalanobis est la somme des carr´es de n variables gaussiennes centr´ees r´eduites cela montre que cette distance est plus accommod´ee pour mesurer la similarit´e entre les composantes Gaussiennes.

- En pr´esence du niveau de bruit Gaussien, l’estimation de mouve- ment bas´ee sur le crit`ere de la divergence de Kullback-Leibler conduit `

a de bons r´esultats lorsqu’il est appliqu´ee `a des r´egions non homog`enes au sens de la luminance.

Aussi, dans les r´egions homog`enes bruit´ees, l’estimation de mouve- ment par le crit`ere de la divergence de Kullback-Leibler est possible. La pr´esence du bruit a rendu ces r´egions non homog`enes.

Conclusions g´en´erales et

perspectives

Synth`ese des travaux

Cette th`ese a explor´e le th`eme de l’estimation et l’analyse de mouve- ment dans des s´equences d’images. Nous avons d´evelopp´e une approche statistique inscrite dans le cadre des m´ethodes de mise en correspon- dance, elle diff`ere par le fait que la similarit´e entre les blocs se fait en se basant sur la distribution statistique des donn´ees et non pas sur les donn´ees directement.

L’´etude des diff´erentes m´ethodes d’estimation de mouvement exis- tant dans la litt´erature, pr´esent´ee dans le chapitre 1, nous a permis de constater que l’hypoth`ese d’invariance de la fonction de luminance n’est pas toujours v´erifi´ee, le choix de mod`ele statistique propos´e per- met de contourner ce probl`eme.

Les travaux effectu´es concernent la mod´elisation des s´equences d’images par un m´elange de lois Gaussiennes, comme ´etape pr´ealable `a l’esti- mation du mouvement par la m´ethode de mise en correspondance dans le plan de l’image, le crit`ere de d´ecision du bloc candidat ´etant bas´e sur la minimisation des m´etriques statistiques appliqu´ees entre les composantes du m´elange de lois Gaussiennes. L’´etat de l’art de

cette mod´elisation est pr´esent´ee dans les chapitres 2 et 3.

Deux probl`emes qui ont retenu notre attention : le choix du nombre de composantes Gaussiennes dans le m´elange et le choix du crit`ere de mesure de similarit´e entre ces composantes.

Estimer des nombreux param`etres en utilisant peu de donn´ees, dans notre cas des blocs d’image de (8x8) ou (16x16), peut se r´ev´eler impos- sible ou bien mener `a des estimations tr`es peu robuste. Une ´etape de r´eduction du param`etres consiste `a choisir avec connaissance a priori un nombre de deux composantes dans le m´elange dans le cas des s´equences vid´eo non bruit´ees et de 3 composantes dans le cas des s´equences vid´eo bruit´ees, dont l’objectif de ne pas tenir compte de la composante de faible poids comme test de ressemblance lors de l’op´eration d’estimation de mouvement.

Le deuxi`eme probl`eme pertinent est que dans la litt´erature existe une multitude de mesures de similarit´e entre les m´elanges et peut ˆetre autant de doutes concernant leur utilisation dans des probl`emes de comparaison des m´elanges, les plus utilis´es sont la distance de Ma- halanobis et la Divergence de Kullback-leibler. Toutefois, ces mesures cr´eent de singularit´e pour les matrices de covariances singuli`eres. Dans la pratique des probl`emes apparaissent souvent dans l’apprentissage de tels mod`eles de m´elange. Les matrices de covariances obtenues ne sont pas toujours bien conditionn´ees et leur inversion pose un probl`eme. Une technique r´epandue consiste `a r´egulariser les solutions. Dans notre impl´ementation, on r´egularise les matrices de covariances en ajoutant `

a celles-ci une faible valeur sur la diagonale : Σ = Σ + λId, o`u λ est en g´en´eral choisi en fonction des valeurs de la diagonale de la matrice.

Aussi il peut arriver que cette r´egularisation soit r´ealis´ee au cours des it´erations de l’algorithme EM, c’est particuli`erement le cas lorsqu’il y a peu de donn´ees par rapport au nombre de composantes du m´elange, dans ce cas nous introduisons la formule de mise `a jour de la matrice de covariance : Σ(it+1) = (1 − ε)Σ(it) + ε.M , o`u M est une matrice sym´etrique d´efinie positive et ε est un r´eel positif compris entre 0 et 1. Cette nouvelle formule nous permet d’avoir des matrices de co- variances dont le d´eterminant ne d´epasse pas un seuil d´efini par M et ε. Bien que cet ajustement soit appliqu´e, la divergence de Kullback leibler perd ses capacit´es discriminatoires dans les zones homog`enes de l’image, cr´e´ee par une op´eration non d´efinie obtenue lorsque le rap- port des d´eterminants des matrices de covariances de la formule 3.14 est n´egatif ou tend presque vers une valeur nulle. La distance de Ma- halanobis g´en´eralis´ee est une approche utilis´ee pour contrer les effets ind´esirables de la divergence de KullBack-leibler dans les r´egions ho- mog`enes au sens de la luminance. Toutefois, la pr´esence du niveau de bruit dans les r´egions homog`enes a rendu possible l’estimation de mouvement par le crit`ere de la divergence de Kullback-Leibler.

Les crit`eres d’estimation de mouvement bas´es sur les m´etriques de la distance de Mahalanobis g´en´eralis´ee et sur la divergence de KullBack-leibler sont expos´ees dans le chapitre 4, nos r´esultats du chapitre 5 confirment que l’estimation de mouvement des s´equences d’image non bruit´ees bas´ee sur le crit`ere de la distance de Mahala- nobis g´en´eralis´ee est plus efficace. Sur les s´equences d’image bruit´ees pr´esentant des zones non homog`enes au sens de la luminance, l’estima- tion de mouvement bas´ee sur le crit`ere de la divergence de Kullback- Leibler montre la plus efficace.

Une autre exp´erience d’estimation de mouvement a ´et´e r´ealis´ee par la m´ethode GMM3-2 c’est-`a-dire sans tenir compte de la composante de faible poids dans test de ressemblance, on supposant que cette composante repr´esente un bruit Gaussien corr´el´e, les r´esultats sont plus performants par rapport `a ceux produits par la m´ethode GMM3.

perspectives

A l’issue des travaux ´etudi´es dans ce manuscrit, des perspectives int´eressantes apparaissent. La premi`ere concerne le choix du nombre de composantes dans le m´elange de lois Gaussiennes, nous avons choisi un mod`ele de m´elange de lois Gaussiennes dont le nombres des com- posantes est fixe pour toute l’image, ce qui n’est pas toujours le cas. Nous envisageons effectuer cette op´eration a posteriori, ceci n´ecessite un mod`ele de m´elange avec un nombre de composantes de lois Gaus- siennes variables afin d’adapter le mod`ele correspondant sur chacune des r´egions de l’image. Ceci revient alors `a estimer un nombre impor- tant de param`etres.

La deuxi`eme perspective porte sur la suppression des composantes corr´elatives au bruit Gaussien. La pr´esence de bruit dans les s´equences d’images introduit un petit nombre de points dans l’ensemble des points utilis´es pour l’estimation des param`etres du m´elange de lois. Ainsi, par exemple, quand la r´egion analys´ee comporte plus de com- posantes Gaussiennes que d’objets en mouvement, une composante Gaussienne sera attribu´ee au bruit pr´esent. Or, ces composantes ne repr´esentent ´evidemment pas un objet en mouvement. Il faut donc les supprimer. Nous avons choisi d’effectuer cette op´eration a posteriori

grˆace aux proportions de chaque distribution dans le m´elange. En effet, les points correspondants `a du bruit sont peu nombreux par rapport `a ceux correspondant `a des composantes Gaussiennes. Ainsi les compo- santes Gaussiennes ayant une proportion faible par rapport aux autres peuvent ˆetre consid´er´es comme du bruit. Finalement, dans le cas o`u les points sont r´epartis ´equitablement suivant p composantes, les pro- portions αk vaudront 1p. Le seuil est donc choisi proportionnellement

`

a cette r´epartition uniforme des points. Le test peut s’´ecrire :

αk @Cbruit ≷ ∃Cbruit 0.1 p (5.1)

Le r´esultat de ce test est soit ∃Ck, et dans ce cas, le composante Ck

existe, soit @Ck, et le composante Ck n’existe pas, ce qui peut se

r´ev´eler coˆuteux en temps de calcul.

La troisi`eme perspective concerne l’am´elioration de complexit´e de la m´ethode propos´ee, cette perspective sera propos´ee en utilisant prin- cipalement trois techniques d’optimisation.

La premi`ere consiste `a calculer le min(d1, d2, d3) complet le moins

souvent possible [41][42]. En effet il est possible d’´eliminer rapidement certains candidats avant mˆeme d’avoir effectu´e tous les calculs. Cette op´eration r´eduit ´enorm´ement le nombre de calculs.

La deuxi`eme technique consiste `a r´eduire le nombre de candidats et `a orienter la recherche le plus tˆot possible vers les candidats les plus probables.

vid´eo `a traiter. En effet il existe une certaine continuit´e de mouvement (spatialement et temporellement), c’est `a dire que le mouvement d’un bloc a une grande chance d’ˆetre proche de celui d’un bloc voisin, ou du bloc colocalis´e dans l’image pr´ec´edente. Il est alors possible d’avoir un ensemble de pr´edicteurs de mouvement recherch´e grˆace aux r´esultats d´ej`a obtenus. La pertinence des diff´erents pr´edicteurs est ´evalu´ee (en calculant le min(d1, d2, d3) avec le bloc courant) puis une recherche

locale autour des meilleurs pr´edicteurs est effectu´ee pour raffiner le r´esultat.

Annexe A

Algorithme EM dans le cas de

m´elanges de lois Gaussiennes

Dans cette annexe, nous d´eveloppons les ´equations permettant de d´ecrire l’algorithme EM [16] pour les m´elanges de lois Gaussiennes multidimensionnelles. L’algorithme EM est compos´e de deux ´etapes successives et it´er´ees. La premi`ere est l’´etape E pour ”Expectation” qui consiste `a calculer une fonction Q(θ, θit). La deuxi`eme, l’´etape M pour ”Maximisation”, est, comme son nom l’indique, la maximisation de cette fonction ou autrement dit la mise `a jour des param`etres du mod`ele.

A.1

Le mod`ele de m´elange et la fonction Q(θ, θ

(it)

)

Nous nous sommes plac´es dans le cadre d’un m´elange de p lois normales de moyennes µk et de matrices de covariances Σk, l’ensemble

de ces param`etres est not´e θ. Le mod`ele de m´elange [17] consid`ere que les donn´ees observ´ees Xj, j ∈ [1, N ], sont des r´ealisations de variables

al´eatoires ind´ependantes issues d’une mˆeme loi : f (x/θ) =

p

X

k=1

o`u chaque αk est un scalaire positif, appel´e poids du m´elange, tel

que Pp

k=1αk = 1, il repr`esente la proportion de fk(x/µk, Σk) dans

le m´elange, les p et les αk sont des inconnues en plus `a estimer. Les

fk(x/µk, Σk), k ∈ [1, p], sont des densit´es de probabilit´e, les compo-

santes du m´elange. La vraisemblance d’un tel mod`ele est : L(X1−→N/θ) = N Y j=1 p X k=1 αkfk(Xj/µk, Σk) (A.2)

C’est la vraisemblance des donn´ees observ´ees. Or, chaque donn´ee Xj est issue d’une des p composantes du m´elange. Nous en d´eduisons

qu’interviennent des donn´ees cach´ees eX1−→N indiquant de quelle com-

posante les donn´ees X1−→N sont issues. eXj est donc un vecteur `a p

dimensions avec une seule composante non nulle et la probabilit´e que la ki´eme soit ´egale `a 1 est P( eXjk = 1) = αk. La log-vraisemblance

compl`ete du mod`ele, c’est-`a-dire la log-vraisemblance de l’ensemble des N couples (Xj, eXj) s’´ecrit :

lnL(X1−→N, eX1−→N/θ)  = N X j=1 p X k=1 ln  αXe k j k fk(Xj/µk, Σk) e Xk j  = N X j=1 p X k=1 e Xjkln (αkfk(Xj/µk, Σk)) (A.3)

Cette log-vraisemblance est une variable al´eatoire puisque X1−→N

sont inconnues et gouvern´ees par une distribution cach´ee. Nous ´eliminons ce caract`ere al´eatoire en prenant l’esp´erance de la log-vraisemblance compl`ete du mod`ele. La fonction Q(θ, θ(it)) obtenue, it ´etant le num´ero de l’it´eration courante, intervenant dans l’algorithme EM, prend donc

la forme : Q(θ, θ(it)) = E  ln(L(X1−→N, eX1−→N/θ))/X1−→N, θ(it)  = N X j=1 p X k=1 ln (αkfk(Xj/µk, Σk)) E  e Xjk/X1−→N, θ(it)  (A.4)

Les composantes du m´elange sont des lois normales multidimension- nelles, donc : fk(Xj/µk, Σk) = 1 (2Π)n2 |P k| 1 2 exp  (−1 2(Xj− µk) TX k −1 (Xj− µk)  (A.5)

o`u n est la dimension des donn´ees. Le dernier terme de l’´equation (A.4), not´e Wkj est d´evelopp´e par la formule de Bayes :

Wkj(it) = E  e Xjk/X1−→N, θ(it)  . = P  e Xjk = 1/X1−→N, θ(it)  . = P (Xj/ eX k j = 1, θ (it))P ( eXk j = 1/θ (it)) f (Xj/θ(it)) . = α (it) k fk(Xj/µ (it) k , Σ (it) k ) Pp k=1α (it) k fk(Xj/µ (it) k , Σ (it) k ) . (A.6)

Ce poids Wkj(it) est la probabilit´e a posteriori pour la donn´ee Xj de

suivre la loi f (Xj/θ(it)). Pour finir le d´eveloppement de la fonction

Q(θ, θ(it)), nous introduisons les expressions analytiques des compo- santes du m´elange dans l’´equation (A.4) :

Q(θ, θ(it)) = −nN 2 ln(2Π) + N X j=1 p X k=1 Wkj(it)  ln(αk) − 1 2(ln |Σk| + (Xj− µk) TX k −1 (Xj− µk)  . (A.7)

C’est l’´etape E.

A.2

Mise `a jour de l’estimation des param`etres

Une fois le calcul de la fonction Q(θ, θ(it)) termin´e, il ne reste plus qu’`a la maximiser par rapport aux moyennes µk et aux matrices de

covariances Σk avec k ∈ [1, p]. Cette op´eration revient `a dire que les

d´eriv´ees partielles de Q(θ, θ(it)) en fonction de chaque param`etre θ sont nulles.

Dans la suite, nous noterons sous la lettre c, tous les termes constants par rapport au param`etre selon lequel nous d´eveloppons la d´eriv´ee partielle de l’expression analytique de Q(θ, θ(it)).

Documents relatifs