• Aucun résultat trouvé

Le nombre de composante de m´elange est un point crucial de notre travail, pour am´eliorer les r´esultats et simplifier les algorithmes, il faut se pencher sur la question du nombre de Gaussiennes `a consid´erer pour le m´elange. Cette question est actuellement largement abord´ee dans la litt´erature mais les r´esultats apport´es n´ecessitent des hypoth`eses trop restrictive.

de composantes dans le m´elange : BIC (Bayesian Information Cri- terion), [44], ICL (Integrated Completed Likelihood) [43][45] et NEC (Normalized Entropy Criterion), [46]. Si le crit`ere BIC doit ˆetre pr´ef´er´e dans une optique d’estimation de la densit´e des donn´ees, il est pr´ef´erable d’utiliser les crit`eres ICL ou NEC. De plus, bien que NEC soit plus sp´ecifiquement adapt´e au choix du nombre de composantes du m´elange, il est pr´ef´erable d’utiliser le crit`ere ICL qui est particuli`erement d´evou´e `

a mettre en ´evidence des groupes plus s´epar´es au sien des donn´ee (les d´emonstrations de ces crit`eres sont pr´esent´ees dans l’annexe B.

Les petits ´echantillons de donn´ees peuvent poser un probl`eme lors de la phase d’estimation des param`etres du mod`ele, en particulier pour le nombre de composantes dans le m´elange, l’estimation de ce nombre n’est optimale que lorsque le nombre d’observations tend vers un nombre tr`es grand.

En pr´esence de petits ´echantillons de donn´ees avec un nombre im- portant de composantes, l’estimation de ce nombre est instable. Esti- mer des nombreux param`etres en utilisant peu de donn´ees, dans notre cas des blocs d’image de (8x8) ou (16x16), peut se r´ev´eler impraticable ou bien mener `a des estimations tr`es peu robuste.

Une ´etape de r´eduction des param`etres fait partie du choix par une connaissance a priori du nombre de composantes dans le m´elange. Dans notre cas ce nombre est fix´e `a deux lois gaussiennes dans une premi`ere tentative et `a trois lois gaussiennes dans une deuxi`eme ten- tative.

2.6

Conclusion

Ce chapitre d´ecrit une synth`ese p´edagogique sur la th´eorie de l’al- gorithme EM et son utilisation dans les mod`eles lin´eaires mixtes en vue du calcul des estimations des composantes de variance par maxi- mum de vraisemblance. Dans une premi`ere partie, on rappelle les bases th´eoriques de l’algorithme. L’accent est mis sur l’importance du concept de donn´ees manquantes qui permet bien de comprendre pourquoi l’algorithme pr´esente deux phases : la 1`ere consiste en la d´etermination de l’esp´erance de la log-vraisemblance des donn´ees compl`etes par rapport `a la distribution conditionnelle des donn´ees manquantes sachant les donn´ees observ´ees et les valeurs courantes du param`etre ; la seconde permet d’actualiser ces valeurs courantes par maximisation de la fonction obtenue pr´ec´edemment.

En pr´esence de petits ´echantillons de donn´ees et dans le but de d’estimer peu de param`etres, le choix du nombre de composantes du m´elange est fix´e par une connaissance a priori `a deux lois gaus- siennes dans une premi`ere tentative et `a trois lois gaussiennes dans une deuxi`eme tentative.

Chapitre 3

Mesure de similarit´e entre

m´elanges de lois Gaussiennes

3.1

Introduction

La notion de mesure de similarit´e est une notion cl´e pour l’esti- mation de mouvement par la mise en correspondance des blocs. En effet, l’estimation de cette mesure entre les composantes du m´elange de lois Gaussiennes, explicit´ees dans le chapitre 2, est l’´etape pr´ealable `

a partir de laquelle l’estimation de mouvement peut ˆetre effectu´es. Les mesures de similarit´e sont souvent des m´etriques qui quanti- fient la proximit´e des images dans leur espace de caract´eristiques. Le postulat de d´epart suppose que plus les distances sont faibles, plus les images se ressemblent. Le choix d’une m´etrique permettant d’ex- primer la similarit´e de deux images n’est g´en´eralement pas ais´e et les contraintes sont souvent fortes, notamment en temps de calcul ou la taille des bases d’images `a parcourir. En g´en´eral, les mesures de simi- larit´es doivent v´erifier les propri´et´es suivantes :

l’espace des caract´eristiques se ressemblent.

- la scalabilit´e : qui exprime le fait que le calcul de distance doit rester invariant `a l’augmentation de la taille de la base d’images.

- la robustesse : qui implique que la mesure de similarit´e doit ˆetre robuste `a un certain nombre de variations de conditions d’acquisition des images (r´esolution, qualit´e des donn´ees), et de transformations (´echelle, homoth´etie, translation, rotation)

Dans la suite de ce chapitre, nous allons nous int´eresser `a la mesure de la similarit´e entre deux m´elanges de lois Gaussiennes, f1(x/θ1) et

f2(x/θ2) d´efinies dans le chapitre 2 et qui sont d´ecrites par les en-

sembles de param`etres :

θ1 = (α1, α2, ..., αk, µ1, µ2, ..., µk, Σ1, Σ2, ..., ΣK) θ2 = (α 0 1, α 0 2, ..., α 0 k, µ 0 1, µ 0 2, ..., µ 0 k, Σ 0 1, Σ 0 2, ..., Σ 0 K)

3.2

Distance de Mahalanobis

3.2.1 D´efinition

En statistique, la distance de Mahalanobis est bas´ee sur la corr´elation entre des variables par lesquelles diff´erents mod`eles peuvent ˆetre iden- tifi´es et analys´es. C’est une mani`ere utile de d´eterminer la similarit´e entre une s´erie de donn´ees connues et inconnues. Elle diff`ere de la dis- tance euclidienne par le fait qu’elle prend en compte la corr´elation de la s´erie de donn´ees. Ainsi, `a la diff´erence de la distance euclidienne o`u toutes les composantes des vecteurs sont trait´ees de la mˆeme fa¸con, la distance de Mahalanobis accorde un poids moins important aux com- posantes les plus bruit´ees (en supposant que chaque composante soit

une variable al´eatoire de type gaussienne).

Si on calculait la distance entre deux groupes en utilisant les dis- tances euclidiennes, on aurait la distance entre les valeurs moyennes de chaque groupe mais cela signifierait que chaque point du groupe serait consid´er´e `a une distance isotrope de la moyenne. Alors qu’en utili- sant la matrice de Mahalanobis, on prend en compte la r´epartition g´eom´etrique des points autour de cette moyenne.

La distance de Mahalanobis est souvent utilis´ee pour la d´etection de donn´ees aberrantes dans un jeu de donn´ees, ou bien pour d´eterminer la coh´erence de donn´ees fournies par un capteur par exemple : cette distance est calcul´ee entre les donn´ees re¸cues et celles pr´edites par un mod`ele [25].

En pratique, la distance de Mahalanobis d’une s´erie de valeurs de moyenne µ = (µ1, µ2, µ3, ..., µn)T et poss´edant une matrice de cova-

riance Σ (voir matrice (3.2)) pour un vecteur `a plusieurs variables x = (x1, x2, x3, ..., xn)T est d´efinie comme suit [37] :

DM(x) = q (x − µ)T (Σ)−1(x − µ) (3.1) Avec : Σ =           

var(x1) cov(x1, x2) ... cov(x1, xn)

cov(x2, x1) var(x2) ... cov(x2, xn)

. . . .

. . . .

. . . .

cov(xn, x1) cov(xn, x2) ... var(xn)

           (3.2) O`u :

cov(xi, xj) = h(xi − µi)(xj − µj)i = hxixji − hxiihxji

var(xi) = cov(xi, xi)

µ = hxii

o`u h, i d´esigne la moyenne Il est `a noter que :

- Si la matrice de covariance est la matrice identit´e, cette distance est alors la mˆeme que la distance euclidienne.

- Si la matrice de covariance est diagonale, elle est appel´ee distance euclidienne normalis´ee.

La figure 3.1 repr´esente en deux dimensions la distance de Ma- halanobis pour diff´erentes matrices de covariances Σ. Une valeur de Mahalanobis ´egale `a k correspond `a un ´ecart de k.σ par rapport au barycentre de l’ellipse (σ valeur de la diagonale de la matrice).

Σ1 =  1 0 0 1  Σ2 =  1 1/2 1/2 1  Σ3 =  1 -1/4 -1/4 1 

3.2.2 Distribution de probabilit´e de la distance de Mahala- nobis

La distance de Mahalanobis entre deux vecteurs de Rm d´efinie une distance. Les propri´et´es de semi-d´efinie positive de la distance d´ecoulant directement du fait qu’une matrice de covariance est sym´etrique d´efinie positive. On peut donc diagonaliser la matrice de covariance :

Σ = P DP−1 (3.3)

Avec P la matrice des vecteurs propres et D la matrice diagonale. Du fait de la sym´etrie de la matrice Σ, la matrice P est orthogo- nale. Si l’on normalise les vecteurs propres, alors P est une matrice orthonormale et PT = P−1. On a donc : Σ = P DPT (3.4) = n X i=1 λiviviT (3.5)

Avec les λi les valeurs propres et vi les vecteurs propres associ´es.

De plus comme Σ est d´efinie positive, toutes les valeurs propres sont positives. On peut donc ´ecrire :

Σ−1 = n X i=1 1 λi viviT (3.6) En substituant on obtient : DM2 (x) = n X i=1  di 2 √ λi 2 (3.7) Avec le changement de variable di = (x − µ)Tvi. La distance de

Mahalanobis est donc la somme des carr´es de n variables gaussiennes centr´ees r´eduites.

3.3

Divergence de Kullback-Leibler

3.3.1 D´efinition

La distance (ou divergence) de Kullback-Leibler (K-L) est une me- sure de la similarit´e entre deux distributions de probabilit´e.

Soient f1(x) et f2(x) deux distributions de probabilit´e, la divergence

de Kullback-Leibler KL(f1, f2) entre f1(x) et f2(x) est, dans le cas

continu s’exprimer de la fa¸con suivante [38][39] : KL(f1, f2) def = Z f1(x) log f1(x) f2(x) dx (3.8)

L’int´egrale ci-dessus n’est pas toujours d´efinie. Une condition n´ecessaire pour que l’int´egrale converge est que Pf1, la mesure de probabilit´e

sous-jacente `a la fonction de densit´e f1, soit absolument continue par

rapport `a Pf2 la mesure de probabilit´e induite par f2.

Mˆeme si l’information de Kullback-Leibler est utilis´ee pour mesurer un ´ecart entre deux fonctions de densit´e, elle n’est pas une distance au sens topologique du terme. En effet, l’in´egalit´e triangulaire et la propri´et´e de sym´etrie ne sont pas v´erifi´ees.

N´eanmoins, il existe des modifications pour sym´etriser l’informa- tion KL, par exemple en utilisant,

DKL(f1, f2) def

= KL(f1, f2) + KL(f1, f2) (3.9)

On parle alors de divergence de Kullback-Leibler.

KL(f1, f2) ≥ 0 (3.10)

Avec ´egalit´e si et seulement si f1 = f2 presque partout. Cette

propri´et´e justifie en partie l’utilisation de l’information de Kullback- Leibler pour mesurer l’´ecart entre deux fonctions de densit´e.

La figure 3.2 donne une interpr´etation graphique plus subjective sur l’information de Kullback-Leibler. La figure `a gauche une repr´esentation d’une seule r´egion, soient f1 et f2 deux distributions de probabilit´e de

cette r´egion, l’information de Kullback-Leibler entre f1 et f2 est proche

de 0.

R´egion d’une seule distribution R´egion de deux distributions

Fig. 3.2 – L’information de Kullback-Leibler dans deux r´egions de distributions de probabilit´e diff´erentes

La figure `a droite, une repr´esentation de deux r´egions, soit f1 une

distribution de probabilit´e de la r´egion de bas et f2 une distribution

de probabilit´e de la r´egion de haut, l’information de Kullback-Leibler entre f1 et f2 est diff´erente de 0 et par cons´equent l’information est

3.3.2 Propri´et´es

- Formulation sous forme d’esp´erance En d´eveloppant l’int´egrale 3.8, on obtient :

KL(f1, f2) def = Z f1(x) log(f1(x)) − Z f1(x) log(f2(x)) (3.11)

Ce qui peut encore s’exprimer sous la forme d’une esp´erance rela- tivement `a la mesure Pf1,

KL(f1, f2) def

= EPf[log(f1(x))] − EPf[log(f2(x))] (3.12)

- Propri´et´e d’additivit´e

L’information Kullback-Leibler est additive, c’est-`a-dire que l’infor- mation entre deux lois conjointes de variables i.i.d. est la somme de l’information des lois marginales.

- Changement d’´echelle

On note de plus que l’information Kullback-Leibler est invariante par changement d’´echelle.

3.4

Formalisation et r´egularisation

3.4.1 Formalisation

En pratique, dans le cas de deux distributions Gaussiennes N1(Σ1, µ1)

m´etriques de Mahalanobis g´en´eralis´ee et de Kullback-Leibler comme suit :

- Distance de Mahalanobis g´en´eralis´ee

M aha(N1, N2) = (µ1 − µ2)T(Σ1−1 + Σ2−1)(µ1 − µ2) (3.13) - Divergence de Kullback-Leibler KL(N1, N2) = 1 2(log | Σ2 | | Σ1 |+ Tr(Σ −1 2 Σ1) + (µ1− µ2) T 2)−1(µ1− µ2) − d) (3.14)

Avec d la dimension du bloc de l’image consid´er´e. La d´emonstration de l’´equation 3.14 est donn´ee dans [27].

3.4.2 R´egularisation

Toutefois, ces mesures cr´eent de singularit´e pour les matrices de covariances singuli`eres. Dans la pratique des probl`emes apparaissent souvent dans l’apprentissage de tels mod`eles de m´elange. Les matrices de covariances obtenues ne sont pas toujours bien conditionn´ees et leur inversion pose un probl`eme. Une technique r´epandue consiste `a r´egulariser les solutions. Dans notre impl´ementation, on r´egularise les matrices de covariances lors de l’estimation des matrices de covariances au niveau le l’´etape M de l’algorithme (EM), formule (2.12) du para- graphe 2.4.3 (chapitre 2).

Il est possible aussi de traiter cette r´egularisation au niveau des calculs des distances de Mahalanobis g´en´eralis´ee et Kullback-Leibler, lors de l’estimation de mouvement, en ajoutant aux matrices de co- variances une faible valeur sur la diagonale, la nouvelle matrice de covariance devienne :

O`u λ est choisi en fonction des valeurs de la diagonale de la matrice et Id la matrice identit´e .

Cette derni`ere r´egularisation est n´ecessaire lorsque on veut r´eduire le nombre de calculs de l’algorithme (EM).

Bien que cet ajustement soit appliqu´e, la divergence de Kullback- leibler perd ses capacit´es discriminatoires dans les zones homog`enes de l’image, cr´e´ee par une op´eration non d´efinie obtenue lorsque le rapport des d´eterminants des matrices de covariances de la formule 3.14 est n´egatif ou tend presque vers z´ero.

3.5

Conclusion

Il existe dans la litt´erature une multitude de mesures de simila- rit´e et peut ˆetre autant de doutes concernant leur utilisation dans des probl`emes de comparaison des m´elanges, les plus utilis´ees sont la dis- tance de Mahalanobis g´en´eralis´ee et la divergence de Kullback-leibler. Toutefois, ces mesures cr´eent de singularit´e pour les matrices de co- variances singuli`eres, dans ce cas, soit nous introduisons la nouvelle formule (2.12) de mise `a jour de la matrice de covariance soit nous r´egularisons les matrices de covariances en ajoutant `a celles-ci une faible valeur sur la diagonale : Ensuite, grˆace `a cette r´egularisation, nous avons justifi´e l’utilisation de ces deux m´etriques dans la com- paraison des m´elanges de lois Gaussiennes. Cependant, l’utilisation de la divergence de Kullback-leibler n’est pas assez g´en´erale, Cette m´etrique perd ses capacit´es discriminatoires dans les zones homog`enes de l’image, pour contrer ces effets ind´esirables, la r´esolution n´ecessite l’introduction des contraintes suppl´ementaires.

La validation empirique de ces mesures est pr´esent´ee dans les cha- pitres 4 et 5.

Chapitre 4

Estimation de mouvement suivant

une mod´elisation des s´equences

vid´eo par un m´elange de lois

Gaussiennes

4.1

Introduction

Ce chapitre d´ecrit une nouvelle m´ethode d’estimation du mouve- ment bas´ee sur le crit`ere de mise en correspondance des blocs en mod´elisant les blocs de l’image par un m´elange de lois Gaussiennes.

Les param`etres du m´elange (poids des composantes du m´elange, vecteurs moyens et matrices de covariances) sont estim´es par l’algo- rithme Expectation Maximisation (EM) qui maximise le crit`ere log- vraisemblance des donn´ees compl´et´ees.

La similarit´e entre chaque bloc de l’image courante et le bloc qui lui ressemble le plus dans une fenˆetre de recherche de l’image de r´ef´erence est mesur´ee par minimisation des m´etriques de Mahalanobis g´en´eralis´ee et de Kullback-Leibler appliqu´ees entre les composantes

Fig. 4.1 – Vecteur de d´eplacement obtenu par mise en correspondance des blocs de 8 sur 8 pixels ou 16 sur 16 pixels.

des m´elanges.

Ce proc´ed´e approxime le mouvement apparent entre deux images par un mod`ele translationnel propre `a chaque bloc issu du d´ecoupage de l’image courante.

Dans notre cas, l’image est divis´ee en blocs non chevauch´es de tailles identiques [24][31]. Chacun de ces blocs de l’image courante est mis en correspondance avec l’ensemble des positions dans une fenˆetre de recherche dans l’image de r´ef´erence voir figure 4.1. Le d´eplacement retenu est celui qui optimise la fonction coˆut.

En g´en´eral, aucune information a priori n’est disponible pour esti- mer le mouvement, une recherche exhaustive du meilleur appariement donne la solution optimale mais s’av`ere demandeur d’une grande puis- sance de calcul, en surmonte ce probl`eme en restreignant l’espace de

Fig. 4.2 – Principe de la m´ethode de mise en correspondance de blocs, le macrobloc sera pris centr´ee dans la fenˆetre de recherche

recherche `a partir d’une connaissance a priori des param`etres suivants : - La taille de bloc parcourue est fix´ee `a 8x8 ou `a 16x16, en g´en´erale sera choisie arbitrairement en fonction de l’amplitude maximale des mouvements attendus dans la sc`ene.

- La fenˆetre de recherche sera prise centr´ee sur le bloc dans l’image courante, comme le pr´esente sch´ematiquement la figure 4.2. La valeur de p est fix´ee `a 5 ou `a 7 pour limiter l’espace de recherche.

4.2

La fonction coˆut

4.2.1 Cas de mod`ele de m´elange de deux lois Gaussiennes L’estimation de mouvement par appariement de bloc (block-matching) consiste, connaissant un macrobloc dans une image courante, `a trouver le macrobloc qui lui ressemble le plus dans une image de r´ef´erence. La position des deux macroblocs ´etant connue, on en d´eduit un vecteur de d´eplacement.

Fig. 4.3 – Distance entre les composantes du m´elange Gaussiennes : (d1) les com-

posantes des poids forts et (d2) les composantes des poids faibles.

Le crit`ere de ressemblance entre deux macroblocs consiste `a calculer le min(d1, d2), voir figure 4.3.

- d1 la distance de Mahalanobis g´en´eralis´ee ou la divergence Kullback-

Leibler entre les composantes du m´elange pond´er´ees par les valeurs des poids forts des composantes dans le m´elange.

- d2 la distance de Mahalanobis g´en´eralis´ee ou la divergence Kullback-

poids faibles des composantes dans le m´elange. Ces distances sont d´efinies comme suit :

- Cas de distances de Mahalanobis g´en´eralis´ee :

d1 = α11µ11− α12µ12 T  α11 Σ11−1+ α12 Σ12−1  α11µ11− α12µ12 (4.1) d2= α21µ21− α22µ22 T α21 Σ21−1 + α22 Σ22−1 α21µ21− α2 2µ22  (4.2)

- Cas de divergences de Kullback-Leibler :

d1= 1 2  log| α 1 2Σ12| | α1 1Σ11| + Tr α12(Σ12)−1α11Σ11 + α1 1µ 1 1− α 1 2µ 1 2 T α12(Σ12)−1 α11µ11− α12µ 1 2 − d  (4.3) d2= 1 2  log| α 2 2Σ22| | α2 1Σ21| + Tr α22(Σ22)−1α21Σ21 + α2 1µ 2 1− α 2 2µ 2 2 T α22(Σ22)−1 α21µ21− α2 2µ 2 2 − d  (4.4)

4.2.2 Cas de mod`ele de m´elange de trois lois Gaussiennes Dans ce mod`ele de m´elange de trois lois Gaussiennes, le crit`ere de ressemblance entre deux macroblocs consiste `a calculer le min(d1, d2, d3)

avec d1 et d3 comme d´efinies dans le cas de mod`ele de m´elange de deux

lois Gaussiennes et d2 c’est la distance de Mahalanobis g´en´eralis´ee

ou la divergence Kullback-Leibler entre les composantes du m´elange pond´er´ees par les valeurs des poids moyens des composantes dans le m´elange, voir figure 4.4, ces distances sont d´efinies comme suit :

- Cas de distance de Mahalanobis g´en´eralis´ee :

d1 = α11µ11− α21µ12 T  α11 X1 1 + α 1 2 X1 2 −1 α11µ11− α1 2µ12  (4.5) d2 = α21µ21− α22µ22 T  α21 X2 1 + α 2 2 X2 2 −1 α21µ21− α22µ22 (4.6) d3= α31µ31− α32µ32 T α31X3 1 + α 3 2 X3 2 −1 α31µ31− α32µ32 (4.7)

Fig. 4.4 – Distance entre les composantes du m´elange Gaussiennes : (d1) les compo-

santes des poids forts, (d2), les composantes des poids moyens et (d3) les composantes

- Cas de divergence de Kullback-Leibler : d1= 1 2  log| α 1 2Σ12| | α1 1Σ11| + Tr α12(Σ12)−1α11Σ11 + α11µ11− α21µ12 T α12(Σ12)−1 α11µ11− α12µ12 − d  (4.8) d2= 1 2  log| α 2 2Σ22| | α2 1Σ 2 1| + Tr α22(Σ22)−1α21Σ21 + α2 1µ 2 1− α 2 2µ 2 2 T α22(Σ22)−1 α21µ21− α2 2µ 2 2 − d  (4.9) d3= 1 2  log| α 3 2Σ32| | α3 1Σ31| + Tr α32(Σ32)−1α31Σ13 + α31µ31− α32µ32 T α32(Σ32)−1 α13µ31− α32µ32 − d  (4.10)

4.3

Recherche de la distance minimale inter-blocs

(r´ef´erence / courante)

L’approche propos´ee est bas´ee sur le suivi d’une d´emarche de concep- tion en trois ´etapes :

1. Chaque bloc, que ce soit dans l’image courante ou dans l’image de r´ef´erence est mod´elis´e par un m´elange de deux ou trois lois Gaus- siennes, cette mod´elisation consiste `a estimer les param`etres du m´elange : poids des composantes, vecteurs moyens et matrices de covariances, comme explicit´es dans le chapitre 2.

2. Les param`etres sont tri´es en se basant sur les poids des com- posantes dans le m´elange, ceci permet d’identifier, les compo- santes des poids forts et des poids faibles (m´elange de deux lois) d’une part et d’autre part les composantes des poids forts, poids moyens et poids faibles (m´elange de trois lois), comme pr´esent´ees sch´ematiquement dans les figures 4.3 et 4.4.

(a) Les distances de Mahalanobis g´en´eralis´ees et les divergences de Kullback-Leibler entre un bloc de l’image courante et l’en- semble des blocs dans une fenˆetre de recherche 7x7 dans l’image de r´ef´erence sont enregistr´ees dans les matrices M1,

M2 et M3.

Dans le cas de la mod´elisation de m´elange par deux lois Gaussiennes, la matrice M1 contienne les valeurs des dis-

tances entre les composantes des poids forts et la matrice

Documents relatifs