• Aucun résultat trouvé

G´en´eralit´es sur le filtrage particulaire et la fusion

le filtrage particulaire est particuli`erement adapt´e `a la fusion de donn´ees.

De nombreuses approches de la fusion de donn´ees consid´erent une fusion dans la fonc- tion de vraisemblance [P´erez et al., 2004; Li et al., 2006; Mu˜noz Salinas et al., 2008; Chateau et al., 2009; Yang et al., 2010] alors que tr`es peu utilisent la fusion de donn´ees dans la fonc- tion d’importance pour guider l’´echantillonnage des particlues [Jin, 2009]. Le principe a ´et´e initi´e par Isard et al. [Isard and Blake, 1998b] dans une strat´egie de filtrage particulaire appel´ee

ICONDENSATION. Pour cela, nous pr´esentons ici une fonction d’importance bas´ee sur des

cartes de saillance probabilistes, issues des diff´erents d´etecteurs de personnes, visuels et RF, ainsi qu’un m´ecanisme d’´echantillonnage par rejet afin de (re-)positionner les particules dans les zones pertinentes de l’espace d’´etat lors du suivi. L’utilisation d’une fonction d’importance combinant au sein d’une mˆeme carte de saillance, les mod`eles de dynamiques de la cible aux techniques d’identification pr´esent´ees pr´ec´edemment constitue un apport ind´eniable quant `a l’ef- ficacit´e de l’´echantillonnage des particules. Son couplage avec une strat´egie d’´echantillonnage des particules par rejet (ou rejection sampling), unique dans la litt´erature, permet d’am´eliorer les performances de notre algorithme de suivi multimodal en terme de sensibilit´e aux occulta- tions, aux mauvaises associations de donn´ees et aux pertes temporaires de cibles par rapport `a un syst`eme uniquement bas´e sur la vision.

3.3

G´en´eralit´es sur le filtrage particulaire et la fusion

de donn´ees

Rappelons tout d’abord le principe du filtrage particulaire au travers des strat´egies les plus r´epandues, i.e.SIR2,CONDENSATION3etICONDENSATION4.

Les techniques de filtrage particulaire sont des m´ethodes de simulation s´equentielles de type Monte Carlo permettant l’estimation du vecteur d’´etat d’un syst`eme Markovien non lin´eaire soumis `a des excitations al´eatoires possiblement non Gaussiennes [Arulampalam et al., 2002; Doucet et al., 2001]. En tant qu’estimateurs Bay´esiens, leur but est d’estimer r´ecursivement la densit´e de probabilit´e a posteriori p(xk|z1:k) du vecteur d’´etat xk `a l’instant k conditionn´e sur

l’ensemble des mesures z1:k = z1, . . . , zk, une connaissance a priori de la distribution du vecteur

d’´etat initial x0 pouvant ˆetre ´egalement prise en compte. A chaque instant image k, la densit´e

p(xk|z1:k) est approxim´ee au moyen de la distribution ponctuelle

p(xk|z1:k) ≈ N X i=1 w(i)k δ(xk− x(i)k ), N X i=1 w(i)k = 1, (3.1)

exprimant la s´election d’une valeur – ou particule – x(i)k avec la probabilit´e – ou poids – w(i)k o`u

i= 1, . . . , N est l’index de la particule. Les moments conditionnels de xk, tels que l’estimateur

2Pour Sampling Importance Resampling. 3Pour Conditional Density Propagation.

du minimum d’erreur quadratique moyenne (ou MMSE, pour Minimum Mean Square Error)

E[xk|z1:k] = PNi=1w (i) k x

(i)

k , peuvent alors ˆetre approch´es par ceux de la variable al´eatoire ponc-

tuelle de densit´e de probabilit´e (3.1). Ainsi, nos diff´erents filtres sont bas´es sur cet estimateur MMSE.

Les particules x(i)k ´evoluent stochastiquement dans le temps. Elles sont ´echantillonn´ees selon une fonction d’importance visant `a explorer adaptativement les zones ”pertinentes“ de l’espace d’´etat.

3.3.1

Algorithme g´en´erique ouSIR

L’algorithme SIR (pour Sampling Importance Resampling), pr´esent´e par l’algorithme 3.1,

est enti`erement d´ecrit par une connaissance a priori p(x0), sa dynamique p(xk|xk−1) ainsi que

ses observations p(zk|xk). Son initialisation consiste en la d´efinition d’un ensemble de particules

pond´er´ees d´ecrivant la distribution a priori p(x0), e.g. en affectant des poids identiques {w(i)0 = 1

N} N

i=0 `a des ´echantillons x (1) 0 , . . . , x

(N )

0 ind´ependamment et identiquement distribu´es (ou i.i.d.)

selon p(x0).

A chaque instant k, disposant de la mesure zket de la description particulaire {x(i)k−1, w (i) k−1}

de p(xk−1|z1:k−1), la d´etermination de l’ensemble des particules pond´er´ees {x(i)k , w (i)

k } associ´e

`a la densit´e a posteriori p(xk|z1:k) se fait en deux ´etapes. Dans un premier temps, les x(i)k

sont ´echantillonn´es selon la fonction d’importance q(xk|xk−1, zk) ´evalu´ee en xk−1 = x(i)k−1, cf.

l’´equation 3.2. Les poids w(i)k sont ensuite mis `a jour de fac¸on `a assurer la coh´erence de l’ap- proximation (3.1). Ce calcul ob´eit `a l’´equation 3.3, o`u p(xk|xk−1) rend compte de la dynamique

du processus d’´etat sous-jacent, et la vraisemblance p(zk|xk) d’un ´etat possible xkvis `a vis de la

mesure zk est ´evalu´ee `a partir de la densit´e de probabilit´e relative au lien ´etat-observation.

Toute m´ethode de simulation s´equentielle de type Monte Carlo souffre du ph´enom`ene de d´eg´en´erescence, au sens o`u apr`es quelques it´erations, les poids non n´egligeables tendent `a se concentrer sur une seule particule. Afin de limiter ce ph´enom`ene, une ´etape de r´e´echantillonnage, introduite par Gordon et al. dans [Gordon et al., 1993], peut ˆetre ins´er´ee en fin de chaque cycle de l’algorithme SIR (cf. ´etape 11 de l’algorithme 3.1). Ainsi, N nouvelles particules ˜xik sont obtenues par r´e´echantillonnage avec remise dans l’ensemble{xjk} selon la loi P (˜xik= xjk) = wkj. Les particules associ´ees `a des poids wjk ´elev´es sont dupliqu´ees, au d´etriment de celles faiblement pond´er´ees qui disparaissent, de sorte que la s´equencex˜1k, . . . ,x˜Nk est i.i.d. au regard de (3.1).

Cette ´etape de redistribution peut soit ˆetre appliqu´ee syst´ematiquement, soit ˆetre d´eclench´ee seulement lorsqu’un crit`ere d’efficacit´e du filtre passe en dec¸`a d’un certain seuil [Doucet et al., 2000; Arulampalam et al., 2002]. Le calcul des moments de (3.1) doit de pr´ef´erence faire inter- venir l’ensemble des particules pond´er´ees avant r´e´echantillonnage.

En compl´ement de la fonction d’importance, la fonction de mesure n´ecessite l’utilisation d’indices visuels persistants et, par cons´equent, plus sujets aux ambigu¨ıt´es dans les sc`enes en- combr´ees. Une alternative peut ˆetre de consid´erer une fusion multi-attributs lors de la mise `a jour

3.3. G ´EN ´ERALIT ´ES SUR LE FILTRAGE PARTICULAIRE ET LA FUSIONDE DONN ´EES47 ALG. 3.1 Algorithme de filtrage particulaire g´en´erique (SIR).

ENTREES´ : [{x(i)k−1, wk−1(i) }]Ni=1, zk

1: si k = 0 alors

2: Echantillonner x(1)0 , . . . , x(N )0 i.i.d. selon p(x0), et poser w(i)0 = N1, i= 1, . . . , N

3: fin si

4: si k ≥ 1 alors —Soit [{x(i)k−1, wk−1(i) }]Ni=1l’ensemble des particules de p(xk−1|z1:k−1)—

5: pour i= 1, . . . , N faire

6: « Propager » la particule x(i)k−1en simulant de mani`ere ind´ependante

x(i)k ∼ q(xk|x(i)k−1, zk) (3.2)

7: Mettre `a jour le poids wk(i)associ´e `a x(i)k suivant

wk(i) ∝ wk−1(i) p(zk|x (i) k )p(x (i) k |x (i) k−1) q(x(i)k |x(i)k−1, zk) (3.3) 8: fin pour

9: Proc´eder `a une ´etape de normalisation telle queP

iw (i) k = 1

10: Calculer le moment conditionnel de xk, e.g. l’estim´e MMSE Ep(xk|z1:k)[xk], `a partir de l’approximationPN

i=1w (i)

k δ(xk− x(i)k ) de p(xk|z1:k)

11: R´e´echantillonner{x(i)k , wk(i)} selon P ˜x(i)k = x(j)k  = wk(j), ce qui conduit `a un ensemble de particules pond´er´ees {˜x(i)k ,N1} tel que PN

i=1w (i) k δ(xk− x(i)k ) et N1 PN i=1δ(xk− ˜x(i)k ) approximent p(xk|z1:k)

12: Affecter x(i)k et w(i)k avecx˜(i)k et N1

13: fin si

des poids. Soit Lm sources de mesures(zk1, . . . , zkLm) mutuellement ind´ependantes, la fonction

de mesures unifi´ee peut ˆetre factoris´ee de la mani`ere suivante :

p(z1k, . . . , zLm k |x (i) k ) ∝ Lm Y l=1 p(zkl|x(i)k ). (3.4)

3.3.2

Echantillonnage guid´e par la dynamique ouCONDENSATION

L’algorithme de CONDENSATION [Isard and Blake, 1998a] (pour Conditional Density

Propagation) est d´eriv´e du SIR par le fait que les particules sont ´echantillon´ees suivant la dy-

namique du syst`eme, c’est `a dire q(xk|x(i)k−1, zk) = p(xk|x(i)k−1). Dans le domaine du suivi visuel,

l’algorithme original [Isard and Blake, 1998a] d´efini la vraissemblance de chaque particule `a partir de primitives visuelles bas´ees sur les contours. D’autres indices visuels ont aussi ´et´e ex- ploit´es [P´erez et al., 2004]. Dans ces conditions, l’´echantillonage des particules peut ˆetre sujet `a

une perte de diversit´e dans l’exploration de l’espace d’´etat. La fonction d’importance q(.) doit

alors ˆetre d´efini avec pr´ecaution. Or, l’algorithme deCONDENSATION ´echantillonne les par-

ticules x(i)k suivant la dynamique du syst`eme sans tenir compte des mesures zk donc, certaines

particules peuvent obtenir une faible vraissemblance p(zk|x(i)k ) et par cons´equent un poids faible

lors de l’´etape 7 de mise `a jour de l’algorithme 3.1, ce qui peut entraˆıner une baisse significative des performances.

3.3.3

Echantillonnage guid´e par la mesure ouICONDENSATION

Le r´e´echantillonnage utilis´e seul ne suffit pas `a limiter efficacement le ph´enom`ene de d´e- g´en´erescence ´evoqu´e pr´ec´edemment. En outre, il peut conduire `a une perte de diversit´e dans l’exploration de l’espace d’´etat, du fait que la description particulaire de la densit´e a posteriori risque de contenir de nombreuses particules identiques. La d´efinition de la fonction d’importance

q(xt|xt−1, zt) – selon laquelle les particules sont distribu´ees – doit donc ´egalement faire l’objet

d’une attention particuli`ere [Arulampalam et al., 2002].

En suivi visuel, les modes des fonctions de vraisemblance p(zk|xk) relativement `a xk sont

g´en´eralement tr`es marqu´es. Il s’en suit que les performances sont souvent assez m´ediocres pour l’algorithme de CONDENSATION. Du fait que les particules sont positionn´ees selon la dy-

namique du processus d’´etat et ”en aveugle“ par rapport `a la mesure zk, un sous-ensemble

important d’entre elles peut ˆetre affect´e d’une vraisemblance tr`es faible par l’´equation wk(i) ∝ wik−1p(zk|x(i)k ), d´egradant ainsi significativement les performances de l’estimateur.

Une alternative, appel´eeMSIR (pour Measurement-based SIR), consiste `a ´echantillonner les

particules `a l’instant k suivant une fonction d’importance π(xk|zk) d´efinie sur les mesures cour-

rantes. La premi`ere strat´egieMSIR ´etait l’algorithme de ICONDENSATION [Isard and Blake,

1998b], qui effectuait l’´echantillonnage suivant des d´etections de blobs de couleur. D’autres fonc- tionnalit´es de d´etections visuelles peuvent aussi ˆetre utilis´ees, e.g. la d´etection/reconnaissance de visages, ou toute autre primitive intermittente qui, malgr´e un aspect sporadique, peut ˆetre tr`es discriminante lorsqu’elle est pr´esente [P´erez et al., 2004]. La fonction d’importance classique

π(xk|zk) peut alors ˆetre ´etendue afin de consid´erer Lddiff´erentes mesures, i.e.

π(x(i)k |z1...Ld k ) = Ld X l=1 κlπ(x(i)k |zkl), avec X κl= 1 (3.5)

o`u π(xk|zkl) est la fonction d’importance relative au d´etecteur zkl et κl est le coefficient de

pond´eration de la mesure zkl.

Au sein d’un tel algorithme, si une particule x(i)k , exclusivement ´echantillonn´ee suivant les mesures π(.), est inconsistante avec son pr´ed´ecesseur x(i)k−1 du point de vue de la dynamique, la mise `a jour de son poids wk(i) suivant (3.3) donnera une valeur faible. Une alternative est de d´efinir la fonction d’importance q(x(i)k |x(i)k−1, zk) comme une somme pond´er´ee de fonctions

3.4. FONCTION D’IMPORTANCE ET FUSION DE DONN ´EES 49