• Aucun résultat trouvé

Formalisme du filtrage particulaire

Cette section rappelle le principe du filtrage particulaire à travers les stratégiesSIR, CONDEN-SATIONetICONDENSATION. Pour plus de détails, le lecteur pourra se référer à la thèse de L. Brèthes [Brèthes, 2005] réalisée au LAAS-CNRS et dont les travaux ont portés sur le fil-trage particulaire dans un contexte de suivi mono-cible de personnes par vision monoculaire embarquée.

II.2.1 Algorithme générique ou SIR

Les techniques de filtrage particulaire sont des méthodes de simulation séquentielles de type Monte Carlo permettant l’estimation du vecteur d’état d’un système Markovien non nécessaire-ment linéaire soumis à des excitations aléatoires possiblenécessaire-ment non Gaussiennes [Arulampalam et al., 2002, Doucet et al., 2001]. En tant qu’estimateurs Bayésiens, leur but est d’estimer ré-cursivement la densité de probabilité a posteriori p(xt|z1:t) du vecteur d’état xt à l’instant t

conditionné sur l’ensemble des mesuresz1:t = z1, . . . , zt, une connaissancea prioride la dis-tribution du vecteur d’état initialx0 pouvant être également prise en compte. À chaque instant imaget, la densitép(xt|z1:t)est approximée au moyen de la distribution ponctuelle

p(xt|z1:t)≈ N X i=1 witδ(xt−xit), N X i=1 wit= 1, (II.1)

exprimant la sélection d’une valeur, ou « particule », xi

t avec la probabilité, ou « poids », wi t,

i= 1, . . . , N étant l’index de la particule. Les moments conditionnels dext, tels que l’estima-teur du minimum d’erreur quadratique moyenne (ou MMSE, pour "Minimum Mean Square Error") E[xt|z1:t], peuvent alors être approchés par ceux de la variable aléatoire ponctuelle de densité de probabilité (II.1). Ainsi, nos différents filtres sont basés sur cet estimateur MMSE.

Les particulesxi

tévoluent stochastiquement dans le temps. Elles sont échantillonnées selon une fonction d’importance visant à explorer adaptativement les zones « pertinentes » de l’espace d’état.

L’algorithme générique de filtrage particulaire est présenté dans la table II.1. Son

initiali-1: SIt= 0(INITIALISATION) ALORS

2: Échantillonnerx1

0, . . . , xN

0 i.i.d. selonp(x0), et poserwi

0= N1,i= 1, . . . , N

3: FIN SI

4: SIt≥1ALORS

5: POURi= 1, . . . , N,FAIRE 6: « Propager » la particulexi

t1en simulant de manière indépendante

xit∼q(xt|xit1, zt) (II.2)

7: Mettre à jour le poidswi

tselon l’équation wit∝wit1p(zt|xi t)p(xi t|xi t1) q(xi t|xi t1, zt) (II.3) préalablement à une étape de normalisation assurant queP

iwi t= 1 8: FIN POUR 9: Rééchantillonner{xi t, wi t}selonP x˜i k =xjk

=wjt, ce qui conduit à un ensemble de particules pondérées

{˜xi t,N1}tel quePN i=1wt(i)δ(xt−xi t)et 1 N PN i=1δ(xt−x˜i t)approximentp(xt|z1:t); affecterxi tetwi tavec ˜ xi tet 1 N 10: FIN SI

TAB. II.1: Algorithme générique de filtrage particulaire (SIR).

sation consiste en la définition d’un ensemble de particules pondérées décrivant la distribution

a priori p(x0), e.g. en affectant des poids identiques wi

0 = 1

N à des échantillons x1

0, . . . , xN

0 indépendants identiquement distribués (i.i.d.) selonp(x0).

A chaque instantt, disposant de la mesureztet de la description particulaire{xi t−1, wi

t−1}de

p(xt−1|z1:t−1), la détermination de l’ensemble de particules pondérées{xi t, wi

t}associé à la den-sitéa posteriorip(xt|z1:t)se fait en deux étapes. Dans un premier temps, lesxi

tsont échantillon-nés selon la fonction d’importanceq(xt|xt−1, zt)évaluée enxt−1 =xi

t−1, cf. l’équation (II.2). Les poidswi

t sont ensuite mis à jour de façon à assurer la cohérence de l’approximation (II.1). Ce calcul obéit à (II.3), oùp(xt|xt−1) rend compte de la dynamique du processus d’état sous-jacent, et la vraisemblancep(zt|xt)d’un état possiblext vis à vis de la mesureztest évaluée à partir de la densité de probabilité relative au lien état-observation.

II.2FORMALISME DU FILTRAGE PARTICULAIRE 57 dégénérescence, au sens où après quelques itérations, les poids non négligeables tendent à se concentrer sur une seule particule. Afin de limiter ce phénomène, une étape de rééchantillon-nage peut être insérée en fin de chaque cycle, cf. l’item 9 de l’algorithmeSIR(pour "Sampling Importance Resampling") table II.1. Ainsi, N nouvelles particules x˜i

t sont obtenues par ré-échantillonnage avec remise dans l’ensemble{xjt}selon la loiP(˜xi

t=xjt) = wtj. Les particules associées à des poidswtj élevés sont dupliquées, au détriment de celles, faiblement pondérées, qui disparaissent, de sorte que la séquencex˜1

t, . . . ,x˜N

t est i.i.d. selonPN i=1wi

tδ(xt−xi t). Cette étape de redistribution peut soit être appliquée systématiquement, soit être déclen-chée seulement lorsqu’un critère d’efficacité du filtre passe en deçà d’un certain seuil [Doucet et al., 2000, Arulampalam et al., 2002]. Le calcul des moments de (II.1) doit de préférence faire intervenir l’ensemble des particules pondérées avant rééchantillonnage.

Un dernier point concerne ici la fonction de vraisemblance où il est judicieux dans notre contexte robotique de fusionner plusieurs mesures de nature différentes. Sous hypothèse de leur indépendance conditionnellement à l’état, la vraisemblance unifiée deNdmesures s’écrit alors :

p(zt|xt) =

Nd

Y

j

p(zjt|xk) (II.4)

II.2.2 Échantillonnage guidé par la dynamique ou

CONDENSATION

L’algorithme de CONDENSATION [Isard and Blake, 1998a] (pour "Conditional Density Propagation") peut être vu comme le cas particulier de l’algorithmeSIR où la fonction d’im-portance est relative à la dynamique du processus d’état : xi

t ∼ p(xi t|xi

t−1). Ceci confère à la CONDENSATIONune structure « prédiction / mise à jour » comparable à celle du filtre de Kal-man. En effet, la densité ponctuellePN

i=1wi

t−1δ(xt−xi

t)approxime la prédictionp(xt|z1:t−1). En outre, la mise à jour des poids selonwi

t ∝ wi

t−1p(zt|xi

t)rappelle la formule de Bayes sous-jacente à l’étape de mise à jour de l’estimé de Kalman.

Dans un contexte de suivi visuel, l’algorithme de CONDENSATION original définit les vraisemblances des particules à partir de primitives visuelles de type contour, mais d’autres primitives ont également été envisagées, par exemple des distributions de couleur [Nummiaro et al., 2003, Pérez et al., 2002].

II.2.3 Échantillonnage guidé par la mesure ou

ICONDENSATION

Le rééchantillonnage utilisé seul ne suffit pas à limiter efficacement le phénomène de dé-générescence évoqué précédemment. En outre, il peut conduire à une perte de diversité dans

l’exploration de l’espace d’état, du fait que la description particulaire de la densitéa posteriori

risque de contenir de nombreuses particules identiques. La définition de la fonction d’impor-tance q(xt|xt−1, zt) – selon laquelle les particules sont distribuées – doit donc également faire l’objet d’une attention particulière [Arulampalam et al., 2002].

En suivi visuel, les modes des fonctions de vraisemblance p(zt|xt) relativement àxt sont généralement très marqués. Il s’en suit que les performances de la CONDENSATION sont souvent assez médiocres. Du fait que les particules sont positionnées selon la dynamique du processus d’état et « en aveugle » par rapport à la mesurezt, un sous-ensemble important d’entre elles peut être affecté d’une vraisemblance très faible par l’équationwi

t ∝wi

t−1p(zt|xi

t), dégra-dant ainsi significativement les performances de l’estimateur.

Une alternative peut donc consister à échantillonner les particules à l’instant t – ou bien seulement certaines de leurs composantes – selon une fonction d’importance q(xt|zt) définie à partir de l’image courante. Ainsi, l’exploration de l’espace d’état peut être guidée par des fonctionnalités de détection visuelle telles que lesblobs peau ou bien toute autre primitive in-termittente, qui, malgré un caractère sporadique, est très discriminante lorsqu’elle est présente : mouvement, son, etc. Cependant, rien n’empêche qu’une particule xi

t, dont tout ou partie des composantes sont positionnées à partir de l’image courante, soit incompatible avec sa particule prédécesseurxi

t−1du point de vue de la dynamique du processus d’état. Du fait quep(xi t|xi

t−1) prend de faibles valeurs, une telle particule est alors faiblement pondérée dans (II.3).

Une solution simple à ce problème (stratégie référencéeICONDENSATION) est de définir la fonction d’importance comme un mélange d’une fonction d’importanceπ(.)basées sur des mesures, c’est-à-dire sur des détections visuelles et d’une fonction d’importance basée sur la dynamique [Pérez et al., 2004], soit :

q(xi t|xi t−1, zt) = απ(xi t|zt) + (1−α)p(xi t|xi t−1). (II.5) Ainsi, α% des particules sont échantillonnées selon l’observation courante donc permettent une éventuelle (ré)-initialisation du filtre tandis les particules restantes suivent la dynamique du système. Ainsi, en cas de fausses mesures/détections ou de leur absence, (1 −α)% des particules continuent à évoluer selon la dynamique du système permettant alors de conserver une meilleure représentation de la distributiona posteriori.