• Aucun résultat trouvé

2.3 Stratégies d'échantillonnage

2.3.1 Filtre bootstrap

La solution la plus répandue consiste à propager les particules selon la loi de transition a priori π(xk|x(i)0:k−1, z1:k) = p(xk|x(i)k−1). Dans ce cas, l'équation de mise à jour des poids (2.18) devient :

Algorithme 8 Échantillonnage pondéré séquentiel avec rééchantillonnage adaptatif • initialisation :

pour i = 1...N, générer x(i)

0 ∼ p(x0), et xer w(i)

0 = 1/N pour k = 1, 2, ...

• échantillonnage pondéré séquentiel : 1. échantillonnage :

pour i = 1...N, générer x(i)

k ∼ π(xk|x(i)0:k−1, z1:k)et poser x(i)

0:k , (x(i)0:k−1, x(i)k ). 2. mise à jour des poids d'importance :

pour i = 1...N, calculer w(i)

k = w(i)k−1p(zk|x

(i)

k ) p(x(i)k |x(i)k−1) π(x(i)k |x(i)0:k−1,z1:k) . 3. normalisation des poids :

pour i = 1...N, calculerwe(i)k = w

(i) k

PN j=1wk(j)

• estimations de Monte Carlo : le nuage {x(i)

0:k,we(i)k }i=1...N permet d'approcher la loi a posteriori p(x0:k|z1:k) ' N X i=1 e w(i)k δx(i) 0:k (x0:k) et pour toute fonction φ intégrable par rapport à p(x0:k|z1:k)

Ep(x0:k|z1:k)[φ(x0:k)] '

N

X

i=1

φ(x(i)0:k) wek(i) de plus, la loi de ltrage est approchée par

p(xk|z1:k) ' N X i=1 e w(i)k δ x(i)k (xk) • rééchantillonnage adaptatif : 1. calculer ESSN = PN N i=1(wek(i))2 2. si ESSN < seuil,

tirer avec remise N particulesxe(i)0:k parmi {x(i)

0:k}i=1...N proportionnellement aux poids {we(i)k }i=1...N et xer wek(i)= 1/N, x(i)

44 2.3 Stratégies d'échantillonnage

Ce choix correspond aux premiers ltres particulaires avec rééchantillonnage qui ont été proposés [Gordon 93] [Isard 98a] [Kitagawa 96]. En particulier, le ltre bootstrap [Gordon 93] associe cette étape d'échantillonnage pondéré avec un rééchantillonnage sys-tématique : à chaque pas de temps, les poids sont remis à 1/N. On en déduit que l'étape de mise à jour des poids se réduit à :

w(i)k = p(zk|x(i)k ). (2.24)

L'algorithme 9 décrit les étapes du ltre bootstrap. Historiquement, cet algorithme a été utilisé pour approcher la distribution de ltrage p(xk|z1:k). L'estimation de la loi p(x0:k|z1:k)est facilement accessible en formant chaque particule x(i)

0:k comme concaténation de la particule au temps précédent x(i)

0:k−1et du nouvel état x(i)

k (cette remarque ne se limite pas à l'algorithme bootstrap, elle est valable quelque soit la fonction d'importante utilisée) Algorithme 9 Filtre bootstrap

• initialisation :

pour i = 1...N, générer x(i)

0 ∼ p(x0), et xer w(i)

0 = 1/N pour k = 1, 2, ...

• échantillonnage pondéré séquentiel : 1. échantillonnage : pour i = 1...N, générer x(i)

k ∼ p(xk|x(i)k−1) 2. mise à jour des poids d'importance : pour i = 1...N, calculer w(i)

k = p(zk|x(i)k ) 3. normalisation des poids : pour i = 1...N, calculer wek(i)= w

(i) k

PN j=1w(j)k

• estimations de Monte Carlo • rééchantillonnage systématique :

1. tirer avec remise N particulesxe(i)k parmi {x(i)

k }i=1...N proportionnellement aux poids {wek(i)}i=1...N

2. pour i = 1...N, poser x(i)

k =xe(i)k etwek(i)= 1/N

Cette méthode est très simple à mettre en ÷uvre. Dans le cas de l'estimation de la loi de ltrage, elle ne nécessite aucun stockage des valeurs des poids d'importance. Cependant, elle est souvent inecace du fait de la non prise en compte de la nouvelle mesure dans la phase de diusion des particules. L'espace d'état peut être mal exploré puisque les particules ne couvrent pas de façon optimale les zones de forte vraisemblance.

En particulier, cet algorithme est inecace lorsqu'il y a peu de recouvrement entre la fonction d'importance et la fonction utilisée dans le calcul des poids, respectivement la densité de prédiction et la vraisemblance dans le cas du ltre Bootstrap. La gure 2.1 présente deux situations critiques.

 Lorsque la densité de prédiction est peu informative, et que la vraisemblance a des modes très prononcés (cas représenté en (a)), le phénomène d'appauvrissement des états est important. Durant les phases de rééchantillonnage systématique, la majo-rité des particules est supprimée et seules les quelques particules de poids fort sont dupliquées, ce qui entraîne une perte de diversité des particules.

 Lorsque la mesure est incohérente par rapport à la prédiction (cas représenté en (b)), aucune particule ne représente une hypothèse valide. Leur diusion ne prenant pas en compte la nouvelle mesure, le nuage ne sera pas représentatif de la loi de ltrage.

(a) (b)

Fig. 2.1: Fonction de vraisemblance et densité prédite pour une observation précise (a) ou incohérente (b) par rapport à la prédiction (dans le cas d'un état directement observé i.e. zk = xk+ vk) - gure tirée de [Oudjane 00].

Notons que ces situations peuvent se rencontrer dans les applications de suivi dans des séquences d'images. La situation (a) correspond à une modélisation souvent utilisée en imagerie, à savoir une densité de prédiction de l'objet suivi peu informative, et une vraisemblance hautement multimodale et porteuse d'informations. La situation (b) peut correspondre à une sortie d'occlusion, lorsque l'hypothèse d'évolution de l'objet ne correspond pas à sa dynamique pendant son occultation.

Pour mieux guider les particules dans les zones de forte vraisemblance tout en gardant le schéma du ltre bootstrap, Gordon [Gordon 93] propose d'ajouter une procédure de prior editing, qui augmente articiellement le nombre de particules de poids fort. L'idée consiste à ajouter un test d'acceptation de l'échantillon en fonction de son poids d'importance, par rapport au terme de diérence entre la mesure observée et la mesure prédite. Si le poids de la particule est trop faible, celle-ci aura une faible chance d'être sélectionnée. Elle est donc rejetée. Dans le cas contraire, elle est conservée. La procédure est itérée jusque ce que N particules aient été acceptées.1

Cette méthode est très similaire à l'idée de prior boosting, également introduite par Gordon [Gordon 95], qui consiste à générer kN particules (avec k positif) durant l'étape

1Liu a proposé une méthode de sélection des particules appelée rejection control [Liu 98b] proche de l'idée de prior editing. Celle-ci est également fondée sur un test d'acceptation de chaque échantillon. Elle n'est pas intéressante en pratique car elle fait diminuer le nombre de particules.

46 2.3 Stratégies d'échantillonnage

d'échantillonnage. Seuls N échantillons sont sélectionnés pendant le rééchantillonnage. Ces approches sont fondées sur le fait qu'augmenter le nombre d'échantillons accroît les chances de mieux représenter la distribution a posteriori. Cependant, ces méthodes ad hoc ne sont pas toujours intéressantes, car elles induisent une trop forte augmentation du coût de calcul, pour un eort de recherche qui peut se révéler inecace.

En résumé, se limiter à utiliser la densité de prédiction pour la phase de diusion des particules constitue dans de nombreux cas un mauvais choix. An de construire un nuage représentatif selon la distribution de ltrage, des particules doivent être proposées dans les régions de forte vraisemblance. Idéalement, les particules doivent être guidées en fonction de la dynamique de l'objet et de la nouvelle mesure disponible. Cela est le cas de la fonction d'importance optimale.