• Aucun résultat trouvé

1.1 Traitement du signal radar

1.1.7 Pistage en radar

1.1.7.4 Filtre particulaire

Nommé bootstrap filter [Gordon 93] ou Monte Carlo filter [Kitagawa 96] ou encore condensation filter [MacCormick 00], le filtre particulaire est fondé sur l’utilisation de méthodes de Monte-Carlo séquentielles (SMC) permettant d’approcher la densité p(x0:k|y1:k) par la loi empirique pondérée d’un ensemble d’échantillons appelés particules. Ces particules évoluent selon la dynamique de l’état et sont pondérées en fonction de leur adéquation avec l’observation courante grâce à la fonction de vraisemblance. L’intérêt de telles méthodes est l’absence de contrainte quant aux conditions de gaussianité et de linéarité sur les modèles d’état et de mesure.

Notons x(i)0:k, wk(i)N

i=1 un nuage de particules pondérées servant à estimer la densité a posteriori p(x0:k|y1:k), où les {x(i)0:k, i= 1,...,N} représentent les états des différentes particules avec les poids associés {wk(i), i = 1,...,N}. Les poids sont normalisés pour que N

i=1w(i)k = 1. La densité a posteriori à l’instant k peut s’exprimer approximativement par

p(x0:k|y1:k) ≈N

i=1wk(i)δx(i)

0:k(x0:k) . (1.64) Les poids w(i)

k sont choisis en utilisant le principe d’échantillonnage d’impor-tance [Doucet 01] : si les échantillons x(i)0:k sont générés selon une densité d’im-portance q(x0:k|y1:k), les poids sont fournis par :

wk(i)p(x(i) 0:k|y1:k)

q(x(i)0:k|y1:k). (1.65) A la réception de l’observation courante yk, nous avons à disposition un en-semble d’échantillons fournissant une approximation de p(x0:k−1|y1:k−1), et nous voulons construire de nouveaux échantillons fournissant une approxima-tion de p(x0:k|y1:k). En choisissant une densité d’importance qui se factorise de la manière suivante :

un échantillon x0:k(i) ∼ q(x0:k|y1:k) est obtenu par concaténation de chaque échantillon existant x(i)

0:k−1 ∼ q(x0:k−1|y1:k−1) avec un nouvel état x(i)

k ∼ q(xk|x0:k−1,y1:k). Il est possible de montrer que l’équation de mise à jour des poids s’écrit alors

[Arulampalam 02] :

wk(i) ∝ wk(i)−1

p(yk|x(i)0:k,y1:k−1)p(x(i)

k |x(i)k−1)

q(xk|x0:k−1,y1:k) . (1.67) Si les observations sont indépendantes conditionnellement au processus d’état et leurs distributions ne dépendent que de l’état courant, l’équation précédente peut s’écrire :

w(i)k ∝ wk(i)−1

p(yk|x(i)k )p(x(i)

k |xk(i)−1)

q(xk|x0:k−1,y1:k) . (1.68) Par ailleurs, il est intéressant d’imposer q(xk|x0:k−1,y1:k) = q(xk|xk−1,yk). Ce choix est particulièrement utile dans le cas où seule l’estimation de p(xk|y1:k) est requise à chaque l’instant k. Il n’est alors nécessaire que de stocker xi

k, la

trajectoire x(i)0:k−1 et les anciennes mesures y1:k−1 n’étant plus utiles. Les poids modifiés deviennent alors :

w(i)k ∝ wk(i)−1

p(yk|x(i)k )p(x(i)k |xk(i)−1)

q(xk|xk−1,yk) , (1.69) et la densité a posteriori p(xk|y1:k) peut alors être approchée par :

p(xk|y1:k) ≈N

i=1wk(i)δx(i)

k (xk) . (1.70) Quand le nombre de particules devient très grand, N → +∞, l’approximation (1.70) se rapproche de la vraie densité de probabilité a posteriori p(xk|y1:k).

La mise en œuvre récursive de l’échantillonnage d’importance à chaque ins-tant constitue la méthode d’échantillonnage d’importance séquentiel (Sequen-tial Importance Sampling - SIS en anglais). Le filtrage à partir de l’algorithme SIS constitue la brique de base du filtre particulaire. Cependant, il est sujet à un phénomène de dégénérescence, où après quelques itérations, toutes les particules sauf une, vont avoir des poids normalisés négligeables. Il a été dé-montré que la variance des poids d’importance ne peut qu’augmenter avec le temps [Doucet 01] et qu’il est donc impossible d’éviter le phénomène de dé-générescence. Ainsi, cette dégénérescence implique qu’un grand coût de calcul est consacré à la mise à jour de particules dont la contribution à l’approxima-tion de p(xk|y1:k) est quasi nulle. Afin de limiter cette dégénérescence, il existe deux méthodes : a) un bon choix de la densité d’importance et b) l’utilisation du ré-échantillonnage.

Choix de la densité d’importance

Le choix optimal de la densité d’importance au sens où il minimise la variance des poids est donné par [Doucet 01] :

q(xk|x0:k−1,y1:k) = p(xk|x0:k−1,y1:k). (1.71) Dans ce cas, les poids d’importance sont mis à jour par :

w(i)k ∝ wk(i)−1p(yk|x(i)k−1) = w(i)k−1

Xp(zk|x

k)p(x

k|xi

k−1)dx

k. (1.72) L’utilisation de cette densité d’importance optimale implique d’être capable d’échantillonner selon p(xk|x0:k−1,y1:k) et puis d’évaluer l’intégrale dans l’équa-tion (1.72). Ces deux étapes ne sont pas toujours réalisables : il n’est pas toujours facile d’échantillonner selon la loi p(xk|x0:k−1,y1:k) et l’intégrale de l’équation (1.72) n’est pas toujours calculable.

En pratique, il est souvent convenable de choisir la densité d’importance comme la densité de transition a priori, soit :

q(xk|x0:k−1,y1:k) = p(xk|xk−1). (1.73) L’intérêt est que les poids sont alors mis à jour simplement par :

wk(i) ∝ w(i)k−1p(yk|xk(i)). (1.74) Cela semble être le choix le plus commun de densité d’importance car il est intuitif et simple à mettre en œuvre. Cependant, un grand nombre de par-ticules peut alors être nécessaire pour approcher convenablement la densité de probabilité a posteriori car les particules sont propagées indépendamment de la mesure courante et peuvent se retrouver localisées en majorité dans des régions de faible vraisemblance de l’espace d’état.

Ré-échantillonnage

L’idée de base du ré-échantillonnage est d’éliminer les particules de faible poids et de se concentrer sur les particules de poids important. L’étape de ré-échantillonnage est appliquée lorsqu’une dégénérescence significative est ob-servée. Une mesure appropriée de cette dégénérescence est le nombre d’échan-tillons efficaces, introduite dans [Liu 98] et définie comme :

Nef f = 1 + Var(wN �i

k), (1.75) où w�i

k = p(xk|y1:k)/q(xk|xk−1,yk) est appelé le vrai poids. Comme on ne peut pas calculer explicitement cette valeur, elle est approchée par :

ˆ

Nef f = N 1

i=1(wi

où wi

k est le poids normalisé obtenu par (1.68).

Par définition, 1 ≤ Nef f ≤ N. Une valeur faible de Nef f signifie une forte dégénérescence. Le rééchantillonnage est alors déclenché lorsque Nef f descend en dessous d’un certain seuil prédéfini. Cette étape consiste à générer un nouvel ensemble {xk(i)�}N

i=1 en tirant N particules à partir de l’approximation discrète de p(xk,y1:k) fournie par :

p(xk,y1:k) ≈N

i=1w(i)k δx(i)

k (xk) . (1.77) Les poids sont alors réinitialisés à wi

k = 1/N. Un exemple du principe du filtre particulaire avec cette étape de ré-échantillonnage est montré en figure 1.1.6.

Figure 1.1.6 – Principe général du filtre particulaire.

Bien que le ré-échantillonnage atténue le phénomène de dégénérescence, il introduit un effet indésirable. Les particules de poids importants sont statisti-quement sélectionnées plusieurs fois, ce qui a tendance à appauvrir le système de particules, surtout si la variance du bruit d’état est faible. Les particules ont dans ce cas tendance à se concentrer dans certaines régions, provoquant une perte de diversité. Cela augmente le risque qu’aucune des particules ne soit cohérente avec les mesures suivantes, provoquant ainsi la divergence du filtre. Un tel phénomène peut être en partie corrigé en ajoutant une étape de régularisation lors du ré-échantillonnage [Musso 01].

L’utilisation du filtre particulaire sera étudiée en détail dans le cadre de notre application particulière au chapitre 3.