• Aucun résultat trouvé

2.6 Gestion des ambigüités

2.6.4 Résultats : diminution des ambigüités

x (m) 26 28 30 32 34 36 38 40 42 y (m) 8 10 12 14 16 18 20 22

Figure 2.6.2 – Différentes positions de la cible considérés.

Pour déterminer si les pénalisations proposées améliorent la localisation, nous estimons la probabilité de localisation sur la bonne position Pl avec MC simulations de Monte Carlo par :

Pl = nb

M C, (2.21)

où nb est le nombre de simulations où la position estimée correspond bien à la position de la cible. C’est-à-dire que la position réelle de la cible correspond à la case estimée par les algorithmes. Nous comparons aussi les algorithmes en calculant la REQM définie par l’équation (2.2). Pour cette mesure de per-formances, trois localisations de la cible NLOS différentes sont considérées : (35, 125; 12, 125), (32, 125; 14, 125) (utilisées dans les sections 2.5.3 et 2.5.4) et (37, 875; 15, 875). Ces trois positions sont illustrées en figure 2.6.2. MC = 1000 simulations de Monte Carlo sont effectuées pour chaque position, ce qui permet de calculer les courbes Pl et EQM de l’algorithme FMU ainsi que des méthodes pénalisées en variant le SNR de la cible. Les résultats obtenus sont présentés en figure 2.6.3.

5 10 15 20 25 30 35 SNR (dB) 0 0.2 0.4 0.6 0.8 1 FMU

FMU avec pénalisation AIC FMU avec pénalisation FIC FMU avec pénalisation BIC

(a) Pl en fonction du SNR. Cible à (35, 125; 12, 125). 5 10 15 20 25 30 35 SNR (dB) 0 1 2 3 4 5 FMU

FMU avec pénalisation AIC FMU avec pénalisation FIC FMU avec pénalisation BIC

(b) REQM en fonction du SNR. Cible à (35, 125; 12, 125). 5 10 15 20 25 30 35 SNR (dB) 0 0.2 0.4 0.6 0.8 1 FMU

FMU avec pénalisation AIC FMU avec pénalisation FIC FMU avec pénalisation BIC

(c) Pl en fonction du SNR. Cible à (32, 125; 14, 125). 5 10 15 20 25 30 35 SNR (dB) 0 1 2 3 4 5 FMU

FMU avec pénalisation AIC FMU avec pénalisation EIC FMU avec pénalisation BIC

(d) REQM en fonction du SNR. Cible à (32, 125; 14, 125). 5 10 15 20 25 30 35 SNR (dB) 0 0.2 0.4 0.6 0.8 1 FMU

FMU avec pénalisation AIC FMU avec pénalisation FIC FMU avec pénalisation BIC

(e) Pl en fonction du SNR. Cible à (37, 875; 15, 875). 5 10 15 20 25 30 35 SNR (dB) 0 1 2 3 4 5 FMU

FMU avec pénalisation AIC FMU avec pénalisation FIC FMU avec pénalisation BIC

(f) REQM en fonction du SNR. Cible à (37, 875; 15, 875).

Figure 2.6.3 – Pl et REQM en fonction du SNR pour différentes positions de la cible.

5 10 15 20 25 30 35 40 SNR (dB) 0 0.2 0.4 0.6 0.8 FMU

FMU avec pénalisation AIC FMU avec pénalisation FIC FMU avec pénalisation BIC

(a) Plen fonction du SNR 5 10 15 20 25 30 35 40 SNR (dB) 0 1 2 3 4 5 6 FMU

FMU avec pénalisation AIC FMU avec pénalisation FIC FMU avec pénalisation BIC

(b) REQM en fonction du SNR

Figure 2.6.4 – Courbes de Pl et REQM en moyennant sur toutes les cases. Le nombre de trajets pour chaque case est choisi par l’algorithme de sélection du nombre de trajets.

Pour toutes les positions considérées, les pénalisations AIC et FIC four-nissent de meilleurs performances que l’algorithme FMU simple, que ce soit en terme de probabilité de localisation Plqu’en terme de REQM. Dans la plu-part des cas, la pénalisation BIC fournit de meilleures performances que les autres. Toutefois, en position (32, 125; 14, 125), la pénalisation BIC présente des performances dégradées aux faibles SNRs mais des performances plus in-téressantes aux forts SNRs. Ce comportement s’explique par le phénomène d’ « underfitting » bien connu du critère BIC, qui survient lorsque la pénalité domine le terme de vraisemblance [Dziak 17]. C’est effectivement le cas ici : quand le SNR du signal est faible, les variations des valeurs de vraisemblances des différents modèles sont relativement faibles par rapport au terme de pé-nalité. Donc la pénalisation BIC tend à sélectionner le modèle avec le moins de trajets, ce qui cause des dégradations de performance de localisation. Par contre, pour les forts SNRs, le critère BIC devient plus performant que les autres critères de pénalisations.

La même simulation est effectuée pour toutes les cases spatiales dans la zone observée. Nous présentons en figure 2.6.4 les courbes de Pl et de REQM alors obtenues en moyennant les performances obtenues dans chaque case.

Nous observons que les pénalisations BIC, AIC et FIC fournissent de meilleures performances de localisation sur toute la plage de SNRs que l’algorithme FMU sans pénalisation. Ainsi, le critère BIC fournit les meilleures améliorations parmi tous les critères. Nous pouvons donc conclure que les différentes péna-lisations permettent d’améliorer la performance de localisation en diminuant les ambigüités.

Par ailleurs, nous pouvons noter ici que la probabilité Pl ne tend pas vers 1 quand le SNR de la cible tend vers l’infini. Ceci est essentiellement dû aux cases proches des murs pour lesquelles le nombre de trajets est trop faible ou les multi-trajets ne sont pas résolus pour permettre une bonne localisation, comme remarqué dans la section 2.5.4. Une autre raison est que nous avons limité le nombre de trajets choisis pour chaque case par l’algorithme de sélection du nombre de trajets. Cette limitation a permis d’améliorer la performance de détection mais a pu influer sur les performances de la localisation. Pour interpréter ces influences, nous avons relancé les simulations identiques à celles de la figure 2.6.4 mais cette fois, le nombre de trajets n’est pas préalablement calculé par l’algorithme de sélection, mais simplement fourni par le tracé de rayon. 5 10 15 20 25 30 35 40 SNR (dB) 0 0.2 0.4 0.6 0.8 FMU

FMU avec pénalisation AIC FMU avec pénalisation FIC FMU avec pénalisation BIC

(a) Plen fonction du SNR 5 10 15 20 25 30 35 SNR (dB) 0 1 2 3 4 5 6 FMU

FMU avec pénalisation AIC FMU avec pénalisation FIC FMU avec pénalisation BIC

(b) REQM en fonction du SNR

Figure 2.6.5 – Courbes de Pl et REQM en moyennant sur toutes les cases. Le nombre de trajets par chaque case est choisi par une simu-lation de tracé de rayons (sans application de l’algorithme de sélection du modèle).

Nous observons alors en figure 2.6.5 une amélioration de la probabilité de bonne localisation Pl quand le SNR tend vers infini. Par contre, cette pro-babilité est plus dégradée sur les SNRs plus petits. Cela veut dire que les ambigüités augmentent quand nous ne limitons pas le nombre de trajets. Nous constatons que le fait d’appliquer une sélection du nombre de trajets dégrade un peu la performance de localisation sur les grands SNRs mais diminuent beaucoup les ambigüités sur les SNR plus petits. Par ailleurs, dans ce dernier cas de figure, nous observons que l’écart de performances entre l’algorithme FMU et les méthodes pénalisées augmente.

2.7 Conclusion

Dans ce chapitre, nous avons proposé deux solutions pour la détection et la localisation de la cible en exploitant les multi-trajets. Pour le problème de détection, nous avons observé que les algorithmes proposés fournissent géné-ralement de meilleures performances que le filtre adapté classique dans un scénario urbain NLOS typique. En particulier, nous montrons que l’exploita-tion par trajets multiples peut améliorer les performances de détecl’exploita-tion tant que le SNR des trajets supplémentaires est suffisant. Nous avons également déve-loppé un algorithme spécifique pour sélectionner le nombre de multi-trajets, ce qui nous permet d’améliorer les performances de détection en optimisant la probabilité de détection. Pour le problème de localisation, les résultats obte-nus par simulation montrent que les localisations cibles peuvent être estimées avec les deux algorithmes même en utilisant un modèle de propagation simple et une connaissance approximative de la géométrie de la scène. Cependant, il apparaît également que le problème de localisation adressé par l’application radar "around-the-corner" conduit à de fortes ambiguïtés spatiales inhérentes à la géométrie de la scène. Nous avons donc proposé trois corrections du test FMU pour diminuer ces ambigüités. Il ressort que les performances de localisa-tion sont améliorées par ces correclocalisa-tions. Toutefois, les pénalisalocalisa-tions proposées ne permettent pas de résoudre toutes les ambiguïtés, ni de les éliminer totale-ment, de sorte que la probabilité de fausse localisation reste non négligeable. Ces ambiguïtés représentent donc un défi restant à résoudre. Nous allons consi-dérer dans le chapitre suivant une autre approche fondée sur des algorithmes de pistage pour lever ces ambigüités.

Localisation et pistage d’une cible

en NLOS par filtres particulaires

3.1 Introduction

Dans le chapitre précédent, nous avons proposé deux algorithmes FMU et SLC qui exploitent les multi-trajets afin de détecter et localiser une cible en NLOS. Pour ce qui concerne la localisation, la plupart du temps ces algo-rithmes estiment correctement la position de la cible. Cependant, le problème principal de ces deux algorithmes est la présence d’ambiguïtés importantes qui peuvent générer des fantômes ou de forts biais affectant les performances de localisation. A la fin du chapitre précédent, nous avons donc proposé une al-ternative à ces approches en exploitant des méthodes de sélection de modèles. Même si par ce biais nous avons pu améliorer les performances de localisation et diminuer en partie l’impact des ambiguïtés, ces dernières restent néanmoins très fortes. Ce phénomène d’ambiguïtés est également observé dans d’autres travaux exploitant des multi-trajets. Par exemple, dans [Setlur 14], où un ra-dar à synthèse d’ouverture urbain est étudié, les deux techniques d’exploita-tion par multi-trajets proposées ont également fourni des images ambiguës ; et dans [Tahmoush 12], où l’objectif est de suivre les cibles dans le domaine distance-temps par l’exploitation des multi-trajets, l’approche proposée n’a pas été capable de lever les ambiguïtés pour deux traces multi-trajets présentant des distances similaires. Les ambiguïtés présentées dans plusieurs études rela-tives à des scènes urbaines nous ont motivé à développer des algorithmes de pistage pour les atténuer et ainsi améliorer la localisation des cibles. En effet, le pistage nous permet de prendre en compte l’évolution de la cible au cours du temps et donc potentiellement de lever les ambiguïtés qui ne sont pas cohé-rentes avec l’évolution de la cible. Notons que si le pistage en environnement

urbain a été étudié dans [Chakraborty 10] avec un radar aéroporté (le radar étant donc situé loin et au-dessus de la scène urbaine), ou dans [Barbosa 08] avec des capteurs multiples localisés dans la scène urbaine, l’objectif des deux articles n’était pas d’atténuer les ambiguïtés inhérentes à la propagation par multi-trajets.

Dans ce chapitre, nous présentons dans le paragraphe 3.2 les modèles d’état et de mesure spécifiques à notre problème. Nous présentons dans le paragraphe 3.3 un algorithme particulaire classique applicable à notre problématique par-ticulière. Ensuite, nous proposons deux algorithmes pour le problème de pis-tage : le filtre particulaire GLRT et le filtre particulaire Swerling I dans les paragraphes 3.4 et 3.5 respectivement. Le filtre particulaire GLRT estime les amplitudes inconnues des multi-trajets au sens du maximum de vraisemblance, tandis que le filtre particulaire Swerling I les intègre dans le vecteur d’état des particules et calcule la vraisemblance des mesures conditionnellement à l’état par marginalisation sur ces amplitudes. Dans le paragraphe 3.6, nous présen-tons deux bornes de pistage : la borne de Cramér-Rao a posteriori et la borne de Cramér-Rao a posteriori conditionnelle. Pour finir, dans le paragraphe 3.7, nous présentons les simulations effectuées et comparons les performances obtenues pour ces deux filtres par rapport aux deux bornes de Cramér-Rao calculées.