• Aucun résultat trouvé

3.3 Stratégies pour réduire les fausses détections

3.3.3 Conclusion sur l'analyse des fausses détections

De par le nombre faramineux de possibilités, les fausses détections représentent un phénomène inévitable sur un système physique. Il est impératif que leur impact sur la sortie du système de détection soit minimisé sinon une complexité supplémentaire reposera sur un traitement à plus haut niveau, par exemple un algorithme de pistage, qui tente d'associer chaque détection à une piste.

0 5 10 15 20 25 Temps (trames) 40 60 80 100 120 140 Estimation de la position

Une séquence idéale (M = 2)

0 5 10 15 20 25 Temps (trames) 40 60 80 100 120 140 Estimation de la position

Élimination des faux positif après 5 itérations

0 5 10 15 20 25 Temps (trames) 40 60 80 100 120 140 Estimation de la position

Une séquence empreinte de deux faux positif

Figure 3.28  Élimination des faux positifs (SNR = 20 dB) pour une séquence en utilisant la stratégie 1 (carré vert = position réelle, astérisque rouge = position estimée par méthode directe, point bleu = position estimée par Karasalo)

3.4 Conclusion

Les diérents aspects et enjeux liés à la détection d'échos en mouvement ont été abordés dans ce chapitre. La mécanisme sur lequel repose la mise à jour de la structure propre est d'abord expliqué à l'aide de diérents exemples. Puis, deux types d'innovation sont déduits pour trans- férer l'information contenue dans la trame xk vers la structure propre à l'instant k − 1 pour

former celle à l'instant k. Une limitation de la méthode directe en lien avec le choix de LRXX

en présence d'échos en mouvement est ensuite formulée, celle-ci reposant sur le compromis entre la vitesse et le SNR des échos. À cet eet, le tableau 3.1permet d'illustrer sous quelles

18 20 22 24 26 28 30 32 34 36 38 Temps (trames) 60 80 100 120 140 160 Estimation de la position

Une séquence empreinte de faux positifs

18 20 22 24 26 28 30 32 34 36 38 Temps (trames) 60 80 100 120 140 160 Estimation de la position

Élimination des faux positif après 5 itérations

Figure 3.29  Élimination des faux positifs (SNR = 5 dB) pour une séquence en utilisant la stratégie 2 (vert = position réelle, rouge = position estimée par méthode directe, bleu = position estimée par Karasalo)

conditions le compromis apparaît. Finalement, quelques méthodes dérivées des algorithmes de suivi de la structure propre sont présentées. Une modication apportée à l'algorithme DPM pour former la DPM traitée (section3.1.3.3) permet notamment d'introduire le traitement de la matrice ReXX an d'éliminer la corrélation des échos.

Les concepts d'orthogonalité et de corrélation du sous-espace sources sont ensuite abordés de manière à faire la lumière sur le processus d'injection graduelle de la corrélation dans (Λs, Es).

Il est important de comprendre que l'orthogonalité au sein de Esest une condition nécessaire

mais pas susante pour assurer la propriété haute-résolution de l'algorithme MUSIC. En eet, la gure3.4illustre un exemple où les vecteurs propres de Essont orthogonaux entre eux et à

ceux du bruit En tout en étant corrélés. Des vecteurs propres corrélés ont pour eet d'engen-

drer une déformation des pics lors de la formation du pseudospectre par l'algorithme MUSIC. Cela créé une ambiguïté sur la position exacte des échos. Des essais réalisés en3.2.2 illustrent d'ailleurs le résultat suite à l'utilisation des algorithmes de mise à jour de la structure propre sans tenir compte du phénomène de la corrélation. An de palier à ce problème, diérentes

méthodes sont développées pour permettre le maintien d'un sous-espace sources non corrélé lors de la mise à jour de rang 1, soit lors de l'ajout de la trame xk. Puisqu'il s'agit d'une mé-

thode de référence en traitement d'antenne-réseau, une adaptation de l'algorithme du lissage spatial est d'abord présentée. Malheureusement, très peu d'algorithmes de suivi de la structure propre sont compatibles en combinaison avec le lissage spatial et le temps de traitement est bien plus élevé que celui de la méthode directe, comme peut en témoigner la gure 3.13. Un traitement fondé sur le fenêtrage des vecteurs propres est ensuite énoncé. Le positionnement des fenêtres dans chaque vecteur propre est établi en fonction de la position fournie par l'al- gorithme MUSIC à l'itération précédente. Les équations 3.12et3.13sont d'ailleurs proposées pour faire la mise à jour de ce positionnement. L'utilisation du fenêtrage de type rectangulaire permet d'obtenir un gain substantiel sur l'erreur d'estimation de la position par rapport aux méthodes de suivi de la structure propre utilisées seules. Cependant, la complexité algorith- mique est fortement augmentée en début de séquence puisqu'il est nécessaire d'associer les positions fournies par l'algorithme MUSIC à chaque vecteur propre an de savoir où position- ner la fenêtre. Finalement, un troisième et dernier algorithme est développé selon l'idée que le sous-espace sources est initialement non corrélé de par l'emploi de la méthode à complexité élevée en début de séquence. Cette hypothèse permet de réduire la dimension du problème et d'obtenir un gain considérable sur le temps d'exécution, comme peuvent en témoigner les gures 3.16et3.19.

Une étude sur les sources d'apparition des faux positifs est ensuite présentée. Le traitement introduit à la section 2.1.1 de la matrice ReXX a comme eet secondaire la déformation des vecteurs propres associés à En. Les vecteurs déformés deviennent tous des résidus des échos qui

se trouvent dans la trame comme peut en témoigner la gure3.25. Ces résidus constituent une source importante d'apparition des faux positifs puisqu'il peut s'avérer que la valeur propre associée à l'un d'entre eux soit plus dominante que celle d'un véritable écho, le résidu est alors inclus à tort dans Es. Étant donné qu'il est complexe de faire la diérence entre un écho

et son résidu, et deux échos en processus de chevauchement, ce phénomène semble dicile à éviter. An de tenter d'en limiter les eets, deux stratégies dont l'objectif est l'élimination des faux positifs dans chaque séquence sont ensuite présentées. Alors que la première repose sur l'analyse des valeurs propres, la seconde repose sur l'analyse de l'orthogonalité au sein de Es.

Évidemment, ces stratégies nécessitent du temps de calcul supplémentaire et, par conséquent, elles ne sont pas forcément de mise pour un système à faible coût où chaque coup d'horloge est précieux.

L'essai des diérentes méthodes développées en3.1.3 ainsi que des essais de performance dans des situations plus variées doivent maintenant être eectués. Cela constitue l'objet du prochain chapitre.

Chapitre 4

Essais pour établir les performances

La présentation des algorithmes de suivi du sous-espace sources ainsi que des méthodes pour éliminer la corrélation étant complétée, l'objectif est maintenant de procéder à diérents essais an d'en établir les performances.

À cet eet, des critères sont d'abord dénis an de pouvoir porter un jugement sur la per- formance associée à l'utilisation de chaque algorithme. Des essais préliminaires avec données générées par simulations sont ensuite eectués an de sélectionner les algorithmes les plus performants pour procéder à des essais sur données réelles avec un système LIDAR.

4.1 Critères de performance

Un algorithme de suivi du sous-espace sources doit pouvoir suivre la position des objets sur la scène

(1) peu importe leur vitesse de déplacement ;

(2) jusqu'à un certain niveau de chevauchement maximum ; (3) jusqu'à un SNR susamment bas ;

(4) en présence de faux positifs pouvant entraîner des perturbations.

Concernant l'impact de la vitesse des objets sur la performance associée à l'estimation de la position, il semble logique de croire que l'erreur augmente en fonction de la vitesse car si cette dernière est élevée, l'incertitude sur la position exacte de l'objet est plus élevée. En eet, plus la vitesse de déplacement d'un objet augmente et plus les déplacements d'un écho entre chaque trame deviennent importants. Dans la mesure où cela est possible, le fait d'augmenter la fréquence ftramepermettrait de réduire les eets de ce problème (cette fréquence est supposée

constante dans cet ouvrage). Le croisement entre deux échos ou plus est un événement qui entraîne plusieurs complications puisqu'il devient alors dicile pour les algorithmes de la section 3.2.3 d'éliminer la corrélation de E . De plus, procéder à une orthogonalisation lors

d'un chevauchement a pour eet de déformer les échos du sous-espace sources puisqu'il est impossible de maintenir leur forme d'origine tout en respectant la condition d'orthogonalité (soit que le produit scalaire soit nul). Ainsi, il existe un niveau de chevauchement maximal au-delà duquel l'estimation de la position devient impossible et, la plupart du temps, une seule position peut être déduite (puisque les deux échos paraissent comme un seul). Les situations problématiques engendrées par un faible SNR sont illustrées sur les deux premiers graphiques de la gure 3.22. Pour ces deux cas, l'estimation initiale du nombre d'échos est complexe puisque, d'une part, un écho de SNR très diérent risque d'être ignoré lors de la formation de Es alors que, d'autre part, une trame complète à faible SNR engendre une incertitude à

savoir si des échos s'y trouvent bel et bien. La provenance des faux positifs a été bien étudiée en 3.3.1et quelques stratégies pour en faire l'élimination ont été présentés en3.3.2. L'objectif est maintenant d'étudier l'impact des faux positifs sur certains algorithmes.

Pour tous les essais avec la méthode directe, l'erreur moyenne test exprimée en unité métrique

(soit en centimètres). Autrement, l'erreur est normalisée et exprimée en pourcentage de celle obtenue avec la méthode directe. Le code de couleur utilisé pour tous les graphiques est celui présenté au tableau 3.9. Le principe de précision au-delà de l'échantillon introduit par [1] est utilisé an d'augmenter la précision fournie par MUSIC. Ce principe est fondé sur l'utilisation de sous-modèles en combinaison avec l'algorithme MUSIC pour déterminer la position exact de l'écho entre deux échantillons, en supposant que le centre de l'écho ne se trouve pas sur l'un des N échantillons d'une trame. Par ailleurs, le temps d'exécution n'est pas mesuré puisqu'il a déjà été établi lors des diérents essais sur les méthodes pour éliminer la corrélation en3.2.4. Dans des conditions propices (SNR faible ou niveau de chevauchement élevé) à la formation d'erreurs, l'utilisation de la méthode directe peut produire des résultats très aléatoires sur l'estimation de la position d'un objet. En eet, puisqu'il n'y a aucune forme de limitation, des positions divergentes peuvent se retrouver n'importe où parmi les N points. Cette situation est généralement indésirable puisqu'une divergence vers une position très éloignée fait augmenter drastiquement l'erreur moyenne alors qu'une erreur beaucoup plus faible aurait sut pour conclure à un faux positif. An d'éviter cette situation, l'erreur est saturée de façon à ce que si une position estimée est trop éloignée de la position réelle, l'erreur moyenne n'augmente pas drastiquement. À noter que, tel que démontré en 3.2.4, cette situation est bien moins problé- matique lorsque les algorithmes du fenêtrage sont utilisés puisque l'inertie des fenêtres permet de maintenir les positions estimées dans les environs de la position réelle en cas d'apparition d'un faux positif divergent.