• Aucun résultat trouvé

4.3 Essais sur des données provenant d'un système LIDAR

4.3.2 Essais de croisement

En pratique, il est compliqué d'obtenir des données pour l'essai de croisement tout en essayant de minimiser les eets du phénomène d'ombrage. Pour rappel, ce phénomène génère le premier cas de la gure 3.22 où l'amplitude des échos les plus éloignés est fortement diminuée par l'ombrage de l'objet le plus près du capteur. An de minimiser l'impact de ce problème, deux objets réecteurs immobiles sont utilisés en combinaison avec une personne en mouvement. Les objets sont disposés sur la scène de manière à ce que l'écho de chacun ne se chevauche pas. La personne commence à marcher en direction de l'objet le plus éloigné à partir d'une position juste derrière le premier objet. Une fois le deuxième objet dépassé, la personne change de direction pour revenir vers l'objet le plus près du capteur et elle termine sa course entre cet objet et le capteur.

La méthode directe appliquée aux données de cet essai est présentée sur la gure 4.14. Les résultats obtenus avec toutes les autres méthodes sont illustrées sur la gure 4.15. Encore une fois, LRXX = 4et LSU = 20.

Figure 4.14  Résultats de l'essai de croisement avec la méthode directe

Étant donné les deux croisements qui ont lieu lors de cet essai, 5 vecteurs propres sont inclus dans Es même si seulement 3 objets se trouvent dans la scène. Lorsque la personne se dirige

en direction opposée au capteur, il arrive parfois que la méthode directe ne la détecte pas et qu'elle choisit plutôt d'inclure des résidus des échos associés aux deux autres objets dans Es.

En eet, il faut dire que la personne est moins réectrice que les deux objets immobiles ce qui fait que le SNR de son écho varie durant le trajet jusqu'à devenir plus faible que celui des résidus des deux objets immobiles (encore une fois, il s'agit du cas #1 de la gure 3.22). Bien qu'il soit très dicile de dégager un vainqueur parmi les essais de la gure4.15, il semble qu'encore une fois ce soit la combinaison de la fenêtre optimisée avec la DPM qui permet de minimiser la disparité des points.

4.4 Conclusion

Ce chapitre avait comme but la présentation des essais de performance associés à l'utilisation des algorithmes de suivi de la structure propre analysés ou développés dans cet ouvrage. Des critères de performance ont d'abord été établis an de pouvoir poser un regard critique sur les résultats obtenus avec chaque algorithme.

Le premier groupe d'essais est formé à partir de données générées par simulations an d'aug- menter l'étendue des données3 à laquelle pourrait faire face les algorithmes, de faire l'élimina-

tion de ceux qui sont jugés moins performants dans le contexte des signaux sans information de phase et d'obtenir une mesure précise de l'erreur sur l'estimation de la position. La première série d'essais consiste à soumettre les algorithmes à des échos dont la vitesse et le SNR sont variables. De façon générale, les algorithmes de suivi partiel de la structure propre semblent dégager les meilleurs performances lors de ces essais. Parmi ces derniers, c'est l'algorithme de la DPM traitée qui est le plus ecace pour réduire l'erreur. Par ailleurs, pour les essais de croisement, les données sont systématiquement formées de deux échos de SNR variable qui se dirigent dans des directions opposées ce qui donne lieu à un croisement à mi-parcours. L'erreur est donc forcément plus élevée que celle obtenue lors de l'essai précédent puisque la période de chevauchement entraîne une ambiguïté sur la position de chaque écho. De façon générale, il semble que ce soit cette fois la combinaison de la fenêtre rectangulaire avec l'algorithme PAST modié qui permet de dégager les meilleures performances. Par ailleurs, les essais pour réali- ser l'eet des faux positifs sur le système de détection permettent de conclure que l'utilisation de l'algorithme du fenêtrage optimisé est ecace pour rejeter les faux positifs attribuables à l'introduction de résidus (voir section 3.3.1.1).

Parmi les algorithmes modiés énoncés en3.1.3, si seule l'erreur sur l'estimation de la position est considérée c'est l'algorithme de la DPM traitée de la section 3.1.3.3 qui permet d'obtenir les meilleurs résultats. Or, il a été démontré en 3.2.4 que la DPM traitée ne permet pas de réduire de façon signicative le temps de traitement. Par conséquent, la méthode permettant d'obtenir le meilleur rapport entre l'erreur sur la position estimée et le temps de traitement est PAST modiée de la section 3.1.3.2.

Le second groupe d'essais est formé à partir de données qui proviennent d'un système physique,

soit un LIDAR. Étant donné la nature des données obtenues pour ces essais, la production de statistiques n'est pas envisageable puisqu'il est impossible de répéter le même essai plus d'une fois. De plus, l'obtention d'un graphique de l'erreur comme c'est le cas pour les essais préliminaires s'avère plutôt compliqué puisqu'il faudrait connaître la position de l'objet à chaque instant temporel (à chaque trame). Étant donné que les essais ne sont pas réalisés sur un système mécanique asservi dont la position est mesurée en tout temps, cette mesure n'est pas disponible. Par conséquent, les essais avec le système physique sont fournis à titre indicatif pour démontrer que les algorithmes sont en mesure de fonctionner sur des données hors simulation. Globalement, c'est la combinaison de la DPM avec le fenêtrage optimisé qui semble la plus ecace.

Conclusion

Les travaux eectuées dans cet ouvrage s'inscrivent dans le cadre d'un projet de recherche visant à améliorer les capacités de détection des systèmes LIDAR. Des travaux eectués en 2015 par East-Lavoie [1] ayant mené à une adaptation de l'algorithme MUSIC constituent le point de départ de cet ouvrage. Ainsi, les objectifs de ce projet s'inscrivent dans le cadre d'un eort pour tenter de réduire le temps nécessaire à l'exécution des calculs de la position des objets en mouvement sur une scène lorsque des signaux sans information de phase sont utilisés.

Cette réduction du temps de calcul est possible grâce à l'utilisation d'algorithmes de suivi du sous-espace sources. Ces derniers permettent d'éviter l'étape de reconstruction, de traitement et de décomposition propre de la matrice ReXX de dimension N, soit les étapes les plus coûteuses. Ces algorithmes peuvent être scindés en deux groupes : ceux qui permettent la mise à jour complète de la structure propre et ceux qui n'en permettent que la mise à jour partielle. Les algorithmes du premier groupe reposent largement sur la notion de dégénérescence des valeurs propres qui permet de réduire la dimension du problème grâce à la sphéricalisation du sous-espace bruit. Ainsi donc, la mise à jour vers la nouvelle instance de la structure propre associée aux sources peut être faite dans un espace de dimension M + 1, bien inférieur à N. Par ailleurs, les algorithmes du second groupe reposent sur l'emploi de techniques très connues comme la descente du gradient ou l'optimisation des coecients d'un ltre RLS pour générer la nouvelle instance du sous-espace sources, les valeurs propres n'étant cette fois pas mises à jour. Toutes ces méthodes proviennent de la littérature et ont été développées pour des signaux avec information de phase qui sont supposés non corrélés. Bien que l'emploi de la méthode directe en début de séquence permet de produire un sous-espace sources non corrélé, le processus de mise à jour de rang 1 à travers lequel des trames de données sont ajoutées pour mettre à jour Es avec un certain facteur d'oubli entraîne à nouveau la corrélation.

An que cette problématique n'engendre pas une détérioration des performances de l'algo- rithme MUSIC, des méthodes utilisées conjointement avec les algorithmes de mise à jour de la structure propre sont développées an de maintenir le sous-espace sources non corrélé. Alors qu'en traitement d'antenne-réseau le lissage spatial est de loin la méthode la plus utilisée lorsque les émetteurs sont corrélés, une adaptation de cet algorithme pour des signaux réels

ne permet pas d'obtenir une performance aussi intéressante. Deux autres algorithmes déve- loppés dans le cadre de ce mémoire et fondés sur le fenêtrage des vecteurs propres permettent de dégager de bien meilleures performances. Évidemment, l'utilisation de la méthode directe au début de la séquence demeure nécessaire pour former la première instance de la structure propre (Es, Λs).

Les essais eectués aux chapitres 3 et 4 permettent de quantier la performance des trai- tements pour éliminer la corrélation ainsi que celle des algorithmes de suivi de la structure propre. En premier lieu, à la section3.2.4du chapitre3, les résultats démontrent que des gains considérables sur le temps d'exécution sont possibles sans faire de compromis inacceptable sur l'erreur de position. En particulier, l'algorithme du fenêtrage optimisé permet de diminuer le temps d'exécution de près de 95% grâce au passage de la dimension N vers la dimension nF.

En second lieu, les essais préliminaires réalisés au chapitre 4 permettent de déterminer dans quelle mesure les algorithmes de suivi de la structure propre performent en situation de vitesse variable ou de croisement en fonction du SNR. Ainsi, un certain nombre de combinaisons sont retenues de par leurs résultats jugés supérieurs à ceux obtenus avec les autres algorithmes. En dernier lieu, les essais réalisés avec des données provenant d'un système LIDAR permettent de mettre en évidence toute la complexité du processus de choix du nombre d'échos par la méthode à complexité élevée. Bien que ces essais soient fournis à titre indicatif et que les per- formances associées à chaque méthode soient très similaires, la combinaison de l'algorithme DPM et du fenêtrage optimisé permet d'obtenir d'excellents résultats dans les trois situations. En dénitive, ce projet de recherche visait avant tout à vérier la validité de l'utilisation des méthodes de suivi du sous-espace sources avec des signaux réels dans le but de diminuer la charge de calculs nécessaire à l'utilisation en temps réel de l'algorithme MUSIC. À cet eet, les résultats obtenus tendent à démontrer que la plupart des algorithmes conçus initialement pour le traitement d'antenne-réseau classique sont utilisables dans un contexte où les signaux sont réels et que la combinaison de ces algorithmes avec les méthodes développées en 3.2.3 pour éliminer la corrélation permet l'atteinte de cet objectif grâce à une réduction de 25% à 95% du temps d'exécution. De plus, les résultats obtenus lors du chapitre 4 démontrent qu'il est souvent plus ecace d'utiliser une méthode de suivi du sous-espace sources lorsque la vitesse des objets sur la scène augmente. En eet, par exemple, pour les résultats présentés par la gure4.2concernant la combinaison de la fenêtre optimisée et de l'algorithme DPM, bien que l'erreur soit plus élevée que celle de la méthode directe lorsque la vitesse est faible, elle diminue bien en deçà de celle-ci à mesure que la vitesse augmente. Ce résultat semble d'ailleurs pouvoir être généralisé à pratiquement toutes les combinaisons de méthodes. Par ailleurs, bien que la méthode directe demeure la plus précise lorsque le SNR diminue ou lorsque le chevauchement entre les échos augmente, il est intéressant de noter la bonne performance des algorithmes de suivi du sous-espace sources, en particulier dans les situations où la vitesse est élevée et le SNR faible. Finalement, il est démontré en 4.2.3 que l'algorithme du fenêtrage optimisé

développé au chapitre 3 présente un excellent taux de rejection des faux positifs, cela est un atout important pour tout système opérant sur des données du monde réel. Les essais réalisés en 4.3 sur les données provenant du LIDAR démontrent d'ailleurs l'ecacité de ce dernier algorithme à faire  des faux positifs.

Travaux futurs

Tous les algorithmes étudiés dans ce mémoire sont utilisés dans un état de boucle ouverte par rapport à leurs paramètres, soient le nombre de trames LRXX à utiliser avec la méthode

directe, le facteur d'oubli du fenêtrage µF et le facteur d'oubli des algorithmes du sous-espace

sources µ. Or, les essais réalisés en 3.2.4 ainsi qu'à l'annexe A démontrent qu'il peut être intéressant de faire varier les facteurs d'oubli en fonction de la vitesse des échos ou du SNR des vecteurs propres, si de telles mesures sont disponibles. Ce faisant, des méthodes de contrôle en boucle fermée pourraient être développés pour faire varier ces paramètres. Toutefois, une mise en garde s'impose concernant l'ajout d'une boucle de rétroaction provenant d'un étage de traitement subséquent. Étant donné que l'apparition de faux positifs est un phénomène inévitable, l'utilisation, par exemple, d'un algorithme de pistage qui tente de déterminer la vitesse de déplacement des objets détectés y sera soumis. Il faut alors être conscient qu'il n'est pas impossible qu'une erreur lors du pistage soit propagée par rétroaction dans l'étage de détection et entraîne une divergence des algorithmes à cet étage. Des essais sont nécessaires pour quantier la portée de ce phénomène.

Par ailleurs, le traitement de la matrice ReXX par la matrice RModele permet d'éliminer la corrélation dans Esmais entraîne comme eet secondaire la déformation des vecteurs propres

de En. En eet, il a été démontré en3.3.1 que cela a pour eet d'engendrer des résidus dans

les vecteurs propres du bruit, ce qui complique le processus de sélection du rang du sous- espace sources Es. À l'inverse, des vecteurs propres qui ne contiennent que du bruit blanc

sont souhaitables puisqu'ils n'y a alors pas d'ambiguïté lors du choix des vecteurs propres de Es. Ce faisant, il pourrait être intéressant d'envisager l'utilisation d'une fenêtre d'un autre

type pour traiter la matrice ReXX de façon à diminuer la déformation des vecteurs propres du bruit. Cette même étude pourrait s'étendre à la fenêtre utilisée lors du traitement pour contrer la corrélation avec le suivi du sous-espace sources. En guise de premiers pas dans cette direction, l'annexeCcomporte une analyse de l'eet sur le pseudospectre de l'utilisation d'une forme rectangulaire plutôt que gaussienne pour traiter la matrice ReXX.

L'algorithme du fenêtrage rectangulaire développé en 3.2.3.2est intéressant mais nécessite un temps d'exécution déraisonnable en début de séquence pour faire l'association entre chaque vecteur propre de Es et la position de l'écho qu'il contient. Cette façon de faire semble à

priori être associable à une méthode de force brute, c'est-à-dire d'eectuer tous les calculs sans se poser de questions. Or, il pourrait être intéressant de développer des optimisations

pour éviter ce calcul fastidieux. Par exemple, certaines lois de dénombrement pourraient être utilisées an d'obtenir plus rapidement les combinaisons manquantes à mesure que certaines sont déduites. En outre, les algorithmes de fenêtrage perdent en général de leur performance lorsqu'il y a chevauchement entre les échos. Cette perte semble inévitable étant donné l'idée sur laquelle ces méthodes reposent, soit l'élimination de tout ce qui se trouve à l'extérieur d'une zone centrée sur l'écho lui-même. Lorsque deux échos se chevauchent, il devient complexe de mettre ecacement en ÷uvre cette idée. Des méthodes pourraient donc être développées an de prendre cela en considération et ainsi permettre de minimiser l'erreur sur l'estimation de la position lorsqu'un chevauchement a lieu.

Annexe A

Variation des facteurs d'oubli

A.1 Variation du facteur d'oubli µ

Au chapitre 4, des valeurs jugées optimales ont été utilisées pour le facteur d'oubli (ou le pas de convergence du gradient pour certaines) des méthodes de suivi du sous-espace sources puisqu'il n'existe pas de mécanisme ou de critère pour en faire la variation lors du traitement. Or, si une mesure du SNR des trames ou de la vitesse des objets est disponible, il pourrait être avantageux de chercher à faire varier ce facteur. An de démontrer ces propos, les gures A.1 etA.2illustrent un graphique de la vitesse des échos en fonction du facteur d'oubli pour deux valeurs de SNR. Lorsque le SNR est de 15 dB ou plus, il ne semble pas intéressant de faire varier µ. En eet, bien que chaque algorithme semble posséder une certaine valeur optimale, aucun d'entre eux ne contient une valeur qui est optimale à une certaine vitesse sans toutefois l'être à une autre vitesse. Par exemple, il sut de poser ν > 0.5 avec l'algorithme de la DPM (qui est la valeur du pas du gradient et non pas un facteur d'oubli) ou µ < 0.7 avec l'algorithme de Karasalo pour être certain d'obtenir un résultat optimal. Par ailleurs, lorsque le SNR est de 5 dB, la valeur optimale du SNR semble changer en fonction de la vitesse pour certains algorithmes. Globalement, il semble cette fois mieux de maintenir µ élevé an d'être moins sensible aux eets du bruit et de procéder à de légères variations en fonction de la vitesse des échos. Par exemple, pour l'algorithme PASTd une valeur de µ > 0.8 semble idéale pour des vitesses inférieures à 100 kmh alors qu'une valeur de µ < 0.6 semble idéale pour des vitesses

plus élevées.