• Aucun résultat trouvé

Résumé du chapitre 7 (Conclusion)

Les solutions de navigation de GNSS font de plus en plus partie de notre vie quotidienne, comme c’était le cas pour les téléphones cellulaires. Mais ces solutions GNSS et plus spécialement les solutions GPS, sont soumises à beaucoup de problèmes, surtout dans les environnements indoors, comme la puissance du signal reçu qui est très faible, les multitrajets, les interférences, etc.

L'objectif principal de cette thèse était de caractériser le canal GPS d'abord et de trouver par la suite des solutions en soft qui permettent d'améliorer le processus d'acquisition dans les environnements fortement contraints.

Ainsi, dans la première partie, l'impact de multitrajets et de intercorrélations sur le processus d'acquisition de signaux GPS a été étudié pour les environnements indoors et urbains. Pour les environnements indoors, un modèle du canal variant avec le temps a été développé basé sur une analyse statistique effectuée par l'ESA ; alors que pour les environnements urbains, le canal a été caractérisé en utilisant le modèle LMMCM du DLR.

Dans la deuxième partie, les différentes des techniques avancées d'acquisition GPS qui ont été considérées, ont surtout visé la réduction du temps de calcul (donc indirectement le TTFF), sans affecter la sensibilité de récepteur. Les performances de ces algorithmes ont été comparées.

Conclusions

Pour les cas indoors, les résultats sur la caractérisation du canal montrent que les répliques de multitrajets ne perturbent pas les performances de l'acquisition, que ce soit en présence ou en absence du LOS, car leurs Dopplers et leurs délais sont dans les limites d'erreurs tolérées en acquisition pour ces deux paramètres. Par conséquent, ils ne sont pas ou très difficilement détectés pendant l'acquisition. Cependant, il faut toujours garder en tête que poursuivre un mulitrajet n'est pas désiré dans un récepteur GPS. Par ailleurs, les simulations mettent en évidence des atténuations relatives de multitrajets comparés au LOS compris entre 14 et 17 dB. Finalement, nous avons remarqué que dans certains cas les multitrajets impliquent une petite augmentation du niveau du bruit : 1 dB au maximum. D'autre part, il a été souligné que les intercorrélations sont particulièrement inquiétantes car elles induisent des erreurs de l’ordre du Km.

Dans les milieux urbains et les environnements du type canyon, les multitrajets ne perturbent pas non plus l'acquisition, puisque les délais maximaux trouvés étaient dans ce cas- là généralement inférieur à la durée d’1/2 chip du code C/A. Les résultats ont en outre mis en évidence une corrélation assez claire entre les délais maximaux et l'angle d'élévation des satellites : Ceux-ci diminuent avec l'augmentation des angles d'élévation satellites (des délais de l'ordre de 50ηs ont été trouvés à un angle d'élévation de 90 °). Dans ces environnements, nous avons relevé une atténuation relative des multitrajets par rapport au LOS qui varie entre –5 dB et –18 dB. Comparé aux atténuations des multitrajets en indoors (14 à 17 dB), ils sont

généralement moins atténués. Les pics d’intercorrélation se sont ont générés de très grandes erreurs dans ce cas-là aussi. En effet, les pics correspondants peuvent se produire à des délais aléatoires, à l’intérieur d’une période donnée du code, alors que ceux relatifs aux multitrajets dépendent du retard du LOS (ils ont des retards généralement proches) et ils sont progressivement atténués quand les délais augmentent. Dans tous les cas, le LOS a pu atteindre le récepteur la plupart du temps. Mais, dans les cas où il n’était pas disponible, un écho a plutôt été acquis et des problèmes d’intercorrélation sont apparus. Il est à noter cependant que selon l'application visée, il serait préférable de fournir aux boucles de poursuite des valeurs d'initialisation, qui peuvent être une bonne première approximation, voire de fournir une position avec un signal reflété plutôt que de ne pas être capable de déterminer une position du tout.

Toutes ces observations ont ouvert la voie à étudier l’HSGPS et l’AGPS d’une part, et à considérer des algorithmes de traitement de signaux GPS plus performants dans une deuxième partie de cette thèse.

Ainsi, dans cette deuxième partie, plusieurs tests ont été d'abord réalisés pour illustrer les performances de l’HSGPS et de l’AGPS. Le BT338 a été utilisé comme récepteur HSGPS, alors qu'une solution de Thalès Alenia Space a été utilisée pour tester le mode AGPS. Comparé à un récepteur classique, les récepteurs HSGPS bénéficient d’une plus grande disponibilité dans les environnements contraints : la position a pu être obtenue avec le récepteur HS dans les canyons urbains, pendant qu'un récepteur conventionnel ne pouvait pas produire une position dans de tels environnements. Les résultats obtenus dans les environnements urbains ont été répercutés par ceux des environnements indoors. En effet, dans des environnements indoors semblables, les récepteurs conventionnels ne pouvaient pas opérer, pendant que l'unité HS pouvait toujours fournir des positions. Ce résultat est confirmé par Karunanayake, parmi d’autres, qui a constaté que le seuil de poursuite des récepteurs Haute Sensibilité est environ à 18 dBHz, c'est à dire environ 14 dB en dessous de la limite de poursuite du récepteur GPS conventionnel évalué au cours de cette thèse et trouvée à 32 dBHz. Le BT338 utilisé dans les tests réalisés au cours de cette thèse a fourni un seuil de poursuite de 10 dBHz! Karunanayake a aussi constaté que le seuil d'acquisition est à 32 dBHz environ, montrant ainsi que le HSGPS n'est pas très robuste pour être utilisé tout seul dans les environnements dégradés. Mais, généralement, un niveau dégradé de performance de positionnement, notamment la précision, est observé quand la comparaison est possible entre le récepteur HS et les récepteurs conventionnels, comme montré dans plusieurs références. En bref, les applications qui utiliseront des récepteurs HSGPS doivent trouver un équilibre entre la disponibilité de solution et la précision de la position à moins que la détection et la réjection d’erreurs ne soient intégrés pour garantir une navigation fiable. L'AGPS améliore essentiellement la sensibilité du récepteur pendant l’acquisition, permettant ainsi de fournir une position GPS dans des conditions difficiles. Il bénéficie en outre d’une bonne précision comparé à la technique HSGPS. De plus, il diminue radicalement le TTFF qui est très important pour les applications commerciale temps réel. Pour l'AGPS le seuil de la poursuite a été trouvé à environ 19 dBHz. En raison du manque de temps, le TTFF obtenu avec l'AGPS n'a pas été étudié. Cependant Karunanayake a constaté que le TTFF est considérablement plus réduit en cas d'AGPS grâce aux données d’assistance. Il peut être conclu que l'assistance fournie une aide "grossière" qui n'est pas utile dans l'amélioration de la performance de la poursuite (le même seuil de poursuite que le récepteur HSGPS). En effet, quand le récepteur est dans le mode poursuite, il possède une information de temps et de position beaucoup plus précise. L'AGPS utilise le réseau sans fil pour fournir des données d'assistance au GPS mobile et est ainsi une solution inhérente pour les techniques hybrides. En plus, l’AGPS peut

facilement intégrer les techniques de Hautes Sensibilité. En effet, les développements récents de la technique d'AGPS ont permis de réaliser de longues intégrations cohérentes en fournissant le message de navigation, une information de temps, l’almanach et une position approchée via des canaux de communications différents. Cette assistance permet des intégrations plus longues que 20ms et peut améliorer le timing du récepteur pour diminuer les restrictions causées par une mauvaise compensation du Doppler. En résumé, l’AGPS fournit une meilleure sensibilité en acquisition et des performances de poursuite semblables aux récepteurs HSGPS. Comme cette thèse se focalise surtout sur les méthodes d'amélioration de l'acquisition, c'est l'AGPS qui a été choisi dans ce contexte. Il est important de rappeler cependant que l'utilisation de l’AGPS n’interdit l’utilisation de l’HSGPS pour le compléter.

L'utilisation d'AGPS doit être en plus couplée avec les algorithmes avancés d'acquisition. L'amélioration vise essentiellement du TTFF, en essayant de ne pas affecter la sensibilité de récepteur de façon significative. Chaque algorithme a été théoriquement décrit et analysé en présentant ses avantages et inconvénients.

Ces algorithmes peuvent être divisés en deux catégories :

- Les algorithmes "mono-satellites" qui acquièrent les satellites un par un et améliorent l'acquisition de chaque satellite. Les algorithmes considérés sont dans ce cas-là: FFT classique, la corrélation moyennée, l'intégration cohérente en sommant après FFT- IFFT, l'intégration cohérente en sommant avant FFT-IFFT, la FFT transverse, et la FFT shift.

- L’algorithme "multi-satellite" qui acquière plus d’un satellite en parallèle, permettant ainsi de réduction la complexité, le SOR. Un algorithme combiné a été aussi considéré (SOR optimisé), où le SOR a été couplé avec la FFT transverse pour acquérir le premier satellite.

Une optimisation commune a été aussi considérée pour les algorithmes "mono- satellites", qui est un résultat de la propriété de la FT : la réplique de code est générée une fois pour toutes au début du processus d'acquisition, au lieu de la générer à chaque itération, pour chaque case fréquence et pour chaque accumulation non-cohérente.

Après avoir décrit ces algorithmes, un ensemble d’expériences a été réalisé pour les comparer l'un avec l'autre en mettant en relief leurs avantages et inconvénients respectifs. Dans tous les tests, des signaux générés par un Spirent STR4500 ont été utilisés. Trois rapports C/N0 différents ont été considérés : 42 dBHz typique d'environnements ruraux, 27

dBHz typique d'environnements urbains et 17 dBHz typique d'environnements indoors. La performance des algorithmes du point de vue de la complexité et de la sensibilité a été évaluée en utilisant trois types de tests :

- Le premier s'est concentré sur la complexité des algorithmes (le nombre d'additions, multiplications et cycles de processeur pour exécuter l'acquisition) pour des paramètres semblables. Les résultats ont montré que la performance des algorithmes dépend surtout du nombre d'intégrations cohérentes ; en d’autres termes, la classification des algorithmes est la même quelle que soit la valeur de M, mais ce n'est pas le cas pour toutes les valeurs de T . p

- Le deuxième test s'est plutôt focalisé sur la sensibilité, en comparant la perte dans l'estimation du rapport C/ N0 induite par chaque algorithme, encore une fois pour des

paramètres égaux.

- Finalement, le troisième a comparé le temps minimal, évalué du point de vue du nombre d'opérations arithmétiques et du nombre de cycles processeur nécessaires pour chaque algorithme pour acquérir un signal à un C/ N0 donné.

Les résultats montrent que la classification de performance d'algorithmes dépend surtout du nombre d'intégrations cohérentes et ne dépend pas de M, car la complexité n’augmente pas linéairement avec la durée d'intégration cohérente.

Pour un Tp ≥7ms - nécessaire pour des environnements sévères, les résultats ont montré un avantage net de la FFT transverse sur les autres algorithmes, car elle présente une complexité minimale, et en même temps ne conduit pas à des pertes en sensibilité.

L’algorithme de la FFT transverse est suivi par l’algorithme de la sommation avant corrélation.

Pour un Tp ≤7ms, l’algorithme de la sommation avant corrélation est le plus performant, suivi par la FFT transverse.

Pour un Tp =1ms, l’algorithme de la FFT shift est le plus efficace. Il est suivi de l’algorithme de la sommation avant corrélation. La FFT transverse n’est plus que le 5eme algorithme en termes de performances en acquisition. L’algorithme de la sommation après corrélation a des performances comparables à l’algorithme de la FFT classique, voire même pires dans certains cas.

En ce qui concerne l’algorithme SOR introduit dans ce manuscrit, il peut être relativement plus intéressant quand M et Tp sont présélectionnés indépendamment de la valeur du rapport

0

/ N

C , donc en d’autres termes si ces deux paramètres sont légèrement surestimés.

Finalement, en termes d’occupation mémoire, les algorithmes de la sommation après et avant corrélation ont des besoins en mémoires assez faibles, alors que l’algorithme de la FFT transverse est plus contraignant en termes de mémoire. Il est à noter que l’algorithme SOR est basé sur la FFT transverse pour l’acquisition du premier satellite, et l’algorithme de la sommation après corrélation pour l’acquisition des autres satellites. Ceci rend cet algorithme aussi contraignant qu’en mémoire que la FFT transverse.

Documents relatifs