• Aucun résultat trouvé

Communications multipoints pour les réseaux acoustiques sous-marins

N/A
N/A
Protected

Academic year: 2021

Partager "Communications multipoints pour les réseaux acoustiques sous-marins"

Copied!
157
0
0

Texte intégral

(1)

HAL Id: tel-03005628

https://tel.archives-ouvertes.fr/tel-03005628

Submitted on 14 Nov 2020

HAL is a multi-disciplinary open access archive for the deposit and dissemination of sci-entific research documents, whether they are pub-lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.

Communications multipoints pour les réseaux

acoustiques sous-marins

Christophe Bernard

To cite this version:

Christophe Bernard. Communications multipoints pour les réseaux acoustiques sous-marins. Infor-matique [cs]. Université de Bretagne Occidentale (UBO), Brest, 2020. Français. �tel-03005628�

(2)

Thèse de doctorat

Christophe BERNARD

Université de Bretagne Occidentale Comue Université Bretagne Loire École Doctorale N°601

Mathématiques et Sciences et Technologies de l’Information et de la Communication Spécialité : Télécommunications

Communications multipoints pour les réseaux

acoustiques sous-marins

Thèse présentée et soutenue à Brest, le 19 Octobre 2020

Unité de recherche : L@bISEN Yncréa Ouest / équipe SEACom

Composition du Jury

Rapporteurs : Mme Geneviève Baudoin Professeur émérite, ESIEE M. Benoit Geller Professeur, ENSTA Paris IPP

Examinateurs : M. Emanuel Radoi Professeur, Université de Bretagne Occidentale, Lab-STICC M. Ayman Alfalou Professeur Yncréa Ouest, Directeur de thèse, L@bISEN YO

(3)
(4)

Remerciements

Je tiens à remercier tout d’abord les membres du jury pour avoir accepté d’exa-miner cette thèse. Je remercie monsieur Emanuel Radoi qui m’a fait l’honneur de présider le jury. Merci à madame Genève Baudoin et monsieur Benoit Geller d’avoir accepté de rapporter cette thèse et pour le temps qu’ils ont consacré à mon travail. Merci également à monsieur Ayman Al Falou et à monsieur Nicolas Le Josse pour leurs participations au jury et pour l’intérêt qu’ils ont porté à mes travaux.

Je tiens aussi à remercier mon encadrant de thèse, monsieur Pierre-Jean Bouvet qui m’a aidé tout au long de ces 3 années de recherche, d’un point de vue scientifique, mais également pédagogique. Je lui suis très reconnaissant pour les conseils qu’il m’a donné et pour le temps qu’il a consacré à mon travail. Je remercie également monsieur Philippe Forjonel pour son aide, ses conseils et pour avoir consacré du temps durant les différentes expérimentations.

Merci enfin à l’ensemble du personnel de l’ISEN Brest et plus particulièrement aux membres de l’équipe SEACom avec qui j’ai eu le plaisir de passer ces quelques années. Je leur témoigne ici ma plus sincère amitié.

(5)
(6)

Table des matières

1 Introduction générale 1

1.1 Contexte de la thèse . . . 1

1.2 Présentation de la thèse . . . 1

1.3 Véhicules sous-marins . . . 2

1.4 Communication en milieu sous-marin . . . 5

1.5 Réseaux acoustiques sous-marin . . . 9

1.6 Problématique . . . 11

1.7 Plan du manuscrit et contributions . . . 13

2 Les communications ASM 15 2.1 Introduction . . . 15

2.2 Les caractéristiques du canal ASM . . . 16

2.3 Formes d’ondes pour les communications ASM . . . 23

2.4 Conclusion . . . 34

3 Protocoles d’accès multiples 37 3.1 Introduction . . . 37

3.2 Transmission multi-utilisateur . . . 38

3.3 Les protocoles d’accès aléatoires . . . 43

3.4 Les protocoles d’accès déterministes . . . 48

3.5 Conclusion . . . 59

4 Nouvelles formes d’onde 61 4.1 Introduction . . . 61

4.2 Modèle de transmission . . . 62

4.3 Formes d’ondes MU-CSS . . . 66

4.4 Formes d’ondes MU-HFM . . . 68

4.5 Résultats sur canaux simulés . . . 71

4.6 Conclusion . . . 82

(7)

5.1 Introduction . . . 83

5.2 Technique SIMO . . . 84

5.3 Technique MU-MIMO . . . 88

5.4 Estimation du Doppler de mouvement . . . 94

5.5 Conclusion . . . 97 6 Résultats expérimentaux 99 6.1 Introduction . . . 99 6.2 Sondages de canaux . . . 100 6.3 Canal Watermark . . . 104 6.4 Résultats. . . 106 6.5 Conclusion . . . 111

7 Conclusion générale et perspectives 113 7.1 Synthèse . . . 113

7.2 Production scientifique . . . 115

7.3 Perspectives . . . 116

A Compléments sur le MU-CSS et le MU-HFM 119 A.1 Justification du processus de construction du MU-CSS Gram-Schmidt119 A.2 Détails des calculs pour la relation d’orthogonalité de Simpson du MU-HFM . . . 120

Table des figures 121

Liste des tableaux 125

Glossaire 127

Acronyms 131

(8)

Chapitre 1

Introduction générale

1.1

Contexte de la thèse

Ces travaux de thèse ont été réalisés dans le laboratoire L@bISEN Yncréa Ouest au sein de l’équipe de recherche Systèmes Embarqués Acoustique et Communica-tions (SEACom). Cette thèse a été en partie financée par le région Bretagne au travers du programme émergent régional Systèmes Autonomes en Milieu Maritime (SAMM), également par Thales DMS dans le cadre du laboratoire commun WAVES

et enfin par l’ISEN Brest Yncréa Ouest.

1.2

Présentation de la thèse

Depuis plusieurs années, les drones sous-marins, dénommés Autonomous Un-derwater Vehicle (AUV) en anglais, connaissent un engouement croissant du fait de leurs nombreuses applications à la fois militaires et civiles. Plus récemment, le fonctionnement en meute ou en essaim de ces robots sous-marins est de plus en plus recherché afin de mailler une plus grande zone et d’augmenter la résilience vis-à-vis de la perte d’un robot. Afin de pouvoir collaborer efficacement, lesAUV ont besoin de communiquer des données (image SONAR, position, résultats de pistage, etc ...) aux autres drones ou vers la surface. Les engins étant autonomes et mobiles, cette communication se doit d’être sans fil. Toutefois, de part la physique du milieu sous-marin, les ondes radios classiquement utilisées en aérien sont atténuées au bout de quelques mètres de distance. Si les communications optiques, au moyen de laser ou de Light-Emitting Diode (LED), permettent d’atteindre des distances un peu plus longues (quelques dizaines de mètres voire quelques centaines de mètres), elles ne sont pas adaptées au contexte mobile des AUV et aux eaux turbides présentes en milieu côtier. Cela a pour conséquence que les ondes acoustiques sont largement

(9)

utilisées en communication sous-marine sans fil. Cependant, comme nous le verrons plus loin, le canal de communication Acoustique Sous-Marin (ASM) est réputé comme très complexe (trajets multiples, effet Doppler, nombreuses sources de bruit, bande de fréquences limitée, ...). Par ailleurs, pour communiquer simultanément, les drones sous-marins doivent se partager un même canal de communication, nous parlerons ainsi de communication multi-utilisateur où chaque drone est vu comme un utilisateur des ressources du canal de propagation. Ce partage peut se faire au moyen de protocoles basés sur la négociation (nous parlerons par la suite de proto-coles aléatoires) ou au moyen de protoproto-coles où les ressources du canal ASMsont allouées aux différents utilisateurs suivant une règle prédéterminée (nous parlerons par la suite de protocoles déterministes). Afin de pouvoir prédire le débit de chacun des drones, nous nous orienterons dans cette thèse vers des protocoles déterministes. Toutefois, du fait de la complexité du canal ASM, nous verrons plus loin que le protocole d’accès déterministe traditionnellement utilisé en communications ASM

classique consiste à allouer tour à tour à chaque élément du réseau d’AUV une fenêtre temporelle pour émettre de l’information vers les autres noeuds du réseau. Cette méthode, dénommée en anglaisTime-Division Multiple Access (TDMA) a toutefois pour défaut de nécessiter une synchronisation entre les différents porteurs et surtout de limiter le débit et la réactivité du réseau. L’objectif général de la thèse est de s’affranchir des contraintes de synchronisation et de la latence du

TDMA en donnant la possibilité à plusieurs éléments de la meute de communiquer simultanément au moyen de protocoles d’accès déterministes innovant optimisés pour le canal de communicationASM.

Dans ce premier chapitre, nous allons tout d’abord présenter les différents types de véhicules qui sont employés en milieu sous-marin afin de comprendre l’intérêt des

AUVs. Puis, nous décrivons les différents moyens de communication utilisés sous l’eau avec leur avantages et inconvénients. Cette description permettra au lecteur de cerner dans quelles circonstances un moyen de communication est privilégié par rapport à un autre. Enfin nous aborderons la notion de réseaux acoustiques sous-marin, dont les flottes de drones communiquant par liaison acoustique qui font l’objet de ce manuscrit, en sont un cas particulier. Nous terminons par une présentation du plan du manuscrit et par les différentes contributions réalisées au cours de la thèse.

1.3

Véhicules sous-marins

La Terre est recouverte approximativement par 70% d’eau. Selon un rapport [85] environ 95% des océans et 99% des fonds marins restent inexplorés. Les recherches pour comprendre l’environnement sous-marin et exploiter les riches ressources

(10)

sous-marines ont conduit à l’essor de l’exploration sous marine. Pour pouvoir découvrir les fonds des océans, des véhicules sous-marins sont très souvent utilisés, ils se répartissent en 2 grandes classes : les véhicules habités et les véhicules non habités. Dans la catégorie des véhicules habités, nous distinguons les sous-marins des submersibles. Les premiers sont des engins de grande taille manoeuvrés par un équipage. La période d’immersion d’un sous-marin est plus ou moins longue selon les besoins de la mission, mais peut aller jusqu’à plusieurs mois dans le cas du Sous Marin Nucléaire Lanceur d’Engin (SNLE). Le seconde type de véhicules habités comprend essentiellement des submersibles de petites tailles conçus pour l’exploration et l’intervention en grande profondeur tel que le Nautile conçu par l’Ifremer. Il peut opérer jusqu’à des fonds de 6000 mètres. L’équipage est limité à 2 ou 3 personnes et la quantité d’oxygène est très limitée.

Les véhicules sous-marins non habités

Également connus sous l’acronyme Unmanned Underwater Vehicle (UUV), les véhicules sous-marins non habités permettent à l’homme d’éviter des tâches dites "DDD" (dirty - sale, dull - sans intérêt et dangerous - dangereux). Le principal avantage de ces véhicules est qu’ils ne mettent pas en danger la vie humaine. La nature de la liaison avec la surface permet de diviser ce groupe en 2 grandes catégories : les véhicules téléopérés ou Remotely Operated Vehicles (ROV) et les véhicules autonomes appelés encoreAUV en anglais.

Les véhicules téléopérés

Ce type d’engin est relié à une station de base par un câble (appelé également ombilical) qui permet de l’alimenter et de le commander. L’acquisition d’informa-tions se fait assez rapidement et à distance [33]. Les ROV peuvent être divisés en 2 catégories :

— Les ROV d’observations qui embarquent uniquement des instruments de mesures (appareil photo, sonde,...). Ils sont utilisés par exemple pour vérifier l’état des oléoducs ou pour effectuer des mesures comme la salinité ou la turbidité. Un exemple de ROV d’observation est le BlueROV2 donné en Figure 1.1 à gauche.

— Les ROV d’interventions qui se composent de 1 ou 2 bras manipulateurs équipés d’outils nécessaires à certaines tâches comme la découpe d’un câble sous-marin par exemple le ROV Falcon donné en Figure 1.1 à droite.

Grâce à leur câble, les ROV n’ont pas de problèmes d’autonomie. Cela leur permet de réaliser leur mission sans limitation de durée. De plus, la transmission de données par câble permet une liaison robuste et à haut débit avec la station

(11)

Figure 1.1 – ROV d’observation BlueROV2, ©BlueRobotics (à gauche) et ROV d’intervention Falcon ©SAAB SEAEYE.

de base. Cependant, les ROVont comme principale limite de fonctionnement la liaison filaire qui limite à la fois la profondeur de plongée (si les robots sont reliés à la surface) et le rayon d’action. Pour palier ces limitations, desAUV peuvent être utilisés.

Les véhicules autonomes

Contrairement auxROV, lesAUVne sont pas reliés à la surface par un câble, un exemple est donné en figure1.2. Ils sont donc totalement autonomes et sont destinés à effectuer des missions de courtes portées (surveillance d’un lac) comme de grandes portées telles que l’exploration/sécurisation de zones voire même la traversée d’un océan [12]. Les AUV peuvent être de 3 catégories : les AUV grands fonds [161] conçus pour l’exploration des profondeurs des océans, les AUVcôtiers [80] utilisés pour des tâches d’observations et les planeurs sous-marins [17] employés pour la recherche océanographique. Les AUVsouffrent de plusieurs problèmes comme l’autonomie énergétique, l’autonomie décisionnelle ou encore la communication avec l’extérieur tel que son commanditaire (situé traditionnellement en surface) ou avec d’autres AUV. De plus, à cause de l’absorption des ondes radios dans l’eau, l’AUVlorsqu’il est immergé, tout comme le ROVne dispose pas de signal GPS, ainsi l’estimation de sa position est complexe et nécessite des capteurs évolués comme des centrales inertielles couplées avec un Doppler Velocity Log (DVL)

ou des systèmes de positionnement acoustique tels que Long BaseLine (LBL)ou

Ultra-Short BaseLine (USBL) [57]. 4

(12)

Figure 1.2 – AUV A9-E ©ECA group

1.4

Communication en milieu sous-marin

La communication de données en milieu sous-marin peut-être soit filaire soit sans fil. La première nécessite un câble souvent basé sur de la fibre optique donc très haut débit, un exemple est le câble transatlantique [56]. L’inconvénient des communications filaires est qu’elles sont coûteuses à installer puisqu’elles nécessitent un navire pour le dépôt des câbles et un coût d’entretien important [114]. Par ailleurs, une communication filaire pose des problèmes de mobilité comme nous pouvons le voir avec lesROV. De leur côté, les communications sans fil ne nécessitent pas une liaison physique entre l’émetteur et le récepteur donc un coup d’installation et d’entretien moins élevé. Cependant, la fiabilité de la transmission est moindre comparé à une communication filaire [8]. Le premier système de communication sans fil sous-marin opérationnel était le système de communication acoustique développée par les Etats-Unis vers la fin de la seconde guerre mondiale [61]. Il utilisait la modulation analogique dans la bande de [8, 11] kHz et il a été employé pour la communication avec les sous-marins (ou entre sous-marins). Aujourd’hui, le domaine des communications sous-marines sans fil est en plein essor puisqu’il a un rôle clé dans des applications militaires (surveillance tactique) ou bien des applications civiles (recueil de données océanographiques, contrôle de la pollution) [7]. De nos jours, pour transmettre des données sans fil sous l’eau plusieurs vecteurs de communication peuvent être utilisés :

— Lien radio — Lien optique

(13)

— Lien acoustique

Communication radio

Ce type de communication appelé aussi radiocommunication s’effectue à l’aide d’ondes électromagnétiques [50]. Ces ondes constituent une propagation d’énergie se manifestant sous la forme d’un champ électrique couplé à un champ magnétique. L’information se transmet alors grâce à une modulation constante des propriétés de l’onde, soit son amplitude, sa fréquence, sa phase ou la largeur d’une impulsion [107],[77]. Dans l’eau de mer, les ondes électromagnétiques sont fortement atténuées à cause du caractère dissipatif lié à la forte conductivité de l’eau de mer. En effet, des ondes supérieures à 1 MHz ne pénétreront l’eau de mer que sur quelques dizaines de centimètres. Par conséquent, les communications radios sont utilisées sur de courtes distances de l’ordre de quelques millimètres à quelques mètres pour un débit entre 10 Mbit/s et 100 bit/s (Table.1.3). La communication à grande distance est possible mais à très basse fréquence, nécessitant des antennes de grande dimension et une puissance de transmission élevée [63].

Communication optique

Les ondes lumineuses sont plus efficaces que les ondes radio, de l’ordre de la dizaine de mètres, en fonction de la turbidité de l’eau. La loi la plus simple et la plus utilisée pour expliquer l’atténuation de la lumière sous l’eau est la loi de Beer-Lambert, qui exprime la puissance du signal reçue par le récepteur comme étant [160] :

I = I0e−c(λ)d (1.1)

avec d la distance entre le transmetteur et le récepteur, c(λ) le coefficient d’ab-sorption de l’onde et I0 la puissance émise par l’émetteur. La relation précédente

montre la décroissance exponentielle de l’onde lumineuse sous l’eau, ce qui rend sa propagation difficile sur de longues distances. Par ailleurs, lorsque la turbidité de l’eau augmente, c(λ) augmente, et est multiplié par 40 entre de l’eau pure et une eau très turbide [160]. L’atténuation des ondes lumineuses est donc fonction de la longueur d’onde et des caractéristiques physiques et chimiques de l’eau de mer. La couleur de la mer s’étend du bleu au vert. Le bleu indigo caractérise les mers tropicales et équatoriales, lorsqu’il y a peu de production biologique. A des latitudes plus grandes, la mer est bleu-vert dans les régions polaires. Les eaux côtières sont en général verdâtres. En eau profonde, lorsque l’on regarde sous l’eau, la lumière que l’on voit est celle diffusée par les molécules d’eau. La diffusion étant plus importante pour les petites longueurs d’onde (bleu) que pour les grandes longueurs d’onde, l’eau parait bleue. De plus les composantes rouges et jaunes de la

(14)

lumière solaire sont absorbées en quelques mètres, la seule composante susceptible d’être diffusée est donc le bleu. Pour cela les longueurs d’onde utilisées pour une communication optique sont dans le bleu/vert c’est-à-dire entre [450 − 500] nm [48].

Les communications optiques utilisent des lasers infrarouges ou bien des diodes électroluminescentes appelées LED en anglais (émettant dans le visible ou l’infra-rouge) pour transmettre l’information [47]. Les LED [125] sont employées pour des liaisons à faible débit ' 161 Mbit/s et à courte distance ' 2 m (Table. 1.2) . L’avantage des communications optiques avec laser est que le débit peut être supérieur au Mbit/s mais il faut une grande précision dans le pointage des faisceaux [72]. Le débit est de l’ordre de 1.5 Gbit/s pour une distance ' 20 m.

Pour résumer on peut dire que les communications optiques sous-marines permettent des débits assez important, mais ce type de lien a pour principal inconvénient une faible portée notamment en présence de turbidité [73].

Communication acoustique

Du fait des bonnes propriétés de propagation du son dans l’eau, les ondes acoustiques permettent de communiquer en milieu sous-marin sur de longues distances (plusieurs km). Cependant, la bande spectrale utilisable par les ondes acoustiques est limitée en fonction de la fréquence et de la distance de transmission considérée, ainsi les débits atteignables par ce vecteur de communication sont limités par le produit débit-distance maximum qui est de l’ordre de 40 kbit/s× km [130].

De façon générale, nous pouvons distinguer 5 types de communications acous-tiques sous-marines [153] selon la distance de transmission : très longue distance, longue distance, moyenne distance, courte distance, et très courte distance. La Table1.1 résume les différentes portées et les bandes spectrales de communication utilisées ASM.

Par ailleurs, comme nous le verrons plus en détail dans le chapitre 2, comparé à une transmission radio en aérien, il est bien plus difficile de communiquer dans un canal ASM. Les différents bruits ambiants et phénomènes de trajets multiples perturbent la communication acoustique. Les effets de trajets multiples dus à la réverbération sur le fond marin ou des objets flottants à la surface de l’eau entraînent des retards importants au niveau du récepteur [156]. De plus, au cours d’une communication ASM, l’émetteur et le récepteur peuvent bouger de façon intentionnelle ou non (à cause des courants marins par exemple) provoquant ainsi l’apparition d’un effet Doppler [148]. Un autre inconvénient est la vitesse de

(15)

pro-Distance (km) Largeur de Bande (kHz) Très longue > 100 < 1 Longue 10 − 100 2 − 5 Moyenne 1 − 10 ' 10 Courte 0.1 − 1 20 − 50 Très courte < 0.1 > 100 Table 1.1 – Les différents types de communications acoustiques.

pagation du son sous l’eau qui dépend de la profondeur. Dans la littérature [16], si le fond de la mer se situe à moins de 100 mètres (resp. > 100 mètres) sous la surface, nous avons une eau peu profonde (resp. eau profonde) qui entraîne un phénomène de multi-trajet important dû au réflexion des ondes sur le fond (le contraire en eau profonde). Nous parlons alors d’environnement petit fond ou shallow water en anglais (resp. environnement grand fond ou deep water en anglais). Enfin, selon la configuration de la transmission ASM, on distingue les commu-nications verticales des commucommu-nications horizontales [73]. La première catégorie est affectée par un phénomène de multi-trajet moins important (communication entre une bouée et un capteur fixé sur le fond [97]) qui permet une communication plus robuste contrairement à la seconde catégorie pour laquelle les phénomènes de réflexion sur les interfaces (sol ou surface) sont plus importants notamment en environnement petit fond [129].

Synthèse

La Table 1.2 et la Figure 1.3 résument les spécificités des différents moyens de communications en milieu sous-marin. Une liaison radio sera utilisée pour des communications à très courtes distances (communication sans contact par exemple), un AUV vient par exemple se coller à une station de base pour transmettre ses données à haut débit. La liaison optique peut être utilisée également pour faire des communication très haut débit à courte distance, plutôt en grand fond (afin qu’il n’y ait pas de turbidité), par exemple unAUV vient récolter les données d’un observatoire fond de mer en se positionnant à quelques mètres de l’observatoire.

L’objectif de cette thèse étant de faire communiquer des drones sous-marins, la distance de transmission peut être de l’ordre de quelques centaines de mètres voire plusieurs kilomètres ce qui exclut de fait une communication de type radio ou optique. Par ailleurs, il est difficile d’imposer une contrainte sur l’orientation des drones vis-à-vis d’un récepteur, ce qui encore une fois exclut le vecteur de

(16)

Lien Distance typique Exemple de débit Radio [0, 10] m 10Mbit/s (' 1 m), 100 bit/s (200 m) [28] Optique [0, 100] m 1Gbit/s (20 m) [72], 161 Mbit/s (2 m) [152] Acoustique [1, 106] m 50kbit/s (500 m), 3 kbit/s ([28, 120] km) [8]

Table 1.2 – Caractéristiques des différents moyens de communications

Figure 1.3 – Exemple de débits en fonction de la distance pour les différents moyens de communication.

communication optique. Pour toutes ces raisons, nous nous focaliserons dans cette thèse sur les communications de type acoustique.

1.5

Réseaux acoustiques sous-marin

Généralités

Lorsque une source de transmission communique uniquement avec un seul récep-teur, nous parlons de communication point à point ; à l’inverse lorsque l’architecture de transmission fait apparaître plusieurs sources ou plusieurs récepteurs au sein d’un même médium de communication, nous parlons de communication multipoint et par extension de réseau de communication.

Les progrès récents dans le domaine de la communication ASMont ouvert la voie au développement de réseaux de capteurs acoustiques sous-marin dont les

(17)

applications sont aujourd’hui très nombreuses. Par exemple la surveillance côtière, la détection de mine ou encore la recherche environnementale [124]. Par rapport à un réseau câblé, ce type de réseaux demande un coût d’installation et un en-tretien moindre, un tel réseau est également facilement extensible ou scalable en anglais, des noeuds supplémentaire pouvant être ajoutés facilement. Les réseaux acoustiques sous-marin se composent généralement de capteurs fixés sur le fond marin ou/et de véhicules sous-marins comme les AUVqui sont déployés dans la région d’intérêt [25] comme le montre la Figure 1.4. Un réseau mobile a l’avantage de permettre d’avoir un meilleur rayon d’action dans des tâches de surveillance et d’être plus facile à maintenir [75], [37]. Bien qu’il existe de nombreux protocoles réseau récemment développés pour les réseaux de capteurs sans fil, les caracté-ristiques uniques du canal ASM, telles que la capacité limitée et les retards de propagation élevés et variables [102], nécessitent des protocoles de communication dédiés aux réseaux acoustiques sous-marins afin de rendre les transmissions de don-nées à la fois efficaces et fiables [6] comme nous le verrons en détail dans le chapitre3.

Figure 1.4 – Exemple de réseau acoustique sous-marin.

(18)

Flotte de drones sous-marins autonomes

Lorsqu’une mission est menée par un seul drone, il est en interaction directe avec son environnement [131]. Ce drone est souvent lourd en technologie et onéreux à mettre en oeuvre. De plus, certaines tâches restent complexes à réaliser pour un seul drone comme la surveillance d’une grande zone [12]. Cette limitation de tâche a donc entraîné l’utilisation de flotte de drones comme une meute (lorsqu’il y a un drone leader) ou un essaim (lorsque tous les drones ont le même niveau hiérarchique). L’intérêt principal de l’approche multi-drone est de pouvoir utili-ser des drones avec moins de capteurs, donc plus petits et moins onéreux tout en permettant de couvrir une plus grande zone d’exploration ou de surveillance qu’avec un seul drone. L’approche multi-drone permet également de développer une intelligence collective (pour la détection ou la localisation) et enfin d’augmenter la résilience du système vis-à-vis de la perte d’un ou plusieurs drones.

Lorsque les robots communiquent tous entre eux comme par exemple pour se localiser mutuellement au cours de la mission [108], nous parlerons de réseau maillé [115] et s’ils communiquent tous avec une seule entité appelée noeud central comme une station en surface, nous aurons un réseau en étoile [45]. Pour un réseau en étoile, on distingue deux sortes de transmission [153] : la liaison montante et la liaison descendante par opposition à la liaison point à point comme le montre la Figure 1.5.

Figure 1.5 – Liaison point à point (à gauche), liaison descendante (au centre), liaison montante (à droite).

1.6

Problématique

Pour les raisons énoncées juste avant, nous nous intéresserons dans cette thèse à un réseau d’AUVs (meute ou essaim). Chaque AUV sera pourvu d’un moyen de communication qui sera de type acoustique comme précisé plus haut. Nous supposerons que cette communication se fera vers un point situé en surface pouvant être une bouée, un bateau (habité ou non), ou même un AUV, ce point situé à la

(19)

surface agissant en tant que noeud central du réseau. Nous supposerons que tous les

AUV communiquent vers ce noeud central (pas de relais), nous parlerons alors de topologie en étoile (Figure1.6). Afin de considérer des transducteurs (projecteurs ou hydrophones) classiques, nous nous restreindrons à des courtes voir moyennes distance de transmission impliquant lesAUV à évoluer à environ 1 km maximum du noeud central. Les débits des communications seront au maximum de l’ordre du kbit/s puisque l’application recherchée serait de transmettre des valeurs de position ou pistes (gisement, fréquence d’une cible) dans la cadre d’une lutte anti sous-marine par exemple. Pour obtenir des débits de communication plus important, une solution pour les drones, consiste à se rapprocher de la station de base et de communiquer par liaison optique ou radio.

Figure 1.6 – Schéma montrant 3 drones communiquant avec un récepteur.

L’objectif de cette thèse est de proposer de nouveaux protocoles de commu-nication adaptés au canal ASM et permettant à une flotte d’AUV (jusqu’à 10 utilisateurs) de transmettre de l’information simultanément au sein d’une même bande spectrale avec une très bonne fiabilité. Les protocoles proposés devront être le plus résilient possible aux effets néfastes du canal de propagation acoustique en mi-lieu sous-marin ainsi qu’aux phénomènes induits par le mouvements des robots (tels que l’effet Doppler). Enfin, les protocoles proposés devront prendre en considération les contraintes énergétiques des véhicules marins ou sous-marins en admettant des procédés d’encodage et de décodage de faible complexité d’implémentation.

(20)

1.7

Plan du manuscrit et contributions

Ce manuscrit se compose de 7 chapitres. Chacun d’eux commence par une courte introduction présentant le contexte et se termine par une ouverture sur les chapitres suivants.

Le chapitre 2 a pour objectif de décrire les spécificités du canal de communica-tion ASM ainsi que les distorsions subies par les signaux de communications. Pour terminer, les modulations traditionnellement utilisées en acoustiques sous-marine sont présentées.

Dans le chapitre3, nous proposons un état de l’art des protocoles d’accès utilisés en acoustique sous-marine. Une distinction sera faite entre les protocoles aléatoires et déterministes. Les avantages et inconvénients de chaque protocole seront étudiés et illustrés par des résultats de simulation.

Les contributions de la thèse commencent dans le chapitre 4 où sont présentés deux nouveaux protocoles permettant d’améliorer la robustesse des communications

ASM. Ils sont basés sur une amélioration de l’orthogonalité entre les différents signaux et une résistance accrue aux effets du canal ASM. Dans un premier temps, une étude théorique de l’orthogonalité sera présentée puis des simulations dans un canal ASM permettront une comparaison de ces nouveaux protocoles par rapport à ceux de la littérature.

Le chapitre 5 explore le traitement multivoie afin d’améliorer les performances des nouveaux protocoles présentés au chapitre précédent. Notamment, nous al-lons utiliser la technique Multi-User Multiple-Input Multiple-Output (MU-MIMO)

combinée avec la méthode Passive Phase Conjugation (PPC)afin d’atténuer les interférences multi-utilisateur. Pour terminer ce chapitre, nous nous intéressons à l’estimation du Doppler de mouvement à l’aide d’un préambule combiné à un banc de corrélateurs.

Finalement, le chapitre6présente une mise en oeuvre pratique des différents pro-tocoles dans des canaux pilotés par des données réelles. Dans un premier temps, des canaux issus d’un lac permettront de tester la fiabilité des différents protocoles. Puis, nous passerons à des canaux plus réalistes avec des données récoltées en mer d’Iroise. Le manuscrit se termine par une conclusion générale, synthétisant les différentes contributions et les perspectives pour des travaux futurs sur la problématique développée dans cette thèse.

(21)
(22)

Chapitre 2

Les communications ASM

Sommaire

2.1 Introduction . . . 15

2.2 Les caractéristiques du canal ASM . . . 16

Célérité de l’onde acoustique . . . 16

Les pertes de propagation . . . 17

Les différents bruits . . . 18

Compression/dilatation Doppler . . . 19

Sélectivités du canal . . . 21

Canal de communication ASM multi-utilisateur. . . 22

2.3 Formes d’ondes pour les communications ASM . . . 23

Modulations non cohérentes. . . 23

Modulations cohérentes . . . 29

Modulation DSSS . . . 34

2.4 Conclusion . . . 34

2.1

Introduction

Ce chapitre décrit tout d’abord les spécificités du canal de communication ASM

comme les effets de trajets multiples dus à la réverbération des ondes acoustiques sur le fond marin ou la surface de l’eau qui entraînent des retards importants au niveau du récepteur ou encore l’effet Doppler engendré par le mouvement de l’émetteur par rapport au récepteur ou le mouvement de la surface de l’eau.

Dans un deuxième temps, nous décrivons les modulations traditionnellement utilisées en communication ASM. Historiquement, les modulations utilisées étaient

(23)

d’abord de type non cohérentes du fait de leurs simplicités, leurs robustesses et leurs fiabilités comme par exemple la modulationChirp Slope Keying (CSK) [71] ou la modulation Frequency Shift Keying (FSK)[95]. Pour augmenter l’efficacité spectrale, des techniques de modulations cohérentes sont désormais de plus en plus employées sous la forme de modulation mono-porteuse comme la modulation

Phase shift Keying (PSK)[86] ou de modulation multiporteuse comme l’Orthogonal Frequency Division Multiplexing (OFDM) [105].

2.2

Les caractéristiques du canal ASM

Le canal de communicationASMcomporte un certain nombre de spécificités que nous allons lister dans cette partie et qui seront nécessaires pour la compréhension des protocoles de communication développés dans cette thèse.

Célérité de l’onde acoustique

Dans l’eau, le son se propage à une vitesse aux alentours de 1500 m/s. Cette célérité, notée c, dépend essentiellement de trois paramètres : la température,

la salinité et la pression. De nombreuses formules empiriques sont disponibles dans la littérature pour exprimer c en fonction de ces paramètres (la pression

est généralement exprimée en fonction de la profondeur zw [140]). Une formule couramment utilisée est celle de Clay et Medwin [35] dont l’expression est :

c(zw, Sa, T ) =1449.2 + 4.6T − 0.55T2+ 0.00029T3

+ (1.34 − 0.01T )(Sa− 35) + 0.016zw (2.1)

oùT représente la température en degré celsius,Sa la salinité en part pour mille, en anglaispart per thousand (ppt) et zw la profondeur en mètres. La célérité de l’onde acoustique varie en fonction des paramètres précédent. Plus précisément, la température diminue avec la profondeur, la pression augmente (effet contraire) et la salinité de l’eau variant peu, la célérité décroit tout d’abord avec la profondeur puis augmente grâce à la pression. Sur la Figure2.1 qui représente un profil de célérité en milieu tempéré, nous pouvons voir que près de la surface à température et pression constante, la vitesse du son est quasiment constante. Lorsque nous arrivons dans la thermocline principale, la température diminue rapidement ce qui entraîne une baisse de la célérité qui n’est pas compensée par l’augmentation de pression due à la profondeur. A partir d’une profondeur de 600 m, la température devient constante et avec l’augmentation de la pression la célérité augmente. De plus, les cycles saisonniers et les marées influencent également la célérité, notamment en petits fonds (zw < 100 m) à cause des changements de température. Les conditions

de propagation peuvent donc être très différentes selon les endroits du globe et les 16

(24)

Figure 2.1 – Profil de la célérité en milieu tempéré [130]. époques de l’année.

Dans le cadre d’une communication ASM, pour les bandes de fréquence consi-dérées, la propagation d’une onde acoustique peut être modélisée par la méthode des rayons [85]. La célérité du son variant avec la profondeur entraîne alors une courbure de ces rayons. A cause des réflexions à la surface de l’eau ou sur le fond, les trajets multiples résultants auront différents retards de propagation au niveau du récepteur.

Les pertes de propagation

Lorsque les ondes acoustiques se propagent dans le canal ASM, elles sont soumises à une perte d’intensité correspondant d’une part à un effet de divergence géométrique et d’autre part à l’absorption de l’énergie acoustique par le milieu de propagation. Ces pertes de propagation influencent fortement l’amplitude du signal reçu et donc les performances du récepteur qui dépendent directement du rapport signal sur bruit ou Signal-to-Noise Ratio (SNR)en anglais.

Les pertes par divergence géométrique

Une onde acoustique qui se propage se répartit sur une surface qui augmente à mesure qu’elle s’éloigne de la source. La forme de la surface d’onde émise dépend du type de source. Pour une source ponctuelle omnidirectionnelle par exemple, l’onde émise est de nature sphérique. L’énergie acoustique émise se répartit donc sur la surface d’une sphère. À mesure que l’onde s’éloigne de la source, la surface de la sphère augmente et l’intensité acoustique diminue. C’est ce phénomène qui

(25)

est appelé divergence géométrique. Ces pertes s’expriment en décibels comme : Ad= 10 × m log10(d) (2.2)

où d est la distance (en mètres) parcourue par l’onde depuis la source, m est

le facteur de dispersion spatiale dépendant de la géométrie de cette dispersion (cylindrique : m = 1, sphérique : m = 2).

Les pertes par amortissement

Le milieu de propagation est dissipatif et absorbe une partie de l’énergie de l’onde sonore, qui est dissipée par viscosité ou par réaction chimique. Le phénomène d’amortissement est souvent le plus important facteur limitatif de la propagation acoustique. Sa valeur dépend fortement du milieu de propagation et de la fréquence porteuse. Dans l’eau de mer, il est dû à la viscosité de l’eau qui induit des forces de frottements à l’échelle moléculaire lors du passage d’une onde acoustique et à la relaxation des molécules de sulfate de magnésium MgS04 pour une porteuse

supérieure à 100 kHz ou à la relaxation des molécules d’acide borique B(OH)3 pour

une porteuse supérieure à 1 kHz. L’amortissement est exprimé par un coefficient d’absorptionα(f ) qui dépend de la fréquence (en kHz) et est exprimé en dB perdu

par kilomètre. L’expression de ce coefficient est donnée par la formule de Thorp [134] : α(f ) ' 0.11 f 2 1 + f2 + 44 f2 4100 + f2 + 2.75.10 −4 f2+ 0.003 (2.3) Les pertes totales de propagation

En additionnant les pertes par divergence géométrique et par amortissement, on peut exprimer les pertes totales en décibels par :

A(d, f ) = 10 × m log10(d) + α(f ).10−3· d (2.4) où d est exprimé en mètres et f en kHz.

Les différents bruits

Nous pouvons distinguer deux types de bruits acoustiques : le bruit naturel comme les activités sismiques, hydrodynamiques (vagues, courants,vents, marées, pluies) et le bruit artificiel fait par l’homme comme les bruits de machines (pompes, usines) ou les activités nautiques. Chacune des sources de bruit peut être modélisée par une distribution gaussienne de densité spectrale de puissance exprimée par Hertz et en dB par rapport à une pression de 1 µPa à 1 m de la source selon les formules suivantes [36] :

(26)

Nt(f ) = 17 − 30 log10(f ) (2.5) Ns(f ) = 40 + 20(s − 5) + 26 log10(f ) − 60 log10(f + 0.03) (2.6) Nw(f ) = 50 + 7.5 √ w + 20 log10(f ) − 40 log10(f + 0.4) (2.7) Nth(f ) = −15 + 20 log10(f ) (2.8)

où f est la fréquence en kHz et Nt, Ns, Nw, Nth représentent respectivement les

bruits de turbulences, de navigation, des vagues et thermique. Le paramètre s est le facteur d’activité maritime compris entre 0 et 1 tandis que w correspond à la vitesse du vent en m/s. Les bruits de turbulences influencent uniquement les basses fréquences f < 10 Hz. Le bruit de navigation causé par les bateaux est dominant pour f ∈ [10, 100] Hz. Le bruit des vagues causé par le vent soufflant sur la surface de l’eau est le bruit principal pour f ∈ [0.1, 100] kHz. Enfin, le bruit thermique devient dominant pour f > 100 kHz [116]. L’expression de la densité spectrale de puissance du bruit total est alors donnée par :

N (f ) = Nt(f ) + Ns(f ) + Nw(f ) + Nth(f ) (2.9)

En se basant sur les modèles de bruits et l’expression des pertes totales de propagation, nous pouvons établir un bilan de liaison pour une sinusoïde de fréquence f se propageant sur un chemin de longueur d [128]. En considérant un trajet direct, l’équation devient :

P (d, f ) = −A(d, f ) − N (f ) (2.10) Elle donne en décibels la perte en terme de SNR subie par la sinusoïde. La Figure

2.2montre plusieurs exemple de cette perte en fonction de la fréquence considérée et ce pour différentes distances de transmission. Nous pouvons remarquer que le canal

ASMest plus sélectif en fréquence lorsque la distance de transmission augmente. Cela entraîne que la bande utilisable pour une communication diminue avec la distance. Dans cette thèse nous nous limitons à une distance maximale de 1 km. Pour cette distance, la bande est assez plate entre 20 et 30 kHz et c’est donc cette bande de fréquences que nous privilégierons par la suite.

Compression/dilatation Doppler

L’effet Doppler apparaît lorsque l’émetteur est en mouvement relatif par rapport au récepteur (et réciproquement). Il s’exprime par un décalage de fréquence fd se

(27)

Figure 2.2 – Bilan de liaison pour une sinusoïde de fréquence f avec une vitesse de vent de 15 km/h qui correspond à une légère brise [89].

calculant comme :

fd= a · fc=

v

cfc (2.11)

où v est la vitesse relative (en m/s) projetée sur le vecteur d’onde, de l’émetteur vis-à-vis du récepteur. c la célérité du son en m/s etfcla fréquence centrale du signal en Hz. Une valeur positive de v signifie que l’émetteur se rapproche du récepteur tandis qu’une valeur négative signifie qu’il s’en éloigne. Le coefficient a = v/c est appelé dans la littérature facteur d’échelle Doppler. Nous pouvons remarquer que la faible vitesse des ondes acoustiques comparée à celle des ondes radio (1500 m/s contre 3.108 m/s) entraîne un effet Doppler beaucoup plus important en

communicationASMqu’en communication radio dans l’air. Le signal reçu en bande de base perturbé uniquement par un effet Doppler de mouvement s’écrit [118] :

r(t) = s (1 − a)te−j2πfcat = s (1 − a)te−j2πfcat (2.12)

Avec s(t) le signal transmis en bande de base etfcla fréquence porteuse. L’équation

2.12 montre que le signal reçu sera compressé ou dilaté suivant la mouvement relatif de l’émetteur par rapport au récepteur. A la réception, l’effet Doppler doit être nécessairement compensé pour éviter une dégradation importante des performances de transmission. L’effet Doppler engendré par le mouvement relatif de l’émetteur vis-à-vis du récepteur sera dénommé par la suite Doppler de mouvement

(28)

par opposition à l’effet Doppler de diffusion que nous allons décrire dans la section suivante.

Sélectivités du canal

Le canal de propagation ASM est caractérisé par des phénomènes de trajets multiples qui vont varier en fonction du temps. Il est ainsi classiquement modélisé à l’instant de t par un filtre linéaire de réponse impulsionnelle finie h(τ, t). Dans la

suite, un modèle de canal ASM simulé sera décrit au chapitre 4 puis la fonction

h(τ, t) sera sondée pour être rejouée via un simulateur de canal au chapitre 6. Afin

de caractériser les effets de sélectivités du canal, il est d’usage de considérer la fonction de diffusion du canal notée S(τ, ν) et dont l’expression vaut [103] :

S(τ, ν) = Z +∞

−∞

h(τ, t)e−j2πνtdt (2.13) La fonction S(τ, ν) donne la distribution de la puissance du signal reçu dans le

plan retard-Doppler. Le lecteur trouvera un exemple de fonction de diffusion issue d’un sondage de canal en Figures 6.4 et6.7.

En intégrant 2.2 suivant l’axe des retards nous obtenons le spectre de toute la puissance Doppler :

Pdop(ν) =

Z +∞ −∞

|S(τ, t)|2 (2.14)

Le spectre de puissance Doppler est une densité spectrale de puissance qui représente la distribution du signal en sortie de canalASMen fonction du décalage Doppler. Par convention, l’effet Doppler pris en compte dans la fonction h(τ, t)correspond aux

variations du milieu de propagation dénommé Doppler de diffusion par opposition au Doppler de mouvement décrit en section précédente. La présence de Doppler de diffusion va entraîner une variation temporelle deh(τ, t), nous parlons de sélectivité

temporelle du canal. Cette sélectivité est caractérisée par l’étalement Doppler ou Doppler spread en anglais noté νmax et défini sous la forme Root Mean Square

(RMS) comme suit [144] : νmax= R+∞ −∞ Pdop(ν)(ν − νg) 2 R+∞ −∞ Pdop(ν)dν (2.15) avec : νg = R+∞ −∞ νPdop(ν)dν R+∞ −∞ Pdop(ν)dν (2.16)

(29)

Plus la valeur de νmax sera importante plus forte sera la sélectivité temporelle du canal.

En intégrant la fonction de Diffusion définit dans l’équation suivant l’axe des fréquences, nous obtenons le profil de puissance des retards du canal :

Pdelay(τ ) =

Z +∞

−∞

|S(τ, ν)|2 (2.17)

Le profil de puissance des retards donne la distribution de la puissance du signal reçu en fonction des retards du canal qui sont occasionnés par le phénomène de trajets multiples. Dans le domaine des fréquences, les différents retards du canal occasionnent sur le signal reçu des évanouissements fréquentiels ou fading en anglais, nous parlons ainsi de sélectivité fréquentielle. Cette sélectivité est caractérisée par l’étalement des retards ou delay spread en anglais, que nous noteronsτmax et qui se définit sous la formeRMS de la façon suivante [144] :

τmax= R+∞ −∞ Pdelay(τ )(τ − τg) 2 R+∞ −∞ Pdelay(τ )dτ (2.18) avec : τg = R+∞ −∞ τ Pdelay(τ )dτ R+∞ −∞ Pdelay(τ )dτ (2.19) Plus la valeur deτmax sera importante plus forte sera la sélectivité fréquentielle du canal.

Canal de communication

ASM

multi-utilisateur

Lorsque plusieurs sources de communication cherchent à accéder au même médium de communication, nous parlons communication multi-utilisateur, chaque source étant vue comme un utilisateur du canal. Supposons à présent que les utilisateurs se déplacent à une vitesse vi avec i ∈ J1, NuK. Chaque utilisateur i est affecté à l’instant t par un canal de propagation ASM qui lui ait propre. Nous le modéliserons par un filtre linéaire de réponse impulsionnelle finie hi(τ, t). En intégrant les différents effets décrits précédemment, le signal reçu en bande de base peut s’exprimer comme :

r(t) = Nu X i=1 Z +∞ −∞ hi(τ, t)si (1 − ai)(t − τ )e−j2πfcai(t−τ )dτ + n(t) (2.20) 22

(30)

avec si(t) le signal en bande de base transmis par l’utilisateur i, tandis que fc représente la fréquence porteuse et ai = vci le facteur d’échelle Doppler de mouvement

de l’utilisateur i supposé uniforme sur les trajets. La quantité n(t) représente le

bruit additif qui sera supposé, dans nos modèles, de type gaussien centré avec une puissance qui se déduit de l’équation 2.9 pour la fréquence centrale considérée.

2.3

Formes d’ondes pour les communications

ASM

Le procédé de modulation-démodulation est nécessaire lorsque nous ne pouvons pas transmettre le signal directement sous sa forme originale à travers le canal. Lorsque le signal de modulation est analogique, nous utilisons ce que nous appel-lons des modulations analogiques. Inversement, nous utilisons des modulations numériques lorsque le signal de modulation est numérique. Le problème d’une mo-dulation analogique est qu’elle n’est pas aussi robuste qu’une momo-dulation numérique [31]. La possibilité de convertir un signal analogique en numérique à l’aide d’un convertisseur analogique-numérique, puis d’obtenir le signal analogique en utilisant un convertisseur numérique-analogique a ouvert la voie à un réseau entièrement numérique, où tous les types de services, voix, vidéo, les données sont intégrées [58]. Les modulations utilisées dans le cadre des communications ASM peuvent être classées en deux catégories [130], les modulations cohérentes qui nécessitent de retrouver la phase des symboles émis à la réception grâce à un récepteur plus évolué avec une boucle à verrouillage de phase [69] et les modulations non-cohérentes qui permettent une détection simple et robuste, par exemple avec un filtrage adapté ou une détection d’énergie. L’efficacité spectrale est néanmoins moindre que pour les modulations cohérentes [88].

Modulations non cohérentes

Modulation par déplacement de fréquence

Pour une modulation FSK, le signal modulé varie entre des fréquences prédé-terminées suivant les bits (ou groupe de bits) de données à transmettre. Une FSK

non cohérente est plus adaptée pour les communications ASM parce qu’elle utilise une détection d’énergie au lieu d’une détection de phase [130]. En effet, le suivi de phase est difficile à cause de la variabilité du canal ASM. Pour une une modulation

FSK, les effets de multi-trajet et les réflexions peuvent être atténués en ajoutant un temps de garde entre 2 symboles successifs. Par ailleurs pour être plus résistant aux interférences, nous pouvons utiliser la méthode de saut de fréquence ou frequency hopping qui consiste à partager la bande allouée en plusieurs sous-bandes qui seront

(31)

choisies de manière aléatoire ou déterministe mais connues à la fois de l’émetteur et du récepteur.Un exemple de protocole de communicationASM à accès multiple utilisant la méthode du saut de fréquence couplé à uneFSKbinaire est le protocole JANUS qui a été conçu et testé en tant que norme OTAN [100]. Pour t ∈ [0, Ts],

où Ts représente la durée symbole, un signal modulé par une modulationFSK est exprimé par :

si(t) = cos(2πfit + φi) = cos(2π(fc+ αi∆f )t + φi) (2.21)

où αi = 2i − 1 − M avec i ∈ J1, M K,M le nombre d’états de la modulation, φi les phases initiales et fc la porteuse. De plus, ∆f = mini,j|fi− fj| = 2T1

s tandis que

Ts représente la durée d’un symbole de modulation.

A la réception, le message binaire est estimé par un filtrage adapté comme le montre la Figure 2.3.

Figure 2.3 – Schéma de réception pour une modulationFSK. Modulation par chirps

Dans la modulation CSK, chaque bit du message est associé à un signal chirp, "gazouillis" en anglais. Les chirps comme le Linear Frequency Modulated (LFM)

ou leHyperbolically Frequency Modulated (HFM) sont particulièrement utilisés dans les domaines du radar et du sonar à cause de leur résistance au Doppler [42], [122]. Un signal LFMest défini par [71] :

xLFM(t) = ( cos2π2TB s  t2 si −Ts 2 ≤ t ≤ Ts 2 0 sinon (2.22) 24

(32)

avec B la bande du chirp et Ts sa durée. La Figure 2.4montre un aperçu en temps d’un signal LFM.

Figure 2.4 – Tracé en temps d’un signal LFMpour BTs = 31.

La fréquence instantanée d’un chirp LFMest donnée par : fLFM(t) = 1 2π dφ(t) dt = B Ts t (2.23)

Nous observons que la fréquence instantanée est bien linéaire. La figure 2.5 montre des exemple de fréquences instantanée de signaux LFM pour différentes valeurs de BTs sur une bande de B = 4 kHz.

Un signal HFM s’exprime quant-à lui par [5] : xHFM(t) = ( cos(−2π(k log(1 − tt 0) + fl+fh 2 t)) si −Ts 2 ≤ t ≤ Ts 2 0 sinon (2.24) avec t0 = T2(fs(fh+fl) h−fl), k = Tsflfh

fh−fl la pente du chirp, fl la fréquence de début, fh la

fréquence de fin où B = |fl − fh| et Ts la durée du signal HFM. La Figure 2.6 montre un aperçu en temps d’un signal HFM.

(33)

Figure 2.5 – Fréquence instantanée d’un signal LFMavec BTs = 31, 63, 127.

Figure 2.6 – Tracé en temps d’un signalHFM pour BTs = 31.

(34)

La fréquence instantanée d’un signal HFM est donnée par : fHFM(t) = −  −k t0− t +fl+ fh 2  (2.25) Nous observons que la fréquence instantanée est bien hyperbolique. La Figure 2.7

montre des exemple de fréquences instantanée de signaux HFMpour différentes valeurs de BTs sur une bande de B = 4 kHz.

Figure 2.7 – Fréquence instantanée d’un signal HFMavec BTs = 31, 63, 127.

Le principe d’une modulation CSK, consiste à associer au bit 1 un chirp ascendant de fl vers fh et au bit 0 un chirp descendant [71]. A la réception, les

bits sont estimés par filtrage adapté du signal reçu par chacun des chirps comme le montre le schéma de la Figure 2.8.

Les fonctions d’autocorrélation et d’intercorrélation pour un signal HFM sont illustrées dans la Figure 2.9.

La modulation CSK est particulièrement bien adaptée au canal ASM puisque le chirp est robuste au bruit, aux multi-trajets ainsi qu’à l’effet Doppler [71]. Une variante de cette méthode appelée étalement par chirp ouChirp Spread Spectrum (CSS) en anglais consiste à employer un seul chirp pour la transmission et à lui associer une modulation de phase ou d’amplitude [60]. Pour être plus résistant aux interférences, nous pouvons utiliser la méthode de saut de fréquence ou Frequency Hopping Spread Spectrum (FHSS) en anglais couplé à la modulation CSS. Outre

(35)

Figure 2.8 – Schéma de réception pour une modulationCSK.

Figure 2.9 – Fonctions d’autocorrélation et d’intercorrélation pour un signalHFM avec BTs= 31.

la résilience au phénomène de multi-trajet, par cette méthode, un intercepteur qui ne connaît pas le modèle de saut ne peut pas récupérer le signal. Par ailleurs, si un brouillage est exécuté avec une intention malveillante, les performances du signal seront maintenues car la fréquence centrale sera continuellement modifiée, nous parlons de capacité appelée anti-brouillage [70]. Dans [81] la technique du saut de fréquence utilise une modulation CSK au lieu d’une modulation FSK

binaire. L’avantage est d’avoir une plus grande résistance aux trajets multiples et au Doppler grâce aux propriétés du chirp.

(36)

Modulations cohérentes

Modulation de phase

La PSK est un schéma de modulation qui a pour principe de transporter l’information binaire via la phase d’un signal de référence (porteuse) et exclusivement par ce biais. Les modes de PSK les plus utilisés sont à 2, 4 ou 8 phases. Dans la suite, nous nous concentrerons sur les constellations PSK binaires et quaternaires aussi connues sous le nom de Binary Phase Shift Keying (BPSK)et Quadrature Phase Shift Keying (QPSK) respectivement décrites en Figure2.10. Ces tailles de constellations sont très utilisées de par leur simplicité et leur robustesse. Le signal modulé en bande de base peut s’exprimer sous la forme suivante :

s(t) =

Ns−1

X

k=0

dkφ(t − kTs) (2.26)

où dk représente le symbole d’information pris dans une constellation PSK, tandis

que Ts représente le temps symbole et φ(t) le filtre de mise en forme qui est traditionnellement choisi un filtre en racine de cosinus surélevé ou Square Root Raised Cosine (SRRC) en anglais [103] de facteur de retombée α et d’expression :

φ(t) =        1 Ts(1 + α( 4 π − 1)) si t = 0 α Ts √ 2[(1 + 2 π) sin( π 4α) + (1 − 2 π) cos( π 4α)] si t = ± Ts 4α 1 Ts sin[π t Ts(1−α)]+4α t Tscos[π t Ts(1+α)] πTst [1−(4αTst )2] sinon (2.27) Toutefois, l’inconvénient de ce type de modulation est la nécessité d’une étape d’égalisation à la réception lorsque le canal de propagation varie dans le temps et/ou lorsque le canal présente des échos ce qui est le cas en communication

ASM. Dans la littérature, les premiers récepteur pour les modulations PSK en communication ASM utilisaient le principe de l’égalisation à retour de décision ou Decision Feedback Equalizer (DFE)en anglais mais souffraient à la fois de la complexité en termes de calcul et du phénomène de propagation d’erreurs [123]. Les récepteurs à base de turbo-égalisation ont permis d’améliorer significativement les performances [157]. Par ailleurs, même si le canal ASM a un retard important, les différents trajets arrivent par paquets. Cela a conduit à l’utilisation d’égaliseurs exploitant la parcimonie du canal [51], [53], [52], [127], [82], [109]. Enfin, plusieurs techniques d’estimations aveugles utilisant les propriétés statistiques du signal ont également été expérimentées mais avec certaines limitations [78]. Sur canal gaussien, la probabilité d’erreur d’une modulation PSK s’exprime par [151] :

Pe = 2 log2MQ √ 2SNR sin  π M  (2.28)

(37)

Figure 2.10 – Constellation BPSK (à gauche) et constellation QPSK.

où le SNR est exprimé en échelle linéaire, M représente le nombre d’états de la

modulation et Q(x) = 1 2π R+∞ x e −t2 2 dt. Modulation différentielle

Avec une modulation PSK, l’information est transportée dans la phase du signal. Ainsi, une étape de récupération de phase est nécessaire ce qui augmente la complexité de la réception. Pour éviter cela une modulation différentielle peut être employée. La modulation différentielle est considérée comme une modulation avec mémoire, où le symbole transmis dans le temps [kTs, (k + 1)Ts) dépend des

bits associés au message actuel à transmettre et des bits transmis au cours des temps de symbole antérieurs. Le principe de base de la modulation différentielle est d’utiliser le symbole précédent comme référence de phase pour le symbole actuel, évitant ainsi une récupération de phase au niveau du récepteur. Plus précisément, les symboles d’information sont codés comme la phase différentielle entre le symbole actuel et le symbole précédent. Ainsi un symbole Differential Phase Shift Keying (DPSK) noté dk est encodé de la façon suivante :

dk= dk−1· bk (2.29)

où bk représente un symbole de typePSKet le symbole initial b0 est supposé connu

du récepteur.

(38)

A la réception il suffit de soustraire la phase du symbole courant avec celle du symbole précédent pour obtenir la phase absolue portant l’information. L’in-térêt principal de cette technique de modulation est qu’elle ne nécessite pas la connaissance de la variation de phase induit par le canal de propagation. Le choix d’une DPSK par rapport à une modulationPSK cohérente peut être justifiée par le fait que le canal ASM variant rapidement dans le temps, une égalisation du signal reçu dépendant d’une estimation de canal plus ou moins précise ne sera pas nécessaire [14]. Ainsi dans un canal ASMavec des retards importants et des variations temporelles rapides, la modulation différentielle est parfaitement adaptée pour fournir des bonnes performances voir surpasser la modulation cohérente sous certaines conditions [15].

La probabilité d’erreur d’une modulation différentielle est donnée par [120] : Pe = (1 2e -SNR si M = 2 2 log2MQ √ SNR sin π M  sinon (2.30) La Figure 2.11 montre les performances entre une modulation de phase et une modulation différentielle de phase pour M = 2 et M = 4, il apparaît que l’inconvénient principal de la modulation différentielle est sa plus grande sensibilité au bruit. En effet, d’après la relation 2.30, à même probabilité d’erreur binaire, une modulation différentielle requiert 3 dB de SNRen plus qu’une modulation PSK

cohérente [151].

Modulation OFDM

Comme nous le savons déjà, le canal ASM est sujet aux trajets multiples pour un même signal transmis. A cause des nombreuses réflections que le signal peut subir, le récepteur recevra une série d’échos de retards variables. De plus, ce phénomène de trajets multiples peut générer des interférences constructrices ou destructrices suivant la localisation du récepteur relativement à l’émetteur et suivant les caractéristiques des obstacles rencontrés. Des interférences destruc-trices peuvent mener dans le domaine fréquentiel à un phénomène d’évanouissement.

La famille des modulations multi-porteuse dont fait partie l’ OFDM permet de résoudre ces inconvénients en utilisant des sous-porteuses peu sensibles aux multi-trajets (donc à la sélectivité en fréquence) et faciles à égaliser. Plus précisément, les modulations multi-porteuse répartissent les symboles à transmettre sur un grand nombre de porteuses à bas débit. Contrairement aux systèmes conventionnels qui transmettent les symboles en série, chaque symbole occupe alors toute la bande passante disponible. Dans le cas de l’OFDM, une séquence de symboles à

(39)

trans-Figure 2.11 – Comparaison des performances entre les modulations de phases et les modulations différentielles de phase sur canal gaussien.

mettre de période Ts aura chacun de ces symboles répartis en N trains plus lents

et ils auront une durée Tu = N · Ts. Cette diminution du rythme symbole entraîne

une diminution des interférences entre symboles d’un rapport N. Par conséquent, le processus d’égalisation sera simplifié.

Supposons que dk avec k ∈ {0, ..., N − 1} soient des nombres complexes dont la

partie réelle et la partie imaginaire varient suivant la constellation de la modulation utilisée. La séquence de N symboles d0, ..., dN −1 constitue un symbole OFDM. Le

k-ième train de symboles parmi les N trains module un signal de fréquence fk. Le

signal modulé du train k s’écrit sous forme complexe dkej2πfkt. Ainsi le signal total

s(t)correspondant à l’ensemble des N symboles réassemblés en un symboleOFDM est donné avec t ∈ [0, Tu]par [18] :

s(t) =

N −1

X

k=0

dkej2πfkt (2.31)

Les fréquences sont orthogonales si l’espace entre 2 fréquences consécutives fk et

(40)

fk+1 est égal à T1u. Dans la suite, nous poserons :

fk = fc+

k −N2 Tu

(2.32) L’équation 2.31 peut alors s’écrire :

s(t) = ej2πfct. N −1 X k=0 dkej2π kt Tu (2.33)

Nous pouvons voir d’après l’équation précédente que la modulation OFDMfait apparaître une transformée de Fourier inverse qui s’implémente facilement avec une Inverse Fast Fourier Transform (IFFT). En pratique, à cause du phénomène de multi-trajet, les symboles subissent des échos et un symbole émis parvient au récepteur sous forme de plusieurs symboles atténués et retardés. Par exemple, un symbole émis à la période iTu peut se superposer à un écho provenant du symbole

émis à la période (i − 1)Tu. Il se produit alors des interférences entre symboles

OFDM. Pour les éviter, nous ajoutons un intervalle de garde qui peut être de 3 types : préfixe cyclique [96], suffixe cyclique et préfixe nul [91]. Si nous supposons que l’intervalle de garde est de durée ∆ alors la durée totale du symbole transmis sera Tofdm= Tu+ ∆. Si l’intervalle de garde est supérieur au retard le plus grand

désigné par τmax alors en réception après suppression de l’intervalle de garde et une

Fast Fourier Transform (FFT), il vient pour k ∈ J0, N − 1K :

zk= Hkdk+ nk (2.34)

où Hk représente le k-ème coefficient de la réponse fréquentielle du canal. Ainsi les

symboles transmis dk peuvent être estimés par simple compensation du coefficient

Hk, ce qui revient à faire une égalisation à 1 seul coefficient ce qui est beaucoup plus

simple qu’un égaliseur en transmission mono-porteuse. Il faut néanmoins estimer la réponse fréquentielle du canal, traditionnellement à partir de porteuses pilotes connues du récepteur.

L’ajout d’intervalles de gardes et de porteuses pilotes pour l’estimation du canal occasionnent une perte en débit pour la modulationOFDM. Une manière de réduire le nombre de porteuses pilotes est d’utiliser une modulation différentielle comme présenté dans [15]. Il est montré que contrairement à la modulation de phase qui nécessite une détection basée sur une estimation de canal à l’aide de plusieurs porteuses pilotes, une modulation différentielle permet une détection presque sans porteuses pilotes.

(41)

Par ailleurs, la perte d’orthogonalité entre les différentes sous-porteuses à cause d’une mauvaise synchronisation entre l’émetteur ou le récepteur ou bien à cause du Doppler de diffusion est une autre limitation de la modulation OFDM. Plusieurs solutions peuvent être utilisées pour améliorer la synchronisation au récepteur. Par exemple si le bruit est faible, une détection d’énergie peut être utilisée pour une estimation approximative du début et de la fin d’un paquet [163]. Pour cela, le signal reçu est divisé en fenêtres de longueur donnée. En l’absence de paquet, la fenêtre contient juste du bruit mais s’il y a un paquet, l’énergie de la fenêtre sera beaucoup plus élevée. Une autre méthode pour effectuer une synchronisation est d’utiliser un préambule connu à la fois de l’émetteur et du récepteur [87]. La détection du préambule se fait à la réception par filtrage adapté. Pour traiter le Doppler de diffusion, nous pouvons utiliser les intervalles de garde contenant uniquement des zéros entre chaque symbole OFDM[82]. La méthode de compensation s’effectue en 2 étapes : compensation du décalage de phase par rééchantillonnage puis compensation uniforme haute résolution du Doppler résiduel en le modélisant comme un décalage de fréquence porteuse. En pratique, le facteur de rééchantillonnage et le décalage de fréquence porteuse doivent être estimés. L’estimation du facteur de rééchantillonnage se fait grâce à un préambule et à un postambule d’un paquet de données. Le décalage de fréquence porteuse est quant-à lui estimé en évaluant une fonction de coût le long du cercle unité [84].

Modulation DSSS

L’étalement de spectre par séquence directe ouDirect Sequence Spread Spectrum (DSSS)en anglais consiste à étaler un message modulé par une séquence d’étalement pseudo aléatoire [92]. A la réception, un filtrage adapté avec la séquence d’étalement permet de retrouver le message modulé [38]. En communicationsASM, l’avantage de l’étalement réside dans sa grande résistance au bruit et aux trajets multiples [67], au prix d’un débit réduit et proportionnel à la longueur de la séquence d’étalement appelé en anglais spreading factor et noté par la suite NSF.

2.4

Conclusion

Dans ce chapitre, nous avons présenté les principales caractéristiques du canal

ASMqui sont la faible célérité de l’onde acoustique entraînant des retards important au niveau du récepteur, les pertes de propagation dépendantes de la fréquence et de la distance, le phénomène de trajets multiples, l’effet Doppler qui peut être de mouvement et de diffusion et enfin les sources de bruits qui sont multiples et dépendantes de la fréquence également. A la réception, le signal peut alors s’écrire comme une somme variant dans le temps de copies retardées, atténuées,

(42)

dilatées ou compressées du signal émis. Ces différents inconvénients nécessitent des modulations particulières comme la forme d’onde de type CSS bien adapté au canal ASM, la modulation différentielle qui permet d’éviter l’étape d’estimation du canal ou encore la modulation OFDM qui est résistante aux trajets multiples. Par souci de simplicité de réception, nous allons considérer par la suite une forme d’onde de type DPSKassociés à de l’étalement de spectre de type DSSS ouCSS.

(43)
(44)

Chapitre 3

Protocoles d’accès multiples

Sommaire

3.1 Introduction . . . 37

3.2 Transmission multi-utilisateur . . . 38

Schéma général de transmission . . . 38

Détection multi-utilisateur . . . 39

3.3 Les protocoles d’accès aléatoires . . . 43

Le protocole Aloha simple. . . 43

Le protocole Aloha discrétisé . . . 44

Le protocole CSMA . . . 46

3.4 Les protocoles d’accès déterministes . . . 48

Le protocole TDMA . . . 49 Le protocole FDMA . . . 50 Le protocole CDMA . . . 51 Le protocole NOMA . . . 57 3.5 Conclusion . . . 59

3.1

Introduction

Lorsque plusieurs utilisateurs doivent transmettre des données simultanément au sein d’un même canal de communication, les signaux de communication des différents utilisateurs peuvent interférer entre eux et rendre impossible le décodage, on parle de phénomène de collision. Ce problème peut-être résolu (ou évité) en deux étapes. La première étape consiste à choisir une technique de base afin d’isoler le trafic généré par les différents utilisateurs, dans notre cas des drones sous-marins autonomes. Cette technique de base est généralement appelée technique d’accès.

Références

Documents relatifs

Dans le cadre du développement des activités de recherche et d’innovation de l’école (Gobelins, l’école de l’image), le laboratoire ErgoDesign Lutin-Gobelins a été lancé

Les écrans ultra-violets employés dans la lunette à éclairs trans- mettent un peu de lumière visible perceptible à courte distance; c’est particulièrement le cas

Dans un second temps, nous nous sommes intéressés à la représentation des formes d’onde des impulsions par une méthode d’analyse encore peu exploitée en traitement du signal

À partir du XIIème siècle, les châteaux sont construits en pierre pour être plus résistant, notamment aux incendies.. Château de Foix – 7 ème

Nous avons vu que les données calculées par notre modèle SEIR se rapprochaient de celles observées, il est donc bien adapté pour modéliser cette épidémie.. Il prend effectivement

Comportement de Ψ au voisinage d’un nombre de Cremer Nous commençons par démontrer le point (i) du théorème 2, qui concerne tous les irrationnels, qu’ils soient de Cremer ou

L’objectif de cet exercice est de démontrer la propriété suivante : « Soit n un entier supérieur ou égal à 2. Dans toute la suite du problème, n désigne un entier naturel non

Ce templum nous paraît inscrire une dialectique de l’histoire : au-delà de la grande culture qui est la sienne, Yves Bonnefoy cherche à donner à sa langue poétique un mouvement