• Aucun résultat trouvé

2.1 Introduction

Ce chapitre décrit tout d’abord les spécificités du canal de communication ASM

comme les effets de trajets multiples dus à la réverbération des ondes acoustiques sur le fond marin ou la surface de l’eau qui entraînent des retards importants au niveau du récepteur ou encore l’effet Doppler engendré par le mouvement de l’émetteur par rapport au récepteur ou le mouvement de la surface de l’eau.

Dans un deuxième temps, nous décrivons les modulations traditionnellement utilisées en communication ASM. Historiquement, les modulations utilisées étaient

d’abord de type non cohérentes du fait de leurs simplicités, leurs robustesses et leurs fiabilités comme par exemple la modulationChirp Slope Keying (CSK) [71] ou la modulation Frequency Shift Keying (FSK)[95]. Pour augmenter l’efficacité spectrale, des techniques de modulations cohérentes sont désormais de plus en plus employées sous la forme de modulation mono-porteuse comme la modulation

Phase shift Keying (PSK)[86] ou de modulation multiporteuse comme l’Orthogonal Frequency Division Multiplexing (OFDM) [105].

2.2 Les caractéristiques du canal ASM

Le canal de communicationASMcomporte un certain nombre de spécificités que nous allons lister dans cette partie et qui seront nécessaires pour la compréhension des protocoles de communication développés dans cette thèse.

Célérité de l’onde acoustique

Dans l’eau, le son se propage à une vitesse aux alentours de 1500 m/s. Cette célérité, notée c, dépend essentiellement de trois paramètres : la température, la salinité et la pression. De nombreuses formules empiriques sont disponibles dans la littérature pour exprimer c en fonction de ces paramètres (la pression est généralement exprimée en fonction de la profondeur zw [140]). Une formule couramment utilisée est celle de Clay et Medwin [35] dont l’expression est :

c(zw, Sa, T ) =1449.2 + 4.6T − 0.55T2+ 0.00029T3

+ (1.34 − 0.01T )(Sa− 35) + 0.016zw (2.1) oùT représente la température en degré celsius,Sa la salinité en part pour mille, en anglaispart per thousand (ppt) et zw la profondeur en mètres. La célérité de l’onde acoustique varie en fonction des paramètres précédent. Plus précisément, la température diminue avec la profondeur, la pression augmente (effet contraire) et la salinité de l’eau variant peu, la célérité décroit tout d’abord avec la profondeur puis augmente grâce à la pression. Sur la Figure2.1 qui représente un profil de célérité en milieu tempéré, nous pouvons voir que près de la surface à température et pression constante, la vitesse du son est quasiment constante. Lorsque nous arrivons dans la thermocline principale, la température diminue rapidement ce qui entraîne une baisse de la célérité qui n’est pas compensée par l’augmentation de pression due à la profondeur. A partir d’une profondeur de 600 m, la température devient constante et avec l’augmentation de la pression la célérité augmente. De plus, les cycles saisonniers et les marées influencent également la célérité, notamment en petits fonds (zw < 100 m) à cause des changements de température. Les conditions de propagation peuvent donc être très différentes selon les endroits du globe et les

Figure 2.1 – Profil de la célérité en milieu tempéré [130]. époques de l’année.

Dans le cadre d’une communication ASM, pour les bandes de fréquence consi-dérées, la propagation d’une onde acoustique peut être modélisée par la méthode des rayons [85]. La célérité du son variant avec la profondeur entraîne alors une courbure de ces rayons. A cause des réflexions à la surface de l’eau ou sur le fond, les trajets multiples résultants auront différents retards de propagation au niveau du récepteur.

Les pertes de propagation

Lorsque les ondes acoustiques se propagent dans le canal ASM, elles sont soumises à une perte d’intensité correspondant d’une part à un effet de divergence géométrique et d’autre part à l’absorption de l’énergie acoustique par le milieu de propagation. Ces pertes de propagation influencent fortement l’amplitude du signal reçu et donc les performances du récepteur qui dépendent directement du rapport signal sur bruit ou Signal-to-Noise Ratio (SNR)en anglais.

Les pertes par divergence géométrique

Une onde acoustique qui se propage se répartit sur une surface qui augmente à mesure qu’elle s’éloigne de la source. La forme de la surface d’onde émise dépend du type de source. Pour une source ponctuelle omnidirectionnelle par exemple, l’onde émise est de nature sphérique. L’énergie acoustique émise se répartit donc sur la surface d’une sphère. À mesure que l’onde s’éloigne de la source, la surface de la sphère augmente et l’intensité acoustique diminue. C’est ce phénomène qui

est appelé divergence géométrique. Ces pertes s’expriment en décibels comme : Ad= 10 × m log10(d) (2.2) où d est la distance (en mètres) parcourue par l’onde depuis la source, m est le facteur de dispersion spatiale dépendant de la géométrie de cette dispersion (cylindrique : m = 1, sphérique : m = 2).

Les pertes par amortissement

Le milieu de propagation est dissipatif et absorbe une partie de l’énergie de l’onde sonore, qui est dissipée par viscosité ou par réaction chimique. Le phénomène d’amortissement est souvent le plus important facteur limitatif de la propagation acoustique. Sa valeur dépend fortement du milieu de propagation et de la fréquence porteuse. Dans l’eau de mer, il est dû à la viscosité de l’eau qui induit des forces de frottements à l’échelle moléculaire lors du passage d’une onde acoustique et à la relaxation des molécules de sulfate de magnésium MgS04 pour une porteuse supérieure à 100 kHz ou à la relaxation des molécules d’acide borique B(OH)3 pour une porteuse supérieure à 1 kHz. L’amortissement est exprimé par un coefficient d’absorptionα(f ) qui dépend de la fréquence (en kHz) et est exprimé en dB perdu par kilomètre. L’expression de ce coefficient est donnée par la formule de Thorp [134] : α(f ) ' 0.11 f 2 1 + f2 + 44 f 2 4100 + f2 + 2.75.10−4f2+ 0.003 (2.3) Les pertes totales de propagation

En additionnant les pertes par divergence géométrique et par amortissement, on peut exprimer les pertes totales en décibels par :

A(d, f ) = 10 × m log10(d) + α(f ).10−3· d (2.4) où d est exprimé en mètres et f en kHz.

Les différents bruits

Nous pouvons distinguer deux types de bruits acoustiques : le bruit naturel comme les activités sismiques, hydrodynamiques (vagues, courants,vents, marées, pluies) et le bruit artificiel fait par l’homme comme les bruits de machines (pompes, usines) ou les activités nautiques. Chacune des sources de bruit peut être modélisée par une distribution gaussienne de densité spectrale de puissance exprimée par Hertz et en dB par rapport à une pression de 1 µPa à 1 m de la source selon les formules suivantes [36] :

Nt(f ) = 17 − 30 log10(f ) (2.5) Ns(f ) = 40 + 20(s − 5) + 26 log10(f ) − 60 log10(f + 0.03) (2.6) Nw(f ) = 50 + 7.5√

w + 20 log10(f ) − 40 log10(f + 0.4) (2.7) Nth(f ) = −15 + 20 log10(f ) (2.8) où f est la fréquence en kHz et Nt, Ns, Nw, Nth représentent respectivement les bruits de turbulences, de navigation, des vagues et thermique. Le paramètre s est le facteur d’activité maritime compris entre 0 et 1 tandis que w correspond à la vitesse du vent en m/s. Les bruits de turbulences influencent uniquement les basses fréquences f < 10 Hz. Le bruit de navigation causé par les bateaux est dominant pour f ∈ [10, 100] Hz. Le bruit des vagues causé par le vent soufflant sur la surface de l’eau est le bruit principal pour f ∈ [0.1, 100] kHz. Enfin, le bruit thermique devient dominant pour f > 100 kHz [116]. L’expression de la densité spectrale de puissance du bruit total est alors donnée par :

N (f ) = Nt(f ) + Ns(f ) + Nw(f ) + Nth(f ) (2.9) En se basant sur les modèles de bruits et l’expression des pertes totales de propagation, nous pouvons établir un bilan de liaison pour une sinusoïde de fréquence f se propageant sur un chemin de longueur d [128]. En considérant un trajet direct, l’équation devient :

P (d, f ) = −A(d, f ) − N (f ) (2.10) Elle donne en décibels la perte en terme de SNR subie par la sinusoïde. La Figure

2.2montre plusieurs exemple de cette perte en fonction de la fréquence considérée et ce pour différentes distances de transmission. Nous pouvons remarquer que le canal

ASMest plus sélectif en fréquence lorsque la distance de transmission augmente. Cela entraîne que la bande utilisable pour une communication diminue avec la distance. Dans cette thèse nous nous limitons à une distance maximale de 1 km. Pour cette distance, la bande est assez plate entre 20 et 30 kHz et c’est donc cette bande de fréquences que nous privilégierons par la suite.

Compression/dilatation Doppler

L’effet Doppler apparaît lorsque l’émetteur est en mouvement relatif par rapport au récepteur (et réciproquement). Il s’exprime par un décalage de fréquence fd se

Figure 2.2 – Bilan de liaison pour une sinusoïde de fréquence f avec une vitesse de vent de 15 km/h qui correspond à une légère brise [89].

calculant comme :

fd= a · fc= v

cfc (2.11)

où v est la vitesse relative (en m/s) projetée sur le vecteur d’onde, de l’émetteur vis-à-vis du récepteur. c la célérité du son en m/s etfcla fréquence centrale du signal en Hz. Une valeur positive de v signifie que l’émetteur se rapproche du récepteur tandis qu’une valeur négative signifie qu’il s’en éloigne. Le coefficient a = v/c est appelé dans la littérature facteur d’échelle Doppler. Nous pouvons remarquer que la faible vitesse des ondes acoustiques comparée à celle des ondes radio (1500 m/s contre 3.108 m/s) entraîne un effet Doppler beaucoup plus important en communicationASMqu’en communication radio dans l’air. Le signal reçu en bande de base perturbé uniquement par un effet Doppler de mouvement s’écrit [118] :

r(t) = s (1 − a)te−j2πfcat = s (1 − a)te−j2πfcat (2.12) Avec s(t) le signal transmis en bande de base etfcla fréquence porteuse. L’équation

2.12 montre que le signal reçu sera compressé ou dilaté suivant la mouvement relatif de l’émetteur par rapport au récepteur. A la réception, l’effet Doppler doit être nécessairement compensé pour éviter une dégradation importante des performances de transmission. L’effet Doppler engendré par le mouvement relatif de l’émetteur vis-à-vis du récepteur sera dénommé par la suite Doppler de mouvement

par opposition à l’effet Doppler de diffusion que nous allons décrire dans la section suivante.

Sélectivités du canal

Le canal de propagation ASM est caractérisé par des phénomènes de trajets multiples qui vont varier en fonction du temps. Il est ainsi classiquement modélisé à l’instant de t par un filtre linéaire de réponse impulsionnelle finie h(τ, t). Dans la suite, un modèle de canal ASM simulé sera décrit au chapitre 4 puis la fonction

h(τ, t) sera sondée pour être rejouée via un simulateur de canal au chapitre 6. Afin de caractériser les effets de sélectivités du canal, il est d’usage de considérer la fonction de diffusion du canal notée S(τ, ν) et dont l’expression vaut [103] :

S(τ, ν) = Z +∞

−∞

h(τ, t)e−j2πνtdt (2.13) La fonction S(τ, ν) donne la distribution de la puissance du signal reçu dans le plan retard-Doppler. Le lecteur trouvera un exemple de fonction de diffusion issue d’un sondage de canal en Figures 6.4 et6.7.

En intégrant 2.2 suivant l’axe des retards nous obtenons le spectre de toute la puissance Doppler :

Pdop(ν) = Z +∞

−∞

|S(τ, t)|2dτ (2.14) Le spectre de puissance Doppler est une densité spectrale de puissance qui représente la distribution du signal en sortie de canalASMen fonction du décalage Doppler. Par convention, l’effet Doppler pris en compte dans la fonction h(τ, t)correspond aux variations du milieu de propagation dénommé Doppler de diffusion par opposition au Doppler de mouvement décrit en section précédente. La présence de Doppler de diffusion va entraîner une variation temporelle deh(τ, t), nous parlons de sélectivité temporelle du canal. Cette sélectivité est caractérisée par l’étalement Doppler ou Doppler spread en anglais noté νmax et défini sous la forme Root Mean Square (RMS) comme suit [144] : νmax= R+∞ −∞ Pdop(ν)(ν − νg)2dν R+∞ −∞ Pdop(ν)dν (2.15) avec : νg = R+∞ −∞ νPdop(ν)dν R+∞ −∞ Pdop(ν)dν (2.16)

Plus la valeur de νmax sera importante plus forte sera la sélectivité temporelle du canal.

En intégrant la fonction de Diffusion définit dans l’équation suivant l’axe des fréquences, nous obtenons le profil de puissance des retards du canal :

Pdelay(τ ) = Z +∞

−∞

|S(τ, ν)|2dν (2.17) Le profil de puissance des retards donne la distribution de la puissance du signal reçu en fonction des retards du canal qui sont occasionnés par le phénomène de trajets multiples. Dans le domaine des fréquences, les différents retards du canal occasionnent sur le signal reçu des évanouissements fréquentiels ou fading en anglais, nous parlons ainsi de sélectivité fréquentielle. Cette sélectivité est caractérisée par l’étalement des retards ou delay spread en anglais, que nous noteronsτmax et qui se définit sous la formeRMS de la façon suivante [144] :

τmax= R+∞ −∞ Pdelay(τ )(τ − τg)2dτ R+∞ −∞ Pdelay(τ )dτ (2.18) avec : τg = R+∞ −∞ τ Pdelay(τ )dτ R+∞ −∞ Pdelay(τ )dτ (2.19)

Plus la valeur deτmax sera importante plus forte sera la sélectivité fréquentielle du canal.

Canal de communication ASM multi-utilisateur

Lorsque plusieurs sources de communication cherchent à accéder au même médium de communication, nous parlons communication multi-utilisateur, chaque source étant vue comme un utilisateur du canal. Supposons à présent que les utilisateurs se déplacent à une vitesse vi avec i ∈ J1, NuK. Chaque utilisateur i est

affecté à l’instant t par un canal de propagation ASM qui lui ait propre. Nous le modéliserons par un filtre linéaire de réponse impulsionnelle finie hi(τ, t). En intégrant les différents effets décrits précédemment, le signal reçu en bande de base peut s’exprimer comme :

r(t) = Nu X i=1 Z +∞ −∞ hi(τ, t)si (1 − ai)(t − τ )e−j2πfcai(t−τ )dτ + n(t) (2.20) 22

avec si(t) le signal en bande de base transmis par l’utilisateur i, tandis que fc

représente la fréquence porteuse et ai = vi

c le facteur d’échelle Doppler de mouvement de l’utilisateur i supposé uniforme sur les trajets. La quantité n(t) représente le bruit additif qui sera supposé, dans nos modèles, de type gaussien centré avec une puissance qui se déduit de l’équation 2.9 pour la fréquence centrale considérée.

2.3 Formes d’ondes pour les communications

ASM

Le procédé de modulation-démodulation est nécessaire lorsque nous ne pouvons pas transmettre le signal directement sous sa forme originale à travers le canal. Lorsque le signal de modulation est analogique, nous utilisons ce que nous appel-lons des modulations analogiques. Inversement, nous utilisons des modulations numériques lorsque le signal de modulation est numérique. Le problème d’une mo-dulation analogique est qu’elle n’est pas aussi robuste qu’une momo-dulation numérique [31]. La possibilité de convertir un signal analogique en numérique à l’aide d’un convertisseur analogique-numérique, puis d’obtenir le signal analogique en utilisant un convertisseur numérique-analogique a ouvert la voie à un réseau entièrement numérique, où tous les types de services, voix, vidéo, les données sont intégrées [58]. Les modulations utilisées dans le cadre des communications ASM peuvent être classées en deux catégories [130], les modulations cohérentes qui nécessitent de retrouver la phase des symboles émis à la réception grâce à un récepteur plus évolué avec une boucle à verrouillage de phase [69] et les modulations non-cohérentes qui permettent une détection simple et robuste, par exemple avec un filtrage adapté ou une détection d’énergie. L’efficacité spectrale est néanmoins moindre que pour les modulations cohérentes [88].

Modulations non cohérentes

Modulation par déplacement de fréquence

Pour une modulation FSK, le signal modulé varie entre des fréquences prédé-terminées suivant les bits (ou groupe de bits) de données à transmettre. Une FSK

non cohérente est plus adaptée pour les communications ASM parce qu’elle utilise une détection d’énergie au lieu d’une détection de phase [130]. En effet, le suivi de phase est difficile à cause de la variabilité du canal ASM. Pour une une modulation

FSK, les effets de multi-trajet et les réflexions peuvent être atténués en ajoutant un temps de garde entre 2 symboles successifs. Par ailleurs pour être plus résistant aux interférences, nous pouvons utiliser la méthode de saut de fréquence ou frequency hopping qui consiste à partager la bande allouée en plusieurs sous-bandes qui seront

choisies de manière aléatoire ou déterministe mais connues à la fois de l’émetteur et du récepteur.Un exemple de protocole de communicationASM à accès multiple utilisant la méthode du saut de fréquence couplé à uneFSKbinaire est le protocole JANUS qui a été conçu et testé en tant que norme OTAN [100]. Pour t ∈ [0, Ts], où Ts représente la durée symbole, un signal modulé par une modulationFSK est exprimé par :

si(t) = cos(2πfit + φi) = cos(2π(fc+ αi∆f )t + φi) (2.21) où αi = 2i − 1 − M avec i ∈ J1, M K,M le nombre d’états de la modulation, φi les phases initiales et fc la porteuse. De plus, ∆f = mini,j|fi− fj| = 1

2Ts tandis que

Ts représente la durée d’un symbole de modulation.

A la réception, le message binaire est estimé par un filtrage adapté comme le montre la Figure 2.3.

Figure 2.3 – Schéma de réception pour une modulationFSK. Modulation par chirps

Dans la modulation CSK, chaque bit du message est associé à un signal chirp, "gazouillis" en anglais. Les chirps comme le Linear Frequency Modulated (LFM)

ou leHyperbolically Frequency Modulated (HFM) sont particulièrement utilisés dans les domaines du radar et du sonar à cause de leur résistance au Doppler [42], [122]. Un signal LFMest défini par [71] :

xLFM(t) = ( cos2TB s  t2 si −Ts 2 ≤ t ≤ Ts 2 0 sinon (2.22) 24

avec B la bande du chirp et Ts sa durée. La Figure 2.4montre un aperçu en temps d’un signal LFM.

Figure 2.4 – Tracé en temps d’un signal LFMpour BTs = 31. La fréquence instantanée d’un chirp LFMest donnée par :

fLFM(t) = 1 2π dφ(t) dt = B Tst (2.23) Nous observons que la fréquence instantanée est bien linéaire. La figure 2.5 montre des exemple de fréquences instantanée de signaux LFM pour différentes valeurs de BTs sur une bande de B = 4 kHz.

Un signal HFM s’exprime quant-à lui par [5] : xHFM(t) = ( cos(−2π(k log(1 − tt 0) + fl+fh 2 t)) si −Ts 2 ≤ t ≤ Ts 2 0 sinon (2.24) avec t0 = Ts(fh+fl) 2(fh−fl), k = Tsflfh

fh−fl la pente du chirp, fl la fréquence de début, fh la fréquence de fin où B = |fl − fh| et Ts la durée du signal HFM. La Figure 2.6

Figure 2.5 – Fréquence instantanée d’un signal LFMavec BTs = 31, 63, 127.

Figure 2.6 – Tracé en temps d’un signalHFM pour BTs = 31.

La fréquence instantanée d’un signal HFM est donnée par : fHFM(t) = −  −k t0− t + fl+ fh 2  (2.25) Nous observons que la fréquence instantanée est bien hyperbolique. La Figure 2.7

montre des exemple de fréquences instantanée de signaux HFMpour différentes valeurs de BTs sur une bande de B = 4 kHz.

Figure 2.7 – Fréquence instantanée d’un signal HFMavec BTs = 31, 63, 127. Le principe d’une modulation CSK, consiste à associer au bit 1 un chirp ascendant de fl vers fh et au bit 0 un chirp descendant [71]. A la réception, les bits sont estimés par filtrage adapté du signal reçu par chacun des chirps comme le montre le schéma de la Figure 2.8.

Les fonctions d’autocorrélation et d’intercorrélation pour un signal HFM sont illustrées dans la Figure 2.9.

La modulation CSK est particulièrement bien adaptée au canal ASM puisque le chirp est robuste au bruit, aux multi-trajets ainsi qu’à l’effet Doppler [71]. Une variante de cette méthode appelée étalement par chirp ouChirp Spread Spectrum (CSS) en anglais consiste à employer un seul chirp pour la transmission et à lui associer une modulation de phase ou d’amplitude [60]. Pour être plus résistant aux interférences, nous pouvons utiliser la méthode de saut de fréquence ou Frequency Hopping Spread Spectrum (FHSS) en anglais couplé à la modulation CSS. Outre

Figure 2.8 – Schéma de réception pour une modulationCSK.

Figure 2.9 – Fonctions d’autocorrélation et d’intercorrélation pour un signalHFM

avec BTs= 31.

la résilience au phénomène de multi-trajet, par cette méthode, un intercepteur qui ne connaît pas le modèle de saut ne peut pas récupérer le signal. Par ailleurs, si un brouillage est exécuté avec une intention malveillante, les performances du signal seront maintenues car la fréquence centrale sera continuellement modifiée, nous parlons de capacité appelée anti-brouillage [70]. Dans [81] la technique du saut de fréquence utilise une modulation CSK au lieu d’une modulation FSK

binaire. L’avantage est d’avoir une plus grande résistance aux trajets multiples et au Doppler grâce aux propriétés du chirp.

Modulations cohérentes

Modulation de phase

La PSK est un schéma de modulation qui a pour principe de transporter l’information binaire via la phase d’un signal de référence (porteuse) et exclusivement par ce biais. Les modes de PSK les plus utilisés sont à 2, 4 ou 8 phases. Dans la suite, nous nous concentrerons sur les constellations PSK binaires et quaternaires aussi connues sous le nom de Binary Phase Shift Keying (BPSK)et Quadrature Phase Shift Keying (QPSK) respectivement décrites en Figure2.10. Ces tailles de constellations sont très utilisées de par leur simplicité et leur robustesse. Le signal modulé en bande de base peut s’exprimer sous la forme suivante :

s(t) =

Ns−1

X

k=0

dkφ(t − kTs) (2.26) où dk représente le symbole d’information pris dans une constellation PSK, tandis que Ts représente le temps symbole et φ(t) le filtre de mise en forme qui est traditionnellement choisi un filtre en racine de cosinus surélevé ou Square Root

Documents relatifs