• Aucun résultat trouvé

Les mécanismes de recombinaison sont généralement regroupés sous le terme de diver-sity combiners. En effet, il n’est pas nécessairement question de répétitions temporelles, et la diversité considérée peut également être d’ordre fréquentielle ou spatiale. Dans l’état de l’art, il est d’ailleurs souvent question de diversité spatiale. On considère alors que le récepteur possède plusieurs “antennes réceptrices décorrélées”. Ceci signifie plus exactement que le récepteur dispose de plusieurs versions de la même trame, chaque version issue d’une antenne réceptrice étant affectée par un canal de propagation décorrélé des autres. C’est cette diversité spatiale (ou de canal) qui permet d’améliorer les performances du système. Dans cette section, on parlera donc plutôt des versions du signal que de répétitions. Plus exactement, on considérera R versions du signal (R ≥ 1) pour R antennes réceptrices. On note sk(t)la kèmeversion du signal temporel reçu (1 ≤ k ≤ R). En notant s(t), le signal temporel obtenu à l’issue du mécanisme de recombinaison, on peut simplement avoir,

s(t) =

R

X

k=1

Généralement, on pondère chaque répétition du signal par un coefficient constant réel ou complexe ak, s(t) = R X k=1 aksk(t). (3.2)

On considère que chaque version sk(t)peut s’exprimer sous la forme,

sk(t) = gkd(t) + nk(t). (3.3) On a noté d(t) le signal d’origine, commun à toute les versions sk(t). On suppose que le signal d(t) est en bande de base et que les différentes versions sk(t)sont en phase, impliquant une synchronisation fréquentielle et temporelle parfaite du récepteur. Le signal d(t) est sup-posé de moyenne nulle et de puissance unité, de sorte que < d(t)d(t) >= 1, avec < . > l’espérance mathématique et .l’opérateur de conjugaison complexe. Le terme de bruit com-plexe nk(t)est assimilé à un bruit additif blanc gaussien AWGN (Additive White Gaussian Noise) de moyenne nulle et de variance σ2

nk. Chaque version du signal sk(t)subit un bruit indépendant des autres versions, de sorte que < nk(t)ni(t) >=< nk(t) >< ni(t) >= 0pour k 6= i. On considère que le bruit varie rapidement à l’échelle d’une trame (d’où sa dépen-dance par rapport au temps), à la différence du canal de propagation qui varie lentement. Ainsi, l’effet du canal de propagation mono-trajet se retranscrit par la multiplication d’un terme réel constant gk au signal d(t), le terme gk représentant l’affaiblissement du canal, supposé à bande étroite. Comme évoqué précédemment, les variables gk sont indépen-dantes les unes des autres. Le canal de propagation est ici supposé être à évanouissement de Rayleigh, dont la fonction de densité de probabilité PDF (Probability Density Function) s’exprime comme, fgk(x) = 2x σ2 gk exp  −x 2 σ2 gk  , (3.4) avec < g2 k >= σ2g

k. On dit alors que la distribution de Rayleigh est de paramètre σgk. Le canal à évanouissements de Rayleigh est utilisé pour décrire un environnement riche en réflexions, sans ligne de vue directe entre l’émetteur et le récepteur. Il est ainsi souvent choisi pour modéliser le canal de propagation en zone urbaine. À l’inverse, on utilisera plutôt un canal à évanouissements de Rice pour représenter une zone rurale, où il est commun d’avoir une ligne de vue directe.

Pour présenter les performances des mécanismes de recombinaison, il est intéressant de calculer le SNR (Signal to Noise Ratio) moyen de la trame recombinée. En effet, du SNR moyen vont découler les performances en termes de BER (Bit Error Rate) et BLER (BLoc Error Rate) que l’on peut espérer du système. Le SNR moyen se calcule comme l’espérance du SNR instantané. Ce dernier est égal à la puissance de signal utile sur la puissance de bruit. On peut voir le SNR instantané comme étant le SNR calculé à l’échelle d’une trame recombinée. Dans ce cadre, les processus variant rapidement comme le signal d(t) ou le bruit ne seront pas considérés comme constants, à la différence des coefficients d’évanouissements gk. De plus, l’intervalle de temps total considéré est supposé suffisamment court pour que tous les processus soient stationnaires. Ce raisonnement est analogue à celui mené par D.G.Brennan dans [33].

Dans un premier temps, on décide de déterminer le SNR moyen de chaque version sk(t). Pour cela, on calcule donc tout d’abord le SNR instantané, au sens de la réalisation du canal, noté SNRk. Il est obtenu par le ratio de la puissance instantanée du signal reçu Pk

sur la puissance instantanée du bruit Nk. Par définition, on a,

Pk=< (gkd(t))(gkd(t))>, (3.5) Nk=< (nk(t))(nk(t))> (3.6)

Encore une fois, pour le calcul du SNR instantané, l’horizon de temps sur lequel est effectuée l’espérance est suffisamment court pour considérer le canal de propagation comme constant, mais pas le bruit. De plus comme le signal d(t) est de puissance unité et qu’il est indépendant de l’évanouissement, on obtient,

Pk = g2k, (3.7)

Nk = σn2k, (3.8)

Ainsi, on obtient le résultat classique,

SNRk = Pk Nk = gk2 σ2 nk . (3.9)

On a donc défini le SNR instantané de chaque version du signal. On peut désormais exprimer le SNR moyen SNRk, SNRk= g2 k σ2 nk  = σ 2 gk σ2 nk . (3.10)

Dans le cas du SNR moyen, le canal de propagation n’est plus considéré comme constant, et le terme gk évolue avec le temps. L’espérance dans l’équation (3.10) doit donc être calculée conformément à la densité de probabilité du processus gk. On constatera que, si tous les canaux de propagation et tous les termes de bruit suivent respectivement la même loi, de sorte que σ2

gk = σg2 et σ2

nk = σn2 pour tout k, alors le SNR moyen de chaque version est identique. Nous utiliserons directement les termes σ2

g et σ2

n si nous nous plaçons dans un tel cas. En général, on considère également que σ2

g = 1 et σ2

n = 1, de sorte que SNRk= 1. Le système est alors normalisé.

3.1.1 Selection Combining (SC)

Un exemple de récepteur implémentant le mécanisme SC est décrit par la Fig. 3.1. À chaque instant, le récepteur compare les SNR instantanés de chaque version du signal et utilise celle qui possède le SNR instantané le plus élevé [33] [34].

Figure 3.1 – Implémentation schématique d’un Selection Combiner à deux voies. Ainsi, si à un instant donné, la répétition i présente le meilleur SNR, de sorte que SNRi > SNRk pour k 6= i, alors dans l’Eq. (3.2) on a,

ak= (

1, pour k = i,

Cette technique n’utilise donc pas de recombinaisons à proprement parler, mais uti-lise bien la diversité de canal pour toujours choisir la version de l’information offrant les meilleures performances. Cette technique est couramment utilisée dans les récepteurs dis-posant de plusieurs antennes. On parle alors de sélection d’antennes.

Dans [33], un calcul de la fonction de distribution cumulative du SNR instantané après application du mécanisme SC sur R canaux (fonction notée SR(p)) est fourni. En considé-rant que σ2

g = 1et σ2

n= 1, la probabilité que le SNR instantané soit supérieur à une valeur p est égale à,

SR(p) = (1 − exp(−p))R. (3.12) On peut ensuite calculer la valeur du SNR moyen, à partir de l’expression de SR(p). Le résultat obtenu dans [33] est,

SNR = R X k=1 1 k. (3.13)

Pour rappel on a défini SNRk= 1. Concrètement, augmenter le nombre de versions du signal R devient rapidement peu intéressant. En effet, ajouter la version R n’augmente le SNR moyen que de 1

R. Néanmoins, le SC reste une technique simple à mettre en place. On peut également évoquer la technique du scanning combining [33]. Le principe est presque identique, ce mécanisme utilisant la première version dont le SNR est au dessus d’un seuil. Ensuite, il ne change de version que si le SNR de la version choisie passe sous le seuil.

3.1.2 Equal Gain Combining (EGC)

Dans le cas du mécanisme EGC, les poids attribués dans l’Eq. (3.2) sont tous égaux à 1, comme présenté par le Fig. 3.2 [33] [34].

Figure 3.2 – Implémentation schématique d’un Egal Gain Combiner à deux voies. On retrouve donc la formule de l’Eq. (3.1),

s(t) = R X k=1 gkd(t) + R X k=1 nk(t). (3.14)

On exprime ainsi le SNR instantané par, SNR = PR k,i=1< (gkd(t))(gid(t)) > PR k=1 < nk(t)(ni(t))> , = PR k,i=1gkgi PR k=1σ2 nk . (3.15)

Le SNR moyen est donc égal à, SNR = PR k,i=1 < gkgi > PR k=1σ2 nk , = PR k=1 < gk2> +PR k,i=1 k6=i < gk>< gi> PR k=1σ2 nk . (3.16)

En normalisant le système avec σ2

nk = σ2n = 1 et σ2

gk = σ2n = 1, et en supposant que < gk>= r pour tout k, on a alors,

SNR = 1 +R(R − 1)r

2

R = 1 + (R − 1)r

2. (3.17)

Dans le cas de la distribution de Rayleigh que nous avons normalisée, r2 = π4. De manière générale, on peut se ramener à r2 = <gk>2

<g2

k>, une constante comprise entre 0 et 1. Le SNR moyen augmente donc de façon linéaire avec le nombre de versions R. Il est important de noter que cette combinaison n’est constructive que lorsque les versions sont en phase. On parle alors de combinaison cohérente. Le cas où les différentes versions du signal ne sont pas en phase fera partie de notre étude sous le nom de combinaison IQ (section 3.3.2).

3.1.3 Maximal Ratio Combining (MRC)

Dans le cas d’un récepteur utilisant le mécanisme MRC, les gains ak de l’Eq. (3.1) sont égaux à gk

σ2

nk [33] [34]. La Fig. 3.3 décrit une implémentation possible d’un récepteur MRC.

On a donc, SNR =  PR k=1akgk2 PR k=1a2kσ2 nk , =  PR k=1 g2 k σ2 nk 2 PR k=1 g2 k σ2 nk , = R X k=1 g2 k σ2 nk , = R X k=1 SNRk. (3.18) On a directement, SNR = R X k=1 SNRk. (3.19)

Ainsi, dans le cas d’un système normalisé, on a,

SNR = R. (3.20)

On peut prouver [33] que le MRC offre les meilleures performances théoriques. Il peut néanmoins être ardu d’estimer la variance du bruit. Une version simplifiée et avec les mêmes performances peut être obtenue en considérant que σ2

nk = σn2 et en fixant ak= gk.

3.1.4 Chase Combining (CC)

Les mécanismes de recombinaison précédents se basent tous sur l’utilisation de signaux analogiques ou de symboles complexes échantillonnés. Néanmoins, il est également possible de recombiner l’information au niveau binaire. C’est l’idée du Chase Combining (CC) [35], mécanisme déjà évoqué dans le cadre de l’HARQ de type II. Les bits sont obtenus après démodulation, et sont recombinés avant l’opération de décodage (code correcteur d’erreurs). Ils peuvent être issus d’une démodulation dure (hard demodulation) et on combine alors uniquement des 0 et des 1. Dans ce cas, on parle également de hard bits. À l’inverse, la prise de décision peut être douce, et on combine alors des soft bits. Ce dernier cas offre les meilleures performances, à chaque bit étant attribué un LLR (Log Likelihood Ratio). Un LLR est un facteur de fiabilité, quant à la valeur du bit. Ainsi, plus le LLR sera élevé et plus la valeur du bit démodulé sera certaine. L’utilisation de LLR permet, en un sens, de conserver une représentation plus précise de l’information portée par le symbole avant sa démodulation.