• Aucun résultat trouvé

1.4 Les techniques de communications

1.4.4 Les techniques d’accès multiple

Le choix d’une technique d’accès multiple est fortement liée aux contraintes du canal, aux contraintes matérielles, mais aussi au type de liaison multi-utilisateur, en particulier à l’aspect synchrone ou asynchrone.

Des trois dimensions représentées sur la figure 1.4 découlent naturellement 3 types de technique d’accès multiple, la technique d’accès multiple à répartition dans le temps (Amrt), la technique d’accès multiple à répartition en fréquence (Amrf) et la technique d’accès multiple à répartition de code (Amrc) [61] basée sur l’étalement de spectre. L’exploitation du domaine spatial au niveau de la station de base permet aussi de mettre en oeuvre l’accès multiple par répartition spatiale (Amrs). L’Amrs est basé sur le fait que plusieurs utilisateurs peuvent être vus sous des angles différents par la station de base. Les performances de l’Amrs sont donc tributaires de la position des utilisateurs et plus exactement de la direction des ondes incidentes associées aux différents utilisateurs.

A part l’Amrc qui nécessite une modulation par étalement de spectre, les autres techniques d’accès multiple, au moins dans leur principe, n’imposent pas une modulation particulière. Les performances de l’Amrc dépendent essentiellement des propriétés d’in-tercorrélation des codes associés aux différents utilisateurs. Il s’agit donc de trouver un bon compromis entre les propriétés d’autocorrélation (aspect mono-utilisateur) et d’in-tercorrélation (aspect multi-utilisateur) des codes. Contrairement à l’Amrf et l’Amrt, les performances de l’Amrc sont forcément dépendantes du facteur de charge, c’est à dire du nombre d’utilisateurs considéré. A pleine charge (nombre d’utilisateurs égal au nombre de codes), les techniques Amrc atteignent la même efficacité spectrale que les autres techniques tout en conservant leurs avantages de diversité offerts par les trajets multiples, néanmoins le niveau d’interférence devient de plus en plus élevé.

Les systèmes d’accès multiple et plus particulièrement l’Amrc nécessitent l’implé-mentation de techniques de détection multi-utilisateur [62] afin de lutter efficacement contre les Imu. Ces Imu sont causées par les cellules voisines (interférences co-canal) et la dispersion temporelle du canal pour l’Amrt, et la dispersion fréquentielle du canal (dispersion Doppler) pour l’Amrf. Pour l’Amrc, les Imu sont dues à la perte d’orthogo-nalité des codes due, en particulier, à la sélectivité du canal et au caractère asynchrone des communications en voie montante ainsi qu’à l’effet proche/lointain (near/far effect en anglais).

Les techniques de duplexage des voies montante et descendante se font soit dans le temps (Tdd pour Time Division Duplex) soit en fréquence (Fdd).

Récemment, les modulations multiporteuses à étalement de spectre ont fait leurs appa-ritions [63, 64]. Elles prennent parties des avantages respectifs de ces deux techniques. Ce sont les techniques de modulations les plus générales lorsque l’on considère le seul domaine temporel (utilisation des axes temps, code et fréquence) : les dimensions temporelles et fréquentielles sont utilisées pour le multiplexage des données d’un même utilisateur alors que l’axe code est utilisé pour l’accès multiple.

1.4.5 L’égalisation

La traversée du canal de transmission provoque des distorsions fréquentielles et tempo-relles ainsi que des problèmes de synchronisation qui peuvent altérer l’orthogonalité entre les fonctions associées aux différents symboles. Chaque échantillon discret reçu est alors une combinaison linéaire de plusieurs échantillons émis par un ou plusieurs utilisateurs. La principale difficulté réside alors dans la restauration du message de chaque utilisateur. L’opération d’égalisation vise à supprimer les Ies et éventuellement les Imu (techniques d’égalisation multi-utilisateur). Les techniques d’égalisation [54,65,66] dépendent grande-ment des propriétés du canal, en particulier des caractéristiques des zéros dans la fonction de transfert et du nombre de symboles d’étalement de la réponse impulsionnelle.

Le récepteur optimal (celui qui minimise la probabilité d’erreur) est basé sur le critère du maximum à postèriori (Map) qui se traduit par le critère du maximum de vraisem-blance (Mv) lorsque les symboles émis sont indépendants et identiquement distribués.

L’algorithme de Viterbi permet d’effectuer l’opération d’égalisation selon ce critère mais dès que l’étalement (en nombre de symboles) du canal devient trop important son implé-mentation devient trop complexe et on préfère utiliser des méthodes sous-optimales.

Ces méthodes sous-optimales sont basées sur la notion de filtrage inverse justifiée par le fait que le canal de transmission agit comme un filtre (généralement linéaire). On peut alors classer les techniques d’égalisation numérique selon 3 qualités :

- critère utilisé, - structure de filtrage,

- calcul des paramètres du filtre.

Les deux principaux critères sont le critère du forçage à zéro (Zf pour Zero Forcing) et le critère de l’erreur quadratique moyenne minimale (Eqmm). Le premier est optimal dans un canal sans bruit puisqu’il vise seulement à éliminer les Ies (dans un canal bruité, le bruit peut alors être fortement amplifié), alors que le deuxième critère permet de minimiser les effets des Ies conjointement à ceux du bruit. D’une manière générale, en présence de bruit additif, on ne peut pas affirmer théoriquement que le critère Eqmm est optimal du point de vue de la probabilité d’erreur mais en pratique, il s’avère que plus l’Eqm est faible plus la probabilité d’erreur l’est. Sous la forme d’un récepteur linéaire, l’optimisation du critère Eqmm aboutit au filtre de Wiener.

Les structures de filtrage sont de deux grands types, linéaires et Nl. En ce qui concerne les récepteurs linéaires, le filtre utilisé est généralemenent transverse pour des raisons de stabilité et de simplicité de réalisation. La difficulté réside dans le choix de la longueur de ce filtre puisqu’elle ne dépend pas seulement de la longueur de la réponse du canal de transmission mais aussi de sa structure (profondeur des zéros par exemple). La deuxième structure, de type Nl, utilise, en plus de la structure transverse précédent l’organe de décision, les décisisons préalables sur les symboles à l’aide d’une structure récursive dont l’entrée est la séquence de symboles estimés. Cet égaliseur est nommé égaliseur à retour de décision. Il peut entraîner des dégradations importantes notamment lorsque le rapport signal à bruit est faible (propagation des erreurs au cours du temps). Pour cette raison, on trouve souvent des méthodes mixtes. L’opération d’égalisation est généralement effec-tuée après une opération de filtrage adapté (à l’ensemble forme d’onde émise et canal) ainsi qu’un échantillonnage au rythme symbole. Sachant que cette opération de filtrage analogique adapté n’est pas aisément réalisable, il est possible d’envisager l’égalisation conjointement au filtrage adapté en numérique. On parle alors d’égalisation fraction-née [54]. En effet, l’opération se fait alors à un rythme supérieur au rythme symbole. Le facteur de suréchantillonnage dépend de la largeur de bande occupée par le filtre de mise en forme ; ainsi pour un filtre en cosinus surélevé, un facteur de suréchantillonnage de 2 est suffisant.

Le calcul des coefficients peut être décrit selon quatre critères. Il peut être direct (estimation du filtre égaliseur) ou indirect (estimation du canal), adaptatif ou pas. Le traitement des données peut être séquentiel ou peut se faire par blocs. Enfin, il peut être itératif (utilisation d’un algorithme de descente) ou singulier (méthode analytique).

Généralement, du fait du grand nombre de configurations auquel un système de commu-nication doit faire face (par exemple dans un contexte cellulaire), le calcul est souvent adaptatif.

Deux grands types d’égalisation sont envisageables : l’égalisation autodidacte (dite aussi aveugle ou non-supervisée) [66] et l’égalisation supervisée (avec séquence d’appren-tissage ou séquence pilote) [54]. La première est plus complexe mais permet, en particulier des débits utiles plus élevés. Historiquement, les techniques autoditactes ont été large-ment étudiées dans le contexte de la sismologie et de la géophysique. Elles sont basées sur les propriétés connues de la séquence émise (répartition statistique des symboles, fonction de mise en forme, propriétés de cyclostationnarité, ...) voire du canal (canal à phase maxi-male, minimale ou à phase mixte). Les statistiques d’ordre supérieur sont d’une grande utilité dans le cas de signaux émis non-gaussiens et de canal à phase mixte.