• Aucun résultat trouvé

12.4

Décodage mou

Revenons un instant à une situation de codage traditionnelle. Après encodage, un mot code est traduit en symboles physiques par une étape de modulation. Par exemple, on peut attribuer le niveau −1 d’un signal au bit 0, et le niveau +1 au bit 1. Cette modulation est une modulation binaire. Nous aborderons dans la section 12.6 des modulations plus complexes qui nous amèneront à la modulation propre à nos protocoles quantiques.

Le canal de communication introduit ensuite une perturbation sur le signal modulé. Par exemple, le canal symétrique binaire ("Binary Symmetric Channel", ou BSC) intervertit les symboles associés aux bits 0 et 1 avec une probabilité e. Un code correcteur adapté à ce type de canal, ou «code correcteur binaire» aura donc pour but de corriger ces erreurs. Ce type de canal est rencontré dans les dispositifs de distribution quantique de clé avec des photons uniques, dans lesquels le résultat de la mesure de Bob est binaire. Les protocoles de correction d’erreurs interactifs Cascade [63] ou Winnow [64] sont adaptés à une telle situation. Le décodage du signal issu d’un canal binaire est appelé décodage dur, en ce sens qu’il prend en entrée des bits erronés qu’il doit convertir en bits sans erreur.

Dans les télécommunications classiques, le canal binaire symétrique est peu rencontré en pratique. En effet, la transmission de l’information se fait souvent grâce à des variables continues (modulation d’amplitude ou de fréquence d’une onde électromagnétique), et la dégradation du signal au cours de la transmission est donc elle aussi continue, même si l’information initialement introduite dans le canal est sous forme d’une modulation binaire. On rencontre souvent le canal AWGN (Additive White Gaussian Noise), qui ajoute un bruit blanc gaussien au signal d’entrée. Le canal AWGN est l’appellation «télécom» de notre modèle du canal gaussien, que nous avons rencontré au chapitre 2 (à ceci près que le canal AWGN classique n’est pas contraint par des relations de Heisenberg !)

Le décodage mou a pour objectif de tirer parti du caractère continu du bruit

ajouté sur le signal pour faciliter le décodage. En effet, il serait peu efficace d’utiliser un décodage dur sur un canal continu en binarisant les symboles mesurés à la sortie du canal, par exemple en ne gardant que le signe de la mesure. On perdrait en effet l’information portée par l’amplitude du signal. Par exemple, si, pour une modulation binaire en entrée (symboles ±1), nous mesurons en sortie un signal de 1, 5, il y a de fortes chances pour que le bit transmis soit 1. En revanche, si le signal mesuré est 0, 3, alors nous sommes plus indécis sur la valeur du bit d’origine.

Pour formaliser ce concept, on définit le rapport de vraisemblance ("Log-Likelyhood Ratio", ou LLR) comme le logarithme du rapport entre la probabilité p pour que le bit encodé xi soit 1, et la probabilité 1 − p pour qu’il soit 0 :

LLRi = ln

 P (xi = 1) P (xi = 0)



(12.8)

Le signe du LLR indique la valeur la plus probable, et sa valeur absolue indique la «confiance» que l’on a dans la valeur du bit. Si le LLR est très négatif, on est sûr que le bit est 0 ; s’il est très positif, on est sûr que le bit est 1. S’il est proche de 0, on accorde peu de confiance à la valeur du bit obtenu. Inversement, P (xi = 1) = 1+eeLLRiLLRi se déduit du rapport de vraisemblance. Un décodeur mou possède deux entrées (figure 12.3). La première est destinée aux rapports

144 Chapitre 12 : Réconciliation et codes correcteurs d’erreurs

Intrinsèque

Parités

A posteriori Extrinsèque

Fig. 12.3: On peut représenter un décodeur mou comme une boîte noire caractérisée par ses entrées et sorties. En entrée, on trouve les informations intrinsèque (apportée par la mesure du canal) et les parités (la redondance introduite à l’encodage). En sortie, on obtient l’information a posteriori, c’est- à-dire une connaissance améliorée de la chaîne de bits encodée, dont l’apport original du décodage est l’information extrinsèque.

de vraisemblance intrinsèques, qui s’expriment :

LLRintrinsèquei = ln P (yi|xi = 1) P (yi|xi = 0)



. (12.9)

ou yi est la valeur (réelle) du ie symbole mesuré à l’issue du canal de communication. Ces rapports contiennent l’information provenant uniquement du canal de communication, sans prendre en compte l’information apportée par les contraintes imposées par l’encodage. Ils in- diquent si le symbole reçu yi permet davantage de penser que le bit envoyé xi est 1 ou 0. On calcule simplement les rapports de vraisemblance intrinsèques pour un canal binaire symétrique (BSC) de taux d’erreur e :

LLRintrinsèquei = ln 1 − e e



yi avec yi = ±1, (12.10)

ou pour une modulation binaire ±1 transmise par un canal AWGN caractérisé par un bruit de variance σ2 :

LLRintrinsèquei = 2

σ2yi avec yi ∈ R. (12.11)

La deuxième entrée est consacrée aux parités, c’est-à-dire à la redondance d’information. Dans les configurations usuelles de décodage, ces parités sont transmises par le canal bruité, au même titre que les bits utiles. La plupart du temps, cette entrée est donc confondue avec l’entrée intrinsèque. Cependant, pour notre situation de réconciliation dans laquelle les parités ne subissent pas d’altération, il est pratique de les distinguer.

On trouve en sortie du décodeur le rapport de vraisemblance a posteriori, c’est-à-dire l’es- timation du bit xi à la fin du décodage :

LLRa posteriorii = ln P (xi = 1|{y1, . . . , yn}) P (xi = 0|{y1, . . . , yn})



. (12.12)

Cette estimation provient du symbole yi, ainsi que des contraintes du code liant le symbole yi aux autres symboles. Pour différencier ces deux sources, on définit le rapport de vraisem- blance extrinsèque comme l’apport original du décodage : il représente l’information apportée uniquement par les contraintes du code. Il s’exprime :

12.4 Décodage mou 145

En utilisant la formule de Bayes et en supposant que le canal n’introduit pas de dépendance entre les symboles {y1, . . . , yn}, on peut montrer que les LLR extrinsèques s’expriment :

LLRextrinsèquei = ln P (xi = 1|{yk}k6=i) P (xi = 0|{yk}k6=i)



(12.14)

On reconnaît dans cette formule que les LLR extrinsèques expriment la connaissance sur le bit xi apportée par les symboles autres que yi, c’est-à-dire à dire la connaissance apportée par les contraintes du codes liant le symbole yi aux autres symboles transmis. Notons qu’avant décodage, les LLR extrinsèques sont nuls, et donc les expressions des LLR intrinsèques 12.9 et a posteriori 12.12 sont égales. En d’autres termes, avant décodage, notre connaissance des bits envoyés provient uniquement des symboles reçus du canal. Pour les étapes suivantes, le décodage apporte de l’information et les LLR a posteriori sont donnés par 12.12.

Les décodeurs mous les plus courants sont l’algorithme BCJR pour les codes convolutifs (utilisés pour les turbo codes, voir annexe A) et le décodage par propagation de croyance ("Belief Propagation") des codes LDPC, qui sont tous les deux des codes à base de graphes.

Notre connaissance de la chaîne de bits envoyée est donc donnée par l’ensemble des valeurs des LLR pour chaque symbole reçu. On peut représenter cette connaissance sous forme d’un histogramme représentant la distribution des LLR. Si, à des fins de caractérisation, nous révélons la chaîne de bits envoyée {xi}, alors nous pouvons tracer deux distributions distinctes : la distribution f+ des LLR associée aux bits xi = 1 et la distribution f− des LLR associée aux bits xi = s0. Par exemple, pour une modulation binaire transmise par un canal AWGN, ces distributions sont des gaussiennes de variance 4/σ2 respectivement centrées sur ±2/σ2 (cf. équation 12.11). Plus les distributions f

+ et f− sont disjointes et plus elles sont éloignées de l’origine, plus nous avons de connaissance sur la chaîne de bits envoyée.

Pour quantifier simplement cette connaissance, nous voudrions pouvoir calculer une gran- deur réelle représentative de cette distribution. Pour cela, nous pouvons calculer le taux d’erreur. Puisque la valeur d’un bit la plus probable est le signe du LLR associé à ce bit, le taux d’erreur est simplement la fraction des distributions f+ (resp. f−) qui se trouve du côté négatif (resp. positif). Le taux d’erreur nous permet donc de quantifier à quel point les distributions f+ et f− sont disjointes, mais ne dit rien en général sur leur valeur moyenne.

À partir des distributions des LLR, nous définissions l’information, représentative de la connaissance apportée par les LLR [65] :

I = 1 2 X b=±1 Z fb(l) log2 2fb(l) f+(l) + f−(l) dl, (12.15)

Si les distributions f+ et f− sont bien distinctes, l’information sera importante. Au contraire, si f+ et f− sont toutes deux regroupées autour de 0, l’information sera faible. On associe une information à chaque type de LLR, définissant ainsi les informations intrinsèque, extrinsèque,

a priori. . .

Bien entendu, l’information ainsi définie ne suffit pas à déterminer de façon unique la confi- guration de décodage. Elle ne rend pas compte de la distribution exacte des LLR. Ainsi, on peut trouver plusieurs distributions de LLR apportant la même information, mais dont l’issue du décodage (information extrinsèque) diffère. Cependant, pour des canaux simples (BSC ou

146 Chapitre 12 : Réconciliation et codes correcteurs d’erreurs

Noeuds de variable

Noeuds de parité

Fig. 12.4: Graphe bipartite représentant la matrice du code linéaire de Hamming (7, 4) (section 12.2). La représentation sous forme de graphe est nécessaire pour les codes LDPC car leur matrice H est trop grande pour qu’on puisse l’écrire.

AWGN), la distribution des LLR est caractérisée par un seul paramètre, équivalent à l’infor- mation.6

L’information extrinsèque issue d’un décodeur permet d’évaluer la qualité du décodage : le taux d’erreur final est d’autant plus faible que l’information extrinsèque s’approche de 1, et devient satisfaisant pour des valeurs d’information extrinsèque typiquement supérieures à 0,999. À taux donné, un bon code est un code apportant beaucoup d’information extrinsèque.