• Aucun résultat trouvé

Volume I. Philosophie de la physique 15

6.1 Perspectives th´eoriques

6.1.3 Codes et corr´elations

Imposer au mod`ele ind´ependant de dispositif seulement une contrainte, qui stipule l’existence d’une borne sup´erieure de la complexit´e des suites de symboles, n’est pas encore suffisant pour obtenir un mod`ele proche de la m´ecanique quantique. Pour estimer ∆KN dans l’´equation (6.3), il faut poser des principes contraignant davantage les entr´ees et les sorties.

Nous l’avons d´ej`a dit, la pr´esence d’une loi physique se traduit par la diminution de la complexit´e algorithmique lorsqu’on adjoint `a la s´equence de sortie celle d’entr´ee. Supposons que la d´ependance entre entr´ees et sorties soit lin´eaire, mˆeme si ses coef-ficients peuvent varier selon les runs. Cela peut ˆetre repr´esent´e math´ematiquement avec les outils de la th´eorie alg´ebrique des codes correcteurs.

Choisissons une matrice G de taille finie, potentiellement grande, telle que ses ´el´ements appartiennent `a un corps fini Fq, avec q = max{qi, qo}. Elle g´en`ere un

6.1. PERSPECTIVES TH ´EORIQUES 59

code lin´eaire, CA, d´efini en traitant ses rang´ees comme les mots du code. Rappelons que A d´esigne les sorties : la notation CA prend son sens en vertu d’un pr´esuppos´e suppl´ementaire, `a savoir que la suite de sortie AN apr`es N runs peut ˆetre repr´esent´ee comme une concat´enation calculable, manifestement longue, des mots de CA. Des mots individuels peuvent mˆeme atteindre la longueur de AN sans que cela pose un probl`eme `a cette construction th´eorique ; simplement, dans ce cas, la suite ne sera pas compressible.

En adjoignant `a la suite de sortie celle d’entr´ee, aN `a AN, nous obtenons une concat´enation calculable des mots d’un autre code lin´eaire, CAa. Sa complexit´e est inf´erieure `a celle de CA si et seulement si une loi, que nous supposons lin´eaire pour tout N , relie A et a.

On trouve une certaine analogie quantique `a ce principe. En effet, la r`egle de Born assure le caract`ere al´eatoire, et donc incompressible, des sorties, ce qui contribue `a rendre G tr`es large. Mais, pour le peu d’information qui reste `a comprimer, la lin´earit´e de l’espace de Hilbert, responsable de la d´ependance entre les param`etres et r´esultats de mesure, ressemble au postulat de lin´earit´e du code.

Les codes CA et CAa sont inconnus et probablement tr`es complexes. Toutefois, il existe une relation entre leurs param`etres : le taux R et la distance relative δ, d´efinie comme la distance de Hamming minimale entre les mots du code, rapport´ee `a leur longueur. La distance de Hamming entre deux s´equences est ´egale, par d´efinition, au nombre de positions qui contiennent des symboles diff´erents.

La borne de Gilbert-Varshamov (GV) ´etablit une relation, sous forme d’in´egalit´e, v´erifi´ee par les bons codes, au sens de leur capacit´e `a corriger les erreurs en maximisant R et δ :

R & 1− hqA), (6.7)

o`u la fonction h est l’entropie binaire `a base q :

hq(x) = x logq(q− 1) − x logq(x)− (1 − x) logq(1− x). (6.8) Parmi les codes lin´eaires qui s’approchent asymptotiquement, lorsque leur taille tend vers infini, de la borne GV, on trouve ceux g´en´er´es par des matrices G remplies uniform´ement au hasard. En revanche, les codes constructifs , qui poss`edent un algorithme de fabrication simple, se trouvent loin de cette borne.

Dans la mˆeme limite asymptotique N → ∞, la borne d’Elias-Bassalygo met une limite sup´erieure sur le taux des codes lin´eaires :

R≤ 1 − hq "  1− 1 q  1− s 1− q− 1 !# + o(1). (6.9)

Pour un alphabet binaire, ces deux bornes s’´ecrivent de mani`ere simplifi´ee. La borne de Gilbert-Varshamov : 1− h(δ) ≤ R (6.10) et la borne d’Elias-Bassalygo : R ≤ 1 − h 1 √ 1− 2δ 2  . (6.11)

En utilisant (6.5), nous obtenons : lim ∆K

N

N = RA− RAa. (6.12)

Pour les codes binaires, lim ∆K N N ≤ h(δAa)− h 1 √ 1− 2δA 2  , (6.13)

avec l’entropie binaire h(x) =−x log2(x)− (1 − x) log2(1− x).

Revenons `a nouveau `a la situation de deux parties poss´edant chacune une entr´ee et une sortie. Lorsque les suites d’entr´ee et de sortie sont fusionn´ees, la longueur totale de la s´equence passe de 2N `a 4N . Dans le mˆeme temps, la distance de Hamming augmente de N , car les entr´ees sont distribu´ees uniform´ement au hasard `a travers N runs, au taux de deux entr´ees par run : 00, 01, 10 ou 11. Il en suit que :

δAa = 2N δA+ N 4N = δA 2 + 1 4. (6.14)

Cette ´equation nous permet d’estimer la borne (6.13). Le calcul montre qu’elle atteint sa valeur maximale, ´egale `a h(1

4) = 2− 3log2(3)

4 ' 0.8113, `a δA= 0. En l’ins´erant dans l’´equation (6.3), nous obtenons :

IH(A : a)≤ 2.8113. (6.15)

Cela signifie que, dans notre mod`ele, l’information mutuelle entre entr´ees et sorties est maximale dans le cas o`u, `a elle seule, la suite de sortie est totalement al´eatoire et incompressible. Ce n’est que quand on y adjoint les entr´ees qu’apparaˆıt un sens, dˆu `a une d´ependance lin´eaire. Il est ´egalement vrai que toute la corr´elation entre les entr´ees et les sorties se limite `a un choix al´eatoire avec la probabilit´e 1

4. La quantit´e d’information dans ce choix est ´egale `a l’entropie binaire h(1

4).

Quelle est la source du d´ecalage, petit mais r´eel, entre la valeur obtenue dans (6.15) et la borne de Tsirelson 2√

2' 2.8284 ? Plusieurs pr´esuppos´es y concourent : 1. Le rapport entre l’information mutuelle et la quantit´e CHSH (5.2) reste `a

´etablir. Les deux quantit´es mesurent la force des corr´elations entre les entr´ees et les sorties ; elles devraient ˆetre li´ees. Une piste int´eressante `a suivre serait celle d’une application de l’in´egalit´e de Fano, d´ej`a utilis´ee dans le travail sur la causalit´e informationnelle [170].

2. Le choix d’un corps fini est important. `A sa place, la m´ecanique quantique emploie le corps continu des nombres complexes.

3. Le caract`ere statistique de notre argument ne doit pas ˆetre n´eglig´e. La majorit´e des codes sont proches de la borne GV, or il en existe d’autres qui la d´epassent, notamment pour q ≥ 49.

4. Le pr´esuppos´e d’une d´ependance lin´eaire entre les entr´ees et les sorties est crucial.

6.1. PERSPECTIVES TH ´EORIQUES 61

La borne de ce mod`ele discret n’est valide que pour des codes lin´eaires longs, qui de-meurent al´eatoires dans la limite asymptotique. A priori, rien ne laisse penser qu’elle devrait co¨ıncider avec la borne de Tsirelson. Cependant, elle en sort ´etonnamment proche.

Il est instructif de calculer, pour exercice, la valeur de (6.12) dans le cas des boˆıtes PR (5.1). Le produit des entr´ees, xy, divise les quatre possibilit´es, x, y ∈ {0, 1}, en deux groupes : xy = 0 si x = ou y = 0 (trois cas sur quatre), et xy = 1 si et seulement si x = y = 1. Rappelons que, par la d´efitinion du mod`ele,

a + b = xy.

Dans les trois premiers cas, a = b. Cela signifie que les sorties prennent les valeurs a = b = 0 ou a = b = 1 avec la probabilit´e 1

2. Dans le dernier cas, a 6= b et les sorties sont {a = 0, b = 1} ou {a = 1, b = 0} avec la probabilit´e 1

2. Ainsi, pour restituer l’information mutuelle, il est suffisant, d’abord, de tirer au sort avec la probabilit´e de succ`es 1

4, puis de d´eterminer la valeur d’une seule sortie, car elle suffit `a connaˆıtre la seconde. La quantit´e d’information n´ecessaire est alors :

IP R = h(1

4) + 1' 1.8113. (6.16)

Or, cette quantit´e d’information, d´ej`a assez faible, s’av`ere tout de mˆeme excessive si on ne souhaite calculer que l’expression CHSH (5.2). En effet, CHSH ne d´epend pas de la connaissance pr´ecise des sorties, mais seulement de leur corr´elation. Pour les boˆıtes PR, il suffit pour la calculer de connaˆıtre h(1

4)' 0.8113 bits d’information. La bizarrerie de cette valeur r´eside dans son inf´eriorit´e par rapport `a celle, proche de la limite quantique, que nous avons calcul´ee supra dans le cas des mod`eles ind´e-pendants de dispositif et lin´eaires. Qui plus est, elle est inf´erieure mˆeme `a celle qu’on exige classiquement !

Bizarrerie, certes, mais cela n’est pas une nouveaut´e : Fritz et Chaves ont d´ej`a ´etabli que le mod`ele PR, qui d´epasse normalement la borne de Tsirelson, redes-cend en-dessous de la limite quantique lorsqu’on consid`ere, `a la place de l’in´egalit´e CHSH habituelle, des in´egalit´es entropiques [54]. Pour cela, ils ont utilis´e l’entropie de Shannon, invariante par rapport aux permutations des valeurs des sorties qui ne changent pas les probabilit´es. Ainsi, toute boˆıte isotropique [156] Piso(a, b|x, y) =

1

4 1 + C(−1)a⊕b⊕xy , avec C ∈ [0, 1], est susceptible de respecter l’in´egalit´e de Bell entropique car, par simple permutation des sorties, elle peut ˆetre rendue ´equivalente, au sens seulement de l’entropie, au mod`ele classique Pc(a, b|x, y) = 1

4 1 + (−1)a⊕b . Ce constat peu satisfaisant advient `a cause de la forte non-lin´earit´e des in´egalit´es entropiques, qui permettent, en particulier, `a ce que l’in´egalit´e soit viol´ee par un m´elange de deux boˆıtes respectant chacune sa borne classique.

Lorsque nous rempla¸cons, dans l’utilisation des in´egalit´es entropiques, l’entropie de Shannon par la complexit´e de Kolmogorov, le caract`ere statistique des arguments s’efface. Mais, l’analyse des boˆıtes isotropiques est toujours possible ; qui plus est, dans le langage de la complexit´e algorithmique, `a peu pr`es comme dans celui de Shannon,

le mod`ele de Popescu-Rohrlich, tr`es fortement corr´el´e, est class´e plus bas que la physique classique. Cela est dˆu au concours de trois facteurs :

— le rˆole r´eduit des entr´ees, qui d´eterminent seulement le signe du corr´elateur, distribu´e 3

4 vs. 1 4;

— l’absence de toute autre information mutuelle entre les entr´ees et les sorties ; — la caract`ere isotropique du mod`ele, qui rend inutile la pr´eservation de

l’infor-mation sur chacune des deux sorties individuelles.

Documents relatifs