• Aucun résultat trouvé

4.4 Mod`ele du canal gaussien

4.4.2 Canal avec bruit thermique

4.4.3 Information mutuelle. . . 79

4.5 Conclusion . . . 80

4.1

Introduction

Consid´erons une pi`ece de monnaie un peu sp´eciale : lorsqu’on la lance, elle retombe sur le cˆot´e pile avec une probabilit´e p, et sur le cˆot´e face avec une probabilit´e 1 p. Dans le cas extrˆeme o`u p=1, la pi`ece retombera `a chaque fois sur le cˆot´e pile, et un lancer ne nous apprendra rien puisque nous connaissons son r´esultat `a l’avance. En revanche, lorsque p=1/2, nous n’avons plus aucune information. A chaque fois, nous obtenons un des deux r´esultats possibles avec la mˆeme probabilit´e. Si l’on associe la valeur 0 au r´esultat pile, et 1 au r´esultat face, chaque lancer nous apprend un bit d’information. Intuitivement, lorsque p=0 ou p=1, nous n’obtenons aucun bit d’information, et pour une valeur interm´ediaire de p, nous obtiendrons une information comprise entre 0 et 1 bit.

A travers cet exemple, nous avons vu que l’incertitude associ´ee au tirage d’une variable al´eatoire peut ˆetre quantifi´ee en terme de bits d’information. La th´eorie de l’information classique formalise ces notions, et permet aussi de d´ecrire les corr´elations entre deux variables al´eatoires

et de calculer l’information maximale qu’il est possible d’en extraire. En se basant sur les mˆemes concepts, la th´eorie de l’information quantique g´en´eralise la notion d’information `a des ´etats quantiques.

Dans ce chapitre, nous pr´esentons les concepts principaux de ces deux th´eories de l’infor- mation. Une tr`es bonne introduction d´etaill´ee peut ˆetre trouv´ee dans le livre ´ecrit par Nielsen et Chuang [Nielsen00]. Le lecteur pourra ´egalement consulter l’ouvrage de Vedral [Vedral07], qui fournit une approche plus concise, ou encore le cours de Preskill [Preskill98], un peu plus technique.

4.2

Information classique

4.2.1 Entropie de Shannon

Consid´erons une variable al´eatoire classique X donnant les r´esultats {xi} avec des proba-

bilit´es {pi}. On dit aussi que chaque valeur xi est un symbole, appartenant `a l’alphabet {xi}.

L’entropie caract´erise l’incertitude ou l’impr´evisibilit´e avant le tirage, ou de mani`ere ´equivalente, l’information apport´ee par le r´esultat du tirage. Elle est d´efinie par [Shannon48]

H(X) = X

i

pilog2pi. (4.1)

L’unit´e de cette mesure est le bit, bi nary unit. Cette d´efinition provient de quelques propri´et´es que l’on demande `a une mesure de l’incertitude. On veut en particulier que la mesure de l’incer- titude de deux variables al´eatoires ind´ependantes soit additive, ce qui justifie l’utilisation d’un logarithme.

L’entropie est reli´ee aux ressources physiques n´ecessaires pour stocker ou transmettre un message. Asymptotiquement, il est possible de stocker un message de N symboles en utilisant N H(X) bits physiques, avec une erreur tendant vers 0 lorsque N tend vers l’infini [Shannon48]. Chaque symbole de l’alphabet apporte donc en moyenne H(X) bits d’information.

4.2.2 Entropie de deux variables al´eatoires

Pour deux variables al´eatoires X et Y , on d´efinit l’entropie conjointe

H(X, Y ) = X

x,y

p(x, y) log2p(x, y). (4.2)

C’est une mesure de l’incertitude totale pour le couple de variables al´eatoires (X, Y ). Lorsqu’elles sont ind´ependantes, on a H(X, Y )=H(X)+H(Y ).

Lorsque X et Y sont corr´el´ees, la connaissance de l’une d’entre elles, Y par exemple, r´eduit l’incertitude qu’il reste sur X. L’incertitude restante sur X, connaissant l’information apport´ee par Y , est donn´ee pas l’entropie conditionnelle

H(X|Y ) = H(X, Y ) H(Y ). (4.3)

Elle est nulle quand X et Y sont parfaitement corr´el´ees. C’est en moyenne la quantit´e de bits par symbole manquante avec un code optimal pour parfaitement d´ecrire une chaine de symboles de X sachant Y [Preskill98].

4.2.3 Information mutuelle

Consid´erons un couple de variables al´eatoires (X, Y ). Nous avons vu que l’entropie condi- tionnelle de X sachant Y correspond `a l’incertitude restant sur X, connaissant Y . Plutˆot que de consid´erer l’incertitude, on peut ´egalement s’int´eresser `a l’information que X apporte sur Y . Cette information correspond `a l’incertitude sur X, moins l’incertitude restante sur X connais- sant Y , et d´efinit l’information mutuelle :

I(X:Y ) = H(X) H(X|Y ) (4.4a)

= H(Y ) H(Y|X) (4.4b)

= H(X) + H(Y ) H(X, Y ) (4.4c)

C’est le nombre de bits par symbole appris sur X en connaissant Y . Inversement, c’est aussi ce que l’on sait de Y connaissant X. C’est une mesure de leurs corr´elations, sym´etrique en X et Y , correspondant `a la quantit´e maximale de bits que l’on peut en extraire.

4.2.4 Quelques propri´et´es de base de l’entropie

Les di↵´erentes entropies poss`edent de nombreuses propri´et´es que l’on peut trouver par exemple dans la r´ef´erence [Nielsen00]. Nous en indiquons quelques unes parmi les plus impor- tantes :

⌅ H(X|Y ), H(Y |X) 0, ce qui implique I(X:Y ) H(X), H(Y ) ⌅ H(X), H(Y ) H(X, Y )

⌅ H(X, Y ) H(X) + H(Y ) (sous-additivit´e)

Toutes ces di↵´erentes mesures sont r´esum´ees sur la figure4.1.

Figure 4.1 – Les di↵´erentes entropies et mesures des corr´elations.

Pour une variable continue gaussienne de variance V , l’entropie est ´egale `a [Shannon48] H(X) = 1

2log2V + C, (4.5)

4.3

Information quantique

4.3.1 Entropie de von Neumann

L’entropie de von Neumann g´en´eralise la notion d’entropie `a des ´etats quantiques, en rem- pla¸cant la distribution de probabilit´e par une matrice densit´e. Elle est d´efinie par

S( ˆ⇢) = Tr⇢ log2⇢ˆ}. (4.6)

En ´ecrivant la matrice densit´e sous forme diagonale, ˆ⇢=Pi i|iihi|, l’entropie de von Neumann

devient

S( ˆ⇢) = X

i

ilog2 i. (4.7)

Elle correspond donc `a l’entropie de Shannon pour la distribution de probabilit´e associ´ee `a la diagonalisation de ˆ⇢.

Comme l’entropie de Shannon, l’entropie de von Neumann a une interpr´etation en termes de ressources n´ecessaires pour coder l’information `a la limite asymptotique [Nielsen00,Preskill98]. Supposons qu’Alice forme un message en choisissant pour symboles des ´etats {| xi} avec une

probabilit´e px, parmi un alphabet{| xi, px}. Avant d’ˆetre choisi, chaque symbole a pour matrice

densit´e ˆ⇢=Pxpx| xih x|. Un message form´e de N symboles est donc d´ecrit par ˆ⇢⌦N. L’entropie

de von Neumann S( ˆ⇢) correspond alors au nombre de qubits par symbole n´ecessaires pour coder le message, `a la limite asymptotique. En d’autres termes, un message de N symboles ˆ⇢⌦N aura un support presque enti`erement contenu dans un espace de dimension 2N S(ˆ⇢), pour N grand.

L’entropie de von Neumann est ´egalement reli´ee `a l’information classique. Elle correspond au nombre maximal de bits classiques que l’on peut obtenir d’un m´elange statistique d’´etats purs en faisant une mesure optimale [Nielsen00,Preskill98].

4.3.2 Entropie et corr´elations pour des syst`emes bipartites Entropie jointe et entropie conditionnelle

Pour un ´etat bipartite ˆ⇢AB, on d´efinit l’entropie jointe

S(A, B) := Tr{ˆ⇢ABlog2⇢ˆAB}, (4.8)

et l’entropie conditionnelle

S(A|B) = S(A, B) S(B), (4.9)

o`u S(B) := S( ˆ⇢B). Par la suite, nous utiliserons de mani`ere ´equivalente la notation S(A, B) ou S( ˆ⇢AB) pour l’entropie d’un syst`eme bipartite.

Information mutuelle

Les corr´elations totales pr´esentes dans le syst`eme sont mesur´ees par l’information mutuelle quantique, d´efinie d’une mani`ere similaire `a l’information mutuelle classique [Modi12,Vedral02]. :

S(A:B) = S(A) + S(B) S(A, B) (4.10)

Comme l’information mutuelle classique, cette quantit´e est sym´etrique : S(A:B)=S(B:A). Ces corr´elations peuvent ˆetre s´epar´ees en une partie contenant des corr´elations classiques, et une par- tie contenant des corr´elations purement quantiques [Modi12]. Nous reviendrons sur ces notions dans le chapitre 5 consacr´e `a l’estimation de la discorde quantique.

Entropie relative

L’entropie relative est d´efinie par

S( ˆ⇢||ˆ) = Tr{ˆ⇢ log2⇢ˆ} Tr⇢ log2ˆ} = S(ˆ⇢) Tr⇢ log2ˆ}. (4.11) Elle est tr`es souvent utilis´ee comme une mesure de distance entre ´etats quantiques, bien que son asym´etrie n’en fasse pas rigoureusement une norme, et elle joue un rˆole tr`es important en information quantique. Le lecteur pourra consulter l’article [Vedral02] qui lui est enti`erement consacr´e pour une pr´esentation d´etaill´ee.

L’information mutuelle est ´egale `a l’entropie relative entre l’´etat bipartite et le produit ten- soriel des deux ´etats r´eduits :

S( ˆ⇢AB||ˆ⇢A⌦ˆ⇢B) = S( ˆ⇢A) + S( ˆ⇢B) S( ˆ⇢AB). (4.12) De mˆeme, pour un ´etat bipartite classique

ˆ

AB =X

xy

pxy|xihx|⌦|yihy|, (4.13)

o`u{|xi} et {|yi} sont des ´etats orthogonaux, l’information mutuelle classique I(X, Y ) correspond `

a l’entropie relative avec ˆ⇢A⌦ˆB. Les corr´elations ont donc une interpr´etation g´eom´etrique, en terme de distance par rapport `a un ´etat ˆ⇢A⌦ˆB totalement d´epourvu de corr´elations.

Entropie d’un ´etat gaussien

Pour un ´etat gaussien ˆ⇢ `a N modes, l’entropie de von Neumann est ´egale `a [Weedbrook12] S( ˆ⇢) = N X k=1 g ✓ ⌫k 1 2 ◆ , (4.14)

o`u{⌫k} sont les valeurs propres symplectiques1 de la matrice de covariance de ˆ⇢, et

g(x) = (x+1) log2(x+1) x log2x. (4.15)

Quelques propri´et´es

Encore une fois, nous renvoyons le lecteur aux r´ef´erences [Nielsen00] ou [Preskill98] pour une liste d´etaill´ee des propri´et´es de l’entropie de von Neumann. Nous en pr´esentons quelques unes ci-dessous :

⌅ S( ˆ⇢)=0 si ˆ⇢ est un ´etat pur.

⌅ Pour un ´etat ˆ⇢AB pur, S( ˆ⇢A)=S( ˆ⇢B).

⌅ S( ˆ⇢AB) S(ˆ⇢A) + S( ˆ⇢B) (sous-additivit´e) avec ´egalit´e si ˆ⇢AB= ˆ⇢A⌦ˆ⇢B.

⌅ S( ˆ⇢AB) |S(ˆ⇢A) S( ˆ⇢B)| (in´egalit´e du triangle). Ainsi, lorsque ˆ⇢AB est pur, l’entropie du

syst`eme bipartite est nulle, mais ce n’est pas forc´ement le cas de celle des sous syst`emes. Ceci contraste avec le cas classique, o`u l’entropie de Shannon de deux variables est toujours sup´erieure ou ´egale `a celle d’une seule des variables.

1. Le th´eor`eme de Williamson [Weedbrook12] assure que toute matrice de covariance peut ˆetre mise sous forme diagonale `a l’aide de transformations symplectiques, c’est `a dire lin´eaires en les op´erateurs cr´eation et destruction, et pr´eservant les relations de commutation. La forme diagonale de s’´ecritLNk=1⌫kI2. Les{⌫k} sont

4.3.3 Etats classiques-quantiques

En cryptographie quantique, Alice et Bob cherchent `a cr´eer des corr´elations classiques en utilisant des ´etats quantiques. Pour la plupart des protocoles, Alice pr´epare un ´etat parmi un ensemble {| xi, px}, qu’elle envoie ensuite `a Bob `a travers un canal quantique. Les ´etats {| xi}

ne sont pas tous orthogonaux afin d’assurer la s´ecurit´e du protocole, comme nous le verrons dans le chapitre 7. Sous l’e↵et des pertes, du bruit, ou d’autres imperfections, un ´etat pur | xi

est transform´e en un m´elange statistique ˆ⇢x. Bob cherche ensuite `a d´eterminer l’´etat envoy´e par Alice.

Cette pr´eparation d’´etat par Alice, suivie d’un envoi `a Bob, est ´equivalente au partage d’un ´etat classique-quantique

ˆ

AB =X

x

px|ixihix|⌦ˆ⇢x, (4.16)

classique pour Alice et quantique pour Bob. Les ´etats {|ixi} sont des ´etats fictifs orthogonaux,

t´emoignant du fait qu’Alice sait quel ´etat elle a pr´epar´e. En revanche, les ´etats {ˆ⇢x} peuvent ˆetre quelconques.

Pour un ´etat classique-quantique de la forme (4.16), l’entropie de von Neumann poss`ede quelques propri´et´es importantes [Nielsen00] :

S(A) = H(pX) (4.17a) S(B) = S ˆ⇢B , avec ˆ⇢B =X x px⇢ˆx (4.17b) S(A, B) = H(pX) + X x pxS( ˆ⇢x) (4.17c)

En utilisant les relations (4.17), on montre que l’information mutuelle est donn´ee par S(A:B) = S( ˆ⇢B) X

x

pxS( ˆ⇢x). (4.18)

Lorsque les ´etats x} sont purs, l’expression (4.18) se r´eduit donc `a S(A:B) = S( ˆ⇢B).

4.3.4 Borne de Holevo

Supposons qu’Alice pr´epare des ´etats parmi un ensemblex, px}, suivant le r´esultat d’une

variable al´eatoire X. Bob r´ealise des mesures `a l’aide d’un POVM{ ˆEy}={ ˆE0, . . ., ˆEm}, donnant

un r´esultat Y . Quelle que soit la mesure e↵ectu´ee par Bob, l’information mutuelle classique I(X:Y ) entre X et Y v´erifie [Nielsen00]

I(X:Y ) S(ˆ⇢) X

x

pxS( ˆ⇢x), (4.19)

avec ˆ⇢=Pxpx⇢ˆx. Cette borne sup´erieure est la borne de Holevo. Pour ˆetre atteinte, elle n´ecessite

en g´en´eral que Bob puisse e↵ectuer des mesures collectives. Cette borne correspond ´egalement `

a l’information mutuelle quantique (4.18) de l’´etat classique-quantique ´equivalent pour Alice et Bob [Cerf96,Vedral07].

Cette borne sera utile, sous une forme l´eg`erement di↵´erente, afin de borner l’information qu’Eve peut obtenir durant un protocole de cryptographie quantique.

Figure 4.2 – Mod´elisation d’un canal quantique de transmission T par une lame s´eparatrice.

4.4

Mod`ele du canal gaussien

4.4.1 Canal sans bruit

Un canal lin´eaire et sym´etrique, de transmission T , peut ˆetre mod´elis´e simplement par une lame s´eparatrice [Leonhardt97,Weedbrook12], dont le deuxi`eme mode d’entr´ee ˆb est vide (Fig. 4.2). Nous avons vu avec l’´equation (2.96) que dans ce cas, les op´erateurs de quadrature sont transform´es en ˆ Xout= p T ˆX +p1 T ˆXb, (4.20a) ˆ Pout= p T ˆP +p1 T ˆPb. (4.20b)

Les quadratures ne sont pas seulement att´enu´ees, elles sont aussi “contamin´ees” par le vide. Ce bruit n’aura pas d’influence sur les valeurs moyennes. En revanche, il compense d’une certaine mani`ere la diminution du bruit initial afin de pr´eserver le commutateur2de ˆX et ˆP . Les variances sont donc transform´ees en

2Q out= T 2Q + (1 T ) 2Qb, (4.21a) = T 2Q + (1 T )N0, (4.21b) = T⇣ 2Q + 1 T T N0 ⌘ , (4.21c)

avec Q=X ou P . La deuxi`eme partie de la troisi`eme ligne fait intervenir la notion de bruit ajout´e ramen´e `a l’entr´ee, ´egal `a 1 TT N0 pour les pertes.

4.4.2 Canal avec bruit thermique

Le bruit ajout´e par un canal quantique peut ˆetre caract´eris´e par son ´equivalent ramen´e `a l’entr´ee. Par d´efinition, l’exc`es de bruit ✏ sera le bruit ajout´e en plus de la contribution due aux pertes, en unit´e de bruit de photon3. Un canal ajoutant un exc`es de bruit gaussien ✏ transforme donc les variances des quadratures en

2Q out = T ⇣ 2Q +1 T T N0+ ✏N0 ⌘ = T 2Q + (1 T )  T 1 T ⇣1 T T N0+ ✏N0 ⌘ . (4.22)

On reconnaˆıt une forme similaire `a la deuxi`eme partie de l’expression (4.21a), avec cette fois ci 2Qb=1 TT

1 T

T N0 + ✏N0

:=Vth. Puisque l’on a toujours h ˆQbi=0, le canal peut donc ˆetre

mod´elis´e en injectant un ´etat thermique de variance Vth dans le mode ˆb (Fig.4.3).

2. Nous reviendrons sur ce point dans le chapitre pr´esentant l’amplificateur sans bruit.

3. Par abus de langage, on appellera parfois la quantit´e ✏ simplement bruit ajout´e ou exc`es de bruit, au lieu d’exc`es de bruit ramen´e `a l’entr´ee.

(a) (b)

Figure 4.3 – Mod´elisation d’un canal quantique de transmission T et d’exc`es de bruit ✏ : (a) avec un ´etat thermique ˆ⇢th; (b) avec un ´etat EPR| thi purifiant ˆ⇢th (voir section2.3.1 pour un

rappel de la purification). Les deux syst`emes ne sont pas discernables par Alice ou Bob.

En posant

line=

1 T

T + ✏, (4.23)

qui est ´egal au bruit total ajout´e par le canal ramen´e `a l’entr´ee, en unit´e de bruit de photon, on d´efinit les param`etres th et rth de l’´etat thermique tels que

1 N0 Vth= cosh 2rth= 1+ 2th 1 2 th = T 1 T line. (4.24)

Puisqu’un ´etat thermique peut ˆetre obtenu en prenant la trace d’un ´etat EPR, les deux sch´emas de la figure 4.3 sont ´equivalents du point de vue d’Alice et de Bob. Si Eve remplace le dispositif de gauche par le dispositif de droite, elle peut acqu´erir de l’information sur l’´etat transmis dans le canal en e↵ectuant des mesures sur son ´etat EPR. Ce dispositif est connu sous le nom de “cloneuse intriquante” [Grosshans03b,Grosshans02a].

D´etection homodyne imparfaite Une d´etection homodyne d’efficacit´e ⌫ et de bruit ´elec- tronique  peut se mod´eliser comme une d´etection homodyne parfaite apr`es un canal virtuel de transmission ⌫ et de bruit ajout´e ramen´e en entr´ee de ce canal [Lodewyck07]

hom =

1 ⌫

⌫ +

⌫, (4.25)

en suivant une mod´elisation similaire `a la figure 4.3. Une d´etection homodyne imparfaite apr`es un canal de transmission T et de bruit ajout´e line est donc ´equivalente, pour Alice et Bob, `a

une d´etection homodyne parfaite apr`es un canal de transmission G=⌫T , et de bruit ajout´e total ramen´e `a l’entr´ee

tot = line+ hom

T . (4.26)

De mani`ere g´en´erale, on peut consid´erer qu’un bruit ramen´e `a l’entr´ee tot correspond `a la

variance d’une quadrature ˆXtot qui serait ajout´ee `a celle du signal avant le canal de transmission

G,

ˆ Xout =

p

G ˆX + ˆXtot , (4.27)

4.4.3 Information mutuelle

Anticipons un peu sur le protocole de cryptographie quantique utilisant des ´etats coh´erents, que nous pr´esenterons dans le chapitre7. Supposons qu’Alice choisisse deux variables xAet pA

selon une distribution gaussienne de moyenne nulle et de variance VAN0. Elle pr´epare ensuite un

´etat coh´erent centr´e en (xA, pA), qu’elle envoie `a Bob `a travers un canal quantique gaussien. On

suppose que Bob mesure la quadrature ˆXB. Avant le canal quantique, cette quadrature s’´ecrit

ˆ

Xin= xA+ ˆX0, (4.28)

o`u ˆX0 correspond `a la quadrature du vide. Le canal quantique transforme ensuite ˆXin en

ˆ XB = p G ˆXin+ ˆXtot = p G xA+ ˆXN , (4.29)

o`u l’on a introduit ˆXN= ˆX0+ ˆXtot. La variance 2XN=(1+ tot)N0 correspond au bruit total

ajout´e sur la quadrature d’Alice xA. Pour chaque quadrature, on peut adopter une mod´elisation

classique, selon laquelle Alice fait le tirage d’une variable al´eatoire4 X

A de variance VAN0 et de

moyenne nulle, alors que Bob re¸coit une variable al´eatoire XB de variance G(VA+1+ tot)N0,

´egalement de moyenne nulle.

L’information qu’ils pourront extraire de leur communication d´epend naturellement du bruit ajout´e par le canal, et de son amplitude par rapport `a la modulation d’Alice. Ces deux grandeurs sont compar´ees par le rapport signal-`a-bruit (SNR), d´efini par

SNR = hX 2 Ai hX2 Ni . (4.30)

L’information mutuelle entre les variables XA et XB s’obtient en utilisant l’entropie d’une

variable gaussienne (4.5), et l’additivit´e des entropies entre XA et XN. Puisque le signal et le

bruit ne sont pas corr´el´es, on a H(XA, XB)=H(XA)+H(GXN), et par cons´equent :

I(A:B) = H(XA) + H(XB) H(XA, XB) (4.31a) = H(XB) H(GXN) (4.31b) = 1 2log2 hX2 Bi GhX2 Ni (4.31c)

Cette information mutuelle peut ´egalement s’´ecrire en fonction du rapport signal-`a-bruit : puisquehXAXNi=0, on a hXB2i=G(hXA2i+hXN2i). On obtient alors la formule de Shannon :

I(A:B) = 1

2log2[1 + SNR] (4.32)

Cette formule nous sera utile pour le calcul des taux secrets en cryptographie quantique, dans le chapitre7.

4.5

Conclusion

La th´eorie de l’information permet de r´epondre `a deux probl´ematiques. La premi`ere concerne les ressources n´ecessaires pour stocker un message constitu´e de symboles, tir´es selon une certaine loi de probabilit´e. Puisque les symboles n’ont pas tous la mˆeme probabilit´e d’ˆetre choisis, certains sont moins probables que d’autres, et apportent ainsi plus d’information. L’entropie permet de quantifier cette notion, ainsi que les ressources n´ecessaires pour stocker une suite de symboles sans perte d’information `a la limite asymptotique.

La seconde probl´ematique concerne les communications, qu’elles soient classiques ou quan- tiques. Toujours en choisissant des symboles parmi un certain alphabet, quelle est la quantit´e d’information qui peut ˆetre extraite de l’envoi d’un message dans un canal de transmission im- parfait ? La r´eponse a cette deuxi`eme question a permis le d´eveloppement de la cryptographie quantique, que nous pr´esenterons dans le chapitre 7.

R´esultats exp´erimentaux

Estimation de la discorde quantique

pour un ´etat EPR

Sommaire

5.1 Introduction . . . 83