• Aucun résultat trouvé

Normalité asymptotique locale quantique et autres questions de statistiques quantiques

N/A
N/A
Protected

Academic year: 2021

Partager "Normalité asymptotique locale quantique et autres questions de statistiques quantiques"

Copied!
380
0
0

Texte intégral

(1)

HAL Id: tel-01657373

https://hal.inria.fr/tel-01657373

Submitted on 6 Dec 2017

HAL is a multi-disciplinary open access

archive for the deposit and dissemination of

sci-entific research documents, whether they are

pub-lished or not. The documents may come from

teaching and research institutions in France or

abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est

destinée au dépôt et à la diffusion de documents

scientifiques de niveau recherche, publiés ou non,

émanant des établissements d’enseignement et de

recherche français ou étrangers, des laboratoires

publics ou privés.

questions de statistiques quantiques

Jonas Kahn

To cite this version:

Jonas Kahn. Normalité asymptotique locale quantique et autres questions de statistiques quantiques.

Physique Quantique [quant-ph]. Université Paris XI, 2009. Français. �tel-01657373�

(2)

N

o

D'ORDRE : xxxx

UNIVERSITÉ PARISSUD  FACULTÉ DES SCIENCES D'ORSAY

THÈSE

présentée pour obtenirle grade de

DOCTEUR EN SCIENCES DE L'UNIVERSITÉ PARIS XI

Spé ialité: Mathématiques

par

Jonas KAHN

NORMALITÉ ASYMPTOTIQUE LOCALE QUANTIQUE

et

AUTRES QUESTIONS DE STATISTIQUES QUANTIQUES

Soutenue publiquementle30 septembre2009 devantla ommissiond'examen:

M. Stéphane ATTAL Université Lyoni Président

Mme. Cristina BUTUCEA Université Lillei Rapporteur

M. Ri hard GILL Université Leiden Dire teur

M. M d lin GU•€ Université Nottingham Examinateur

M. Alexander HOLEVO InstitutSteklov, Mos ou Rapporteur M. Pas al MASSART Université Parisxi, Orsay Dire teur

(3)
(4)
(5)

Chapitre 2 (Model sele tion for quantum homodyne tomography)

J.Kahn.Modelsele tionforquantumhomodynetomography.A epté par ESAIM :

Probabilityand Statisti s. arXiv :0712.2912.

Chapitre 3 (Dis rimination)

G.M.D'Ariano,M.F.Sa hi,andJ.Kahn.Minimaxquantumstatedis rimination.

Phys. Rev. A, 72 :032310,2005. arXiv :quant-ph/0504048. doi :10.1103/Phys-RevA.72.032310.

G. M. D'Ariano, M. F. Sa hi, and J. Kahn. Phys. Rev. A, 72 :052302, 2005.

arXiv :quant-ph/0507081. doi :10.1103/PhysRevA.72.052302.

Chapitre 4 (Fast estimation of unitary operations)

Fastrate estimationofunitaryoperationsin

SU(d)

.Phys. Rev.A,75:022326,2007. arXiv :quant-ph/0603115. doi :10.1103/PhysRevA.75.022326.

Chapitre 5 (Clean positive operator valued measures)

Clean positive operator valued measures for qubits and similar ases. J. Phys. A,

Math.Theor.,40:48174832,2007.arXiv :quant-ph/0603117.doi :10.1088/1751-8113/40/18/009.

Chapitre 6 (Complementary subalgebras)

J.Kahn and D Petz. Complementaryredu tions for twoqubits. J. Math. Phy.,48: 012107, 2007.arXiv :quant-ph/0608227. doi :10.1063/1.2424883.

Chapitre 7 (QLAN for qubits)

M.Guµ andJ.Kahn.Lo alasymptoti normalityforqubitstates.Phys.Rev.A,73:

052108, 2006.arXiv :quant-ph/0512075. doi :10.1103/PhysRevA.73.052108.

Chapitre8(Optimalestimationof qubitstateswith ontinuoustime

mea-surements)

M. Guµ , B. Janssens, and J. Kahn. Optimal estimation of qubit states with

on-tinuous time measurements. Comm. Math. Phy., 277(1) :127  160, 2008. arXiv : quant-ph/0608074. doi :10.1007/s00220-007-0357-5.

Chapitre 9 (QLAN nite dimension)

M. Guµ  and J. Kahn. Lo al asymptoti normality for nite-dimensional systems.

(6)

10.1007/s00220-Ringraziamenti Köszönetnyilvánítás

This thesis has been written under the s ienti dire tion of Ri hard Gill. I thank

himfor introdu ing metothe world of quantum statisti s,and to lo alasymptoti normality. TheperiodsIspentwithhimwerealwaysenlightening,beitonquantum

statisti s, or on lassi al statisti s, or the way a statisti ian should behave. I also

admire his willof introdu ing more poeple to this eld, and his always suggesting

problems of interest.

Pas al Massart a été mon deuxième dire teur de thèse. Son aide dans la bataille administrativeaétédespluspré ieuses.Ilaégalementsumefournirlabibliographie

idoine quand l'o asion s'yprêtait.

Je ne peux hélas pas remer ier Alexander Holevo dans sa langue, lui qui a pra-tiquement réé le domaine des statistiques quantiques, et qui me fait aujourd'hui

l'honneur d'être mon rapporteur.

CristinaButu ea a été mon interlo uteur en Fran e, laseule ave laquelle je puisse

dialoguer sur le sujet des statistiques quantiques. Je la remer ie également de bien avoir voulu é rire un rapport sur mon travail durant une période où elle avait fort

peu de temps.

Jeremer ieaussiStéphaneAttaldebienvouloirêtredansmonjury.J'avaisappré ié

lesbrèves dis ussions que nous avions pu avoir àLyon.

Je onsidèreM d  linGuµ  ommeun troisièmedire teur dethèse etmonprin ipal ollaborateur.Nous avons misaupointlanormalitéasymptotiquequantiquelo ale

forteensemble. J'aibeau oup appré ié mes séjours àNottingham, et samanièrede

trouverde nouveaux problèmes de statistiques quantiques àpartir de problèmes de statistiques lassiques.

(7)

re-tiquesquantiques.Lesdis ussionsave AnnaJen£ováontapprofondima

ompréhen-sion de QLAN,en réant l'autre té, à savoirl'équivalen e faible.

Nelledue settimane hehopassatoinPavia,all'iniziodellatesi,Professored'Ariano mihadatopare hioproblemi,eabbiamolavoratoinsieme, onMassimilianoSa hi.

Ringrazio tutta lasquadra lo ale, he hoan ora visto in ongressi durante gli anni

seguenti.

KöszönömPetz Dénes felhívásotBudapestre. Nem sakkészültünkela íkkeimmel,

de sokat tanítottis aCCR algebrák-ról.

Je regrette de ne pas pouvoir remer ier Masahito Hayashi et Kenji Matsumoto en

japonais, pour mes séjours dans leur pays en Mars 2007et Novembre 2008, etpour les dis ussions que nous avons pu avoir sur les statistiques quantiques, au premier

hef sur lesbornes de Cramér-Rao.

Je remer ie aussi tous eux qui ont été autour de moi, élèves omme professeurs,

quand j'étais à l'ENS.Les dis ussions s ientiques permanentes, les problèmes que

nous nous posions,restent la plus belleformation quej'aie pu avoir.

Mer i YanPautrat,pourlesparolesé hangées surlaphysiquestatistiquequantique du point de vue mathématique, et pour avoir invité Vladimir Jak²i¢ à donner un

ours inspiré.

Mer i à eux qui ont relu ma thèse, Cristina, Patri ia Reynaud, Borg, et surtout

mon voisin de bureau Sylvain Arlot, dont je me suis outrageusement inspiré dans

l'espoir himérique d'appro her sa larté.

Mer i enn à Valérie Lavigne, qui m'a été d'une grande aide pour survivre dans l'enfer administratiflié àla thèse.

J'ai essayé d'être aussi neutre que possible dans les lignes pré édentes, bien que plusieurs des personnes évoquées méritent le titre d'ami. Mais j'espère que tous

eux qui omptent pour moi, autrement plus que les magniques statues de gla e

(8)

Remer iements  A knowledgments  Ringraziamenti

Köszönetnyilvánítás i

1 Introdu tion 1

1.1 Statistiques . . . 3

StatistiquesClassiques,3.

ObjetsetOpérationsQuantiques,11.

Statistiques quantiques,21.

1.2 Tomographie homodyne . . . 28

Motivation,28.

Résultats antérieurs, 29.

Contributions de lathèse,30.

1.3 Dis rimination . . . 30

Motivation,30.

Résultats antérieurs, 31.

Contributions de lathèse,35.

1.4 Estimation Rapided'OpérationsUnitaires. . . 36

Motivation,36.

Résultats antérieurs, 37.

Contributions de lathèse,39.

1.5 Mesures à Valeursdans les Opérateurs PositifsPropres . . . 39

Résultats antérieurs,40.

Contributions delathèse, 42.

1.6 Sous-algèbres omplémentaires. . . 43

Motivation,43.

Résultats antérieurs, 44.

Contributions de lathèse,45.

1.7 Normalité asymptotiquelo ale quantique . . . 45

Normalité asymptotique lo ale lassique, 45.

Motivation, 48.

Résultats an-térieurs etliés, 49.

Contributions de lathèse,51.

Perspe tives, 52.

(9)

I Divers Problèmes de Statistiques Quantiques 55

2 Model sele tion for quantum homodyne tomography 57

2.1 Introdu tion . . . 57

2.2 The mathemati al problem . . . 60

2.3 Proje tion estimators. . . 62

Aim of model sele tion, 63.

Risk bounds and hoi e of thepenalty fun tion, 64.

Deterministi penalty,67.

Randompenalty,69.

Appli ationswithtwo bases, 73.

Noisy observations, 79. 2.4 Maximum likelihoodestimator. . . 80

2.5 Quantum alibration of aphoto ounter . . . 87

Statisti alproblem,87.

Usingproje tionestimators,88.

Maximumlikelihood pro edure, 91. 2.A Ba kground inquantum me hani s. . . 96

Statisti s: lassi al and quantum, 96.

Quantum homodyne tomography, 103.

Physi al originofthe photo ounter alibrationproblem, 107 . 3 Dis rimination 111 3.1 Introdu tion . . . .111

3.2 Optimal minimaxdis rimination oftwo quantum states . . . .113

3.3 Optimal minimaxdis riminationof

N

≥ 2

quantum states. . . .117

3.4 Optimal minimaxunambiguousdis rimination. . . .120

3.5 Bayesian dis riminationof two Pauli hannels . . . .121

3.6 Minimaxdis rimination of Pauli hannels . . . .123

4 Fast estimation of unitary operations 133 4.1 Introdu tion . . . .133

(10)

4.3 Why we annotexpe t better rate than

1/N

2

. . . .139

4.4 Formulas for the risk. . . .141

4.5 Choi e of the oe ients

c(~λ)

and proof of their e ien y . . . .143

4.6 Evaluationof the onstant inthe speed of onvergen e and nal result. . .147

4.7 Con lusion . . . .149

5 Clean positive operator valued measures 151 5.1 Introdu tion . . . .151

5.2 Denitions and notations . . . .153

5.3 Algorithm and Ideas . . . .154

Algorithm, 154.

Heuristi s: what thealgorithm reallytests, 155. 5.4 Su ient ondition. . . .157

5.5 Ne essary ondition forquasi-qubit POVMs . . . .162

5.6 Summary for quasi-qubit POVMs and aspe ial ase . . . .172

5.7 Outlook . . . .174

6 Complementary subalgebras 175 6.1 Introdu tion . . . .175

6.2 Preliminaries . . . .176

6.3 Complementarysubalgebras. . . .177

II Normalité Asymptotique Lo ale Quantique 183

(11)

7.2 Lo al asymptoti normality in statisti s and its extension to quantum

me hani s . . . .190

7.3 The big ballpi tureof oherent spin states . . . .192

7.4 Lo alasymptoti normalityfor mixed qubit states . . . .195

Blo kde omposition, 196.

Irredu ible representations of

SU (2)

,198.

7.5 Constru tion of the hannels

T

n

. . . .198 7.6 Constru tion of the inverse hannel

S

n

. . . .204 7.7 Appli ations . . . .205

Lo alasymptoti equivalen eoftheoptimalBayesianmeasurementandthe het-erodyne measurement, 205.

The optimal Bayes measurement is also lo ally asymptoti minimax, 208.

Dis rimination of states, 214.

Spin squeezed states and ontinuous timemeasurements, 216 .

8 Optimal estimation of qubit states with ontinuous time

measure-ments 217

8.1 Introdu tion . . . .218

8.2 State estimation. . . .222

Qubit state estimation :the lo alization prin iple, 224.

8.3 Lo alasymptoti normality . . . .226

Introdu tion to LANand some denitions,227.

Convergen e to the Gaussian model,228.

8.4 Time evolutionof the intera ting system . . . .232

Quantum sto hasti dierential equations, 232.

Solving the QSDE for the os illator, 234.

QSDEfor large spin, 235.

8.5 The se ond stage measurement . . . .237

The heterodyne measurement, 238.

Energymeasurement, 239.

(12)

8.A Appendix : Proof of Theorem 8.3.1. . . .246

Proof of Theorem 8.3.1; the map

T

n

,247.

Proof of Theorem 8.3.1; the map

S

n

,250.

8.B Appendix : Proof of Theorem 8.4.1. . . .252

9 Quantum lo al asymptoti normality for

d

-dimensional states 257

9.1 Introdu tion . . . .258

9.2 Classi al and quantum statisti alexperiments . . . .264

Classi al and quantum randomisations, 265.

The Le Cam distan e and its statisti al meaning,268.

9.3 Lo alasymptoti normalityin statisti s. . . .270

9.4 Lo alasymptoti normalityin quantum statisti s. . . .272

The

n

-tuple of

d

-dimensional systems, 273.

Displa ed thermal equilibrium states of a harmoni os illator, 276.

The multimode Fo k spa e and the limit Gaussian shiftexperiment, 278.

Themain theorem, 279.

Appli ation: Asymptoti allyoptimalestimationpro edure,280.

Therelationbetween LAN and CLT, 284.

9.5 Expli it form of the hannels and rst steps of the proof. . . .289

Se ond lookat the irredu ible representations of

SU (d)

, 289.

Des ription of

T

n

,293.

9.6 Main steps of the proof. . . .295

Why

T

n

doesthe work,295.

Denition of

S

n

and proofof itse ien y, 301.

9.7 Te hni al proofs. . . .302

Proof of Theorem 9.4.4, 302.

Combinatorial and representation theoreti al tools,316.

ProofofLemma9.5.4 andnon-orthogonalityissues,331.

Proofof Lemma 9.6.4 on mapping rotations into displa ements, 335.

Proof ofLemma 9.6.2ontypi alYoungdiagrams,338.

ProofofLemma9.6.1andLemma9.6.8, 339.

Proof of Lemma 9.6.3 on onvergen e to the thermal equilibrium state, 345.

Proof ofLemma 9.6.5 on lo allinearityof

SU (d)

,348 .

(13)
(14)

Introdu tion

Lesstatistiques,étymologiquements ien es del'État,peuventêtrevues ommel'art detirerdesinformationsdedonnées.Quoiqu'ilspuissentprendredesformestrès

var-iées, tout problème de statistiques peut se dé omposer en trois mor eaux : l'objet

étudié,lesopérationsquenous pouvons ee tuer, etlaquestionmathématique

pré- ise. En d'autres termes, e que nous avons, e que nous pouvons faire, et e que nous voulons savoir.

Lesstatistiquesquantiques dièrentdes statistiques lassiques sur lepremierpoint,

e que nous avons. Par ri o het, elles en dièrent aussi sur le se ond, e que nous

pouvons faire.

Enstatistiques lassiques,nouspartonsengénéraldurésultatdesmesuresphysiques, quisontmodéliséespardes variablesaléatoiresetleursloisde probabilité

orrespon-dantes. En eet, si nous pouvons mesurer les quantités A et B, nous pouvons en

théorie mesurer les deux simultanément. Les expérien es mesurent souvent toutes les quantités utiles et a essibles. En théorie,  e que nous pouvons faire est

ap-pliquern'importequelletransformationmathématiqueauxdonnées, éventuellement

ave une omposante aléatoire supplémentaire. En pratique, la puissan e de al ul peut être un fa teur limitant.

Dans ertains as, ependant, nous devons onsidérer d'ores et déjà l'objet étudié,

et hoisir quelle mesure ee tuer. Par exemple,si nousvoulons omprendrele

fon -tionnement d'une boîte noire, nous devons la sonder ave diérentes entrées, une nouvelle entrée à haque fois. Cette thématique relève des plans d'expérien e.

Ce quenouspouvons fairedépend largementdu problème spé ique.Dansle as

de la boîte noire, nous pouvons hoisir notre entrée. La des ription mathématique de e hoix peutvarierd'une boîte noireàune autre, ependant.Toutefois,une fois

(15)

Enstatistiquesquantiques, leplan d'expérien eest inévitable.Eneet,sinous

pou-vons mesurer A ou B, les lois même de la physique nous interdisent de mesurer simultanément A et B, en général. Nous devons don hoisir quelle mesure nous

apporte lesinformationslesplus utiles. Néanmoins,la mé anique quantique fournit

un adre parallèle à elui des statistiques lassiques, qui nous dit exa tement  e que nouspouvons faire. Initialement, e quenous avons est un objetquantique,

modélisé par un état quantique. Ce que nous pouvons faire est mesurer l'état,

et obtenir une variable aléatoire lassique, ou bien plus généralement transformer l'étatquantique.Lesensemblesdemesures ettransformationspossiblessont

pré isé-mentdénis mathématiquement, e qui permet un traitementuniéde nombreuses

questions.

Cequenousvoulonssavoirnedièreguèreenstatistiquesquantiqueset lassiques.

Le plus souvent, nous souhaitons soit résumer les informations ontenues dans les données (inféren e statistique), soit inrmer une hypothèse ou hoisir la meilleure

hypothèsedansun ensembleni (test),soitdevinerave pré isionlephénomènequi

a généréles données (estimation). Les réponses à es questions sonttoutes dé rites parunparamètre lassique.L'ex eptionestquandnous her honsàobtenirunobjet

intrinsèquement quantique, omme par exemple quand nous essayons de loner le

plus pré isémentpossibleun état.

La Partie I de ette thèse est onsa rée à l'étude d'un ertain nombre de systèmes

parti uliers. Spé iquement, nous ommençons au Chapitre 2.5.3 par un as où la mesureestdéjàee tuée,sibienqueleproblèmedevient lassique:nousévaluonsun

étatdelalumièrepartomographiehomodyne.AuChapitre3,nousnousdemandons

omment dé ider au mieux dans lequel d'un ensemble ni d'états se trouve notre système; au Chapitre 4, nous donnons une pro édure d'estimation rapide (

1/n

) d'unetransformationunitaireboîtenoire.LesChapitres5et6s'atta hentdavantage

à la stru ture générale des expérien es quantiques : le premier est onsa ré à une relation d'ordre sur les mesures quantiques, et le se ond à la re her he de

sous-systèmes aussidiérentsque possibled'un mêmesystème quantique, dans le as le

plus simple.

D'un autre té, nous pouvons avoir des questions très diérentes sur un système

donné. Pour un tel système,  e que nous avons et  e que nous pouvons faire restent xes. Nous pouvons don nous interroger sur e que l'on peut dire sur le

système lui-même, sans référen e à une question parti ulière. La théorie de la

on-vergen e d'expérien es en statistiques lassiquesnous ditave quelle pré isionnous pouvonsappro heruneexpérien eparuneautre.Ainsinouspouvonstraduiretoutes

lespro édurespouruneexpérien eenunepro édurepourl'autreexpérien e.Sibien

quenousobtenonsune réponseà equenousvoulonssavoir danslesdeux expéri-en es dès que l'on saitrépondre pour l'une d'entre elles.

(16)

le as le plus basique de onvergen e d'expérien es, à savoir la normalité

asymp-totique lo ale. Nous prouvons qu'une expérien e assez lisse d'états quantiques in-dépendantsidentiquementdistribués(i.i.d.) onvergeversuneexpérien ededé alage

gaussienne quantique. L'importantest que ette expérien e est très bien onnue, et

tout e que nous savons à son sujet peut être traduit pour la lasse très large des expérien es i.i.dlisses.

Lerestede ette introdu tion ommen e parpré iserlesrèglesdes statistiques

las-siques et quantiques, puis introduit ha un des hapitres de la thèse, etles problé-matiques orrespondantes dans l'ordredonné i-dessus.

1.1 Statistiques

Nous présentons une autre introdu tion aux statistiques quantiques à l'usage du

statisti ien, plus ondensée, en Appendi e 2.A du Chapitre 2.5.3.

1.1.1 Statistiques Classiques

On pourra onsulter Le Cam (1986) et van der Vaart (1998) omme référen es

supplémentaires,entre autres nombreux livres de statistiques. Nousrésumons dans

leTableau1.1,page26,lesingrédientsdebasedesstatistiques lassiques.LeTableau 1.2 adja ent donneles notionsquantiques orrespondantes.

Ce que nous avons

En statistiques lassiques, on nous donne les données, qui peuvent être modélisées parune variablealéatoire

X

de loi

p

.On saitpar avan e que

p

est dansun ensemble

E = {p

θ

, θ

∈ Θ} ,

(1.1) sans ontrainte en général sur l'espa e de paramètres

Θ

. Les lois

p

θ

sont toutes dénies sur le même espa e de probabilités

(Ω,

A)

. Cet

E

est appeléexpérien e ou modèlestatistique.

(17)

 Les données proviennent souvent de plusieurs mesures, générant autant de

vari-ablesaléatoires

X

1

, . . . , X

n

,delois

p

1

, . . . , p

n

surdesespa esdeprobabilités poten-tiellementdiérents.Toutefois, nous pouvons toujours onsidérer toutes es

don-nées ommeuneseulevariablealéatoire

X = (X

1

, . . . , X

n

)

,deloi

p = p

1

⊗· · ·⊗p

n

, etnous restons dans le adre i-dessus.

 Quoiqu'iln'yaitpas de ontraintesur

Θ

à e pointdelathéorie, etensembleest souventsoitnisoitunsous-ensembleraisonnablede

R

d

.Lepremier asmèneaux

statistiques dis rètes, et à ertaines famillesde tests en parti ulier, et le se ond aux statistiques paramétriques. Quand

Θ

est de dimension innie, nous sommes dansle omplexeroyaumedesstatistiquesnonparamétriques,thèmeprivilégiéde

lare her he es dernières années

Exemples : expérien e de Bernoulli, expérien e de dé alage gaussienne

L'espa e deprobabiliténon trivialleplussimpleest l'espa eàdeux éléments

{0, 1}

. Une expérien ede pileoufa e s'é rit

E

Ber

=

{p

θ

= (θ, 1

− θ), θ ∈ [0, 1]} .

(1.2) Une alternative onsiste à lan er la piè e

n

fois. Si on note

X = (X

1

, . . . , X

n

)

le résultat,nous obtenons ette expérien esur

{0, 1}

⊗n

:

E

Bin

=



p

θ

:

{X} 7→ θ

P X

i

(1

− θ)

n−P X

i

, θ

∈ [0, 1]

.

(1.3)

Quant aux fon tions ontinues, l'exemple type est le gaussienne. Nous nous

in-téresserons en parti ulier aux expérien es de dé alage gaussiennes, où la varian e

de la gaussienne est xée etoù leparamètre est lamoyenne :

E

gs

=



N (θ, I

−1

), θ

∈ R

d

,

(1.4) où

N

est la loinormale,et

I

toutematri e déniepositivexée

1 .

Ce que nous pouvons faire

Une foisa quises nos données

X

, ommentles traitons-nous?

La pro édure la plus générale onsiste à tirer une nouvelle variable aléatoire

Y

de loi

p

X

dépendant seulement de

X

, mesurable en tant quefon tion de

X

.

1

(18)

Nous pouvons voir e proto ole de deux manières. Lapremière est de onsidérer

Y

omme lasolution à e que nous voulons savoir. Alors

Y

est un estimateur (ran-domisé),typiquement un estimateur de

θ

, auquel as nous ledénoterons également

ˆ

θ

.

Mais nous pouvons également onsidérer

Y

ommeune nouvelle variable aléatoire, et que nous avons transformé notre expérien e. Notre nouvelle expérien e est don onstituée de

Y

de loi

q

dans un ensemble

{q

θ

, θ

∈ Θ}

sur un espa e

(Ω

1

,

B)

, de densité 2

q

θ

(y) = T (p

θ

)(y) ˆ

=

Z

p

X

(y)dp

θ

(X).

(1.5)

La transformation

T

est un noyau de Markov.

Dans le as lassique, es deux notionssont les mêmes. Toutefois, j'insiste pour les séparer dès maintenant ar elles seront diérentes dans le as quantique.

Exemples

Revenons à notre

n

-é hantillon(1.3) de Bernoulli

E

Bin

. Notre espa e de probabilité est

{0, 1}

⊗n

.Nouspouvons utiliserun noyaude Markov de et espa edans

[0, n]

∩N

qui envoie

X = (X

1

, . . . , X

n

)

sur

Y =

P

X

i

. I i, les

p

X

sont simplement des pi s de Dira . Nous obtenons alors une loi binomialepour

Y

, 'est-à-dire

q

θ

=

B(n, θ)

. L'expérien e orrespondante est

E = {q

θ

, θ

∈ Θ}

.

De même, nous pourrions souhaiter onstruire un estimateur

θ

ˆ

. Le plus évident est de prendre

X

7→

P

X

i

/n = Y

. La loi de notre estimateur est alors la binomiale i-dessus, divisée par

n

.

Pour e qui est de trouverun estimateur dansl'expérien e(1.4) de dé alage gaussi-enne

E

gs

, lapremière idée est en oreplus simple: ongarde

X

. Lenoyaude Markov orrespondant est l'identité.

Ce que nous voulons savoir

Nous souhaitons en général obtenir de l'information sur le pro essus sous-ja ent in onnu qui a généré nos données. En d'autres termes, nous voulons deviner le

2

Nouspourrionsaussibientravaillerave desensemblesnondominésdelois,mais elaneferait qu'alourdir les notations. Nous faisons don l'hypothèse que toutes les lois ont une densité, et

(19)

paramètre 3

θ

.

Nouspouvons donner notresolution soitsous laforme d'un intervallede onan e,

soit par une estimation de notre quantité, éventuellement assortie d'estimations de la varian e de ette estimation. Cette estimation orrespond à la donnée d'un

estimateur

θ

ˆ

de

θ

.

Nous voulons onstruire un bon estimateur. Nous avons don besoin de pouvoir

jauger les estimateurs. En théorie de la dé ision, nous onsidérons une fon tion de

oût

c(θ, ˆ

θ)

. C'est le oût que l'on doit payer si notre estimateur renvoie

θ

ˆ

quand le vrai paramètre est

θ

. Ainsi, les fon tions de oût sont en général nulles sur la diagonale, etaugmentent quand

θ

et

θ

ˆ

s'éloignent dans un ertainsens.

Une fon tionde oût typique quand

Θ

est dis retdénombrable serait

c(θ, ˆ

θ) = δ

θ,ˆ

θ

. Quand

Θ

est un sous-ensemble ouvert de

R

d

, la fon tion de oût la plus fa ile à

traiter mathématiquementest le arré de la distan e eu lidienne

c(θ, ˆ

θ) =

kθ − ˆθk

2

2

, ouplus généralementtoutefon tion de oût quadratique

− ˆθ)

G(θ

− ˆθ)

pour une matri e déniepositive

G

, éventuellementdépendant de

θ

.

Comme

θ

ˆ

est une variable aléatoire, nous voulons minimiser l'espéran e du oût, appelée le risqueau point

θ

:

r

θ

θ) =

Z

1

c(θ, ˆ

θ)dq

θ

θ).

(1.6)

Cependant, nous ne pouvons minimiser dire tement ette expression, omme la

meilleurestratégiedépendde

θ

,quiestin onnu.Nousdevons don trouverlemoyen de hoisirunestimateure a e pour

θ

quenousrisquonsderen ontrer.Ilya essen-tiellementdeux appro hes. Lesphysi iens favorisent leparadigmebayésien, oùnous

admettonsl'existen ed'uneloiapriori surleparamètre

θ

.Lesmathémati iensvont en généralpréférer les ritères minimax,où une stratégie est évaluée par son as le

pire.

Critère bayésien

Nousavons onsidérédes données

X

de loi

p

.Jusqu'i i,nousétionspartiduprin ipe que notre seule information était l'expérien e, l'ensemble dont nous savons qu'il

ontient

p

. 3

Plus généralement, on peut être intéressé seulement par une fon tion

f

de

θ

. Cependant, on peut toujours utiliser

(θ, f (θ))

omme paramètre. On hoisiradès lors les fon tions de oût introduites i-dessouspourqu'ellesnedépendentquede

f (θ)

.

(20)

Supposons maintenant quenous avons davantage d'informations. Plus pré isément,

onnous a ditavantl'expérien e que

θ

est hoisi au hasardsuivant une loi

π

.Alors, en moyenne, le meilleur estimateur sera elui qui minimise la moyenne du risque

(1.6), 'est-à-dire :

R

π

θ) =

Z

Θ

π(dθ)r

θ

θ)

=

Z

Θ

Z

1

c(θ, ˆ

θ)dq

θ

θ)π(dθ).

(1.7)

À partir du risque de Bayes d'un estimateur spé ique

θ

ˆ

, nous pouvons é rire le risque de Bayes asso iéà laloia priori

π

omme l'inmum des risques sur tous les estimateurs

θ

ˆ

:

R

π

= inf

ˆ

θ

R

π

(θ).

(1.8)

La faiblesse de ette appro he vient de e qu'il n'y au une raison pour avoir une

loi de probabilité a priori sur

Θ

, mis à part la fon tion de Dira sur le vrai

θ

... qui est exa tement e que nous souhaitons trouver. Nous avons don à hoisir une loi a priori et à onsidérer que 'est la vraie. Le risque de l'estimateur nal sera

sous-estimé, ependant.

La plus grande for e des estimateurs bayésiens est qu'ilsutilisent de manière

opti-male l'informationdes mesures, à loi a priori donnée. La loia priori orrespond à

de l'information a priori en général fausse. De e fait, les meilleures lois a priori sont hoisies pour minimiserl'informationqu'elles ontiennent

4

. Pour un

Θ

ni, on hoisira d'habitude l'équiprobabilité a priori sur haque

θ

possible. Sur un sous-ensemble pré ompa t ouvert de

R

d

, on hoisira souvent la loi a priori de Jerey Jereys (1946), proportionnelle à la ra ine arrée de l'informationde Fisher (1.13)

donnée i-dessous. Uneanalyseà

θ

xémontrentque es estimateurssont trèsbons en général.

Lesestimateurs bayésiens peuvent être al ulésen déterminantlesloisa posteriori.

Dans ertains assimples, es al ulspeuventêtreréalisésexpli itement,et l'estima-teur sera lebary entre des

θ

pondérés par leurs vraisemblan es. Danslessituations plus omplexes, onutiliserales haînes de Markov Monte-Carlo.

Critères minimax

Soit qu'il est pessimiste ou mégalomane, le mathémati ien part du prin ipe qu'il

joue ontre le Diable. Aussi, il veut mettre au point une stratégiee a e quel que

4

(21)

soitle vrai

θ

. Un estimateur

θ

ˆ

est don évalué par savaleurdans le pire des as :

R

M

θ) = sup

θ

r

θ

θ).

(1.9)

Le risque minimax est le risque du meilleur estimateur,dit estimateur minimax:

R

M

= inf

ˆ

θ

R

M

θ) = inf

ˆ

θ

sup

θ

r

θ

θ).

(1.10)

Le défaut de ette méthode est qu'elle peut onduire à aaiblir l'estimation sur

intuitivement beau oup de valeurs possibles de

θ

an d'être e a e dans quelques as parti uliers. Ce problème est ontourné en ré lamant d'être adaptatif,

'est-à-dire d'être minimax sur toute une lasse de sous-ensembles de

{p

θ

}

.Cette dernière te hnique s'utilise surtouten statistiquesnon paramétriques.

L'intérêt de es méthodes est qu'elle ne font au une hypothèse. Elles donnent une e a ité dontnous savonsqu'elle est atteinte, àpartirdumomentoùlemodèle (ou

l'expérien e) lui-même est juste.

Liens entre ritères bayésiens et minimax

Lelienprin ipalentre esdeux ritèresvientdelaremarquesuivante.Siunestratégie

ˆ

θ

est optimaleau sens bayésien pour une loi a priori quel onque, et si le risque de

ˆ

θ

ne dépend pas de

θ

, alors

θ

ˆ

est optimaleau sens minimax.

En eet, pour tout

π

, lerisque de Bayes est plus faibleque lerisque minimax:

R

π

θ)

≤ sup

θ

r

θ

θ) = R

M

(θ),

(1.11)

ave égalitési etseulement sile risque au point

θ

est le même

π

-presque partout.

Sous ertaines onditions,l'énon éinverseest vrai:unestimateurminimaxest opti-malpour uneloia priori pré ise, elle pourlaquelle lerisque bayésienest maximal.

Nousdis uterons de questions similairesauChapitre 3.

Exemple

Nous al ulons le risque de l'estimateur susmentionné pour la famille de dé alage

(22)

normale

N (θ, I

−1

)

. Don

r

θ

θ) = E

θ

h

− ˆθ)

G(θ

− ˆθ)

i

= Tr(G

I

−1

).

(1.12)

Ce risque aupoint

θ

ne dépend pas de

θ

, sibien que ettemême valeur est aussiles risquesminimaxetbayésiens pourtouteloia priori de et estimateur.Nousverrons

plus bas que et estimateur est aussi minimax pour lemodèle.

Le reste de ette se tion résumebrièvement lesrisques que l'on peut attendre dans les as susamment réguliers, pour des fon tions de oût quadratiques.

Information de Fisher

Les risques que nous donnons i-dessus dépendent de la question (la fon tion de

oût) et de l'expérien e

{p

θ

, θ

∈ Θ}

, mais pas d'un estimateur parti ulier. Nous pouvons don leslire dire tement sur l'expérien e.

Lanotionlaplusimportanteà etten est elledematri ed'informationde Fisher.

C'est une notionlo ale,qui peut être interprétée ommeune mesure de lavitesse à laquellenouspouvonsdistinguer

p

θ

des

p

θ+dθ

environnants.LabornedeCramér-Rao dé rite dans la pro haine se tion expli ite ette interprétation. Notons que pour e

qui suit, il faut que le modèle soit assez régulier. Deux fois diérentiable en

θ

est plus que susant.

L'informationde Fisher aupoint

θ = (θ

α

)

α=1...d

est donnée partons

I

α,β

(θ) =

Z

∂ ln(p

θ

(X))

∂θ

α

∂ ln(p

θ

(X))

∂θ

β

dp

θ

(X).

(1.13)

La matri e d'information de Fisher est dénie positive, et dénit une métrique sur

Θ

,qui est invariantepar hangementde variableslisse. Ce faitpeut êtrevu omme le lien le plus basique entre statistiques et géométrie diérentielle. La géométrie

diérentielle peut être utilisée pour étudier les asymptotiques d'ordre supérieur,

ommepar exempledans le livre d'Amari(1985).

En développant le logarithme des produits, nous onstatons fa ilement qu'avoir

n

é hantillonsdedonnéesmultipliel'informationdeFisherpar

n

, 'est-à-dire

I

(n)

(θ) =

n

I

(1)

(θ)

I

(n)

estlamatri ed'informationdeFisherdel'expérien e

E

(n)

=

{p

⊗n

θ

, θ

(23)

Borne de Cramér-Rao

Nous pouvons utiliser la matri e d'information de Fisher pour trouver une borne

inférieure sur la matri ede varian edes estimateurs lo alementnon biaisés :

Z

1

− ˆθ)(θ − ˆθ)

dq

θ

θ)

≥ I

−1

(θ).

(1.14) Cette borne tient

5

pour tous les estimateurs lo alement non biaisés

θ

ˆ

, 'est-à-dire aussi longtemps que

R ˆ

θdq

θ

θ) = θ

et

∂/∂θ

i

R ˆ

θ

j

dq

θ

θ) = δ

i,j

.

Comme onséquen eimmédiate,pourunefon tionde oûtquadratique

−ˆθ)

G(θ

ˆ

θ)

ettouslesestimateurslo alementnonbiaisés,nousobtenons etteborneinférieure sur le risque au point

θ

:

r

θ

θ)

≥ Tr(GI

−1

).

(1.15) Cetteborneestasymptotiquementsaturée. Eneet,uneexpérien ede

n

-é hantillon ressemble de plus en plus à une expérien e de dé alage gaussienne, pour laquelle

la borne est saturée. L'expli ation pré ise vient de la théorie de la onvergen e

d'expérien es de Le Cam,que nous esquissons plus avant à laSe tion 1.7.1.

Exemples

Cal ulons l'information de Fisher pour l'expérien e de Bernoulli, en un point

θ

diérent de

0

et de

1

. L'expression se simplie légèrement omme nous n'avons qu'un paramètre.

I(θ) = θ



d ln(θ)



2

+ (1

− θ)



d ln(1

− θ)



2

=

1

θ

+

1

1

− θ

=

1

θ(1

− θ)

.

De e i et notre remarque pré édente sur les

n

-é hantillons, nous déduisons que

I(θ) = n/(θ(1 − θ))

dans l'expérien ebinomiale

E

bin

.

Un al ul un peu plus pénible montrerait que la matri e d'information de Fisher

d'uneexpérien ede dé alage gaussienneest l'inversede lavarian edes gaussiennes.

5

Lesestimateurssupere a estell'estimateurdeSteinmontrentqu'onnepeutpassimplement éliminerla onditiond'êtrelo alementnonbiaisé.Cependant, ette onditionpeutêtresupprimée auprixdemodi ationste hniques, onsistantessentiellementà onsidérerl'e a itésurtoutun voisinagede

θ

, soitdansuneappro heminimax,soitbayésienne.

(24)

D'oùnotre hoixdenotationdansl'équation(1.4).Deplus,après omparaisonentre

laborne (1.15)et lerisque (1.12) de l'estimateur onsistantà prendre

X

lui-même, nous obtenons l'optimalité de e dernier estimateur dan la lasse des estimateurs

lo alement non biaisés.

Nousallons maintenant nous atta her à donnerdes équivalents de es notions dans

le mondequantique.

1.1.2 Objets et Opérations Quantiques

Les livres de Helstrom (1976) et Holevo (1982) sont les référen es habituelles en

statistiques quantiques. Nouspouvons également ajouter l'arti lede revue plus ré- ent de Barndor-Nielsen et al. (2003). Comme nous l'avons déjà mentionné, nous

avons résumé dans le Tableau 1.2, page 27, les ingrédients de base des statistiques

quantiques, ave leTableau lassique orrespondant 1.1en regard.

États, opérateurs densité

L'objet de base des statistiques quantiques est l'état. L'état est l'équivalent d'une

loide probabilité.

Nous le dénissons sur un espa e de Hilbert

H

. Son expression mathématique est donnée par l'opérateurdensité.

Denition1.1.1. Un opérateurdensité

ρ

surun espa ede Hilbert

H

est un opéra-teur à lasse de tra e doté des propriétés suivantes :

 Auto-adjon tion :

ρ

est auto-adjoint.  Positivité :

ρ

est positif.

 Normalisation :

Tr(ρ) = 1

.

Ces onditionssontleséquivalentesde ellesquirégissentlesmesuresdeprobabilité: es dernières sontréelles (

=

auto-adjointes), positiveset normaliséesà un.

Pour les espa es de Hilbert de dimension nie, les opérateurs sont des matri es, et

lesmatri esdensitésatisfontégalementaux onditions i-dessus.Lavariétédesétats

est de dimension réelle

d

2

− 1

(25)

Exemple : Qubits

La situation la plus élémentaire orrespond à

dim(

H) = 2

. Physiquement, e sys-tème pourrait être le spin d'un éle tron. Ces états sont appelés états qubit, etsont

largement utilisésen informationquantique.

Nousdénissons lesmatri es de Pauli omme

σ

x

=



0 1

1 0



,

σ

y

=



0

i

−i 0



,

σ

z

=



1

0

0

−1



.

(1.16)

Comme une matri e densité est auto-adjointe, elle sera une ombinaison linéaire

réelle de es trois matri es et de l'identité

1

. La positivité et la normalisation im-posent de plus :

ρ =

1

2



1 + ~θ

· ~σ



,

k~θk ≤ 1,

(1.17) ave

~σ = (σ

x

, σ

y

, σ

z

)

un ve teurde matri es.

Nous voyons que nous avons déjà besoin de trois paramètres réels pour dé rire les états qubit, onfer leparamètreunique dontnous avons besoinpourdé rire uneloi

sur un espa e lassique à deux éléments.

États purs

L'ensembledesmesures deprobabilitépeut êtrevue ommel'enveloppe onvexedes

fon tions delta.De même,les états sontl'enveloppe onvexe des états purs.

Lesétatspurssont ara térisésparlefaitd'êtredesopérateurs derangun,devaleur

propreun. Nouspouvons lesé rire

|ψi hψ|

,où

|ψi

est un ve teur de normeun dans

H

. Les états purs peuvent don être vus omme des points de l'espa e proje tif asso iéà

H

.

Ilssontextrêmementimportants:denombreusesdes riptionsdelamé anique

quan-tiquetraitentuniquement lesétatspurs. Lesétats générauxsontdes mélanges las-siques d'états purs. Un état qui n'est pas pur est ditmélangé.

Contrairement aux fon tions delta, oùil sut de tirer une fois la variable aléatoire

pour identierlaloiin onnue, iln'existe pas demesure permettantd'identier sans

ambiguïtén'importequelétat pur,quand bienmême noussaurionsauparavantque l'étatest pur. Cettediéren efondamentaleave le as lassique estune marquede

(26)

Pour lesqubits paramétrés omme i-dessus, lesétatspurs orrespondent à

k~θk = 1

Cette paramétrisation par une sphère, appelée sphère de Blo h, nous donne une intuition graphiquepour lesproblèmes sur les qubits.

La dimension réelledes états purs est de

2(d

− 1)

si

dim(

H) = d

. États ohérents

Les qubits sont l'exemple-type des états de dimension nie. Les états ohérents 6

formentl'autre famillefondamentale d'états.

Ces états vivent dans l'espa e de Fo k 7

F(C)

, 'est-à-dire l'espa e de Hilbert de dimension innie

2

(N)

. Nous notons par

{|ki}

k∈N

la base anonique de

2

(N)

. Les

physi iens appellent

|ki

le

k

-ième état de Fo k.

Les états sur l'espa e de Fo k sont eux de l'os illateur harmonique, omme par

exemple l'état de la lumière mono hromatique, i.e. l'état d'un laser. Nos sommes don sur leterrain de l'optique quantique. Parmi es états, lesétats ohérents sont

en un sens lesplus lassiques: ilssaturentles relationsd'in ertitudede Heisenberg.

Ils sont donnés par un oe ient

θ

omplexe, soit deux paramètres réels. Comme e sont des étatspurs, nous pouvons lesdé rire par un ve teur de

F(C)

, pluttque par un opérateur 8 :

|θ) = exp(−|θ|

2

/2)

n

X

k=0

θ

k

k!

|ki .

(1.18)

États multipartites, états intriqués

Considérons deux objets quantiques

ρ

1

et

ρ

2

sur

H

1

et

H

2

. Ils peuvent être vus ommeun seul objetquantique sur l'espa e

H = H

1

⊗ H

2

, d'état

ρ = ρ

1

⊗ ρ

2

. Tout état sur pareil espa e de Hilbert produit est appelé état multipartite.

Main-tenant ertains états multipartites ne peuvent pas être é rits omme une

ombi-naison onvexe

P

c

i

ρ

i

1

⊗ ρ

i

2

, ave des

c

i

positifs. Nous pourrions avoir besoin de

c

i

6

Plus généralement,tousles étatsgaussienséventuellement ompressésjouentunrle majeur en optique quantique et, omme nous allonsle voir,en statistiques quantiques. Dans l'exemple, nousnousrestreignonsauxétats ohérentsparsou idesimpli ité.

7

Les états ohérents de dimension supérieure à deux sont des produits tensoriels d'états o-hérentssurl'espa edeFo kproduit

F(C

d

) =

F(C)

⊗d

. 8

Nousutiliserons lanotation

|θ)

aulieu duket habituel

|θi

and'éviter la onfusion ave les étatsdeFo k,enparti ulierquand

θ

estunentierpositif.

(27)

stri tementnégatifs.End'autrestermes, esétatsnesontpasunmélangestatistique

lassique de paires d'états. Ils ontiennent un ouplage intrinsèquement quantique. De tels états sont appelés états intriqués.

Commençonsparprouverleurexisten e.Nousé rivons

dim

H

1

= d

1

et

dim

H

2

= d

2

. Don

dim

H = d

1

d

2

. Les états multipartites pur sont des états purs sur

H

, don onstituent unevariétéde dimension

2(d

1

d

2

− 1)

.D'unautre té,un état purde la forme

P

c

i

ρ

i

1

⊗ ρ

i

2

ave les

c

i

positifsimpose que la sommene ontiennequ'un seul terme,ave

ρ

1

et

ρ

2

tous deux purs. Ladimension de lavariété de es états produit est

2(d

1

+ d

2

− 2) < 2(d

1

d

2

− 1)

. Il y a don de nombreux états purs intriqués. Un exemple typique sont les états d'intri ation maximale, 'est-à-dire les états de

la forme

|Ψi hΨ|

, ave

|Ψi =

1

d

P

i

i ⊗ |ψ

i

i

, où

H

1

=

H

2

et

{|ψ

i

i}

est une base

orthonormale de

H

1

. Commeleur nom l'indique, es états sont aussi intriqués que possible.

L'intri ationest peut-être laressour e laplus basique etlaplus essentielle de toute l'informationquantique.Ellejoueunrleau ÷urdelatéléportationquantique,dela

plupartdes proto olesde ryptographiequantiqueetdans lesalgorithmesa élérés

desordinateursquantiques.Lalittératurequiyest onsa réeest tropimmensepour êtreseulementesquissée.Enstatistiquesquantiques,lesétatsintriquéspeuvent être

utilisés pour a élérer l'estimation de transformations quantiques

A tions sur les états

Dans le as lassique, nous avons remarqué quedonner un estimateur ed

θ

,ou plus généralementde n'importequelle fon tionde

θ

,étaitéquivalentàlatransformation de nos données initialespour obtenirunenouvelle variablealéatoire

Y

de loi

T (p

θ

)

.

Dans le as quantique, les deux notions sont bien distin tes. En eet, transformer les données signie obtenir un nouvel état quantique, 'est-à-dire un nouvel

opéra-teur sur un espa e de Hilbert. Les états sont transformés quand ils sont envoyés

à travers un anal. Un estimateur d'un paramètre lassique, en revan he, est une quantité lassique.Nousobtenonsdon unevariablealéatoire lassique.Cesdonnées

lassiques sont obtenues en ee tuant une mesure de l'état.

Sinous souhaitons simplement onsidérerles estimateurs,pourquoi s'intéresser aux anaux? En eet, l'appli ation de anaux su essifs suivie d'une mesure peut être

résumée à une mesure plus omplexe.

(28)

de la normalité asymptotique lo ale quantique forte, dont l'étude forme l'essentiel

de ette thèse, est de transformer des expérien es en d'autres expérien es quasi-équivalentes, et plus simpleset mieux onnues.

Deuxièmement,les anauxdé riventdestransformationsquantiques.Nouspourrions

souhaiterétudierlatransformationelle-même,pluttquel'état.Typiquement, ette transformationpourraitêtre générée par une for eque nous voulons mesurer. Nous

nous étendrons davantage sur le sujetauChapitre 4.

Nousappelonsinstrument unefon tionquiretourneà lafois desdonnées lassiques

et quantiques en prenant un état quantique en entrée. Les véritables instruments de mesuresont en faitdes instruments,quand bien mêmel'état de sortie peut être

oublié. En parti ulier, les mesures en temps ontinu sont ommunes en pratique.

Typiquement,nousmesuronsle hampéle tromagnétiqueparsonintera tionave la matière, ommeauChapitre8.Cesmesurespeuventêtrevues ommeunesuite

d'in-strumentsinnitésimaux.É rire leséquations orrespondantes est le butdu ltrage

quantique, réé par Davies etBelavkin (Bouten etal., 2006, foran introdu tion).

Mesures, POVMs

Sinousvoulonsee tuerdel'inféren estatistique lassiquesurlesparamètres in on-nus, il nous faut traduire notre information quantique en information lassique. À

ette n, nous ee tuons unemesure. Commeles états mélangés sont des mélanges

lassiquesd'étatspurs,nousexigeonsque ettetransformationsoitlinéaire.Deplus, lasortiedoittoujourssuivreuneloide probabilité lassique.De e i,nousdéduisons

la formesuivantepour lesmesures physiquement permises :

Denition 1.1.2. Une mesure à valeur dans les opérateurs positifs, ou POVM, de l'a ronyme anglais, sur un espa e mesuré

(Ω,

A)

est une ensemble

{M(A)}

A∈A

d'opérateurs bornés sur

H

tels que : 

M(Ω) = 1

H

. 

M(A)

est positif.

 Pour toute olle tion dénombrable

(A

i

)

i∈N

d'

A

i

disjoints,nous avons

M(

S

A

i

) =

P

M(A

i

)

.

On remarqueraque e sontexa tement lesaxiomes habituelsd'unemesurede

prob-abilité, à e i près que nous utilisonsdes opérateurs aulieude nombres réels. Nous

appelons haque

M(A)

un élément de POVM.

Appliquer une mesure

M

à un état

ρ

génère une loi

P

ρ

sur

(Ω,

A)

, donnée par la règle de Born :

(29)

Au Chapitre 5, nous examinerons une relationd'ordre spé ique sur lesPOVMs.

Quelquesremarquess'imposent.Toutd'abord,nouspouvonsin luretouttraitement

lassiquedesdonnéesdanslaPOVM.Eneet,ee tuerlamesure

M

,puisappliquer lenoyaudeMarkov

T

(dénipar(1.5))àlavariablealéatoiredesortieestéquivalent à ee tuer la mesure

N

sur

(Ω

1

,

B)

donnée par

N(B) =

R

p

ω

(B)M(dω)

. Si bien que travaillerave des POVMs est équivalent àtravaillerave des estimateurs.

Deuxièmement, en général, nous ne pouvons pas mesurer simultanément

M

1

et

M

2

sur

(Ω

1

,

A

1

)

et

2

,

A

2

)

. Contrairement au as lassique, où l'on peut obtenir si-multanément les résultats de l'appli ation des noyaux

T

1

et

T

2

. En eet, mesurer à la fois

M

1

et

M

2

signie mesurer

N

sur

(Ω

1

⊗ Ω

2

)

ave

N(A

1

× Ω

2

) = M

1

(A

1

)

et

N(Ω

1

× A

2

) = M

2

(A

2

)

. Un ontre-exemple simple illustrant le rle de la non- ommutativitéest donnépar

M

1

et

M

2

toutes deux déniessur

{0, 1}

, ave

M

1

(0) =



1 0

0 0



,

M

1

(1) =



0 0

0 1



,

M

2

(0) =

1

2



1 1

1 1



,

M

2

(1) =

1

2



1

−1

−1

1



.

Toutes es matri es sont de rang un. Il fautmaintenant

N(0, 0) + N(0, 1) = M

1

(0)

. Comme tous les éléments de POVM sont positifs, nous obtenons

M

1

(0)

≥ N(0, 0)

. Commedeplus

M

1

(0)

estderangun,nousavons

N(0, 0) = c

1

M

1

(0)

pourun ertain

0

≤ c

1

≤ 1

. De même

N(0, 0) + N(1, 0) = M

2

(0)

. Si bien que

N(0, 0) = c

2

M

2

(0)

. La seule solution est

c

1

= c

2

= 0

et

N(0, 0) = 0

. Lemême raisonnement tient pour

N(0, 1)

,

N(1, 0)

et

N(1, 1)

.Parailleurs,ilfautque

N(

{0, 1}

2

) = 1

C

2

.Contradi tion.

Finalement,on roitquetoutes esmesuressontpermisesparlesloisdelaphysique.

Maisellespeuventêtretrès duresàimplémenteren pratique.Enparti uliersil'état est multipartite, il peut être raisonnable de se restreindre à des lasses de mesure

plus petites.Notamment,sidiérentespersonnespossèdent diérentes parti ulesen

des lieux diérents, elles ne pourront pas implémenter une mesure générale, même

s'ils oopèrent.Lemieuxqu'elles puissentfaireest :l'uned'ellesmesuresaparti ule (éventuellement ave un état quantiquenon trivialen sortie),donnele résultataux

autres, qui hoisissent quel mesure ee tuer sur leurs parti ules, garde l'état de

sortie et donnent le résultataux autres, eton itère. De telles mesures, qui utilisent uniquementdesopérationsquantiqueslo alesetles ommuni ations lassiques,sont

appelées LOCC :Lo alOperations,Classi alCommuni ation.

En information quantique, quand le système (souvent intriqué) est divisé entre

plusieurs personnes, nous nous restreignons naturellement aux opérations LOCC. En estimation quantiqueave

n

opiesde l'état initial, nous sommes intéressés par e quenous pouvons réaliser ave des mesures LOCC, beau oup plus simples à

(30)

im-généralement améliorerla pré isionde lamesure par des mesures olle tives, e qui

peut paraître surprenant pour des physi iens, puisque les

n

opies sont totalement indépendantes.Dans ertains as,enparti ulierquandnoussavonsquel'étatest pur

(Matsumoto, 2002), les mesures olle tives n'améliorent guère les mesures LOCC.

Cela peut surprendre les mathémati iens, omme l'espa e des mesures olle tives est beau oup plus grand que eluides mesures LOCC.

Exemple : Spin

z

Considérons lamesure binairesur lesqubits donnée par

M(

↑) =



1 0

0 0



=

1

2

(1 + σ

z

),

M(

↓) =



0 0

0 1



=

1

2

(1

− σ

z

).

Cette mesureappliquée à l'état

ρ =

1+~

θ·~σ

2

renvoie

ave probabilité

Tr(ρM(

↑)) =

1

2



Tr(1M(

↑)) +

X

α=x,y,z

θ

α

Tr(σ

α

M(

↑))



=

1

2

(1 + θ

z

).

En parti ulier, si

θ

z

= 1

, la sortie est toujours

. À l'inverse, si

θ

z

=

−1

, la sortie est toujours

. D'autrepart, si

θ

x

= 1

, sibienque

θ

z

= 0

,lasortie seraoubien

ou bien

ave probabilitéun demi,alors que l'état

ρ

est pur.

Les mesures de e genre, où tous les éléments de POVM sont des proje teurs, sont

aussiappeléesobservables.Ellesgénèrentdel'informationuniquementsurlabaseoù

tous les éléments de POVM sont diagonaux. A essoirement, les axiomes usuels de la mé aniques quantiques restreignent lesmesures auxobservables. Nosré upérons

l'ensemble des POVMs en appliquant une observable à un état multipartite dont

notre état n'est qu'une partie; 'est lethéorème de Naimark.

Mesure hétérodyne

La mesure hétérodyne tire son nom de la te hnique utilisée pour l'implémenter

en laboratoire, ave des lasers déphasés. Cette POVM de sortie dans

C

se dé rit mathématiquementpar :

M(A) =

1

π

Z

A

|z)(z|dz,

(1.20)

(31)

La loi du résultat de la mesure de

ρ

a don pour densité

(z

|ρ|z)

par rapport à la mesurede Lebesgue,aupoint

z

.En parti ulier,laloi du résultatde lamesure d'un état ohérent est une gaussienne :

q

θ

(dz) =

1

π

(z

|θ)(θ|z) =

1

π

exp(

−|θ − z|

2

).

(1.21)

Si nous onsidérons tous les

θ

omplexes, nous re onnaissons une expérien e de dé alage gaussienne (1.4) sur

R

2

.

Plus généralement, la densité de la loi du résultat de la mesure d'un état

ρ

est appelée fon tion de Husimi de l'état :

H

ρ

(dz) =

1

π

(z

|ρ|z).

(1.22)

Lesétatsdontlafon tionde Husimiest unegaussiennesontappelés étatsgaussiens.

Canaux

Nousdé rivons maintenant ommentobtenirun nouvelétatquantiqueàpartird'un premier.Notez quel'état originalest détruitau ours du pro essus.

Une transformation physique d'un objet prend un état et renvoie un aure état, éventuellement sur un espa e de Hilbert dièrent. Elle est dé rite par un anal,

l'équivalentd'un noyaude Markov.

Pour rappel, un superopérateur positif

E

est une appli ation qui asso ie à haque opérateur

A

positifun résultat

E(A)

égalementpositif.

Denition 1.1.3. Un anal

E

est une appli ation de l'ensemble

T (H

1

)

des opéra-teurs à lasse de tra e, dans

T (H

2

)

, doté des propriétés suivantes :

 Linéarité :

E

est linéaire.

 Positivité omplète : pour tout espa e auxiliaire

H

3

, le superopérateur

E ⊗ Id :

T (H

1

⊗ H

3

)

→ T (H

2

⊗ H

3

)

donné par

(

E ⊗ Id)(ρ ⊗ σ) = E(ρ) ⊗ σ

est positif.  Préservation de latra e :

Tr(

E(A)) = Tr(A)

.

Notez que les noyaux de Markov satisfont à es ritères, quand on rempla e les opérateurs par des mesures

9 .

9

Dans le adre plus général des

C

-algèbres, les espa es de fon tions sont des

C

(32)

La né essité de la linéaritépeut être prouvée par l'axiome d'évolution unitaire 10

et

en in luantl'observateur dans le système.

Nousvoulonsque l'imaged'unétat soitun état, don un opérateurpositifdoit être

envoyésur un opérateurpositif.Pour omprendred'où vientl'exigen ede positivité

omplète, onsidérons un état éventuellement intriqué sur

H

1

⊗ H

3

. Si nous trans-formons l'état sur

H

1

, nous transformons aussi l'état sur

H

1

⊗ H

3

, par le anal

E ⊗ Id

.Don ette dernière transformationdoit aussi être positive.D'oùla requête de omplète positivité.

Finalement, la sortie est un état si l'entrée est un état, et tous deux ont tra e un,

don latra e doit être onservée.

Nous onsidéreronssouventdes anauxdupointdevue(pré)dual, 'est-à-dire omme

agissant sur les éléments de

B(H)

. Nous dénissons

Tr(

E(ρ)A) = Tr(ρE

(A))

pour tout état

ρ

et tout opérateur borné

A

. Dans e as,

E

est aussi une appli ation linéaire omplètement positive, mais nous devons rempla er la préservation de la

tra e par la préservation de l'identité, 'est-à-dire

E

(1) = 1

.

Notations : Nous utilisonsd'habitude les lettres

E

ou

F

pour les anaux. Par abus de notation, nous ne noterons en général pas l'étoile pour le prédual et é rirons également

E

dans e as. Cependant, es notations standard sont également les notations standardpour lesexpérien es;Aussi,dans les hapitresoùnousutilisons

ette dernièrenotion, nousdésignerons les anauxde la mêmefaçonquelesnoyaux de Markov, à savoirpar

T, T

n

, S, S

n

.

Représentation de Kraus, théorème de Stinespring

La dénition donnée i-dessus ne permet pas une manipulationsimple des anaux.

Heureusement,nousdisposonsdedeuxthéorèmesdereprésentationquidé riventles

appli ations omplètement positives de manière plus pratique. Le livre de Paulsen (1987) est une bonneréféren e sur es sujets.

Lareprésentationde Kraus(1983)est l'outilprin ipalquand l'espa edeHilbertest

de dimension nie.

Theorem1.1.4. Une appli ation omplètement positive

E

de

M(C

d

1

)

dans

M(C

d

2

)

peut s'é rire

E(A) =

X

α

R

α

AR

α

,

(1.23) 10

La mé anique quantique arme que l'évolution d'un système est donnée par

ρ(t) =

U (t)ρ(0)U

(t)

, où

U (t)

est un opérateur unitaire qui peut être al ulé à partir de l'opérateur auto-adjoint

H

appelélehamiltonien.Silehamiltoniennedépendpasdutemps,alors

U (t) = e

itH

(33)

α

va de

1

à

d

1

d

2

au plus, et

R

α

∈ M

d

2

,d

1

(C)

. L'étoile représente l'adjon tion.

De plus, le anal préserve la tra e si et seulement si

P

R

α

R

α

= 1

C

d1

.

Cettedé ompositionn'est pas unique.Le analdual est donnépar

A

7→

P

R

α

AR

α

.

En dimension innie, nous utiliserons de préféren e le plus puissant théorème de

dilatation 11

de Stinespring (1955).

Theorem 1.1.5. Soit

E : B(H

1

)

→ B(H

2

)

une appli ation omplètement positive. Alors il existe un espa e de Hilbert

K

et un *-homomorphisme (ou représentation)

π :

B(H

1

)

→ B(H

2

)

tels que

E(A) = V π(A)V

,

(1.24)

V :

K → H

est un opérateurborné.

De plus, si

E

préserve l'identité, alors

V

est une isométrie, 'est-à-dire

V V

= 1

H

.

Side plusnous imposons que

K

soitlafermeturede l'espa e ve toriel engendré par

π(A)V

H

, alors ladilatationest unique àdes transformationsunitairesprès.

Instruments

Nousdonnons lesreprésentationsd'instrumentsen dimensionnie 12

.Pour simplier

davantage les notations, nous nous pla erons dans le as oùla mesureaun nombre ni d'issues.

Denition1.1.6. Un instrument estdonné par unensemble

{N

ω,k

}

de matri es de

H

1

dans

H

2

, tel que

X

ω

X

k

N

ω,k

N

ω,k

= 1

H

1

.

La mesure orrespondanteest donnée par

M(ω) =

X

k

N

ω,k

N

ω,k

,

11

EnfaitlethéorèmedeStinespringaétéprouvépourtoute

C

-algèbreunitaire.Onpeutprouver qu'ilimpliquelethéorèmedereprésentationdeKraus,ainsiquelareprésentationGNS,unebase delathéoriedesalgèbresd'opérateurs.

12

Endimensioninnie,ilfautsepla erdansle adredes

C

-algèbres,etuninstrumentestalors simplementun analentre

C

(34)

et l'état de sortie quand le résultat de lamesure est

ω

est donné par

N (ρ, ω) =

P

k

N

ω,k

ρN

ω,k

Tr(ρM(ω))

.

L'état de sortie vit dans

H

2

.

Nous avons désormais une nouvellemanière de omprendre pourquoi nous ne

pou-vonspasmesurerdeuxPOVMssimultanément:aprèsavoirmesuré

M

,l'objet quan-tique, don notre donnée, a en général été perturbé. En fait, si la mesure est su-isamment ri he, l'état de sortie ne dépend que du résultat

ω

de la mesure, et plus du tout de l'état d'entrée.

Nous avons désormais tous les outils pour transposer les statistiques lassiques au

monde quantique.

1.1.3 Statistiques quantiques

Nous travaillons d'habitude sur les états quantiques; à l'o asion, nous voudrons

obtenir des informationssur un anal.Nous traitonsles deux as séparément.

États: e quenous avons, e que nous pouvons faire, e quenous voulons

savoir

Demanièreanalogueau as lassique,nousdisposonsd'habituded'unétatquantique

ρ

, quenous savons être dans l'ensemble

E = {ρ

θ

, θ

∈ Θ} .

(1.25)

Nous appellerons également et ensembleexpérien e oumodèle.

Dansl'exempledes qubits, lesmodèles usuelsserontlemodèle ompletdemélange, à trois dimensions,

E

m

=

θ

,

kθk < 1}

et le modèle à deux dimensions des états purs

E

p

=

θ

,

kθk = 1}

,où nous avons utilisé laparamétrisation pré édente (1.17) de l'état

ρ

θ

. Si nous avons

n

opies de l'état,nous remplaçons

ρ

θ

par

ρ

⊗n

θ

.

Un autre exemple typique est le modèle

E

t

=

θ

, θ

∈ {θ

1

, θ

2

}}

, où la question habituelle est de dis riminer entre les deux

θ

possibles. Nous étudions e genre de

(35)

Nouspouvonsaprioriutilisern'importequellesuited'instrumentssurl'état.Sinous

voulonssimplementobtenirdesrenseignementssur

θ

,nouspouvonsnousrestreindre auxmesures

M

,lesPOVMs.Nousasso ionsalorsà

M

unestimateur,disons

θ

ˆ

,dont la loidépend du vrai paramètre

θ

de lamanière suivante :

q

θ

(B) ˆ

= P

θ

h

ˆ

θ

∈ B

i

= Tr(ρ

θ

M(B)).

Selon les ir onstan es, nous pourrons permettre toutes les mesures physiques, ou nous restreindre à des ensembles plus petits, omme les mesures séparées ou les

mesures LOCC.

Enn, e que nous voulons savoir est la même hose que dans le as lassique. Nous voulons onnaître une fon tion du paramètre

θ

. Nous voulons don estimer

θ

, et évaluer notre estimateur

θ

ˆ

au travers d'une fon tion de oût

c(θ, ˆ

θ)

. Comme auparavant, lesfon tionsde oûtlesplus ommunes sont

(1

− δ

θ,ˆ

θ

)

 sil'ensemblede paramètres est ni, et lesfon tions de oût quadratique

θ

− θ)

G(ˆ

θ

− θ)

pour une

matri e

G

dénie positive, sile paramètre vit dans un sous-ensemble ouvert de

R

d

. La matri ede poids

G

peut dépendre de

θ

.

Nous pouvons à nouveau é rire le risque (1.6) d'un estimateur au point

θ

. Comme nous ne onnaissons pas

θ

, nous pouvons utiliser soit le risque bayésien (1.7) pour une loia priori adaptée, soitlerisqueminimax(1.9), etoptimiser(1.8,1.10)sur les

estimateurs disponibles. Notons que la dernière étape dépend de l'ensemble

d'esti-mateurs quenous nous autorisons.

Information de Fisher quantique et bornes de Cramér-Rao

Nous pouvons essayer d'imiter la dénition de l'information de Fisher lassique et

obtenir des ornes similaires sur la varian e des estimateurs. En fait, nous pouvons

onstruire pareil équivalent pour tout hoix de dérivée logarithmique. Nous hoi-sissons la dérivée logarithmique à droite (RLD), dénie pour haque

θ

et haque oordonnée

θ

α

omme lamatri e

λ

α,θ

telle que :

∂ρ

θ

∂θ

α

= ρ

θ

λ

α,θ

(1.26)

sur le support de

ρ

θ

.

Alorsl'examende ladénition(1.13)etlerappeldu faitquelarèglede Born(1.19)

est l'équivalentde l'espéran e lassiquerendent naturelleladénitionsuivantedela

matri e d'informationde Fisherquantique :

Références

Documents relatifs

[r]

[r]

Le fait que l'aire d'une bande sphérique soit égale à sa projection sur le cylindre de même rayon implique qu'une répartition uniforme de la direction du

• Si on suppose le tube initialement vide (rempli d'air), la rotation du tourniquet (initialement immobile) pourrait commencer dès que du liquide entre à l'extrémité ; si

La fonction de Möbius est une fonction qui possède diverses propriétés et qui est utilisée dans différentes branches des mathématiques.. Nous montrons ici deux de ses propriétés

[r]

Résumé : Dans un précédent article ([2])&gt; nous avons introduit une nouvelle classe de statistiques de rangs permettant de construire un test d'hypothèse nulle de bruit

Écrire symboliquement l'énoncé : « La partie entière d'un réel est le plus grand entier relatif qui lui est inférieur ou égal.. Mettre entre les propriétés