HAL Id: tel-01657373
https://hal.inria.fr/tel-01657373
Submitted on 6 Dec 2017
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of
sci-entific research documents, whether they are
pub-lished or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est
destinée au dépôt et à la diffusion de documents
scientifiques de niveau recherche, publiés ou non,
émanant des établissements d’enseignement et de
recherche français ou étrangers, des laboratoires
publics ou privés.
questions de statistiques quantiques
Jonas Kahn
To cite this version:
Jonas Kahn. Normalité asymptotique locale quantique et autres questions de statistiques quantiques.
Physique Quantique [quant-ph]. Université Paris XI, 2009. Français. �tel-01657373�
N
o
D'ORDRE : xxxx
UNIVERSITÉ PARISSUD FACULTÉ DES SCIENCES D'ORSAY
THÈSE
présentée pour obtenirle grade de
DOCTEUR EN SCIENCES DE L'UNIVERSITÉ PARIS XI
Spé ialité: Mathématiques
par
Jonas KAHN
NORMALITÉ ASYMPTOTIQUE LOCALE QUANTIQUE
et
AUTRES QUESTIONS DE STATISTIQUES QUANTIQUES
Soutenue publiquementle30 septembre2009 devantla ommissiond'examen:
M. Stéphane ATTAL Université Lyoni Président
Mme. Cristina BUTUCEA Université Lillei Rapporteur
M. Ri hard GILL Université Leiden Dire teur
M. M d lin GU Université Nottingham Examinateur
M. Alexander HOLEVO InstitutSteklov, Mos ou Rapporteur M. Pas al MASSART Université Parisxi, Orsay Dire teur
Chapitre 2 (Model sele tion for quantum homodyne tomography)
J.Kahn.Modelsele tionforquantumhomodynetomography.A epté par ESAIM :
Probabilityand Statisti s. arXiv :0712.2912.
Chapitre 3 (Dis rimination)
G.M.D'Ariano,M.F.Sa hi,andJ.Kahn.Minimaxquantumstatedis rimination.
Phys. Rev. A, 72 :032310,2005. arXiv :quant-ph/0504048. doi :10.1103/Phys-RevA.72.032310.
G. M. D'Ariano, M. F. Sa hi, and J. Kahn. Phys. Rev. A, 72 :052302, 2005.
arXiv :quant-ph/0507081. doi :10.1103/PhysRevA.72.052302.
Chapitre 4 (Fast estimation of unitary operations)
Fastrate estimationofunitaryoperationsin
SU(d)
.Phys. Rev.A,75:022326,2007. arXiv :quant-ph/0603115. doi :10.1103/PhysRevA.75.022326.Chapitre 5 (Clean positive operator valued measures)
Clean positive operator valued measures for qubits and similar ases. J. Phys. A,
Math.Theor.,40:48174832,2007.arXiv :quant-ph/0603117.doi :10.1088/1751-8113/40/18/009.
Chapitre 6 (Complementary subalgebras)
J.Kahn and D Petz. Complementaryredu tions for twoqubits. J. Math. Phy.,48: 012107, 2007.arXiv :quant-ph/0608227. doi :10.1063/1.2424883.
Chapitre 7 (QLAN for qubits)
M.Guµ andJ.Kahn.Lo alasymptoti normalityforqubitstates.Phys.Rev.A,73:
052108, 2006.arXiv :quant-ph/0512075. doi :10.1103/PhysRevA.73.052108.
Chapitre8(Optimalestimationof qubitstateswith ontinuoustime
mea-surements)
M. Guµ , B. Janssens, and J. Kahn. Optimal estimation of qubit states with
on-tinuous time measurements. Comm. Math. Phy., 277(1) :127 160, 2008. arXiv : quant-ph/0608074. doi :10.1007/s00220-007-0357-5.
Chapitre 9 (QLAN nite dimension)
M. Guµ and J. Kahn. Lo al asymptoti normality for nite-dimensional systems.
10.1007/s00220-Ringraziamenti Köszönetnyilvánítás
This thesis has been written under the s ienti dire tion of Ri hard Gill. I thank
himfor introdu ing metothe world of quantum statisti s,and to lo alasymptoti normality. TheperiodsIspentwithhimwerealwaysenlightening,beitonquantum
statisti s, or on lassi al statisti s, or the way a statisti ian should behave. I also
admire his willof introdu ing more poeple to this eld, and his always suggesting
problems of interest.
Pas al Massart a été mon deuxième dire teur de thèse. Son aide dans la bataille administrativeaétédespluspré ieuses.Ilaégalementsumefournirlabibliographie
idoine quand l'o asion s'yprêtait.
Je ne peux hélas pas remer ier Alexander Holevo dans sa langue, lui qui a pra-tiquement réé le domaine des statistiques quantiques, et qui me fait aujourd'hui
l'honneur d'être mon rapporteur.
CristinaButu ea a été mon interlo uteur en Fran e, laseule ave laquelle je puisse
dialoguer sur le sujet des statistiques quantiques. Je la remer ie également de bien avoir voulu é rire un rapport sur mon travail durant une période où elle avait fort
peu de temps.
Jeremer ieaussiStéphaneAttaldebienvouloirêtredansmonjury.J'avaisappré ié
lesbrèves dis ussions que nous avions pu avoir àLyon.
Je onsidèreM d linGuµ ommeun troisièmedire teur dethèse etmonprin ipal ollaborateur.Nous avons misaupointlanormalitéasymptotiquequantiquelo ale
forteensemble. J'aibeau oup appré ié mes séjours àNottingham, et samanièrede
trouverde nouveaux problèmes de statistiques quantiques àpartir de problèmes de statistiques lassiques.
re-tiquesquantiques.Lesdis ussionsave AnnaJen£ováontapprofondima
ompréhen-sion de QLAN,en réant l'autre té, à savoirl'équivalen e faible.
Nelledue settimane hehopassatoinPavia,all'iniziodellatesi,Professored'Ariano mihadatopare hioproblemi,eabbiamolavoratoinsieme, onMassimilianoSa hi.
Ringrazio tutta lasquadra lo ale, he hoan ora visto in ongressi durante gli anni
seguenti.
KöszönömPetz Dénes felhívásotBudapestre. Nem sakkészültünkela íkkeimmel,
de sokat tanítottis aCCR algebrák-ról.
Je regrette de ne pas pouvoir remer ier Masahito Hayashi et Kenji Matsumoto en
japonais, pour mes séjours dans leur pays en Mars 2007et Novembre 2008, etpour les dis ussions que nous avons pu avoir sur les statistiques quantiques, au premier
hef sur lesbornes de Cramér-Rao.
Je remer ie aussi tous eux qui ont été autour de moi, élèves omme professeurs,
quand j'étais à l'ENS.Les dis ussions s ientiques permanentes, les problèmes que
nous nous posions,restent la plus belleformation quej'aie pu avoir.
Mer i YanPautrat,pourlesparolesé hangées surlaphysiquestatistiquequantique du point de vue mathématique, et pour avoir invité Vladimir Jak²i¢ à donner un
ours inspiré.
Mer i à eux qui ont relu ma thèse, Cristina, Patri ia Reynaud, Borg, et surtout
mon voisin de bureau Sylvain Arlot, dont je me suis outrageusement inspiré dans
l'espoir himérique d'appro her sa larté.
Mer i enn à Valérie Lavigne, qui m'a été d'une grande aide pour survivre dans l'enfer administratiflié àla thèse.
J'ai essayé d'être aussi neutre que possible dans les lignes pré édentes, bien que plusieurs des personnes évoquées méritent le titre d'ami. Mais j'espère que tous
eux qui omptent pour moi, autrement plus que les magniques statues de gla e
Remer iements A knowledgments Ringraziamenti
Köszönetnyilvánítás i
1 Introdu tion 1
1.1 Statistiques . . . 3
StatistiquesClassiques,3.
•
ObjetsetOpérationsQuantiques,11.•
Statistiques quantiques,21.1.2 Tomographie homodyne . . . 28
Motivation,28.
•
Résultats antérieurs, 29.•
Contributions de lathèse,30.1.3 Dis rimination . . . 30
Motivation,30.
•
Résultats antérieurs, 31.•
Contributions de lathèse,35.1.4 Estimation Rapided'OpérationsUnitaires. . . 36
Motivation,36.
•
Résultats antérieurs, 37.•
Contributions de lathèse,39.1.5 Mesures à Valeursdans les Opérateurs PositifsPropres . . . 39
Résultats antérieurs,40.
•
Contributions delathèse, 42.1.6 Sous-algèbres omplémentaires. . . 43
Motivation,43.
•
Résultats antérieurs, 44.•
Contributions de lathèse,45.1.7 Normalité asymptotiquelo ale quantique . . . 45
Normalité asymptotique lo ale lassique, 45.
•
Motivation, 48.•
Résultats an-térieurs etliés, 49.•
Contributions de lathèse,51.•
Perspe tives, 52.I Divers Problèmes de Statistiques Quantiques 55
2 Model sele tion for quantum homodyne tomography 57
2.1 Introdu tion . . . 57
2.2 The mathemati al problem . . . 60
2.3 Proje tion estimators. . . 62
Aim of model sele tion, 63.
•
Risk bounds and hoi e of thepenalty fun tion, 64.•
Deterministi penalty,67.•
Randompenalty,69.•
Appli ationswithtwo bases, 73.•
Noisy observations, 79. 2.4 Maximum likelihoodestimator. . . 802.5 Quantum alibration of aphoto ounter . . . 87
Statisti alproblem,87.
•
Usingproje tionestimators,88.•
Maximumlikelihood pro edure, 91. 2.A Ba kground inquantum me hani s. . . 96Statisti s: lassi al and quantum, 96.
•
Quantum homodyne tomography, 103.•
Physi al originofthe photo ounter alibrationproblem, 107 . 3 Dis rimination 111 3.1 Introdu tion . . . .1113.2 Optimal minimaxdis rimination oftwo quantum states . . . .113
3.3 Optimal minimaxdis riminationof
N
≥ 2
quantum states. . . .1173.4 Optimal minimaxunambiguousdis rimination. . . .120
3.5 Bayesian dis riminationof two Pauli hannels . . . .121
3.6 Minimaxdis rimination of Pauli hannels . . . .123
4 Fast estimation of unitary operations 133 4.1 Introdu tion . . . .133
4.3 Why we annotexpe t better rate than
1/N
2
. . . .139
4.4 Formulas for the risk. . . .141
4.5 Choi e of the oe ients
c(~λ)
and proof of their e ien y . . . .1434.6 Evaluationof the onstant inthe speed of onvergen e and nal result. . .147
4.7 Con lusion . . . .149
5 Clean positive operator valued measures 151 5.1 Introdu tion . . . .151
5.2 Denitions and notations . . . .153
5.3 Algorithm and Ideas . . . .154
Algorithm, 154.
•
Heuristi s: what thealgorithm reallytests, 155. 5.4 Su ient ondition. . . .1575.5 Ne essary ondition forquasi-qubit POVMs . . . .162
5.6 Summary for quasi-qubit POVMs and aspe ial ase . . . .172
5.7 Outlook . . . .174
6 Complementary subalgebras 175 6.1 Introdu tion . . . .175
6.2 Preliminaries . . . .176
6.3 Complementarysubalgebras. . . .177
II Normalité Asymptotique Lo ale Quantique 183
7.2 Lo al asymptoti normality in statisti s and its extension to quantum
me hani s . . . .190
7.3 The big ballpi tureof oherent spin states . . . .192
7.4 Lo alasymptoti normalityfor mixed qubit states . . . .195
Blo kde omposition, 196.
•
Irredu ible representations ofSU (2)
,198.7.5 Constru tion of the hannels
T
n
. . . .198 7.6 Constru tion of the inverse hannelS
n
. . . .204 7.7 Appli ations . . . .205Lo alasymptoti equivalen eoftheoptimalBayesianmeasurementandthe het-erodyne measurement, 205.
•
The optimal Bayes measurement is also lo ally asymptoti minimax, 208.•
Dis rimination of states, 214.•
Spin squeezed states and ontinuous timemeasurements, 216 .8 Optimal estimation of qubit states with ontinuous time
measure-ments 217
8.1 Introdu tion . . . .218
8.2 State estimation. . . .222
Qubit state estimation :the lo alization prin iple, 224.
8.3 Lo alasymptoti normality . . . .226
Introdu tion to LANand some denitions,227.
•
Convergen e to the Gaussian model,228.8.4 Time evolutionof the intera ting system . . . .232
Quantum sto hasti dierential equations, 232.
•
Solving the QSDE for the os illator, 234.•
QSDEfor large spin, 235.8.5 The se ond stage measurement . . . .237
The heterodyne measurement, 238.
•
Energymeasurement, 239.8.A Appendix : Proof of Theorem 8.3.1. . . .246
Proof of Theorem 8.3.1; the map
T
n
,247.•
Proof of Theorem 8.3.1; the mapS
n
,250.8.B Appendix : Proof of Theorem 8.4.1. . . .252
9 Quantum lo al asymptoti normality for
d
-dimensional states 2579.1 Introdu tion . . . .258
9.2 Classi al and quantum statisti alexperiments . . . .264
Classi al and quantum randomisations, 265.
•
The Le Cam distan e and its statisti al meaning,268.9.3 Lo alasymptoti normalityin statisti s. . . .270
9.4 Lo alasymptoti normalityin quantum statisti s. . . .272
The
n
-tuple ofd
-dimensional systems, 273.•
Displa ed thermal equilibrium states of a harmoni os illator, 276.•
The multimode Fo k spa e and the limit Gaussian shiftexperiment, 278.•
Themain theorem, 279.•
Appli ation: Asymptoti allyoptimalestimationpro edure,280.•
Therelationbetween LAN and CLT, 284.9.5 Expli it form of the hannels and rst steps of the proof. . . .289
Se ond lookat the irredu ible representations of
SU (d)
, 289.•
Des ription ofT
n
,293.9.6 Main steps of the proof. . . .295
Why
T
n
doesthe work,295.•
Denition ofS
n
and proofof itse ien y, 301.9.7 Te hni al proofs. . . .302
Proof of Theorem 9.4.4, 302.
•
Combinatorial and representation theoreti al tools,316.•
ProofofLemma9.5.4 andnon-orthogonalityissues,331.•
Proofof Lemma 9.6.4 on mapping rotations into displa ements, 335.•
Proof ofLemma 9.6.2ontypi alYoungdiagrams,338.•
ProofofLemma9.6.1andLemma9.6.8, 339.•
Proof of Lemma 9.6.3 on onvergen e to the thermal equilibrium state, 345.•
Proof ofLemma 9.6.5 on lo allinearityofSU (d)
,348 .Introdu tion
Lesstatistiques,étymologiquements ien es del'État,peuventêtrevues ommel'art detirerdesinformationsdedonnées.Quoiqu'ilspuissentprendredesformestrès
var-iées, tout problème de statistiques peut se dé omposer en trois mor eaux : l'objet
étudié,lesopérationsquenous pouvons ee tuer, etlaquestionmathématique
pré- ise. En d'autres termes, e que nous avons, e que nous pouvons faire, et e que nous voulons savoir.
Lesstatistiquesquantiques dièrentdes statistiques lassiques sur lepremierpoint,
e que nous avons. Par ri o het, elles en dièrent aussi sur le se ond, e que nous
pouvons faire.
Enstatistiques lassiques,nouspartonsengénéraldurésultatdesmesuresphysiques, quisontmodéliséespardes variablesaléatoiresetleursloisde probabilité
orrespon-dantes. En eet, si nous pouvons mesurer les quantités A et B, nous pouvons en
théorie mesurer les deux simultanément. Les expérien es mesurent souvent toutes les quantités utiles et a essibles. En théorie, e que nous pouvons faire est
ap-pliquern'importequelletransformationmathématiqueauxdonnées, éventuellement
ave une omposante aléatoire supplémentaire. En pratique, la puissan e de al ul peut être un fa teur limitant.
Dans ertains as, ependant, nous devons onsidérer d'ores et déjà l'objet étudié,
et hoisir quelle mesure ee tuer. Par exemple,si nousvoulons omprendrele
fon -tionnement d'une boîte noire, nous devons la sonder ave diérentes entrées, une nouvelle entrée à haque fois. Cette thématique relève des plans d'expérien e.
Ce quenouspouvons fairedépend largementdu problème spé ique.Dansle as
de la boîte noire, nous pouvons hoisir notre entrée. La des ription mathématique de e hoix peutvarierd'une boîte noireàune autre, ependant.Toutefois,une fois
Enstatistiquesquantiques, leplan d'expérien eest inévitable.Eneet,sinous
pou-vons mesurer A ou B, les lois même de la physique nous interdisent de mesurer simultanément A et B, en général. Nous devons don hoisir quelle mesure nous
apporte lesinformationslesplus utiles. Néanmoins,la mé anique quantique fournit
un adre parallèle à elui des statistiques lassiques, qui nous dit exa tement e que nouspouvons faire. Initialement, e quenous avons est un objetquantique,
modélisé par un état quantique. Ce que nous pouvons faire est mesurer l'état,
et obtenir une variable aléatoire lassique, ou bien plus généralement transformer l'étatquantique.Lesensemblesdemesures ettransformationspossiblessont
pré isé-mentdénis mathématiquement, e qui permet un traitementuniéde nombreuses
questions.
Cequenousvoulonssavoirnedièreguèreenstatistiquesquantiqueset lassiques.
Le plus souvent, nous souhaitons soit résumer les informations ontenues dans les données (inféren e statistique), soit inrmer une hypothèse ou hoisir la meilleure
hypothèsedansun ensembleni (test),soitdevinerave pré isionlephénomènequi
a généréles données (estimation). Les réponses à es questions sonttoutes dé rites parunparamètre lassique.L'ex eptionestquandnous her honsàobtenirunobjet
intrinsèquement quantique, omme par exemple quand nous essayons de loner le
plus pré isémentpossibleun état.
La Partie I de ette thèse est onsa rée à l'étude d'un ertain nombre de systèmes
parti uliers. Spé iquement, nous ommençons au Chapitre 2.5.3 par un as où la mesureestdéjàee tuée,sibienqueleproblèmedevient lassique:nousévaluonsun
étatdelalumièrepartomographiehomodyne.AuChapitre3,nousnousdemandons
omment dé ider au mieux dans lequel d'un ensemble ni d'états se trouve notre système; au Chapitre 4, nous donnons une pro édure d'estimation rapide (
1/n
) d'unetransformationunitaireboîtenoire.LesChapitres5et6s'atta hentdavantageà la stru ture générale des expérien es quantiques : le premier est onsa ré à une relation d'ordre sur les mesures quantiques, et le se ond à la re her he de
sous-systèmes aussidiérentsque possibled'un mêmesystème quantique, dans le as le
plus simple.
D'un autre té, nous pouvons avoir des questions très diérentes sur un système
donné. Pour un tel système, e que nous avons et e que nous pouvons faire restent xes. Nous pouvons don nous interroger sur e que l'on peut dire sur le
système lui-même, sans référen e à une question parti ulière. La théorie de la
on-vergen e d'expérien es en statistiques lassiquesnous ditave quelle pré isionnous pouvonsappro heruneexpérien eparuneautre.Ainsinouspouvonstraduiretoutes
lespro édurespouruneexpérien eenunepro édurepourl'autreexpérien e.Sibien
quenousobtenonsune réponseà equenousvoulonssavoir danslesdeux expéri-en es dès que l'on saitrépondre pour l'une d'entre elles.
le as le plus basique de onvergen e d'expérien es, à savoir la normalité
asymp-totique lo ale. Nous prouvons qu'une expérien e assez lisse d'états quantiques in-dépendantsidentiquementdistribués(i.i.d.) onvergeversuneexpérien ededé alage
gaussienne quantique. L'importantest que ette expérien e est très bien onnue, et
tout e que nous savons à son sujet peut être traduit pour la lasse très large des expérien es i.i.dlisses.
Lerestede ette introdu tion ommen e parpré iserlesrèglesdes statistiques
las-siques et quantiques, puis introduit ha un des hapitres de la thèse, etles problé-matiques orrespondantes dans l'ordredonné i-dessus.
1.1 Statistiques
Nous présentons une autre introdu tion aux statistiques quantiques à l'usage du
statisti ien, plus ondensée, en Appendi e 2.A du Chapitre 2.5.3.
1.1.1 Statistiques Classiques
On pourra onsulter Le Cam (1986) et van der Vaart (1998) omme référen es
supplémentaires,entre autres nombreux livres de statistiques. Nousrésumons dans
leTableau1.1,page26,lesingrédientsdebasedesstatistiques lassiques.LeTableau 1.2 adja ent donneles notionsquantiques orrespondantes.
Ce que nous avons
En statistiques lassiques, on nous donne les données, qui peuvent être modélisées parune variablealéatoire
X
de loip
.On saitpar avan e quep
est dansun ensembleE = {p
θ
, θ
∈ Θ} ,
(1.1) sans ontrainte en général sur l'espa e de paramètresΘ
. Les loisp
θ
sont toutes dénies sur le même espa e de probabilités(Ω,
A)
. CetE
est appeléexpérien e ou modèlestatistique.Les données proviennent souvent de plusieurs mesures, générant autant de
vari-ablesaléatoires
X
1
, . . . , X
n
,deloisp
1
, . . . , p
n
surdesespa esdeprobabilités poten-tiellementdiérents.Toutefois, nous pouvons toujours onsidérer toutes esdon-nées ommeuneseulevariablealéatoire
X = (X
1
, . . . , X
n
)
,deloip = p
1
⊗· · ·⊗p
n
, etnous restons dans le adre i-dessus.Quoiqu'iln'yaitpas de ontraintesur
Θ
à e pointdelathéorie, etensembleest souventsoitnisoitunsous-ensembleraisonnabledeR
d
.Lepremier asmèneaux
statistiques dis rètes, et à ertaines famillesde tests en parti ulier, et le se ond aux statistiques paramétriques. Quand
Θ
est de dimension innie, nous sommes dansle omplexeroyaumedesstatistiquesnonparamétriques,thèmeprivilégiédelare her he es dernières années
Exemples : expérien e de Bernoulli, expérien e de dé alage gaussienne
L'espa e deprobabiliténon trivialleplussimpleest l'espa eàdeux éléments
{0, 1}
. Une expérien ede pileoufa e s'é ritE
Ber
=
{p
θ
= (θ, 1
− θ), θ ∈ [0, 1]} .
(1.2) Une alternative onsiste à lan er la piè en
fois. Si on noteX = (X
1
, . . . , X
n
)
le résultat,nous obtenons ette expérien esur{0, 1}
⊗n
:E
Bin
=
p
θ
:
{X} 7→ θ
P X
i
(1
− θ)
n−P X
i
, θ
∈ [0, 1]
.
(1.3)Quant aux fon tions ontinues, l'exemple type est le gaussienne. Nous nous
in-téresserons en parti ulier aux expérien es de dé alage gaussiennes, où la varian e
de la gaussienne est xée etoù leparamètre est lamoyenne :
E
gs
=
N (θ, I
−1
), θ
∈ R
d
,
(1.4) oùN
est la loinormale,etI
toutematri e déniepositivexée1 .
Ce que nous pouvons faire
Une foisa quises nos données
X
, ommentles traitons-nous?La pro édure la plus générale onsiste à tirer une nouvelle variable aléatoire
Y
de loip
X
dépendant seulement deX
, mesurable en tant quefon tion deX
.1
Nous pouvons voir e proto ole de deux manières. Lapremière est de onsidérer
Y
omme lasolution à e que nous voulons savoir. AlorsY
est un estimateur (ran-domisé),typiquement un estimateur deθ
, auquel as nous ledénoterons égalementˆ
θ
.Mais nous pouvons également onsidérer
Y
ommeune nouvelle variable aléatoire, et que nous avons transformé notre expérien e. Notre nouvelle expérien e est don onstituée deY
de loiq
dans un ensemble{q
θ
, θ
∈ Θ}
sur un espa e(Ω
1
,
B)
, de densité 2q
θ
(y) = T (p
θ
)(y) ˆ
=
Z
Ω
p
X
(y)dp
θ
(X).
(1.5)La transformation
T
est un noyau de Markov.Dans le as lassique, es deux notionssont les mêmes. Toutefois, j'insiste pour les séparer dès maintenant ar elles seront diérentes dans le as quantique.
Exemples
Revenons à notre
n
-é hantillon(1.3) de BernoulliE
Bin
. Notre espa e de probabilité est{0, 1}
⊗n
.Nouspouvons utiliserun noyaude Markov de et espa edans
[0, n]
∩N
qui envoieX = (X
1
, . . . , X
n
)
surY =
P
X
i
. I i, lesp
X
sont simplement des pi s de Dira . Nous obtenons alors une loi binomialepourY
, 'est-à-direq
θ
=
B(n, θ)
. L'expérien e orrespondante estE = {q
θ
, θ
∈ Θ}
.De même, nous pourrions souhaiter onstruire un estimateur
θ
ˆ
. Le plus évident est de prendreX
7→
P
X
i
/n = Y
. La loi de notre estimateur est alors la binomiale i-dessus, divisée parn
.Pour e qui est de trouverun estimateur dansl'expérien e(1.4) de dé alage gaussi-enne
E
gs
, lapremière idée est en oreplus simple: ongardeX
. Lenoyaude Markov orrespondant est l'identité.Ce que nous voulons savoir
Nous souhaitons en général obtenir de l'information sur le pro essus sous-ja ent in onnu qui a généré nos données. En d'autres termes, nous voulons deviner le
2
Nouspourrionsaussibientravaillerave desensemblesnondominésdelois,mais elaneferait qu'alourdir les notations. Nous faisons don l'hypothèse que toutes les lois ont une densité, et
paramètre 3
θ
.Nouspouvons donner notresolution soitsous laforme d'un intervallede onan e,
soit par une estimation de notre quantité, éventuellement assortie d'estimations de la varian e de ette estimation. Cette estimation orrespond à la donnée d'un
estimateur
θ
ˆ
deθ
.Nous voulons onstruire un bon estimateur. Nous avons don besoin de pouvoir
jauger les estimateurs. En théorie de la dé ision, nous onsidérons une fon tion de
oût
c(θ, ˆ
θ)
. C'est le oût que l'on doit payer si notre estimateur renvoieθ
ˆ
quand le vrai paramètre estθ
. Ainsi, les fon tions de oût sont en général nulles sur la diagonale, etaugmentent quandθ
etθ
ˆ
s'éloignent dans un ertainsens.Une fon tionde oût typique quand
Θ
est dis retdénombrable seraitc(θ, ˆ
θ) = δ
θ,ˆ
θ
. QuandΘ
est un sous-ensemble ouvert deR
d
, la fon tion de oût la plus fa ile à
traiter mathématiquementest le arré de la distan e eu lidienne
c(θ, ˆ
θ) =
kθ − ˆθk
2
2
, ouplus généralementtoutefon tion de oût quadratique(θ
− ˆθ)
⊤
G(θ
− ˆθ)
pour une matri e déniepositive
G
, éventuellementdépendant deθ
.Comme
θ
ˆ
est une variable aléatoire, nous voulons minimiser l'espéran e du oût, appelée le risqueau pointθ
:r
θ
(ˆ
θ) =
Z
Ω
1
c(θ, ˆ
θ)dq
θ
(ˆ
θ).
(1.6)Cependant, nous ne pouvons minimiser dire tement ette expression, omme la
meilleurestratégiedépendde
θ
,quiestin onnu.Nousdevons don trouverlemoyen de hoisirunestimateure a e pourθ
quenousrisquonsderen ontrer.Ilya essen-tiellementdeux appro hes. Lesphysi iens favorisent leparadigmebayésien, oùnousadmettonsl'existen ed'uneloiapriori surleparamètre
θ
.Lesmathémati iensvont en généralpréférer les ritères minimax,où une stratégie est évaluée par son as lepire.
Critère bayésien
Nousavons onsidérédes données
X
de loip
.Jusqu'i i,nousétionspartiduprin ipe que notre seule information était l'expérien e, l'ensemble dont nous savons qu'ilontient
p
. 3Plus généralement, on peut être intéressé seulement par une fon tion
f
deθ
. Cependant, on peut toujours utiliser(θ, f (θ))
omme paramètre. On hoisiradès lors les fon tions de oût introduites i-dessouspourqu'ellesnedépendentquedef (θ)
.Supposons maintenant quenous avons davantage d'informations. Plus pré isément,
onnous a ditavantl'expérien e que
θ
est hoisi au hasardsuivant une loiπ
.Alors, en moyenne, le meilleur estimateur sera elui qui minimise la moyenne du risque(1.6), 'est-à-dire :
R
π
(ˆ
θ) =
Z
Θ
π(dθ)r
θ
(ˆ
θ)
=
Z
Θ
Z
Ω
1
c(θ, ˆ
θ)dq
θ
(ˆ
θ)π(dθ).
(1.7)À partir du risque de Bayes d'un estimateur spé ique
θ
ˆ
, nous pouvons é rire le risque de Bayes asso iéà laloia prioriπ
omme l'inmum des risques sur tous les estimateursθ
ˆ
:R
π
= inf
ˆ
θ
R
π
(θ).
(1.8)La faiblesse de ette appro he vient de e qu'il n'y au une raison pour avoir une
loi de probabilité a priori sur
Θ
, mis à part la fon tion de Dira sur le vraiθ
... qui est exa tement e que nous souhaitons trouver. Nous avons don à hoisir une loi a priori et à onsidérer que 'est la vraie. Le risque de l'estimateur nal serasous-estimé, ependant.
La plus grande for e des estimateurs bayésiens est qu'ilsutilisent de manière
opti-male l'informationdes mesures, à loi a priori donnée. La loia priori orrespond à
de l'information a priori en général fausse. De e fait, les meilleures lois a priori sont hoisies pour minimiserl'informationqu'elles ontiennent
4
. Pour un
Θ
ni, on hoisira d'habitude l'équiprobabilité a priori sur haqueθ
possible. Sur un sous-ensemble pré ompa t ouvert deR
d
, on hoisira souvent la loi a priori de Jerey Jereys (1946), proportionnelle à la ra ine arrée de l'informationde Fisher (1.13)
donnée i-dessous. Uneanalyseà
θ
xémontrentque es estimateurssont trèsbons en général.Lesestimateurs bayésiens peuvent être al ulésen déterminantlesloisa posteriori.
Dans ertains assimples, es al ulspeuventêtreréalisésexpli itement,et l'estima-teur sera lebary entre des
θ
pondérés par leurs vraisemblan es. Danslessituations plus omplexes, onutiliserales haînes de Markov Monte-Carlo.Critères minimax
Soit qu'il est pessimiste ou mégalomane, le mathémati ien part du prin ipe qu'il
joue ontre le Diable. Aussi, il veut mettre au point une stratégiee a e quel que
4
soitle vrai
θ
. Un estimateurθ
ˆ
est don évalué par savaleurdans le pire des as :R
M
(ˆ
θ) = sup
θ
r
θ
(ˆ
θ).
(1.9)Le risque minimax est le risque du meilleur estimateur,dit estimateur minimax:
R
M
= inf
ˆ
θ
R
M
(ˆ
θ) = inf
ˆ
θ
sup
θ
r
θ
(ˆ
θ).
(1.10)Le défaut de ette méthode est qu'elle peut onduire à aaiblir l'estimation sur
intuitivement beau oup de valeurs possibles de
θ
an d'être e a e dans quelques as parti uliers. Ce problème est ontourné en ré lamant d'être adaptatif,'est-à-dire d'être minimax sur toute une lasse de sous-ensembles de
{p
θ
}
.Cette dernière te hnique s'utilise surtouten statistiquesnon paramétriques.L'intérêt de es méthodes est qu'elle ne font au une hypothèse. Elles donnent une e a ité dontnous savonsqu'elle est atteinte, àpartirdumomentoùlemodèle (ou
l'expérien e) lui-même est juste.
Liens entre ritères bayésiens et minimax
Lelienprin ipalentre esdeux ritèresvientdelaremarquesuivante.Siunestratégie
ˆ
θ
est optimaleau sens bayésien pour une loi a priori quel onque, et si le risque deˆ
θ
ne dépend pas deθ
, alorsθ
ˆ
est optimaleau sens minimax.En eet, pour tout
π
, lerisque de Bayes est plus faibleque lerisque minimax:R
π
(ˆ
θ)
≤ sup
θ
r
θ
(ˆ
θ) = R
M
(θ),
(1.11)ave égalitési etseulement sile risque au point
θ
est le mêmeπ
-presque partout.Sous ertaines onditions,l'énon éinverseest vrai:unestimateurminimaxest opti-malpour uneloia priori pré ise, elle pourlaquelle lerisque bayésienest maximal.
Nousdis uterons de questions similairesauChapitre 3.
Exemple
Nous al ulons le risque de l'estimateur susmentionné pour la famille de dé alage
normale
N (θ, I
−1
)
. Donr
θ
(ˆ
θ) = E
θ
h
(θ
− ˆθ)
⊤
G(θ
− ˆθ)
i
= Tr(G
I
−1
).
(1.12)Ce risque aupoint
θ
ne dépend pas deθ
, sibien que ettemême valeur est aussiles risquesminimaxetbayésiens pourtouteloia priori de et estimateur.Nousverronsplus bas que et estimateur est aussi minimax pour lemodèle.
Le reste de ette se tion résumebrièvement lesrisques que l'on peut attendre dans les as susamment réguliers, pour des fon tions de oût quadratiques.
Information de Fisher
Les risques que nous donnons i-dessus dépendent de la question (la fon tion de
oût) et de l'expérien e
{p
θ
, θ
∈ Θ}
, mais pas d'un estimateur parti ulier. Nous pouvons don leslire dire tement sur l'expérien e.Lanotionlaplusimportanteà etten est elledematri ed'informationde Fisher.
C'est une notionlo ale,qui peut être interprétée ommeune mesure de lavitesse à laquellenouspouvonsdistinguer
p
θ
desp
θ+dθ
environnants.LabornedeCramér-Rao dé rite dans la pro haine se tion expli ite ette interprétation. Notons que pour equi suit, il faut que le modèle soit assez régulier. Deux fois diérentiable en
θ
est plus que susant.L'informationde Fisher aupoint
θ = (θ
α
)
α=1...d
est donnée partonsI
α,β
(θ) =
Z
Ω
∂ ln(p
θ
(X))
∂θ
α
∂ ln(p
θ
(X))
∂θ
β
dp
θ
(X).
(1.13)La matri e d'information de Fisher est dénie positive, et dénit une métrique sur
Θ
,qui est invariantepar hangementde variableslisse. Ce faitpeut êtrevu omme le lien le plus basique entre statistiques et géométrie diérentielle. La géométriediérentielle peut être utilisée pour étudier les asymptotiques d'ordre supérieur,
ommepar exempledans le livre d'Amari(1985).
En développant le logarithme des produits, nous onstatons fa ilement qu'avoir
n
é hantillonsdedonnéesmultipliel'informationdeFisherparn
, 'est-à-direI
(n)
(θ) =
n
I
(1)
(θ)
où
I
(n)
estlamatri ed'informationdeFisherdel'expérien e
E
(n)
=
{p
⊗n
θ
, θ
∈
Borne de Cramér-Rao
Nous pouvons utiliser la matri e d'information de Fisher pour trouver une borne
inférieure sur la matri ede varian edes estimateurs lo alementnon biaisés :
Z
Ω
1
(θ
− ˆθ)(θ − ˆθ)
⊤
dq
θ
(ˆ
θ)
≥ I
−1
(θ).
(1.14) Cette borne tient5
pour tous les estimateurs lo alement non biaisés
θ
ˆ
, 'est-à-dire aussi longtemps queR ˆ
θdq
θ
(ˆ
θ) = θ
et∂/∂θ
i
R ˆ
θ
j
dq
θ
(ˆ
θ) = δ
i,j
.Comme onséquen eimmédiate,pourunefon tionde oûtquadratique
(θ
−ˆθ)
⊤
G(θ
−
ˆ
θ)
ettouslesestimateurslo alementnonbiaisés,nousobtenons etteborneinférieure sur le risque au pointθ
:r
θ
(ˆ
θ)
≥ Tr(GI
−1
).
(1.15) Cetteborneestasymptotiquementsaturée. Eneet,uneexpérien eden
-é hantillon ressemble de plus en plus à une expérien e de dé alage gaussienne, pour laquellela borne est saturée. L'expli ation pré ise vient de la théorie de la onvergen e
d'expérien es de Le Cam,que nous esquissons plus avant à laSe tion 1.7.1.
Exemples
Cal ulons l'information de Fisher pour l'expérien e de Bernoulli, en un point
θ
diérent de0
et de1
. L'expression se simplie légèrement omme nous n'avons qu'un paramètre.I(θ) = θ
d ln(θ)
dθ
2
+ (1
− θ)
d ln(1
− θ)
dθ
2
=
1
θ
+
1
1
− θ
=
1
θ(1
− θ)
.
De e i et notre remarque pré édente sur les
n
-é hantillons, nous déduisons queI(θ) = n/(θ(1 − θ))
dans l'expérien ebinomialeE
bin
.Un al ul un peu plus pénible montrerait que la matri e d'information de Fisher
d'uneexpérien ede dé alage gaussienneest l'inversede lavarian edes gaussiennes.
5
Lesestimateurssupere a estell'estimateurdeSteinmontrentqu'onnepeutpassimplement éliminerla onditiond'êtrelo alementnonbiaisé.Cependant, ette onditionpeutêtresupprimée auprixdemodi ationste hniques, onsistantessentiellementà onsidérerl'e a itésurtoutun voisinagede
θ
, soitdansuneappro heminimax,soitbayésienne.D'oùnotre hoixdenotationdansl'équation(1.4).Deplus,après omparaisonentre
laborne (1.15)et lerisque (1.12) de l'estimateur onsistantà prendre
X
lui-même, nous obtenons l'optimalité de e dernier estimateur dan la lasse des estimateurslo alement non biaisés.
Nousallons maintenant nous atta her à donnerdes équivalents de es notions dans
le mondequantique.
1.1.2 Objets et Opérations Quantiques
Les livres de Helstrom (1976) et Holevo (1982) sont les référen es habituelles en
statistiques quantiques. Nouspouvons également ajouter l'arti lede revue plus ré- ent de Barndor-Nielsen et al. (2003). Comme nous l'avons déjà mentionné, nous
avons résumé dans le Tableau 1.2, page 27, les ingrédients de base des statistiques
quantiques, ave leTableau lassique orrespondant 1.1en regard.
États, opérateurs densité
L'objet de base des statistiques quantiques est l'état. L'état est l'équivalent d'une
loide probabilité.
Nous le dénissons sur un espa e de Hilbert
H
. Son expression mathématique est donnée par l'opérateurdensité.Denition1.1.1. Un opérateurdensité
ρ
surun espa ede HilbertH
est un opéra-teur à lasse de tra e doté des propriétés suivantes :Auto-adjon tion :
ρ
est auto-adjoint. Positivité :ρ
est positif.Normalisation :
Tr(ρ) = 1
.Ces onditionssontleséquivalentesde ellesquirégissentlesmesuresdeprobabilité: es dernières sontréelles (
=
auto-adjointes), positiveset normaliséesà un.Pour les espa es de Hilbert de dimension nie, les opérateurs sont des matri es, et
lesmatri esdensitésatisfontégalementaux onditions i-dessus.Lavariétédesétats
est de dimension réelle
d
2
− 1
Exemple : Qubits
La situation la plus élémentaire orrespond à
dim(
H) = 2
. Physiquement, e sys-tème pourrait être le spin d'un éle tron. Ces états sont appelés états qubit, etsontlargement utilisésen informationquantique.
Nousdénissons lesmatri es de Pauli omme
σ
x
=
0 1
1 0
,
σ
y
=
0
i
−i 0
,
σ
z
=
1
0
0
−1
.
(1.16)Comme une matri e densité est auto-adjointe, elle sera une ombinaison linéaire
réelle de es trois matri es et de l'identité
1
. La positivité et la normalisation im-posent de plus :ρ =
1
2
1 + ~θ
· ~σ
,
k~θk ≤ 1,
(1.17) ave~σ = (σ
x
, σ
y
, σ
z
)
un ve teurde matri es.Nous voyons que nous avons déjà besoin de trois paramètres réels pour dé rire les états qubit, onfer leparamètreunique dontnous avons besoinpourdé rire uneloi
sur un espa e lassique à deux éléments.
États purs
L'ensembledesmesures deprobabilitépeut êtrevue ommel'enveloppe onvexedes
fon tions delta.De même,les états sontl'enveloppe onvexe des états purs.
Lesétatspurssont ara térisésparlefaitd'êtredesopérateurs derangun,devaleur
propreun. Nouspouvons lesé rire
|ψi hψ|
,où|ψi
est un ve teur de normeun dansH
. Les états purs peuvent don être vus omme des points de l'espa e proje tif asso iéàH
.Ilssontextrêmementimportants:denombreusesdes riptionsdelamé anique
quan-tiquetraitentuniquement lesétatspurs. Lesétats générauxsontdes mélanges las-siques d'états purs. Un état qui n'est pas pur est ditmélangé.
Contrairement aux fon tions delta, oùil sut de tirer une fois la variable aléatoire
pour identierlaloiin onnue, iln'existe pas demesure permettantd'identier sans
ambiguïtén'importequelétat pur,quand bienmême noussaurionsauparavantque l'étatest pur. Cettediéren efondamentaleave le as lassique estune marquede
Pour lesqubits paramétrés omme i-dessus, lesétatspurs orrespondent à
k~θk = 1
Cette paramétrisation par une sphère, appelée sphère de Blo h, nous donne une intuition graphiquepour lesproblèmes sur les qubits.La dimension réelledes états purs est de
2(d
− 1)
sidim(
H) = d
. États ohérentsLes qubits sont l'exemple-type des états de dimension nie. Les états ohérents 6
formentl'autre famillefondamentale d'états.
Ces états vivent dans l'espa e de Fo k 7
F(C)
, 'est-à-dire l'espa e de Hilbert de dimension innieℓ
2
(N)
. Nous notons par
{|ki}
k∈N
la base anonique deℓ
2
(N)
. Les
physi iens appellent
|ki
lek
-ième état de Fo k.Les états sur l'espa e de Fo k sont eux de l'os illateur harmonique, omme par
exemple l'état de la lumière mono hromatique, i.e. l'état d'un laser. Nos sommes don sur leterrain de l'optique quantique. Parmi es états, lesétats ohérents sont
en un sens lesplus lassiques: ilssaturentles relationsd'in ertitudede Heisenberg.
Ils sont donnés par un oe ient
θ
omplexe, soit deux paramètres réels. Comme e sont des étatspurs, nous pouvons lesdé rire par un ve teur deF(C)
, pluttque par un opérateur 8 :|θ) = exp(−|θ|
2
/2)
n
X
k=0
θ
k
√
k!
|ki .
(1.18)États multipartites, états intriqués
Considérons deux objets quantiques
ρ
1
etρ
2
surH
1
etH
2
. Ils peuvent être vus ommeun seul objetquantique sur l'espa eH = H
1
⊗ H
2
, d'étatρ = ρ
1
⊗ ρ
2
. Tout état sur pareil espa e de Hilbert produit est appelé état multipartite.Main-tenant ertains états multipartites ne peuvent pas être é rits omme une
ombi-naison onvexe
P
c
i
ρ
i
1
⊗ ρ
i
2
, ave desc
i
positifs. Nous pourrions avoir besoin dec
i
6Plus généralement,tousles étatsgaussienséventuellement ompressésjouentunrle majeur en optique quantique et, omme nous allonsle voir,en statistiques quantiques. Dans l'exemple, nousnousrestreignonsauxétats ohérentsparsou idesimpli ité.
7
Les états ohérents de dimension supérieure à deux sont des produits tensoriels d'états o-hérentssurl'espa edeFo kproduit
F(C
d
) =
F(C)
⊗d
. 8
Nousutiliserons lanotation
|θ)
aulieu duket habituel|θi
and'éviter la onfusion ave les étatsdeFo k,enparti ulierquandθ
estunentierpositif.stri tementnégatifs.End'autrestermes, esétatsnesontpasunmélangestatistique
lassique de paires d'états. Ils ontiennent un ouplage intrinsèquement quantique. De tels états sont appelés états intriqués.
Commençonsparprouverleurexisten e.Nousé rivons
dim
H
1
= d
1
etdim
H
2
= d
2
. Dondim
H = d
1
d
2
. Les états multipartites pur sont des états purs surH
, don onstituent unevariétéde dimension2(d
1
d
2
− 1)
.D'unautre té,un état purde la formeP
c
i
ρ
i
1
⊗ ρ
i
2
ave lesc
i
positifsimpose que la sommene ontiennequ'un seul terme,aveρ
1
etρ
2
tous deux purs. Ladimension de lavariété de es états produit est2(d
1
+ d
2
− 2) < 2(d
1
d
2
− 1)
. Il y a don de nombreux états purs intriqués. Un exemple typique sont les états d'intri ation maximale, 'est-à-dire les états dela forme
|Ψi hΨ|
, ave|Ψi =
1
√
d
P
|ψ
i
i ⊗ |ψ
i
i
, oùH
1
=
H
2
et{|ψ
i
i}
est une base
orthonormale de
H
1
. Commeleur nom l'indique, es états sont aussi intriqués que possible.L'intri ationest peut-être laressour e laplus basique etlaplus essentielle de toute l'informationquantique.Ellejoueunrleau ÷urdelatéléportationquantique,dela
plupartdes proto olesde ryptographiequantiqueetdans lesalgorithmesa élérés
desordinateursquantiques.Lalittératurequiyest onsa réeest tropimmensepour êtreseulementesquissée.Enstatistiquesquantiques,lesétatsintriquéspeuvent être
utilisés pour a élérer l'estimation de transformations quantiques
A tions sur les états
Dans le as lassique, nous avons remarqué quedonner un estimateur ed
θ
,ou plus généralementde n'importequelle fon tiondeθ
,étaitéquivalentàlatransformation de nos données initialespour obtenirunenouvelle variablealéatoireY
de loiT (p
θ
)
.Dans le as quantique, les deux notions sont bien distin tes. En eet, transformer les données signie obtenir un nouvel état quantique, 'est-à-dire un nouvel
opéra-teur sur un espa e de Hilbert. Les états sont transformés quand ils sont envoyés
à travers un anal. Un estimateur d'un paramètre lassique, en revan he, est une quantité lassique.Nousobtenonsdon unevariablealéatoire lassique.Cesdonnées
lassiques sont obtenues en ee tuant une mesure de l'état.
Sinous souhaitons simplement onsidérerles estimateurs,pourquoi s'intéresser aux anaux? En eet, l'appli ation de anaux su essifs suivie d'une mesure peut être
résumée à une mesure plus omplexe.
de la normalité asymptotique lo ale quantique forte, dont l'étude forme l'essentiel
de ette thèse, est de transformer des expérien es en d'autres expérien es quasi-équivalentes, et plus simpleset mieux onnues.
Deuxièmement,les anauxdé riventdestransformationsquantiques.Nouspourrions
souhaiterétudierlatransformationelle-même,pluttquel'état.Typiquement, ette transformationpourraitêtre générée par une for eque nous voulons mesurer. Nous
nous étendrons davantage sur le sujetauChapitre 4.
Nousappelonsinstrument unefon tionquiretourneà lafois desdonnées lassiques
et quantiques en prenant un état quantique en entrée. Les véritables instruments de mesuresont en faitdes instruments,quand bien mêmel'état de sortie peut être
oublié. En parti ulier, les mesures en temps ontinu sont ommunes en pratique.
Typiquement,nousmesuronsle hampéle tromagnétiqueparsonintera tionave la matière, ommeauChapitre8.Cesmesurespeuventêtrevues ommeunesuite
d'in-strumentsinnitésimaux.É rire leséquations orrespondantes est le butdu ltrage
quantique, réé par Davies etBelavkin (Bouten etal., 2006, foran introdu tion).
Mesures, POVMs
Sinousvoulonsee tuerdel'inféren estatistique lassiquesurlesparamètres in on-nus, il nous faut traduire notre information quantique en information lassique. À
ette n, nous ee tuons unemesure. Commeles états mélangés sont des mélanges
lassiquesd'étatspurs,nousexigeonsque ettetransformationsoitlinéaire.Deplus, lasortiedoittoujourssuivreuneloide probabilité lassique.De e i,nousdéduisons
la formesuivantepour lesmesures physiquement permises :
Denition 1.1.2. Une mesure à valeur dans les opérateurs positifs, ou POVM, de l'a ronyme anglais, sur un espa e mesuré
(Ω,
A)
est une ensemble{M(A)}
A∈A
d'opérateurs bornés sur
H
tels que :M(Ω) = 1
H
.M(A)
est positif.Pour toute olle tion dénombrable
(A
i
)
i∈N
d'A
i
disjoints,nous avonsM(
S
A
i
) =
P
M(A
i
)
.On remarqueraque e sontexa tement lesaxiomes habituelsd'unemesurede
prob-abilité, à e i près que nous utilisonsdes opérateurs aulieude nombres réels. Nous
appelons haque
M(A)
un élément de POVM.Appliquer une mesure
M
à un étatρ
génère une loiP
ρ
sur(Ω,
A)
, donnée par la règle de Born :Au Chapitre 5, nous examinerons une relationd'ordre spé ique sur lesPOVMs.
Quelquesremarquess'imposent.Toutd'abord,nouspouvonsin luretouttraitement
lassiquedesdonnéesdanslaPOVM.Eneet,ee tuerlamesure
M
,puisappliquer lenoyaudeMarkovT
(dénipar(1.5))àlavariablealéatoiredesortieestéquivalent à ee tuer la mesureN
sur(Ω
1
,
B)
donnée parN(B) =
R
Ω
p
ω
(B)M(dω)
. Si bien que travaillerave des POVMs est équivalent àtravaillerave des estimateurs.Deuxièmement, en général, nous ne pouvons pas mesurer simultanément
M
1
etM
2
sur(Ω
1
,
A
1
)
etΩ
2
,
A
2
)
. Contrairement au as lassique, où l'on peut obtenir si-multanément les résultats de l'appli ation des noyauxT
1
etT
2
. En eet, mesurer à la foisM
1
etM
2
signie mesurerN
sur(Ω
1
⊗ Ω
2
)
aveN(A
1
× Ω
2
) = M
1
(A
1
)
etN(Ω
1
× A
2
) = M
2
(A
2
)
. Un ontre-exemple simple illustrant le rle de la non- ommutativitéest donnéparM
1
etM
2
toutes deux déniessur{0, 1}
, aveM
1
(0) =
1 0
0 0
,
M
1
(1) =
0 0
0 1
,
M
2
(0) =
1
2
1 1
1 1
,
M
2
(1) =
1
2
1
−1
−1
1
.
Toutes es matri es sont de rang un. Il fautmaintenant
N(0, 0) + N(0, 1) = M
1
(0)
. Comme tous les éléments de POVM sont positifs, nous obtenonsM
1
(0)
≥ N(0, 0)
. CommedeplusM
1
(0)
estderangun,nousavonsN(0, 0) = c
1
M
1
(0)
pourun ertain0
≤ c
1
≤ 1
. De mêmeN(0, 0) + N(1, 0) = M
2
(0)
. Si bien queN(0, 0) = c
2
M
2
(0)
. La seule solution estc
1
= c
2
= 0
etN(0, 0) = 0
. Lemême raisonnement tient pourN(0, 1)
,N(1, 0)
etN(1, 1)
.Parailleurs,ilfautqueN(
{0, 1}
2
) = 1
C
2
.Contradi tion.Finalement,on roitquetoutes esmesuressontpermisesparlesloisdelaphysique.
Maisellespeuventêtretrès duresàimplémenteren pratique.Enparti uliersil'état est multipartite, il peut être raisonnable de se restreindre à des lasses de mesure
plus petites.Notamment,sidiérentespersonnespossèdent diérentes parti ulesen
des lieux diérents, elles ne pourront pas implémenter une mesure générale, même
s'ils oopèrent.Lemieuxqu'elles puissentfaireest :l'uned'ellesmesuresaparti ule (éventuellement ave un état quantiquenon trivialen sortie),donnele résultataux
autres, qui hoisissent quel mesure ee tuer sur leurs parti ules, garde l'état de
sortie et donnent le résultataux autres, eton itère. De telles mesures, qui utilisent uniquementdesopérationsquantiqueslo alesetles ommuni ations lassiques,sont
appelées LOCC :Lo alOperations,Classi alCommuni ation.
En information quantique, quand le système (souvent intriqué) est divisé entre
plusieurs personnes, nous nous restreignons naturellement aux opérations LOCC. En estimation quantiqueave
n
opiesde l'état initial, nous sommes intéressés par e quenous pouvons réaliser ave des mesures LOCC, beau oup plus simples àim-généralement améliorerla pré isionde lamesure par des mesures olle tives, e qui
peut paraître surprenant pour des physi iens, puisque les
n
opies sont totalement indépendantes.Dans ertains as,enparti ulierquandnoussavonsquel'étatest pur(Matsumoto, 2002), les mesures olle tives n'améliorent guère les mesures LOCC.
Cela peut surprendre les mathémati iens, omme l'espa e des mesures olle tives est beau oup plus grand que eluides mesures LOCC.
Exemple : Spin
z
Considérons lamesure binairesur lesqubits donnée par
M(
↑) =
1 0
0 0
=
1
2
(1 + σ
z
),
M(
↓) =
0 0
0 1
=
1
2
(1
− σ
z
).
Cette mesureappliquée à l'état
ρ =
1+~
θ·~σ
2
renvoie↑
ave probabilitéTr(ρM(
↑)) =
1
2
Tr(1M(
↑)) +
X
α=x,y,z
θ
α
Tr(σ
α
M(
↑))
=
1
2
(1 + θ
z
).
En parti ulier, si
θ
z
= 1
, la sortie est toujours↑
. À l'inverse, siθ
z
=
−1
, la sortie est toujours↓
. D'autrepart, siθ
x
= 1
, sibienqueθ
z
= 0
,lasortie seraoubien↑
ou bien↓
ave probabilitéun demi,alors que l'étatρ
est pur.Les mesures de e genre, où tous les éléments de POVM sont des proje teurs, sont
aussiappeléesobservables.Ellesgénèrentdel'informationuniquementsurlabaseoù
tous les éléments de POVM sont diagonaux. A essoirement, les axiomes usuels de la mé aniques quantiques restreignent lesmesures auxobservables. Nosré upérons
l'ensemble des POVMs en appliquant une observable à un état multipartite dont
notre état n'est qu'une partie; 'est lethéorème de Naimark.
Mesure hétérodyne
La mesure hétérodyne tire son nom de la te hnique utilisée pour l'implémenter
en laboratoire, ave des lasers déphasés. Cette POVM de sortie dans
C
se dé rit mathématiquementpar :M(A) =
1
π
Z
A
|z)(z|dz,
(1.20)La loi du résultat de la mesure de
ρ
a don pour densité(z
|ρ|z)
par rapport à la mesurede Lebesgue,aupointz
.En parti ulier,laloi du résultatde lamesure d'un état ohérent est une gaussienne :q
θ
(dz) =
1
π
(z
|θ)(θ|z) =
1
π
exp(
−|θ − z|
2
).
(1.21)Si nous onsidérons tous les
θ
omplexes, nous re onnaissons une expérien e de dé alage gaussienne (1.4) surR
2
.
Plus généralement, la densité de la loi du résultat de la mesure d'un état
ρ
est appelée fon tion de Husimi de l'état :H
ρ
(dz) =
1
π
(z
|ρ|z).
(1.22)Lesétatsdontlafon tionde Husimiest unegaussiennesontappelés étatsgaussiens.
Canaux
Nousdé rivons maintenant ommentobtenirun nouvelétatquantiqueàpartird'un premier.Notez quel'état originalest détruitau ours du pro essus.
Une transformation physique d'un objet prend un état et renvoie un aure état, éventuellement sur un espa e de Hilbert dièrent. Elle est dé rite par un anal,
l'équivalentd'un noyaude Markov.
Pour rappel, un superopérateur positif
E
est une appli ation qui asso ie à haque opérateurA
positifun résultatE(A)
égalementpositif.Denition 1.1.3. Un anal
E
est une appli ation de l'ensembleT (H
1
)
des opéra-teurs à lasse de tra e, dansT (H
2
)
, doté des propriétés suivantes :Linéarité :
E
est linéaire.Positivité omplète : pour tout espa e auxiliaire
H
3
, le superopérateurE ⊗ Id :
T (H
1
⊗ H
3
)
→ T (H
2
⊗ H
3
)
donné par(
E ⊗ Id)(ρ ⊗ σ) = E(ρ) ⊗ σ
est positif. Préservation de latra e :Tr(
E(A)) = Tr(A)
.Notez que les noyaux de Markov satisfont à es ritères, quand on rempla e les opérateurs par des mesures
9 .
9
Dans le adre plus général des
C
∗
-algèbres, les espa es de fon tions sont des
C
∗
La né essité de la linéaritépeut être prouvée par l'axiome d'évolution unitaire 10
et
en in luantl'observateur dans le système.
Nousvoulonsque l'imaged'unétat soitun état, don un opérateurpositifdoit être
envoyésur un opérateurpositif.Pour omprendred'où vientl'exigen ede positivité
omplète, onsidérons un état éventuellement intriqué sur
H
1
⊗ H
3
. Si nous trans-formons l'état surH
1
, nous transformons aussi l'état surH
1
⊗ H
3
, par le analE ⊗ Id
.Don ette dernière transformationdoit aussi être positive.D'oùla requête de omplète positivité.Finalement, la sortie est un état si l'entrée est un état, et tous deux ont tra e un,
don latra e doit être onservée.
Nous onsidéreronssouventdes anauxdupointdevue(pré)dual, 'est-à-dire omme
agissant sur les éléments de
B(H)
. Nous dénissonsTr(
E(ρ)A) = Tr(ρE
∗
(A))
pour tout étatρ
et tout opérateur bornéA
. Dans e as,E
∗
est aussi une appli ation linéaire omplètement positive, mais nous devons rempla er la préservation de latra e par la préservation de l'identité, 'est-à-dire
E
∗
(1) = 1
.Notations : Nous utilisonsd'habitude les lettres
E
ouF
pour les anaux. Par abus de notation, nous ne noterons en général pas l'étoile pour le prédual et é rirons égalementE
dans e as. Cependant, es notations standard sont également les notations standardpour lesexpérien es;Aussi,dans les hapitresoùnousutilisonsette dernièrenotion, nousdésignerons les anauxde la mêmefaçonquelesnoyaux de Markov, à savoirpar
T, T
n
, S, S
n
.Représentation de Kraus, théorème de Stinespring
La dénition donnée i-dessus ne permet pas une manipulationsimple des anaux.
Heureusement,nousdisposonsdedeuxthéorèmesdereprésentationquidé riventles
appli ations omplètement positives de manière plus pratique. Le livre de Paulsen (1987) est une bonneréféren e sur es sujets.
Lareprésentationde Kraus(1983)est l'outilprin ipalquand l'espa edeHilbertest
de dimension nie.
Theorem1.1.4. Une appli ation omplètement positive
E
deM(C
d
1
)
dansM(C
d
2
)
peut s'é rireE(A) =
X
α
R
α
AR
∗
α
,
(1.23) 10La mé anique quantique arme que l'évolution d'un système est donnée par
ρ(t) =
U (t)ρ(0)U
∗
(t)
, où
U (t)
est un opérateur unitaire qui peut être al ulé à partir de l'opérateur auto-adjointH
appelélehamiltonien.Silehamiltoniennedépendpasdutemps,alorsU (t) = e
itH
où
α
va de1
àd
1
d
2
au plus, etR
α
∈ M
d
2
,d
1
(C)
. L'étoile représente l'adjon tion.De plus, le anal préserve la tra e si et seulement si
P
R
∗
α
R
α
= 1
C
d1
.Cettedé ompositionn'est pas unique.Le analdual est donnépar
A
7→
P
R
∗
α
AR
α
.En dimension innie, nous utiliserons de préféren e le plus puissant théorème de
dilatation 11
de Stinespring (1955).
Theorem 1.1.5. Soit
E : B(H
1
)
→ B(H
2
)
une appli ation omplètement positive. Alors il existe un espa e de HilbertK
et un *-homomorphisme (ou représentation)π :
B(H
1
)
→ B(H
2
)
tels queE(A) = V π(A)V
∗
,
(1.24)
où
V :
K → H
est un opérateurborné.De plus, si
E
préserve l'identité, alorsV
est une isométrie, 'est-à-direV V
∗
= 1
H
.Side plusnous imposons que
K
soitlafermeturede l'espa e ve toriel engendré parπ(A)V
∗
H
, alors ladilatationest unique àdes transformationsunitairesprès.
Instruments
Nousdonnons lesreprésentationsd'instrumentsen dimensionnie 12
.Pour simplier
davantage les notations, nous nous pla erons dans le as oùla mesureaun nombre ni d'issues.
Denition1.1.6. Un instrument estdonné par unensemble
{N
ω,k
}
de matri es deH
1
dansH
2
, tel queX
ω
X
k
N
ω,k
∗
N
ω,k
= 1
H
1
.
La mesure orrespondanteest donnée par
M(ω) =
X
k
N
ω,k
∗
N
ω,k
,
11
EnfaitlethéorèmedeStinespringaétéprouvépourtoute
C
∗
-algèbreunitaire.Onpeutprouver qu'ilimpliquelethéorèmedereprésentationdeKraus,ainsiquelareprésentationGNS,unebase delathéoriedesalgèbresd'opérateurs.
12
Endimensioninnie,ilfautsepla erdansle adredes
C
∗
-algèbres,etuninstrumentestalors simplementun analentre
C
∗
et l'état de sortie quand le résultat de lamesure est
ω
est donné parN (ρ, ω) =
P
k
N
ω,k
ρN
ω,k
∗
Tr(ρM(ω))
.
L'état de sortie vit dans
H
2
.Nous avons désormais une nouvellemanière de omprendre pourquoi nous ne
pou-vonspasmesurerdeuxPOVMssimultanément:aprèsavoirmesuré
M
,l'objet quan-tique, don notre donnée, a en général été perturbé. En fait, si la mesure est su-isamment ri he, l'état de sortie ne dépend que du résultatω
de la mesure, et plus du tout de l'état d'entrée.Nous avons désormais tous les outils pour transposer les statistiques lassiques au
monde quantique.
1.1.3 Statistiques quantiques
Nous travaillons d'habitude sur les états quantiques; à l'o asion, nous voudrons
obtenir des informationssur un anal.Nous traitonsles deux as séparément.
États: e quenous avons, e que nous pouvons faire, e quenous voulons
savoir
Demanièreanalogueau as lassique,nousdisposonsd'habituded'unétatquantique
ρ
, quenous savons être dans l'ensembleE = {ρ
θ
, θ
∈ Θ} .
(1.25)Nous appellerons également et ensembleexpérien e oumodèle.
Dansl'exempledes qubits, lesmodèles usuelsserontlemodèle ompletdemélange, à trois dimensions,
E
m
=
{ρ
θ
,
kθk < 1}
et le modèle à deux dimensions des états pursE
p
=
{ρ
θ
,
kθk = 1}
,où nous avons utilisé laparamétrisation pré édente (1.17) de l'étatρ
θ
. Si nous avonsn
opies de l'état,nous remplaçonsρ
θ
parρ
⊗n
θ
.Un autre exemple typique est le modèle
E
t
=
{ρ
θ
, θ
∈ {θ
1
, θ
2
}}
, où la question habituelle est de dis riminer entre les deuxθ
possibles. Nous étudions e genre deNouspouvonsaprioriutilisern'importequellesuited'instrumentssurl'état.Sinous
voulonssimplementobtenirdesrenseignementssur
θ
,nouspouvonsnousrestreindre auxmesuresM
,lesPOVMs.Nousasso ionsalorsàM
unestimateur,disonsθ
ˆ
,dont la loidépend du vrai paramètreθ
de lamanière suivante :q
θ
(B) ˆ
= P
θ
h
ˆ
θ
∈ B
i
= Tr(ρ
θ
M(B)).
Selon les ir onstan es, nous pourrons permettre toutes les mesures physiques, ou nous restreindre à des ensembles plus petits, omme les mesures séparées ou les
mesures LOCC.
Enn, e que nous voulons savoir est la même hose que dans le as lassique. Nous voulons onnaître une fon tion du paramètre
θ
. Nous voulons don estimerθ
, et évaluer notre estimateurθ
ˆ
au travers d'une fon tion de oûtc(θ, ˆ
θ)
. Comme auparavant, lesfon tionsde oûtlesplus ommunes sont(1
− δ
θ,ˆ
θ
)
sil'ensemblede paramètres est ni, et lesfon tions de oût quadratique(ˆ
θ
− θ)
⊤
G(ˆ
θ
− θ)
pour une
matri e
G
dénie positive, sile paramètre vit dans un sous-ensemble ouvert deR
d
. La matri ede poids
G
peut dépendre deθ
.Nous pouvons à nouveau é rire le risque (1.6) d'un estimateur au point
θ
. Comme nous ne onnaissons pasθ
, nous pouvons utiliser soit le risque bayésien (1.7) pour une loia priori adaptée, soitlerisqueminimax(1.9), etoptimiser(1.8,1.10)sur lesestimateurs disponibles. Notons que la dernière étape dépend de l'ensemble
d'esti-mateurs quenous nous autorisons.
Information de Fisher quantique et bornes de Cramér-Rao
Nous pouvons essayer d'imiter la dénition de l'information de Fisher lassique et
obtenir des ornes similaires sur la varian e des estimateurs. En fait, nous pouvons
onstruire pareil équivalent pour tout hoix de dérivée logarithmique. Nous hoi-sissons la dérivée logarithmique à droite (RLD), dénie pour haque
θ
et haque oordonnéeθ
α
omme lamatri eλ
α,θ
telle que :∂ρ
θ
∂θ
α
= ρ
θ
λ
α,θ
(1.26)sur le support de
ρ
θ
.Alorsl'examende ladénition(1.13)etlerappeldu faitquelarèglede Born(1.19)
est l'équivalentde l'espéran e lassiquerendent naturelleladénitionsuivantedela
matri e d'informationde Fisherquantique :