• Aucun résultat trouvé

Mesure quantique non destructive du nombre de photons

II.2.1 Principe général

L’algorithme présenté ci-dessus est complètement pré-déterminé : l’alternance des di-rections de mesure est fixée, et l’accumulation des détections renseigne progressivement sur le nombre de photons. Or cette successions de mesures faibles n’est pas forcément la plus efficace pour projeter le champ dans l’état nombre de photons. Reprenant l’image du pseudospin, si après quelques détections la projection hSxi est déjà fortement contrainte, il est plus informatif de choisir pour les atomes suivants une mesure selon l’axe Oy. Ceci im-plique une rétroaction sur l’appareil de mesure (l’interféromètre de Ramsey). Cette notion de mesure adaptative a été initialement formulée dans le cadre de l’estimation de la phase d’un mode optique par Wiseman [46]. Elle peut également s’appliquer à notre système, où nous pouvons optimiser l’information apportée par chaque mesure faible.

II.2.1.a Extraction d’information lors d’une mesure faible

On peut considérer la mesure du nombre de photons que nous réalisons sous l’angle de l’information : d’un état quantique contenant potentiellement différents nombre de photons (en superposition quantique ou en mélange statistique), nous cherchons à extraire un seul nombre nc. La mesure projective du nombre de photons (à l’aide de mesures faibles) fait donc passer notre connaissance du nombre de photons d’imprécise (l’estimation initiale uniforme de la distribution P (n)) à exacte (projection dans un nombre de photon donné). Une grandeur usuelle pour quantifier ce manque d’information sur le nombre de photons est l’entropie de Shannon de la distribution P (n) :

S[P ]≡X

n

−P (n) log2P (n). (II.36) À l’aide de cette grandeur, on peut quantifier l’information manquante à chaque étape de la décimation. Une distribution uniforme pour les nombre de photons de 0 à nmax a pour

entropie log2(nmax+ 1). La distribution convergée P (n) = δn,nc est d’entropie nulle. Ainsi pour notre mesure des nombres de 0 à 7, l’entropie de la distribution uniforme est de 3 bits : il nous faut acquérir trois bits d’information pour connaître le nombre de photons (on peut les voir comme les 3 chiffres binaires de la décomposition de nc en base 2)6.

Il est facile de montrer que la mesure faible introduite précédemment réduit systéma-tiquement en moyenne l’entropie de la distribution. En effet, en notant P (resp. P) la distribution de nombre de photons avant et après la mesure à l’aide des deux POVM Ee

et Eg, on peut écrire la valeur moyenne de l’entropie après la mesure :

hS[P]i = πeS[Pe] + πgS[Pg]. (II.37) où nous avons noté P

i (i = e, g) la matrice densité obtenue après détection de l’état i et πi la probabilité de cette détection. On a alors, en utilisant l’actualisation des probabilités P i(n) = Ei(n)P (n)/πi hS[P]i =X n X i πi  −Ei(n)P (n) πi  log2 Ei(n)P (n) πi . (II.38)

La fonction x 7→ −x log2(x) est concave pour x∈ [0, 1], ce qui est la cas des termes sommés Ei(n)P (n)/πi. De plus Piπi = 1. On peut alors écrire une inégalité de concavité (inégalité de Jensen) pour la somme sur i :

hS[P]i ≤X nX i Ei(n)P (n) ! log2 X i Ei(n)P (n) ! = S[P ], (II.39)

puisque par définition des POVM PiEi(n) = 1. On a donchS[P]i ≤ S[P ] : Il y a toujours réduction de l’entropie en moyenne par une mesure faible. Chaque mesure réalisée apporte de l’information sur le nombre de photons. Nous allons maintenant nous intéresser aux façons d’optimiser cette acquisition d’information dans le cadre de notre expérience. II.2.1.b Adaptation de la phase

Un premier paramètre sur lequel nous pouvons jouer est la phase de Ramsey φr. On peut se convaincre de l’intérêt de l’ajustement de cette phase à l’aide de la figure II.9. Sur cette figure nous avons estimé pour une distribution Pk(n) (qui peut être vue comme le résultat de la décimation d’une distribution initiale uniforme par k détections), les distributions Pk+1(n) obtenues après détection de l’atome suivant, selon la direction de mesure employée. Pour cet exemple, φ(n) = n × π/4 et les quatre directions de mesures sont alignées sur

6. Remarquons qu’il existe dans le cadre de la mécanique quantique une définition similaire de l’entropie appliquée aux matrices densités : Sq[ρ] = Tr(ρ log ρ). Cette entropie permet de quantifier la différence entre des mélanges statistiques et des états purs. Elle n’est ici d’aucune utilité puisque si l’état du champ est pur, il le reste sous l’effet de la décimation, et Sq = 0 à tout instant. Ce que nous cherchons à quantifier est bien une entropie d’information sur le nombre de photons.

les pseudospins correspondant à 0,1,2 et 3 photons. Il illustre de manière claire le fait que certaines directions de mesures sont plus informatives que d’autres : la distribution étant piquée sur les nombres de photons 0 et 4, le choix de la direction de mesure a, alignée sur les pseudospins correspondants, permet de faire une distinction claire entre ces deux nombres. L’entropie moyenne après détection est donc minimale pour ce choix de phase. À l’inverse la direction c, orthogonale à ces deux contributions principales, n’apporte que très peu d’information : l’entropie moyenne est à peine réduite.

|g |+0 |e |+1 (a) (b) (c) (d) n Pk (n) Estimation Pk(n) après k détections.

Distributions Pk+1(n) selon la direction de mesure.

�[�� + ] � = , 9 � = , 7 � = , 7 � = , 7 �[��] = ,

FigureII.9 – Optimisation de la phase de Ramsey : étant donnée la distribution après k détections atomiques Pk(n), on peut calculer les distributions après détection de l’atome k+1, et l’entropie moyenne associée. Ceci fait permet de distinguer clairement les directions de mesure favorables (a) ou défavorables (c) à la réduction de l’entropie en moyenne.

On peut donc envisager d’«accélérer» la mesure, en faisant à chaque détection le choix de phase de Ramsey qui minimise l’entropie moyenne, dans le but de converger plus rapi-dement vers un état de Fock, d’entropie nulle :

φopt = arg min

φ=a,b,c,dhS[P]i(φ). (II.40)

La direction de mesure optimale dépendant évidemment de la distribution du nombre de photons, ceci implique de pouvoir effectuer ce choix en temps réel. Cela est rendu possible par l’utilisation d’un ordinateur de contrôle en temps réel, capable d’effectuer les calculs d’entropie moyenne illustrés à la figure II.9, et de contrôler en fonction de l’optimum choisi les potentiels appliqués à la seconde zone de Ramsey pour ajuster la direction de mesure. C’est ce qui a été fait dans les expériences présentées dans ce mémoire.

II.2.1.c Mesure optimale du nombre de photons

Il serait également envisageable de modifier d’un atome à l’autre la valeur du dépha-sage par photon φ0. Celui-ci dépend en effet linéairement du temps d’interaction effectif teff = pπ/2w0/v. L’utilisation d’atomes de vitesses différentes peut donc donner accès à différentes valeurs de φ0. En contrôlant à la fois le déphasage par photon et la direction de mesure en temps réel, il est possible de réaliser une mesure optimale du nombre de photons [108]. Nous en décrivons ici le principe, bien qu’elle n’ait pu être réalisée dans le cadre de cette thèse.

P(n) Écriture binaire de n ϕ0=π, Mesure modulo 2 ϕ0=π/2, Mesure modulo 4 ϕ0=π/4, Mesure modulo 8 Ajustement de la phase de Ramsey

Figure II.10 – Décimation optimale du nombre de photons, illustrée pour nmax = 7 : trois détections atomiques permettent la mesure des coefficients de l’écriture binaire du nombre de photons n. Pour cela le déphasage par photon est varié afin que les trois atomes effectuent une mesure de n modulo 2,4 et 8 respectivement. Cette mesure est informative seulement si la direction de mesure est alignée sur des nombres de photons qui n’ont pas été exclus à la détection précédente, ce qui requiert également un ajustement de la phase de Ramsey à chaque étape.

Cette méthode permet de mesure le nombre de photons entre 0 et nmax + 1 = 2p à l’aide d’exactement p atomes (nous considérons pour cette description un interféromètre parfait). Elle est donc optimale en termes d’information. Elle consiste à chaque étape à

choisir le déphasage par photon de façon à ce que tous les nombres de photons possibles (à cette étape) soient corrélés à deux directions opposés seulement du pseudospin atomique. Le choix d’une direction de mesure alignée sur ces pseudospins permet alors une dichotomie des nombres de photons lors de la détection de l’atome. Une illustration de cette méthode est donnée à la figure II.10 pour nmax = 7. L’algorithme en est le suivant :

– À l’étape 1, la distribution du nombre de photons étant supposée uniforme, le dé-phasage par photon est fixé à φ0 = π ; les nombres de photons de 0 à nmax+ 1 sont donc corrélés à deux états orthogonaux de l’atome en sortie de la cavité, représentés par deux orientations opposées du pseudospin atomique. En mesurant l’atome selon cet axe à l’aide de la seconde zone de Ramsey, on réalise une mesure de parité de n, et la détection dans l’état |ei ou |gi décime donc la moitié des nombres de photons possibles.

– À l’étape 2, le déphasage par photon est pris égal à π/2. Les nombres de photons restant possibles sont à une distance 2 les uns des autres, et sont donc à nouveau corrélés à deux états orthogonaux de l’atome. L’axe portant ces états est conditionné par le résultat de la mesure précédente. Connaissant le résultat de la mesure précé-dente, on peut ajuster la phase de Ramsey et mesurer l’atome selon cet axe, réalisant ainsi une mesure modulo 4 de n, et supprimant la moitié des possibilités restantes. – À l’étape q le déphasage par photon est pris égal à π/q. Les nombres de photons

restant possibles sont à une distance q les uns des autres, et sont corrélés à deux états orthogonaux de l’atome. La connaissance de l’ensembles des résultats précédents permet de déterminer l’axe portant ces états, et de réaliser une mesure modulo 2q de n, qui supprime la moitié des possibilités restantes.

De cette façon, chaque atome q détecté apporte exactement un «bit» d’information, qui est le coefficient de 2q dans l’écriture binaire de n. Il suffit donc en principe de nat = log2(nmax+ 1) pour déterminer complètement le nombre de photons.

En pratique l’interféromètre de Ramsey n’est pas parfait. Le contraste étant fini, on peut alors utiliser des groupes de quelques atomes pour chaque classe de vitesse (chaque déphasage par photon) pour préciser chacun des bits de n avec une fiabilité suffisante. On peut par exemple effectuer un vote majoritaire sur les détections de ces atomes, les deux possibilités à chaque étape étant corrélées aux deux états orthogonaux de l’atome. Le nombre d’atomes nécessaires à la mesure du nombre de photons est alors proportionnel au logarithme du nombre maximum de photons, le préfacteur dépendant du nombre d’atomes détectés par bit7. La mise en place de cette expérience requiert la préparation d’atomes circulaires pour au moins trois classes de vitesses différentes, et des contraintes de temps ont empêché sa réalisation dans la durée de cette thèse.

7. Ceci est vrai si l’on fixe la précision requise (le taux d’erreur) sur chacun des bits. Si l’on impose la contrainte sur le taux d’erreur global dans la détermination de n, plus le nombre de bits à déterminer sera grand, plus il faudra déterminer chacun d’eux avec un taux d’erreur plus faible pour satisfaire au taux d’erreur global. Le préfacteur au log2(nmax+ 1), issu du nombre p d’atomes mesurés par bit devient alors lui-même une fonction de nmax, qui croît cependant plus lentement que le logarithme.