• Aucun résultat trouvé

Mesure optimale pour un registre de qubits

2.3 Extraction optimale d’information

2.3.2 Mesure optimale pour un registre de qubits

On quitte désormais cette courte revue de l’état de l’art pour s’intéresser à un pro-blème de mesure optimale particulier dans lequel la solution habituellement proposée peut-être largement améliorée. Pour plus de détails notamment techniques, on pourra se reporter à l’appendiceF. On s’intéresse à la mesure optimale d’un registre de qu-bits. La lecture d’un registre n’est pas un problème purement éthéré ou académique puisqu’il s’agit de la dernière étape nécessaire d’un calcul quantique. Même s’il n’est pas aujourd’hui possible de construire de grands registres de qubits pour lesquels une amélioration de la vitesse de mesure apporte un gain déterminant, on peut imaginer que la situation change dans un futur proche.

2.3.2.a Énoncé du problème

On considère la mesure continue d’un registre de n qubit. On considère que les qu-bits sont mesurés séparément et indépendamment par n détecteurs. L’état du système

ρt∈Hs⊗Hs avec Hs=Nn

k=1C2 vérifie l’équation maîtresse stochastique24 : t= 2γ n X i=1 D[σz(i)](ρt) dt +p n X i=1 H[σz(i)](ρt) dWt(i) (2.3.4) où σ(i)z =1 ⊗ 1 ⊗ ... ⊗ σz⊗ ... ⊗ 1

avec σzen i-ème position. Les processus de bruit ne sont pas corrélés, i.e. dWt(i)dWt(j)=

δijdt, trace de l’indépendance des détecteurs. On donne l’équation (2.3.4) pour que le modèle considéré soit clair, mais on va rester à un niveau d’explication heuristique dans ce paragraphe et le suivant.

Avant d’exposer brièvement les schémas optimaux open-loop et closed-loop, regar-dons pourquoi on s’attend à ce qu’une accélération d’un facteur ∝ n soit effective-ment atteignable. Les détecteurs mesurent les qubits séparéeffective-ment. En admettant que l’état initial soit maximalement mélangé, la probabilité d’un certain état, par exemple |¯0i = |0i ⊗ |0i ⊗ ... ⊗ |0i, s’écrit comme le produit des probabilités marginales pour chaque qubit25. À cause de cette forme produit, on peut se convaincre facilement que l’état le plus probable (dont la probabilité vaut Λ1) et l’état le «deuxième plus probable» (dont la probabilité vaut Λ2) diffèrent seulement d’un bit, par exemple en position i. Seul un détecteur, celui en position i, apporte donc réellement une informa-tion utile permettant de séparer ces deux états, séparainforma-tion dont on a vu qu’elle était le processus dominant la convergence. Un «bon» schéma de mesure optimale devrait être capable d’exploiter constamment la puissance de discrimination des n détecteurs et fournir une accélération d’un facteur d’ordre n comparativement au cas sans contrôle. Le concept clé dans cette situation, qui va permettre d’ordonner les états d’une manière analogue à ce que l’on avait fait dans le cas de la mesure d’un unique opé-rateur, est celui de distance de Hamming [99]. La distance de Hamming entre deux

24. Le facteur 2 devant γ est choisi pour coller à la convention utilisée dans la littérature, notamment

dans [98].

25. Encore une fois, on rappelle que la situation est classique et qu’on peut donc avoir en tête que la configuration du registre est bien définie et inconnue et qu’on cherche simplement à en calculer la probabilité en fonction des résultats de mesure.

configurations de bits est égale au nombre de bits différents entre elles. Dans le modèle de mesure que l’on considère, la vitesse à laquelle un mélange de deux états collapse est proportionnelle à la distance de Hamming entre les deux configurations corres-pondantes (la distance de Hamming compte essentiellement le nombre de détecteurs «utiles»). L’idée du schéma localement optimal est d’implémenter un changement de base en temps réel tel que l’état correspondant à Λ1 soit fixé, par exemple |¯0i et que les autres soient ensuite ordonnés en fonction de la distance de Hamming à l’état le plus probable. On envoie par exemple l’état correspondant à Λ2 sur |¯1i = |11...1i, à Λ3 sur |011...1i etc. . On s’attend dans ce cas à un gain d’ordre n sur le taux de convergence ce qui est effectivement ce que Combes et al. [97] obtiennent.

Encore une fois, plutôt qu’un algorithme en temps réel ,on peut imaginer un schéma

open-loop consistant à permuter très rapidement la base de mesure. On s’attend dans

ce cas à un gain du même ordre, i.e. ∝ n qui est effectivement ce que Combes et al. [98] parviennent à montrer. En fait, dans ce cas précis, on peut calculer exactement la valeur du gain obtenu (voir appendice F), mais il s’agit d’un résultat essentiellement académique puisque ce schéma est de toute façon inutilisable en pratique.

En effet, que ce soit en open-loop ou en closed-loop, les schémas précédents pour le registre de qubits présentent un défaut rédhibitoire qui les rend inexploitables en pratique ; défaut qui a été, il me semble, largement sous estimé dans la littérature. Les gains linéaires fournis par les deux approchent rendent l’algorithme particulière-ment utile pour les grands registres. Le problème c’est que là où l’indépendance des probabilités permettait à la procédure sans contrôle de ne stocker que n nombres cor-respondant aux n marginales, le constant brassage de la base nécessite de stocker les 2nprobabilités correspondant aux configurations complètes. Le gain linéaire en vitesse s’accompagne donc d’un coût exponentiel en mémoire qui limite en pratique les pos-sibilités d’utilisation des algorithmes précédents à des registres de quelques qubits. Se pose immédiatement la nécessité de ce coût exponentiel : ce dernier est il la contrepartie nécessaire du gain en vitesse linéaire ? Peut-on avoir le beurre et l’argent du beurre26? Un autre problème des méthodes précédentes est qu’elles demandent en théorie d’être capable d’effectuer un nombre grand (typiquement [2n!] pour le cas open-loop) de per-mutations de la base, nombre absolument inatteignable en pratique. Est-il possible d’être plus frugal ?

2.3.2.b Heuristique de la solution

Pour être réellement utilisable, il faut donc un algorithme au coût en mémoire mo-déré (polynomial mais idéalement linéaire en le nombre de bits) et parcimonieux avec les opérations de contrôle. L’idée des algorithmes précédents consistant à s’intéresser à la distance de Hamming peut être conservée mais c’est le choix des permutations à effectuer sur la base qui est à modifier.

Intuitivement, on a besoin de beaucoup de mémoire parce que l’on utilise beaucoup de bases différentes. Peut-on réduire le nombre de bases utilisées et conserver le même gain ? Demander que les états soient tous «éloignés» en moyenne les uns par rapport aux autres du point de vue de la distance de Hamming en utilisant seulement un

26. Comme beaucoup de maximes populaires, cette dernière souffre heureusement de quelques ex-ceptions.

2.3. Extraction optimale d’information 59

nombre «petit» de bases apparaît impossible27. Mais rien ne nous oblige en fait à ce que les états soient loin les uns par rapport aux autres, ils suffit qu’ils soient loin du «candidat», c’est à dire de l’état associé à la valeur propre Λ1. Avec seulement deux bases, tous les états peuvent être à une distance de Hamming moyenne n/2 d’un certain état donné. La solution est simplement de choisir une première base quelconqueB et une seconde ˜B dans laquelle le candidat ainsi que son opposé bit à bit sont retournés. L’idée du nouvel algorithme est donc de commencer par effectuer une mesure conti-nue du registre sans contrôle jusqu’à ce qu’un premier candidat se dégage (tel par exemple que Λ1 dépasse 1/2). Ensuite, mesurer alternativement dans B et ˜B, cette étape devant entraîner un collapse n/2 fois plus rapide vers le candidat si ce dernier est le bon. Dans le cas contraire, si le candidat change, recommencer l’algorithme du début. Si l’on admet :

1. que l’étape initiale de sélection du candidat prend un temps négligeable si l’on s’intéresse au comportement asymptotique de la log-infidélité,

2. que le nombre de fois que l’on doit recommencer l’algorithme au début est fini en moyenne (= 2) et donc que cette possibilité n’a pas d’impact sur le comportement asymptotique de la log infidélité,

3. que l’on gagne bien un facteur n/2 quand on mesure dansB et ˜B successive-ment,

4. que l’on peut reconstruire exactement la probabilité des états avec la donnée 2n probabilités marginales dansB et ˜B,

alors l’algorithme fait bien ce que l’on voulait et fournit un gain de vitesse d’ordre n (= n/2), pour une utilisation linéaire de mémoire (2n) et avec un nombre fini (2 en moyenne) d’opérations de contrôle. Ces 4 points techniques, a priori crédibles, sont prouvés rigoureusement en appendice F. De manière intéressante l’algorithme obtenu n’est pas strictement open-loop car on a un petit nombre d’opérations de contrôle à effectuer. Cependant la convergence asymptotique n’est pas sensible à un éventuel délai de feedback (éventuellement d’ordre γ−1) ce qui rend l’algorithme malgré tout très robuste et «quasi open-loop» dans le sens que l’on n’a pas strictement besoin d’un contrôle en temps réel. Compte tenu de sa forme particulière où on devine un candidat qu’on «vérifie» ensuite rapidement avec deux bases complémentaires, on a proposé le nom de «Guess and Check» (GC) pour le schéma précédent.

Même si l’algorithme améliore de nombreuses faiblesses des approches précédentes qui les rendaient irréalisables, il souffre d’une de leurs limitations : ses gains

théo-27. Cette impossibilité semble pouvoir être liée à la théorie du codage [100]. La borne de Plotkin

[101] montre par exemple qu’il est impossible d’espérer obtenir une distance de Hamming d = n/2 en

moyenne entre tous les états en utilisant un nombre k «petit» de bases. Cette dernière stipule en effet

que le nombre maximumN de mots que l’on peut coder avec N bits en conservant une distance de

Hamming d = N/2 entre chaque mot est borné : N ≤ 2 N.

Dans notre cas, on aN = 2n

k, N = n × k soit dans le meilleur des cas : 2kn ≤ 2n × k ce qui demande

que k soit exponentiel en le nombre de bits. Dans le cas général, si on ne demande pas une distance de Hamming d = n/2 mais une autre fraction de n, je ne connais pas d’inégalité permettant de conclure

(la borne de Singleton [102], bien que générale, n’est pas assez contraignante), je ne doute cependant

riques sont uniquement asymptotiques et généralement très inférieurs pour une cible d’infidélité réaliste.