• Aucun résultat trouvé

Complexité de Kolmogorov et corrélations quantiques; étude du carré magique

N/A
N/A
Protected

Academic year: 2021

Partager "Complexité de Kolmogorov et corrélations quantiques; étude du carré magique"

Copied!
111
0
0

Texte intégral

(1)
(2)
(3)

Université de Montréal

Complexité de Kolmogorov et corrélations quantiques ;

étude du carré magique

par

Sophie Berthelette

Département de physique Faculté des arts et des sciences

Mémoire présenté à la Faculté des études supérieures et postdoctorales en vue de l’obtention du grade de

Maître ès sciences (M.Sc.) en physique

28 août 2019

c

(4)
(5)

Sommaire

L’informatique quantique, ce surprenant mariage entre informatique et physique, est un domaine riche en nouvelles idées, autant pour la technologie future qu’une meilleure com-préhension de notre univers. C’est le phénomène de l’intrication qui est au cœur de cette nouvelle façon de voir l’information.

Ce mémoire porte sur l’étude des corrélations quantiques observées dans la nature, mises de l’avant, entre autres, par John Bell. Plus particulièrement, deux jeux non signalants, dans lesquels ces corrélations se manifestent, sont étudiés : le jeu CHSH, probablement l’exemple le plus connu à ce jour, et le jeu de pseudotélépathie du carré magique. Pour ce faire, deux points de vue seront adoptés, soit probabiliste et algorithmique. Le premier est motivé par la prédiction (ce qui aurait pu se passer), tandis que le second s’intéresse à l’information intrinsèque contenue dans un objet (ce qui s’est passé). Les concepts « aléatoire » et « information » seront donc abordés premièrement à la Shannon (approche probabiliste) puis à la Kolmogorov (approche algorithmique). C’est la complexité de Kolmogorov qui sera utilisée pour quantifier l’information de façon factuelle. De plus, le cas particulier où plusieurs répétitions d’un jeu sont jouées en parallèle dans un monde classique sera examiné. Le théo-rème des répétitions parallèles, résultat important sur le sujet démontré par Ran Raz, sera présenté et utilisé par la suite dans l’étude algorithmique des jeux CHSH et du carré magique.

Mots clés : corrélations quantiques, informatique quantique, intrication, com-plexité de Kolmogorov, théorème des répétitions parallèles, boîtes Popescu-Rohrlich, carré magique.

(6)
(7)

Summary

Quantum information, this intriguing marriage between computer science and physics, is a promising field of research for future technologies as well as a better understanding of our universe. Entanglement is at the very heart of this new way of understanding information.

This thesis focuses on quantum correlations that are observed in nature. They have been studied in great detail by, among others, John Bell. More specifically, two non-signaling games, in which these correlations arise, are studied: the CHSH game, which is probably the best-known example of such games, and the magic square pseudotelepathy game. To do so, two points of view will be adopted: probabilistic and algorithmic. The first is motivated by prediction (what could have happened) and the second focuses on the intrinsic information about an object (what happened). Therefore, the concepts of randomness and information are first addressed from Shannon’s point of view (probabilistic approach) and second from Kolmogorov’s point of view (algorithmic approach). Kolmogorov complexity is used to quantify information in a factual way. Furthermore, the particular case in which multiple repetitions of a game are played in parallel in a classical world is considered. The parallel repetition theorem, an important result on the subject proven by Ran Raz, is presented and used in the algorithmic study of the CHSH game and the magic square game.

Keywords: quantum correlations, quantum information, entanglement, Kol-mogorov complexity, parallel repetition theorem, Popescu-Rohrlich boxes, magic square.

(8)
(9)

Table des matières

Sommaire. . . iii

Summary . . . v

Table des figures. . . xi

Dédicace. . . xiii

Remerciements. . . xv

Liste des sigles et des abréviations. . . xvii

Chapitre 1. Introduction. . . 1

1.1. Information et aléatoire. . . 3

1.2. Contenu. . . 5

Chapitre 2. Jeu du carré magique. . . 7

2.1. Jeu de pseudotélépathie. . . 7

2.2. Jeu CHSH. . . 8

2.3. Jeu du carré magique. . . 9

2.3.1. Stratégie classique. . . 9

2.3.2. Stratégie quantique. . . 11

Chapitre 3. Théorème des répétitions parallèles. . . 17

3.1. Formalisme et théorème des répétitions parallèles. . . 17

(10)

3.2. Deux répétitions parallèles. . . 19

3.2.1. CHSH et CHSH2 . . . 19

3.2.2. CM et CM2. . . 21

Chapitre 4. Complexité de Kolmogorov. . . 25

4.1. Historique et définition. . . 25

4.1.1. Cas des chaînes finies. . . 27

4.1.2. Cas des chaînes infinies. . . 29

4.2. Propriétés . . . 29

4.2.1. Notation asymptotique. . . 29

4.2.2. Règle de la chaîne. . . 30

4.2.3. Chaîne incompressible. . . 31

4.2.4. Indépendance. . . 31

4.2.5. Information mutuelle algorithmique. . . 31

4.3. Équivalence entre calculabilité et imprimabilité. . . 32

4.3.1. Programme. . . 32

4.3.2. Calculabilité et imprimabilité. . . 32

4.3.3. Calculable =⇒ Imprimable. . . 33

4.3.4. Imprimable =⇒ Calculable. . . 33

Chapitre 5. Étude des jeux CHSH et carré magique . . . 37

5.1. CHSH. . . 38

5.1.1. Étude probabiliste. . . 38

5.1.1.1. Hypothèses. . . 38

5.1.1.2. Résultats. . . 38

(11)

5.1.2.1. Hypothèses. . . 40 5.1.2.2. Résultats. . . 41 5.2. Carré magique. . . 45 5.2.1. Étude probabiliste. . . 45 5.2.1.1. Hypothèses. . . 45 5.2.1.2. Résultats. . . 46 5.2.2. Étude algorithmique. . . 54 5.2.2.1. Hypothèses. . . 54

5.2.2.2. Incompressibilité des réponses dans le contexte du jeu du carré magique 54 5.2.2.3. Résultats. . . 55

Chapitre 6. Conclusion. . . 61

Bibliographie. . . 65

Annexe A. Codes Python. . . A-i

A.1. Code utilisé pour déterminer le nombre de stratégies déterministes gagnantes avec probabilité 10/16 au jeu CHSH2 . . . A-i

A.2. Code utilisé pour déterminer le nombre de stratégies déterministes gagnantes avec probabilité 8/9 au jeu CM. . . .A-iv

Annexe B. Solution non signalante au jeu du carré magique. . . B-i

Annexe C. Preuve d’unicité de la solution au carré magique non signalant s’il existe ( ˙a, ˙b, ˙x, ˙y) t.q. P (X = ˙x, Y = ˙y | A = ˙a, B = ˙b) = 1. . . C-i

(12)
(13)

Table des figures

2.1 Boîte non signalante permettant de gagner au jeu CHSH avec probabilité 1.. . . 8

2.2 Carré magique partiellement rempli. . . 9

2.3 Alice et Bob doivent convaincre le vérificateur qu’ils partagent un carré magique. Ils reçoivent les questions a et b et répondent par x et y, respectivement.. . . 10

2.4 Montage utilisé pour le jeu du carré magique en utilisant la solution quantique de Mermin et Peres.. . . 12

2.5 Solution de Mermin-Peres au jeu du carré magique.. . . 13

2.6 Tableau des valeurs propres associées à chaque vecteur propre des observables de la rangée 2.. . . 15

2.7 Tableau des valeurs propres associées à chaque vecteur propre des observables de la colonne 3.. . . 15

3.1 Stratégie (ui, vj) : ui(1) = 000, ui(2) = 011, ui(3) = 101 vj(1) = 001, vj(2) = 010,

vj(3) = 010. . . 22

3.2 Stratégie (uj, vi) : uj(1) = 110, uj(2) = 101, uj(3) = 101 vi(1) = 111, vi(2) = 100,

vi(3) = 010. . . 22

4.1 Exemple d’une étiquette pour l’imposteur β1.. . . 35

5.1 Le contenu de la première rangée (000) et de la première colonne (010) est fixé par la contrainte P (X = 000, Y = 010 | A = 1, B = 1) = 1. Les 4 cases restantes

(14)

montrent les réponses possibles pour Alice (il ne faut pas lire les colonnes de ce carré magique). Les 4 valeurs de X sont présentes dans le carré magique.. . . 53

5.2 Le contenu de la première rangée (000) et de la première colonne (010) est fixé par la contrainte P (X = 000, Y = 010 | A = 1, B = 1) = 1. Les 4 cases restantes montrent les réponses possibles pour Bob (il ne faut pas lire les rangées de ce carré magique). Seulement 2 valeurs de Y sont présentes dans le carré magique.. . . 53

(15)

Dédicace

D’ailleurs, pour Ida.

(16)
(17)

Remerciements

Un immense merci à Gilles Brassard, qui m’a naturellement transmis son amour pour ce qu’il fait. Ta liberté d’esprit et ta connaissance sont à l’origine du véritable plaisir que j’ai eu à faire de la science avec toi.

Merci à Charles Alexandre Bédard et Xavier Coiteux-Roy, gros gars.

Je remercie également Sasha Woodward-Gagné de m’avoir mis dans ses remerciements par récurrence.

(18)
(19)

Liste des sigles et des abréviations

CHSH Clauser-Horne-Shimony-Holt CM Carré magique EPR Einstein-Podolsky-Rosen NS Non-signalement PR Popescu-Rohrlich t.q. tel que xvii

(20)
(21)

Chapitre 1

Introduction

Depuis les débuts du développement de la théorie quantique, celle-ci perturbe et fascine l’esprit des scientifiques et même des amateurs curieux. En effet, la mécanique quantique vole de plus en plus la vedette dans le milieu scientifique, notamment en physique et en informatique. Parmi les pères de la mécanique quantique, A. Einstein, N. Bohr et leurs collègues, on rencontre déjà différentes interprétations de la théorie. De son côté, Bohr défend l’interprétation dite de Copenhague, qui se distingue, entre autres, par le phénomène de réduction du paquet d’onde. Ceci reflète la croyance de Bohr qu’un électron, par exemple, est soit une onde (lorsqu’il n’est pas observé), soit une particule (lorsqu’on l’observe), mais pas les deux à la fois. Ainsi, avant d’être observée, la position de l’électron n’est pas définie et ceci ferait partie de l’aléa fondamental de la nature. Du point de vue d’Einstein, une théorie physique a pour but de décrire la réalité. Ainsi, à chaque élément d’une théorie, un élément de la réalité doit y être associé ; c’est ce qu’on appelle le réalisme. En ce sens, un objet physique comme un électron doit être localisé à tout moment. Einstein dira alors que la mécanique quantique, telle que décrite par Bohr, est incomplète et qu’il doit y avoir des variables additionnelles méconnues qui expliqueraient cette impression de non-localité de la mécanique quantique.

Aujourd’hui, les interprétations se sont multipliées et la communauté scientifique n’est toujours pas arrivée à un consensus. Pourquoi une telle diversité ? Les mystères de la méca-nique quantique prennent vie dans ce qu’on appelle l’intrication. Intuitivement, l’intrication

(22)

entre deux particules séparées par une distance arbitraire doit être vue comme des cor-rélations inexplicables classiquement entre des observations faites sur la particule 1 et la particule 2. C’est ce qu’Einstein appelait « l’action fantomatique à distance ». Ce phénomène à saveur complètement quantique fut premièrement mis de l’avant par Einstein, Podolsky et Rosen (EPR) [15]. D’abord introduite comme un argument pour montrer que la mécanique quantique doit être incomplète, l’intrication vient rapidement remettre en question la localité de notre univers. On dit qu’une théorie est locale si une action effectuée en un point A de l’espace ne produit aucun effet au point B plus rapidement qu’à la vitesse de la lumière. C’est John Bell qui montre que les corrélations quantiques observées entre deux particules intri-quées ne peuvent pas être expliintri-quées par une théorie à variables locales cachées [6]. En 1969, J. Clauser, M. Horne, A. Shimony et R. Holt publient un article dans lequel ils proposent un test pour mettre en évidence l’impossibilité d’expliquer l’intrication par une théorie aux variables locales cachées [12]. Malgré les résultats pointant vers une nature non locale de la mécanique quantique, une étude menée en 1999 par D. Deutsch et P. Hayden montre qu’il est possible de décrire la mécanique quantique par une théorie locale et réaliste [14]. Un joli clin d’oeil à Einstein !

Les corrélations étudiées par Bell sont au cœur du travail présenté ici. Pour les étudier davantage, il faut introduire les célèbres personnages d’Alice et Bob. La naissance d’Alice et Bob dans le domaine de l’informatique quantique a été déterminante. Avec eux sont apparus les jeux pour tester la portée de ce que la mécanique quantique peut accomplir là où la mécanique classique atteint ses limites. Le jeu CHSH, nommé d’après J. Clauser, M. Horne, A. Shimony et R. Holt [12], et le jeu de pseudotélépathie du carré magique (CM) feront l’objet d’étude des chapitres suivants. Dans les deux cas, la probabilité de succès d’Alice et Bob est améliorée s’ils ont accès à des ressources quantiques plutôt que classiques. Souvent, la ressource quantique partagée entre Alice et Bob est un état de Bell.

Définition 1.0.1 (États de Bell). Un état de Bell est un état quantique sur 2 qubits maxi-malement intriqués. Il en existe 4 et ils forment une base orthonormée de l’espace à 2 qubits

(23)

H2⊗ H2, où H2 est l’espace de Hilbert à 2 dimensions sur les nombres complexes. Les 4 états de Bell sont : φ+ = √1 2(|00i + |11i) φ− = √1 2(|00i − |11i) ψ+ = √1 2(|01i + |10i) ψ− = √1 2(|01i − |10i)

Il faut préciser qu’il y a certaines restrictions sur la communication permise entre nos deux joueurs. Ils peuvent se rencontrer avant le début du jeu pour établir une stratégie, puis ils sont séparés par une distance arbitraire. Ils sont ensuite soumis au principe de non-signalement.

Définition 1.0.2 (Principe de non-signalement). Aucune action prise par Alice ne peut avoir un effet observable chez Bob (et vice-versa) à une vitesse supérieure à celle de la lumière.

Les corrélations quantiques mises de l’avant dans ces deux jeux peuvent être analysées selon deux points de vue : probabiliste et algorithmique (ou factuel). Dans la littérature, on rencontre d’abord l’approche probabiliste tandis que l’étude algorithmique des corrélations quantiques est plutôt récente [5]. Pour comprendre la motivation derrière chacune des ap-proches, il est important de bien saisir le sens des concepts « information » et « aléatoire » dans un monde probabiliste ou algorithmique.

1.1. Information et aléatoire

La mécanique quantique telle que formulée par M. Born s’appuie sur la théorie des probabilités. Il publie un article en 1926 [7] dans lequel il énonce la bien connue règle de Born :

Définition 1.1.1 (Règle de Born). Soit un système S dont l’état est représenté par le vecteur d’état |ψSi et un observable O décrit par un ensemble d’opérateurs de mesure {Mi}, où chaque

i représente un résultat de mesure possible. Les opérateurs de mesure résolvent l’identité : X

i

Mi†Mi = 1.

(24)

Lorsque O est mesuré sur l’état |ψSi, la probabilité d’obtenir le résultat i est donnée par :

p(i) = hψS| Mi†Mi|ψSi (1.1.1)

et l’état post-mesure est :

Mi|ψSi

pp(i) . (1.1.2)

Dans ce contexte, il est naturel d’interpréter de façon probabiliste l’aléa qui semble se manifester des corrélations quantiques. Dans le domaine de l’informatique, il existe plusieurs définitions de cette notion d’aléa. Celle de Shannon se marie bien avec l’idée de la règle de Born.

Définition 1.1.2 (Entropie de Shannon). Soit X une variable aléatoire discrète pouvant prendre les valeurs {x1, x2, ..., xn}. La probabilité d’obtenir la valeur xi est P (xi). On note

alors l’entropie de Shannon de la variable X par H(X) et elle est définie comme : H(X) = −

n

X

i=1

P (xi) lg(P (xi)) (1.1.3)

où lg(·) est le logarithme en base 2.

Notons qu’il s’agit ici de l’entropie binaire puisque le logarithme est en base 2. L’unité de mesure de H(X) est alors le bit. L’entropie H(X) est une mesure d’incertitude (ou une mesure de l’aléa) sur le résultat obtenu lors d’une expérience aléatoire définie par la variable X. Par exemple, si X suit une distribution de probabilité uniforme, l’incertitude est maximale et donc l’entropie aussi.

La motivation à opter pour un point de vue probabiliste réside dans le désir de prédiction. En effet, on peut assigner une probabilité d’observer tel ou tel résultat de mesure sur un système, quantifier « ce qui aurait pu se passer » ou ce qui se passera avec probabilité p. La valeur du résultat en soi perd de son importance, c’est plutôt la distribution de probabilité des résultats qui porte de l’information. Plus l’entropie d’une variable X est grande, plus il est difficile de prédire les résultats de mesures sur cette variable.

(25)

Dans un monde probabiliste, l’information contenue dans un objet est définie par rapport à un ensemble d’objets de référence. L’idée de se tourner vers une approche algorithmique est motivée par le désir de voir l’information contenue dans un objet comme une propriété intrinsèque à cet objet plutôt qu’une propriété relative à d’autres objets. Pour quantifier l’information de ce point de vue, on utilisera la complexité algorithmique, ou dite de Kolmo-gorov. Un chapitre entier est consacré à la présentation de cet outil élaboré indépendamment, en ordre chronologique, par R. J. Solomonoff [23,24], A. N. Kolmogorov [17] et G. J. Chaitin [10, 11].

1.2. Contenu

Les trois sujets principaux de ce mémoire sont les jeux CHSH et de pseudotélépathie du carré magique (CM), le théorème des répétitions parallèles de Ran Raz et la complexité de Kolmogorov. Dans le chapitre 2, les jeux CHSH et CM sont présentés en détail. De plus, l’une des solutions quantiques au carré magique est expliquée. Ensuite, le chapitre 3 porte sur le théorème des répétitions parallèles. Ce théorème, démontré par Ran Raz [22], s’intéresse à la probabilité de succès d’Alice et Bob lorsqu’ils doivent jouer un nombre n de tours en parallèle d’un jeu G (la probabilité de succès pour un unique tour du jeu G doit être strictement plus petite que 1) avec des ressources classiques seulement. Le chapitre 4 est entièrement consacré à la complexité de Kolmogorov. Celle-ci est d’abord définie et quelques-unes de ses propriétés sont exposées. Dans la dernière section du chapitre, une preuve d’équivalence entre les concepts de calculabilité et d’imprimabilité est présentée. Cette preuve a été réalisée avec Xavier Coiteux-Roy, étudiant au doctorat à l’Université de la Suisse italienne. Le résultat d’équivalence existait déjà, mais une preuve différente de celle donnée en 1969 par D. W. Loveland [19], qui s’inspire des travaux de A. R. Meyer, a été obtenue. Finalement, le chapitre 5 porte sur l’étude des corrélations observées dans les jeux CHSH et CM selon les deux points de vue discutés plus haut : probabiliste et algorithmique. Les résultats pour le jeu CHSH viennent en grande partie de l’article [4], tandis que les résultats pour le jeu CM sont pour la plupart nouveaux.

(26)
(27)

Chapitre 2

Jeu du carré magique

2.1. Jeu de pseudotélépathie

La pseudotélépathie est l’idée que deux (ou plusieurs) personnes spatialement éloignées, et ne pouvant communiquer d’aucune manière (plus rapidement qu’à la vitesse de la lu-mière), réussissent à accomplir des tâches communes à l’aide de ressources quantiques qui ne pourraient être effectuées classiquement. Il s’agit de pseudotélépathie puisqu’il n’y a pas la transmission des pensées d’une personne à une autre, mais plutôt l’illusion que cela se produit. Quelle propriété unique à la mécanique quantique permet une telle illusion ? C’est l’intrication qui porte à croire qu’une communication instantanée est établie entre les deux personnes.

Un jeu de pseudotélépathie est donc un jeu dans lequel les participants, Alice et Bob, partagent des particules intriquées et gagnent à tous les coups, contrairement au partage de ressources classiques qui implique une probabilité non nulle d’échouer au même jeu.

Dans ce chapitre, le jeu CHSH sera d’abord présenté, suivi du jeu de pseudotélépathie du carré magique. Ce dernier sera présenté en détail, puisqu’il fera l’objet d’étude des chapitres suivants. La stratégie quantique au jeu du carré magique a été inventée par N. D. Mermin [20] et A. Peres [21] en 1990. La présentation qui en est faite dans ce chapitre s’inspire de celle de P. K. Aravind [2]. L’explication donnée par ce dernier offre une compréhension physique de la stratégie. Une stratégie différente, offrant une interprétation plutôt informatique, a été inventée par G. Brassard, A. Broadbent et A. Tapp [8] en 2005.

(28)

2.2. Jeu CHSH

Il s’agit d’un jeu à 2 participants. Alice reçoit une question a ∈ {0, 1} et Bob une question b ∈ {0, 1}. Ils doivent répondre par x ∈ {0, 1} et y ∈ {0, 1} respectivement. Ils gagnent le jeu si (a, b, x, y) respecte l’équation (2.2.1), où a · b représente le ET de a et b tandis que x ⊕ y représente le OU exclusif (ou de façon équivalente, l’addition modulo 2) de x et y.

a · b = x ⊕ y (2.2.1)

La stratégie utilisée par les 2 joueurs doit satisfaire au principe de non-signalement. En particulier, il doit être impossible pour Bob de connaître la question reçue par Alice (et vice-versa) à une vitesse supérieure à celle de la lumière.

Il est facile de prouver qu’aucune stratégie classique ne permet de gagner avec probabilité supérieure à 34 = 0,75. Toutefois, le partage de particules intriquées permet d’atteindre une probabilité de succès de cos2(π

8) ≈ 0,85. Il ne s’agit donc pas d’un jeu de pseudotélépathie

puisque la stratégie quantique ne permet pas de gagner à tous les coups.

Il existe un outil théorique permettant de gagner à tous les coups avec probabilité 1. Il s’agit de la boîte PR (Popescu & Rohrlich), aussi connue sous le nom de boîte non locale (fig. 2.1). Cette boîte ne peut pas être expliquée par la mécanique quantique. Par contre, elle est non signalante. En effet, la valeur de a n’a aucune influence sur la distribution de y|b chez Bob. Ceci sera discuté plus en détails au chapitre 5.

Figure 2.1. Boîte non signalante permettant de gagner au jeu CHSH avec probabilité 1.

(29)

2.3. Jeu du carré magique

2.3.1. Stratégie classique

Le carré magique consiste en une grille 3×3 dont chacune des 9 cases est remplie avec un bit de telle sorte que chaque colonne contient un nombre impair de 1 et chaque rangée un nombre pair de 1. La figure2.2montre un exemple de carré magique rempli correctement pour 8 cases sur 9, mais dont la dernière case est sans réponse. On peut facilement montrer qu’il est impossible de réussir un carré magique 3×3 classiquement. Imaginons que la condition sur les colonnes soit respectée. Il doit alors avoir un nombre total impair de 1 dans la grille. Si c’est plutôt la condition sur les rangées qui est satisfaite, il doit y avoir un nombre total pair de 1 dans la grille. Les deux conditions mènent à des conclusions contradictoires et ne peuvent donc pas être respectées simultanément.

Figure 2.2. Carré magique partiellement rempli

Considérons maintenant le jeu du carré magique. Alice et Bob doivent convaincre un vérificateur qu’ils ont bel et bien un carré magique entre les mains. Pour ce faire, on demande à Alice de remplir une rangée et à Bob de remplir une colonne. Ainsi, le vérificateur envoie les questions a et b à Alice et Bob, respectivement, où a correspond au numéro de la rangée qu’Alice devra remplir et b au numéro de la colonne que Bob devra remplir. On suppose que les questions a et b sont choisies arbitrairement (plutôt qu’aléatoirement, par exemple) par le vérificateur.

(30)

Figure 2.3. Alice et Bob doivent convaincre le vérificateur qu’ils partagent un carré magique. Ils reçoivent les questions a et b et répondent par x et y, respectivement.

La réponse d’Alice est notée x = x1x2x3, où xi ∈ {0,1} pour i ∈ {1,2,3}. Elle doit satisfaire

la condition sur les rangées, qui se traduit mathématiquement par x1⊕ x2⊕ x3 = 0. Du côté

de Bob, sa réponse est notée y = y1y2y3, où yi ∈ {0,1} pour i ∈ {1,2,3} et il doit satisfaire

la condition sur les colonnes, c’est-à-dire y1 ⊕ y2 ⊕ y3 = 1. Ainsi, x ∈ {000, 011, 101, 110}

et y ∈ {111, 100, 010, 001}. Ils gagnent le jeu si l’intersection de la rangée d’Alice et de la colonne de Bob est cohérente, c’est-à-dire qu’elle contient le même bit. Cette dernière condition s’écrit xb = ya. Règles du jeu x1 ⊕ x2 ⊕ x3 = 0 (2.3.1) y1⊕ y2⊕ y3 = 1 (2.3.2) xb = ya (2.3.3)

Avant de recevoir leur question, Alice et Bob peuvent communiquer afin d’établir une stratégie. Si les participants jouent plusieurs tours, la communication est permise seulement avant le premier tour, mais ils connaissent d’avance une borne supérieure au nombre de tours. Une fois leur stratégie établie, Alice et Bob sont séparés spatialement de telle sorte

(31)

qu’une action effectuée par Alice (Bob) ne peut pas avoir d’effet observable chez Bob (Alice) à une vitesse plus grande que celle de la lumière (principe de non-signalement). Les questions reçues au je tour sont notées a

j et bj et leurs réponses, xj et yj, respectivement. Ils reçoivent

les questions a1, b1 et doivent donner les réponses x1, y1 avant de recevoir les questions a2,

b2 du 2e tour et ainsi de suite.

Si les ressources des participants sont classiques, ils peuvent atteindre une probabilité de succès maximale de 89 à chaque tour en utilisant la stratégie suivante :

(1) Soit C la famille de toutes les grilles 3×3 dont 8 cases sur 9 sont remplies en respectant les règles du carré magique. (Ex. : la grille de la figure 2.2.)

(2) Ils se partagent une chaîne aléatoire λ, qui encode l’indice de la grille dans C à utiliser à chacun des tours. Ainsi, ils pigent aléatoirement une grille au début de chaque tour en étant certains d’avoir pigé la même. La chaîne λ est évidemment inconnue du vérificateur.

(3) Au tour j, la réponse d’Alice correspond à la rangée aj de la je grille pigée et la

réponse de Bob à la colonne bj de cette même grille.

Pourquoi changer la grille à chaque tour ? Il ne faut pas oublier que le vérificateur choisit arbitrairement les questions envoyées aux participants. Ainsi, si la grille utilisée est la même à chaque tour, le vérificateur peut adapter les questions qu’il envoie de façon à cibler en quelques tours (3 tours suffisent) l’erreur dans la grille qu’Alice et Bob se partagent, et donc les faire échouer à tous les coups par la suite. Le fait de changer de grille à chaque tour fait « bouger » l’erreur, ce qui sauve Alice et Bob de la malice du vérificateur ! De cette façon, ils ont effectivement une probabilité de succès de 89 à chaque tour.

2.3.2. Stratégie quantique

La performance des joueurs est améliorée s’ils ont accès à des ressources quantiques. Il s’agit d’un jeu de pseudotélépathie, comme mentionné précédemment, puisque le partage d’intrication leur permettra de gagner à tous les coups.

(32)

Alice et Bob partagent 4 qubits, plus précisément une paire d’états de Bell. Imaginons une source S qui émet 4 particules de spin 12. Les états de spin bas et haut sont représentés par |0i et |1i, respectivement. L’état initial des 4 particules est fixé à :

|Ψi = Φ+ 12⊗ Φ+ 34 (2.3.4)

où |Φ+i ij =

1 √

2(|0ii|0ij+ |1ii|1ij). Une particule de chaque état de Bell est envoyée à Alice

(particules 1 et 3), et de même pour Bob (particules 2 et 4). Ainsi, Alice est en possession de 2 qubits maximalement intriqués avec les 2 qubits de Bob. Un détecteur est placé chez Alice (DA) et un autre chez Bob (DB), prenant la forme d’une grille 3×3. Les paramètres

a, b ∈ {1, 2, 3} des détecteurs DA et DB sont choisis par le vérificateur, comme mentionné

plus tôt. Ils déterminent quelle rangée du détecteur DAdevra être remplie par Alice et quelle

colonne du détecteur DB devra être remplie par Bob.

La figure 2.4 illustre le montage utilisé pour le jeu et un exemple de résultat affiché par les détecteurs pour les paramètres a = 2 et b = 3. Comme les trois règles du jeu (éq. (2.3.1), (2.3.2) et (2.3.3)) sont respectées, Alice et Bob gagnent ce tour du jeu.

Figure 2.4. Montage utilisé pour le jeu du carré magique en utilisant la solution quantique de Mermin et Peres.

Comment peuvent-ils y parvenir à tous les coups ? L’astuce est présentée à la figure 2.5. À chaque case du détecteur est associée une mesure sur 2 qubits. Les mesures sont les mêmes pour DA et DB. Ces 9 observables sont construits sous forme de produit tensoriel à partir

des opérateurs de Pauli (Sx, Sy et Sz) et de l’identité (I). Ces opérateurs sont représentés

(33)

Sx =   0 1 1 0   Sy =   0 −i i 0   Sz =   1 0 0 −1   I =   1 0 0 1  

Figure 2.5. Solution de Mermin-Peres au jeu du carré magique. Remarques

— Les observables d’une même rangée ou d’une même colonne commutent 2-à-2, c’est-à-dire que les 3 observables ont les mêmes états propres.

— Le produit des observables d’une même rangée vaut I, tandis que le produit des observables d’une même colonne vaut −I (permet de satisfaire les équations (2.3.1) et (2.3.2)).

— Les 9 observables ont les mêmes valeurs propres, soit +1 et −1. Ce sont les résultats de mesure possibles.

Une fois les qubits 1 et 3 envoyés à Alice et le paramètre a reçu, Alice effectue successi-vement les 3 mesures indiquées dans la rangée a sur ses qubits. Pour un observable M ⊗ N , l’opérateur M est appliqué sur le qubit 1 et l’opérateur N sur le qubit 3. Puisque ces 3 observables commutent, les 3 mesures peuvent être effectuées dans un ordre quelconque. Si le résultat de mesure est +1 pour un observable donné, la case correspondante est marquée d’un 0, et si le résultat est plutôt −1, la case affiche 1. La procédure pour Bob est la même.

(34)

Il mesure ses qubits (2 et 4) selon les observables associés à la colonne b et le détecteur affiche 0 pour le résultat de mesure +1 ou 1 si −1 est obtenu.

Retour à l’exemple de la figure 2.4

Afin de mieux comprendre l’effet des mesures effectuées par Alice et Bob, étudions l’exemple donné précédemment, pour a = 2, b = 3, x = 101 et y = 010. Les figures 2.6

et2.7 présentent les valeurs propres associées à chaque vecteur propre des observables de la rangée 2 (R2) et de la colonne 3 (C3), respectivement. Remarquons d’abord que l’ensemble de 4 vecteurs pour R2 forme une base orthogonale (pas normée ici pour alléger la notation) pour l’espace joint des qubits 1 et 3. Notons ces vecteurs par {|rii}i=4i=1. Dans le tableau de la

figure 2.6, le vecteur |r1i = 12[|00i − |01i − |10i − |11i] est représenté par [1 − 1 − 1 − 1]T,

etc. Il en va de même pour l’ensemble de 4 vecteurs pour C3. Il forme une base orthogonale pour l’espace joint des qubits 2 et 4. L’ensemble est noté {|cii}i=4i=1.

Le respect des règles 2.3.1 et 2.3.2 est bien mis en évidence par les figures 2.6 et 2.7 : chaque vecteur propre dans {|rii}i=4i=1 mène à un nombre pair de −1 parmi les trois résultats

de mesure de la rangée 2 et chaque vecteur propre dans {|cii}i=4i=1mène à un nombre impair de

−1 parmi les trois résultats de mesure de la colonne 3 (ceci est dû au choix des observables, voir la 2e remarque).

Ces deux bases de H2⊗ H2 sont différentes, mais ce qui importe ici est que les 8 vecteurs

sont vecteurs propres de l’opérateur −Sz ⊗ Sx, c’est-à-dire l’opérateur à l’intersection de

R2 et C3. Pour comprendre comment la règle 2.3.3 peut être respectée à tous les coups, remarquons que l’état initial des 4 qubits (éq. 2.3.4) peut être écrit :

|Ψi = 1

2[|r1i |φ1i + |r2i |φ2i + |r3i |φ3i + |r4i |φ4i] (2.3.5) où {|φii}i=4i=1 est une base orthogonale pour l’espace joint des qubits 2 et 4 chez Bob. Par

un calcul direct, il est facile de voir que {|φii}i=4i=1 doit être de forme identique à {|rii}i=4i=1.

Ceci est dû à la structure des |Φ+i partagés entre Alice et Bob. Ainsi, si Alice effectue la mesure −Sz⊗ Sx (celle de l’intersection entre R2 et C3), l’état des deux qubits chez Bob est

(35)

même mesure, il obtiendra le même résultat qu’Alice. Dans notre exemple, Alice donne la réponse x = 101, ce qui correspond à l’état |r4i et plus précisement au résultat de mesure −1

pour l’observable −Sz⊗ Sx. On voit que l’état correspondant chez Bob, |φ4i, s’exprime en

fonction de {|cii}i=4i=1de la façon suivante : |φ4i = √12(|c1i + |c4i). Il s’agit de la superposition

à poids égal des deux états chez Bob qui mène au résultat de mesure −1 pour l’observable −Sz⊗ Sx, comme désiré.

Figure 2.6. Tableau des valeurs propres associées à chaque vecteur propre des observables de la rangée 2.

Figure 2.7. Tableau des valeurs propres associées à chaque vecteur propre des observables de la colonne 3.

(36)
(37)

Chapitre 3

Théorème des répétitions parallèles

Comme discuté précédemment, il existe une stratégie quantique qui permet de gagner avec probabilité 1 au jeu du carré magique, tandis qu’une stratégie classique ne peut jamais atteindre une probabilité de succès plus élevée que 89. Considérant qu’Alice et Bob jouent plusieurs tours, disons n tours, la probabilité de gagner tous les tours quantiquement est de 1 et classiquement de 89n. Ceci est vrai si les tours sont joués successivement. Qu’en est-il s’ils jouent plusieurs tours en parallèle ? Dans ce cas, Alice et Bob reçoivent n questions simultanément, a[n] = a1a2...an et b[n] = b1b2...bn, respectivement, et doivent donner d’un

seul coup les n réponses correspondantes, soit x[n]= x1x2...xn et y[n] = y1y2...yn. Dans le cas

d’une stratégie classique, y a-t-il un avantage pour Alice à connaître la question ai+1 pour

répondre à la question ai? Et pour Bob ? Le sujet des répétitions parallèles a été étudié par

R. Raz qui publia un résultat intéressant en 1998 [22]. Il s’agit du théorème des répétitions parallèles.

3.1. Formalisme et théorème des répétitions parallèles

Soit un jeu G où 2 participants reçoivent les questions (a, b) suivant une loi de probabilité µ et répondent par (x, y). Ils gagnent le jeu s’ils satisfont un prédicat V (a, b, x, y). Pour alléger la notation, nous dirons qu’un prédicat prend la valeur entière 0 pour faux ou 1 pour vrai. La valeur du jeu G, val(G), est définie comme :

val(G) = max

A,B

X

a,b

(38)

où le maximum est pris sur l’ensemble des stratégies déterministes (A, B) telle que A(a) = x et B(b) = y pour Alice et Bob, respectivement. Ainsi, val(G) représente le meilleur résultat qu’ils peuvent obtenir au jeu G en utilisant une stratégie optimale déterministe (A, B).

Si Alice et Bob jouent n tours en parallèle du jeu G, c’est-à-dire ils reçoivent les questions a[n] = a1a2...an et b[n] = b1b2...bn et doivent répondre par x[n] = x1x2...xn et y[n]= y1y2...yn,

on note cette partie Gn def= G⊗n. Ils gagnent au jeu Gn si pour tous i ∈ [1, n], le prédicat

V (ai, bi, xi, yi) est satisfait. Définissons alors le prédicat pour le jeu Gn comme

Vn(a[n], b[n], x[n], y[n]) def = n Y i=1 V (ai, bi, xi, yi)

qui prend la valeur entière 1 si et seulement si Alice et Bob gagnent les n répétitions. La valeur de Gn est alors définie comme

val(Gn) = max

A,B

X

a[n],b[n]

pµn(a[n],b[n]) Vn(a[n], b[n], A(a[n]), B(b[n])) (3.1.2)

où A(a[n]) = x[n], B(b[n]) = y[n] et µn def= µ⊗n est la loi de probabilité des questions (a[n], b[n]).

Le théorème des répétitions parallèles de Raz montre que la borne supérieure sur val(Gn) décroît exponentiellement avec le nombre de répétitions n.

Théorème 3.1.1. Théorème des répétitions parallèles

Pour tout jeu G avec valeur val(G) < 1 et un espace des réponses de taille s(G) ≥ 2, il existe une constante CG < 1 t.q. :

val(Gn) ≤ (CG)n. (3.1.3)

Remarques

— La taille de l’espace des réponses du jeu G est définie par s(G) = |X | · |Y|, où X et Y sont les espaces des réponses d’Alice et Bob, respectivement.

— La constante CG dépend seulement du jeu G, plus précisement de val(G) et s(G).

Différentes estimations de cette constante se trouvent dans la littérature. Pour la suite du document, c’est le résultat de Thomas Holenstein qui sera utilisé [16].

val(Gn) ≤ "  1 − (1 − val(G)) 3 6000 lg(s(G))1 #n (3.1.4)

(39)

3.2. Deux répétitions parallèles

Le cas particulier de 2 répétitions parallèles (n = 2) pour les jeux CHSH et CM est étudié dans cette section. On remarquera que le théorème de Raz devient pertinent pour de grandes valeurs de n et/ou des jeux dont l’espace des questions et/ou des réponses est de grande taille.

3.2.1. CHSH et CHSH2

Étudions d’abord les stratégies classiques déterministes pour une seule instance du jeu CHSH. Comme mentionné plus tôt, la stratégie optimale permet de gagner avec une pro-babilité de 34 (val(CHSH) = 34). Définissons F comme la famille de toutes les fonctions {0, 1} → {0, 1}. Ainsi, F contient 4 éléments, qu’on note fi pour i ∈ [1, 4]. Soit les fonctions

A ∈ F et B ∈ F telles que A(a) = x et B(b) = y avec a, b, x, y ∈ {0, 1}. On appelle un couple (A, B) une stratégie. Ainsi, on peut former 16 stratégies (A, B) : (f1, f1), (f1, f2), ...,

(f4, f4). Il faut remarquer que la stratégie (fi, fj) est équivalente à (fj, fi) pour i 6= j, par

sy-métrie entre Alice et Bob au jeu CHSH. On compte alors 10 (= 422+4) stratégies déterministes distinctes pour le jeu CHSH. Parmi celles-ci, 5 sont optimales.

Dans le cas du jeu CHSH2, il a été montré que val(CHSH2) = 1016 [3]. Remarquons que

10 16 >

3 4

2

= 169. Ainsi, une stratégie naïve, c’est-à-dire utiliser une stratégie gagnante avec probabilité 34 (pour un tour du jeu CHSH) successivement pour répondre à (a1, b1), puis à

(a2, b2), n’est pas optimale. Il y a un avantage à connaître plus d’une question simultanément,

comme prévu par le théorème des répétitions parallèles. Définissons F0 comme la famille de toutes les fonctions {0, 1}2 → {0, 1}2. Ainsi, F0 contient 44 = 256 éléments, qu’on note f0 i

pour i ∈ [1, 256]. Soit les fonctions A0 ∈ F0 et B0 ∈ F0 telles que A0(a

1, a2) = (x1, x2) et

B0(b1, b2) = (y1, y2) avec a1, a2, b1, b2, x1, x2, y1, y2 ∈ {0, 1}. On compte 32 896 (= (4

4)2+44

2 )

stratégies distinctes pour le jeu CHSH2(en omettant les stratégies équivalentes par symétrie). Parmi celles-ci, 32 permettent de gagner avec probabilité 1016, ce qui représente ≈ 0,097 % des stratégies possibles. Par exemple :

A(a1, a2) = (0, (a1· a2) ⊕ a2) et B(b1, b2) = ((b1· b2) ⊕ b1, 0)

(40)

forment une stratégie avec probabilité de succès 1016. En comparaison, ≈ 0,894 % des stra-tégies possibles permettent de gagner avec une probabilité de 169 = (val(CHSH))2. Ceci a été déterminé numériquement par moi-même, en testant toutes les stratégies possibles. Le code utilisé est présenté à l’annexe A. La borne obtenue sur val(CHSH2) en utilisant le

théorème de Raz (équation (3.1.4)), où val(CHSH) = 34 et lg(s(CHSH)) = lg(4) = 2, est val(CHSH2) ≤ 0,999997... En comparaison avec la valeur exacte, ce résultat n’est pas des plus intéressants. Cet exemple montre que le théorème de Raz, ou du moins la meilleure estimation de la fonction W connue à ce jour, perd de sa pertinence pour de petites valeurs de n, c’est-à-dire pour un nombre de répétitions parallèles pour lequel il est possible de cal-culer val(Gn) exactement. En effet, le nombre de stratégies déterministes pour un jeu Gn donné grandit exponentiellement avec n (plus n est grand, plus les dimensions des espaces des questions et des réponses sont grandes, ce qui ne permet pas une fouille exhaustive parmi toutes les stratégies possibles).

Il est intéressant de mentionner qu’il existe un théorème des répétitions parallèles parfait dans le cas des jeux quantiques de type XOR (OU exclusif) [13]. En effet, lorsque la condition de victoire du jeu G auquel Alice et Bob tentent de gagner est une fonction du XOR (⊕) de leur réponse et qu’il est permis que les joueurs partagent de l’intrication, alors la probabilité de succès optimale au jeu Gn est exactement la probabilité de succès optimale au jeu G à la puissance n. Ceci signifie que la meilleure stratégie quantique au jeu Gnest donc la stratégie

naïve où Alice et Bob utilisent la stratégie quantique optimale pour G successivement pour répondre à (ai, bi) pour toutes les valeurs de i ∈ [1, n]. La valeur quantique d’un jeu G, notée

valq(G), est définie comme la plus grande probabilité de succès qu’il est possible d’atteindre

en utilisant une stratégie quantique. Plus formellement, il s’agit des définitions3.1.1et3.1.2

où le maximum est pris sur l’ensemble des stratégies quantiques (A, B), plutôt que l’ensemble des stratégies déterministes.

Théorème 3.2.1. Théorème des répétitions parallèles parfait

(41)

où x et y sont les réponses d’Alice et Bob respectivement. Alors : valq(Gn) = (valq(G))n.

Comme le jeu CHSH est un jeu de type XOR, on a que valq(CHSHn) = (valq(CHSH))n = (cos2(

π 8))

n

. (3.2.1)

Dans le cas particulier de n = 2, on obtient la valeur exacte suivante : valq(CHSH2) = (cos2(

π 8))

2 ≈ 0,73.

3.2.2. CM et CM2

Étudions maintenant le jeu du carré magique. Pour un seul tour, val(CM) = 89. Définissons U comme la famille de toutes les fonctions {1, 2, 3} → {000, 011, 101, 110} et V comme la famille de toutes les fonctions {1, 2, 3} → {111, 100, 010, 001}. Ainsi, U et V contiennent chacun 43 = 64 éléments, qu’on note ui et vi pour i ∈ [1, 64]. Soit les fonctions ˜A ∈ U

et ˜B ∈ V telles que ˜A(a) = x et ˜B(b) = y avec a, b ∈ {1, 2, 3}, x ∈ {000, 011, 101, 110} et y ∈ {111, 100, 010, 001}. On peut alors former 642 = 4 096 stratégies ( ˜A, ˜B) : (u

1, v1),

(u1, v2), ..., (u64, v64). Premièrement, remarquons que les valeurs possibles de y correspondent

aux valeurs possibles de x où chaque 0 est remplacé par 1 et chaque 1 est remplacé par 0 : ¯

0¯0¯0 = 111, ¯0¯1¯1 = 100, ¯1¯0¯1 = 010 et ¯1¯1¯0 = 001. À partir de cette observation, on peut définir une application bijective entre U et V.

Par exemple, si u1 est défini comme :

u1(1) = 000

u1(2) = 011

u1(3) = 101

alors on définit v1 comme :

v1(1) = 111 = ¯0¯0¯0 = u1(1)

v1(2) = 100 = ¯0¯1¯1 = u1(2)

v1(3) = 010 = ¯1¯0¯1 = u1(3)

(42)

On notera donc v1 = u1. De cette façon, il est possible de définir la famille V entièrement en

fonction des éléments de U : (∀i ∈ [1, 64]) vi = ui.

Deuxièmement, observons que la stratégie (ui, vj) est équivalente à (vj, ui) = (uj, vi) pour

i 6= j. Ceci sera noté (ui, vj) ≡ (uj, vi).

Exemple. Figure 3.1. Stratégie (ui, vj) : ui(1) = 000, ui(2) = 011, ui(3) = 101 vj(1) = 001, vj(2) = 010, vj(3) = 010 Figure 3.2. Stratégie (uj, vi) : uj(1) = 110, uj(2) = 101, uj(3) = 101 vi(1) = 111, vi(2) = 100, vi(3) = 010

La stratégie présentée à la figure3.1est effectivement équivalente à celle de la figure3.2. Ceci s’explique par le fait que le nombre d’erreurs dans la grille de la figure 3.1 ne peut pas être modifié par la transformation effectuée pour obtenir la grille de la figure3.2. En effet, si une case contient une erreur (c’est-à-dire un 0 et un 1 simultanément), le fait de changer tous les 0 pour des 1 et tous les 1 pour des 0 ne modifie pas le contenu de cette « case erreur ». Aussi, le nombre de 0 (1) dans la figure 3.1 correspond au nombre de 1 (0) dans la figure 3.2.

Il existe donc 2 080 (= 6422+64) stratégies distinctes pour le jeu CM (en omettant les symétries expliquées plus haut). Parmi celles-ci, 72 stratégies permettent de gagner avec probabilité 89, ce qui représente 3,46 % des stratégies totales. Ceci a également été déterminé numériquement et le code utilisé est présenté à l’annexe A.

Étudions maintenant le jeu CM2. Soit U0 la famille de toutes les fonctions {1, 2, 3}2 → {000, 011, 101, 110}2 et V0 la famille de toutes les fonctions {1, 2, 3}2 → {111, 100, 010, 001}2.

(43)

Les familles U0 et V0 contiennent chacune 169 éléments, notés u0 iet v

0

i pour i ∈ [1, 169]. Soit les

fonctions ˜A0 et ˜B0 telles que ˜A0(a1, a2) = (x1, x2) et ˜B0(b1, b2) = (y1, y2) avec a1, a2, b1, b2 ∈

{1, 2, 3}, x1, x2 ∈ {000, 011, 101, 110} et y1, y2 ∈ {111, 100, 010, 001}. Le nombre total de

stratégies déterministes ( ˜A0, ˜B0) pour le jeu CM2 est donc de (169)2+169

2 ∼ 10

21 (sans les

symétries). Puisque le nombre de stratégies possibles est énorme, aucun résultat intéressant n’a pu être obtenu numériquement (ayant comme ressource mon ordinateur personnel). Ici, on remarque que malgré le fait que le nombre de répétitions soit petit (n = 2), il n’est pas possible de calculer val(CMn) exactement, du moins pas par énumération exhaustive sur mon

ordinateur personnel. Ceci est dû au fait que les espaces des questions et des réponses d’Alice et de Bob sont de plus grande dimension. C’est donc le théorème de Raz qui offre la seule borne facile à calculer sur val(CMn).

(44)
(45)

Chapitre 4

Complexité de Kolmogorov

4.1. Historique et définition

Bien que la complexité de Kolmogorov (ou complexité algorithmique) soit nommée en l’honneur de A. N. Kolmogorov, mathématicien russe du 20e siècle, l’idée fut premièrement abordée en 1960 par R. J. Solomonoff, informaticien américain (en dépit de son nom !), dans ses travaux sur une théorie générale de l’inférence inductive [23] puis approfondie dans son article publié en 1964 [24] dans lequel il présente le concept de probabilité algorithmique. Son but était d’abord de bâtir une théorie générale du raisonnement inductif. Il introduit la complexité algorithmique seulement comme un concept auxiliaire pour arriver à définir une probabilité algorithmique. L’idée de Solomonoff s’inspire du rasoir d’Ockham (parmi toutes les explications cohérentes d’un phénomène étudié, choisir celle avec le moins de supposi-tions) et du principe des explications multiples d’Épicure (considérer toutes les explications cohérentes du phénomène étudié plutôt qu’en sélectionner une particulière). La probabilité algorithmique est une probabilité a priori (un poids) assignée aux différentes hypothèses pouvant expliquer un phénomène donné. Toute hypothèse cohérente reçoit une probabilité non nulle et à une hypothèse simple (peu de suppositions) est associée une plus grande pro-babilité. Ainsi, aucune hypothèse cohérente n’est rejetée (Épicure), mais les plus simples sont favorisées (Ockham).

D’un point de vue algorithmique, on représente une observation d’un phénomène par une chaîne de bits et sa description par un programme produisant cette chaîne en sortie. Ainsi,

(46)

on assigne un poids à chaque programme candidat – plus un programme est court, plus sa probabilité a priori est grande. La théorie générale de l’inférence inductive suggère alors de prédire la prochaine observation du même phénomène en se basant sur ces probabilités algorithmiques ; la probabilité d’une observation future est calculée à partir des probabilités assignées aux programmes décrivant les observations passées.

Indépendamment des travaux de Solomonoff, Kolmogorov développe un outil aux saveurs similaires à la théorie générale de l’inférence inductive ; la complexité algorithmique (ou de Kolmogorov). C’est dans son article publié en 1965 [17] qu’il définit la complexité d’un objet individuel fini comme la longueur de la plus courte description de cet objet (le plus court programme produisant cet objet) et présente cette complexité comme une mesure de l’aléa et de la quantité d’information contenue dans l’objet. Cette quantité permet une approche factuelle à la complexité : on s’intéresse à ce qui est, et non ce qui aurait pu être. La recherche d’une quantification de l’information contenue dans un objet qui repose strictement sur cet objet, et non à un ensemble d’objets auquel il pourrait appartenir, est l’une des motivations à adopter un point de vue factuel (plutôt que probabiliste à la Shannon).

Finalement, les travaux de G. J. Chaitin publiés en 1969 [10] portent eux aussi sur le concept de complexité algorithmique. De plus, il étudie le comportement de la complexité des chaînes aléatoires infinies. Chaitin se démarque cependant avec son article de 1975 [11] dans lequel il présente une variante à la complexité algorithmique appelée complexité préfixe ou complexité de Chaitin. La complexité préfixe d’un objet est définie comme la longueur du plus court programme auto-délimitant pouvant produire cet objet. La nouveauté est l’introduction du concept de programme auto-délimitant : aucun programme n’est préfixe d’un autre. Ceci permet entre autres de parler de la probabilité d’arrêt d’un programme aléatoire, quantité qu’il a appelée Ω.

Dans la suite de ce travail, c’est la première version de la complexité algorithmique (complexité de Kolmogorov ) qui est définie plus formellement et ensuite utilisée.

(47)

4.1.1. Cas des chaînes finies

Afin de définir la complexité de Kolmogorov d’une chaîne de bits de longueur finie (déf.4.1.2), il faut d’abord introduire la machine de Turing universelle. C’est dans un des plus importants articles d’A. M. Turing, publié en 1937, qu’il est prouvé que de telles machines existent [25].

Définition 4.1.1. Une machine de Turing est dite universelle si elle est capable de simuler toute autre machine de Turing.

Définition 4.1.2. Soit r ∈ {0, 1}∗ une chaîne de bits de longueur finie. La complexité de Kolmogorov de la chaîne r, notée KU(r), correspond à la longueur du plus court programme

informatique pouvant produire en sortie la chaîne r, lequel est donné en entrée à une machine de Turing universelle U .

Cette définition de complexité suggère de possibles fluctuations dans la valeur de KU(r).

Varie-t-elle selon le choix de la machine U utilisée ? En effet, une machine U peut être préférable à une machine U0 pour décrire une chaîne donnée, alors que cela serait vice versa pour une autre chaîne. C’est pour cette raison qu’en plus d’être universelle, la machine doit être additivement optimale.

Définition 4.1.3. Une machine de Turing universelle U est dite additivement optimale si pour toute machine de Turing universelle U0, il existe une constante cU ,U0 t.q. :

KU(x) ≤ KU0(x) + cU ,U0 ∀x

Heureusement, il est facile de prouver qu’il existe une machine de Turing universelle additivement optimale [18].

Théorème 4.1.1. Il existe une machine de Turing universelle additivement optimale.

Preuve. Soit une énumération calculable des machines de Turing universelles T1, T2, ... et

soit U une machine de Turing universelle, prenant une entrée de la forme : hn, P i = 11...1

| {z }

|n| f ois

0 nP .

Il faut voir cette entrée en deux parties : la première partie 11...1 0 n, où n est représenté sous forme binaire, définit quelle machine de Turing sera simulée (Tn) et la deuxième partie P est

(48)

le programme (représenté sous forme d’une chaîne de bits) qui doit être donné en entrée à la machine Tn. Ainsi, U (n, P ) = Tn(P ). On peut alors dire qu’il est possible de produire une

chaîne x à l’aide de la machine U en lui donnant en entrée hn, P i où n correspond à l’indice de la machine de Turing Tn pour laquelle il existe le plus court programme P produisant la

chaîne x. Finalement, ceci nous permet d’écrire :

KU(x) ≤ KTn(x) + cTn

avec cTn = 2|n| + 1. Ceci est vrai pour toute valeur de x, ce qui nous permet de conclure que

la machine U est additivement optimale. 

Le théorème4.1.1nous permet maintenant d’énoncer le théorème d’invariance, qui donne tout son sens à la complexité de Kolmogorov. Ce théorème a été prouvé indépendamment par Solomonoff en 1964 [24], par Kolmogorov en 1965 [17] et finalement par Chaitin en 1969 [10].

Théorème 4.1.2 (Théorème d’invariance). Soit U et U0 deux machines de Turing univer-selles additivement optimales. Alors,

|KU(x) − KU0(x)| ≤ ˜cU ,U0

où ˜cU ,U0 = max(cU ,U0, cU0,U).

Ce théorème dit qu’une méthode de description pour la chaîne x basée sur la machine universelle additivement optimale U offrira nécessairement la plus courte description de x et aucune autre méthode de description basée sur une machine universelle additivement optimale U0 ne pourra réduire la longueur de cette description par une quantité supérieure à une constante fixe. C’est pourquoi la complexité de Kolmogorov est un outil utile et intéressant. De plus, le théorème d’invariance nous permet de fixer une machine de Turing universelle additivement optimale comme étant la machine U de la définition 4.1.2. C’est pourquoi nous utiliserons dorénavant la notation K(r) plutôt que KU(r), puisque la la

(49)

Définition 4.1.4. La complexité1conditionnelle K(r|q), pour r ∈ {0, 1}net q ∈ {0, 1}m des

chaînes de longueur finie, est définie comme la longueur du plus court programme produisant la chaîne r lorsque la chaîne q lui est donnée en entrée.

4.1.2. Cas des chaînes infinies

Puisque le travail présenté au chapitre 5 porte entre autres sur l’étude de chaînes infinies, il est nécessaire de définir ce qu’est la complexité de Kolmogorov dans le cas de chaînes infinies.

Définition 4.1.5. Soit s = s1s2... une chaîne infinie de bits (si ∈ {0, 1} pour i = 1, 2, ...) et

s[n] = s1s2...sn les n premiers bits de s. La fonction

K(s) : N → N

n 7→ K(s[n])

définit la complexité de Kolmogorov d’une chaîne infinie de bits. Ainsi, K(s)(n) = K(s[n]).

Définition 4.1.6. La complexité conditionnelle K(s|t) pour des chaînes infinies s et t est définie pour toute valeur de n ∈ N par :

K(s|t)(n)def=K(s[n]|t[n]).

Il faut remarquer que la complexité conditionnelle dans le cas de chaînes infinies aurait pu être définie différemment. En effet, pourquoi ne pas utiliser K(s|t)(n) = K(s[n]|t) ? La

définition4.1.6est motivée par la règle de la chaîne, qui est introduite à la sous-section4.2.2.

4.2. Propriétés

4.2.1. Notation asymptotique

Afin d’alléger les calculs dans le cas des chaînes infinies, la notation asymptotique (≈) est utilisée et interprétée de la façon suivante :

K(s) ≈ f ⇐⇒ K(s[n]) = f (n) ± O(log n)

où f est une fonction quelconque sur l’ensemble des naturels.

1. Pour l’entièreté du document, l’utilisation de complexité fera référence à complexité de Kolmogorov.

(50)

La motivation à utiliser cette notation asymptotique dans l’étude du comportement des chaînes infinies vient en partie du fait qu’il est alors possible d’ignorer les petites fluctuations dans la valeur de K(s) (par exemple, un terme constant provenant de la spécification de U ) ou même d’ignorer la complexité du nombre n ; cette notation nous permet d’écrire K(s[n]) ≈ K(s[n]|n) puisqu’il est possible d’encoder n dans une chaîne de bits de longueur

lg n. Toutefois, ce choix de comportement asymptotique est d’abord et avant tout motivé par la règle de la chaîne présentée à la sous-section 4.2.2.

Naturellement, cette notation perd sa pertinence si les chaînes étudiées ont une complexité d’ordre inférieur à lg n, mais ce n’est pas la cas dans le travail présenté ici.

4.2.2. Règle de la chaîne

La complexité de Kolmogorov obéit à une relation importante appelée la règle de la chaîne [18]. Pour r ∈ {0, 1}n et q ∈ {0, 1}m :

K(r, q) = K(r) + K(q|r) ± O(log K(r, q))

= K(q) + K(r|q) ± O(log K(r, q)).

(4.2.1)

Supposons deux chaînes de même longueur r, p ∈ {0, 1}n. K(r, p) est au plus 2n (à un terme additif constant près). Ainsi, lg(K(r, p)) ≤ lg(2n + c) ∈ O(log n) ce qui nous permet d’écrire lg(K(r, p)) ∈ O(log n). De plus, pensons à r et p comme étant les n premiers bits des chaînes infinies s et t respectivement, c’est-à-dire r = s[n] et p = t[n]. Ainsi, la règle de la

chaîne dit :

K(r, p) = K(r) + K(p|r) ± O(log K(r, p))

=⇒ K(s[n], t[n]) = K(s[n]) + K(t[n]|s[n]) ± O(log K(s[n], t[n]))

=⇒ K(s, t)(n) = K(s)(n) + K(t|s)(n) ± O(log n) Pour des chaînes infinies, la règle de la chaîne est donc :

K(s, t) ≈ K(t) + K(s|t) ≈ K(s) + K(t|s).

(51)

4.2.3. Chaîne incompressible

Une chaîne infinie est dite incompressible si : K(s) ≈ n.

Intuitivement, l’incompressibilité d’une chaîne signifie qu’il n’existe pas de programme qui puisse décrire plus efficacement la chaîne qu’un programme qui la récite simplement, à un terme logarithmique près.

4.2.4. Indépendance

Deux chaînes infinies s et t sont indépendantes si : K(s|t) ≈ K(s).

Intuitivement, cette relation signifie que la chaîne t ne contient pas d’information (ou une quantité d’information au plus logarithmique) pouvant servir à décrire la chaîne s. Cette relation d’indépendance est symétrique. En appliquant 2 fois la règle de la chaîne, on obtient :

K(s|t) ≈ K(s, t) − K(t) ≈ K(s) + K(t|s) − K(t) mais par indépendance :

K(s|t) ≈ K(s).

Donc, on peut écrire :

K(s) ≈ K(s) + K(t|s) − K(t) =⇒ K(t|s) ≈ K(t).

4.2.5. Information mutuelle algorithmique

Pour quantifier la dépendance mutuelle entre deux chaînes infinies s et t, on définit l’information mutuelle algorithmique :

IK(s : t) ≈ K(t) − K(t|s).

Encore une fois, par la règle de la chaîne, on peut montrer que cette relation est symétrique, IK(s : t) ≈ IK(t : s). Notons que cette quantité est nulle ou positive, puisque K(t|s) . K(t)

(avoir accès à la chaîne s comme ressource pour décrire t ne peut que réduire ou laisser inchangée la complexité de t, et non l’augmenter).

(52)

4.3. Équivalence entre calculabilité et imprimabilité

Dans cette section, une preuve d’équivalence entre les concepts de calculabilité (tel qu’in-troduit par Turing en 1937 [25]) et d’imprimabilité (nommé ainsi par moi-même) est donnée. Le résultat d’équivalence est déjà connu et une preuve a été donnée par A. R. Meyer, dont une version modifiée est présentée par D. W. Loveland [19]. La preuve présentée dans cette section a été élaborée sans connaissance de celle de Meyer (ou Loveland), d’où la pertinence de la présenter en détail ici. L’intérêt est que la nouvelle preuve est conceptuellement plus simple.2

4.3.1. Programme

Soit U une machine de Turing universelle, prenant en entrée hP, xi, où P est la description de la machine de Turing à simuler (une chaîne de bits finie) et x est l’entrée à la machine P .

U (P, x) = P (x) Dans ce qui suit, P est appelée un programme.

4.3.2. Calculabilité et imprimabilité

Soit α = α1α2α3... une chaîne de bits infinie. Définissons α[n] = α1α2...αn comme les n

premiers bits de α.

Définition 4.3.1. Une chaîne de bits infinie α est calculable s’il existe un programme P tel que pour tout n ∈ N :

P (n) = α[n].

La définition d’imprimabilité fait appel à la complexité de Kolmogorov conditionnelle. Définition 4.3.2. Soit c une constante. Une chaîne de bits infinie α est c-imprimable si pour tout n ∈ N :

K(α[n]|n) ≤ c

2. Ce travail est en collaboration avec Xavier Coiteux-Roy, étudiant au doctorat à l’Université de la Suisse italienne, Lugano, Suisse.

(53)

Définition 4.3.3. Une chaîne de bits infinie est imprimable s’il existe une constante c telle qu’elle soit c-imprimable.

4.3.3. Calculable =⇒ Imprimable

Soit α une chaîne infinie calculable. Par définition, cela implique qu’il existe un pro-gramme P tel que ∀n, P (n) = α[n]. La description du programme P est une chaîne de bits

de longueur finie. On note cette longueur |P | = c, où c est une constante. Soit U la machine de Turing universelle prenant en entrée la description de P ainsi que n. Ainsi :

U (P, n) = P (n) = α[n].

Par définition de la complexité de Kolmogorov :

K(α[n]|n) ≤ |P | = c

ce qui correspond à la définition d’une chaîne imprimable.

4.3.4. Imprimable =⇒ Calculable

Soit α une chaîne infinie c-imprimable pour un certain c. Définissons Q = {Pi}i comme

la famille contenant tous les programmes de longueur c ou moins. Combien de programmes contient la famille Q ? Comme la longueur des programmes dans Q est bornée supérieurement par c, on obtient : |Q| = c X i=1 2i = 2c+1− 2

Notons la cardinalité de Q par |Q| = M . Ainsi, Q = {Pi}i=Mi=1 .

L’imprimabilité de α implique alors que pour tout n ∈ N, il existe un programme dans la famille Q t.q. :

Pi(n) = α[n]

pour un certain i ∈ {1, 2, ..., M }. L’idée de la preuve est de construire un programme S à partir des programmes dans Q, tel que S(n) = α[n] pour tout n ∈ N.

Définition 4.3.4. Calcul en queue de colombe

Soit P un programme prenant en entrée n ∈ N, c’est-à-dire qu’il existe une infinité d’en-trées possibles au programme P . La je étape de calcul du programme P sur entrée n est notée

(54)

(P (n))j. Rouler un programme sur une infinité d’entrées par la méthode en queue de colombe

signifie qu’à chaque temps t > 0, on roule simultanément (P (t))1, (P (t − 1))2, ..., (P (1))t.

t = 1 : (P (1))1

t = 2 : (P (2))1, (P (1))2

t = 3 : (P (3))1, (P (2))2, (P (1))3

...

Remarque. Si le programme P (n) s’est arrêté à l’étape j, alors (P (n))q ne produit rien

∀q > j.

Définition 4.3.5. Soit mn le nombre de sorties distinctes de longueur n obtenues en roulant

les programmes dans Q sur entrée n. On définit k comme la plus grande valeur de mn qui

apparaît infiniment souvent. Donnons-en une définition mathématique. On définit d’abord l’ensemble K, contenant toutes les valeurs de mn qui reviennent infiniment souvent.

K = {˜k |∞∃ n t.q. mn = ˜k}

Ensuite, k est défini comme la plus grande valeur de cet ensemble. k = max

˜ k

˜ k ∈ K

Définition 4.3.6. On définit ˜n comme le plus petit entier tel que : ∀n ≥ ˜n : mn ≤ k

Définition 4.3.7. Définissons une famille d’entrées {ci}i telle que :

n ∈ {ci}i ⇐⇒      n ≥ ˜n mn = k

Les éléments de {ci}i sont appelés entrées complètes. On définit l’élément ci comme la ie

entrée complète à être trouvée par le calcul en queue de colombe.

n 1 ... 10 ... n˜ ... cj ...

(55)

Définition 4.3.8. Définissons une liste d’ imposteurs, notés β1, ..., βb. Un imposteur est

c-imprimable et différent de α. À chaque imposteur est assignée une étiquette indiquant la position et la valeur du premier bit différant avec la chaîne α.

Figure 4.1. Exemple d’une étiquette pour l’imposteur β1.

Lemme 4.3.1. Il existe au plus M = 2c+1− 2 chaînes infinies distinctes c-imprimables.

Preuve. Rappelons nous d’abord qu’il y a M = 2c+1− 2 programmes différents de longueur au plus c. Supposons qu’il existe M +1 chaînes infinies distinctes c-imprimables. Ceci implique qu’il existe une valeur d’entrée n∗ telle que ∀ n ≥ n∗, la famille {Pi(n)}i contient M + 1

éléments distincts. Mais comme le nombre de programmes est borné par M , il est impossible que {Pi(n)}i contienne plus de M éléments distincts, peu importe la valeur de n. Ainsi,

il existe au plus M chaînes infinies distinctes c-imprimables, c’est-à-dire au plus M − 1

imposteurs. 

Construction du programme S

Considérons maintenant le programme S prenant en entrée n ∈ N :

(1) Énumération des programmes dans Q.

(2) Description de ˜n, k et la liste des étiquettes des imposteurs.

(3) Rouler tous les programmes dans Q en parallèle en queue de colombe (on roule M queues de colombe en parallèle), à partir de l’entrée ˆn = max(n, ˜n). Ainsi, au temps t = 1, on roule (Pi(ˆn))1pour i ∈ [1, M ], au temps t = 2, on roule (Pi(ˆn + 1))1, (Pi(ˆn))2

pour i ∈ [1, M ], etc.

(4) Trouver c1. Les k sorties distinctes de longueur c1 obtenues sur entrée c1 sont les

candidats pour α[c1].

(56)

(5) Élimination des imposteurs : en se référant à la liste des étiquettes, éliminer de la liste de candidats les imposteurs dont la position du premier bit différant avec α est plus petite ou égale à c1. (Les autres imposteurs respectent βi[c1] = α[c1].)

(6) Filtrage : même si les imposteurs indésirables ont été éliminés à l’étape précédente, il y a encore (potentiellement) de mauvais candidats à éliminer. Notons ceux-ci par {γi}i. Les γi sont les chaînes qui respectent K(γi[n]|n) ≤ c pour certaines valeurs de n

(et non pour tout n). Pour les éliminer, trouver c2. Comparer les k sorties distinctes

de longueur c2 obtenues sur entrée c2 avec les candidats restants.

— Si c2 > c1, éliminer tous les candidats qui ne sont pas préfixes d’au moins une

sortie obtenue sur entrée c2. À l’aide de la liste des étiquettes, éliminer de la liste

de candidats les imposteurs dont la position du premier bit différant avec α est entre c1 et c2, inclusivement.

— Si c2 < c1, garder seulement les sorties obtenues sur entrée c2 qui sont préfixes

d’au moins un candidat. Ces sorties forment la nouvelle liste de candidats.

(7) Répéter l’étape précédente pour ci avec i > 2 jusqu’à ce qu’il reste seulement un

candidat.

(8) Produire en sortie α[n], c’est-à-dire les n premiers bits du candidat final.

Nous avons construit un programme S tel que, ∀n, S(n) = α[n]. Ceci correspond à la

définition de calculabilité.

(57)

Chapitre 5

Étude des jeux CHSH et carré magique

À la suite des travaux de J. Bell sur les surprenantes corrélations quantiques obser-vées, entre autres, dans le jeu CHSH, ces corrélations ont été grandement étudiées. En effet, comment expliquer ces corrélations autrement qu’à l’aide d’une théorie à variables locales cachées ? Beaucoup se sont alors résignés à croire à une nature non locale de la mécanique quantique. D’un autre côté, il a été montré qu’une théorie locale et réaliste permet de décrire les corrélations quantiques. Le débat reste vivant et actuel.

Afin d’étudier et de quantifier l’aléa qui semble être au cœur des corrélations quantiques, deux principales approches sont utilisées dans la littérature. Il y a d’abord un point de vue probabiliste (ce qui aurait pu se produire) se basant sur la notion d’aléa au sens de Shannon. Il est également naturel de considérer un point de vue factuel (ce qui s’est passé). Ici, les notions « aléatoire » et « information » se côtoient étroitement.

La première section de ce chapitre présente les principaux résultats connus pour le jeu CHSH, plus précisément la boîte PR. La section suivante porte sur l’étude du jeu de pseudo-télépathie du carré magique, où de nouveaux résultats sont présentés. Les jeux sont étudiés selon les deux points de vue mentionnés précédemment, soit probabiliste et algorithmique.

(58)

5.1. CHSH

5.1.1. Étude probabiliste

5.1.1.1. Hypothèses

Dans le contexte probabiliste, on définit les variables aléatoires A, B, X et Y prenant les valeurs a ∈ {0, 1}, b ∈ {0, 1}, x ∈ {0,1} et y ∈ {0,1}. Les variables A et B représentent les questions reçues par Alice et Bob, tandis que X et Y représentent leurs réponses. Par hypothèse, tous les couples de questions (a, b) ont une probabilité non nulle d’être demandés. L’analyse probabiliste se base sur la définition de la boîte Popescu-Rohrlich (PR) et le principe de non-signalement (NS).

(PR) : a · b = x ⊕ y

(NS) : P (X = x | A = a, B = b) = P (X = x | A = a)

P (Y = y | A = a, B = b) = P (Y = y | B = b) 5.1.1.2. Résultats

Le théorème suivant et une preuve plus condensée de celui-ci se retrouvent dans [5]. Ici, la technique utilisée pour la preuve est plus détaillée, mais ce choix a été fait puisque la même technique sera utilisée pour l’analyse probabiliste du carré magique à la section 5.2.1. Théorème 5.1.1. Soit a, b ∈ {0, 1}, les questions reçues par une boîte PR, telles que P (A = a, B = b) 6= 0. Soit les réponses, x, y ∈ {0, 1}, telles que la définition de la boîte PR (PR) et le principe de non-signalement (NS) sont respectés. Alors, il existe une unique distribution de probabilité qui respecte ces contraintes. Pour tous les couples (a, b) fixés et toutes les valeurs possibles de x et y :

P (X = x | A = a, B = b) = 1 2 P (Y = y | A = a, B = b) = 1 2.

Preuve. Pour a, b, x, y ∈ {0, 1}, on peut écrire 24 = 16 probabilités conditionnelles de la forme P (X = x, Y = y | A = a, B = b). On cherche toutes les distributions de probabilité qui satisfont (PR) et (NS).

Figure

Figure 2.1. Boîte non signalante permettant de gagner au jeu CHSH avec probabilité 1.
Figure 2.2. Carré magique partiellement rempli
Figure 2.3. Alice et Bob doivent convaincre le vérificateur qu’ils partagent un carré magique
Figure 2.4. Montage utilisé pour le jeu du carré magique en utilisant la solution quantique de Mermin et Peres.
+5

Références

Documents relatifs

de facteurs fixes qui résultent des conditions topographlques, de la nature du sol et de la végétation qui le couvre, et aussi de facteurs variables tels que les variations de

Dans une première partie, nous justifierons le fait que le Carré Magique reste un bon instrument permettant d’effectuer une interprétation sur la conjoncture d’un

Bien souvent les réponses sont orientées par des explications présentes dans le sujet et qui ne sont pas prises en compte:. Ou encore, des réponses

La norme XP 07- 020 n'impose pas un nombre de chiffres significatifs pour l'expression de l'incertitude mais précise que compte tenu des conditions d'évaluation

Puis Zig choisit un nombre entier N compris entre 1 et 2013 qu’il annonce au forain.Celui-ci prépare alors un sixième tas (qui peut être vide) en extrayant des pralines des tas

En effet, sur les 47 répondants de la commu- ne de Lacoste, environ 50 % se sont installés entre 1965 et 1980 alors que sur les communes de Bonnieux et de Ménerbes (58 et 47

Soit, par exemple, µ la mesure uniforme (habituellement notée λ). est parfaitement prévisible après les n premiers chiffres. En fait, la prévisibilité par une fonction

ىلع رمت نأ بجي طويخلا هتاه غبص لبق ، طويخلا ىلع لوصحلل لزغلا ةيلمع للاخ نم رتسيلوبلاو نطقلا نم نوكتت يتلا أدبت يتلا ةجلاعملا لبق ام ىمست تايلمع نم ةلسلس نم..