• Aucun résultat trouvé

Mélanger un jeu de cartes.

N/A
N/A
Protected

Academic year: 2021

Partager "Mélanger un jeu de cartes."

Copied!
27
0
0

Texte intégral

(1)

Travaux personnels encadrés

Mélanger un jeu de cartes

Camilla Yang, Benjamin Rousseau

Licence 3 - Mathématiques

Année universitaire 2017/2018

(2)

Chapitre 1

Introduction

On cherche à déterminer le nombre de fois où il faut mélanger un jeu de cartes de manière à ce que les cartes soient considérées dans un ordre aléatoire. Pour cela, nous analyserons deux méthodes de mélange : la première consistant à placer la première carte du jeu au hasard dans le paquet et la seconde, plus ecace, consistant à mélanger le jeu à l'américaine. La question se réduira na-lement à deux problèmes combinatoires classiques : le problème de la collection des vignettes et le paradoxe des anniversaires. Commençons donc par étudier ces deux problèmes.

1.1 Paradoxe des anniversaires

On considère n personnes prises au hasard au sein d'un même groupe. Le pa-radoxe des anniversaires correspond au nombre de personne que l'on doit réunir an d'avoir au moins une chance sur deux d'obtenir la même date d'anniversaire pour deux personnes du groupe. Pour cela, il nous est plus facile de chercher la probabilité que toutes les personnes aient leur date d'anniversaire un jour dif-férent, on la note Pn. On procède par dénombrement. Chaque personne ayant

365 dates possibles (on suppose les années non bissextiles, pas de jumeaux dans le groupe), il y'a 365n cas possibles pour les n personnes. En dénombrant, on

obtient que le nombre de possibilités pour que toutes les personnes aient leur date d'anniversaire distincte est :

 365 choix pour la première personne,  364 choix pour la seconde personne,  . . .

 365 − n + 1 choix pour la n−ième personne. En multipliant tout, on obtient : 365!

(365−n)!.

(3)

Pn = 365! (365− n)!· 1 365n = 365 365 · 364 365· · · 365− n + 1 365 | {z } nf ois = ( 1 1 365 ) · ( 1 2 365 ) . . . ( 1−n− 1 365 ) Pn = n−1 i=1 ( 1 i 365 ) .

Donc, d'après le tableau ci-dessous, on peut voir qu'à partir de 23 personnes dans un groupe, on a une chance sur deux d'avoir deux personnes qui possède la même date d'anniversaire.

n Pn 1 1 5 0.97 10 0.88 20 0.58 22 0.52 23 0.49 30 0.29 50 0.03 ... ...

365 0 (Principe des tiroirs)

1.2 La collection des vignettes

On suppose qu'une collection comporte n vignettes diérentes, combien faut-il acheter de vignettes pour espérer en avoir toute la collection ? Un sachet est opaque et comporte une seule vignette. De manière analogue, si l'on tire aléatoirement des boules dans une urne contenant n boules indiscernables, et que l'on replace la boule dans l'urne après le tirage (tirage avec remise) et que l'on mélange le contenu de l'urne, combien de tirages faut-il eectuer en moyenne pour être certain d'avoir extrait de l'urne chacune des boules au moins une fois ? Si l'on a déjà réussi à extraire k boules diérentes de l'urne, alors la probabilité pour qu'apparaisse au tirage suivant une boule déjà présente dans la liste des k premières est k

n. Ainsi, la probabilité de devoir recourir à extactement s tirages

avant d'obtenir une boule distincte des k déjà rencontrées est(k n

)s−1

·(1−kn). En eet, c'est une loi géométrique prenant comme paramètre de Bernoulli p = k

n

(4)

Le nombre moyen de tirages que l'on doit eectuer avant d'espérer obtenir une nouvelle boule est donc :

s≥1 ( k n )s−1( 1−k n ) s = 1 1−k n .

On le calcule de cette manière : ∑ s≥1 xs−1(1− x) s =s≥1 xs−1s−s≥1 xss =∑ s≥0 xs(s + 1)−s≥0 xss =∑ s≥0 xspour x ∈ ] − 1, 1[ et ici, x = k n ∈ ] − 1, 1[ = 1 1− x.

Où la dernière égalité s'obtient par sommation d'une série géométrique :

Sn = ns=0 xs= 1 + x + . . . + xn= 1− x n+1 1− x pour x ̸= 1, et si |x| < 1 alors la série converge, de somme 1

1− x.

Ainsi, si on note Vnla variable aléatoire associée à l'évènement  on a tiré toutes

les boules au moins une fois  alors : E(Vn) = n−1 k=0 1 1−kn = n n+ n n− 1+ n n− 2 + . . . + n 2 + n 1 = nHn≈ n ln(n). On appelle n−ième nombre harmonique Hn la n−ième somme partielle de la

série harmonique : Hn = 1 + 1 2+ 1 3 + . . . + 1 n = nk=1 1 k.

On se propose de montrer le résultat de deux manières :

La première consiste à procéder par encadrement. On sait que la fonction inverse est décroissante sur ]0; +∞[ donc par encadrement, on a :

k+1 k 1 t dt≤ 1 k k k−1 1 tdt. Pour k ≥ 1, 1 k k+1 k 1 tdt.

(5)

Pour k ≥ 2, 1 k k k−1 1 t dt. En sommant, on obtient : nk=1 1 k nk=1k+1 k 1 t dt =n+1 1 1 t = ln (n + 1) . Et : nk=1 1 k = 1 + nk=2 1 k ≤ 1 + nk=2k k−1 1 tdt = 1 +n 1 1 t dt = 1 + ln(n). On a donc : ∀n ≥ 1, ln (n + 1) ≤ Hn≤ 1 + ln(n),

ce qui nous permet de trouver que Hn

n→+∞ln(n).On retrouve donc bien : n−1

k=0

1

1nk = nHn ≈ n ln(n).

Une autre méthode toute aussi ecace est de considérer la valeur de ln(n+1 n ) . En eet : ln ( n + 1 n ) = ln ( 1 + 1 n ) n→+∞ 1 n ⇒ ln(1 + n) − ln(n) ∼n→+∞ 1 n.

En appliquant le théorème de sommation des équivalents sur les séries diver-gentes à termes positifs, on obtient donc :

nk=1 1 k n→+∞∼ nk=1 [ln(1 + k)− ln(k)] ⇒ Hn n→+∞ln(n + 1)n→+∞∼ ln(n).

Les calculs faits ci-dessus démontrent donc qu'on doit eectuer environ n ln(n) achats de vignettes pour obtenir chacune des diérentes vignettes. On va main-tenant chercher une majoration pour le problème des vignettes dans le cas où l'on doit eectuer plus que n ln(n) tirages. Vnétant le nombre aléatoire de tirages

eectués jusqu'à l'obtention pour la première fois d'au moins une fois chaque vignette, alors pour n ≥ 1 et c ≥ 0, la probabilité pour que l'on ait besoin de plus de m = n ln(n) + cn tirages vérie :

Prob[Vn> m]≤ e−c.

Mais avant de démontrer ce résultat, nous allons démontrer que la fonction

(6)

f (x) = ( 11 x )x = exp ( x ln ( 11 x )) , On a que : f′(x) = [ ln ( 11 x ) + 1 x− 1 ] exp ( x ln ( 11 x )) .

La fonction exponentielle étant strictement positive, étudier le signe de f′revient

à étudier le signe de la fonction :

g(x) = ln ( 11 x ) + 1 x− 1, Donc : g′(x) =( 1 x− 1 ) ( 1 x− 1 ) .

Pour tout x appartenant à ]1, +∞[, on a ( 1

x−1

)

> 0 et (x1− 1) < 0. On en

déduit donc que g est une fonction strictement décroissante sur ]1, +∞[ et donc

g(x) > lim

x→∞g(x) = 0. Alors g est strictement positive sur ]1, +∞[, donc f est

strictement positive sur ]1, +∞[ et ainsi f est strictement croissante sur ]1, +∞[. On en déduit que : ∀n ∈ N∗:(1 1 n )n < 1 e.

Ainsi, si Aidésigne l'évènement  la boule i n'est pas sortie lors des m premiers

tirages , alors : Prob[Vn> m] = P rob [ ∪ i Ai ] i Prob[Ai] = n ( 1 1 n )m = n [( 1 1 n )n]mn < n ( 1 e )m n < n e−mn ≤ e−c.

Considérons à présent un jeu de n cartes. On peut indexer les cartes de 1 à n en fonction de leur ordre d'apparition, de sorte que la carte portant le numéro 1 est celle qui se trouve en haut de la pile alors que celle portant le numéro n se trouve au bas de la pile. Nous notons désormais Sn le groupe symétrique d'ordre n,

c'est-à-dire l'ensemble des permutations de {1, . . . , n}. Mélanger le jeu de cartes revient à appliquer aléatoirement un certain nombre de permutations à l'ordre des cartes. De manière idéale, cela sous-entend que chacune des permutations

(7)

d'être appliquée. Ainsi, l'application d'une permutation transforme l'ordre des cartes en une nouvelle séquence π = (π(1), π(2), . . . , π(n)) parfaitement aléa-toire. Toutefois, ce n'est pas ce qui se produit dans la pratique. En eet, lorsque l'on mélange un jeu de cartes, ce sont seulement  certaines  permutations qui se produisent, et pas toujours avec la même probabilité. On mélange donc plu-sieurs fois le jeu et on espère qu'à l'issue de ces opérations le jeu est au moins rangé dans un ordre que l'on peut considérer comme  proche  d'un ordre aléatoire.

(8)

Chapitre 2

Mélange à partir de la carte

du haut de la pile

Pour le premier type de mélange, on considère un jeu de n cartes dont on va prendre la carte supérieure du jeu et l'insérer au hasard dans le paquet. Il y a donc n places possibles équiprobables avec une probabilité de 1

n (en considérant

le fait qu'on puisse reposer la carte au dessus du paquet). Si on note l'ordre des cartes respectivement de 1 à n, on se rend bien compte qu'un seul mélange de cette façon équivaut à une permutation de la carte du haut (numéroté 1) vers une carte au hasard placée à la i−ième place avec i compris entre 1 et n qui prend elle-même la valeur de i − 1. Cependant, une seule insertion n'est pas satisfaisante pour considérer l'ordre des cartes comme étant aléatoire et l'on se doute qu'il faille réaliser un très grand nombre de manipulations similaires avant d'obtenir un ordre aléatoire. La question que l'on se pose naturellement est de savoir comment peut-on évaluer un ordre  presque aléatoire  ? Autrement dit, quel est le critère d'arrêt qui permet d'armer que notre jeu de carte est bien mélangé avec un ordre aléatoire pour chacune des n cartes ? Pour cela, on utilise la  mesure de variation totale  que les probabilistes ont mis au point an de pouvoir mesurer le caractère aléatoire. On va dans un premier temps mettre un  poids  sur l'ordre de la carte supérieure. Autrement dit, on met une probabilité sur chacune des n cartes et on dénit une distribution qui donne la probabilité que l'ordre de la n−ième carte se retrouve au dessus. Ainsi pour le mélange initial, on obtient la distribution I dénie par :

{

I(id) = 1,

I(π) = 0, si π ̸= id,

En eet, la carte numéro une étant située tout en haut du paquet avant d'eec-tuer la première insertion, la probabilité que la carte une soit tirée vaut 1 et 0 pour les autres cartes qui se trouvent en dessous.

(9)

U(π) = 1

n!, pour tout π ∈ Sn,

où Sn désigne l'ensemble des permutations de {1, . . . , n} dans {1, . . . , n}.

La mesure de variation totale entre deux distributions de probabilité Q1 et Q2

est dénie comme :

∥Q1− Q2∥ := 1 2 ∑ π∈Sn |Q1(π)− Q2(π)|. En posant Qi(S) :=

π∈SQi(π), on peut montrer que :

∥Q1− Q2∥ = max S⊆Sn|Q1(S)− Q2(S)|, en tenant compte de∑πQ1(π) =πQ2(π) = 1. En eet, on va montrer la majoration suivante : max S⊆Sn|Q1(S)− Q2(S)| ≤ ∥Q1− Q2∥. En eet : |Q1(S)− Q2(S)| =π∈S (Q1(π)− Q2(π)) . Or, π∈S Q1(π) =π∈Sn Q1(π)−π /∈S π∈Sn Q1(π) = 1−π /∈S π∈Sn Q1(π). De même, π∈S Q2(π) = 1−π /∈S π∈Sn Q2(π). On obtient donc :

(10)

|Q1(S)− Q2(S)| = 1π /∈S π∈Sn Q1(π)− 1 +π /∈S π∈Sn Q2(π) = ∑ π /∈S π∈Sn (Q1(π)− Q2(π)) donc 2 |Q1(S)− Q2(S)| =π∈S Q1(π)− Q2(π) + ∑ π /∈S π∈Sn Q1(π)− Q2(π) π∈Sn |Q1(π)− Q2(π)| c'est-à-dire |Q1(S)− Q2(S)| ≤ 1 2 ∑ π∈Sn |Q1(π)− Q2(π)| ⇒ |Q1(S)− Q2(S)| ≤ ∥Q1− Q2∥.

L'inégalité étant valable pour toute partie S, on peut passer au max : max

S⊆Sn|Q1(S)− Q2(S)| ≤ ∥Q1− Q2∥.

Et l'égalité s'obtient en considérant le cas particulier S := {π ∈ Sn : Q1(π) >

Q2(π)}. Il est manifeste que 0 ≤ ∥Q1−Q2∥ ≤ 1 car Q1et Q2sont des

probabili-tés. Dans la suite,  être presqu'aléatoire  sera interprêté comme  être à petite distance (à petite mesure de variation totale) de la distribution uniforme . Ici, la distance séparant la distribution initiale I et la distribution uniforme U est très proche de 1 :

∥I − U∥ = 1 − 1 n!.

(11)

∥I − U∥ = 1 2 ∑ π∈Sn |I(π) − U(π)| (2.1) = 1 2     ∑ π∈Sn π̸=id

|I(π) − U(π)| + I(id) − U(id)

    (2.2) = 1 2     ∑ π∈Sn π̸=id O − 1 n! + 1 − 1 n!     (2.3) = 1 2 ( (n!− 1) · 1 n! + 1 1 n! ) (2.4) = 1 2 ( 2 2 n! ) (2.5) ∥I − U∥ = 1 − 1 n!. (2.6)

Pour passer de la ligne (2.3) à la ligne (2.4), on sait que |Sn| = n! donc le

car-dinal de Sn privé de l'identité vaut |Sn\ {Id}| = n! − 1.

Après insertion aléatoire de la carte supérieure dans le tas, les choses ne s'amé-liorent pas beaucoup :

∥T op − U∥ = 1 − 1

(n− 1)!.

La distribution de probabilité sur Sn que l'on obtient après avoir répété k fois

une insertion aléatoire de la carte supérieure sera notée Top∗k. La question est

de savoir comment se comporte ∥Top∗k− U∥ lorsque k augmente, c'est-à-dire

au fur et à mesure que l'on mélange le jeu. La théorie générale établit que pour des grandes valeurs de k, la distance (de variation totale) d(k) := ∥Top∗k− U∥

tend vers 0 exponentiellement.

Pour démontrer ce résultat, on se propose de modéliser la distribution de Top qu'on notera µ et de montrer qu'elle tend exponentiellement vers la distribution uniforme dénie par U(π) = 1

n! ∀π ∈ Sn.Pour se faire, on va utiliser la notion

de marche aléatoire. Soit Xk la variable aléatoire qui associe la permutation π

à la distribution µk. En dénissant la permutation σk = (k, k− 1, . . . , 1), la

permutation qui associe la carte du haut de la pile à sa nouvelle place k, on peut écrire :

P (Xk+1= σπ| Xk= π) = µ(σ).

En eectuant le changemant de variable τ = σπ, on obtient :

(12)

En utilisant la notion des chaînes de Markov, on a : P (Xk+1= xj | Xk = xi) = pi,j. Par dénition : µ(k+1)(xj) = P (Xk+1= xj) = ni=1

P (Xk+1= xj | Xk = xi)P (Xk= xi)d'après la formule des probabilités totales

= ni=1 (pi,j µk(xi)) = (µk(x1), . . . , µk(xn))· P · ej.

où P est la matrice bistochastique de transition de la distribution µk+1 à µk

qu'on se propose d'expliciter plus loin et ej la matrice suivante :

ej=             0 ... 0 1 0 ... 0             ← jeligne. Ainsi : (µk+1(x1), . . . , µk+1(xn)) = (µk(x1), . . . , µk(xn))P.

En réitérant le processus, on obtient :

(µk(x1), . . . , µk(xn)) = (µ0(x1), . . . , µ0(xn))Pk.

Si (µ0(x1), . . . , µ0(xn)) = (1, 0, . . . , 0) où µ0 est la distribution initiale, alors :

(µk(x1), . . . , µk(xn))est la première ligne de Pk.

Maintenant que nous avons rigoureusement explicité la distribution Top (as-sociée à µ), nous allons amorcer la démonstration du résultat attendu à savoir que la distribution Top∗k tend de manière exponentielle vers la distribution uni-forme. Or, on vient de voir que la distribution Top∗k qu'on a notée µ

kn'est rien

d'autre que la distribution initiale (µ0) qu'on a composée k fois avec la matrice

de transition P . Autrement dit, la distribution µkest déterminée par la première

ligne de la matrice Pk. On va donc chercher à démontrer que la matrice tend

exponentiellement vers la matrice U où

U = 1 n!    1 ... 1    .

(13)

Pour en revenir à la matrice de transition, on se contentera de rester dans le cadre de S3 qui est déjà fastidieux (en eet, pour la matrice Sn, il y a n! ∗

n! coecients donc 36 coecients pour n = 3 et déjà 576 coecients pour n = 4). Pour la distribution Top, on applique successivement la permutation σk = (k, k− 1, . . . , 1) à π ∈ Sn qui devient σk◦ π. La marche aléatoire associée

à Top a donc pour matrice de transition :

P = P(π,τ )π,τ∈Sn avec : P(π,τ )π,τ∈Sn=

{ 1

n si τ ∈ (σ1◦ π, . . . , σn◦ π),

0 sinon.

S3 = {Id, (1, 2), (1, 3), (2, 3), (1, 2, 3), (1, 3, 2)} et S = {Id, (1, 2), (1, 3, 2)} est

générateur du groupe S3 donc nalement {σ1◦ π, . . . , σn◦ π} = {Id, (1, 2) ◦

π, (1, 3, 2)◦ π}.

Théorème 1. Si P est bistochastique et P est irréductible et Pi,i> 0∀i alors :

(tP )mµtend vers U exponentiellement vite.

Démonstration. Montrons que P est fortement irréductible. Il existe k tel que

∀i, j (Pk)

i,j > 0. Si (Pk)i,j> 0 alors (Pk+1)i,j> 0. En eet :

(Pk+1)i,j= nl=1 (Pk)i,lPl,j ≥ (Pk)i,j | {z } >0 Pj,j |{z} >0 > 0.

De plus, ∀i, j ∃k(i, j) ∈ N tel que (Pk(i,j))

i,j > 0. On pose k = max

i,j k(i, j) et

c'est bon.

On pose Q = Pk, on a Q

i,j > 0∀i, j. Soit ϵ = n min

i,j Qi,j> 0donc Qi,j≥ ϵ n ∀i, j. On va montrer que : ∥t− U∥ 1≤ (1 − ϵ)∥µ − U∥1avec U = 1 n!    1 ... 1    n coecients. On a : P U = U et tP U = U donc QU = U et tQU = U donc :

(14)

t− U∥ 1 = ∥tQ(µ− U)∥1 = ni=1 nj=1 Qj,i(µj− Uj) car ∥x∥1= ni=1 |xi| = ni=1 nj=1 ( Qj,i− ϵ n ) | {z } ≥0 (µj− Uj) car ∑ µj = ∑ Uj= 1 ni=1 nj=1 ( Qj,i− ϵ n ) |µj− Uj| nj=1 |µj− Uj| ni=1 ( Qj,i− ϵ n ) | {z } 1−ϵ ≤ (1 − ϵ)∥µ − U∥1 Montrons que : ∥(tQ)nµ− U∥ 1≤ (1 − ϵ)n∥µ − U∥1. Soit ν = (tQ)n−1µ. Alors : ∥(tQ)nµ− U∥ 1 = ∥tQν− U∥1 ≤ (1 − ϵ)∥ν − U∥1 ≤ (1 − ϵ)∥(tQ)n−1µ− U∥ 1. Par récurrence : ∥(tP )nkµ− U∥ 1≤ (1 − ϵ)n∥µ − U∥1.

donc Top tend vers U exponentiellement.

On en déduit ainsi les matrices P bistochastiques pour la distribution Top (toujours avec S3) : P =         1 3 1 3 1 3 0 0 0 1 3 1 3 0 0 1 3 0 0 0 13 13 0 13 0 13 13 13 0 0 0 0 0 13 13 13 1 3 0 0 0 1 3 1 3         .

(15)

P2=         2 9 2 9 2 9 1 9 1 9 1 9 2 9 2 9 1 9 1 9 2 9 1 9 1 9 1 9 2 9 2 9 1 9 2 9 1 9 2 9 2 9 2 9 1 9 1 9 1 9 1 9 1 9 2 9 2 9 2 9 2 9 1 9 1 9 1 9 2 9 2 9         . P3=         5 27 5 27 5 27 4 27 4 27 4 27 5 27 5 27 4 27 4 27 5 27 4 27 4 27 4 27 5 27 5 27 4 27 5 27 4 27 5 27 5 27 5 27 4 27 4 27 4 27 4 27 5 27 5 27 5 27 5 27 5 27 4 27 4 27 4 27 5 27 5 27         . P4=         14 81 14 81 14 81 13 81 13 81 13 81 14 81 14 81 13 81 13 81 14 81 13 81 13 81 13 81 14 81 14 81 13 81 14 81 13 81 14 81 14 81 14 81 13 81 13 81 13 81 13 81 13 81 14 81 14 81 14 81 14 81 13 81 13 81 13 81 14 81 14 81         .

Pour les diérents k donnés, on peut tester la convergence de Top∗k vers la distribution uniforme :

∥Top∗k− U∥ = ∥1eligne de Pk− U∥.

On en déduit :

Pour k = 1 : ∥1e ligne de P −U∥ = 1

2 ( 6i=1 P1,i− 1 6 ) =1 2 ( 3 1 3 1 6 + 3 0 −16 )= 1 2,

Pour k = 2 : ∥1e ligne de P2− U∥ = 1

2 ( 3 2 9 1 6 + 3 1 9 1 6 )=1 6, Pour k = 3 : ∥1e ligne de P3− U∥ = 1

2 ( 3 5 27 1 6 + 3 274 1 6 )= 1 18, Pour k = 4 : ∥1e ligne de P4− U∥ = 1

2 ( 3 14 81 1 6 + 3 13811 6 )= 1 54. On se rend bien compte que la distribution Top∗ktend de manière exponentielle

vers une distribution proche de la distribution uniforme.

Cependant, cette théorie ne rend pas compte du phénomène de  coupure  que l'on observe en pratique : après un certain nombre k0d'opérations, d(k) décroît

(16)

Critère d'arrêt uniforme fort :

L'étonnant critère d'arrêt  uniforme fort  tel qu'il a été introduit par Aldous et Diaconis permet de transcrire les notions essentielles. Imaginons qu'un di-recteur de casino observe attentivement l'opération consistant à mélanger les cartes et qu'il note les permutations appliquées au jeu à chaque étape de sorte qu'il puisse dire  ON ARRÊTE !  après un certain nombre d'étapes dépen-dant des permutations qu'il a vues. Il disposerait ainsi d'un  critère d'arrêt  permettant d'interrompre le mélange des cartes. Un tel critère ne doit dépendre que des opérations eectuées (aléatoirement) sur le jeu. Le critère d'arrêt est dit uniforme fort si la condition suivante est satisfaite pour tout k ≥ 0 :

 Si le processus est interrompu après exactement k étapes, alors les permu-tations associées à l'ordre potentiel des cartes (résultat des k étapes) ont une distribution (exactement) uniforme. 

Soit T le nombre d'étapes exécutées jusqu'à ce que le critère d'arrêt se déclenche et soit Xk la permutation de Sn associée à l'ordre dans lequel se trouve le jeu

de cartes après la k-ième opération de mélange. T et Xk sont des variables

aléa-toires et le critère d'arrêt est uniforme si pour toutes les valeurs possibles de

k:

P rob[Xk = π| T = k] =

1

n! pour tout π ∈ Sn.

En sachant que la probabilité conditionnelle est dénie comme ci-dessous :

P rob[A|B] = P rob[A∩ B] P rob[B] .

Cette expression est remarquable et utile à trois titres.

1. Elle prouve que des critères d'arrêt uniforme forts existents ; ils peuvent même être très simples dans certains cas.

2. Les cas en question peuvent être analysés : P rob[T > k] conduit souvent à des problèmes combinatoires simples.

3. Le résultat précédent conduit à des bornes supérieures sur des distances du type d(k) = ∥T op∗k− U∥.

Par exemple, le procédé consistant à insérer la carte supérieure dans le jeu admet comme critère d'arrêt uniforme fort :

 ARRÊTER dès que la carte du bas de la pile (celle numérotée n) est à son tour insérée dans le tas pour la première fois .

On constate que tout au long du processus, l'ordre des cartes situées au-dessous de cette carte obéit à une loi uniforme. Ainsi, lorsque la n-ième carte a atteint le sommet de la pile et qu'elle va être insérée au hasard dans le jeu, tout l'ordre de tout le tas obéit à une loi uniforme. On ne connaît pas précisément le moment où cet événement se produit (seul le directeur du casino le sait).

Désignons par Ti la variable aléatoire qui décompte le nombre d'opérations de

mélange eectuées avant que pour la première fois i cartes reposent sous la carte numéro n (celle qui était initialement en bas de la pile). Il nous faut calculer la distribution de :

(17)

T = Tn = T1+ (T2− T1) + . . . + (Tn−1− Tn−2) + (Tn− Tn−1)

Chaque terme de la somme correspond à un problème de collection de vignettes :

Ti−Ti−1indique le nombre d'opérations qui ont été eectuées avant que la carte

du haut de la pile n'atteigne l'une des i places possibles se trouvant en-dessous de la carte numéro n. C'est donc aussi le nombre d'achats eectués pour que la collection de vignettes passe de la (n−1)−ième image à la (n−i+1)−ième. Soit

Vi le nombre de vignettes achetées jusqu'à l'obtention de i vignettes distinctes.

Alors :

Vn = V1+ (V2− V1) + . . . + (Vn−1− Vn−2) + (Vn− Vn−1),

et nous avons vu que Prob[Ti− Ti−1 = j] = Prob[Vn−i+1− Vn−i = j] pour

tout i et tout j. Ainsi, le problème de la collection des vignettes et l'opération consistant à mélanger un jeu de cartes (en plaçant la carte supérieure au hasard dans le jeu) conduisent aux mêmes séquences de processus aléatoires indépen-dants (ils dièrent en ce qu'ils se produisent en ordre inverse l'un de l'autre). Le déclenchement du critère d'arrêt uniforme fort pour mélanger les cartes ne nécessitera donc plus de k = ⌈nln(n) + cn⌉ étapes qu'avec la probabilité :

P rob[T > k]≤ e−c.

Cela signie qu'après k = ⌈n ln(n) + cn⌉ étapes, le jeu de cartes est  bien mélangé puisqu'il vérie :

d(k) =∥T op∗k− U∥ ≤ e−c,

d'après le lemme, simple mais essentiel, qui suit.

Lemme. Soit Q : Sn −→ R une distribution de probabilité quelconque

dénis-sant un procédé Q∗k pour mélanger les cartes avec un critère d'arrêt uniforme

fort de temps d'arrêt T. Alors, pour tout k ≥ 0,

∥Q∗k− U∥ ≤ P rob[T > k].

Preuve. Si X est une variable aléatoire à valeurs dans Sn, dont la distribution

de probabilité est Q, on écrit Q(S) pour désigner la probabilité que X prenne une valeur dans S ⊆ Sn.En d'autres termes, Q(S) = Prob[X ∈ S], et dans le

cas de la distribution uniforme Q = U on trouve :

U (S) = P rob[X ∈ S] = |S| n!.

Pour chaque sous-ensemble S ⊆ Sn, on obtient la probabilité que le jeu de cartes

(18)

Q∗k(S) = P rob[Xk ∈ S] (2.7) =∑ j≤k P rob[(Xk ∈ S) ∩ (T = j)] + P rob[(Xk∈ S) ∩ (T > k)] (2.8) =∑ j≤k

U (S)P rob[T = j] + P rob[Xk ∈ S | T > k] · P rob[T > k] (2.9)

= U (S)(1− P rob[T > k]) + P rob[Xk∈ S | T > k] · P rob[T > k]

(2.10) = U (S) + (P rob[Xk∈ S | T > k] − U(S)) · P rob[T > k]. (2.11)

Pour passer de (2.7) à (2.8), on utilise la formule des probabilités totales :

P rob[Xk∈ S] = |S|

j=0

P rob[(Xk ∈ S) ∩ (T = j)].

On passe de (2.8) à (2.9) en utilisant le fait que U(S) = P rob[Xk ∈ S] est

une probabilité conditionnelle et que (Xk ∈ S) et (T = j) sont des événements

indépendants.

On peut passer de (2.9) à (2.10) car P rob[T > k] = 1 − P rob[T ≤ k] = 1 −

j≤k

P rob[T = j]et U(S) sort de la somme comme il ne dépend pas de j.

Comme : |Q∗k(S)− U(S)| ≤ |P rob[X k ∈ S | T > k] − U(S)| | {z } ≤1 |P rob[T > k]| | {z } ≥0

car ce sont des probabilités

≤ P rob[T > k],

On en tire :

|Q∗k(S)− U(S)| ≤ P rob[T > k]

puisque la quantité :

P rob[Xk∈ S | T > k] − U(S)

est obtenue comme diérence de deux probabilités si bien qu'elle est de valeur absolue inférieure à 1.

À ce stade nous avons terminé l'analyse de la procédure consistant à mélan-ger un jeu de cartes en insérant la carte supérieure au hasard dans le jeu : nous avons établi une majoration du nombre d'itérations du procédé nécessaires pour que l'ordre du jeu puisse être considéré comme aléatoire.

Théorème 2. Soit c ≥ 0 et k := ⌈n ln(n) + cn⌉. Alors après k itérations du procédé de mélange à partir de la carte du haut, la distance (de variation totale) entre le résultat et la distribution uniforme vérie :

(19)

On peut aussi montrer que la distance d(k) reste grande si l'on a un nombre d'itérations k nettement inférieur à n ln(n) parce qu'un nombre inférieur de mélanges ne permet pas de défaire l'ordre initial sur les cartes appartenant à la partie inférieure du tas. Bien sûr, mélanger un jeu de cartes selon le procédé que nous avons étudié dans cette partie, c'est-à-dire en plaçant la carte supérieure au hasard dans le tas, est un procédé extrêmement inecace. Il faudrait, en eet, répéter le procédé n ln(n) ≈ 205 fois pour qu'un jeu de n = 52 cartes puisse être considéré comme convenablement mélangé. Nous nous intéressons donc désormais à un procédé pour mélanger les cartes qui soit plus ecace et plus réaliste.

(20)

Chapitre 3

Mélange à l'américaine

On propose maintenant d'étudier un second type de mélange dit mélange à l'américaine qui consiste à séparer le paquet en deux et d'entrelacer les cartes des deux paquets. On se rend alors bien compte qu'avec un tel mélange on eectue d'un seul coup plusieurs permutations à la fois sur les cartes du paquet initial. Pour bien comprendre le mélange qu'on est en train d'eectuer, on considère les cartes numérotées de 1 à n, 1 étant la carte tout en haut du paquet initial et

ncelle tout en bas. Les mélanges à l'américaine correspondent exactement aux

permutations π ∈ Sn telles que la séquence :

(π(1), π(2), . . . , π(n))

puisse se décomposer en deux sous-séquences croissantes entrelacées sauf dans le cas où on a la permutation identité (c'est à dire que l'on a un paquet de n cartes et un de 0). Il y a en tout 2n− n façons de procéder à un mélange à

l'américaine pour un jeu de n cartes. An de montrer ce résultat, on montre d'abord qu'en coupant le paquet de n cartes en deux  sous-paquets  de t cartes (avec 0 ≤ t ≤ n) et n − t cartes. Il y a exactement(n

k

)

façons d'entrelacer les deux paquets. Pour le voir, on peut considérer l'inverse d'un tel mélange qui revient à se demander : combien y a-t-il de possibilité de prendre t cartes dans le paquet de n cartes après avoir entrelacé les deux paquets précédents pour réobtenir les deux paquets distincts ? On se rend bien compte qu'il y en a (n

k

)

. Une autre manière (mais plus fastidieuse) de déterminer le nombre de possibilités d'entrelacer les deux paquets est de considérer l'ensemble suivant :

At={π ∈ Sn; π(1) < . . . < π(t)et π(t + 1) < . . . < π(n)}.

On se rend bien compte que le cardinal de l'ensemble Atéquivaut au nombre de

possibilités d'entrelacer les cartes et vaut après dénombrement (n k

)

. Pour bien se rendre compte d'un tel ensemble on peut considérer les premiers ensembles suivants :

(21)

 A1={ti, 1≤ i ≤ n} avec ti= (1, i),

 A2={ti et tj, 1≤ i ≤ n et 1 + i ≤ j ≤ n}.

Au nal, le nombre de façons de procéder à un mélange à l'américaine pour un jeu de n cartes équivaut au cardinal de l'union des At. Avant de vérier que

card ( nt=0 At )

= 2n− n, on se propose de démontrer le lemme suivant :

Lemme. ∀t, t′ ∈ {1, . . . , n} : t ̸= t⇒ AtAt ={Id}.

Démonstration. Supposons par exemple t < t′.

Si π ∈ At

At′ : π(1) < . . . < π(t)et π(t + 1) < . . . < π(n).

De même, π(1) < . . . < π(t′)et π(t+ 1) < . . . < π(n).

Or t < t′ donc t + 1 ≤ t ⇒ π(t) < π(t + 1) dans la deuxième sous-séquence et

donc :

∀t ∈ {1, . . . , n} : π(1) < . . . < π(t) < π(t + 1) < . . . < π(n).

et donc nécessairement :

∀i ∈ {1, . . . , n} : π(i) = i.

Autrement dit, π = Id. Par un raisonnement analogue, on obtient aussi que

π = Id si t′< t. Démonstration. nt=0 At = {Id} ∪(n t=0 At\ {Id} ) = |{Id}| + nt=0 At\ {Id} = 1 + nt=0

|At\ {Id}| d'après le lemme

= 1 + nt=0 (|At| − |{Id}|) = 1 + nt=1 (|At| − |{Id}|) = 1 + nt=1 (( n k ) − 1 ) = 1 + 2n− (n − 1) nt=0 At = 2n− n.

(22)

Comme pour Top, on peut réutiliser la notion de matrice de transition P qui tend bien de manière exponentielle vers la matrice uniforme. Cependant, on se rend bien compte que la matrice P pour la distribution Rif sera diérente de la matrice P de Top étant donné que les distributions initiales dièrent (ce qui ne change cependant en rien pour la propriété que l'on vient d'énoncer).

Voici trois descriptions qui caractérisent la même distribution de probabilité Rif sur Sn :

1. Rif : Sn −→ R est dénie par :

Rif(π) :=    n+1 2n si π = id, 1

2n si π consiste en deux séquences croissantes,

0 sinon.

2. Couper le jeu de sorte que le premier paquet contienne t cartes avec une probabilité 1

2n

(n t

)

,prendre ce paquet dans la main droite et prendre

l'autre paquet dans la main gauche. À présent, considérant que l'on a r cartes dans la main droite et l cartes dans la main gauche, faire tomber la carte du bas du tas tenu en main droite avec une probabilité r

r+l et

la carte du bas du tas tenu en main gauche avec une probabilité l r+l.

Recommencer.

3. Un mélange inverse consiste à prendre un sous-ensemble des cartes du jeu, à les extraire du jeu et à les poser au-dessus du paquet. Un tel réar-rangement du jeu est caractérisé par le sous-ensemble choisi, on considère que tous les sous-ensembles sont équiprobables.

On se propose de montrer ces trois équivalences dans le cas où n = 3 (3 cartes). Mais tout d'abord, vérions que chacune des propositions vérient bien une distibution de probabilité. Pour la première, on dénit une distribution qu'on note Rif. Il est évident que pour tout π appartenant à Sn, Rif(π) ≥ 0. Par

ailleurs : ∑ π∈Sn (Rif(π)) = n + 1 2n + 1 2n ∗ card ( π∈ nt=0 , π̸= {Id} ) = n + 1 2n + 1 2n nt=0 card(At\ {Id}) = n + 1 2n + 1 2n ∗ (2 n− (n + 1)) = 1.

Donc la distribution numéro une dénie bien une distribution de probabilité. Pour la seconde, on dénit la distribution qui est associée à une loi binomiale de paramètre de Bernoulli p = 1 2 et de paramètre binomiale pt= 1 2n (n t ) pour tout t appartenant à {0, . . . , n}. Bien évidemment pt≥ 0 et

nt=0 1 2n ( n t ) = 1 (formule du binôme). Donc la distribution numéro une dénie bien une distribution de

(23)

probabilité.

La troisième distribution est en fait la distribution inverse (déjà mentionnée auparavant) qui explicite mieux la distribution Rif. Ainsi, en montrant l'équi-valence entre ces trois distributions, cela montrera qu'elles correspondent bien toutes à la distribution qu'on note Rif.

Nous allons maintenant montrer ces trois équivalences dans le cas n=3 : (2)−→ (1) :

Supposons la distribution numéro 2 et montrons la distribution numéro 1. Si π = Id : Rif(π) = 1

2.

La distribution numéro 2 donne :

Si t = 0 :1 8 Si t = 1 :3 8 Si t = 2 :3 8 Si t = 3 :1 8

Dans cette distribution, la probabilité d'obtenir π = {Id} correspond aux cas où t = 0 (toutes les cartes dans la main droite) et t = 3 (toutes les cartes dans la main gauche) qui ont toutes deux une probabilité de 1

8 d'être réalisées. On a

également les cas pour t = 1 et t = 2 tel que la carte entrelacée entre les deux autres soit à nouveau placée de manière à retrouver la distribution initiale. On a donc3

8 de tomber dans le cas où t = 1 et t = 2 et 1

3 que la carte soit bien placée.

On a donc pour chacun des deux évènements, 3 8 1 3 = 1 8 chances d'obtenir la distribution initiale.

Ainsi en sommant l'ensemble des possbilités on a : 1 8 + 1 8 + 1 8+ 1 8 = 1 2 =Rif(π).

Les mélanges à l'américaine inverses correspondent aux permutations telles que la séquence π = (π(1), . . . , π(n)) soit croissante à l'exception d'une  décrois-sance  (seule la permutation identité ne présente pas de décroisdécrois-sance). De manière équivalente, on peut aecter de manière aléatoire et indépendante, une étiquette 0 ou 1 à chaque carte avec la probabilité 1

2 et choisir de déplacer

les cartes auxquelles on a aecté un 0 vers le haut du paquet.

On vérie assez facilement que ces trois façons de procéder conduisent aux mêmes distributions de probabilité. Pour (1) ⇐⇒ (3), il sut d'observer que l'on obtient la permutation identité chaque fois que les cartes aectées d'un 0 sont au-dessus des cartes qui sont aectées d'un 1.

On vient de dénir le modèle, il faut maintenant l'analyser. Combien de fois faut-il répéter le mélange à l'américaine pour obtenir un résultat presqu'aléa-toire ? Nous n'allons pas établir le résultat optimal mais nous allons tout de même trouver une réponse assez précise en combinant trois arguments :

(24)

(1) on va analyser les mélanges inverses plutôt que les mélanges à l'américaine directs ;

(2) on va établir un critère d'arrêt uniforme fort pour les mélanges inverses ; (3) on montre que la clé de l'analyse des mélanges inverses est fournie par le paradoxe des anniversaires.

On va maintenant s'intéresser à la majoration du nombre de mélange qu'on doit nécessairement eectuer. Pour se faire, on se propose de démontrer le théorème suivant :

Théorème 3. Après avoir eectué k mélanges à l'américaine sur un jeu de n cartes, la distance de variation totale vérie :

∥Rif∗k− U∥ ≤ 1 − n−1 i=1 ( 1 i 2k ) .

Pour se faire, on va utiliser le lemme d'inversion de Reed qu'on se propose de prouver.

Lemme (d'inversion de Reed).

∥Rif∗k− U∥ = ∥Rif∗k− U∥.

avec par dénition Rif(π) = Rif(π−1).

Preuve. En posant µ = Rif∗k, on a :

∥µ − U∥ = 1 2 ∑ π∈Sn |µ(π) − U(π)| =1 2 ∑ π∈Sn |µ(π−1)− U(π−1)|.

Or toute permutation admet un inverse unique et U(π−1) = U (π)donc :

∥µ − U∥ = 1 2 ∑ π∈Sn |µ(π−1)− U(π)| = ∥µ − U∥. D'où le résultat. Par ailleurs : P rob[T > k] = 1− n−1 i=1 ( 1 i 2k ) .

En eet, le paradoxe des anniversaires nous dit que si n boules sont placées indépendemment et aléatoirement dans K boîtes, alors la probabilité qu'aucune boîte ne contienne plus d'une boule est :

p(n, K) = n−1 i=1 ( 1 i K ) .

(25)

En prenant non pas des boîtes mais des étiquettes (valant 0 ou 1), on s'intéresse à la probabilité pour qu'une étiquette reçoive plus d'une carte. Pour k tirages (T > k), on a 2k étiquettes (qui prennent soit la valeur 0 soit la valeur 1 donc deux possibilités k fois). Ainsi, en prenant K = 2k on obtient bien le résultat

suivant : P rob[T > k] = 1− n−1 i=1 ( 1 i 2k ) .

Finalement, combien de fois faut-il mélanger le jeu ? Pour de grandes valeurs de n, on aura besoin de mélanger plus de k = 2 ln2(n)fois. En eet, en posant

k := 2 ln2(cn)où c ≥ 1, on va montrer que :

P [T > k]≈ 1 − e−2c21 1

2c2.

Autrement dit, on démontre que :

n−1 i=1 ( 1 i 2k ) 1 2c2.

Pour se faire, on passe à la fonction logarithme qui simplie considérablement le travail : ln (n−1i=1 ( 1 i 2k )) = n−1i=1 ln ( 1 i 2k ) .

Or, d'après l'inégalité de Taylor-Lagrange si f :[0,n1]−→ R, alors :

|f(x) − f(0) − xf′(0)| ≤ |x|2 2 xsup[0,1 n] |f′′|, en prenant f(x) = ln(1 − x), on obtient : | ln(1 − x) + x| ≤ x2 2 1 ( 1n1)2 ≤ 2x 2car 1 ( 1n1)2 ≤ 4. En prenant x = i (cn)2 [ 0,1n]pour tout i ∈ {0, . . . , n}, on a : ln(1 i (cn)2 ) + i (cn)2 2i2 (cn)4.

En sommant des deux côtés de l'inégalité, on obtient :

ni=0 ln(1 i (cn)2 ) + i (cn)2 2i (cn)4 ni=1 i2 −→ n→+∞0 car ni=1 i2= n(n + 1)(2n + 1) 6 ,

(26)

donc par encadrement : lim n→+∞ ni=0 ln ( 1 i (cn)2 ) = − lim n→+∞ ni=0 i (cn)2 donc ni=0 ln ( 1 i (cn)2 ) ≈ − 1 (cn)2 · n(n + 1) 2 ≈ − 1 2c2 par conséquent, ln n−1 i=1 ( 1 i 2k ) ≈ − 1 2c2 n−1 i=1 ( 1 i 2k ) ≈ e− 1 2c2 . D'où le résultat.

Plus précisément, pour n = 52 cartes, la majorante du théorème 3 vérie d(10) ≤ 0.73, d(12)≤ 0.28, d(14) ≤ 0.08, si bien que k = 12 conduit à un processus  susamment aléatoire . Cependant, on ne procède jamais à 12 opérations de mélange  dans la pratique  ! En fait, il n'est pas nécessaire d'en faire autant, comme le montre une analyse plus précise (dont les résultats sont présentés dans le tableau ci-dessous). k d(k) 1 1.000 2 1.000 3 1.000 4 1.000 5 0.952 6 0.614 7 0.334 8 0.167 9 0.085 10 0.043

(27)

Bibliographie

[1] Martin Aigner & Günter M.Ziegler : Raisonnements divins/Quelques démonstrations mathématiques particulièrement élégantes, Chapitre 28, Springer-Verlag, Paris, Troisième Edition (2013).

Références

Documents relatifs

Considérons une certaine carte c k où k est un nombre donné -, cette carte est dans un pa- quet de rang que nous désignons par i\ et y occupe la place s x \ on réunit de nouveau

On note X la variable aléatoire qui compte le nombre de carte rouge tirées1. Représenter les di ff érentes possibilités à l’aide

On note X la variable aléatoire qui compte le nombre de carte rouge tirées1. Représenter les di ff érentes possibilités à l’aide

Si deux cartes ont la même valeur : bataille : on retourne une nouvelle cachée et une autre par dessus visible. La plus

Cette vaste enquête sur la capitale, dans la lignée de l’École de Chicago, cartographie les trajets quotidiens d’habitants, pour montrer que selon leur tra- vail (leur place dans

Première pierre : 81 possibilités ; deuxième pierre : 80

Ensuite, le bouton &#34;Téléverser&#34; : En cliquant sur ce bouton, vous pouvez transférer votre programme compilé dans la mémoire de votre carte Arduino.. Après, le

[r]