HAL Id: hal-01897577
https://hal.archives-ouvertes.fr/hal-01897577v4
Submitted on 4 Jan 2021
HAL is a multi-disciplinary open access archive for the deposit and dissemination of sci- entific research documents, whether they are pub- lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.
Recueil de modèles aléatoires
Djalil Chafai, Florent Malrieu
To cite this version:
Djalil Chafai, Florent Malrieu. Recueil de modèles aléatoires. 2021. �hal-01897577v4�
Djalil Chafaï, Florent Malrieu
Recueil de modèles aléatoires
Version post-publication de l’hiver 2021
Mise en page avec classe L A TEX 2 ε svmono.cls
Avant-propos
«. . . I prefer concrete things and I don’t like to learn more about abstract stuff than I absolutely have to. . . . ». Marc Kac (1914 – 1984), in Enigmas of Chance : An Autobiography (1985, chapitre 5 page 112).
Ce recueil est une collection accumulée au fil du temps que nous souhai- tons partager avec plaisir et enthousiasme. Il a été conçu pour être consulté ponctuellement, au hasard, en feuilletant les pages, en consultant la table des matières ou l’index. Ce type de document nous semble utile dans un univers scientifique hyperspécialisé laissant peu de place à l’ouverture et à l’éclectisme.
Le premier public visé est celui des enseignants-chercheurs en probabili- tés, débutants ou confirmés. Ce recueil a pour but de les aider à enrichir leur culture probabiliste en excitant leur curiosité. Nous espérons qu’il les inspi- rera pour la conception de leur enseignement de master ou l’encadrement de stages d’ouverture à la recherche. De nombreux chapitres peuvent également bénéficier directement à des étudiants de master ou préparant l’agrégation.
Le parti pris de cet ouvrage est de polariser la rédaction par les modèles
plutôt que par les outils, et de consacrer chaque chapitre à un modèle. Bien que
parfois reliés, les chapitres sont essentiellement autonomes. Ils ne contiennent
VIII
pas ou peu de rappels de cours. Nous fournissons toutefois en fin d’ouvrage, juste avant la bibliographie, une liste de références conseillées concernant les théorèmes limites, les martingales à temps discret, les chaînes de Markov à espace d’états au plus dénombrable, et les bases du calcul stochastique.
En tête de chaque chapitre sont proposées des listes de mots-clés et d’outils utilisés, ainsi qu’une indication du degré de difficulté (de une à trois étoiles).
L’introduction et surtout la section «Pour aller plus loin» de chaque chapitre ont pour but de mettre en perspective le thème abordé et de proposer des références bibliographiques.
Ce recueil ne prétend pas constituer une référence sur des modèles proba- bilistes en biologie, informatique, ingénierie, ou physique, et prétend encore moins fournir des solutions pour les praticiens de ces domaines d’applica- tion. Les modèles considérés dans ce recueil ne sont souvent qu’inspirés des applications, et le traitement ne concerne en général que des versions consi- dérablement simplifiées. Cela est déjà beaucoup !
Ce recueil puise sa source dans les cours de Master de mathématiques appliquées et de préparation à l’épreuve de modélisation de l’agrégation de mathématiques, que nous avons dispensés aux étudiants des universités de Toulouse, Rennes, Marne-la-Vallée, Paris-Dauphine, et Tours. La qualité du texte, aussi bien sur le fond que sur la forme, doit beaucoup à nos tous pre- miers lecteurs, petits et grands. Grand merci, donc, à nos anciens étudiants ! Grand merci également à Arnaud Guyader, à Bernard Bercu et à Olivier Zindy pour leur relecture substantielle. Grand merci aussi à Jürgen Angst, Amine Asselah, Jean-Baptiste Bardet, Charles Bordenave, Raphaël Butez, Marie-Line Chabanol, Bertrand Cloez, Yan Doumerc, Olivier Durieu, Lucas Gerin, Hélène Guérin, Bénédicte Haas, Igor Kortchemski, Jamal Najim, Julien Poisat, Justin Salez, Pierre Tarrès, Marie-Noémie Thai, Frédérique Watbled, et Pierre-André Zitt pour leur aide. Ce recueil a également bénéficié des re- lectures attentives et constructives de plusieurs rapporteurs anonymes. Nous sommes enfin reconnaissants à Sylvie Méléard de nous avoir incités à trans- former un polycopié en un livre, puis d’avoir mené un solide travail éditorial.
Malgré tout, et comme toute œuvre humaine, ce recueil reste limité et impar- fait. Un erratum sera disponible sur Internet, ainsi que les programmes ayant fourni les illustrations.
Bonne lecture !
Djalil Chafaï et Florent Malrieu
Vincennes et Saint-Avertin, automne 2015
Mis à jour à l’hiver 2021
IX
( Ω, F , P )
Toutes les variables aléatoires de ce recueil sont définies sur cet espace.
X
Table des matières
1 Pile, face, coupons . . . . 1
1.1 Jeu de pile ou face . . . . 1
1.2 Approximation binomiale-gaussienne . . . . 4
1.3 Distance en variation totale . . . . 5
1.4 Approximation binomiale-Poisson . . . . 8
1.5 Problème du collectionneur de coupons . . . . 9
1.6 Pour aller plus loin . . . 15
2 Marches aléatoires . . . 19
2.1 Marche aléatoire simple sur la droite . . . 19
2.2 Marche aléatoire simple symétrique dans l’espace . . . 26
2.3 Problème de Dirichlet et champ libre gaussien . . . 30
2.4 Marche aléatoire sur le groupe symétrique . . . 34
2.5 Pour aller plus loin . . . 37
3 Branchement et processus de Galton-Watson . . . 39
3.1 Extinction et phénomène de seuil . . . 40
3.2 Étude des trois cas possibles . . . 45
3.3 Taille de l’arbre en régimes critique et sous-critique . . . 49
3.4 Immigration . . . 52
3.5 Pour aller plus loin . . . 54
4 Permutations, partitions, et graphes . . . 57
4.1 Algorithme basique pour les lois discrètes . . . 57
4.2 Permutations aléatoires . . . 58
4.3 Partitions aléatoires . . . 60
4.4 Graphes aléatoires . . . 62
4.5 Arbres aléatoires . . . 64
4.6 Pour aller plus loin . . . 66
XII Table des matières
5 Mesures de Gibbs . . . 69
5.1 Mesures de Gibbs . . . 69
5.2 Algorithme de Metropolis-Hastings . . . 72
5.3 Algorithme du recuit simulé . . . 74
5.4 Algorithme de Propp-Wilson . . . 77
5.5 Modélisation d’un composé chimique . . . 78
5.6 Pour aller plus loin . . . 80
6 Agrégation limitée par diffusion interne . . . 83
6.1 Modèle d’agrégation par diffusion . . . 83
6.2 Modèle unidimensionnel . . . 84
6.3 Convergence presque sûre . . . 85
6.4 Convergence en loi . . . 86
6.5 Une inégalité de concentration . . . 89
6.6 Dimensions supérieures . . . 89
6.7 Pour aller plus loin . . . 91
7 Chaînes de Markov cachées . . . 93
7.1 Algorithme progressif-rétrograde . . . 93
7.2 Filtre de Kalman . . . 99
7.3 Pour aller plus loin . . . 102
8 Algorithme EM et mélanges . . . 105
8.1 Modèle pour les nids de mouettes . . . 105
8.2 Situation favorable mais irréaliste . . . 107
8.3 Résolution du vrai problème . . . 108
8.4 Pour aller plus loin . . . 111
9 Urnes d’Ehrenfest . . . 113
9.1 Modèle microscopique . . . 113
9.2 Urne d’Ehrenfest . . . 121
9.3 Pression au fil du temps . . . 122
9.4 Fluctuations autour de la moyenne à l’équilibre . . . 124
9.5 Quand reverra-t-on le vide ? . . . 125
9.6 Pour aller plus loin . . . 127
10 Records, extrêmes, et recrutements . . . 129
10.1 Élitisme . . . 129
10.2 Au-dessus de la moyenne . . . 132
10.3 Cas de la loi exponentielle . . . 133
10.4 Cas de la loi de Pareto . . . 136
10.5 Pour aller plus loin . . . 137
Table des matières XIII
11 File d’attente M/M/Infini . . . 141
11.1 Lois exponentielles . . . 143
11.2 Temps de demi-vie des clients initiaux . . . 146
11.3 Loi du nombre de clients . . . 147
11.4 Comportement en temps long . . . 151
11.5 Pour aller plus loin . . . 155
12 Modèle de Wright-Fisher . . . 157
12.1 Loi de Hardy-Weinberg . . . 157
12.2 Modèle de Moran . . . 158
12.3 Modèle de Wright-Fisher et fixation . . . 161
12.4 Modèle de Wright-Fisher avec mutations . . . 166
12.5 Modèle de Wright-Fisher avec sélection . . . 168
12.6 Modèle de Cannings . . . 169
12.7 Pour aller plus loin . . . 172
13 Généalogies et coalescence . . . 173
13.1 Modèle généalogique à temps continu . . . 176
13.2 Longueur de l’arbre généalogique . . . 178
13.3 Mutations . . . 180
13.4 Coalescent de Kingman . . . 183
13.5 Pour aller plus loin . . . 185
14 Restaurants chinois . . . 187
14.1 Lois d’Ewens . . . 189
14.2 Nombre de tables . . . 191
14.3 Tables extrêmes . . . 195
14.4 Compléments de combinatoire . . . 197
14.5 Pour aller plus loin . . . 198
15 Renforcement . . . 201
15.1 Urne de Pólya . . . 201
15.2 Graphe de Barabási-Albert . . . 205
15.3 Marche aléatoire renforcée . . . 208
15.4 Théorème de Rubin . . . 212
15.5 Pour aller plus loin . . . 214
16 Percolation . . . 217
16.1 Percolation dans un graphe . . . 217
16.2 Graphe de Bethe (arbre régulier) . . . 220
16.3 Graphe euclidien (grille) . . . 222
16.4 Graphe complet et modèle de Erdős-Rényi . . . 226
16.5 Pour aller plus loin . . . 228
XIV Table des matières
17 Croissance et fragmentation . . . 231
17.1 Processus TCP window-size en informatique . . . 231
17.2 Intensité des sauts variable selon la position . . . 238
17.3 Branchement et croissance-fragmentation . . . 239
17.4 Pour aller plus loin . . . 242
18 Ruine d’une compagnie d’assurance . . . 245
18.1 Processus de Poisson composé . . . 247
18.2 La ruine est-elle presque sûre ? . . . 248
18.3 Expression de la probabilité de ruine . . . 249
18.4 Sinistres exponentiels . . . 250
18.5 Pour aller plus loin . . . 252
19 Polymères dirigés en environnement aléatoire . . . 253
19.1 Modèle et résultats principaux . . . 253
19.2 Fonction de partition normalisée. . . 257
19.3 Borne inférieure en grandes dimensions . . . 259
19.4 Énergie libre moyenne . . . 261
19.5 Borne supérieure sur le paramètre critique . . . 263
19.6 Pour aller plus loin . . . 265
20 Problème du voyageur de commerce . . . 267
20.1 Concentration pour le cas uniforme . . . 269
20.2 Évaluation de la moyenne du cas uniforme . . . 273
20.3 Démonstration du cas uniforme . . . 277
20.4 Pour aller plus loin . . . 277
21 Matrices aléatoires . . . 279
21.1 Théorème de Wigner . . . 280
21.2 Réduction à un cas plus simple . . . 283
21.3 Convergence des moments et convergence étroite . . . 287
21.4 Preuve du théorème de Wigner simplifié . . . 290
21.5 Pour aller plus loin . . . 294
22 Naissances et assassinats . . . 297
22.1 Condition suffisante de stabilité . . . 299
22.2 Condition suffisante d’instabilité . . . 300
22.3 Pour aller plus loin . . . 303
23 Modèle du télégraphe . . . 305
23.1 Aspects markoviens du processus complet . . . 306
23.2 Lien entre équation et processus . . . 309
23.3 Modification ergodique . . . 310
23.4 Pour aller plus loin . . . 313
Table des matières XV
24 Problème de Dirichlet . . . 315
24.1 Interprétation probabiliste . . . 317
24.2 Cas de la boule unité . . . 319
24.3 Approches numériques . . . 320
24.4 Demi-plan supérieur : du discret au continu . . . 321
24.5 Récurrence, transience, et fonctions harmoniques . . . 323
24.6 Pour aller plus loin . . . 324
25 Processus d’Ornstein-Uhlenbeck . . . 327
25.1 Premières propriétés . . . 328
25.2 Décomposition spectrale et inégalité de Poincaré . . . 333
25.3 Entropie, couplage, et temps long . . . 337
25.4 Inégalité de Sobolev logarithmique . . . 340
25.5 Pour aller plus loin . . . 343
26 Modèles de diffusion cinétique . . . 345
26.1 Modèle de Langevin . . . 345
26.2 Processus de Langevin confiné . . . 347
26.3 Comportement en temps long du processus confiné . . . 350
26.4 Pour aller plus loin . . . 356
27 Des chaînes de Markov aux processus de diffusion . . . 359
27.1 Paresse et échantillonnage . . . 359
27.2 Convergence d’une chaîne vers une diffusion . . . 361
27.3 Diffusion sur un intervalle . . . 364
27.4 Application aux processus de Wright-Fisher . . . 366
27.5 Fonction de répartition empirique . . . 370
27.6 Schéma d’Euler . . . 371
27.7 Pour aller plus loin . . . 373
Suggestions bibliographiques . . . 375
Littérature . . . 377
Index . . . 393
Principales notations et abréviations . . . 401
XVI Table des matières
1
Pile, face, coupons
Mots-clés. Combinatoire ; loi discrète ; distance en variation totale ; loi des petits nombres ; convergence abrupte ; loi de Gumbel.
Outils. Loi des grands nombres ; théorème limite central ; inégalité de Markov.
Difficulté. *
Ce chapitre est consacré au jeu de pile ou face et au problème du collec- tionneur de coupons, deux objets probabilistes importants qu’il est bon de connaître et savoir reconnaître. Ce chapitre contient également une étude de la distance en variation totale pour les mesures de probabilité discrètes.
1.1 Jeu de pile ou face
Le jeu de pile ou face consiste en des lancers successifs d’une pièce de monnaie qui donnent à chaque fois soit pile (succès, codé 1) soit face (échec, codé 0). On modélise cela par une suite (X
n)
n>1de variables aléatoires indé- pendantes et identiquement distribuées de loi de Bernoulli Ber(p) :
P (X
n= 1) = 1 − P (X
n= 0) = p ∈ [0, 1].
Le nombre de succès dans les n premiers lancers S
n= X
1+ · · · + X
nest une variable aléatoire à valeurs dans { 0, 1, . . . , n } qui suit la loi binomiale Bin(n, p) de taille n et de paramètre p, donnée pour tout k = 0, 1, . . . , n par
P (S
n= k) = n
k
p
k(1 − p)
n−k= n!
k!(n − k)! p
k(1 − p)
n−k.
2 1 Pile, face, coupons
La moyenne et la variance de S
nsont donnés par
E (S
n) = np et Var(S
n) = np(1 − p).
Le temps T du premier succès, qui est aussi le nombre de lancers pour obtenir un premier succès, est donné par
T := inf { n > 1 : X
n= 1 }
Si p > 0, T suit la loi géométrique Geo(p) sur N
∗de paramètre p donnée par P (T = k) = (1 − p)
k−1p, k ∈ N
∗.
On a T ≡ ∞ si p = 0 et P (T < ∞ ) = 1 sinon. De plus E (T ) = 1
p et Var(T ) = 1 − p p
2. Le nombre d’échecs avant le premier succès
T
′:= inf { n > 0 : X
n+1= 1 } = T − 1
suit la loi géométrique Geo
N(p) sur N et de paramètre p donnée par P (T
′= k) = P (T − 1 = k) = (1 − p)
kp, k ∈ N , et on a
E (T
′) = E (T ) − 1 = 1 − p
p et Var(T
′) = Var(T ) = 1 − p p
2.
Pour tout r ∈ N
∗, le nombre de lancers T
rnécessaires pour obtenir r succès est défini par récurrence par
T
1:= T et T
r+1:= inf { n > T
r: X
n= 1 } .
Les variables aléatoires T
1, T
2− T
1, T
3− T
2, . . . sont indépendantes et identi- quement distribuées de loi géométrique Geo(p). La variable aléatoire T
rsuit la loi de Pascal ou loi binomiale-négative Geo(p)
∗r. On a pour tout k > r, P (T
r= k) = X
k1>1,...,kr>1 k1+···+kr=k
(1 − p)
k1−1p · · · (1 − p)
kr−1p = (1 − p)
k−rp
rk − 1
r − 1
et
E (T
r) = r E (T) = r
p et Var(T
r) = rVar(T ) = r 1 − p p
2.
Le processus de Bernoulli (S
n)
n>0a des trajectoires constantes par mor-
ceaux, avec des sauts d’amplitude +1, et les temps de saut sont donnés par
(T
r)
r>1(temps inter-sauts i.i.d. géométriques). Il constitue le processus de
1.1 Jeu de pile ou face 3 comptage de tops espacés par des durées indépendantes de même loi géomé- trique, analogue discret du processus de Poisson. Comme S
nest une somme de variables indépendantes, (S
n)
n>0est une chaîne de Markov sur N de noyau P(x, y) = p 1
y=x+1+ (1 − p) 1
y=x, et (S
n− np)
n>0est une martingale.
Par la loi des grands nombres (LGN) et le théorème limite central (TLC) S
nn
−→
p.s.n→∞
p et
√ n p p(1 − p)
S
nn − p
loin
−→
→∞N (0, 1).
Cela permet notamment de construire un intervalle de confiance asymptotique pour p appelé intervalle de Wald, qui est cependant peu précis.
Remarque 1.1 (Intervalle de Clopper-Pearson). Il est également possible de confectionner des intervalles de confiance pour p non asymptotiques, comme celui de Clopper-Pearson par exemple, basé sur la correspondance Beta- binomiale. Soit U
1, . . . , U
ndes v.a.r. i.i.d. de loi uniforme sur [0, 1]. No- tons U
(1,n)6 · · · 6 U
(n,n)leur réordonnement croissant. Alors pour tout k = 1, . . . , n la v.a.r. U
(k,n)suit la loi Beta(k, n − k + 1) sur [0, 1] de densité
t ∈ [0, 1] 7→ t
k−1(1 − t)
n−kBeta(k, n − k + 1) , où Beta(a, b) := Z
1 0s
a−1(1 − s)
b−1ds, et
P (S
n> k) = P ( 1
{U16p}
+ · · · + 1
{Un6p}
> k) = P (U
(k,n)6 p).
On déduit de cette identité une expression exacte de la probabilité que S
nappartienne à un intervalle donné. Notons que comme S
nest discrète, ses quantiles sont aussi discrets, ce qui empêche de fabriquer un intervalle exact de niveau α ∈ [0, 1] arbitraire, et suggère de procéder à un lissage.
Remarque 1.2 (Motifs répétés et lois du zéro-un). Lorsque 0 < p < 1, le lemme de Borel-Cantelli (cas indépendant) entraîne que toute suite finie de 0 et de 1 apparaît presque sûrement une infinité de fois dans la suite X
1, X
2, . . . L’indépendance est capitale. Un singe éternel tapant sur un clavier finira tou- jours par écrire les œuvres complètes de William Shakespeare ! Alternative- ment, on peut déduire ce résultat de la nature géométrique du temps d’appari- tion du premier succès dans un jeu de pile ou face obtenu en découpant le jeu de pile ou face en blocs successifs de même longueur que la chaîne recherchée.
Remarque 1.3 (Jeu de pile ou face et loi uniforme sur [0, 1]). Si U est une variable aléatoire sur [0, 1] et si U = P
∞n=1
b
n2
−nest son écriture en base 2, alors U suit la loi uniforme sur [0, 1] si et seulement si les bits (b
n)
n>1de son écriture en base 2 sont des v.a.r. i.i.d. de Bernoulli de paramètre 1/2.
Remarque 1.4 (Algorithme de débiaisage de von Neumann). Soit (X
n)
n>1une suite de variables aléatoires de Bernoulli indépendantes et de paramètre
0 < p < 1 inconnu. On fabrique la suite (Y
n)
n>1de variables aléatoires indé-
pendantes et de même loi sur { 0, 1, 2 } comme suit
4 1 Pile, face, coupons
X
1X
2| {z }
Y1
X
3X
4| {z }
Y2
· · ·
en posant Y
n= 0 si (X
2n−1, X
2n) = (0, 1), Y
n= 1 si (X
2n−1, X
2n) = (1, 0), et Y
n= 2 sinon. La suite (Z
n)
n>1obtenue à partir de (Y
n)
n>1en effaçant les 2 est constituée de variables aléatoires de Bernoulli indépendantes de paramètre 1/2. La production de chaque terme de la suite (Z
n)
n>1nécessite un nombre aléatoire géométrique de termes de la suite (X
n)
n>1.
1.2 Approximation binomiale-gaussienne
Soit (X
n)
n>1des v.a.r. i.i.d. de moyenne m et variance 0 < σ
2< ∞ , et S
n= X
1+ · · · + X
n. Le théorème limite central indique que pour tout t ∈ R ,
n→∞
lim P
S
n− nm
√ nσ 6 t
= Z
t−∞
√ 1 2π e
−x22dx.
Le théorème limite central de Berry-Esseen raffine ce résultat asymptotique en fournissant une borne quantitative uniforme : si X
1, X
2, . . . sont de Bernoulli de paramètre p ∈ ]0, 1[, on a m := E (X
1) = p, σ
2:= E ((X − m)
2) = p(1 − p), τ
3:= E ( | X
1− m |
3) = p(1 − p)(1 − 2p(1 − p)), et
sup
t∈R
P
S
n6 p
np(1 − p)t + np
− Z
t−∞
e
−x22√ 2π dx
6 τ
3√ nσ
3= 1 − 2p(1 − p) p p(1 − p) √ n .
Cette approximation de la loi binomiale par la loi gaussienne est d’autant meilleure que (1 − 2p(1 − p))/ p
np(1 − p) est petit. À n fixé, cette borne est minimale pour p = 1/2 mais explose quand p se rapproche de 0 ou de 1. Pour ces régimes extrêmes, il est plus approprié d’utiliser une approximation par la loi de Poisson, abordée dans la section 1.4.
Lorsque X
1, X
2, . . . sont des variables de Bernoulli de paramètre p ∈ ]0, 1[, le TLC suggère d’approcher la loi binomiale Bin(n, p) de S
npar la loi gaus- sienne N (nm, nσ
2) lorsque n est grand. Le théorème limite central de de Moivre et Laplace précise que pour tous −∞ < a < b < + ∞ ,
n
lim
→∞√ n sup
k∈In(a,b)
P (S
n= k) − exp
−
2np(1−p)(k−np)2p 2πnp(1 − p)
= 0 où
I
n(a, b) = (
0 6 k 6 n : k − np
p np(1 − p) ∈ [a, b]
)
,
1.3 Distance en variation totale 5
Lois binomiales
Bin(42,0.1) Bin(42,0.5) Bin(42,0.9)
0 0.05 0.1 0.15 0.2
P (X = n )
0 10 20 30 40
n
Fig. 1.1. Lois binomiales de même taille, pour trois valeurs du second paramètre, illustrant la pertinence de l’approximation de la loi binomiale par une loi gaussienne et par une loi de Poisson selon les cas.
qui redonne le TLC par intégration :
n
lim
→∞P S
n− np
p np(1 − p) ∈ [a, b]
!
= 1
√ 2π Z
ba
e
−x2 2
dx.
1.3 Distance en variation totale
Dans toute cette section, E est un ensemble au plus dénombrable muni de la topologie et de la tribu discrètes P (E). L’ensemble des lois sur E est un espace métrique complet pour la distance en variation totale
d
VT(µ, ν) := sup
A⊂E
| µ(A) − ν(A) | .
6 1 Pile, face, coupons
Notons que d
VT(µ, ν) = k µ − ν k
VToù k η k
VT:= sup
A⊂E| η(A) | pour toute mesure signée η de masse finie sur E. On a 0 6 d
VT(µ, ν) 6 1 car le diamètre de [0, 1] est 1. De plus d
VT(µ, ν) = 1 si µ et ν ont des supports disjoints.
Théorème 1.5 (Autres expressions). Si µ et ν sont des lois sur E alors
1d
VT(µ, ν) = 1
2 sup
f:E→[−1,1]
Z
f dµ − Z
f dν = 1
2 X
x∈E
| µ(x) − ν(x) | .
De plus, le supremum dans la définition de d
VT( · , · ) est atteint pour l’ensemble A
∗= { x ∈ E : µ(x) > ν(x) } ,
et il est atteint dans l’expression variationnelle fonctionnelle de d
VT( · , · ) pour f = 1
A∗
− 1
Ac∗
.
Démonstration. La seconde égalité provient de l’inégalité
Z
f dµ − Z
f dν 6 X
x∈E
| f (x) || µ(x) − ν(x) | 6 sup
x∈E
| f (x) | X
x∈E
| µ(x) − ν (x) | qui est saturée pour f = 1
A∗
− 1
Ac∗
. Pour la première égalité, on écrit
| µ(A) − ν (A) | = 1 2 Z
f
Adµ − Z
f
Adν
où f = 1
A− 1
Ac, ce qui donne
| µ(A) − ν(A) | 6 1
2 sup
f:E→[−1,1]
Z
f dµ − Z
f dν = 1
2 X
x∈E
| µ(x) − ν(x) |
qui est saturée pour A = A
∗car, par définition de A
∗, 2 | µ(A
∗) − ν (A
∗) | = µ(A
∗) − ν(A
∗) + ν(A
c∗) − µ(A
c∗)
= X
x∈A∗
| µ(x) − ν(x) | + X
x∈Ac∗
| µ(x) − ν(x) | .
⊓
⊔ Théorème 1.6 (Convergence en loi). Si (X
n)
n>1sont des variables aléatoires sur E et si µ
ndésigne la loi de X
n, alors pour toute loi µ sur E, les propriétés suivantes sont équivalentes :
1. lim
n→∞R
f dµ
n= R
f dµ pour toute fonction bornée f : E → R ; 2. lim
n→∞µ
n(x) = µ(x) pour tout x ∈ E ;
1. En particulier on a 2k·k
VT= k·k
ℓ1(E,R).
1.3 Distance en variation totale 7 3. lim
n→∞d
VT(µ
n, µ) = 0.
Lorsqu’elles ont lieu on dit que (X
n) converge en loi vers µ quand n → ∞ . Toute fonction E → R est continue pour la topologie discrète sur E.
Démonstration. Pour déduire 1. de 3. il suffit d’utiliser l’expression varia- tionnelle fonctionnelle de d
VT( · , · ). Pour déduire 2. de 1. on peut prendre f = 1
{x}. Pour déduire 3. de 2. on observe que pour tout A ⊂ E,
X
x∈E
| µ
n(x) − µ(x) | = X
x∈A
| µ
n(x) − µ(x) | + X
x∈Ac
| µ
n(x) − µ(x) | .
Grâce à 2., si A est fini, alors pour tout ε > 0, il existe un entier N = N (A, ε) tel que le premier terme du membre de droite est majoré par ε pour tout n > N . Le second terme du membre de droite peut se contrôler comme suit :
X
x∈Ac
| µ
n(x) − µ(x) | 6 X
x∈Ac
µ
n(x) + X
x∈Ac
µ(x).
Puisqu’on a X
x∈Ac
µ
n(x) = X
x∈A
µ(x) − X
x∈A
µ
n(x) + X
x∈Ac
µ(x),
on obtient X
x∈Ac
| µ
n(x) − µ(x) | 6 X
x∈A
| µ
n(x) − µ(x) | + 2 X
x∈Ac
µ(x).
Puisque µ ∈ P , pour tout ε
′> 0, on peut choisir A fini tel que µ(A
c) 6 ε
′. Ainsi, on obtient
n
lim
→∞X
x∈E
| µ
n(x) − µ(x) | = 0,
qui n’est rien d’autre que 3. d’après le théorème 1.5. ⊓ ⊔ Remarque 1.7 (Dispersion à l’infini). Si (µ
n)
n>1sont des lois sur E et µ(x) := lim
n→∞µ
n(x) alors µ n’est pas forcément une loi, sauf si E est fini.
En effet, lorsque E est infini, il peut se produire un phénomène de dispersion de masse à l’infini. Un contre-exemple est fourni par E = N et µ
nqui affecte la masse 1/n aux singletons { 1 } , . . . , { n } , ce qui donne µ identiquement nulle.
Théorème 1.8 (Minimum). Si µ et ν sont des lois sur E alors d
VT(µ, ν) = 1 − X
x∈E
(µ(x) ∧ ν(x)).
En particulier, d
VT(µ, ν) = 1 ssi µ et ν ont des supports disjoints.
8 1 Pile, face, coupons
Démonstration. Rappelons que a ∧ b = min(a, b). Il suffit d’écrire X
x∈E
(µ(x) ∧ ν (x)) = 1 2
X
x∈E
(µ(x) + ν (x) − | µ(x) − ν(x) | ) = 1 − d
VT(µ, ν).
⊓
⊔ Théorème 1.9 (Couplage). Si µ et ν sont des lois sur E alors
d
VT(µ, ν) = inf
(X,Y)
P (X 6 = Y )
où l’infimum porte sur les couples de variables aléatoires sur E × E de lois marginales µ et ν. De plus, il existe un couple de ce type pour lequel l’égalité est atteinte c’est-à-dire que l’infimum est un minimum.
Le théorème 1.9 est souvent utilisé de la manière suivante : on construit explicitement grâce au contexte un couple (X, Y ) de variables aléatoires tel que X ∼ µ et Y ∼ ν, et on en déduit que d
VT(µ, ν) 6 P (X 6 = Y ).
Démonstration. Soit (X, Y ) un couple de v.a. sur E × E de lois marginales µ et ν. Comme P (X = x, Y = x) 6 µ(x) ∧ ν (x) pour tout x ∈ E,
1 − d
VT(µ, ν) = X
x∈E
(µ(x) ∧ ν (x)) > X
x∈E
P (X = x, Y = x) = P (X = Y ).
Il suffit donc de construire un couple (X, Y ) pour lequel l’égalité est atteinte.
Posons p = 1 − d
VT(µ, ν) ∈ [0, 1] et distinguons trois cas.
— Cas où p = 0. On prend (X, Y ) avec X et Y indépendantes de lois respectives µ et ν. Puisque d
VT(µ, ν) = 1, µ et ν ont des supports disjoints, d’où P (X = Y ) = P
x∈E
µ(x)ν(x) = 0 ;
— Cas où p = 1. Alors d
VT(µ, ν) = 0, d’où µ = ν . On prend (X, Y ) où X ∼ µ et Y = X ;
— Cas où 0 < p < 1. Soit U, V, W des variables aléatoires de lois p
−1(µ ∧ ν ), (1 − p)
−1(µ − (µ ∧ ν )), (1 − p)
−1(ν − (µ ∧ ν)).
Notons que p = P
x∈E
(µ(x) ∧ ν(x)) (théorème 1.8). Soit B une v.a.
de loi de Bernoulli Ber(p) indépendante du triplet (U, V, W ). Posons (X, Y ) = (U, U ) si B = 1 et (X, Y ) = (V, W ) si B = 0. On a alors X ∼ µ et Y ∼ ν, et puisque les lois de V et W ont des supports disjoints, on a P (V = W ) = 0, et donc P (X = Y ) = P (B = 1) = p.
⊓
⊔
1.4 Approximation binomiale-Poisson
Si S
nsuit la loi binomiale Bin(n, p) alors pour tout k ∈ N , on a,
1.5 Problème du collectionneur de coupons 9 P (S
n= k) − e
−np(np)
kk! = n
n(1 − p) · · · n − k + 1
n(1 − p) (1 − p)
n− e
−np(np)
kk! . Ceci montre que si p dépend de n avec lim
n→∞np = λ alors la loi de S
ntend vers Poi(λ). La distance en variation totale permet de quantifier cette convergence en loi : l’inégalité de Le Cam du théorème 1.10 ci-dessous donne
X
∞ k=0P (S
n= k) − e
−np(np)
kk!
6 2np
2,
utile si np
2est petit. Si par exemple p = λ/n alors np = λ et np
2= λ
2/n.
Théorème 1.10 (Inégalité de Le Cam). Soient X
1, . . . , X
ndes variables aléatoires indépendantes de lois de Bernoulli Ber(p
1), . . . , Ber(p
n). Soit µ
nla loi de S
n= X
1+ · · · + X
net soit ν
n= Poi(p
1+ · · · + p
n) la loi de Poisson de même moyenne que S
n. Alors on a
d
VT(µ
n, ν
n) 6 p
21+ · · · + p
2n.
Démonstration. On établit par récurrence sur n que si α
1, . . . , α
net β
1, . . . , β
nsont des lois de probabilité sur N alors on a l’inégalité sous-additive d
VT(α
1∗ · · · ∗ α
n, β
1∗ · · · ∗ β
n) 6 d
VT(α
1, β
1) + · · · + d
VT(α
n, β
n).
On établit ensuite que d
VT(Ber(p), Poi(p)) 6 p
2, et on exploite le semi-groupe de convolution des lois de Poisson : Poi(a) ∗ Poi(b) = Poi(a + b). ⊓ ⊔
L’inégalité ℓ
2− ℓ
1− ℓ
∞suivante
p
21+ · · · + p
2n6 (p
1+ · · · + p
n) max
16k6n
p
kpermet de retrouver la loi des petits nombres : si (X
n,k)
16k6nest un tableau triangulaire de variables aléatoires indépendantes de lois de Bernoulli avec X
n,k∼ Ber(p
n,k) pour tous n > k > 1, et si
n
lim
→∞p
n,1+ · · · + p
n,n= λ et lim
n→∞
max
16k6n
p
n,k= 0, alors X
n,1+ · · · + X
n,nconverge en loi vers Poi(λ) quand n → ∞ .
1.5 Problème du collectionneur de coupons
Le problème du collectionneur de coupons est dans la même boîte à outils
que le jeu de pile ou face ou le jeu de dé, auquel il est intimement relié. Un
grand nombre de situations concrètes cachent un collectionneur de coupons
ou une de ses variantes. Nous nous limitons ici à sa version la plus simple.
10 1 Pile, face, coupons
Il faut jouer un nombre de fois (aléatoire) géométrique à pile ou face pour voir apparaître les deux côtés de la pièce. Si on remplace la pièce de monnaie par un dé à r > 2 faces, combien de fois faut-il lancer le dé pour voir appa- raître les r faces différentes ? On modélise cela, pour un entier fixé r > 2, en considérant la variable aléatoire
T := min { n > 1 : { X
1, . . . , X
n} = { 1, . . . , r }}
= min { n > 1 : card { X
1, . . . , X
n} = r }
où (X
n)
n>1est une suite de variables aléatoires i.i.d. de loi uniforme sur { 1, . . . , r } . La variable aléatoire T est le premier instant où les r faces du dé sont apparues. Ce temps dépend bien entendu de r mais, par souci de simplicité, nous omettrons cette dépendance dans la notation. Le nom col- lectionneur de coupons provient des coupons à collectionner présents dans certains paquets de céréales.
Théorème 1.11 (Combinatoire). On a T > r, et pour tout n > r, P (T = n) = r!
r
nn − 1
r − 1
où la notation en accolades désigne le nombre de Stirling de seconde espèce, qui est le nom donné en combinatoire au nombre de manières de partitionner un ensemble à n − 1 éléments en r − 1 sous-ensembles non vides.
Démonstration. On a X
T6∈ { X
1, . . . , X
T−1} car le coupon qui termine la col- lection n’a forcément jamais été vu auparavant. Si on fixe n > r, l’événement { T = n } correspond à choisir le type du dernier coupon puis à répartir les n − 1 coupons restants sur les r − 1 types restants. Le résultat désiré en découle
car la loi des types est uniforme. ⊓ ⊔
Bien qu’explicite, le théorème 1.11 n’est malgré tout pas très parlant. Le résultat intuitif suivant va beaucoup nous aider à étudier la variable T . Lemme 1.12 (Décomposition). On a T = G
1+ · · · + G
roù G
1, . . . , G
rsont des variables aléatoires indépendantes avec
G
i∼ Geo(π
i), π
i:= r − i + 1
r , 1 6 i 6 r.
En particulier, on a P (T < ∞ ) = 1, et de plus
E (T ) = r(log(r) + γ) + o
r→∞(r) et Var(T ) = π
26 r
2+ o
r→∞(r
2), où γ = lim
n→∞( P
ni=1
1/i − log(n)) ≈ 0.577 est la constante d’Euler.
1.5 Problème du collectionneur de coupons 11 Démonstration. On pose G
1≡ 1 et pour tout 1 < i 6 r,
G
i= min { n > 1 : X
Gi−1+n6∈ { X
1, . . . , X
Gi−1}} .
On a card( { X
1, . . . , X
Gi} ) = i pour tout 1 6 i 6 n. Les variables aléatoires G
1, G
1+ G
2, . . . , G
1+ · · · + G
rsont les temps d’apparition des r premiers succès dans un jeu de pile ou face spécial dans lequel la probabilité de gagner change après chaque succès : cette probabilité vaut successivement
π
1= 1, π
2= r − 1
r , π
3= r − 2
r , . . . , π
r= 1 r .
La décroissance de cette suite traduit le fait qu’il est de plus en plus difficile d’obtenir un coupon d’un nouveau type au fil de la collection.
Calculons à présent les moments de T . La linéarité de l’espérance donne
E (T ) = X
r i=1E (G
i) = X
r i=11 π
i= X
r i=1r
r − i + 1 = r X
r i=11
i = r(log(r) + γ + o(1)).
D’autre part, l’indépendance des v.a. G
1, . . . , G
r(exercice !) donne Var(T ) =
X
r i=1Var(G
i) = X
r i=11 − π
iπ
2i= r
r−1
X
i=1
r − i i
2= π
26 r
2− r(log(r) + γ) + o(r
2).
⊓
⊔ Théorème 1.13 (Queue de distribution). Pour tout n > 1,
P (T > n) = X
r k=1( − 1)
k−1r
k
1 − k r
n.
Démonstration. On a
{ T > n } = E
n,1∪ · · · ∪ E
n,roù E
n,i:= { X
16 = i, . . . , X
n6 = i } . Si i
1, . . . , i
k∈ { 1, . . . , r } sont deux à deux distincts, alors, en notant
R = { 1, . . . , r } \ { i
1, . . . , i
k} , on a
P (E
n,i1∩ · · · ∩ E
n,ik) = P (X
1∈ R) · · · P (X
n∈ R)
12 1 Pile, face, coupons
= r − k
r
n=
1 − k r
n.
On utilise enfin le principe d’inclusion-exclusion ou crible de Poincaré
2. ⊓ ⊔ Il est délicat de déduire le comportement de la queue de T en fonction de n et r à partir du théorème 1.13 en raison de l’alternance des signes.
Théorème 1.14 (Déviation). Pour tout réel t > 0, P (T > rt + r log(r)) = P
T − r log(r) r > t
6 e
−t+εroù ε
r= (rt + r log(r) − ⌊ rt + r log(r) ⌋ )/r ∈ [0, 1/r[.
Démonstration. Pour tout entier n > 1, on peut écrire P (T > n) = P ( ∪
ri=1E
n,i) 6
X
r i=1P (E
n,i) où E
n,i:= { X
16 = i, . . . , X
n6 = i } . Comme P (E
n,i) = (1 − 1/r)
n6 e
−n/r, on choisit n = ⌊ rt + r log(r) ⌋ . ⊓ ⊔
Pour α > 0 et r fixés, on peut choisir t assez grand pour que e
−t+εr6 α, par exemple t = − log(α) + 1/r, ce qui donne l’intervalle de prédiction non asymptotique [r, r log(r) − r log(α) + 1] de niveau 1 − α pour T .
Théorème 1.15 (Comportement asymptotique).
T r log(r)
−→
P r→∞1.
Démonstration. Fixons ε > 0. Par l’inégalité de Markov et le lemme 1.12, P
T r log(r) − 1
> ε
6 E ((T − r log(r))
2) ε
2r
2log(r)
2= Var(T ) + ( E (T ) − r log(r))
2ε
2r
2log(r)
2= O 1
log(r)
2.
⊓
⊔ Il s’agit d’une preuve par méthode du second moment. Dans le même esprit, une méthode du quatrième moment est utilisée pour le théorème 11.6.
La borne établie dans la preuve du théorème précédent n’est pas sommable en r et ne permet donc pas de démontrer une convergence presque sûre en utilisant le lemme de Borel-Cantelli, qui n’aurait de sens qu’avec un espace de
2. P ( ∪
nk=1A
k) = P
nj=1
( − 1)
j+1P
k1<...<kj
P (A
k1∩ · · · ∩ A
kj).
1.5 Problème du collectionneur de coupons 13 probabilité unique valable pour tout r. D’autre part, la borne établie permet d’obtenir un intervalle de prédiction non asymptotique : pour α = 0.05, r fixé, et t bien choisi, on a P ( | T − r log(r) | /r > t) = O (1/t
2) = α. L’intervalle de prédiction est de largeur 2rt, et se dégrade quand t croît (α diminue).
Le théorème suivant affirme que les fluctuations asymptotiques dans la convergence précédente suivent une loi de Gumbel.
Théorème 1.16 (Fluctuations asymptotiques). On a T − r log(r)
r = log(r) T
r log(r) − 1
loir
−→
→∞Gumbel où la loi de Gumbel a pour fonction de répartition t ∈ R 7→ e
−e−t.
La figure 1.2 illustre ce résultat.
Queue du collectionneur de coupons r=20
Monte−Carlo N=2000 Gumbel
0 0.2 0.4 0.6 0.8 1
P (T > n )
50 100 150 200
n
Fig. 1.2. Approximations de la queue de distribution de la variable aléatoire T par celle de r log(r) + rG où G suit la loi de Gumbel en vertu du théorème 1.16, ainsi que par une méthode de Monte-Carlo avec N tirages en utilisant la représentation de T en somme de variables aléatoires géométriques indépendantes.
Démonstration. Il suffit d’établir que pour tout t ∈ R on a
14 1 Pile, face, coupons
r→∞
lim P (T > r log(r) + tr) = S(t) := 1 − e
−e−t.
Fixons t ∈ R et supposons que r est assez grand pour que r log(r) + tr > r.
Introduisons l’entier n
t,r= ⌈ r log(r) + tr ⌉ . Le théorème 1.13 donne
P (T > r log(r) + tr) = P (T > n
t,r) = X
r k=1( − 1)
k−1r
k
1 − k r
nt,r.
Comme
rk6 r
k/k! et 1 − u 6 e
−upour tout u > 0, on a r
k 1 − k r
nt,r−→
6 r→∞e
−tkk! . Enfin, par convergence dominée, on obtient
r
lim
→∞X
r k=1( − 1)
k−1r
k 1 − k r
nt,r= X
∞ k=1( − 1)
k−1e
−tkk! = S(t).
Ceci achève la preuve du théorème. Alternativement, il est possible d’établir le théorème en utilisant l’approximation exponentielle des lois géométriques.
Posons H
k:=
1rG
r−k+1. Pour tout k > 1 fixé, la suite (H
k)
r>kconverge en loi vers la loi exponentielle de paramètre k. On dispose de plus de la version quantitative suivante sur les fonctions caractéristiques : pour tout t ∈ R et tout k > 1, il existe une constante C > 0 telle que pour r assez grand,
E (e
itHk) − E (e
itEk) 6 C rk
où E
kest une v.a.r. de loi exponentielle de paramètre k. En utilisant l’inégalité
| a
1· · · a
r− b
1· · · b
r| 6 | a
1− b
1| + · · · + | a
r− b
r| , a, b ∈ { z ∈ C : | z | 6 1 }
r, il vient, en considérant des variables aléatoires réelles E
1, . . . , E
rindépen- dantes de lois exponentielles de paramètres respectifs 1, . . . , r,
E (e
itTr) − E (e
it(E1+···+Er)) 6 C log(r) r .
Le lemme de Rényi 11.3 indique que E
1+ · · · + E
ra même loi que la variable aléatoire max(F
1, . . . , F
r) où F
1, . . . , F
rsont des v.a.r. i.i.d. de loi exponen- tielle de paramètre 1, puis on utilise la convergence en loi vers la loi de Gumbel de la suite de v.a.r. (max(F
1, . . . , F
r) − log(r))
r>1. ⊓ ⊔ Le théorème 1.16 fournit un intervalle de prédiction asymptotique pour la variable aléatoire T : pour tous réels b > a,
r
lim
→∞P (T ∈ [r log(r) + ra, r log(r) + rb]) = e
−e−b− e
−e−a.
1.6 Pour aller plus loin 15 La loi de Gumbel est très concentrée, et sa fonction de répartition fait apparaître une montée abrupte de 0 à 1. Cela donne un phénomène de seuil
3pour la variable aléatoire T . La quantité P (T > n) passe abruptement de ≈ 1 à ≈ 0 autour de n = r log(r) si r ≫ 1 :
Théorème 1.17 (Convergence abrupte en n = r log(r)). Pour tout réel c > 0, P (T > r log(r) + rc) 6 e
−c+εroù 0 6 ε
r< 1/r.
Si (c
r)
r∈N∗est une suite qui tend vers l’infini, alors
r
lim
→∞P (T > r log(r) − rc
r) = 1.
Démonstration. La première majoration provient du théorème 1.14. D’autre part, le théorème 1.16 affirme que (T − r log(r))/r converge en loi vers la loi de Gumbel quand r → ∞ , ce qui donne, grâce au fait que c
r→ ∞ ,
P (T > r log(r) − rc
r) = P
T − r log(r) r > − c
rr
−→
→∞1.
⊓
⊔
1.6 Pour aller plus loin
Notre étude du jeu de pile ou face fait l’impasse sur un certain nombre de propriétés remarquables, comme la loi de l’arc–sinus et les principes d’inva- riance, abordées dans le livre de William Feller [Fel68, Fel71]. Ce livre contient également une preuve du théorème de Berry-Esseen, à base d’analyse de Fou- rier. Un joli problème de la plus longue sous-suite commune à deux jeux de pile ou face est étudié dans le livre d’optimisation combinatoire randomisée de Michael Steele [Ste97]. L’article [Ste94] de Michael Steele sur l’approximation par la loi de Poisson est bien éclairant. On trouvera également dans le livre [BHJ92] de Andrew Barbour, Lars Holst, et Svante Janson une version ren- forcée de l’inégalité de Le Cam, obtenue par Barbour et Eagleson en utilisant la méthode d’intégration par parties de Louis Chen et Charles Stein :
d
VT(Ber(p
1) ∗ · · · ∗ Ber(p
n), Poi(p
1+ · · · + p
n))
6 (1 − e
−(p1+···+pn)) p
21+ · · · + p
2np
1+ · · · + p
n. À titre de comparaison, une version inhomogène du théorème limite central de Berry-Esseen, tirée du livre de William Feller, affirme que si (X
n)
n>1sont des variables aléatoires indépendantes alors en notant S
n= X
1+ · · · + X
n, σ
2k= E ( | X
k− E (X
k) |
2), τ
k3= E ( | X
k− E (X
k) |
3), on a
3. «Threshold phenomenon» en anglais.
16 1 Pile, face, coupons sup
x∈R
P S
n− E (S
n) p Var(S
n) 6 x
!
− 1
√ 2π Z
x−∞
e
−t2 2
dt
2
6 (τ
13+ · · · + τ
n3)
2(σ
21+ · · · + σ
2n)
3. D’autre part, on peut voir la distance en variation totale d
VT( · , · ) comme une distance de Wasserstein (couplage). Pour le voir, on observe tout d’abord que P (X 6 = Y ) = E (d(X, Y )) pour la distance atomique d(x, y) = δ
x6=y, d’où, en notant Π(µ, ν) l’ensemble des lois sur E × E de lois marginales µ et ν ,
d
VT(µ, ν) = min
π∈Π(µ,ν)
Z
E×E
d(x, y) dπ(x, y).
Le problème du collectionneur de coupons est notamment abordé dans le livre de William Feller [Fel68, Fel71], le livre de Rejeev Motwani et Prabhakar Raghavan [MR95], et dans les articles de Lars Holst[Hol01] et de Aristides Doumas et Vassilis Papanicolaou [DP13]. Donald Newman et Lawrence Shepp on montré dans [NS60] que si on impose que chaque type soit observé m fois, alors le temps de complétion de la collection vaut en moyenne
r log(r) + (m − 1)r log(log(r)) + O (r).
D’autres variantes se trouvent dans le livre de Claude Bouzitat, Gilles Pagès, Frédérique Petit, et Fabrice Carrance [BPPC99]. Le théorème 1.16 révélant une fluctuation asymptotique de loi de Gumbel a été obtenu par Paul Erdős et Alfréd Rényi [ER61a]. Une analyse du cas non uniforme associé à une pro- babilité discrète (p
1, . . . , p
r) est menée dans un article de Lars Holst [Hol01].
Lorsque r n’est pas connu, on dispose de l’estimateur b
r
n:= card { X
1, . . . , X
n} .
Si e
1, . . . , e
rest la base canonique de R
ralors le vecteur aléatoire C
n:= (C
n,1, . . . , C
n,r) := e
X1+ · · · + e
Xnde N
rsuit la loi multinomiale de taille n et de paramètre (p
1, . . . , p
r), et on a
b r
n=
X
r i=11
{Cn,i>0}
= r − X
r i=11
{Cn,i=0}