Probabilités
Contrairement au programme de première année, l’univers d’une expérience aléatoire n’est plus supposé fini.
1 Univers probabilisé
1.1 Notion de tribu
Définition 1.1 Tribu
On appelletribusur un ensembleΩtoute partie𝒜de𝒫(Ω)vérifiant les propriétés suivantes.
L’univers appartient à la tribu Ω ∈ 𝒜.
Stabilité par passage au complémentaire ∀A ∈ 𝒜,A ∈ 𝒜.
Stabilité par union dénombrable ∀(A𝑛) ∈ 𝒜ℕ, ⋃
𝑛∈ℕ
A𝑛∈ 𝒜.
Remarque. Une tribu est aussi parfois appellée uneσ-algèbre.
Exemple 1.1
• 𝒫(Ω)est une tribu surΩ. On l’appelle latribu pleine.
• {∅, Ω}est une tribu surΩ. On l’appelle latribu triviale.
Définition 1.2 Événement
• On appelleévénementtout élément de la tribu.
• Un événement est ditélémentairesi c’est un singleton.
• On appelle événementcontraired’un événementAle complémentaireAde cet événement dans l’univers.
• L’ensemble vide est appelé événementimpossible.
• Ωest appelé l’événementcertain.
• On dit que deux événementsAetBsontincompatiblessi l’événementA ∩ Best impossible.
• On appellesystème complet d’événementstoute partition de l’univers formée d’événements.
Les propriétés suivantes des tribus découlent directement de la définition.
Proposition 1.1
Soit𝒜une tribu sur un ensembleΩ.
L’ensemble vide appartient à l’univers ∅ ∈ Ω.
Stabilité par intersection dénombrable ∀(A𝑛) ∈ 𝒜ℕ,⋂
𝑛∈ℕ
A𝑛∈ 𝒜.
Stabilité par union ou intersection finie ∀(A1, … , A𝑛) ∈ 𝒜𝑛,
𝑛
⋃𝑖=1
A𝑖 ∈ 𝒜et
𝑛
⋂𝑖=1
A𝑖∈ 𝒜.
Définition 1.3 Espace probabilisable
On appelleespace probabilisabletout couple(Ω, 𝒜)où𝒜est une tribu surΩ.
Tribu engendrée
SoitΩun ensemble et𝒞une partie de𝒫(Ω). On appelletribu engendrée par𝒞la plus petite tribu deΩcontenant𝒞.
C’est l’intersection des tribus contenant𝒞.
Jeu de pile ou face infini
On considère l’expérience aléatoire consistant à lancer une infinité de fois une pièce. On associe face à0et pile à1. On peut considérer l’universΩ = {0, 1}ℕ∗que l’on munit de la tribu𝒫(Ω). On noteP𝑛l’événement «obtenir pile au lancer 𝑛» autrement dit
P𝑛= {ω ∈ Ω, ω𝑛= 1}
L’universΩest généralement muni de la tribu engendrée par{P𝑛, 𝑛 ∈ ℕ∗}.
Exemple 1.2
• L’événement «obtenir uniquement pile à partir du lancer𝑛» est⋂
𝑘≥𝑛
P𝑘.
• L’événement «obtenir au moins un pile à partir du lancer𝑛» est⋃
𝑘≥𝑛
P𝑘.
• L’événement «obtenir une infinité de fois pile» est ⋂
𝑛∈ℕ⋃
𝑘≥𝑛
P𝑘.
1.2 Espace probabilisé
Définition 1.4 Probabilité
Soit(Ω, 𝒜)un espace probabilisable. On appelleprobabilitésur(Ω, 𝒜)toute applicationℙ ∶ 𝒜 → [0, 1]telle que
• ℙ(Ω) = 1;
• pour toute suite d’événementsdeux à deux disjoints,ℙ (⋃
𝑛∈ℕ
A𝑛) =
+∞
∑
𝑛=0
ℙ(A𝑛).
Définition 1.5 Espace probabilisé
On appelleespace probabilisé finitout triplet(Ω, 𝒜, ℙ)où(Ω, 𝒜)est un espace probabilisable etℙune probabilité sur (Ω, 𝒜).
Proposition 1.2 Propriétés des probabilités Soit(Ω, 𝒜, ℙ)un espace probabilisé.
• ℙ(∅) = 0.
• Soit(A, B) ∈ 𝒜2. Alorsℙ(A ∪ B) = ℙ(A) + ℙ(B) − ℙ(A ∩ B).
• SoitA ∈ 𝒜. Alorsℙ(A) = 1 − ℙ(A).
• Soit(A, B) ∈ 𝒜2. SiA ⊂ B, alorsℙ(A) ≤ ℙ(B).
• Soit𝒮un système complet d’événements. Alors ∑
A∈𝒮
ℙ(A) = 1.
Proposition 1.3
SoientΩun universfinioudénombrable.
• Soitℙune probabilité sur(Ω, 𝒫(Ω)). Alors la famille(ℙ({ω}))ω∈Ωest sommable de somme1.
• Soit(𝑝ω)une famille sommable de réels positifs de somme1. Alors il existe une unique probabilité sur(Ω, 𝒫(Ω)) telle queℙ({ω}) = 𝑝ωpour toutω ∈ Ω.
Pile ou face infini
On considère un jeu de pile ou face modélisé par l’universΩ = {0, 1}ℕ∗ que l’on munit de la tribu𝒜engendrée par les événements «obtenir pile au𝑛èmelancer» pour𝑛 ∈ ℕ.
Un théorème de Kolmogorov assure l’existence d’une probabilité sur(Ω, 𝒜)telle que pour tout𝑛 ∈ ℕ∗et toutω ∈ {0, 1}̃ 𝑛 ℙ ({ω ∈ Ω, ∀𝑖 ∈J1, 𝑛K, ω𝑖= ̃ω𝑖}) = 1
2𝑛
Autrement dit, il existe une probabilité telle que la probabilité d’obtenir une séquencefiniedonnée au cours des𝑛premiers lancers est 1
2𝑛.
On peut alors prouver sans peine que les événements «obtenir pile au𝑛èmelancer» ou «obtenir face au𝑛èmelancer» sont de probabilité1
2.
1.3 Propriétés des probabilités
Proposition 1.4 Continuité croissante et décroissante
Soit(A𝑛)𝑛∈ℕune suite d’événements d’un univers probabilisé(Ω, 𝒜, ℙ).
Continuité croissante Si(A𝑛)estcroissantepour l’inclusion, alors lim
𝑛→+∞ℙ(A𝑛) = ℙ (⋃
𝑛∈ℕ
A𝑛).
Continuité décroissante Si(A𝑛)estdécroissantepour l’inclusion, alors lim
𝑛→+∞ℙ(A𝑛) = ℙ (⋂
𝑛∈ℕ
A𝑛).
Corollaire 1.1
Soit(A𝑛)𝑛∈ℕune suite d’événements d’un univers probabilisé(Ω, 𝒜, ℙ). Alors
ℙ (⋃
𝑛∈ℕ
A𝑛) ≤
+∞
∑
𝑛=0
ℙ(A𝑛)
Remarque. On peut donner un sens à l’inégalité précédente même si la série ∑
𝑛∈ℕ
ℙ(A𝑛)diverge, puisqu’étant à termes positifs, elle diverge dans ce cas vers+∞.
Définition 1.6 Evénement négligeable/presque sûr SoitAun événement d’un univers probabilisé(Ω, 𝒜, ℙ).
Evénement négligeable On dit queAestnégligeablesiℙ(A) = 0.
Evénement presque sûr On dit queAestpresque sûrsiℙ(A) = 1.
Attention!
• Apeut être un événement négligeable sans queA = ∅.
• Apeut être un événement presque sûr sans queA = Ω.
Proposition 1.5
• Une réunionfinie ou dénombrabled’événements négligeables est un événement négligeable.
• Une intersectionfinie ou dénombrabled’événements presque sûrs est un événement presque sûr.
Exercice 1.1 Lemme de Borel-Cantelli et loi du zéro-un de Borel Soit(A𝑛)𝑛∈ℕune suite d’événements d’un espace probabilisé(Ω, 𝒜, ℙ). On poseB𝑛=⋃
𝑘≥𝑛
A𝑘etA = ⋂
𝑛∈ℕ
B𝑛. 1. On suppose que la série ∑
𝑛∈ℕ
ℙ(A𝑛)converge.
(a) Montrer queℙ(A) = lim
𝑛→+∞ℙ(B𝑛).
(b) En déduire queℙ(A) = 0.
2. On suppose que lesA𝑛sont mutuellement indépendants et que la série ∑
𝑛∈ℕ
ℙ(A𝑛)diverge.
(a) Soit(𝑛, 𝑝) ∈ ℕ2. Montrer que
ℙ (
𝑛+𝑝 𝑘=𝑛⋂
A𝑘) ≤exp(−
𝑛+𝑝
∑
𝑘=𝑛
ℙ(A𝑘)) (b) En déduire queℙ(A) = 1.
1.4 Probabilité conditionnelle
Définition 1.7 Probabilité conditionnelle
Soient(Ω, 𝒜, ℙ)un espace probabilisé et(A, B) ∈ 𝒜2tel queℙ(B) ≠ 0. On appelleprobabilité deAsachantBnotée ℙ(A ∣ B)ouℙB(A)le quotient ℙ(A ∩ B)
ℙ(B) .
Proposition 1.6
Soient(Ω, 𝒜, ℙ)un espace probabilisé etB ∈ 𝒜tel queℙ(B) ≠ 0. AlorsℙB∶ A ∈ 𝒜 ↦ ℙB(A)est une probabilité sur (Ω, 𝒜).
Proposition 1.7 Formule des probabilités composées
Soient(Ω, 𝒜, ℙ)un espace probabilisé et(A1, … , A𝑛) ∈ 𝒜𝑛tel queℙ(A1∩ ⋯ ∩ A𝑛−1) ≠ 0. Alors ℙ(A1∩ ⋯ ∩ A𝑛) = ℙ(A1)ℙ(A2∣ A1)ℙ(A3∣ A1∩ A2) … ℙ(A𝑛∣ A1∩ ⋯ ∩ A𝑛−1)
Proposition 1.8 Formule des probabilités totales
Soient(Ω, 𝒜, ℙ)un espace probabilisé,𝒮un système complet d’événements etBun événement. Alors ℙ(B) = ∑
A∈𝒮
ℙ(B ∣ A)ℙ(A)
Remarque. La propriété reste vraie si𝒮est uns sytème-quasi complet d’événements.
1.5 Événements indépendants
Définition 1.8 Événements indépendants
Soit(Ω, 𝒜, ℙ)un espace probabilisé. On dit que deux événementsAetBsontindépendantssiℙ(A ∩ B) = ℙ(A)ℙ(B).
Proposition 1.9
Soit(Ω, 𝒜, ℙ)un espace probabilisé. SoientAetBdeux événements avecℙ(B) > 0. AlorsAetBsont indépendants si et seulement siℙ(A ∣ B) = ℙ(A)
Attention!
Dire que deux événements sont indépendants ne signifient pas qu’ils sont incompatibles.
Au contraire, deux événements incompatibles ne sont généralement pas indépendants à moins que l’un d’entre eux soit de probabilité nulle.
Définition 1.9 Famille d’événements indépendants
Soient(Ω, 𝒜, ℙ)un espace probabilisé et(A𝑖)𝑖∈Iune famille d’événements. On dit que(A𝑖)𝑖∈Iest une famille d’événe- mentsmutuellement indépendantssi, pour toute partiefinieJdeI
ℙ (⋂
𝑗∈J
A𝑗) = ∏
𝑗∈J
ℙ(A𝑗)
Remarque. Il découle directement de la définition que toute sous-famille d’une famille d’événements mutuellement indé- pendants est encore une famille d’événements mutuellement indépendants.
Attention!
Si(A𝑖)𝑖∈Iest une famille finie d’événements mutuellement indépendants alors lesA𝑖 sont indépendants deux à deux. Cependant, la réciproque est fausse.
Exemple 1.3 Pile ou face infini
Si l’on considère le jeu de pile ou face infini muni de la tribu et de la probabilité vues précédemment, la famille(P𝑛)𝑛∈ℕ∗
oùP𝑛est l’événement «obtenir pile au𝑛èmelancer» est une famille d’événements mutuellement indépendants.
Exercice 1.2
Soit(A𝑖)𝑖∈Iune famille d’événements mutuellement indépendants d’un espace probabilisé(Ω, 𝒜, ℙ). On considère une famille(B𝑖)𝑖∈Itelle que pour tout𝑖 ∈ I,B𝑖= A𝑖ouB𝑖 = A𝑖. Montrer que(B𝑖)𝑖∈Iest également une famille d’événements mutuellement indépendants.
2 Variables aléatoires discrètes
2.1 Définitions
Définition 2.1 Variable aléatoire discrète
Soit(Ω, 𝒜)un espace probabilisable. On appellevariable aléatoire discrètesur(Ω, 𝒜)toute applicationXdéfinie sur Ωtelle que
• X(Ω)est fini ou dénombrable;
• pour tout𝑥 ∈ X(Ω),X−1({𝑥}) ∈ 𝒜.
Remarque. SiXest une variable aléatoire discrète sur un espace probabilisable(Ω, 𝒜), alorsX(𝒜) = {X(A), A ∈ 𝒜} = 𝒫(X(Ω)).
Notation 2.1
SoitXune variable aléatoire discrète sur un espace probabilisé(Ω, 𝒜, ℙ).
Pour toutA ∈ 𝒫(X(Ω)),X−1(A)est un élément de𝒜donc un événement. L’événementX−1(A)se note plutôtX ∈ A.
L’événementX−1({𝑥})se note plutôtX = 𝑥.
On peut alors parler des probabilitésℙ(X ∈ A)etℙ(X = 𝑥).
SiXest une variable aléatoire réelle et𝑥 ∈ ℝ, alorsℙ(X ∈] − ∞, 𝑥])etℙ(X ∈ [𝑥, +∞[)se note alors plutôtℙ(X ≤ 𝑥) etℙ(X ≥ 𝑥)respectivement.
Définition 2.2 Loi d’une variable aléatoire
Soit X une variable aléatoire discrète sur un espace probabilisé(Ω, 𝒜, ℙ). On appelle loi de X l’application ℙX ∶ { 𝒫(X(Ω)) ⟶ [0, 1]
A ⟼ ℙ(X ∈ A) .
Notation 2.2
SiXetYsont des variables aléatoires de même loi, on noteX ∼ Y.
LorsqueXsuit une loiℒdonnée, on notera égalementX ∼ ℒ.
Proposition 2.1
SoitXune variable aléatoire discrète sur un espace probabilisé(Ω, 𝒜, ℙ). Alors la loiℙXdeXest une probabilité sur l’espace probabilisable(X(Ω), 𝒫(X(Ω))).
Corollaire 2.1
SoitXune variable aléatoire discrète sur un espace probabilisé(Ω, 𝒜, ℙ). AlorsℙXest entièrement déterminée par la donnée desℙ(X = 𝑥)pour𝑥 ∈ X(Ω).
Remarque. C’est pour cela qu’en pratique, lorsque l’on demande la loi d’une variable aléatoireXsurΩ, on ne demande pas ℙ(X ∈ A)pour toutA ∈ 𝒫(X(Ω))maisℙ(X = 𝑥)pour tout𝑥 ∈ X(Ω).
Définition 2.3 Loi conditionnelle
SoientXune variable aléatoire discrète sur un espace probabilisé(Ω, 𝒜, ℙ)etB ∈ 𝒜tel queP(B) > 0. On appelleloi de Xconditionnée par l’événementBl’applicationPX∣B∶ { 𝒫(X(Ω)) ⟶ [0, 1]
A ⟼ P(X ∈ A ∣ B) .
Remarque. A nouveau, quand on demande en pratique la loi conditionnelle de Xconditionnée par l’événement B, on se contente de donnerP(X = 𝑥 ∣ B)pour tout𝑥 ∈ X(Ω)plutôt queP(X ∈ A ∣ B)pour toutA ∈ 𝒫(X(Ω)).
2.2 Lois usuelles
Définition 2.4 Loi géométrique
SoientXune variable aléatoire sur un espace probabilisé(Ω, 𝒜, ℙ)à valeurs dansℕ∗et𝑝 ∈ [0, 1]. On dit queXsuit la loi géométrique de paramètre𝑝si
∀𝑛 ∈ ℕ∗, ℙ(X = 𝑛) = (1 − 𝑝)𝑛−1𝑝 Pour abréger, on dit queXsuit la loi𝒢(𝑝)ou encoreX ∼ 𝒢(𝑝).
Interprétation de la loi géométrique
On considère une succession d’épreuves de Bernoulli indépendantes de même paramètre𝑝. Le rang d’apparition du premier succès suit une loi géométrique de paramètre𝑝.
Proposition 2.2 Loi sans mémoire
SoitXune variable aléatoire discrète à valeurs dansℕ∗.Xsuit une loi géométrique si et seulement si
∀(𝑚, 𝑛) ∈ ℕ, ℙ(X > 𝑚 + 𝑛 ∣ X > 𝑚) = ℙ(X = 𝑛)
Définition 2.5 Loi de Poisson
SoientXune variable aléatoire discrète sur un espace probabilisé(Ω, 𝒜, ℙ)à valeurs dansℕ∗etλ ∈ ℝ∗+. On dit queX suit laloi de Poisson de paramètreλsi
∀𝑛 ∈ ℕ, ℙ(X = 𝑛) = 𝑒−λλ𝑛 𝑛!
Pour abréger, on dit queXsuit la loi𝒫(λ)ou encoreX ∼ 𝒫(λ).
Proposition 2.3 Approximation d’une loi binomiale par une loi de Poisson
Soit(X𝑛)𝑛∈ℕune suite de variables aléatoires telle queX𝑛∼ 𝒫(λ𝑛)pour tout𝑛 ∈ ℕ. On suppose que𝑛𝑝𝑛 ⟶
𝑛→+∞λ > 0.
Alors pour tout𝑘 ∈ ℕ,
𝑛→+∞lim ℙ(X𝑛= 𝑘) = 𝑒−λλ𝑘 𝑘!
Remarque. On dit que la suite(X𝑛)converge en loi vers une variable aléatoire de loi𝒫(λ).
2.3 Couples et uplets de variables aléatoires
Remarquons tout d’abord que siXetYsont des variables aléatoires discrètes sur un espace probabilisable(Ω, 𝒜), il en est de même du couple(X, Y), c’est-à-dire de l’applicationω ∈ Ω ↦ (X(ω), Y(ω)).
Définition 2.6 Loi conjointe, lois marginales
SoientXetYdes variables aléatoires discrètes sur un espace probabilisé(Ω, 𝒜, ℙ).
La loi du couple(X, Y)est appeléeloi conjointedes variables aléatoiresXetY.
Les lois deXetYsont appellées leslois marginalesdu couple(X, Y).
Proposition 2.4
SoientXetYdes variables aléatoires discrètes sur un espace probabilisé(Ω, 𝒜, ℙ).
La loi conjointe deXetYpermet de retrouver les lois marginales. Plus précisément
∀𝑥 ∈ X(Ω), ℙ(X = 𝑥) = ∑
𝑦∈Y(Ω)
ℙ((X, Y) = (𝑥, 𝑦))
∀𝑦 ∈ Y(Ω), ℙ(Y = 𝑦) = ∑
𝑥∈X(Ω)
ℙ((X, Y) = (𝑥, 𝑦))
Attention!
Les lois marginales ne permettent pas de retrouver la loi conjointe (à moins que les variables aléatoires soient indépendantes).
Définition 2.7 Vecteur aléatoire
De même, siX1, … , X𝑛sont des variables aléatoires discrètes sur un espace probabilisé(Ω, 𝒜, ℙ), alors(X1, … , X𝑛)est une variable aléatoire appeléevecteur aléatoire. Les lois deX1, … , X𝑛sont les lois marginales de ce vecteur aléatoire.
2.4 Variables aléatoires indépendantes
Définition 2.8 Couple de variables aléatoires indépendantes
SoientXetYdes variables aléatoires discrètes sur un espace probabilisé(Ω, 𝒜, ℙ).
Les variables aléatoiresXetYsont ditesindépendantessi
∀(A, B) ∈ 𝒫(X(Ω)) × 𝒫(Y(Ω)), P((X, Y) ∈ A × B) = P(X ∈ A)P(Y ∈ B)
Proposition 2.5
SoientXetYdes variables aléatoires discrètes sur un espace probabilisé(Ω, 𝒜, ℙ).
Les variables aléatoiresXetYsont indépendantes si et seulement si
∀(𝑥, 𝑦) ∈ X(Ω) × Y(Ω), P((X, Y) = (𝑥, 𝑦)) = P(X = 𝑥)P(Y = 𝑦)
Définition 2.9 Famille de variables aléatoires mutuellement indépendantes
Soit(X𝑖)𝑖∈Iune famillefiniede variables aléatoires discrètes sur un espace probabilisé(Ω, 𝒜, ℙ).
On dit que(X𝑖)𝑖∈Iest une famille de variables aléatoiresmutuellement indépendantessi
∀(A𝑖)𝑖∈I∈ ∏
𝑖∈I
𝒫(X𝑖(Ω)), P (⋂
𝑖∈I
X𝑖∈ A𝑖) = ∏
𝑖∈I
ℙ(X𝑖 ∈ A𝑖)
Une familleinfiniede variables aléatoires est une famille de variables aléatoires mutuellement indépendantes si toute sous-famille finie l’est.
Proposition 2.6
Soit(X𝑖)𝑖∈Iune famillefiniede variables aléatoires sur un espace probabilisé(Ω, 𝒜, ℙ).
(X𝑖)𝑖∈Iest une famille de variables aléatoires mutuellement indépendantes si et seulement si
∀(𝑥𝑖)𝑖∈I∈ ∏
𝑖∈I
X𝑖(Ω), P (⋂
𝑖∈I
X𝑖= 𝑥𝑖) = ∏
𝑖∈I
ℙ(X𝑖 = 𝑥𝑖)
Remarque. Toute sous-famille d’une famille finie de variables mutuellement indépendantes est une famille de variables aléatoires mutuellement indépendantes.
Attention!
Si des variables aléatoires sont mutuellement indépendantes, alors ces variables aléatoires sont indépen- dantes deux à deux mais la réciproque est fausse.
Exemple 2.1
SoitXetYdeux variables aléatoires indépendantes de loi uniforme sur{−1, 1}. On poseZ = XY. AlorsX, Y, Zsont deux à deux indépendantes mais pas mutuellement indépendantes.
Exercice 2.1
Montrer que(A𝑖)𝑖∈Iest une famille d’événements mutuellement indépendants si et seulement si(1A𝑖)𝑖∈Iest une famille de variables aléatoires mutuellement indépendantes.
Proposition 2.7 Lemme des coalitions
SoientX1, … , X𝑛 des variables aléatoires discrètes mutuellement indépendantes sur un espace probabilisé(Ω, 𝒜, ℙ).
Soient𝑚 ∈ J1, 𝑛 − 1K,𝑓une application définie sur
𝑚
∏
𝑘=1
X𝑘(Ω) et𝑔une application définie sur
𝑛
∏
𝑘=𝑚+1
X𝑘(Ω). Alors, 𝑓(X1, … , X𝑚)et𝑔(X𝑚+1, … , X𝑛)sont des variables aléatoires indépendantes.
Exemple 2.2
SiX,YetZsont trois variables aléatoires discrètes réelles mutuellement indépendantes, alors cos(X2+ Y2)et𝑒Z sont indépendantes.
Proposition 2.8
Si l’on se donne une suite de lois de variables aléatoires discrètes, il existe un espace probabilisé tel qu’il existe une suite de variables aléatoires discrètes mutuellement indépndantes suivant ces lois.
Remarque. Peu d’intérêt pratique. Cette proposition sert essentiellement à légitimer certains énoncés d’exercices.
Jeu de pile ou face infini
La proposition précédente permet de donner un cadre théorique au jeu de pile ou face infini. En effet, on peut affirmer l’existence d’un espace probabilisé pour lequel il existe une suite de variables aléatoires indépendantes suivant une loi de Bernoulli de paramètre donné (1/2si la pièce lancée est équilibrée).
3 Espérance, variance et covariance
Dans tout ce paragraphe, les variables aléatoires considérées sont des variables aléatoires réelles (à valeurs dansℝ).
3.1 Espérance
Définition 3.1 Espérance d’une variable aléatoire dicrète réelle positive
SoitXune variable aléatoire discrète sur un espace probabibilisé(Ω, 𝒜, ℙ). On suppose queX(Ω) ⊂ ℝ+. L’espérance deXest la somme, dansℝ+∪ {+∞}, de la famille(𝑥ℙ(X = 𝑥))𝑥∈X(Ω). On la note𝔼(X).
Définition 3.2 Espérance d’une variable aléatoire discrète réelle
SoitXune variable aléatoire discrète réelle sur un espace probabibilisé(Ω, 𝒜, ℙ). On dit queXestd’espérance finiesi la famille(𝑥ℙ(X = 𝑥))𝑥∈X(Ω)est sommable. Dans ce cas, la somme de cette famille est l’espérancedeX. On la note𝔼(X).
Remarque. Il est primordial de remarquer que l’espérance d’une variable aléatoire ne dépend que de saloi.
Remarque. Une variable aléatoire d’espérance finie est dite centrée si𝔼(X) = 0.
Proposition 3.1 Espérance des lois usuelles
• SiX ∼ 𝒢(𝑝), alors𝔼(X) = 1 𝑝.
• SiX ∼ 𝒫(λ), alors𝔼(X) = λ.
Proposition 3.2 Propriétés de l’espérance
Linéarité SoientXetYdeux variables aléatoires discrètes réelles d’espérances finies. Soitλ, μ) ∈ ℝ2. AlorsλX + μY est d’espérance finie et𝔼(λX + μY) = λ𝔼(X) + μ𝔼(Y).
Positivité SoitXune variable aléatoire discrète positive. Alors𝔼(X) ≥ 0.
Croissance SoientXetYdeux variables aléatoires discrètes réelles d’espérances finies. SiX ≤ Y, alors𝔼(X) ≤ 𝔼(Y).
Remarque. Si|X| ≤ YetYest d’espérance finie, alorsXest d’espérance finie et|𝔼(X)| ≤ 𝔼(|X|) ≤ 𝔼(Y).
Proposition 3.3 Formule de transfert
SoientXune variable aléatoire discrète et𝑓 ∶ X(Ω) → ℝ. Alors𝑓(X)est d’espérance finie si et seulement si la famille (𝑓(𝑥)ℙ(X = 𝑥))𝑥∈X(Ω)est sommable et, dans ce cas,
𝔼(𝑓(X)) = ∑
𝑥∈X(Ω)
𝑓(𝑥)ℙ(X = 𝑥)
Remarque. L’intérêt de la formule de transfert est qu’elle permet de calculer l’espérance de𝑓(X)sans connaître la loi de 𝑓(X)mais uniquement la loi deX.
Exercice 3.1
SoitXune variable suivant la loi géométrique de paramètre𝑝. Déterminer l’espérance de1/X.
Proposition 3.4 Espérance et indépendance
SoientXetYdeux variables aléatoires discrètes réellesindépendantesd’espérances finies. AlorsXYest d’espérance finie et
𝔼(XY) = 𝔼(X)𝔼(Y)
3.2 Variance
Définition 3.3 Moment d’une variable aléatoire
SoitXune variable aléatoire discrète réelle. On dit queXadmet un moment d’ordre𝑟siX𝑟est d’espérance finie. Dans ce cas, le moment d’ordre𝑟deXest𝔼(X𝑟).
Remarque. Un moment d’une variable aléatoire ne dépend que de saloi.
Exercice 3.2
Soit𝑟 ∈ ℕ. Montrer que l’ensemble des variables aléatoires discrètes réelles admettant un moment d’ordre𝑟forment un ℝ-espace vectoriel.
Exercice 3.3
Montrer que si une variable aléatoire réelle discrète admet un moment d’ordre𝑟alors elle admet un moment d’ordre𝑘 pour tout𝑘 ∈J0, 𝑟K.
Proposition 3.5
L’ensemble des variables aléatoires discrètes réelles admettant un moment d’ordre2forment unℝ-espace vectoriel.
Exercice 3.4
SoitE l’ensemble des variables aléatoires discrètes réelles admettant un moment d’ordre2. Montrer que l’application (X, Y) ∈ E2↦ 𝔼(XY)est bien définie, bilinéaire, symétrique et positive.
Proposition 3.6
Si une variable aléatoire réelle discrète admet un moment d’ordre2, elle est d’espérance finie.
Proposition 3.7 Inégalité de Cauchy-Schwarz
SoientXetYdeux variables aléatoires discrètes réelles admettant chacune un moment d’ordre2. AlorsXYest d’espérance finie et
𝔼(XY)2≤ 𝔼(X)2𝔼(Y)2
Définition 3.4 Variance et écart-type
SoitXune variable aléatoire réelle discrète admettant un moment d’ordre2.
• On appellevariancedeXle réel positif
𝕍(X) = 𝔼 ((X − 𝔼(X))2)
• On appelleécart-typedeXle réel
σ(X) = √𝕍(X)
Remarque. La variance et l’écart-type d’une variable aléatoire ne dépendent que de saloi.
Remarque. On dit qu’une variable aléatoireXestréduitesi𝕍(X) = 1.
Exercice 3.5
SoitXune variable aléatoire discrète réelle de variance nulle. Montrer queXest presque sûrement constante égale à𝔼(X), autrement dit queℙ(X = 𝔼(X)) = 1.
Proposition 3.8 Théorème de König-Huygens
SoitXune variable aléatoire réelle discrète admettant un moment d’ordre2(et donc également une espérance finie). Alors 𝕍(X) = 𝔼(X2) − 𝔼(X)2
Proposition 3.9 Variance d’une fonction affine d’une variable aléatoire
SoitXune variable aléatoire réelle discrète admettant un moment d’ordre2. Soit(𝑎, 𝑏) ∈ ℝ2. Alors𝕍(𝑎X + 𝑏) = 𝑎2𝕍(X).
Remarque. SiXest une variable aléatoire admettant une variance finie non nulle, alorsX − 𝔼(X)
estcentrée réduite.
Proposition 3.10 Variance des lois usuelles
• SiX ∼ 𝒢(𝑝), alors𝕍(X) =1 − 𝑝 𝑝2 .
• SiX ∼ 𝒫(λ), alors𝕍(X) = λ.
3.3 Covariance
Définition 3.5 Covariance de deux variables aléatoires
SoientXetYdeux variables aléatoires discrètes réelles admettant un moment d’ordre2. On appellecovariance deXet Yle réel
Cov(X, Y) = 𝔼 ((X − 𝔼(X))(Y − 𝔼(Y))) Remarque. 𝕍(X) =Cov(X, X)
Remarque. D’après l’inégalité de Cauchy-Schwarz :
|Cov(X, Y)| ≤ σ(X)σ(Y)
Remarque. La covariance est «presque» un produit scalaire. C’est une forme bilinéaire symétrique positive mais pas néces- sairement définie.
Proposition 3.11
SoientXetYdeux variables aléatoires discrètes réelles admettant un moment d’ordre2. Alors Cov(X, Y) = 𝔼(XY) − 𝔼(X)𝔼(Y)
Proposition 3.12 Covariance de variables aléatoires
SiXetYsont deux variables aléatoires discrètes réellesindépendantesadmettant un moment d’ordre2, alors Cov(X, Y) = 0.
Attention!
La réciproque est fausse. Il suffit par exemple de prendreX ∼ 𝒰({−1, 1})etY = −X. On a bien Cov(X, Y) = 0maisXetYne sont évidemment pas indépendantes.
Proposition 3.13 Variance d’une somme et théorème de Pythagore
SoientX1, … , X𝑛des variables aléatoires réelles discrètes admettant des moments d’ordre2. Alors 𝕍 (
𝑛
∑
𝑘=1
X𝑘) = ∑
1≤𝑖,𝑗≤𝑛
Cov(X𝑖, X𝑗) Si lesX𝑘sontindépendantes deux à deux,
𝕍 (
𝑛
∑X𝑘) =
𝑛
∑𝕍(X𝑘)
3.4 Inégalités classiques
Proposition 3.14 Inégalité de Markov
SoientXune variable aléatoire discrète réellepositived’espérance finie et𝑎 ∈ ℝ∗+. Alors ℙ(X ≥ 𝑎) ≤ 𝔼(X)
𝑎 Si on ne suppose plusXpositive, on peut affirmer que
ℙ(|X| ≥ 𝑎) ≤ 𝔼(|X|) 𝑎
Corollaire 3.1 Inégalité de Bienaymé-Tchebychev
SoientXune variable aléatoire discrète réelle admettant un moment d’ordre2etε ∈ ℝ∗+. Alors P (|X − 𝔼(X)| ≥ ε) ≤ 𝕍(X)
ε2 =σ(X)2 ε2
Corollaire 3.2 Loi faible des grands nombres
Soit(X𝑛)𝑛∈ℕ∗une suite de variables aléatoires deux à deux indépendantes, de même loi et admettant des moments d’ordre 2. Alors, en posantS𝑛=
𝑛
∑
𝑘=1
X𝑘et en notant𝑚l’espérance commune desX𝑘,
∀ε ∈ ℝ∗+, ℙ (||| S𝑛
𝑛 − 𝑚||| ≥ ε) ⟶𝑛→+∞0
Remarque. On peut en fait prouver à l’aide de l’inégalité de Bienaymé-Tchebychev qu’en notantσ2 la variance commune desX𝑘,
∀ε ∈ ℝ∗+, ℙ (||| S𝑛
𝑛 − 𝑚||| ≥ ε) ≤ σ2 𝑛ε2 La loi faible des grands nombres s’en déduit immédiatement.
4 Fonctions génératrices
Définition 4.1 Fonction génératrice
SoitXune variable aléatoire à valeurs dansℕ. On appelle fonction génératrice deXla fonctionGXdéfinie par GX(𝑡) = 𝔼(𝑡X) =
+∞
∑
𝑘=0
ℙ(X = 𝑘)𝑡𝑘
Remarque. A nouveau, la fonction génératrice d’une variable aléatoire ne dépend que de saloi.
Remarque. Puisque la série ∑
𝑘∈ℕ
ℙ(X = 𝑘)converge (vers1),
• la série entière 𝑘a un rayon de convergence supérieur ou égal à ;
• elle converge normalement sur le disque fermé de centre0et de rayon1;
• sa sommeGXest continue sur ce même disque;
• GXest de classe𝒞∞sur] − 1, 1[.
Fonctions génératrices des lois usuelles
• SiX ∼ ℬ(𝑝),GX(𝑡) = 1 − 𝑝 + 𝑝𝑡.
• SiX ∼ ℬ(𝑛, 𝑝),GX(𝑡) = (1 − 𝑝 + 𝑝𝑡)𝑛.
• SiX ∼ 𝒢(𝑝),GX(𝑡) = 𝑝𝑡 1 − (1 − 𝑝)𝑡.
• SiX ∼ 𝒫(λ),GX(𝑡) = 𝑒λ(𝑡−1).
Proposition 4.1 Fonction génératrice et loi SoitXune variable aléatoire à valeurs dansℕ. Alors
∀𝑘 ∈ ℕ, ℙ(X = 𝑘) = G(𝑘)X (0) 𝑘!
Proposition 4.2
Deux variables aléatoires à valeurs dansℕsont égales si et seulement si elles ont la même fonction génératrice.
Proposition 4.3 Fonction génératrice et espérance
SoitXune variable aléatoire à valeurs dansℕ. AlorsXadmet une espérance finie si et seulement siGXest dérivable en 1et, dans ce cas,𝔼(X) = G′X(1).
Proposition 4.4 Fonction génératrice et variance
SoitXune variable aléatoire à valeurs dansℕ. AlorsXadmet un moment d’ordre2si et seulement siGXest deux fois dérivable en1et, dans ce cas,𝕍(X) = G″X(1) + G′X(1) − G′X(1)2.
Proposition 4.5 Fonction génératrice d’une somme finie de variables aléatoires indépendantes SoientX1, … , X𝑛des variables aléatoires mutuellement indépendantes à valeurs dansℕ. Alors
G∑𝑛
𝑘=1X𝑘=
𝑛
∏
𝑘=1
GX𝑘
Exercice 4.1
SoientX1, … , X𝑛des variables aléatoires indépendantes suivant des lois de Poisson de paramètres respectifsλ1, … , λ𝑛. Déterminer la loi deS =
𝑛
∑X𝑘.