• Aucun résultat trouvé

Probabilités sur un univers fini

N/A
N/A
Protected

Academic year: 2022

Partager "Probabilités sur un univers fini"

Copied!
16
0
0

Texte intégral

(1)

Probabilités

Contrairement au programme de première année, l’univers d’une expérience aléatoire n’est plus supposé fini.

1 Univers probabilisé

1.1 Notion de tribu

Définition 1.1 Tribu

On appelletribusur un ensembleΩtoute partie𝒜de𝒫(Ω)vérifiant les propriétés suivantes.

L’univers appartient à la tribu Ω ∈ 𝒜.

Stabilité par passage au complémentaire ∀A ∈ 𝒜,A ∈ 𝒜.

Stabilité par union dénombrable ∀(A𝑛) ∈ 𝒜, ⋃

𝑛∈ℕ

A𝑛∈ 𝒜.

Remarque. Une tribu est aussi parfois appellée uneσ-algèbre.

Exemple 1.1

• 𝒫(Ω)est une tribu surΩ. On l’appelle latribu pleine.

• {∅, Ω}est une tribu surΩ. On l’appelle latribu triviale.

Définition 1.2 Événement

• On appelleévénementtout élément de la tribu.

• Un événement est ditélémentairesi c’est un singleton.

• On appelle événementcontraired’un événementAle complémentaireAde cet événement dans l’univers.

• L’ensemble vide est appelé événementimpossible.

• Ωest appelé l’événementcertain.

• On dit que deux événementsAetBsontincompatiblessi l’événementA ∩ Best impossible.

• On appellesystème complet d’événementstoute partition de l’univers formée d’événements.

Les propriétés suivantes des tribus découlent directement de la définition.

(2)

Proposition 1.1

Soit𝒜une tribu sur un ensembleΩ.

L’ensemble vide appartient à l’univers ∅ ∈ Ω.

Stabilité par intersection dénombrable ∀(A𝑛) ∈ 𝒜,⋂

𝑛∈ℕ

A𝑛∈ 𝒜.

Stabilité par union ou intersection finie ∀(A1, … , A𝑛) ∈ 𝒜𝑛,

𝑛

𝑖=1

A𝑖 ∈ 𝒜et

𝑛

𝑖=1

A𝑖∈ 𝒜.

Définition 1.3 Espace probabilisable

On appelleespace probabilisabletout couple(Ω, 𝒜)où𝒜est une tribu surΩ.

Tribu engendrée

SoitΩun ensemble et𝒞une partie de𝒫(Ω). On appelletribu engendrée par𝒞la plus petite tribu deΩcontenant𝒞.

C’est l’intersection des tribus contenant𝒞.

Jeu de pile ou face infini

On considère l’expérience aléatoire consistant à lancer une infinité de fois une pièce. On associe face à0et pile à1. On peut considérer l’universΩ = {0, 1}que l’on munit de la tribu𝒫(Ω). On noteP𝑛l’événement «obtenir pile au lancer 𝑛» autrement dit

P𝑛= {ω ∈ Ω, ω𝑛= 1}

L’universΩest généralement muni de la tribu engendrée par{P𝑛, 𝑛 ∈ ℕ}.

Exemple 1.2

• L’événement «obtenir uniquement pile à partir du lancer𝑛» est⋂

𝑘≥𝑛

P𝑘.

• L’événement «obtenir au moins un pile à partir du lancer𝑛» est⋃

𝑘≥𝑛

P𝑘.

• L’événement «obtenir une infinité de fois pile» est ⋂

𝑛∈ℕ

𝑘≥𝑛

P𝑘.

1.2 Espace probabilisé

Définition 1.4 Probabilité

Soit(Ω, 𝒜)un espace probabilisable. On appelleprobabilitésur(Ω, 𝒜)toute applicationℙ ∶ 𝒜 → [0, 1]telle que

• ℙ(Ω) = 1;

• pour toute suite d’événementsdeux à deux disjoints,ℙ (⋃

𝑛∈ℕ

A𝑛) =

+∞

𝑛=0

ℙ(A𝑛).

(3)

Définition 1.5 Espace probabilisé

On appelleespace probabilisé finitout triplet(Ω, 𝒜, ℙ)où(Ω, 𝒜)est un espace probabilisable etℙune probabilité sur (Ω, 𝒜).

Proposition 1.2 Propriétés des probabilités Soit(Ω, 𝒜, ℙ)un espace probabilisé.

• ℙ(∅) = 0.

• Soit(A, B) ∈ 𝒜2. Alorsℙ(A ∪ B) = ℙ(A) + ℙ(B) − ℙ(A ∩ B).

• SoitA ∈ 𝒜. Alorsℙ(A) = 1 − ℙ(A).

• Soit(A, B) ∈ 𝒜2. SiA ⊂ B, alorsℙ(A) ≤ ℙ(B).

• Soit𝒮un système complet d’événements. Alors ∑

A∈𝒮

ℙ(A) = 1.

Proposition 1.3

SoientΩun universfinioudénombrable.

• Soitℙune probabilité sur(Ω, 𝒫(Ω)). Alors la famille(ℙ({ω}))ω∈Ωest sommable de somme1.

• Soit(𝑝ω)une famille sommable de réels positifs de somme1. Alors il existe une unique probabilité sur(Ω, 𝒫(Ω)) telle queℙ({ω}) = 𝑝ωpour toutω ∈ Ω.

Pile ou face infini

On considère un jeu de pile ou face modélisé par l’universΩ = {0, 1} que l’on munit de la tribu𝒜engendrée par les événements «obtenir pile au𝑛èmelancer» pour𝑛 ∈ ℕ.

Un théorème de Kolmogorov assure l’existence d’une probabilité sur(Ω, 𝒜)telle que pour tout𝑛 ∈ ℕet toutω ∈ {0, 1}̃ 𝑛 ℙ ({ω ∈ Ω, ∀𝑖 ∈J1, 𝑛K, ω𝑖= ̃ω𝑖}) = 1

2𝑛

Autrement dit, il existe une probabilité telle que la probabilité d’obtenir une séquencefiniedonnée au cours des𝑛premiers lancers est 1

2𝑛.

On peut alors prouver sans peine que les événements «obtenir pile au𝑛èmelancer» ou «obtenir face au𝑛èmelancer» sont de probabilité1

2.

1.3 Propriétés des probabilités

(4)

Proposition 1.4 Continuité croissante et décroissante

Soit(A𝑛)𝑛∈ℕune suite d’événements d’un univers probabilisé(Ω, 𝒜, ℙ).

Continuité croissante Si(A𝑛)estcroissantepour l’inclusion, alors lim

𝑛→+∞ℙ(A𝑛) = ℙ (⋃

𝑛∈ℕ

A𝑛).

Continuité décroissante Si(A𝑛)estdécroissantepour l’inclusion, alors lim

𝑛→+∞ℙ(A𝑛) = ℙ (⋂

𝑛∈ℕ

A𝑛).

Corollaire 1.1

Soit(A𝑛)𝑛∈ℕune suite d’événements d’un univers probabilisé(Ω, 𝒜, ℙ). Alors

ℙ (⋃

𝑛∈ℕ

A𝑛) ≤

+∞

𝑛=0

ℙ(A𝑛)

Remarque. On peut donner un sens à l’inégalité précédente même si la série ∑

𝑛∈ℕ

ℙ(A𝑛)diverge, puisqu’étant à termes positifs, elle diverge dans ce cas vers+∞.

Définition 1.6 Evénement négligeable/presque sûr SoitAun événement d’un univers probabilisé(Ω, 𝒜, ℙ).

Evénement négligeable On dit queAestnégligeablesiℙ(A) = 0.

Evénement presque sûr On dit queAestpresque sûrsiℙ(A) = 1.

Attention!



• Apeut être un événement négligeable sans queA = ∅.

• Apeut être un événement presque sûr sans queA = Ω.

Proposition 1.5

• Une réunionfinie ou dénombrabled’événements négligeables est un événement négligeable.

• Une intersectionfinie ou dénombrabled’événements presque sûrs est un événement presque sûr.

(5)

Exercice 1.1 Lemme de Borel-Cantelli et loi du zéro-un de Borel Soit(A𝑛)𝑛∈ℕune suite d’événements d’un espace probabilisé(Ω, 𝒜, ℙ). On poseB𝑛=⋃

𝑘≥𝑛

A𝑘etA = ⋂

𝑛∈ℕ

B𝑛. 1. On suppose que la série ∑

𝑛∈ℕ

ℙ(A𝑛)converge.

(a) Montrer queℙ(A) = lim

𝑛→+∞ℙ(B𝑛).

(b) En déduire queℙ(A) = 0.

2. On suppose que lesA𝑛sont mutuellement indépendants et que la série ∑

𝑛∈ℕ

ℙ(A𝑛)diverge.

(a) Soit(𝑛, 𝑝) ∈ ℕ2. Montrer que

ℙ (

𝑛+𝑝 𝑘=𝑛

A𝑘) ≤exp(−

𝑛+𝑝

𝑘=𝑛

ℙ(A𝑘)) (b) En déduire queℙ(A) = 1.

1.4 Probabilité conditionnelle

Définition 1.7 Probabilité conditionnelle

Soient(Ω, 𝒜, ℙ)un espace probabilisé et(A, B) ∈ 𝒜2tel queℙ(B) ≠ 0. On appelleprobabilité deAsachantBnotée ℙ(A ∣ B)ouℙB(A)le quotient ℙ(A ∩ B)

ℙ(B) .

Proposition 1.6

Soient(Ω, 𝒜, ℙ)un espace probabilisé etB ∈ 𝒜tel queℙ(B) ≠ 0. AlorsℙB∶ A ∈ 𝒜 ↦ ℙB(A)est une probabilité sur (Ω, 𝒜).

Proposition 1.7 Formule des probabilités composées

Soient(Ω, 𝒜, ℙ)un espace probabilisé et(A1, … , A𝑛) ∈ 𝒜𝑛tel queℙ(A1∩ ⋯ ∩ A𝑛−1) ≠ 0. Alors ℙ(A1∩ ⋯ ∩ A𝑛) = ℙ(A1)ℙ(A2∣ A1)ℙ(A3∣ A1∩ A2) … ℙ(A𝑛∣ A1∩ ⋯ ∩ A𝑛−1)

Proposition 1.8 Formule des probabilités totales

Soient(Ω, 𝒜, ℙ)un espace probabilisé,𝒮un système complet d’événements etBun événement. Alors ℙ(B) = ∑

A∈𝒮

ℙ(B ∣ A)ℙ(A)

Remarque. La propriété reste vraie si𝒮est uns sytème-quasi complet d’événements.

1.5 Événements indépendants

(6)

Définition 1.8 Événements indépendants

Soit(Ω, 𝒜, ℙ)un espace probabilisé. On dit que deux événementsAetBsontindépendantssiℙ(A ∩ B) = ℙ(A)ℙ(B).

Proposition 1.9

Soit(Ω, 𝒜, ℙ)un espace probabilisé. SoientAetBdeux événements avecℙ(B) > 0. AlorsAetBsont indépendants si et seulement siℙ(A ∣ B) = ℙ(A)

Attention!

 Dire que deux événements sont indépendants ne signifient pas qu’ils sont incompatibles.

Au contraire, deux événements incompatibles ne sont généralement pas indépendants à moins que l’un d’entre eux soit de probabilité nulle.

Définition 1.9 Famille d’événements indépendants

Soient(Ω, 𝒜, ℙ)un espace probabilisé et(A𝑖)𝑖∈Iune famille d’événements. On dit que(A𝑖)𝑖∈Iest une famille d’événe- mentsmutuellement indépendantssi, pour toute partiefinieJdeI

ℙ (⋂

𝑗∈J

A𝑗) = ∏

𝑗∈J

ℙ(A𝑗)

Remarque. Il découle directement de la définition que toute sous-famille d’une famille d’événements mutuellement indé- pendants est encore une famille d’événements mutuellement indépendants.

Attention!

 Si(A𝑖)𝑖∈Iest une famille finie d’événements mutuellement indépendants alors lesA𝑖 sont indépendants deux à deux. Cependant, la réciproque est fausse.

Exemple 1.3 Pile ou face infini

Si l’on considère le jeu de pile ou face infini muni de la tribu et de la probabilité vues précédemment, la famille(P𝑛)𝑛∈ℕ

oùP𝑛est l’événement «obtenir pile au𝑛èmelancer» est une famille d’événements mutuellement indépendants.

Exercice 1.2

Soit(A𝑖)𝑖∈Iune famille d’événements mutuellement indépendants d’un espace probabilisé(Ω, 𝒜, ℙ). On considère une famille(B𝑖)𝑖∈Itelle que pour tout𝑖 ∈ I,B𝑖= A𝑖ouB𝑖 = A𝑖. Montrer que(B𝑖)𝑖∈Iest également une famille d’événements mutuellement indépendants.

2 Variables aléatoires discrètes

2.1 Définitions

(7)

Définition 2.1 Variable aléatoire discrète

Soit(Ω, 𝒜)un espace probabilisable. On appellevariable aléatoire discrètesur(Ω, 𝒜)toute applicationXdéfinie sur Ωtelle que

• X(Ω)est fini ou dénombrable;

• pour tout𝑥 ∈ X(Ω),X−1({𝑥}) ∈ 𝒜.

Remarque. SiXest une variable aléatoire discrète sur un espace probabilisable(Ω, 𝒜), alorsX(𝒜) = {X(A), A ∈ 𝒜} = 𝒫(X(Ω)).

Notation 2.1

SoitXune variable aléatoire discrète sur un espace probabilisé(Ω, 𝒜, ℙ).

Pour toutA ∈ 𝒫(X(Ω)),X−1(A)est un élément de𝒜donc un événement. L’événementX−1(A)se note plutôtX ∈ A.

L’événementX−1({𝑥})se note plutôtX = 𝑥.

On peut alors parler des probabilitésℙ(X ∈ A)etℙ(X = 𝑥).

SiXest une variable aléatoire réelle et𝑥 ∈ ℝ, alorsℙ(X ∈] − ∞, 𝑥])etℙ(X ∈ [𝑥, +∞[)se note alors plutôtℙ(X ≤ 𝑥) etℙ(X ≥ 𝑥)respectivement.

Définition 2.2 Loi d’une variable aléatoire

Soit X une variable aléatoire discrète sur un espace probabilisé(Ω, 𝒜, ℙ). On appelle loi de X l’application ℙX ∶ { 𝒫(X(Ω)) ⟶ [0, 1]

A ⟼ ℙ(X ∈ A) .

Notation 2.2

SiXetYsont des variables aléatoires de même loi, on noteX ∼ Y.

LorsqueXsuit une loiℒdonnée, on notera égalementX ∼ ℒ.

Proposition 2.1

SoitXune variable aléatoire discrète sur un espace probabilisé(Ω, 𝒜, ℙ). Alors la loiℙXdeXest une probabilité sur l’espace probabilisable(X(Ω), 𝒫(X(Ω))).

Corollaire 2.1

SoitXune variable aléatoire discrète sur un espace probabilisé(Ω, 𝒜, ℙ). AlorsℙXest entièrement déterminée par la donnée desℙ(X = 𝑥)pour𝑥 ∈ X(Ω).

Remarque. C’est pour cela qu’en pratique, lorsque l’on demande la loi d’une variable aléatoireXsurΩ, on ne demande pas ℙ(X ∈ A)pour toutA ∈ 𝒫(X(Ω))maisℙ(X = 𝑥)pour tout𝑥 ∈ X(Ω).

(8)

Définition 2.3 Loi conditionnelle

SoientXune variable aléatoire discrète sur un espace probabilisé(Ω, 𝒜, ℙ)etB ∈ 𝒜tel queP(B) > 0. On appelleloi de Xconditionnée par l’événementBl’applicationPX∣B∶ { 𝒫(X(Ω)) ⟶ [0, 1]

A ⟼ P(X ∈ A ∣ B) .

Remarque. A nouveau, quand on demande en pratique la loi conditionnelle de Xconditionnée par l’événement B, on se contente de donnerP(X = 𝑥 ∣ B)pour tout𝑥 ∈ X(Ω)plutôt queP(X ∈ A ∣ B)pour toutA ∈ 𝒫(X(Ω)).

2.2 Lois usuelles

Définition 2.4 Loi géométrique

SoientXune variable aléatoire sur un espace probabilisé(Ω, 𝒜, ℙ)à valeurs dansℕet𝑝 ∈ [0, 1]. On dit queXsuit la loi géométrique de paramètre𝑝si

∀𝑛 ∈ ℕ, ℙ(X = 𝑛) = (1 − 𝑝)𝑛−1𝑝 Pour abréger, on dit queXsuit la loi𝒢(𝑝)ou encoreX ∼ 𝒢(𝑝).

Interprétation de la loi géométrique

On considère une succession d’épreuves de Bernoulli indépendantes de même paramètre𝑝. Le rang d’apparition du premier succès suit une loi géométrique de paramètre𝑝.

Proposition 2.2 Loi sans mémoire

SoitXune variable aléatoire discrète à valeurs dansℕ.Xsuit une loi géométrique si et seulement si

∀(𝑚, 𝑛) ∈ ℕ, ℙ(X > 𝑚 + 𝑛 ∣ X > 𝑚) = ℙ(X = 𝑛)

Définition 2.5 Loi de Poisson

SoientXune variable aléatoire discrète sur un espace probabilisé(Ω, 𝒜, ℙ)à valeurs dansℕetλ ∈ ℝ+. On dit queX suit laloi de Poisson de paramètreλsi

∀𝑛 ∈ ℕ, ℙ(X = 𝑛) = 𝑒−λλ𝑛 𝑛!

Pour abréger, on dit queXsuit la loi𝒫(λ)ou encoreX ∼ 𝒫(λ).

Proposition 2.3 Approximation d’une loi binomiale par une loi de Poisson

Soit(X𝑛)𝑛∈ℕune suite de variables aléatoires telle queX𝑛∼ 𝒫(λ𝑛)pour tout𝑛 ∈ ℕ. On suppose que𝑛𝑝𝑛

𝑛→+∞λ > 0.

Alors pour tout𝑘 ∈ ℕ,

𝑛→+∞lim ℙ(X𝑛= 𝑘) = 𝑒−λλ𝑘 𝑘!

Remarque. On dit que la suite(X𝑛)converge en loi vers une variable aléatoire de loi𝒫(λ).

(9)

2.3 Couples et uplets de variables aléatoires

Remarquons tout d’abord que siXetYsont des variables aléatoires discrètes sur un espace probabilisable(Ω, 𝒜), il en est de même du couple(X, Y), c’est-à-dire de l’applicationω ∈ Ω ↦ (X(ω), Y(ω)).

Définition 2.6 Loi conjointe, lois marginales

SoientXetYdes variables aléatoires discrètes sur un espace probabilisé(Ω, 𝒜, ℙ).

La loi du couple(X, Y)est appeléeloi conjointedes variables aléatoiresXetY.

Les lois deXetYsont appellées leslois marginalesdu couple(X, Y).

Proposition 2.4

SoientXetYdes variables aléatoires discrètes sur un espace probabilisé(Ω, 𝒜, ℙ).

La loi conjointe deXetYpermet de retrouver les lois marginales. Plus précisément

∀𝑥 ∈ X(Ω), ℙ(X = 𝑥) = ∑

𝑦∈Y(Ω)

ℙ((X, Y) = (𝑥, 𝑦))

∀𝑦 ∈ Y(Ω), ℙ(Y = 𝑦) = ∑

𝑥∈X(Ω)

ℙ((X, Y) = (𝑥, 𝑦))

Attention!

 Les lois marginales ne permettent pas de retrouver la loi conjointe (à moins que les variables aléatoires soient indépendantes).

Définition 2.7 Vecteur aléatoire

De même, siX1, … , X𝑛sont des variables aléatoires discrètes sur un espace probabilisé(Ω, 𝒜, ℙ), alors(X1, … , X𝑛)est une variable aléatoire appeléevecteur aléatoire. Les lois deX1, … , X𝑛sont les lois marginales de ce vecteur aléatoire.

2.4 Variables aléatoires indépendantes

Définition 2.8 Couple de variables aléatoires indépendantes

SoientXetYdes variables aléatoires discrètes sur un espace probabilisé(Ω, 𝒜, ℙ).

Les variables aléatoiresXetYsont ditesindépendantessi

∀(A, B) ∈ 𝒫(X(Ω)) × 𝒫(Y(Ω)), P((X, Y) ∈ A × B) = P(X ∈ A)P(Y ∈ B)

Proposition 2.5

SoientXetYdes variables aléatoires discrètes sur un espace probabilisé(Ω, 𝒜, ℙ).

Les variables aléatoiresXetYsont indépendantes si et seulement si

∀(𝑥, 𝑦) ∈ X(Ω) × Y(Ω), P((X, Y) = (𝑥, 𝑦)) = P(X = 𝑥)P(Y = 𝑦)

(10)

Définition 2.9 Famille de variables aléatoires mutuellement indépendantes

Soit(X𝑖)𝑖∈Iune famillefiniede variables aléatoires discrètes sur un espace probabilisé(Ω, 𝒜, ℙ).

On dit que(X𝑖)𝑖∈Iest une famille de variables aléatoiresmutuellement indépendantessi

∀(A𝑖)𝑖∈I∈ ∏

𝑖∈I

𝒫(X𝑖(Ω)), P (⋂

𝑖∈I

X𝑖∈ A𝑖) = ∏

𝑖∈I

ℙ(X𝑖 ∈ A𝑖)

Une familleinfiniede variables aléatoires est une famille de variables aléatoires mutuellement indépendantes si toute sous-famille finie l’est.

Proposition 2.6

Soit(X𝑖)𝑖∈Iune famillefiniede variables aléatoires sur un espace probabilisé(Ω, 𝒜, ℙ).

(X𝑖)𝑖∈Iest une famille de variables aléatoires mutuellement indépendantes si et seulement si

∀(𝑥𝑖)𝑖∈I∈ ∏

𝑖∈I

X𝑖(Ω), P (⋂

𝑖∈I

X𝑖= 𝑥𝑖) = ∏

𝑖∈I

ℙ(X𝑖 = 𝑥𝑖)

Remarque. Toute sous-famille d’une famille finie de variables mutuellement indépendantes est une famille de variables aléatoires mutuellement indépendantes.

Attention!

 Si des variables aléatoires sont mutuellement indépendantes, alors ces variables aléatoires sont indépen- dantes deux à deux mais la réciproque est fausse.

Exemple 2.1

SoitXetYdeux variables aléatoires indépendantes de loi uniforme sur{−1, 1}. On poseZ = XY. AlorsX, Y, Zsont deux à deux indépendantes mais pas mutuellement indépendantes.

Exercice 2.1

Montrer que(A𝑖)𝑖∈Iest une famille d’événements mutuellement indépendants si et seulement si(1A𝑖)𝑖∈Iest une famille de variables aléatoires mutuellement indépendantes.

Proposition 2.7 Lemme des coalitions

SoientX1, … , X𝑛 des variables aléatoires discrètes mutuellement indépendantes sur un espace probabilisé(Ω, 𝒜, ℙ).

Soient𝑚 ∈ J1, 𝑛 − 1K,𝑓une application définie sur

𝑚

𝑘=1

X𝑘(Ω) et𝑔une application définie sur

𝑛

𝑘=𝑚+1

X𝑘(Ω). Alors, 𝑓(X1, … , X𝑚)et𝑔(X𝑚+1, … , X𝑛)sont des variables aléatoires indépendantes.

Exemple 2.2

SiX,YetZsont trois variables aléatoires discrètes réelles mutuellement indépendantes, alors cos(X2+ Y2)et𝑒Z sont indépendantes.

(11)

Proposition 2.8

Si l’on se donne une suite de lois de variables aléatoires discrètes, il existe un espace probabilisé tel qu’il existe une suite de variables aléatoires discrètes mutuellement indépndantes suivant ces lois.

Remarque. Peu d’intérêt pratique. Cette proposition sert essentiellement à légitimer certains énoncés d’exercices.

Jeu de pile ou face infini

La proposition précédente permet de donner un cadre théorique au jeu de pile ou face infini. En effet, on peut affirmer l’existence d’un espace probabilisé pour lequel il existe une suite de variables aléatoires indépendantes suivant une loi de Bernoulli de paramètre donné (1/2si la pièce lancée est équilibrée).

3 Espérance, variance et covariance

Dans tout ce paragraphe, les variables aléatoires considérées sont des variables aléatoires réelles (à valeurs dansℝ).

3.1 Espérance

Définition 3.1 Espérance d’une variable aléatoire dicrète réelle positive

SoitXune variable aléatoire discrète sur un espace probabibilisé(Ω, 𝒜, ℙ). On suppose queX(Ω) ⊂ ℝ+. L’espérance deXest la somme, dansℝ+∪ {+∞}, de la famille(𝑥ℙ(X = 𝑥))𝑥∈X(Ω). On la note𝔼(X).

Définition 3.2 Espérance d’une variable aléatoire discrète réelle

SoitXune variable aléatoire discrète réelle sur un espace probabibilisé(Ω, 𝒜, ℙ). On dit queXestd’espérance finiesi la famille(𝑥ℙ(X = 𝑥))𝑥∈X(Ω)est sommable. Dans ce cas, la somme de cette famille est l’espérancedeX. On la note𝔼(X).

Remarque. Il est primordial de remarquer que l’espérance d’une variable aléatoire ne dépend que de saloi.

Remarque. Une variable aléatoire d’espérance finie est dite centrée si𝔼(X) = 0.

Proposition 3.1 Espérance des lois usuelles

• SiX ∼ 𝒢(𝑝), alors𝔼(X) = 1 𝑝.

• SiX ∼ 𝒫(λ), alors𝔼(X) = λ.

Proposition 3.2 Propriétés de l’espérance

Linéarité SoientXetYdeux variables aléatoires discrètes réelles d’espérances finies. Soitλ, μ) ∈ ℝ2. AlorsλX + μY est d’espérance finie et𝔼(λX + μY) = λ𝔼(X) + μ𝔼(Y).

Positivité SoitXune variable aléatoire discrète positive. Alors𝔼(X) ≥ 0.

Croissance SoientXetYdeux variables aléatoires discrètes réelles d’espérances finies. SiX ≤ Y, alors𝔼(X) ≤ 𝔼(Y).

(12)

Remarque. Si|X| ≤ YetYest d’espérance finie, alorsXest d’espérance finie et|𝔼(X)| ≤ 𝔼(|X|) ≤ 𝔼(Y).

Proposition 3.3 Formule de transfert

SoientXune variable aléatoire discrète et𝑓 ∶ X(Ω) → ℝ. Alors𝑓(X)est d’espérance finie si et seulement si la famille (𝑓(𝑥)ℙ(X = 𝑥))𝑥∈X(Ω)est sommable et, dans ce cas,

𝔼(𝑓(X)) = ∑

𝑥∈X(Ω)

𝑓(𝑥)ℙ(X = 𝑥)

Remarque. L’intérêt de la formule de transfert est qu’elle permet de calculer l’espérance de𝑓(X)sans connaître la loi de 𝑓(X)mais uniquement la loi deX.

Exercice 3.1

SoitXune variable suivant la loi géométrique de paramètre𝑝. Déterminer l’espérance de1/X.

Proposition 3.4 Espérance et indépendance

SoientXetYdeux variables aléatoires discrètes réellesindépendantesd’espérances finies. AlorsXYest d’espérance finie et

𝔼(XY) = 𝔼(X)𝔼(Y)

3.2 Variance

Définition 3.3 Moment d’une variable aléatoire

SoitXune variable aléatoire discrète réelle. On dit queXadmet un moment d’ordre𝑟siX𝑟est d’espérance finie. Dans ce cas, le moment d’ordre𝑟deXest𝔼(X𝑟).

Remarque. Un moment d’une variable aléatoire ne dépend que de saloi.

Exercice 3.2

Soit𝑟 ∈ ℕ. Montrer que l’ensemble des variables aléatoires discrètes réelles admettant un moment d’ordre𝑟forment un ℝ-espace vectoriel.

Exercice 3.3

Montrer que si une variable aléatoire réelle discrète admet un moment d’ordre𝑟alors elle admet un moment d’ordre𝑘 pour tout𝑘 ∈J0, 𝑟K.

Proposition 3.5

L’ensemble des variables aléatoires discrètes réelles admettant un moment d’ordre2forment unℝ-espace vectoriel.

(13)

Exercice 3.4

SoitE l’ensemble des variables aléatoires discrètes réelles admettant un moment d’ordre2. Montrer que l’application (X, Y) ∈ E2↦ 𝔼(XY)est bien définie, bilinéaire, symétrique et positive.

Proposition 3.6

Si une variable aléatoire réelle discrète admet un moment d’ordre2, elle est d’espérance finie.

Proposition 3.7 Inégalité de Cauchy-Schwarz

SoientXetYdeux variables aléatoires discrètes réelles admettant chacune un moment d’ordre2. AlorsXYest d’espérance finie et

𝔼(XY)2≤ 𝔼(X)2𝔼(Y)2

Définition 3.4 Variance et écart-type

SoitXune variable aléatoire réelle discrète admettant un moment d’ordre2.

• On appellevariancedeXle réel positif

𝕍(X) = 𝔼 ((X − 𝔼(X))2)

• On appelleécart-typedeXle réel

σ(X) = √𝕍(X)

Remarque. La variance et l’écart-type d’une variable aléatoire ne dépendent que de saloi.

Remarque. On dit qu’une variable aléatoireXestréduitesi𝕍(X) = 1.

Exercice 3.5

SoitXune variable aléatoire discrète réelle de variance nulle. Montrer queXest presque sûrement constante égale à𝔼(X), autrement dit queℙ(X = 𝔼(X)) = 1.

Proposition 3.8 Théorème de König-Huygens

SoitXune variable aléatoire réelle discrète admettant un moment d’ordre2(et donc également une espérance finie). Alors 𝕍(X) = 𝔼(X2) − 𝔼(X)2

Proposition 3.9 Variance d’une fonction affine d’une variable aléatoire

SoitXune variable aléatoire réelle discrète admettant un moment d’ordre2. Soit(𝑎, 𝑏) ∈ ℝ2. Alors𝕍(𝑎X + 𝑏) = 𝑎2𝕍(X).

Remarque. SiXest une variable aléatoire admettant une variance finie non nulle, alorsX − 𝔼(X)

estcentrée réduite.

(14)

Proposition 3.10 Variance des lois usuelles

• SiX ∼ 𝒢(𝑝), alors𝕍(X) =1 − 𝑝 𝑝2 .

• SiX ∼ 𝒫(λ), alors𝕍(X) = λ.

3.3 Covariance

Définition 3.5 Covariance de deux variables aléatoires

SoientXetYdeux variables aléatoires discrètes réelles admettant un moment d’ordre2. On appellecovariance deXet Yle réel

Cov(X, Y) = 𝔼 ((X − 𝔼(X))(Y − 𝔼(Y))) Remarque. 𝕍(X) =Cov(X, X)

Remarque. D’après l’inégalité de Cauchy-Schwarz :

|Cov(X, Y)| ≤ σ(X)σ(Y)

Remarque. La covariance est «presque» un produit scalaire. C’est une forme bilinéaire symétrique positive mais pas néces- sairement définie.

Proposition 3.11

SoientXetYdeux variables aléatoires discrètes réelles admettant un moment d’ordre2. Alors Cov(X, Y) = 𝔼(XY) − 𝔼(X)𝔼(Y)

Proposition 3.12 Covariance de variables aléatoires

SiXetYsont deux variables aléatoires discrètes réellesindépendantesadmettant un moment d’ordre2, alors Cov(X, Y) = 0.

Attention!

 La réciproque est fausse. Il suffit par exemple de prendreX ∼ 𝒰({−1, 1})etY = −X. On a bien Cov(X, Y) = 0maisXetYne sont évidemment pas indépendantes.

Proposition 3.13 Variance d’une somme et théorème de Pythagore

SoientX1, … , X𝑛des variables aléatoires réelles discrètes admettant des moments d’ordre2. Alors 𝕍 (

𝑛

𝑘=1

X𝑘) = ∑

1≤𝑖,𝑗≤𝑛

Cov(X𝑖, X𝑗) Si lesX𝑘sontindépendantes deux à deux,

𝕍 (

𝑛

∑X𝑘) =

𝑛

∑𝕍(X𝑘)

(15)

3.4 Inégalités classiques

Proposition 3.14 Inégalité de Markov

SoientXune variable aléatoire discrète réellepositived’espérance finie et𝑎 ∈ ℝ+. Alors ℙ(X ≥ 𝑎) ≤ 𝔼(X)

𝑎 Si on ne suppose plusXpositive, on peut affirmer que

ℙ(|X| ≥ 𝑎) ≤ 𝔼(|X|) 𝑎

Corollaire 3.1 Inégalité de Bienaymé-Tchebychev

SoientXune variable aléatoire discrète réelle admettant un moment d’ordre2etε ∈ ℝ+. Alors P (|X − 𝔼(X)| ≥ ε) ≤ 𝕍(X)

ε2 =σ(X)2 ε2

Corollaire 3.2 Loi faible des grands nombres

Soit(X𝑛)𝑛∈ℕune suite de variables aléatoires deux à deux indépendantes, de même loi et admettant des moments d’ordre 2. Alors, en posantS𝑛=

𝑛

𝑘=1

X𝑘et en notant𝑚l’espérance commune desX𝑘,

∀ε ∈ ℝ+, ℙ (||| S𝑛

𝑛 − 𝑚||| ≥ ε) ⟶𝑛→+∞0

Remarque. On peut en fait prouver à l’aide de l’inégalité de Bienaymé-Tchebychev qu’en notantσ2 la variance commune desX𝑘,

∀ε ∈ ℝ+, ℙ (||| S𝑛

𝑛 − 𝑚||| ≥ ε) ≤ σ2 𝑛ε2 La loi faible des grands nombres s’en déduit immédiatement.

4 Fonctions génératrices

Définition 4.1 Fonction génératrice

SoitXune variable aléatoire à valeurs dansℕ. On appelle fonction génératrice deXla fonctionGXdéfinie par GX(𝑡) = 𝔼(𝑡X) =

+∞

𝑘=0

ℙ(X = 𝑘)𝑡𝑘

Remarque. A nouveau, la fonction génératrice d’une variable aléatoire ne dépend que de saloi.

Remarque. Puisque la série ∑

𝑘∈ℕ

ℙ(X = 𝑘)converge (vers1),

• la série entière 𝑘a un rayon de convergence supérieur ou égal à ;

(16)

• elle converge normalement sur le disque fermé de centre0et de rayon1;

• sa sommeGXest continue sur ce même disque;

• GXest de classe𝒞sur] − 1, 1[.

Fonctions génératrices des lois usuelles

• SiX ∼ ℬ(𝑝),GX(𝑡) = 1 − 𝑝 + 𝑝𝑡.

• SiX ∼ ℬ(𝑛, 𝑝),GX(𝑡) = (1 − 𝑝 + 𝑝𝑡)𝑛.

• SiX ∼ 𝒢(𝑝),GX(𝑡) = 𝑝𝑡 1 − (1 − 𝑝)𝑡.

• SiX ∼ 𝒫(λ),GX(𝑡) = 𝑒λ(𝑡−1).

Proposition 4.1 Fonction génératrice et loi SoitXune variable aléatoire à valeurs dansℕ. Alors

∀𝑘 ∈ ℕ, ℙ(X = 𝑘) = G(𝑘)X (0) 𝑘!

Proposition 4.2

Deux variables aléatoires à valeurs dansℕsont égales si et seulement si elles ont la même fonction génératrice.

Proposition 4.3 Fonction génératrice et espérance

SoitXune variable aléatoire à valeurs dansℕ. AlorsXadmet une espérance finie si et seulement siGXest dérivable en 1et, dans ce cas,𝔼(X) = GX(1).

Proposition 4.4 Fonction génératrice et variance

SoitXune variable aléatoire à valeurs dansℕ. AlorsXadmet un moment d’ordre2si et seulement siGXest deux fois dérivable en1et, dans ce cas,𝕍(X) = GX(1) + GX(1) − GX(1)2.

Proposition 4.5 Fonction génératrice d’une somme finie de variables aléatoires indépendantes SoientX1, … , X𝑛des variables aléatoires mutuellement indépendantes à valeurs dansℕ. Alors

G𝑛

𝑘=1X𝑘=

𝑛

𝑘=1

GX𝑘

Exercice 4.1

SoientX1, … , X𝑛des variables aléatoires indépendantes suivant des lois de Poisson de paramètres respectifsλ1, … , λ𝑛. Déterminer la loi deS =

𝑛

∑X𝑘.

Références

Documents relatifs

On choisit au hasard (équiproba- blement) une urne, puis on tire deux boules dans cette urne.. Quelle est la probabilité d’avoir deux

Soient A, B, C trois évènements d’un espace probabilisable.. Avec une probabilité p un trésor à été placé dans l’un de ses coffres, chaque coffre pouvant être choisi de

La probabilité pour une population d’être atteinte d’une maladie A est p donné ; dans cette même population, un individu peut être atteint par une maladie B avec une probabilité

Soit Ω un univers fini. Elle est utilisée dans une démonstration de l’inégalité de Bienaymé - Tchebychev.. Couples de variables aléatoires, n-uplets de variables aléatoires.

Par définition «tirer un objet au hasard dans E » est une expérience aléatoire probabilisée qu’on modélise par l’espace Ω = E (car les éven- tualités sont les divers

On pourra introduire la variable aléatoire U égale au numéro de l’urne dans laquelle on a tiré la boule.. Un tirage consiste à extraire une boule de l’urne, la boule tirée

◦ soit par une phrase explicite qui définit clairement les issues que l'on souhaite garder : dans l'expérience 2, on pourrait considérer l'événement « le chiffre désigné

Ce papier est organisé comme suit. Dans la section 2, nous allons présenter notre langage. Nous donnons aussi quelques résultats concernant l'interprétation des formules dans