BCPST2
95 2 6 Variables aléatoires
Dans toute le chapitre, on considère un espace probabilisé(Ω,T,P).
I Variables aléatoires
A) Dénitions
Dénition : Variable aléatoire
Une variable aléatoire réelle est une application X: Ω→Rtelle que :
∀a∈R, {ω∈Ω, X(ω)≤a} ∈ T
On note[X≤a], l'ensemble{ω ∈Ω, X(ω)≤a}
Proposition :
SiI est un intervalle deRetX une variable aléatoire, alors [X∈I] ={ω∈Ω, X(ω)∈I} ∈ T
C'est-à-dire que[X∈I]est un évènement.
Remarque:
L'ensemble X(Ω) est appelé univers-image ou ensemble des valeurs prises par X ou en- semble des réalisations deX.
Exemple :
©
On lance deux dés et on note X la somme des deux résultats.Ω =J1,6K
2 etX(Ω) =J2,12K Exemple :
©
On tire à pile ou face avec une pièce jusqu'à obtenir pile et on note X le nombre tirs eectués.
Ω ={P, F P, F F P, . . .} ∪ {F F F F F . . .}
| {z }
ω0
X n'est pas déni siω =ω0.
Cependant, P(ω0) = 0donc X est presque partout déni et on considére queX(Ω) =N.
Exemple :
©
On considère une ampoule électrique et on note X sa durée de vie.B) Fonction de répartition Dénition : Fonction de répartition
Soit X une variable aléatoire.
On dénit sa fonction de répartion par :
FX : R → R+
t 7→ P([X≤t])
Exemple :
©
On lance deux dés et on note X la somme des deux résultats.Tracer la fonction de répartion de X.
1−
2
1−
0| |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 | 11 |
• •c •c c 12
• c
• c
• c
• •c •c •c •c P(X= 7)
Exemple :
©
On tire à pile ou face avec une pièce jusqu'à obtenir pile et on note X le nombre tirs eectués.Déterminer la fonction de répartion de X.
1−
2
1−
0| |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8
• c
• c
• •c •c •c •c •c c P(X= 2)
p= 13
Proposition :
Soit X une variable aléatoire et F sa fonction de répartion.
G F est croissante.
G lim
x→−∞ F(x) = 0, lim
x→+∞ F(x) = 1
II Indépendance
A) Dénition 1) Pour 2 variables Dénition :
SoientX etY deux variables.
Elles sont indépendantes si et seulement si elles vérient la propriété suivantes :
Pour tous intervalles I, J de R,P([X∈I, Y ∈J]) =P([X ∈I]).P([Y ∈J])
2) Pour n variables Dénition :
SoientX1, . . . , Xn,n variables aléatoires.
Elles sont mutuellement indépendantes si et seulement si :
pour tous intervalles I1, . . . , In deR,P([X1 ∈I1, . . . , Xn∈In]) =P([X1 ∈I1]). . .P([Xn∈In])
3) Pour une suite de variables Dénition :
Soient(Xi)i∈N∗ une suite de variables aléatoires.
Les variables aléatoires sont mutuellement indépendantes si et seulement si toute sous-suite nie de variables aléatoires est mutuellement indépendante
Remarque:
Lorsqu'on a une hypothèse d'expériences indépendantes, les variables associées sont indé- pendantes.
Proposition :
SoitX1, . . . , Xndes variables aléatoires mutuellement indépendantes alors toute sous-famille est éga- lement indépendantes.
Théorème : Lemme des coalitions
SoientX1, . . . , Xn,n variables aléatoires et mutuellement indépendantes.
Soientp∈J1, n−1Ketφ:Rp →R, ψ :Rn−p →R.
Alorsφ(X1, . . . , Xp) etψ(Xp+1, . . . , Xn)sont indépendantes.
Ce théorème se généralise au cas de m fonctions.
Proposition :
Soit X1, . . . , Xn des variables aléatoires mutuellement indépendantes alors u1(X1), . . . , un(Xn) sont mutuellement indépendantes.
III Espérance
SoitX une variable aléatoire dénie sur un espace probabilisé(Ω,T,P)lui-même associé à une expé- rience aléatoire. Si on répète l'expérience un grand nombre de fois, on peut soupçonner que la moyenne des réalisations de X va se stabiliser autour d'une valeur particulière. On dit dans ce cas que cette valeur est l'espérance de X. Assez intuitive sur des exemples simples, l'existence de cette espérance n'est néanmoins pas évidente dans le cas général.
Exemple : Lancé de dés
©
Sur un grand nombre d'expériences, chaque face sort en moyenne une fois sur6. Si on fait la moyenne des tirages, on obtient :
6
X
k=1
k 6 = 7
2
Exemple :
©
Dans le cas d'une variable aléatoire nie, l'espérance est dénie par : E(X) = X
n∈X(Ω)
nP(X=n)
A) Dénition Dénition :
On admet l'existence d'une fonction espérance, notéeE, dénie pour certaines variables aléatoires à valeurs dans Ret vériant :
G E est linéaire :
SoitXetY des variables aléatoires telles queE(X)etE(Y)existent etλetµdes réels. Alors : â E(λX+µY) existe.
â E(λX+µY) =λE(X) +µE(Y)
G SoientX etY sont des variables aléatoires telles que |X| ≤Y. SiY admet une espérance, alorsX admet une espérance.
G SiX est à valeurs positives et admet une espérance alors E(X)≥0. G E(1) = 1
Exemple :
©
On lance deux dés et on note X la somme des deux résultats.Calculer l'espérance de X. Dénition : Variable centrée
Soit X une variable aléatoire admettant une espérance.
On dit que X est centrée si et seulement siE(X) = 0 Remarque:
SiX est une variable aléatoire admettant une espérance, alors X−E(X) est centrée.
B) Variance
Dénition : Variance
Soit X une variable aléatoire admettant une espérance.
On dit que X admet une variance si la variable aléatoire (X−E(X))2 admet une espérance.
Dans ce cas, on appelle variance de X et on note
V(X) =E(X−E(X))2
Proposition : Formule de König-Huygens
Huygens 1629-1695
SoitX une variable aléatoire discrète admettant un moment d'ordre2. AlorsX admet une espérance et une variance et on a :
V(X) =E(X2)−(E(X))2
Démonstration :
Proposition : Variable aléatoire à variance nulle Soit X une variable aléatoire admettant une variance.
On a : V(X) = 0 ⇐⇒ ∃c∈R,P(X =c) = 1. C'est-à-dire queX est presque surement certaine.
Dénition : Ecart-type
Soit X une variable aléatoire, admettant une variance.
On dénit l'écart-type de X parσ(X) =p V(X) Proposition :
Soit X une variable aléatoire discrète, admettant une variance. Soita, b∈R. Alors : V(aX +b) =a2V(X), σ(aX +b) =|a|σ(X)
Dénition : Variable centrée réduite
Soit X une variable aléatoire discrète admettant une espérance et une variance. On dit que X est : G centrée si et seulement si E(X) = 0
G réduite si et seulement siV(X) = 1.
Soit X une variable aléatoire discrète admettant une espérance et une variance.
On appelle variable aléatoire centrée réduite associée à X, et on noteX∗ la variable aléatoire dénie par :
X∗ = X−E(X) σ(X) X∗ est centrée et réduite.
C) Moments Dénition : Moments
Soit X une variable aléatoire discrète. Soitr ∈N∗.
On dit que X admet un moment d'ordrer si et seulement si Xr admet une espérance.
Dans ce cas, on note
mr(X) =E(Xr)
D) Inégalité de Bienaymé-Tchebychev Théorème :
Soit X une variable aléatoire admettant une variance.
On notem=E(X) etσ=σ(X) =p
V(X). Soit ε >0.
P([|X−m| ≥ε])≤ σ2 ε2
Démonstration :
Lemme : Inégalité de Markov
Markov 1856-1922
SoitY une variable aléatoire positive, admettant une espérance.
Soitt∈R∗+. On a :
P([Y ≥t])≤ E(Y) t
Appliquer le lemme àY = (X−m)2.
E) Variables aléatoires indépendantes Théorème :
SoientX etY des variables aléatoires indépendantes admettant des moments d'ordre2. On a : G E(XY) =E(X)E(Y)
G V(X+Y) =V(X) +V(Y)
Ceci se généralise au cas denvariables aléatoires indépendantes.