INTRODUCTION
AUX PROBABILIT ´ ES ET
A ` LA STATISTIQUE
N. BRILLOUET - BELLUOT
TABLE DES MATI` ERES
PREMI`ERE PARTIE: PROBABILIT´ES . . . . 4
Chapitre 1: Probabilit´ es
. . . . 6Chapitre 2: Variables al´ eatoires r´ eelles ou Variables al´ eatoires ` a une dimension
. . . . 10Chapitre 3: Vecteurs al´ eatoires ou Variables al´ eatoires ` a plusieurs dimensions
. . . . 20Chapitre 4: Loi d’une fonction de variables al´ eatoires
. . . . 30DEUXI`EME PARTIE: STATISTIQUE . . . . 34
Chapitre 1: Statistique descriptive
. . . . 36Chapitre 2: Estimation de param` etres
. . . . 42Chapitre 3: Tests d’hypoth` eses
. . . . 46Chapitre 4: R´ egression - Ajustement par la m´ ethode des moindres carr´ es
. . . . 52BIBLIOGRAPHIE . . . . 56
TRAVAUX DIRIG´ES . . . . 58
TABLES STATISTIQUES . . . . 84
PREMI ` ERE PARTIE:
PROBABILIT ´ ES
CHAPITRE 1 PROBABILIT ´ ES
Une exp´erience al´eatoireest une exp´erience dont on ne peut pas pr´evoir de fa¸con pr´ecise le r´esultat et qui, r´ep´et´ee dans des conditions identiques, peut conduire
`
a des r´esultats diff´erents. L’universΩ est l’ensemble de tous les r´esultats possibles de cette exp´erience. Tout ´el´ement ω de Ω est appel´e ´ev´enement ´el´ementaire.
Ω ={ω}. Un ´ev´enementA est une partie de Ω: A ∈P(Ω).
I. Mesure de probabilit´ e
Notation: Si A∈P(Ω),B ∈P(Ω), A¯ est le compl´ementaire deA dans Ω et A\B =A∩B.¯
D´efinition. Soit M une partie de P(Ω) qui a les propri´et´es suivantes:
Ω∈M; si A ∈M, A¯∈M; si An ∈M pour tout n∈N, ∪
n∈NAn ∈ M. Une mesure de probabilit´e sur Ω est une application P de M dans R qui satisfait:
(i) P(Ω) = 1
(ii) P(A)≥0 si A ∈M (iii) P( ∪
n∈IAn) =
n∈I
P(An) si I ⊆ N et A1, A2, . . . , An, . . . sont des
´
ev´enements de M deux `a deux disjoints.
D´efinition. (Ω,M, P) est un espace probabilis´e.
Vocabulaire. A¯ est l’´ev´enement contraire de A Ω est l’´ev´enement certain
∅ est l’´ev´enement impossible.
Deux ´ev´enements A et B sontincompatibles si A∩B =∅.
Construction de base d’une mesure de probabilit´e.
Dans le cas d’un univers d´enombrable Ω = {ωn;n∈I}, I ⊆ N, on consid`ere une suite de nombres r´eels {pn}n∈I tels que pn ≥0 ∀n∈I et
n∈I
pn = 1.
Alors, l’application P : P(Ω) → R d´efinie par: P(ωn) = pn (n ∈ I) et P( ∪
n∈Jωn) =
n∈J
pn pour tout J ⊆I est une mesure de probabilit´e sur Ω.
L’exemple de l’´equiprobabilit´e: Si Ω ={ω1, . . . , ωn} est un univers fini, on peut consid´erer le cas o`u pj = 1
n, j = 1, . . . , n ( tous les ´ev´enements ´el´ementaires sont
´
equiprobables). On a alors pour tout A∈P(Ω):
P(A) = card A
n = nombre de cas favorables nombre total de cas possibles
Propri´et´es.
Soit (Ω,M, P) un espace probabilis´e. Pour tout A ∈ M et B ∈ M, nous avons:
(1) P( ¯A) = 1 − P(A) (2) P(∅) = 0
(3) P(A)∈[0,1]
(4) A ⊆B =⇒ P(A)≤P(B) (5) P(A\B) =P(A)−P(A∩B)
(6) P(A∪B) =P(A) +P(B)−P(A∩B)
De plus, si {An}n∈N est une suite d’´ev´enements de M satisfaisant:
A0 ⊂A1 ⊂. . .⊂An. . ., alors nous avons: P( ∪
n∈NAn) = lim
n→+∞P(An)
II. Probabilit´ es conditionnelles
D´efinition. Soient A et B deux ´ev´enements de M tels que P(B) = 0. La probabilit´e conditionnelle de A sachant B est d´efinie par:
P(A/B) = P(A∩B) P(B) .
Th´eor`eme des probabilit´es totales.
Soient B1, B2, . . . , Bn des ´ev´enements de M tels que ∪n
i=1Bi = Ω et Bi ∩ Bj = ∅ pour i = j avec P(Bi) > 0 pour tout i. Alors, pour tout
´
ev´enement A deM, nous avons:
P(A) = n
i=1
P(A/Bi) P(Bi).
Formule de Bayes.
Soient A et B1, . . . , Bn des ´ev´enements de M tels que Bi soient deux `a deux disjoints,
n i=1
Bi= Ω, P(Bi)> 0 pour tout i et P(A)>0. Alors P(Bi/A) = P(A/Bi)P(Bi)
n j=1
P(A/Bj) P(Bj) .
III. Ind´ ependance.
D´efinition. Deux ´ev´enements A et B de M tels que P(B) = 0, sont dits ind´ependants si P(A/B) = P(A).
Il faut et il suffit pour cela que: P(A∩B) =P(A) P(B).
D´efinition g´en´erale. Deux ´ev´enements A et B de M sont dits ind´ependants si, et seulement si, ils satisfont: P(A∩B) =P(A) P(B).
G´en´eralisation. Les ´ev´enements A1, A2, . . . , An de M sont (mutuellement) ind´ependants si, pour tout sous-ensemble {Ai1, . . . , Aik} de {A1, A2, . . . , An}, nous avons:
P(Ai1 ∩. . .∩Aik) =P(Ai1). . . P(Aik).
CHAPITRE 2
VARIABLES AL´ EATOIRES R´ EELLES
ou VARIABLES AL´ EATOIRES ` A UNE DIMENSION
Soit (Ω,M, P) un espace probabilis´e.
I. D´ efinitions.
On consid`ere l’ensemble B(R) de toutes les parties de R obtenues par union ou intersection d´enombrable d’intervalles ouverts ou ferm´es de R. Les ´el´ements de B(R) sont appel´es les bor´eliens.
Une fonction g : R → R telle que g−1(B) = {x ∈ R : g(x) ∈ B} est un bor´elien de R pour tout bor´elien B de R est dite mesurable.
D´efinition. Unevariable al´eatoire r´eelle X est une fonction de Ω `a valeurs dans R telle que l’ensemble X−1(B) ={ω ∈Ω; X(ω)∈B} est un ´ev´enement de M pour tout bor´elien B de R.
D´esormais, X d´esignera une variable al´eatoire et x d´esignera une variable r´eelle.
D´efinition. La loi de probabilit´e d’une variable al´eatoire X (ou loi de probabilit´e suivie parX) est d´efinie par:
P(X ∈B) =P({ω ∈Ω; X(ω)∈B}) =P(X−1(B)) pour tout bor´elien B de R.
D´efinition. La fonction de r´epartition d’une variable al´eatoire X est d´efinie par:
FX(x) =P(X ≤x) (x ∈R)
Propri´et´es de la fonction de r´epartition.
La fonction de r´epartition FX d’une variable al´eatoire X a les propri´et´es suivantes:
(1) FX est une fonction monotone non d´ecroissante (croissante au sens large) (2) lim
x→+∞FX(x) = 1 (3) lim
x→−∞FX(x) = 0
(4) P(a < X ≤b) =FX(b)−FX(a) (5) FX est continue `a droite
(6) P(X =x) = FX(x+)−FX(x−)
Variables al´eatoires discr`etes .
Une variable al´eatoire X est dite discr`ete si X(Ω) est une partie de R finie ou d´enombrable: X(Ω) ={xi}i∈I, I ⊆N. La loi de probabilit´e de X est donn´ee par
P(X =xi) ∀xi ∈X(Ω).
Variables al´eatoires continues.
Une variable al´eatoire X est dite continue si X(Ω) est un intervalle de R. On consid`ere uniquement le cas o`u il existe une fonction Lebesgue int´egrable fX telle que, si B est un bor´elien de R, P(X ∈B) =
B
fX(x) dx.
fX est la densit´e de probabilit´e de X. Elle satisfait:
+∞
−∞
fX(x) dx= 1.
La fonction de r´epartition de Xest alors donn´ee par: FX(x) = x
−∞
fX(t)dt.
Dans ce cas, FX est continue et FX satisfait: FX =fX presque partout.
On a alors: fX(x)≥0 ∀x∈R et P(a < X ≤b) = b
a
fX(t) dt.
FX(x) repr´esente l’aire sous la courbe repr´esentative de la densit´e fX entre
−∞ et x.
II. Moments d’une variable al´ eatoire.
Si X est une variable al´eatoire, PX d´efinie par: PX(B) = P(X ∈B) pour tout bor´elien B de R est une mesure de probabilit´e sur R. On peut donc d´efinir l’int´egrale, si elle existe, d’une fonction mesurable g : R→ R par rapport
`
a PX de la mˆeme mani`ere que l’int´egrale de Lebesgue de g.
D´efinition. L’esp´erance math´ematique de g(X) est d´efinie par:
E(g(X)) =
R
g(x) dPX(x) si cette int´egrale existe.
Si X est une variable al´eatoire discr`ete E(g(X)) =
i
g(xi) P(X =xi) si cette somme est d´efinie.
Si X est une variable al´eatoire continue E(g(X)) =
Rg(x) fX(x) dx si cette int´egrale existe.
L’esp´erance math´ematique ( ou la moyenne) de X ( si elle existe) est d´efinie par:
E(X) =
Rx dPX(x) Si X est une variable al´eatoire discr`ete: E(X) =
i
xi P(X =xi)
Si X une variable al´eatoire continue: E(X) =
R
x fX(x) dx
Propri´et´e (lin´earit´e).
E(λ g(X) + µ h(X) + ν) =λ E(g(X)) + µ E(h(X)) + ν
pour tout λ, µ, ν de R et pour toute fonction mesurable g, h:R→R.
Une variable al´eatoire est centr´ee si E(X) = 0.
Le moment d’ordre k de X, s’il existe, est d´efini par: E(Xk).
Le momentcentr´e d’ordrek de X, s’il existe, est d´efini par: E((X −E(X))k).
Lavariance de X (si elle existe) est d´efinie par: V(X) =E((X−E(X))2).
L’´ecart-type de X est: σ(X) = V(X).
La variance est une mesure de la dispersion de X autour de m=E(X).
Propri´et´e.
Si V(X) existe, on a: V(X) = E(X2)−(E(X))2.
et V(λX +µ) =λ2 V(X) pour tout λ et µ dans R.
D´efinition. Toute variable al´eatoire X satisfaisant: E(X) = 0 et σ(X) = 1 est dite centr´ee, r´eduite.
SoitX une variable al´eatoire de moyenne m=E(X) et d’´ecart-type σ =σ(X).
Alors, la variable al´eatoire Z = X−m
σ est appel´ee variable centr´ee, r´eduite associ´ee `a X.
In´egalit´e de Bienaym´e - Chebychev.
Soit X une variable al´eatoire de moyennem et de variance σ2. Alors ∀ε > 0 P(|X −m|> ε) ≤ σ2
ε2.
D´efinition. Si E(α|X|)< ∞ pour un nombre r´eel α > 0, la fonction d´efinie par:
GX(t) =E(etX) (t ∈R)
existe sur l’intervalle [−α, α] et est appel´ee la fonction g´en´eratrice des moments de X.
Si X est une variable al´eatoire discr`ete GX(t) =
i
etxi P(X =xi) Si X est une variable al´eatoire continue
GX(t) =
R
etx fX(x) dx.
On a alors: GX(t) = L(fX(−x))(t) +L(fX(x))(−t) o`u L d´esigne la transfor- mation de Laplace.
La fonction g´en´eratrice des moments d´etermine compl`etement la loi de probabilit´e de X.
La fonction g´en´eratrice des moments GX de X est ind´efiniment d´erivable en 0 et G(k)X (0) = E(Xk) pour tout entier k ≥ 0, ce qui permet d’obtenir tous les moments d’ordrek de X.
D´efinition. La fonction caract´eristiquede X est d´efinie sur tout R par:
ϕX(t) =E(eitX) (t ∈R).
La fonction caract´eristique d´etermine compl`etement la loi de probabilit´e de X.
Si X est une variable al´eatoire discr`ete ϕX(t) =
k
ei txk P(X =xk) If X est une variable al´eatoire continue
ϕX(t) =
R
ei tx fX(x) dx=F(fX)(−t) (t ∈R), o`u F d´esigne la transformation de Fourier.
III. Lois de probabilit´ e usuelles.
1) Lois de probabilit´e discr`etes.
• Loi de Bernoulli B(p).
On consid`ere une exp´erience pour laquelle l’univers de tous les r´esultats possibles est constitu´e de deux ´ev´enements contraires: l’´ev´enement A, qui nous int´eresse, appel´esucc`es, de probabilit´ep, et l’´ev´enement contraire ¯A, appel´e´echec, de probabilit´eq = 1−p.
On consid`ere la variable al´eatoire X, fonction indicatrice de A:
X(ω) = 1 si ω ∈A, X(ω) = 0 si ω ∈A¯ On a alors: X(Ω) ={0,1}
P(X = 1) =p P(X = 0) =q = 1−p E(X) =p V(X) =pq ϕX(t) =q + p eit (t ∈R), GX(t) =q + p et (t ∈R)
• Loi binomiale B(n, p).
On consid`ere une exp´erience al´eatoire de Bernoulli qui est r´ep´et´ee n fois ind´ependamment les unes des autres. Soit X le nombre total de succ`es.
On a: X(Ω) ={0,1, . . . , n}
La loi de probabilit´e de X est donn´ee par:
P(X =k) = Cnk pk qn−k avec q= 1−p (Cnk =n
k
)
On a: E(X) =np, V(X) =npq
ϕX(t) = (q + p eit)n (t∈R), GX(t) = (q + p et)n (t∈R)
• Loi de Poisson P(λ) (λ > 0).
Une variable al´eatoire X suit une loi de Poisson si:
X(Ω) =N et ∀k ∈N, P(X =k) = λk k! e−λ On a alors: E(X) =V(X) =λ
ϕX(t) =eλ(eit−1) (t∈ R), GX(t) =eλ (et−1) (t∈R)
2) Lois de probabilit´e continues.
• Loi uniforme sur [a, b], (a < b), U(a, b).
Une variable al´eatoire X suit une loi uniforme sur [a, b] si sa densit´e de probabilit´e est donn´ee par:
f(x) = 1
b−a χ[a,b](x) avec χ[a,b](x) =
1 si x∈[a, b]
0 si x /∈[a, b]
On a alors: E(X) = a+b
2 , V(X) = (b−a)2 12 .
• Loi normale ou Loi de (Laplace)-Gauss N(m, σ) (σ >0):
Une variable al´eatoire X suit une loi normale si sa densit´e de probabilit´e est donn´ee par:
f(x) = 1 σ √
2π e−12
x−m σ
2
(x∈R)
On a alors: E(X) =m, V(X) =σ2 ϕX(t) =eitm e−t
2
2 σ2 (t∈R), GX(t) =etm et
2
2 σ2 (t ∈R).
X suit la loi N(m, σ) ⇔ Y = X−m
σ suit la loi N(0,1)
• Loi Gamma Γ(α, β) avec α >0, β >0.
Une variable al´eatoire X suit une loi Γ(α, β) si sa densit´e de probabilit´e est donn´ee par:
f(x) =
xα−1 e−xβ
βα Γ(α) (x > 0)
0 (x < 0)
avec Γ(a) = +∞
0
e−t ta−1 dt ∀a > 0
On a alors: E(X) =α β , V(X) =α β2, GX(t) = 1
(1−β t)α (t < 1 β )
• Loi exponentielle E(λ) = Γ(1, 1 λ)
Une variable al´eatoire X suit une loi exponentielle E(λ) si sa densit´e de probabilit´e est donn´ee par:
f(x) =
λ e−λ x (x > 0) 0 (x < 0)
On a alors: E(X) = 1
λ, V(X) = 1 λ2.
• Loi du χ2 `a n degr´es de libert´e χ2(n) = Γ(n 2 , 2 ) Une variable al´eatoire X suit une loi χ2(n) si sa densit´e de probabilit´e est donn´ee par:
f(x) =
xn2−1 e−x2 2n2 Γ(n
2)
(x >0)
0 (x <0)
On a alors: E(X) =n, V(X) = 2n.
III. Convergence d’une suite de variables al´ eatoires - Approximations.
1) Convergence d’une suite de variables al´eatoires.
• Convergence en probabilit´e.
On dit que la suite de variables al´eatoires {Xn}n∈N converge en probabilit´e vers la variable al´eatoireX si, et seulement si:
∀ε >0, lim
n→+∞P(|Xn−X|> ε) = 0
• Convergence en loi.
• SoitFn la fonction de r´epartition de la variable al´eatoireXn et soitF la fonction de r´epartition de la variable al´eatoire X. On dit que la suite de variables al´eatoires {Xn}n∈N converge en loi vers la variable al´eatoire X si, et seulement si:
n→+∞lim Fn(t) =F(t) en tout pointt ∈R o`u F est continue.
• Soit ϕn la fonction caract´eristique de la variable al´eatoire Xn et soit ϕ la fonction caract´eristique de la variable al´eatoire X. La suite de variables al´eatoires {Xn}n∈N converge en loi vers la variable al´eatoire X si, et seulement si:
n→+∞lim ϕn(t) =ϕ(t) ∀t∈R.
• Une suite de variables al´eatoires discr`etes {Xn}n∈N converge en loi vers la variable al´eatoire discr`eteX si, et seulement si:
n→+∞lim P(Xn =x) =P(X =x) ∀x ∈R.
2) Approximations.
• Approximation de la loi binomiale par la loi de Poisson.
Soit {Xn}n∈N une suite de variables al´eatoires qui suivent la loi binomiale B(n, p). Lorsque n → +∞ et p → 0 de sorte que np → λ, λ > 0, la suite {Xn}n∈N converge en loi vers une variable al´eatoire X qui suit la loi de Poisson P(λ).
En pratique, on utilise cette approximation pour n > 50, np ≤ 18 c.a.d. p≤0,36.
• Approximation de la loi de Poisson par la loi normale.
Soit {Xλ}λ>0 une famille de variables al´eatoires qui suivent la loi de Poisson P(λ). Lorsque λ →+∞, la famille Xλ−λ
√λ
λ>0 converge en loi vers une variable al´eatoire X qui suit la loi normale centr´ee r´eduite N(0,1).
Pour λ assez grand, on peut donc approcher la loi de Poisson P(λ) par la loi normale N(λ,√
λ).
En pratique, on estime l’approximation de la loi de Poisson P(λ) par une loi normale satisfaisante pour λ >18.
• Approximation de la loi binomiale par la loi normale.
Soit {Xn}n∈N une suite de variables al´eatoires qui suivent la loi binomiale B(n, p). On d´efinit: Un= Xn−np
√npq , (q= 1−p).
Lorsque n → +∞, la suite {Un}n∈N converge en loi vers une variable al´eatoireX qui suit la loi normale centr´ee r´eduite N(0,1).
Pour n assez grand, on peut donc approcher la loi binomiale B(n, p) par la loi normale N(np,√
npq).
En pratique, on estime l’approximation de la loi binomiale B(n, p) par une loi normale satisfaisante d`es que np >5 et nq > 5. On applique particuli`erement cette approximation lorsque n >50 et np >18.
CHAPITRE 3
VECTEURS AL´ EATOIRES ou
VARIABLES AL´ EATOIRES A PLUSIEURS DIMENSIONS `
Soit (Ω,M, P) un espace probabilis´e.
I. D´ efinitions.
Un pav´e ouvert de Rn est une partie de Rn de la forme:
]a1, b1[×]a2, b2[×. . .×]an, bn[
L’ensemble B(Rn) desbor´eliens de Rn est l’ensemble de toutes les parties de Rn obtenues par union ou intersection d´enombrable de pav´es ouverts ou ferm´es de Rn.
Une fonction g:Rn → Rp telle que g−1(B) ={x ∈R : g(x)∈ B} est un bor´elien de Rn pour tout bor´elien B de Rp est dite mesurable.
D´efinition. Un vecteur al´eatoire r´eel X = (X1, . . . , Xn) est une fonction de Ω `a valeurs dans Rn telle que l’ensemble X−1(B) ={ω∈ Ω; X(ω)∈B} est un ´ev´enement de M pour tout bor´elien B de Rn.
Notation. On identifiera les vecteurs de Rn et leur matrice repr´esentative dans la base canonique de Rn.
D´efinition. La loi de probabilit´e d’un vecteur al´eatoire X = (X1, . . . , Xn) est d´efinie par:
P(X ∈B) =P({ω ∈Ω; X(ω)∈B}) =P(X−1(B)) pour tout bor´elien B de Rn.
La loi du vecteur X = (X1, . . . , Xn) est appel´eela loi conjointedes variables al´eatoires{X1, . . . , Xn}.
D´efinition. La fonction de r´epartition d’un vecteur al´eatoire X = (X1, . . . , Xn) est d´efinie par:
FX(x) =P(X1 ≤x1, . . . , Xn ≤xn) ((x1, . . . , xn)∈Rn)
Vecteurs al´eatoires de type discret .
Un vecteur al´eatoire X = (X1, . . . , Xn) est ditde type discret si X(Ω) est une partie de Rn finie ou d´enombrable:
X(Ω) ={(xi1, . . . , xin) ; (i1, . . . , in)∈I, I ⊆Nn}. La loi de probabilit´e de X est donn´ee par
P(X1 =xi1, . . . , Xn =xin) ∀ (xi1, . . . , xin)∈X(Ω).
Vecteurs al´eatoires de type continu.
Un vecteur al´eatoire X = (X1, . . . , Xn) est ditde type continu si X(Ω) est un pav´e de Rn. On consid`ere uniquement le cas o`u il existe une fonction Lebesgue int´egrable fX telle que, si B est un bor´elien de Rn,
P(X ∈B) =
B
fX(x1, . . . , xn) dx1. . . dxn. fX est la densit´e de probabilit´e de X. Elle satisfait:
RnfX(x1, . . . , xn) dx1. . . dxn= 1.
La fonction de r´epartition de X est alors donn´ee par:
FX(x1, . . . , xn) = x1
−∞
. . . xn
−∞
fX(t1, . . . , tn) dt1. . . dtn. Dans ce cas, FX est continue et FX satisfait:
fX(x1, . . . , xn) = ∂n
∂x1. . . ∂xn FX(x1, . . . , xn) presque partout.
Lois marginales.
Les lois marginales sont les lois de probabilit´es suivies par les variables al´eatoires Xi, i= 1, . . . , n.
Dans le cas o`u X = (X1, . . . , Xn) est de type discret, la loi marginale de Xk est donn´ee par:
P(Xk =xik) =
i1,...,in=ik
P(x1 =xi1, . . . , Xn =xin)
Dans le cas o`u X = (X1, . . . , Xn) est de type continu, la loi marginale de Xk est d´efinie par sa densit´e de probabilit´e marginale qui est donn´ee par:
fXk(xk) =
Rn−1 fX(x1, . . . , xn)
n i=1,i=k
dxi
II. Moments d’un vecteur al´ eatoire.
Si X = (X1, . . . , Xn) est un vecteur al´eatoire, PX d´efinie par:
PX(B) =P(X ∈B) pour tout bor´elien B de Rn est une mesure de probabilit´e sur Rn. On peut donc d´efinir l’int´egrale, si elle existe, d’une fonction mesurable g: Rn →Rp par rapport `a PX de la mˆeme mani`ere que l’int´egrale de Lebesgue deg.
D´efinition. L’esp´erance math´ematique de g(X) est d´efinie par:
E(g(X)) =
Rn
g(x1, . . . , xn)dPX(x1, . . . , xn) si cette int´egrale existe.
Si X est de type discret
E(g(X)) =
(i1,...,in)∈I
g(xi1, . . . , xin) P(X1 =xi1, . . . , Xn =xin) si cette somme est d´efinie.
Si X est de type continu E(g(X)) =
Rn
g(x1, . . . , xn) fX(x1, . . . , xn) dx1. . . dxn si cette int´egrale existe.
La fonction g´en´eratrice des moments de X est d´efinie par:
GX(t1, . . . , tn) =E(et1X1+...+tnXn), et existe dans un voisinage de 0 (dans Rn).
Elle d´etermine compl`etement la loi de probabilit´e de X.
Corollaire.
1. E(X) = (E(X1), . . . , E(Xn) ) ∈ Rn
2. Si les variables al´eatoires X1, . . . , Xn admettent une loi conjointe, E(λ1X1 +. . .+λnXn + µ) =λ1E(X1) +. . .+λnE(Xn) + µ pour tous les r´eels λ1, . . . , λn, µ.
Covariance
La covariance de deux variables al´eatoires X et Y est d´efinie par:
Cov(X, Y) =E((X−E(X)) (Y −E(Y))) =E(XY)−E(X) E(Y) Remarque: Cov(X, X) =V(X)
La matrice de covariance ΣX d’un vecteur al´eatoire X = (X1, . . . , Xn) est la matrice carr´ee sym´etrique d’ordren d´efinie par:
ΣX = [σij] avec σij =Cov(Xi, Xj)
Transformation lin´eaire: Si Y = AX +B o`u B est un vecteur de Rp et A est une matrice d’ordre p ×n, alors E(Y) = A E(X) +B et ΣY =A ΣX A, o`u A d´esigne la transpos´ee de la matrice A.
Cons´equence: ΣX =E(XX)−E(X)E(X) =E( (X−E(X)) (X−E(X)) ) est une matrice positive.
Th´eor`eme.
Si les variables al´eatoires X1, . . . , Xn admettent une loi conjointe, on a:
V(X1 +. . .+ Xn) = n i=1
V(Xi) +
i=j
Cov(Xi, Xj)
Coefficient de corr´elation.
Le coefficient de corr´elation (lin´eaire) de deux variables al´eatoiresX et Y est d´efini par:
ρ(X, Y) = Cov(X, Y) σ(X) σ(Y) Th´eor`eme.
On a: ρ(X, Y)∈ [−1,1].
De plus, ρ(X, Y) = ±1 si, et seulement si, il existe des constantes r´eelles a et b telles que Y =aX +b.
Remarque: Interpr´etation g´eom´etrique.
L’ensemble de toutes les variables al´eatoires d´efinies sur le mˆeme univers Ω et qui admettent deux `a deux une loi conjointe, est un espace de Hilbert pour le produit scalaire: < X, Y >=E(XY).
Dans cet espace, E(X) est la meilleure approximation de X par une constante.
ρ(X, Y) n’est autre que le cosinus de l’angle form´e par (X−E(X)) et (Y −E(Y)).
III. Lois de probabilit´ e conditionnelles.
• Si le vecteur al´eatoire X = (X1, . . . , Xn) est de type discret,
la loi conditionnelle de (X2, . . . , Xn) sachant X1 =xi1 est d´efinie par:
P(X2 =xi2, . . . , Xn =xin / X1 =xi1) = P(X1 =xi1, . . . , Xn =xin) P(X1 =xi1)
si P(X1 =xi1)= 0
L’esp´erance conditionnelle de g(X2, . . . , Xn) sachant X1 = xi1 est alors d´efinie par:
E[g(X2, .., Xn)/X1 =xi1] =
i2,..,in
g(xi2, .., xin)P(X2 =xi2, .., Xn =xin/X1 =xi1)
• Si le vecteur al´eatoire X = (X1, . . . , Xn) est de type continu,
la densit´e de probabilit´e conditionnelle de (X2, . . . , Xn) sachant X1 =x1 est d´efinie par:
f(x2, . . . , xn/ X1 =x1) = fX(x1, . . . , xn)
fX1(x1) si fX1(x1)= 0 L’esp´erance conditionnelle de g(X2, . . . , Xn) sachant X1 = x1 est alors d´efinie par:
E[g(X2, .., Xn)/X1 =x1] =
Rn−1
g(x2, .., xn) f(x2, . . . , xn/ X1 =x1) dx2. . . dxn
G´en´eralisation.
On consid`ere deux vecteurs al´eatoires X = (X1, . . . , Xn) et Y = (Y1, . . . , Yp) qui admettent une loi de probabilit´e conjointe.
• Si X et Y sont de type discret, la loi conditionnelle de X sachant Y =yj est d´efinie par:
P(X =xi/ Y =yj) = P(X =xi, Y =yj)
P(Y =yj) si P(Y =yj)= 0 (xi ∈Rn, yj ∈Rp) L’esp´erance conditionnelle de g(X) sachant Y = yj est alors d´efinie par:
E[g(X)/Y =yj] =
i
g(xi) P(X =xi / Y =yj)
• Si X et Y sontde type continu, la densit´e de probabilit´e conditionnelle de X sachantY =y est d´efinie par:
f(x / Y = y) = f(X,Y)(x, y)
fX(x) si fX(x)= 0 (x ∈Rn, y∈Rp) L’esp´erance conditionnelle de g(X) sachant Y = y est alors d´efinie par:
E[g(X)/Y =y] =
Rn
g(x) f(x / Y =y) dx
IV. Ind´ ependance.
D´efinition. Les variables al´eatoires X1, . . . , Xn sont dites ind´ependantes si, et seulement si, pour tous les bor´eliens A1, . . . , An de R, les ´ev´enements [X1 ∈A1], . . . ,[Xn ∈An] sont ind´ependants. Nous avons alors:
P(X1 ∈A1, . . . , Xn ∈An) = P(X1 ∈A1). . . P(Xn ∈An)
Remarques: 1. Deux variables al´eatoires X et Y sont ind´ependantes si, et seulement si, la loi conditionnelle deX sachant Y =y est identique `a la loi de probabilit´e suivie parX (et est donc ind´ependante de y).
2. Si les variables al´eatoires X1, . . . , Xn sont ind´ependantes, elles sont ind´ependantes deux `a deux.
Th´eor`eme.
Si X1, . . . , Xn sont ind´ependantes, les variables al´eatoires g1(X1), . . . , gn(Xn) sont aussi ind´ependantes pour toute fonction mesurable gi :R→R, i= 1, . . . , n.
G´en´eralisation.
Deux vecteurs al´eatoires X = (X1, . . . , Xn) et Y = (Y1, . . . , Yp) sont dits ind´ependants si, et seulement si, pour tous les bor´eliens A de Rn et B de Rp, les ´ev´enements [X ∈A] et [Y ∈B] sont ind´ependants.
Alors, pour des fonctions mesurables arbitraires g : Rn → Rk et h : Rp → Rm, les vecteurs al´eatoires g(X) et h(Y) sont aussi ind´ependants.
Si X = (X1, . . . , Xn) est de type discret, les variables al´eatoires X1, . . . , Xn sont ind´ependantes si, et seulement si: ∀ (i1, . . . , in)∈I
P(X1 =xi1, . . . , Xn =xin) = P(X1 =xi1)×. . .×P(Xn =xin)
Si X = (X1, . . . , Xn) est de type continu, les variables al´eatoires X1, . . . , Xn sont ind´ependantes si, et seulement si, une des conditions ´equivalentes suivantes est satisfaite:
(i) FX(x1, . . . , xn) =FX1(x1). . . FXn(xn) ((x1, . . . , xn)∈Rn) (ii) fX(x1, . . . , xn) =fX1(x1). . . fXn(xn) ((x1, . . . , xn)∈Rn) (iii) il existe des fonctions fi :R→R, i= 1, . . . , n, telles que
fX(x1, . . . , xn) =f1(x1). . . fn(xn) ((x1, . . . , xn)∈Rn)
G´en´eralisation.
Deux vecteurs al´eatoires X1 etX2 de dimension respective p1 et p2 et de type continu sont ind´ependants si, et seulement si:
f(X1,X2)(x1, x2) =fX1(x1) fX2(x2) (x1 ∈Rp1, x2 ∈Rp2)
Proposition. Si les variables al´eatoires X1, . . . , Xn sont ind´ependantes, alors elles satisfont:
(i) E(X1 ×. . .×Xn) =E(X1)×. . .×E(Xn) (ii) Cov(Xi, Xj) =ρ(Xi, Xj) = 0 pour i=j (iii) V(X1+. . .+Xn) =V(X1) +. . .+V(Xn)
La r´eciproque est fausse: une quelconque de ces conditions n’entraˆıne pas l’ind´ependance des variables al´eatoires X1, . . . , Xn.
Th´eor`eme.
Deux variables al´eatoires X1, X2, qui admettent une loi conjointe, sont ind´ependantes si, et seulement si: G(X1,X2)(t1, t2) = GX1(t1) GX2(t2) pour tous les couples (t1, t2) o`u G(X1,X2)(t1, t2) est d´efinie.
V. Lois de probabilit´ e usuelles.
• Loi multinomiale B(n;p1, p2, . . . , pk)
Une exp´erience conduit `a la r´ealisation d’un certain nombre d’´ev´enements A1, . . . , Ak qui peuvent se produire avec des probabilit´es respectives ´egales `a
p1, . . . , pk avec p1+. . .+pk = 1. On r´ep`ete n fois l’exp´erience, les r´ep´etitions
´
etant ind´ependantes. Soit Xi la variable al´eatoire ´egale au nombre de fois o`u Ai se r´ealise au cours desn essais. La loi de X = (X1, . . . , Xk) est donn´ee par:
P(X1 =n1, X2 =n2, . . . , Xk =nk) = n!
n1!n2!. . . nk! pn11 pn22. . . pnkk avec n1+. . .+nk =n.
• Loi normale `a n dimensions N(m,Σ)
X = (X1, . . . , Xn) suit la loi N(m,Σ) o`u m = (m1, . . . , mn) ∈ Rn et Σ est une matrice sym´etrique d´efinie positive d’ordre n, lorsque sa densit´e de probabilit´e est:
f(x1, . . . , xn) = 1 (2π)n2 √
det Σ exp[− 1
2 (x−m) Σ−1 (x−m) ] pour x = (x1, . . . , xn)∈Rn
On a: m = E(X) et Σ = [σij] est la matrice de covariance de X (σij = Cov(Xi, Xj) ).
Chaque variable al´eatoire Xi suit la loi normale N(mi,√ σii).
En g´en´eral, la r´eciproque n’est pas vraie: il n’est pas suffisant pour un vecteur al´eatoire d’avoir toutes ses composantes gaussiennes pour qu’il soit lui-mˆeme gaussien.
Toutefois, si les composantes du vecteur al´eatoire sont ind´ependantes et gaussiennes, le vecteur al´eatoire est lui-mˆeme gaussien.
Dans le cas g´en´eral, un vecteur al´eatoire est gaussien si, et seulement si, toute combinaison lin´eaire de ses composantes est une variable al´eatoire gaussienne.
Les variables al´eatoires X1, . . . , Xn, composantes du vecteur gaussien X, sont ind´ependantes si, et seulement si, la matrice Σ est diagonale, c’est-`a-dire si, et seulement si, elles ne sont pas corr´el´ees.
Proposition.
Le vecteur al´eatoire X = (X1, . . . , Xn) suit la loi N(m,Σ) si, et seulement si, sa fonction g´en´eratrice des moments est donn´ee par:
GX(t1, . . . , tn) = exp(t m) exp(1
2 t Σ t) (t= (t1, . . . , tn)∈Rn) Proposition.
Si le vecteur al´eatoire X = (X1, . . . , Xn) suit la loi normale de dimension n Nn(m,Σ) et si A est une matrice d’ordre p×n et de rang p (p ≤ n), alors le vecteur al´eatoire Y =A X+V, o`u V ∈Rp, suit la loi normale de dimensionp Np(A m+V, AΣ A).
VI. Th´ eor` eme central limite.
• Th´eor`eme central limite de Laplace.
Soient X1, . . . , Xn des variables al´eatoires ind´ependantes qui suivent la mˆeme loi de moyennem et de variance σ2.
Alors, si X = X1+. . .+Xn
n , Zn = X −m
√σ n
converge en loi vers une variable al´eatoire Z qui suit N(0,1).
• Th´eor`eme central limite (2`eme version)
Soient X1, . . . , Xn des variables al´eatoires ind´ependantes qui suivent la mˆeme loi de moyennem et de variance σ2.
Alors, Zn =√
n (X−m) converge en loi vers une variable al´eatoire Z qui suit N(0, σ) .
• G´en´eralisation du Th´eor`eme central limite.
Soient −→X1, . . . ,−→Xn des variables al´eatoires ind´ependantes de dimensionp qui suivent la mˆeme loi de moyenne−→m et de matrice de covariance Σ.
Alors, −→Zn =
−→X1 +. . .+−→Xn − n−→m
√n converge en loi vers une variable al´eatoire −→Z (de dimension p) qui suit N(0,Σ) .
CHAPITRE 4
LOI D’UNE FONCTION DE VARIABLES AL´ EATOIRES
Supposons que Y soit une fonction de n variables al´eatoires X1, . . . , Xn. Nous voulons d´eterminer la loi de Y connaissant la loi conjointe des variables X1, . . . , Xn, c’est-`a-dire la loi du vecteur al´eatoire X = (X1, . . . , Xn).
I. Technique de la fonction caract´ eristique et de la fonction g´ en´ eratrice des moments.
Dans le cas continu, la d´etermination de fY peut se faire par inversion de la transformation de Fourier ou de la transformation de Laplace. Toutefois, on peut souvent obtenir directement la loi de Y `a partir des fonctions caract´eristiques ou des fonctions g´en´eratrices des moments des lois connues.
Th´eor`eme.
Soient k variables al´eatoires ind´ependantes X1, . . . , Xk telles que Xi suive une loi binomiale B(ni, p).
Alors X =X1+. . .+Xk suit la loi binomiale B(n1+. . .+nk, p).
Th´eor`eme.
Soient n variables al´eatoires ind´ependantes X1, . . . , Xn telles que Xi suive une loi de Poisson P(λi) pour i = 1, . . . , n.
Alors X =X1+. . .+Xn suit la loi de Poisson P(λ1 +. . .+λn).
Th´eor`eme.
Si X1, . . . , Xn sont des variables al´eatoires ind´ependantes et si Xi suit N(mi, σi) pour i= 1, . . . , n, alors X =
n i=1
λiXi, o`u λi est un r´eel quelconque pour i= 1, . . . , n, suit N(m, σ) avec m=
n i=1
λimi, σ2 = n
i=1
λ2i σ2i .
Th´eor`eme.
Soient k variables al´eatoires ind´ependantes X1, . . . , Xk telles que Xi suive une loi χ2(ni).
Alors X =X1+. . .+Xk suit la loi χ2(n1+. . .+nk).
II. Technique de la fonction de r´ epartition.
On d´etermine la fonction de r´epartition de Y: FY(y) = P(Y ≤y) . Lorsque Y est du type continu, on obtient la densit´e de probabilit´e fY de Y en d´erivant FY.
Remarque: Il n’est pas toujours possible de d´eriver FY, en particulier lorsque FY est d´efinie par une int´egrale g´en´eralis´ee. Il faut alors recourir `a d’autres m´ethodes, comme la m´ethode du changement de variables.
Th´eor`eme.
Lorsque X suit N(0,1) , Y =X2 suit la loi χ2(1) .
Corollaire 1.
Si X1, . . . , Xn sont des variables al´eatoires ind´ependantes qui suivent N(0,1), alors X =X12+. . .+Xn2 suit la loi χ2(n).
Corollaire 2.
Si X = (X1, . . . , Xn) suit une loi normale `a n dimensions N(m,Σ), alors:
D2 = (X−m) Σ−1 (X −m) suit la loi χ2(n).