Vecteurs al´eatoires, Vecteurs Gaussiens, Th´eor`eme de Cochran
et applications
A. Godichon-Baggioni
I. Vecteurs al´eatoires
V ECTEURS AL EATOIRES ´
D´efinition
I Un vecteur al´eatoire X = ( X
1, . . . , X
d) ∈ R
dest un vecteur dont toutes les composantes sont des variables al´eatoires r´eelles.
I La fonction de r´epartition F
Xde X est d´efinie pour tout t = (t
1, . . . , t
d) par
F
X(t
1, . . . , t
d) = P [X
1≤ t
1, . . . , X
d≤ t
d] .
I Dans le cas o `u X est continue, i.e o `u X admet une densit´e f
Xpar rapport `a la mesure de Lebesgue sur R
d, on a
F
X( t ) = Z
t1−∞
. . . Z
td−∞
f
X( u
1, . . . , u
d) du
1, . . . , du
davec pour presque tout t
f
X( t ) = ∂
∂t
1, . . . , ∂t
dF
X( t ).
D ENSIT E ET PROPRI ´ ET ´ ES ´
Proposition
I Toute densit´e de probabilit´e f
Xv´erifie pour tout t ∈ R
d, f
X( t ) ≥ 0 et
Z
+∞−∞
. . . Z
+∞−∞
f
X(t
1, . . . , t
d) dt
1, . . . , dt
d= 1.
I Soit X ˜ = (X
1, . . . , X
k)
Tavec k ≤ d, la densit´e marginale de X ˜ est d´efinie pour tout ˜ t = (t
1, . . . , t
k) par
f
X˜˜ t
= Z
+∞−∞
. . . , Z
+∞−∞
f
X( t
1, . . . , t
k, u
k+1, . . . , u
d) du
k+1. . . , du
d.
Remarque : La connaissance des lois marginales de toutes les
composantes de X ne suffit par `a d´eterminer sa loi.
V ECTEURS AL EATOIRES ´
Soit X =
X
1. . . X
d
∈ R
dun vecteurs al´eatoire tel que E
h X
2ji
< +∞. Pour tout i , j, la covariance entre X
iet X
jest d´efinie par
Cov X
i, X
j= E
( X
i− E [ X
i]) X
j− E X
jRemarque : Si X
iet X
jsont ind´ependantes, Cov X
i, X
j= 0
mais la r´eciproque est g´en´eralement fausse (sauf pour les
vecteurs gaussiens).
E SP ERANCE ET MATRICE DE ´ C OVARIANCE D´efinition
Soit X un vecteur al´eatoire de R
dtel que pour tout i , ..., d, E
X
2i< +∞ . Le vecteur moyenne de X est d´efini par
E [ X ] =
E [ X
1]
.. . E [ X
d]
et sa matrice de covariance est d´efinie par Var [X] = E
h (X − E [X]) (X − E [X])
Ti
=
Var [ X
1] Cov ( X
1, X
2) . . . Cov ( X
1, X
d)
Cov (X
2, X
1) Var [X
2] . . . Cov (X
2, X
d)
.. . .. . . .. .. .
Cov (X
d, X
1) Cov (X
d, X
2) . . . Var [X
d]
M ATRICE DE COVARIANCE
Th´eor`eme
La matrice de covariance est une matrice sym´etrique semi-d´efinie positive.
Th´eor`eme
Soit X un vecteur al´eatoire de R
dde moyenne m et de matrice de
covariance C. Alors, si A est une matrice r´eelle p × d, le vecteur
al´eatoire AX ∈ R
pa pour vecteur moyen Am et pour matrice de
covariance ACA
T.
F ONCTION CARACT ERISTIQUE ´
D´efinition
Soit X un vecteur al´eatoire de R
d. Sa fonction caract´eristique Φ
Xest d´efinie pour tout u ∈ R
dpar
Φ
X( u ) = E h
e
iuTXi
= E h
e
i(u1X1+...+udXd)i
.
I ND EPENDANCE ´
D´efinition
Soient X ∈ R
d, Y ∈ R
d0
deux vecteurs al´eatoires. X et Y sont ind´ependants si pour tout A ∈ B R
det pour tout B ∈ B R
d0
P [( X , Y ) ∈ A × B ] = P [ X ∈ A ] P [ Y ∈ B ] .
C ARACT ERISATION ´
Proposition
Soient X ∈ R
d, Y ∈ R
d0
deux vecteurs al´eatoires.
I X et Y sont ind´ependants si et seulement si pour tout t = (t
1, t
2),
Φ
(X,Y)(t) = Φ
X(t
1) Φ
Y(t
2) . I X et Y sont ind´ependants si et seulement si pour tout
t = ( t
1, t
2) ,
f
(X,Y)( t ) = f
X( t
1) f
Y( t
2) .
II. Vecteurs al´eatoires Gaussiens
V ECTEURS AL EATOIRES GAUSSIENS ´
D´efinition
Soit X un vecteur al´eatoire de R
d. X est un vecteur gaussien de R
dsi et seulement si toute combinaison lin´eaire de ses composantes est une variable al´eatoire r´eelle gaussienne, i.e
∀ u ∈ R
d, u
TX ∼ N m
u, σ
2u.
Exemple : Un vecteur X dont les composantes X
isont
ind´ependantes et suivent une loi normale est un vecteur
gaussien.
V ECTEUR GAUSSIEN ET FONCTION CARACT ERISTIQUE ´
Th´eor`eme
Soit X un vecteur al´eatoire de R
d. Les assertions suivantes sont
´equivalentes :
1. Le vecteur X est un vecteur gaussien de moyenne m et de matrice de covariance Γ .
2. La fonction caract´eristique de X est donn´ee pour tout u ∈ R
dpar Φ
X(u) = E
h e
iuTXi
= exp
iu
Tm − 1 2 u
tΓu
.
C OROLLAIRES
Corollaire
Soit X ∼ N ( m , Γ) `a valeurs dans R
d. Soit A une matrice p × d et b ∈ R
p, alors
AX + b ∼ N Am + b, AΓA
TCorollaire
Soit X ∼ N ( m , Γ) , et Γ inversible, alors
Γ
−1/2( X − m ) ∼ N ( 0 , I
d) .
D ENSIT E D ´ ’ UN VECTEUR GAUSSIEN
Th´eor`eme
Soit X ∈ R
davec X ∼ N (m, Γ). X admet une densit´e par rapport `a la mesure de Lebesgue de R
dsi et seulement si Γ est inversible. Dans ce cas, la densit´e de f est donn´ee pour tout x ∈ R
dpar
f (x) = 1
p ( 2 π)
d|det (Γ)| exp
− 1
2 (x − m)
TΓ
−1(x − m)
V ECTEUR GAUSSIEN ET IND EPENDANCE ´
Th´eor`eme
Pour tout vecteur gaussien X de R
d, les propri´et´es suivantes sont
´equivalentes :
I Les composantes X
1, . . . , X
dde X sont ind´ependantes.
I La matrice de covariance Γ de X est diagonale.
Corollaire
Soit X un vecteur gaussien, alors pour tout i 6= j, X
iet X
jsont ind´ependantes si et seulement si
Cov ( X
i, X
j) = 0 .
III. Convergences
C ONVERGENCE EN LOI
D´efinition
Soit ( X
n) une suite de vecteurs al´eatoires. On dit que ( X
n) converge en loi vers le vecteur al´eatoire X si pour tout point de continuit´e t de F
Xon a
F
Xn(t) − −−−− →
n→+∞
F
X(t).
Proposition
( X
n) converge en loi vers le vecteur al´eatoire X si et seulement si pour toute fonction continue born´ee h,
E [ h ( X
n)] − −−−− →
n→+∞
E [ h ( X )] .
C ONVERGENCE EN PROBABILIT E ´
Soit ( X
n) une suite de vecteurs al´eatoires `a valeurs dans R
dque l’on munit d’une norme k.k .
D´efinition
La suite (X
n) converge en probabilit´e vers un vecteur al´eatoire X si pour tout > 0,
P [kX
n− Xk > ] − −−−− →
n→+∞
0.
Remarque : Comme toutes les normes sont ´equivalentes dans
R
d, alors si la suite ( X
n) converge pour une norme k.k, alors
elle converge aussi pour une norme k.k
0.
D´efinition
La suite ( X
n) converge presque s ˆurement vers un vecteur al´eatoire X si
P hn
ω, lim
n→∞
X
n(ω) = X (ω) oi
− −−−− →
n→+∞
0 .
Remarque : Si pour tout > 0, X
n≥1
P [k X
n− X k > ] < +∞
alors ( X
n) converge presque s ˆurement vers X.
L IEN ENTRE LES MODES DE CONVERGENCE
X
n− −−−−
p.s→
n→+∞
X = ⇒ X
n− −−−−
P→
n→+∞
X = ⇒ X
n− −−−−
L→
n→+∞
X
X
n L2− −−−− →
n→+∞
X = ⇒ X
n P− −−−− →
n→+∞
X = ⇒ X
n− −−−−
L→
n→+∞
X
IV. Th´eor`emes asymptotiques
T H EOR ´ EME DE CONTINUIT ` E ´
Th´eor`eme (Th´eor`eme de continuit´e)
Soit g : D −→ R
d0
une fonction continue sur un ouvert D ⊂ R
det soit X un vecteur al´eatoire `a valeurs dans D. Soit (X
n) une suite de vecteurs al´eatoires `a valeurs dans R
d. Si (X
n) converge vers X, alors g (X
n) h´erite du mode de convergence de (X
n), i.e
X
n− −−−−
L→
n→+∞
X = ⇒ g ( X
n) − −−−−
L→
n→+∞
g ( X ) X
n− −−−−
P→
n→+∞
X = ⇒ g ( X
n) − −−−−
P→
n→+∞
g ( X ) X
n− −−−−
p.s→
n→+∞
X = ⇒ g ( X
n) − −−−−
p.s→
n→+∞
g ( X )
T H EOR ´ EME DE ` S LUTSKY
Th´eor`eme
Soit ( X
n) une suite de vecteurs al´eatoires convergeant en loi vers X et ( Y
n) une suite de vecteurs al´eatoires convergeant en probabilit´e vers un vecteur constant c. Alors
X
n+ Y
n− −−−−
L→
n→+∞
X + c et
X
nY
n− −−−−
L→
n→+∞
Xc et Y
nX
n− −−−−
L→
n→+∞
cX
Remarque : Les r´esultats pr´ec´edents sous entendent bien
´evidemment que les dimensions de X et c sont ”adapt´ees”.
T H EOR ´ EMES LIMITES `
Th´eor`eme (Loi des grands nombres)
Soient X
1, . . . , X
nune suite de vecteurs al´etoires ind´ependants et identiquement distribu´es tel que E [k X
1k] < +∞ . Alors
X
n− −−−−
p.s→
n→+∞
E [ X
1] .
Th´eor`eme (Th´eor`eme Central Limite)
Soient X
1, . . . , X
nune suite de vecteurs al´eatoires ind´ependants et identiquement distribu´ees tel que E
h kX
1k
2i
< +∞. Alors
√ n X
n− E [X
1]
L− −−−− →
n→+∞
N ( 0 , Var [X
1]) .
D ELTA M ETHODE ´
Th´eor`eme
Soit (X
n) une suite de vecteurs al´eatoires, X un vecteur al´eatoire, v
nune suite de r´eels telle que lim
n→+∞v
n= +∞ et m un vecteur tel que
v
n( X
n− m ) − −−−−
L→
n→+∞
X . Soit g = (g
1, . . . , g
d0) : D −→ R
d0
avec m ∈ D ⊂ R
dune fonction continuement diff´erentiable, alors
v
n( g ( X
n) − g ( m )) − −−−−
L→
n→+∞
J
g( m ) X o `u J
g(m) =
∂
∂mi
g
j(m)
i,j
est la matrice Jacobienne de g en m.
C AS PARTICULIER
Soit (X
n) une suite d’estimateurs de m asymptotiquement normaux, i.e il existe une matrice Σ ∈ M
d( R ) tel que
√ n (X
n− m) − −−−−
L→
n→+∞
N (0, Σ) . Soit g = (g
1, . . . , g
d0) : D −→ R
d0
avec m ∈ D ⊂ R
dune fonction continuement diff´erentiable, alors
√ n (g (X
n) − g(m)) − −−−−
L→
n→+∞
N 0, J
g(m)ΣJ
g(m)
T.
V. Th´eor`eme de Cochran et applications
T H EOR ´ EME DE ` C OCHRAN
Th´eor`eme (Th´eor`eme de Cochran)
Soit X une vecteur al´eaoire de R
nsuivant une loi N m, σ
2I
navec σ
2> 0. Soit R
n= E
1⊕ E
2⊕ . . . ⊕ E
pune d´ecomposition de R
nen somme directe de p sous-espaces vectoriels orthogonaux de
dimensions respectives d
1, . . . , d
p. Soit P
kle projecteur orthogonal sur E
ket Y
k= P
kX la projection orthogonale de X sur E
k.
1. Les projections Y
1, . . . , Y
psont des vecteurs gaussiens ind´ependants et Y
k∼ N P
km , σ
2P
k. 2. Les variables al´eatoires k Y
1− P
1m k
2, . . . ,
Y
p− P
pm
2
sont ind´ependantes et
kY
k− P
kmk
2σ
2∼ χ
2dkC OROLLAIRE
Corollaire
Soient X
1, . . . , X
ndes variables al´eatoires ind´ependantes et identiquement distribu´ees avec X
1∼ N m , σ
2. On a alors 1. X
n∼ N
m ,
σn2. 2.
n−1σ2S
2n∼ χ
2n−1.
3. X
net S
2nsont ind´ependantes.
A UTRES R ESULTATS ´
Proposition
Soient Z , Z
p, Z
qtrois variables al´eatoires telles que 1. Z = Z
p+ Z
q2. Z
p∼ χ
2pet Z
q∼ χ
2q3. Z
pet Z
qsont ind´ependantes
alors Z ∼ χ
p+q.
T EST DU K HI DEUX
Corollaire (Test du Khi deux d’ajustement)
Soit X une variable al´eatoire `a valeurs dans {a
1, . . . , a
K} avec P [X = a
k] = p
k> 0. Soient X
1, . . . , X
ndes variables al´eatoires i.i.d de mˆeme loi que X. Soit E
k= P
ni=1
1
Xi=ak. On a alors
K
X
k=1
( E
k− np
k)
2np
k− −−−−
L→
n→+∞