• Aucun résultat trouvé

A.Godichon-Baggioni Vecteursal´eatoires,VecteursGaussiens,Th´eor`emedeCochranetapplications Mise`aniveau

N/A
N/A
Protected

Academic year: 2022

Partager "A.Godichon-Baggioni Vecteursal´eatoires,VecteursGaussiens,Th´eor`emedeCochranetapplications Mise`aniveau"

Copied!
32
0
0

Texte intégral

(1)

Vecteurs al´eatoires, Vecteurs Gaussiens, Th´eor`eme de Cochran

et applications

A. Godichon-Baggioni

(2)

I. Vecteurs al´eatoires

(3)

V ECTEURS AL EATOIRES ´

D´efinition

I Un vecteur al´eatoire X = ( X

1

, . . . , X

d

) ∈ R

d

est un vecteur dont toutes les composantes sont des variables al´eatoires r´eelles.

I La fonction de r´epartition F

X

de X est d´efinie pour tout t = (t

1

, . . . , t

d

) par

F

X

(t

1

, . . . , t

d

) = P [X

1

≤ t

1

, . . . , X

d

≤ t

d

] .

I Dans le cas o `u X est continue, i.e o `u X admet une densit´e f

X

par rapport `a la mesure de Lebesgue sur R

d

, on a

F

X

( t ) = Z

t1

−∞

. . . Z

td

−∞

f

X

( u

1

, . . . , u

d

) du

1

, . . . , du

d

avec pour presque tout t

f

X

( t ) = ∂

∂t

1

, . . . , ∂t

d

F

X

( t ).

(4)

D ENSIT E ET PROPRI ´ ET ´ ES ´

Proposition

I Toute densit´e de probabilit´e f

X

v´erifie pour tout t ∈ R

d

, f

X

( t ) ≥ 0 et

Z

+∞

−∞

. . . Z

+∞

−∞

f

X

(t

1

, . . . , t

d

) dt

1

, . . . , dt

d

= 1.

I Soit X ˜ = (X

1

, . . . , X

k

)

T

avec k ≤ d, la densit´e marginale de X ˜ est d´efinie pour tout ˜ t = (t

1

, . . . , t

k

) par

f

˜ t

= Z

+∞

−∞

. . . , Z

+∞

−∞

f

X

( t

1

, . . . , t

k

, u

k+1

, . . . , u

d

) du

k+1

. . . , du

d

.

Remarque : La connaissance des lois marginales de toutes les

composantes de X ne suffit par `a d´eterminer sa loi.

(5)

V ECTEURS AL EATOIRES ´

Soit X =

 X

1

. . . X

d

 ∈ R

d

un vecteurs al´eatoire tel que E

h X

2j

i

< +∞. Pour tout i , j, la covariance entre X

i

et X

j

est d´efinie par

Cov X

i

, X

j

= E

( X

i

− E [ X

i

]) X

j

− E X

j

Remarque : Si X

i

et X

j

sont ind´ependantes, Cov X

i

, X

j

= 0

mais la r´eciproque est g´en´eralement fausse (sauf pour les

vecteurs gaussiens).

(6)

E SP ERANCE ET MATRICE DE ´ C OVARIANCE D´efinition

Soit X un vecteur al´eatoire de R

d

tel que pour tout i , ..., d, E

X

2i

< +∞ . Le vecteur moyenne de X est d´efini par

E [ X ] =

 E [ X

1

]

.. . E [ X

d

]

et sa matrice de covariance est d´efinie par Var [X] = E

h (X − E [X]) (X − E [X])

T

i

=

Var [ X

1

] Cov ( X

1

, X

2

) . . . Cov ( X

1

, X

d

)

Cov (X

2

, X

1

) Var [X

2

] . . . Cov (X

2

, X

d

)

.. . .. . . .. .. .

Cov (X

d

, X

1

) Cov (X

d

, X

2

) . . . Var [X

d

]

(7)

M ATRICE DE COVARIANCE

Th´eor`eme

La matrice de covariance est une matrice sym´etrique semi-d´efinie positive.

Th´eor`eme

Soit X un vecteur al´eatoire de R

d

de moyenne m et de matrice de

covariance C. Alors, si A est une matrice r´eelle p × d, le vecteur

al´eatoire AX ∈ R

p

a pour vecteur moyen Am et pour matrice de

covariance ACA

T

.

(8)

F ONCTION CARACT ERISTIQUE ´

D´efinition

Soit X un vecteur al´eatoire de R

d

. Sa fonction caract´eristique Φ

X

est d´efinie pour tout u ∈ R

d

par

Φ

X

( u ) = E h

e

iuTX

i

= E h

e

i(u1X1+...+udXd)

i

.

(9)

I ND EPENDANCE ´

D´efinition

Soient X ∈ R

d

, Y ∈ R

d

0

deux vecteurs al´eatoires. X et Y sont ind´ependants si pour tout A ∈ B R

d

et pour tout B ∈ B R

d

0

P [( X , Y ) ∈ A × B ] = P [ X ∈ A ] P [ Y ∈ B ] .

(10)

C ARACT ERISATION ´

Proposition

Soient X ∈ R

d

, Y ∈ R

d

0

deux vecteurs al´eatoires.

I X et Y sont ind´ependants si et seulement si pour tout t = (t

1

, t

2

),

Φ

(X,Y)

(t) = Φ

X

(t

1

) Φ

Y

(t

2

) . I X et Y sont ind´ependants si et seulement si pour tout

t = ( t

1

, t

2

) ,

f

(X,Y)

( t ) = f

X

( t

1

) f

Y

( t

2

) .

(11)

II. Vecteurs al´eatoires Gaussiens

(12)

V ECTEURS AL EATOIRES GAUSSIENS ´

D´efinition

Soit X un vecteur al´eatoire de R

d

. X est un vecteur gaussien de R

d

si et seulement si toute combinaison lin´eaire de ses composantes est une variable al´eatoire r´eelle gaussienne, i.e

∀ u ∈ R

d

, u

T

X ∼ N m

u

, σ

2u

.

Exemple : Un vecteur X dont les composantes X

i

sont

ind´ependantes et suivent une loi normale est un vecteur

gaussien.

(13)

V ECTEUR GAUSSIEN ET FONCTION CARACT ERISTIQUE ´

Th´eor`eme

Soit X un vecteur al´eatoire de R

d

. Les assertions suivantes sont

´equivalentes :

1. Le vecteur X est un vecteur gaussien de moyenne m et de matrice de covariance Γ .

2. La fonction caract´eristique de X est donn´ee pour tout u ∈ R

d

par Φ

X

(u) = E

h e

iuTX

i

= exp

iu

T

m − 1 2 u

t

Γu

.

(14)

C OROLLAIRES

Corollaire

Soit X ∼ N ( m , Γ) `a valeurs dans R

d

. Soit A une matrice p × d et b ∈ R

p

, alors

AX + b ∼ N Am + b, AΓA

T

Corollaire

Soit X ∼ N ( m , Γ) , et Γ inversible, alors

Γ

−1/2

( X − m ) ∼ N ( 0 , I

d

) .

(15)

D ENSIT E D ´ ’ UN VECTEUR GAUSSIEN

Th´eor`eme

Soit X ∈ R

d

avec X ∼ N (m, Γ). X admet une densit´e par rapport `a la mesure de Lebesgue de R

d

si et seulement si Γ est inversible. Dans ce cas, la densit´e de f est donn´ee pour tout x ∈ R

d

par

f (x) = 1

p ( 2 π)

d

|det (Γ)| exp

− 1

2 (x − m)

T

Γ

−1

(x − m)

(16)

V ECTEUR GAUSSIEN ET IND EPENDANCE ´

Th´eor`eme

Pour tout vecteur gaussien X de R

d

, les propri´et´es suivantes sont

´equivalentes :

I Les composantes X

1

, . . . , X

d

de X sont ind´ependantes.

I La matrice de covariance Γ de X est diagonale.

Corollaire

Soit X un vecteur gaussien, alors pour tout i 6= j, X

i

et X

j

sont ind´ependantes si et seulement si

Cov ( X

i

, X

j

) = 0 .

(17)

III. Convergences

(18)

C ONVERGENCE EN LOI

D´efinition

Soit ( X

n

) une suite de vecteurs al´eatoires. On dit que ( X

n

) converge en loi vers le vecteur al´eatoire X si pour tout point de continuit´e t de F

X

on a

F

Xn

(t) − −−−− →

n→+∞

F

X

(t).

Proposition

( X

n

) converge en loi vers le vecteur al´eatoire X si et seulement si pour toute fonction continue born´ee h,

E [ h ( X

n

)] − −−−− →

n→+∞

E [ h ( X )] .

(19)

C ONVERGENCE EN PROBABILIT E ´

Soit ( X

n

) une suite de vecteurs al´eatoires `a valeurs dans R

d

que l’on munit d’une norme k.k .

D´efinition

La suite (X

n

) converge en probabilit´e vers un vecteur al´eatoire X si pour tout > 0,

P [kX

n

− Xk > ] − −−−− →

n→+∞

0.

Remarque : Comme toutes les normes sont ´equivalentes dans

R

d

, alors si la suite ( X

n

) converge pour une norme k.k, alors

elle converge aussi pour une norme k.k

0

.

(20)

D´efinition

La suite ( X

n

) converge presque s ˆurement vers un vecteur al´eatoire X si

P hn

ω, lim

n→∞

X

n

(ω) = X (ω) oi

− −−−− →

n→+∞

0 .

Remarque : Si pour tout > 0, X

n≥1

P [k X

n

− X k > ] < +∞

alors ( X

n

) converge presque s ˆurement vers X.

(21)

L IEN ENTRE LES MODES DE CONVERGENCE

X

n

− −−−−

p.s

n→+∞

X = ⇒ X

n

− −−−−

P

n→+∞

X = ⇒ X

n

− −−−−

L

n→+∞

X

X

n L2

− −−−− →

n→+∞

X = ⇒ X

n P

− −−−− →

n→+∞

X = ⇒ X

n

− −−−−

L

n→+∞

X

(22)

IV. Th´eor`emes asymptotiques

(23)

T H EOR ´ EME DE CONTINUIT ` E ´

Th´eor`eme (Th´eor`eme de continuit´e)

Soit g : D −→ R

d

0

une fonction continue sur un ouvert D ⊂ R

d

et soit X un vecteur al´eatoire `a valeurs dans D. Soit (X

n

) une suite de vecteurs al´eatoires `a valeurs dans R

d

. Si (X

n

) converge vers X, alors g (X

n

) h´erite du mode de convergence de (X

n

), i.e

X

n

− −−−−

L

n→+∞

X = ⇒ g ( X

n

) − −−−−

L

n→+∞

g ( X ) X

n

− −−−−

P

n→+∞

X = ⇒ g ( X

n

) − −−−−

P

n→+∞

g ( X ) X

n

− −−−−

p.s

n→+∞

X = ⇒ g ( X

n

) − −−−−

p.s

n→+∞

g ( X )

(24)

T H EOR ´ EME DE ` S LUTSKY

Th´eor`eme

Soit ( X

n

) une suite de vecteurs al´eatoires convergeant en loi vers X et ( Y

n

) une suite de vecteurs al´eatoires convergeant en probabilit´e vers un vecteur constant c. Alors

X

n

+ Y

n

− −−−−

L

n→+∞

X + c et

X

n

Y

n

− −−−−

L

n→+∞

Xc et Y

n

X

n

− −−−−

L

n→+∞

cX

Remarque : Les r´esultats pr´ec´edents sous entendent bien

´evidemment que les dimensions de X et c sont ”adapt´ees”.

(25)

T H EOR ´ EMES LIMITES `

Th´eor`eme (Loi des grands nombres)

Soient X

1

, . . . , X

n

une suite de vecteurs al´etoires ind´ependants et identiquement distribu´es tel que E [k X

1

k] < +∞ . Alors

X

n

− −−−−

p.s

n→+∞

E [ X

1

] .

Th´eor`eme (Th´eor`eme Central Limite)

Soient X

1

, . . . , X

n

une suite de vecteurs al´eatoires ind´ependants et identiquement distribu´ees tel que E

h kX

1

k

2

i

< +∞. Alors

√ n X

n

− E [X

1

]

L

− −−−− →

n→+∞

N ( 0 , Var [X

1

]) .

(26)

D ELTA M ETHODE ´

Th´eor`eme

Soit (X

n

) une suite de vecteurs al´eatoires, X un vecteur al´eatoire, v

n

une suite de r´eels telle que lim

n→+∞

v

n

= +∞ et m un vecteur tel que

v

n

( X

n

− m ) − −−−−

L

n→+∞

X . Soit g = (g

1

, . . . , g

d0

) : D −→ R

d

0

avec m ∈ D ⊂ R

d

une fonction continuement diff´erentiable, alors

v

n

( g ( X

n

) − g ( m )) − −−−−

L

n→+∞

J

g

( m ) X o `u J

g

(m) =

∂mi

g

j

(m)

i,j

est la matrice Jacobienne de g en m.

(27)

C AS PARTICULIER

Soit (X

n

) une suite d’estimateurs de m asymptotiquement normaux, i.e il existe une matrice Σ ∈ M

d

( R ) tel que

√ n (X

n

− m) − −−−−

L

n→+∞

N (0, Σ) . Soit g = (g

1

, . . . , g

d0

) : D −→ R

d

0

avec m ∈ D ⊂ R

d

une fonction continuement diff´erentiable, alors

√ n (g (X

n

) − g(m)) − −−−−

L

n→+∞

N 0, J

g

(m)ΣJ

g

(m)

T

.

(28)

V. Th´eor`eme de Cochran et applications

(29)

T H EOR ´ EME DE ` C OCHRAN

Th´eor`eme (Th´eor`eme de Cochran)

Soit X une vecteur al´eaoire de R

n

suivant une loi N m, σ

2

I

n

avec σ

2

> 0. Soit R

n

= E

1

⊕ E

2

⊕ . . . ⊕ E

p

une d´ecomposition de R

n

en somme directe de p sous-espaces vectoriels orthogonaux de

dimensions respectives d

1

, . . . , d

p

. Soit P

k

le projecteur orthogonal sur E

k

et Y

k

= P

k

X la projection orthogonale de X sur E

k

.

1. Les projections Y

1

, . . . , Y

p

sont des vecteurs gaussiens ind´ependants et Y

k

∼ N P

k

m , σ

2

P

k

. 2. Les variables al´eatoires k Y

1

− P

1

m k

2

, . . . ,

Y

p

− P

p

m

2

sont ind´ependantes et

kY

k

− P

k

mk

2

σ

2

∼ χ

2dk

(30)

C OROLLAIRE

Corollaire

Soient X

1

, . . . , X

n

des variables al´eatoires ind´ependantes et identiquement distribu´ees avec X

1

∼ N m , σ

2

. On a alors 1. X

n

∼ N

m ,

σn2

. 2.

n−1σ2

S

2n

∼ χ

2n−1

.

3. X

n

et S

2n

sont ind´ependantes.

(31)

A UTRES R ESULTATS ´

Proposition

Soient Z , Z

p

, Z

q

trois variables al´eatoires telles que 1. Z = Z

p

+ Z

q

2. Z

p

∼ χ

2p

et Z

q

∼ χ

2q

3. Z

p

et Z

q

sont ind´ependantes

alors Z ∼ χ

p+q

.

(32)

T EST DU K HI DEUX

Corollaire (Test du Khi deux d’ajustement)

Soit X une variable al´eatoire `a valeurs dans {a

1

, . . . , a

K

} avec P [X = a

k

] = p

k

> 0. Soient X

1

, . . . , X

n

des variables al´eatoires i.i.d de mˆeme loi que X. Soit E

k

= P

n

i=1

1

Xi=ak

. On a alors

K

X

k=1

( E

k

− np

k

)

2

np

k

− −−−−

L

n→+∞

χ

2K−1

.

Références

Documents relatifs

La diff´ erence entre le th´ eor` eme et sa r´ eciproque tient aux conclusions et aux hypoth` eses : Pour montrer que deux droites sont parall` eles, on utilise le th´ eor` eme de

Si M est un num´ eraire, on peut ´ evaluer la valeur V t d’une strat´ egie en terme de ce num´ eraire, soit V t /M

Autrement dit, on consid` ere des tirages de p ´ el´ ements de E avec remise, mais sans tenir compte de l’ordre.. Le nombre de r´ esultats possible est

Dans le cas pr´ esent, la part du cuisinier serait de trois pi` eces, mais les pirates se querellent et six d’entre eux sont tu´ es, ce qui porte la part du cuisinier ` a quatre

On consid`ere un triangle quelconque ABC et deux points M et N situ´es respectivement sur les cˆ ot´es [AB] et [AC] tels que (M N)//(BC).. Prouver que le rapport des aires des

Th`emes d’analyse pour l’agr´egation, St´ephane GONNORD &amp; Nicolas TOSEL, page

Comme f est continue sur [0, 1] (compact) elle est born´ee et atteint

[r]