• Aucun résultat trouvé

Statistique inf´erentielle Vecteurs Gaussiens, Th´eor`eme de Cochran et applications

N/A
N/A
Protected

Academic year: 2022

Partager "Statistique inf´erentielle Vecteurs Gaussiens, Th´eor`eme de Cochran et applications"

Copied!
20
0
0

Texte intégral

(1)

Vecteurs Gaussiens, Th´eor`eme de Cochran et applications

A. Godichon-Baggioni

(2)

T H EOR ´ EME ` C ENTRAL L IMITE MULTIVARI E ´

Th´eor`eme (Th´eor`eme Central Limite multivari´e)

Soit X1, . . . ,Xndes vecteurs al´eatoires `a valeurs dansRd, ind´ependants et identiquement distribu´es. On suppose E

hkX1k2i

<+∞et on note m=E[X1]son vecteur moyen et Γ =Var[X1]sa matrice de variance-covariance. On note Xn= 1nPn

i=1Xiet on a alors la convergence en loi

√n Xn−m L

−−−−−→

n→+∞ N(0,Γ).

(3)

O BJECTIFS

L’´etude des vecteurs gaussiens permet non seulement d’´etudier le comportement asymptotique d’estimateurs pour des variables al´eatoires `a valeurs dansRdmais aussi (via le Th´eor`eme de Cochran) :

I L’´etude non asymptotique des estimteurs de la moyenne et de la variance d’une variable al´eatoire suivant une loi normale (cf chapitre pr´ec´edent).

I Estimation des param`etres dans le cadre du mod`ele lin´eaire gaussien (cf TD)

I Construction de tests dans le cadre gaussien (cf chapitre suivant).

(4)

I. Vecteurs al´eatoires

(5)

V ECTEURS AL EATOIRES ´

SoitX=

 X1

. . . Xd

∈Rdun vecteurs al´eatoire tel que E

hX2ji

<+∞. Pour touti,j, la covariance entreXietXjest d´efinie par

Cov Xi,Xj

=E

(Xi−E[Xi]) Xj−E Xj

Remarque : SiXietXjsont ind´ependantes, Cov Xi,Xj

=0 mais la r´eciproque est g´en´eralement fausse (sauf pour les vecteurs gaussiens).

(6)

E SP ERANCE ET MATRICE DE ´ C OVARIANCE D´efinition

Soit X un vecteur al´eatoire deRdtel que pour tout i=1, ...,d, E

X2i

<+∞. Le vecteur moyen de X est d´efini par

E[X] =

 E[X1]

... E[Xd]

et sa matrice de covariance est d´efinie par Var[X] =E

h(X−E[X]) (X−E[X])Ti

=

Var[X1] Cov(X1,X2) . . . Cov(X1,Xd) Cov(X2,X1) Var[X2] . . . Cov(X2,Xd)

... ... . .. ...

Cov(Xd,X1) Cov(Xd,X2) . . . Var[Xd]

(7)

M ATRICE DE COVARIANCE

Th´eor`eme

La matrice de covariance est une matrice sym´etrique semi-d´efinie positive.

Th´eor`eme

Soit X un vecteur al´eatoire deRdde moyenne m et de matrice de covariance C. Alors, si A est une matrice r´eelle p×d, le vecteur al´eatoire AX∈Rpa pour vecteur moyen Am et pour matrice de covariance ACAT.

(8)

F ONCTION CARACT ERISTIQUE ´

D´efinition

Soit X un vecteur al´eatoire deRd. Sa fonction caract´eristiqueΦXest d´efinie pour tout u∈Rdpar

ΦX(u) =E h

eiuTXi

=E h

ei(u1X1+...+udXd)i .

(9)

II. Vecteurs al´eatoires Gaussiens

(10)

V ECTEURS AL EATOIRES GAUSSIENS ´

D´efinition

Soit X un vecteur al´eatoire deRd. X est un vecteur gaussien deRdsi et seulement si toute combinaison lin´eaire de ses composantes est une variable al´eatoire r´eelle gaussienne, i.e

∀u∈Rd, uTX∼ N mu, σ2u .

Exemple : Un vecteurXdont les composantesXisont ind´ependantes et suivent une loi normale est un vecteur gaussien.

(11)

V ECTEUR GAUSSIEN ET FONCTION CARACT ERISTIQUE ´

Th´eor`eme

Soit X un vecteur al´eatoire deRd. Les assertions suivantes sont

´equivalentes :

1. Le vecteur X est un vecteur gaussien de moyenne m et de matrice de covarianceΓ.

2. La fonction caract´eristique de X est donn´ee pour tout u∈Rdpar ΦX(u) =E

heiuTXi

= exp

iuTm−1 2utΓu

.

(12)

C OROLLAIRES

Corollaire

Soit X∼ N(m,Γ)`a valeurs dansRd. Soit A une matrice p×d et b∈Rp, alors

AX+b∼ N Am+b,AΓAT

Corollaire

Soit X∼ N(m,Γ), etΓinversible, alors Γ−1/2(X−m)∼ N(0,Id).

(13)

E XEMPLE

Exemple : SoitX= (X1,X2)T ∈R2un vecteur Gaussien avec X∼ N(0,V). Alors la variabe al´eatoireZ=X1+X2suit une loi normale. Plus pr´ecis´ement,

Z∼ N 0,uTVu avecu= (1,1)T.

(14)

D ENSIT E D ´ ’ UN VECTEUR GAUSSIEN

Th´eor`eme

Soit X∈Rdavec X∼ N(m,Γ). X admet une densit´e par rapport `a la mesure de Lebesgue deRdsi et seulement siΓest inversible. Dans ce cas, la densit´e de f est donn´ee pour tout x∈Rdpar

f(x) = 1

p(2π)d|det(Γ)|exp

−1

2(x−m)TΓ−1(x−m)

(15)

V ECTEUR GAUSSIEN ET IND EPENDANCE ´

Th´eor`eme

Pour tout vecteur gaussien X deRd, les propri´et´es suivantes sont

´equivalentes :

I Les composantes X1, . . . ,Xdde X sont ind´ependantes.

I La matrice de covarianceΓde X est diagonale.

Corollaire

Soit X un vecteur gaussien, alors pour tout i6=j, Xiet Xjsont ind´ependantes si et seulement si

Cov(Xi,Xj) =0.

(16)

R EMARQUE

Attention ! Le corollaire pr´ec´edent n’est automatiquement vrai que pour les vecteurs gaussiens !

Contre-exemple : SoitX∼ N(0,1)etYune variable al´eatoire suivant une loi de Rademacher de param`etrep=1/2, i.e

P[Y=1] = 1

2 et P[Y=−1] = 1 2. On consid`ere la variable al´eatoireZ=XY. On a

1. Cov(X,Z) =0 maisXetZne sont pas ind´ependants.

2. Les composantes du vecteurU= (X,Z)suivent des lois normales maisUn’est pas un vecteur gaussien.

(17)

III. Th´eor`eme de Cochran et applications

(18)

T H EOR ´ EME DE ` C OCHRAN

Th´eor`eme (Th´eor`eme de Cochran)

Soit X un vecteur al´eaoire deRnsuivant une loiN m, σ2In avec σ2>0. SoitRn=E1⊕E2⊕. . .⊕Epune d´ecomposition deRnen somme directe de p sous-espaces vectoriels orthogonaux de

dimensions respectives d1, . . . ,dp. Soit Pkle projecteur orthogonal sur Eket Yk=PkX la projection orthogonale de X sur Ek.

1. Les projections Y1, . . . ,Ypsont des vecteurs gaussiens ind´ependants et Yk∼ N Pkm, σ2Pk

. 2. Les variables al´eatoireskY1−P1mk2, . . . ,

Yp−Ppm

2sont ind´ependantes et

kYk−Pkmk2

σ2 ∼χ2dk

(19)

C OROLLAIRE

Corollaire

Soient X1, . . . ,Xndes variables al´eatoires ind´ependantes et identiquement distribu´ees avec X1 ∼ N m, σ2

. On a alors 1. n−1σ2 S2n∼χ2n−1.

2. Xnet S2nsont ind´ependantes.

(20)

A UTRES R ESULTATS ´

Proposition

Soient Z,Zp,Zqtrois variables al´eatoires telles que 1. Z=Zp+Zq

2. Zp∼χ2pet Zq∼χ2q 3. Zpet Zqsont ind´ependantes alors Z∼χp+q.

Références

Documents relatifs

Un exemple : Pour tester sa théorie génétique, Mendel croisa des pois tous jaunes et lisses et obtint à la première génération des pois jaunes ou verts et lisses ou ridés.

cation en établissant un théorème sur l’intégrabilité des processus gaussiens stationnaires à trajectoires continues qui montre que pour toute partie bornée T de R

cace pour l’étude de certains processus gaussiens : il a notamment permis l’étude des propriétés locales et asymptotiques d’un processus fondamen- tal en

On utilise souvent les faits suivants dans les manipulations d’esp´ erances conditionnelles (Proposition 4.8.17) :. (1) Soit Y

Th´ eor` eme de Fubini (signe quelconque) : lorsqu’on int` egre une fonction de signe ` a plu- sieurs variables, on peut intervertir les int´ egrales si l’int´ egrale est

On montrera la convergence de ces arbres daux vers un certain arbre infini al´eatoire qu’on in- troduira, appel´e l’arbre de Galton–Watson conditionn´e `a survivre, et on

On peut donc consid´erer l’unique droite D x passant par ces deux points qui coupe S en exactement deux points oppos´es.. Ceci est en contradiction avec le lemme de

Soit X un vecteur gaussien de matrice de covariance C et d’espérance µ.. Nous supposons de plus que C est