• Aucun résultat trouvé

C.N.S. d'indépendance de X et S

N/A
N/A
Protected

Academic year: 2022

Partager "C.N.S. d'indépendance de X et S"

Copied!
2
0
0

Texte intégral

(1)

C.N.S. d'indépendance de X et S

2

.

Cottrell-Genon-Catalot-Duhamel-Meyre, Exercices de probabilités, page 211 Théorème : SoientX1, . . . , Xn des V.A.R. indépendantes de même loi, d'espérance et de variance nies. On dénit

X = 1 n

Xn

i=1

Xi et S2= 1 n

Xn

i=1

(Xi−X)2

Alors : X etS2 sont indépendantes ⇐⇒ X1, . . . , Xn sont gaussiennes.

SoittX = (X1, . . . , Xn)un vecteur aléatoire deRn, avec X1, . . . , Xn indépendantes et de même loi, d'espérance m, de varianceσ2 nie. On pose

X = 1 n

Xn

i=1

Xi ; Σ2= 1 n

Xn

i=1

(Xi−m)2 , S2= 1 n

Xn

i=1

(Xi−X)2

= On suppose que la loi des V.A.R. Xi est gaussienne, c'est-à-dire que Xi à N(m, σ2) pour i = 1, . . . , n.

Alors, la vecteurX ÃNn(m1n, σ2In)puisque ses composantes sont des gaussiennes indépendantes.

1. Déterminons la loi deX.

X est une combinaison linéaires des composantes de X, donc X est gaussienne. On a E(X) = 1

n Xn

i=1

E(Xi) =m et V ar(X) = 1 n2

Xn

i=1

V ar(Xi) = σ2

n. DoncX ÃN µ

m,σ2 n

¶ .

2. Déterminons la loi denΣ2 σ2. On a nΣ2

σ2 = Xn

i=1

µXi−m σ

2

, avec Xi−m

σ ÃN(0,1), donc nΣ2

σ2 est la somme des carrés de n V.A.R. gaussiennes centrées réduites indépendantes, doncnΣ2

σ2 Ãχ2(n).

3. Montrons queX etS2 sont indépendantes.

Pour montrer que X et S2 sont indépendantes, il sut de montrer que X est indépendante du vecteurZ= (X1−X, . . . , Xn−X), puisqueS2estZ-mesurable. Or le vecteur(X, X1−X, . . . , Xn X) Rn+1 est gaussien (car toute combinaison linéaire de ses composantes est une combinai- son linéaire des Xi), et pour démontrer l'indépendance deX et de Z, il sut de démontrer que Cov(X, Xi−X) = 0pour touti. Pour cela, on calcule

Cov(X, Xi) =Cov

1 n

Xn

j=1

Xj, Xi

= 1

nCov(Xi, Xi) =σ2 n commeV ar(X) =σ2

n, le résultat vient immédiatement.

4. Montrons quenS2

σ2 suit une loi du χ2(n1). nS2=

Xn

i=1

(Xi−X)2= Xn

i=1

Xi22X Xn

i=1

Xi+nX2= Xn

i=1

Xi2−nX2

On voit apparaître la diérence d'une somme dencarrés et d'un terme carré.

Supposons d'abordm= 0.

CommetX ÃNn(0, σ2In), siAest une matrice orthogonale, le vecteur tY = (Y1, . . . , Yn) = AX est aussi gaussien, avec E(Y) = AE(X) = 0, V ar(Y) = AV ar(X)tA = σ2In. Les composantes Y1, . . . , Yn sont donc indépendantes, et de plus Pn

i=1

Xi2 = Pn

i=1

Yi2, (la norme est conservée parA).

1

(2)

Il s'agit donc de choisirApour queYi2=nX2, ce qui est possible en prenant comme première ligne deA:

µ 1

√n . . . 1

√n

. AlorsnS2= Xn

i=1

Xi2−nX2= Xn

i=1

Yi2−Y12=Y22+. . .+Yn2. On retrouve ainsi le fait queS2 et X sont indépendantes puisque fonctions de (Y2, . . . , Yn)etY1. Enn, puisque les V.A.R.Yi sont indépendantes de loiN(0, σ2), on anS2

σ2 Ãχ2(n1).

Supposonsm6= 0.

On se ramène au cas précédent, en posant Xi = Xi −m et en remarquant que nS2 = Pn

i=1

(Xi−X)2.

En comparant2.et4., on voit qu'en remplaçantmpar une valeur "estimée"X, on "perd" un degré de liberté dans la loi duχ2.

= On ne suppose plus connue la loi desXi, mais on suppose queX et S2sont indépendantes.

1. Supposonsm= 0. Calculons E(nS2)et montrons que E(nS2eitnX) = (n1)σ2ϕn(t)pour tout t réel. En déduire ϕet ainsi la loi des Xi.

On suppose seulement que lesXi sont indépendantes, de même loi, centrées et de variance nie, de fonction caractéristiqueϕ. On aϕ0(0) = 0 etϕ00(0) =−σ2. Comme

nS2= Xn

i=1

Xi2−nX2= Xn

i

Xi21 n

à n X

i=1

Xi

!2

= µ

1 1 n

¶Xn

i=1

Xi22 n

X

i<j

XiXj

et queE(Xi2) =σ2, E(XiXj) = 0(i6=j), on aE(nS2)(n1)σ2. D'autre part, puisqueS2 etX sont indépendantes,

E(nS2eitnX) =E(nS2)E(eitnX) =E(nS2)E(eit

P

j

Xj

) = (n1)σ2ϕn(t) Mais, en développant, on obtient

E(nS2eitnX =E

 µ

1 1 n

¶ X

j

Xj22 n

X

j<k

XjXk

eit

P

j

Xj

= µ

11 n

¶ X

j

E µ

Xj2eitXjeit

P

k6=j

Xk

2 n

X

j<k

E

³

XjeitXjXkeitXkeitPh6=j,kXh

´

et en vertu de l'indépendance desXiet du fait queE(Xj2eitXj) =−ϕ00(t)etE(XjeitXj) =−itϕ0(t), on a donc

E(nS2eitnX) = µ

1 1 n

00(t)ϕn−1(t) + 2 n

n(n−1)

2 ϕ02(t)ϕn−2(t) d'où

(n1)σ2ϕn(t) =−(n−1)ϕ00(t)ϕn−1(t) + (n1)ϕ0(t)ϕn−2(t) d'où la relation

ϕ00(t) ϕ(t)

µϕ0(t) ϕ(t)

2

=−σ2

En posantψ(t) = log(ϕ(t)), la relation s'écrit ψ00(t) = −σ2, d'où ψ0(t) = −σ2t et ψ(t) = −σ2 2 t2 puisqueψ(0) =ψ0(0) = 0.

Doncϕ(t) =eσ22t2 et la loi desXi est gaussienne : XiÃN(0, σ2). 2. Montrons que l'on peut se passer de l'hypothèsem= 0.

Supposonsm6= 0. Alors on peurt poserXi=Xi−m,X=X−m. AlorsS2= 1 n

Xn

i=1

(Xi−X)2, et l'indépendance deS2et X équivaut à l'indépendance deS2 etX, d'où le résultat.

2

Références

Documents relatifs

On se donne un espace de probabilité (Ω, F, P ), une variable aléatoire X positive (resp.. Rappelez la définition de l’espérance conditionnelle de X

Soit X, Y des variables aléatoires indépendantes, de loi de Poisson de paramètres λ et

Donner un exemple de réalisation, utilisant deux dé à six faces, d’un couple de v.a.. , 6} de loi uniforme

Soit (X n ) n≥1 une suite de variables aléatoires réelles indépendantes, de même loi ayant chacune la même espérance m et la même variance σ 2.. Soit (T n ) n≥1 une suite

Soit (X n ) une suites de variables aléatoires indépendantes et de même loi (discrète ou à densité) ayant pour espérance m et pour variance σ 2.. On répartit au hasard les

Exemple On lance deux pièces de monnaie et on perd 1$ si les deux sont pile, on gagne 1$ si les deux sont face et il ne ce passe rien si les deux sont différents.. Mesure

Définition. ) Proposition (un critère suffisant).. La convergence en moyenne implique la convergence en probabilité.. Preuve.. Loi faible des

On lance le dé en premier, puis la pièce de monnaie plusieurs fois de suite, le nombre de lancers de la pièce correspondant au résultat du dé (par exemple si le dé est tombé sur 4