• Aucun résultat trouvé

théorème de Cochran

N/A
N/A
Protected

Academic year: 2022

Partager "théorème de Cochran"

Copied!
10
0
0

Texte intégral

(1)

Prérequis pour le cours de modèle linéaire : vecteurs Gaussiens, projections orthogonales,

théorème de Cochran

Master 1, EURIA Année 2020-2021

Le théorème de Cochran est fondamental en statistique lorsqu’on s’intéresse à des échantillons gaussiens. Il permet de caractériser la loi d’un projeté orthogonal d’un vecteur gaussien sous certaines conditions. Les premiers chapitres sont des rappels sur les vecteurs gaussiens, certaines lois associées ainsi que les projections orthogonales. Le théorème de Cochran puis son application à l’étude statistique des échantillons gaussiens sont ensuite abordés.

Les résultats encadrés sont les résultats les plus utiles pour le cours de modèle linéaire. Ils sont considérés comme acquis pour le cours.

1 Vecteurs gaussiens

On peut caractériser les vecteurs gaussiens de différentes manières : via la fonction caractéristique, via la propriété de stabilité par transformation linéaire ou via la densité.

Définition. On dit que le vecteur aléatoire X= (X1, ..., Xn) est gaussien si sa fonction caractéristique est donnée par

ϕX(t) =E[exp(i < t, X >)] =exp(i < µ, t >)exp(−1/2tΣt)

avecx= (x1, ..., xn),Σ∈Mn(R) une matrice symétrique positive etµ∈Rn. On noteraX ∼ N(µ,Σ).

Proposition. Un vecteur aléatoire est gaussien si, et seulement si, toute combinaison linéaire de ses composantes est une v.a. réelle gaussienne.

Proposition. X∼ N(µ,Σ)avecΣ∈Mn(R)une matrice symétrique définiepositive si et seulement si sa densité est donnée par

f(x1, ..., xn) = 1 (2π)n/2

det(Σ)exp(−1

2(x−µ)Σ1(x−µ)) Quelques cas particuliers

n=1. Posonsµ= (µ1)et Σ = (σ21). On obtient : f(x1) = 1

σ1

exp(−(x1−µ1)212 )

On retrouve donc la densité de la loi normale univariée de moyenneµ1 et varianceσ12.

(2)

n=2. Posonsµ= (µ1, µ2). On peut écrireΣsous la forme Σ =

( σ12 ρ1,2σ1σ2

ρ1,2σ1σ2 σ22 )

avecσ1>0 etσ2>0. On a alorsdet(Σ) =σ12σ22(1−ρ21,2)et Σest une matrice définie positive si et seulement si1,2|<1. De plus,

Σ1= 1 det(Σ)

( σ22 −ρ1,2σ1σ2

−ρ1,2σ1σ2 σ12 )

On obtient donc

f(x1, x2) = 1 2πσ1σ2

(1−ρ21,2) exp

(

1

2(1−ρ21,2)

[(x1−µ1

σ1 )2

1,2

(x1−µ1)(x2−µ2) σ1σ2 +

(x2−µ2

σ2

)2])

Les lignes de niveau def sont des ellipses.

Σ matrice diagonale. On suppose Σ =diag(σ12, ..., σ2n). La densité se récrit alors f(x1, ..., xn) =

n i=1

1 σi

exp(−(xi−µi)22i )

On en déduit que les variables aléatoiresX1, ..., Xn sont indépendantes et queXi∼ Ni, σi2)En particulier, on a

(X1, ..., Xn)iidN(µ, σ2)ssiX= (X1, ..., Xn)∼ N(µ1n, σ2In)

Cette remarque est importante pour la suite du cours : elle permet de faire le lien entre les vecteurs gaussiens et les échantillons gaussiens.

Proposition. SiX ∼ N(µ,Σ)alorsµ est l’espérance deX etΣsa matrice de variance :

E[X] = (E[X1], ..., E[Xn]) =µ

var(X) =E[XX]−E[X]E[X]=E[(X−E[X])(X−E[X])] = Σ

Proposition. Soit X ∼ NX,ΣX) et C Rp×n, une matrice telle que le produit Y =CX soit bien défini, alorsY ∼ NY,ΣY) avecµY =Y etΣY =XC

Démonstration. Utilisons les fonctions caractéristiques ϕY(t) = E[exp(i < t, Y >)]

= E[exp(i < t, CX >)]

= E[exp(i < Ct, X >)]

= ϕX(Ct)

= exp(i < µX, Ct >)exp(−1/2(Ct)ΣX(Ct))

= exp(i < µY, t >)exp(−1/2tΣYt) avecµY =Y etΣY =XC.

Corollaire. SoitX ∼ N(µ,Σ)avec Σ =





σ12 σ1,2 . . . σ1,n

σ1,2 σ22 . . . σ2,n

... ... . .. ... σ1,n . . . . . . σn2



 etµ= (µ1, ..., µn). Les lois

marginales sont des lois normales

Xi∼ Ni, σi2).

De plus, on a µ=E[X] etΣ =var(X).

(3)

Démonstration. — PrenonsC=ei avecei = (0, ...,0,1,0, ...,0)leime vecteur ligne de la base canonique. En utilisant la proposition précédente, on obtient queXi=CX ∼ Ni, σ2i).

— PrenonsC=ei+ej. En utilisant la proposition précédente, on obtient que Xi+Xj =CX ∼ Ni+µj, σ2i +σ2j+ 2σi,j). En particulier, on a

var(Xi+Xj) =σ2i +σ2j+ 2σi,j On en déduit queσi,j=cov(Xi, Xj)à l’aide de la formule

var(Xi+Xj) =var(Xi) +var(Xj) + 2cov(Xi, Xj) puis on conclut aisément.

Corollaire. Si X = (X1, ..., Xn) est un vecteur gaussien, alors les variables aléatoires Xi et Xj sont indépendantes si et seulement sicov(Xi, Xj) = 0.

Démonstration. X∼ N(µ,Σ)etC= ( ei

ej

)

. La proposition précédente implique que

CX= ( Xi

Xj )

∼ N (( µi

µj )

,

( σi2σi,j σi,j σ2j

))

Si on suppose queσi,j=cov(Xi, Xj) = 0, alors la densitéfX1,X2 du couple(X1, X2)s’écrit sous la forme fX1,X2(x1, x2) =fX1(x1)fX2(x2)

et les v.a.X1et X2 sont indépendantes.

Remarque. SiXi etXj sont des variables aléatoires indépendantes, alors on a toujours

cov(Xi, Xj) =E[XiXj]−E[Xi]E[Xj] = 0même siX n’est pas un vecteur gaussien. Par contre la réciproque est fausse en général. Un contre-exemple classique : prendreX1∼ N(0, σ2)etX2=SX1avec S une variable aléatoire indépendantes deX1 telle que P(S = 1) =P(S=1) = 12 . On montre que

— le vecteurX= (X1, X2) a des marges gaussiennes mais n’est pas un vecteur gaussien ;

cov(X1, X2) = 0maisX1 etX2 ne sont pas indépendantes

Corollaire. SiX = (X1, ..., Xn) est un vecteur gaussien, alors les assertions suivantes sont équivalentes :

(X1, ..., Xp)est indépendant de (Xp+1, ..., Xn)

cov(Xi, Xj) = 0 pour touti∈ {1, ..., p} etj ∈ {p+ 1, ..., n}

— La matrice de variance-covariance est de la forme var(X) =

( Σ1 0 0 Σ2

) avecΣ1=var((X1, ..., Xp))et Σ2=var((Xp+1, ..., Xn)).

Démonstration. SoitX ∼ N(µ,Σ)un vecteur gaussien.

— Si(X1, ..., Xp)est indépendant de(Xp+1, ..., Xn), alorsΣi,j=cov(Xi, Xj) = 0sii∈ {1, ..., p}et j∈ {p+ 1, ..., n}et on a bienvar(X)de la forme var(X) =

( Σ1 0 0 Σ2

)

— Supposons quevar(X) =

( Σ1 0 0 Σ2

)

Notons u= (x1, ..., xp),v= (xp+1, ..., xn),

µu= (µ1, ..., µp),µv = (µp+1, ..., µn). En utilisant la proposition précédente, on obtient que fX1,...,Xp(u) = 1

(2π)p/2

(det(Σ1))exp(−1

2(u−µu)Σ11(u−µu)) fXp+1,...,Xn(v) = 1

(2π)(np)/2

(det(Σ2))exp(−1

2(v−µv)Σ21(u−µv))

(4)

On vérifie ensuite aisément que

fX1,...,Xn(x1, ..., xn) =fX1,...,Xp(x1, ..., xp)fXp+1,...,Xn(xp+1, ..., xn)

ce qui implique que les vecteurs aléatoires(X1, ..., Xp)et(Xp+1, ..., Xn)sont indépendants.

Le corollaire ci-dessous est l’équivalent de la technique de centrage-réduction couramment utilisée pour la loi normale univariée : si X∼ N(0,1), alorsµ+σX ∼ N(µ, σ2). Cette transformation permet de ramener l’étude de la loi normaleN(µ, σ2)à celle de la loi normale centrée-réduiteN(0,1).

Corollaire. SoitX ∼ N(0, In),µ∈Rn etH ∈ Mn(R). AlorsY =µ+HX ∼ N(µ,Σ)avecΣ =HH. Démonstration. D’après la proposition précédente, on aHX ∼ N(0,Σ). Il reste à montrer que si Y ∼ N(0,Σ), alorsZ =Y +µ∼ N(µ,Σ). Or on a

ϕZ(t) = E[exp(i < t, Z >)]

= E[exp(i < t, Y +µ >)]

= exp(i < t, µ > E[exp(i < t, Y >)]

= exp(i < t, µ > ϕY(t)

= exp(i < µ, t >)exp(−1/2tΣt).

Remarque. Le corollaire précédent est en particulier utilisé pour simuler des vecteurs gaussiens puisqu’il permet de simuler n’importe quel vecteur gaussien à partir d’un échantillon i.i.d. de la loi normale.

2 Lois du χ

2

, de Student et de Fisher

Les lois duχ2, de Student et de Fisher sont très couramment utilisées en statistique, en particulier lorsque l’inférence statistique porte sur des échantillons gaussiens. Comme pour la loi normale univariée, il n’existe pas d’expressions analytiques simples pour les fonctions de répartition et des tables

statistiques ou des logiciels de statistique (R, SAS, Matlab, Excel,...) sont alors utilisés pour obtenir les quantiles (qui seront utilisés dans la suite pour réaliser des tests ou calculer des intervalles de confiance).

Définition. On appelle loi duχ2 à n degrès de liberté la loi deX=U12+U22+...+Un2 avec (U1, U2, ..., Un)iidN(0,1). On noteraX ∼χ2n et χn,α le quantile d’ordreαd’une loiχ2n. Proposition. SiX ∼χ2n alorsE[X] =netvar(X) = 2n.

Démonstration. exercice

Définition. On appelle loi de Student à ndegrés de liberté la loi de T =

n U

√X

avecU ∼ N(0,1) etX ∼χ2n une v.a. indépendante deU. On notera T ∼ T(n)et tn,α le quantile d’ordre αde la loiTn.

Proposition. SiT ∼ Tn , avecn >2, alorsE[T] = 0etvar(T) =nn2. Démonstration. Admis

(5)

Définition. On appelle loi de Fisher à petqdegrés de liberté la loi de F =

X p Y q

avecX ∼χ2p et Y ∼χ2q deux v.a. indépendantes. On noteraF ∼ Fp,q et fp,q,α le quantile d’ordreαde la loi Fp,q.

Proposition. fp,q,α= 1/fq,p,1α

Démonstration. SiF ∼ Fp,q alors1/F ∼ Fq,p.

3 Projections orthogonales

Définition. Dans la suite du cours, si E désigne un sous-espace vectoriel (s.e.v.) deRn, on notera πE

la projection orthogonale sur ce s.e.v. pour le produit scalaire euclidien noté < .|. >. La norme euclidienne sera notée ∥.∥.

On rappelle les caractérisations suivantes des projections orthogonales

y=πE(x)si et seulement siy∈E etx−y∈E

— Minimisation de la distance :πE(x)est l’unique élément deE tel que

∥x−πE(x)=infyE∥x−y∥

— Si(e1, ..., ep)est une base orthonormée deEalorsπE(x) =∑p

i=1< x|ei > ei

La proposition suivante donne la matrice de projection orthogonale sur un sous espace vectoriel

lorsqu’on en connaît une base (pas forcément orthonormée). Cette formule sera utilisée pour donner une formule générale pour les estimateurs de moindres carrés de la modèle de régression linéaire.

Proposition. Soit(x1, ..., xp)une base de E (on confond les vecteurs et leurs coordonnées dans la base canonique) etL la matrice définie par L= (x1|x2|...|xp) (Lest la matrice à n lignes et pcolonnes dont la ième colonne est le vecteurxi). Alors la matriceLLest symétrique définie positive etL(LL)1L est la matrice de l’application linéaireπE dans la base canonique.

Démonstration. — On vérifie aisément queLLest symétrique. Montrons qu’elle est définie positive. Soity= (y1, ..., yp). On a< y|(LL)y >=< Ly|Ly >=∥Ly∥20. De plus, si

< y|(LL)y >= 0alorsLy= 0et doncy= (0, ...,0)puisque (x1, ..., xp)est une base deE (et donc en particulier les vecteurs sont libres).

— Pour montrer queA=L(LL)1L est la matrice de la projection orthogonale surE, il suffit de montrer que, pour toutx∈Rn, on aAx∈E etx−Ax∈E. Par définition deA, on a

immédiatementAx∈E. Pour montrer quex−Ax∈E, il suffit de montrer que pour tout i∈ {1...p}, on a

< x−L(LL)1Lx/xi>= 0 ou, de manière équivalente

< L(LL)1Lx/xi>=< x/xi >

Or < L(LL)1Lx/xi>=< x/L(LL)1Lxi>. Il suffit ensuite de remarquer quexi=Lei, et on a donc< x/L(LL)1Lxi>=< x/L(LL)1LLei>=< x/Lei>=< x/xi>⋄

Corollaire. A est la matrice d’une projection orthogonale sur un s.e.v.E si et seulement si A2=A (matrice idempotente) et A =A (matrice symétrique). On a alorsdim(E) =tr(A) =rang(A).

Démonstration. Soit A une matrice d’une projection orthogonale sur un s.e.v.E et (x1, ..., xp)une base deE. D’après la proposition précédente, on a alors A=L(LL)1L et on en déduit queA2=Aet A=A.

Réciproquement, soitAune matrice symétrique et idempotente. NotonsE={x∈Rn|Ax=x} le sous espace propre associé à la valeur propre 1. Montrons que Aest la matrice de la projection orthogonale surE, c’est à dire qu’elle satisfait les deux propriétés ci-dessous :

(6)

∀x∈Rn,Ax∈E . C’est une conséquence directe deA2=A.

∀x∈Rn,x−Ax∈E. Soity∈E, montrons que< y|A(x−Ax)>= 0. On a Ay=y et donc

< y|x−Ax >=< Ay|x−Ax >=< y|A(x−Ax)>= 0.

Par définition,rang(A) =dim(Im(A)) =dim(E). De plus,Aest symétrique donc diagonalisable dans une base orthonormée :A=PDP avecDune matrice diagonale etPP =I.Dest aussi idempotente et les valeurs propres sont donc égales à 0ou1. On a donc bientr(D) =rang(D)puis

tr(A) =rang(A) =dim(Im(A)) =dim(E).⋄

4 Théorème de Cochran

Le théorème de Cochran ci-dessous est fondamental en statistique.

Théorème. SoitE etF deux espaces orthogonaux de Rn etX ∼ N(µ, σ2In). Alors 1. πE(X)et πF(X) sont des vecteurs gaussiens indépendants.

2. De plus πE(X)σ2πE(µ)2 ∝χ2dim(E).

Démonstration. 1.SoitA[resp.B] la matrice deπE [resp.πF] dans la base canonique. CommeE etF sont orthogonaux, on obtient que pour tout x, y∈Rn,< πE(x), πF(y)>=xABy= 0, et donc

AB= 0. Notons Y = ( AX

BX )

=CX avecC= ( A

B )

.Y est un vecteur gaussien dont la matrice de variance-covariance est donnée par

σ2CInC=σ2

( AA AB BA BB

)

=σ2

( A 0 0 B

) . On en déduit que AX=πE(X)etBX =πF(X)sont indépendants.

2. On peut se ramener au casµ= 0etσ= 1puisque

∥πE(X)−πE(µ)2

σ2 =

πE(X−µ σ )

2

et Xσµ ∼ N(0, In). Soit(u1, ..., up)une base orthonormée deE etL= (u1|u2|...|up). On a alors

πE(X) =

p i=1

< X, ui> ui

et

∥πE(X)2=∑

< X, ui>2.

Notons alorsY =LX de telle manière queYi =< X, ui>. On aY ∼ N(0, LL)avecLL=Ip, et donc Y1, ..., YpiidN(0,1). Par définition de la loi du χ2, on en déduit que∥πE(X)2=∥Y∥2∼χ2p

Corollaire. SoitX ∼ N(µ, σ2In). Si A est une matrice symétrique et idempotente de rangp, alors A est la matrice associée à une projection orthogonale sur un s.e.v. de dimension p. On a donc

AX2 σ2 ∼χ2p.

Remarque. On utilise généralement le théorème précédent avecF=E. On a alorsπE =id−πE. On a alors (Pythagore)

∥X∥2=∥πE(X)2+∥πE(X)2 avec chacun des termes qui suit une loi du χ2 siX ∼ N(0, In).

(7)

5 Tests et intervalles de confiance pour les échantillons gaussiens

Exemple introductif. Un client commande à son fournisseur un lot de 10000 thermomètres. Afin de tester la qualité des thermomètres, le client en choisit n= 20au hasard et les plonge dans un liquide à 20 degrés. Il obtient les résultats suivants :

20.2, 20.4, 20.1, 19.9, 19.7, 20, 20.5, 19.9, 19.9, 20.1, 20.4, 20.6, 20, 19.8, 20.3, 19.6, 19.8, 20.1, 20.3, 20 On note ces observations(x1, ..., xn)dans la suite.

1. La moyenne empiriquex¯=n1n

i=1xi= 20.08et et l’écart-type empirique s=

1 n

n

i=1(xi−x)¯ 2= 0.26de l’échantillon donnent une information sur qualité des

thermomètres. La construction d’intervalles de confianceavec ces quantités va permettre de quantifier l’incertitude liée au protocole expérimental (seulement20thermomètres sont testés : est-ce que c’est suffisant pour fournir une information précise sur les thermomètres ?).

2. Le fabricant prétend que ses thermomètres fournissent la bonne température en moyenne avec un écart-type de0.1o. Un test statistiqueva permettre de vérifier si cette affirmation est en accord avec les résultats de l’expérience.

Un cadre probabiliste classique en statistique pour répondre à ces questions est celui des échantillons gaussiens. On suppose alors que(x1, ..., xn)est une réalisation de variables aléatoires(X1, ..., Xn)qui sont iid et gaussiennes(X1, ..., Xn)iidN(µ, σ2). La proposition suivante est couramment utilisée pour faire des tests et des intervalles de confiance pour l’espérance et la variance d’échantillons gaussiens. On note X¯ = n1n

i=1Xi la moyenne empirique etS2= n1n i=1

(Xi−X¯)2

la variance empirique.

Proposition. Soit(X1, ..., Xn)iidN(µ, σ2). Alors 1. X¯ ∼ N(µ,σn2)

2. X¯ etS2 sont indépendantes 3. nSσ22 ∼χ2n1

4.

n−1X¯Sµ ∼ Tn1.

Démonstration. 1. Il suffit de remarquer queX¯ =CX avecC=n1(1, ...,1) et X = (X1, ..., Xn)iidN(µu, σ2In)avecu= (1, ...,1).

2. SoitE le sous espace engendré paru. La matrice du projecteurπE est donnée par

A=u(uu)1u= 1 n



1 . . . 1 ... . .. ... 1 . . . 1

.

DoncπE(X) = ( ¯X, ...,X)¯ . On en déduit que

πE(X) =X−πE(X) = (X1−X, ..., X¯ n−X)¯ .

D’après le théorème de Cochran,πE(X)et πE(X)sont indépendants, et doncX¯ est indépendant de S2=πE⊥(X)2

n .

3. Toujours d’après le théorème de Cochran, on a

∥πE(X)−πE(µu)2

σ2 ∝χ2dim(E)

avecπE(µu) = 0,∥πE(X)2=nS2, etdim(E) =n−dim(E) =n−1.

4. D’après 1., on aU =

nX¯σµ ∼ N(0,1). D’après 2. et 3.,nSσ22 ∼χ2n1 et est indépendant deU. On conclut en utilisant la définition de la loi de Student.

(8)

La proposition précédente permet de construire des intervalles de confiance pour l’espérance et la variance d’un échantillon gaussien de taille quelconque et de variance inconnue. Supposons que (X1, ..., Xn)iidN(µ, σ2).

— Intervalle de confiance pour l’espérance d’un échantillon gaussien.D’après la proposition précédente, on a

√n−1 X¯−µ

S ∼ Tn1. On en déduit que

P (

tn1,α/2≤√ n−1

X¯ −µ

S ≤tn1,1α/2

)

= 1−α puis que

P (

X¯+tn1,α/2 S

√n−1 ≤µ≤X¯ +tn1,1α/2 S

√n−1 )

= 1−α.

Finalement,

[X¯ +tn1,α/2nS1; ¯X+tn1,1α/2nS1

]

est un intervalle de confiance au niveau de confiance1−αpour µ.

— Intervalle de confiance pour la variance d’un échantillon gaussien.D’après la proposition précédente, on a

nS2

σ2 ∼χ2n1 On en déduit que

P (

χn1,α/2≤nS2

σ2 ≤χn1,1α/2 )

= 1−α puis que

P (

n S2

χn1,1α/2 ≤σ2≤n S2 χn1,α/2

)

= 1−α.

Finalement, [

nχ S2

n−1,1−α/2;nχ S2

n−1,α/2

]

est un intervalle de confiance au niveau de confiance1−α pour µ.

De la même manière, on peut faire des tests sur la moyenne et la variance des échantillons gaussiens.

— Test sur l’espérance d’un échantillon gaussien.On veut tester l’hypothèse simple H0:µ=µ0contre l’hypothèse alternativeH1:µ̸=µ0

On fixe ensuite un risque de première espèce α(risque de rejeter H0 alors queH0est vraie). On utilise la statistique de test

T =

n−1X¯ −µ0 S . Si H0 est vraie, alorsT ∼ Tn1et

PH0[tn1,α/2≤T ≤tn1,1α/2] = 1−α.

On adopte alors la règle de décisionsuivante :

— on accepte H0 siT =

n−1X¯Sµ0 [tn1,α/2, tn1,1α/2];

— on refuseH0sinon.

— Test sur la variance d’un échantillon gaussien.On veut tester l’hypothèse simple H0:σ=σ0contre l’hypothèse alternativeH1:σ̸=σ0

On utilise la statistique de test

X=nS2 σ20.

(9)

Si H0 est vraie, alorsX ∼χ2n1et PH0

(χn1,α/2≤X ≤χn1,1α/2

)= 1−α On adopte alors la règle de décisionsuivante :

— on accepte H0 siX=nSσ22

0 n1,α/2, χn1,1α/2];

— on refuseH0sinon.

6 Exercices

Exercice 6.1. 1. SoientX et Y deux v.a. indépendantes de même loiN(0,1)et(R,Θ) les coordonnées polaire associées au couple(X, Y). Montrer que les variables aléatoiresR etΘsont indépendantes et déterminer leurs lois respectives.

2. En déduire un algorithme permettant de simuler un n-échantillon du couple(X, Y).

L’implémenter avec R et tracer le nuage de point(xi, yi).

3. En déduire un algorithme permettant de simuler un n-échantillon de la loi N

(( 1 2

) ,

( 1 0.5 0.5 2

))

. L’implémenter avec R et tracer le nuage de point(xi, yi).

Exercice 6.2. Dans cet exercice,X,Y etZ sont trois variables aléatoires indépendantes qui suivent la loi N(0,1). Pour chaque question, on donnera le résultat théorique et on le vérifiera en utilisant R et des simulations.

1. Quelle est la loi deX2+Y2? 2. Quelle est la loi de√

2 Z X2+Y2? 3. Quelle est la loi de2X2Z+Y2 2?

4. Quelle est la loi deX+Y ? Quelle est la loi de (X+Y2 )2 +Z2? 5. Quelle est la loi de XY

(X+Y)2 2 +Z2

?

Exercice 6.3. Dans cet exercice,X = (X1, X2, X3, X4) désigné un vecteur Gaussien de moyenne (0,0,0,0) et de matrice de variance-covariance identité. On justifiera chaque réponse précisément.

1. Quelle est la loi de(X1−X2)2/2 + (X1+X2)2/2? 2. Quelle est la loi de (X(X1X2)2

1+X2)2?

3. Quel est le projeté orthogonalπE(X)deX sur l’espace vectoriel engendré par les vecteurs (1,1,0,0) et(0,0,1,1)?

4. Quelle est la loi de∥πE(X)2? Quelle est la loi de XπEπ(X)2

E(X)2 ?

Exercice 6.4. On considère dans cet exercice un échantillon(X1, ..., Xn)de variables aléatoires réelles indépendantes dans lequel Xi suit une loiN(pµ

i, σ2)avecµetσ des paramètres inconnus et (p1, ..., pn) des nombres réels positifs supposés connus. On cherche à construire des estimateurs de µetσ2.

1. On noteM = 1nn

i=1piXi. Montrer que M est un estimateur sans biais de µet calculer la variance de cet estimateur. Quelle est la loi de M?

2. On noteE le sous-espace vectoriel deRn engendré par le vecteur e= (1

p1, ...,p1

n

)

. Calculer πE(X)et πE(X).

3. On noteν le vecteur ν= (µ

p1, ...,pµ

n

)

. Calculer πE(ν).

4. Déduire des questions précédentes et du théorème de Cochran un estimateur sans biais deσ2 ainsi qu’une méthode permettant de construire un intervalle de confiance à95% pourσ2. On pourra utiliser que l’espérance d’une loi du χ2n est n. Comment s’écrit l’estimateur lorsque p1=...=pn = 1?

(10)

Exercice 6.5. On reprend l’exemple des thermomètres du cours.

1. Donner une fourchette d’estimation à95% pour la variance et l’écart-type de la température donnée par les thermomètres. On pourra utiliser la fonctionqchisq.

2. Réaliser le test de l’hypothèse

H0:σ= 0.1 =σ0 contre l’hypothèse alternative H1:σ̸=σ0

et donner la p-value du test.

3. Ecrire une fonctionR v.test=function(x,sig0,alp=.95) qui renvoie la p-value du test ainsi qu’un intervalle de confiance à 95% pour la variance.

Exercice 6.6. (exercice à réaliser avec R)

1. Soit(X1, ..., Xn)un échantillon iid d’une loi N(µ, σ2). Calculer les estimateurs du maximum de vraisemblance de µet σ. Quel est le biais de ces estimateurs ?

2. Simuler un échantillon iid de taillen= 100 d’une loiN(µ, σ2)avec µ= 1 etσ= 2. Donner une estimation deµ etσbasée sur l’échantillon simulé ainsi qu’un fourchette d’estimation à95% en utilisant les formules du cours. On pourra utiliser les fonctions qtetqchisq. Vérifier, en répétant la simulation un grand nombre de fois, que les vraies valeurs de µetσ sont bien dans la fourchette d’estimation avec une probabilité de 95%.

3. Simuler un échantillon iid de taillen= 100 d’une loiN(µ, σ2)avec µ= 1 etσ= 2. Réaliser un test de l’hypothèse H0:E[Xi] = 2basé sur l’échantillon simulé. On donnera le résultat sous la forme d’une p-value. Quelle est la décision pour un risque de première espèce de 5%? Vérifier, en répétant la simulation un grand nombre de fois, queH0 est bien acceptée avec une probabilité de95%.

Références

Documents relatifs

Ce théorème peut nous aider dans les rares cas où la méthode des moments en statistique ne peut pas être utilisée, par exemple avec des lois de Cauchy.. L’hypothèse de

Toute partie de bois dépassant le nu du mur comme les chevrons et les pannes en bas de

» Les seules exceptions où un équipement de travail non prévu pour le levage de personnes peut être utilisé pour l’accès en hauteur sont strictement encadrées :. - en

Ce fichier peut être ensuite exploité par un autre logiciel acceptant le format, ou réutilisé pour une autre application ORPHEE.. Définition de la partie commande

On calcule les distances entre couples de points à partir des variables centrées et réduites pour faire jouer le même rôle aux deux variables (en réalité on calcule

statistiques ou des logiciels de statistique (R, SAS, Matlab, Excel,...) sont alors utilisés pour obtenir les quantiles (qui seront utilisés dans la suite pour réaliser des tests

L'arbre est le lien entre le passé et l'avenir. La feuille Lieu habitation donne les tableaux de contingence obtenus en croisant les réponses des sujets d'une part

Modifier l’algorithme/programme pr´ec´edent pour que le calcul de la moyenne puisse prendre en compte des coefficients (`a demander avec chaque valeur de x).. En