• Aucun résultat trouvé

xn)est donc égale à : lnL(x1

N/A
N/A
Protected

Academic year: 2022

Partager "xn)est donc égale à : lnL(x1"

Copied!
6
0
0

Texte intégral

(1)

Corrigé de l’interrogation n 2 Exercice [8points]

On dispose d’un échantillon (X1; X2; :::; XN) de taille N d’une variable suivant une loi Normale de paramètresmet 2 avec >0, de densité :

f(x;m; 2) = 1

p2 2 exp 1

2 2(x m)2

1- La fonction de vraisemblance associée à la loi Normale de paramètre m et 2est donc:

L(x1; x2; :::; xN;m; 2) = Yn i=1

f(x;m; 2) = YN i=1

p 1

2 2 exp 1

2 2(x m)2

= (2 2) N2 YN i=1

exp (xi m)2

2 2 = (2 2) N2 exp 1 2 2

XN i=1

(xi m)2

!

La log-vraisemblance d’un échantillon(x1; x2; :::; xn)est donc égale à :

lnL(x1; x2; :::; xN;m; 2) = lnh

(2 2) N2i + ln

"

exp 1

2 2 XN i=1

(xi m)2

!#

= N

2 ln 2 2 1 2 2

XN i=1

(xi m)2

= N

2 ln [2 ] N

2 ln 2 1 2 2

XN i=1

(xi m)2

2- En utilisant la condition du premier ordre portant sur m; déterminer l’estimateur du maximum de vraisemblancemb du paramètrem.

1.b. A…n de déterminer l’estimateur du maximum de vraisemblance mb du paramètre m, il faut maximiser la log-vraisemblance par rapport à la variable m à (x1; x2; :::; xN) donnés. La première étape consiste à résoudre l’équation correspondant à la condition du premier ordre :

@lnL

@m (x1; x2; :::; xN;m; 2) = 0

or @@mlnL(x1; x2; :::; xN;m; 2) = 212

PN i=1

( 2) (xi m) = 12

PN i=1

(xi m)donc :

@lnL

@m (x1; x2; :::; xN;m; 2) = 0() 12 PN i=1

(xi m) = 0^ () PN i=1

(xi m) = 0^ d’où

@lnL

@m (x1; x2; :::; xN;m; 2) = 0 () PN i=1

xi PN i=1

^

m = 0() PN i=1

xi =N m^ ()

^ m=N1

PN i=1

xi=x

(2)

La fonctionm!lnL(x1; x2; :::; xN;m; 2)atteint donc un extrémum (c’est- à-dire un maximum ou un minimum) au point m^ = N1

PN i=1

xi. Il s’agit bien d’un maximum car la fonctionm!lnL(x1; x2; :::; xN;m; 2)est concave. En e¤et, pour tout(x1; x2; :::; xN;m; 2);on a :

@2lnL

@m2 (x1; x2; :::; xN;m; 2) = N

2 <0

En particulier, la condition du second ordre@@m2ln2L(x1; x2; :::; xN;m; 2)<0est satisfaite.

Conclusion: L’estimateur du maximum de vraisemblance du paramètre m estm^ = n1

Pn i=1

Xi. 3- On poses= 2:

lnL(x1; x2; :::; xN;m; 2) = N

2 ln [2 ] N

2 ln 2 1 2 2

XN i=1

(xi m)2

= N

2 ln [2 ] N

2 ln [s] 1 2 s

XN i=1

(xi m)2

La condition du premier ordre surs: @@slnL(x1; x2; :::; xN;m; 2) = 0or

@lnL

@s (x1; x2; :::; xN;m; 2) = N 2

1 s+1

s2 1 2

XN i=1

(xi m)2= 1 2s

"

N +1 s

XN i=1

(xi m)2

#

donc : @ln@sL(x1; x2; :::; xN;m; 2) = 0 et pour m = ^m = x () N +

1 s

PN i=1

(xi x)2= 0() 1s

PN i=1

(xi x)2 =N d’où @@mlnL(x1; x2; :::; xN;m; 2) = 0

() PN i=1

(xi x)2=N ^s()s^ =

PN i=1

(xi x)2 N

La fonctions!lnL(x1; x2; :::; xN;m; 2)atteint donc un extrémum (c’est- à-dire un maximum ou un minimum) au point s^ =

PN i=1

(xi x)2

N . Il s’agit bien d’un maximum car, pour tout(x1; x2; :::; xN;m; 2);on a :

@2lnL

@s2 (x1; x2; :::; xN;m; 2) = N 2

1 s2

2 s s4

1 2

XN i=1

(xi m)2= N 2

1 s2

1 s3

XN i=1

(xi x)2

Pour s = ^s =

PN i=1

(xi x)2

N , @2@sln2L(x1; x2; :::; xN;m; 2) = N2 s^12 1

^

s3N s^ =

N 2

1

^ s2 <0

(3)

D’où, la condition du second ordre @2@sln2L(x1; x2; :::; xN;m; 2)<0 est sat- isfaite.

Conclusion: L’estimateur du maximum de vraisemblance du paramètre s ests^=

PN i=1

(xi x)2 N

4-E( ^m) = N1 PN i=1

E(Xi) =N mN =m(l’estimateurm^ est sans biais).

V( ^m) =V N1 PN i=1

Xi = N12V PN i=1

Xi or V PN i=1

Xi = PN i=1

V(Xi) car les Xi sont supposés indépendants, donc

V( ^m) = N12

PN i=1

V(Xi) = N12N 2= N2

L’expression de la quantité d’information de Fisher est : In(m) =E @ln lnL(X1; :::; XN ;m; 2)

@m

2!

= E @2ln lnL(X1; :::; XN ;m; 2)

@m2

D’après ce qui précède, on a :@@m2ln2L(x1; x2; :::; xN ;m; 2) = N2 donc E @2lnL(X1;:::;X@m2N ;m; 2) = N2 et In(m) = N2

L’estimateurm^ est un estimateur sans biais et sa variance véri…e V( ^m) =

1

In(p). Il s’agit donc d’un estimateur e¢ cace.

5***(Bonus 2 points) Etudier le biais de s:b Comment peut-on le modi…er pour qu’il devienne sans biais ?

E(^s) = E 2 4

PN i=1

(xi x)2 N

3

5 = N1 E PN i=1

(xi x)2 = N1 PN i=1

E (xi x)2 Or E (xi x)2 =V [(xi x)] + [E(xi x)]2

E(xi x) =E(xi) E(x) =m m= 0 V [(xi x)] =V(xi) 2Cov(xi; x) +V (x) Cov(xi; x) = Cov xi;N1

PN i=1

xi = N1Cov(xi; xi) + N1Cov xi; PN j6=i

xi

!

=

1

NCov(xi; xi) + 0 = N1V (xi) = N2

D’où,V [(xi x)] =V (xi) 2Cov(xi; x)+V (x) = 2 2N2+N2 = 2 N2 =

N 1

N 2 et donc E (xi x)2 = V [(xi x)] + [E(xi x)]2 = V [(xi x)]

E(^s) = N1 PN i=1

E (xi x)2 E(^s) = N1 PN i=1

N 1 N

2 = NN1 2 6= 2 donc l’estimateur des MVS ^s est biaisé. L’estimateur sans biais de 2 (s ) est

1 N 1

PN i=1

(xi x)2 soit NN1^s:

Problème [15points]:

1.Le modèle : yi= 1+ 2xi+"i i= 1; :::N peut s’écrire sous la forme :

(4)

y=X +"avecy= 2 66 66 4

y1 : yi

: yN

3 77 77 5,X=

2 66 66 4

1 x1 : : 1 xi

: : 1 xN

3 77 77

5, et = 1

2

"= 2 66 66 4

"1 :

"i

:

"N

3 77 77 5 2. L’estimation par la méthode des moindres carrés ordinaires se fait à partir de la minimisation de la somme des carrés des résidus

PN i=1

"2i = PN i=1

(yi 1

2xi)2:Les équations normales s’obtiennent à partir des conditions du premier ordre :

@ PN i=1

(yi 1 2xi)2

@ 2 = 0

@ PN i=1

(yi 1 2xi)2

@ 1 = 0

ces deux conditions étant véri…ées pour 2=c2 et 1=c1: Or

@ PN i=1

(yi 1 2xi)2

@ 2 = 2

PN i=1

xi(yi 1 2xi) = 2 PN i=1

xiyi 1xi 2ax2i =

2 PN i=1

xiyi 2 PN i=1

x2i 1 PN i=1

xi et

@ PN i=1

(yi 1 2xi)2

@ 1 = 2

PN i=1

(yi 1

2xi) = 2 PN i=1

yi 1N 2i PN i=1

xi donc les estimateurs c1 et c2 véri…ent les deux équations suivantes (dites équations normales) :

XN i=1

xiyi c2 XN

i=1

x2i c1 XN i=1

xi= 0 (1)

XN i=1

yi c2XN

i=1

xi c1N= 0 (2)

3.En divisant parN les deux membres de l’équation (2) on obtient l’expression dec1en fonction de c2:

c1=y c2x

et en remplaçantc1dans l’équation (1) par son expression, on obtient : XN

i=1

xiyi c2 XN i=1

x2i y c2x XN i=1

xi= 0

or PN i=1

xi=N xdonc XN i=1

xiyi c2 XN

i=1

x2i N xy+c2N x2= 0

(5)

d’où

c2XN

i=1

x2i c2N x2= XN

i=1

xiyi N xy

et par conséquent :

c2= PN i=1

xiyi N xy

PN i=1

x2i N x2

=Sxy

Sxx

4. ^ = (X0X) 1 X0y= (X0X) 1 [X0X +"] = (X0X) 1X0X +(X0X) 1X0"= + (X0X) 1X0"

c2=

PN i=1

xiyi N xy PN

i=1

x2i N x2

= 2+

PN i=1

xi"i N x"

Sxx

c1 = y c2x = y = 1+ 2x+" 2+S1

xx

PN i=1

xi"i N x" x = 1+

"

PN i=1

x2i x PN i=1

xi"i

Sxx

5. Les estimateurs des MCO c1 et c2 sont sans biais, linéaires par rap- port aux variables dépendantes yi et de variance minimale dans la classe des estimateurs linéaires sans biais. Cette dernière propriété porte sur l’e¢ cacité relative des estimateurs des MCO par rapport aux autres estimateurs linéaires sans biais (Théorème de Gauss-Markov). En aucun cas, ceci n’implique que les estimateursc1et c2 sont e¢ caces au sens où leur variance atteint la borne FDCR.

E b =E + (X0X) 1" =E( )+E (X0X) 1X0" = +(X0X) 1X0E(") orE(") = 0

E b =

2 4 E c1

E c2 3

5= = 1

2

6.1 L’estimateur c2 est une combinaison linéaire d’une variable aléatoire normale doncc2 suit une loi Normale.

E c2 = 2 et V c2 = S2

xx = 22 D’où c2 N 2; 22 : de même pour l’estimateurc1 N 1; 21 avec 21= N2

PN i=1

x2i Sxx

6.2 On a montré plus haut quec2 N 2; 22 , et donc c2 2

2 N(0;1)

PosonsU = c2 2

2 ,P( u U u) = 0:98 = 2F(u) 1oùFest la fonction de répartition de la loiN(0;1), d’où F(u) = 0:99. Sur la table statistique de N(0;1); u= 2:33

P( 2:33 U 2:33) =P 2:33 c2 2

2

2:33

!

= 0:98

(6)

donc :

P c2 2:33 2 2 c2+ 2:33 2 = 0:98

On obtient alors l’intervalle de con…ance pour 2 au seuil de 98% suivant : c2 2:33 2 2 c2+ 2:33 2

De la même manière l’intervalle de con…ance pour 1au seuil de98%suivant : c1 2:33 1 1 c1+ 2:33 1

6.3 Sachant, N = 5, P5 i=1

yi = 75, P5 i=1

xi = 55, P5 i=1

xiyi = 880, P5 i=1

x2i = 633 et

2= 0;25 y= N1

PN i=1

yi= 15 x=N1

PN i=1

xi= 11 Sxy=

PN i=1

xiyi N xy= 55 Sxx=

PN i=1

x2i N(x)2= 28 D’où c2= SSxy

xx =5528 = 1:96'2et c1=y c2x= 15 2 11 = 7

21= N2

PN i=1

x2i

Sxx = (1:6)2 et 22= S2

xx = (0:09)2

Pour ces valeurs, on obtient l’intervalle de con…ance pour 2au seuil de98%

suivant : [1:79; 2:21].

Ainsi que l’intervalle de con…ance pour 1au seuil de98%suivant : [ 9:47; 4:53]

7.1zi=yi xi = 1+ 2xi+"i xi= 1+ ( 2 1)xi+"i=a+b xi+vi

d’oùa= 1 ,b= 2 1etvi="i.

7-2 On considère le modèle : zi=a+b xi+vi

b

a = z bbx c2 = Sxz

Sxx 7-3Sxz =

PN i=1

xizi N xz= PN i=1

xi(yi xi) N x(y x) = PN i=1

xiyi x2i

N xy N x2 Sxz =

PN i=1

xiyi N xy PN i=1

x2i N x2i =Sxy Sxx

7-4

ba = z bbx= (y x) c2 1 x=y c2x=c1 bb = Sxz

Sxx

= Sxy Sxx

Sxx

=Sxy

Sxx

1 =c2 1

Références

Documents relatifs

Dans cet article, nous d´erivons de nouvelles propri´et´es asymptotiques pour l’EVD des M -estimateurs pour des donn´ees ayant une distribution complexe elliptique sym´etrique

The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.. L’archive ouverte pluridisciplinaire HAL, est

L’estimateur retenu pour estimer la variance de la population sera celui qui à chaque échantillon associe la somme des carrés des écarts à la moyenne divisée par n-1.. ENFA

Sous l'hypothèse de bruits de mesure statistiquement indépendants, écrire un programme Matlab qui met en œuvre le filtre de Kalman pour estimer l'état x(k) du système

Comme les estimateurs sont des estimateurs linéaires des Y t [les Y t dépendent des ε t qui sont aléatoires et obéissent à des lois normales], alors les

Au moyen d’une large expérimentation Monte Carlo, nous étudions le biais, la précision et l’efficacité de capture de quatre estimateurs de capacité : MV, BME, EAP,

Lorsque la variance de la variable échantillonnée est finie et que la taille de l’échantillon est grande, la distribution d’échantillonnage de la moyenne empirique est semblable

Exercice 1 : On souhaite construire un intervalle de confiance de la différence de fréquence d’avoir les yeux verts dans deux populations d’un pays donné1. Dans les populations du