Corrigé de l’interrogation n 2 Exercice [8points]
On dispose d’un échantillon (X1; X2; :::; XN) de taille N d’une variable suivant une loi Normale de paramètresmet 2 avec >0, de densité :
f(x;m; 2) = 1
p2 2 exp 1
2 2(x m)2
1- La fonction de vraisemblance associée à la loi Normale de paramètre m et 2est donc:
L(x1; x2; :::; xN;m; 2) = Yn i=1
f(x;m; 2) = YN i=1
p 1
2 2 exp 1
2 2(x m)2
= (2 2) N2 YN i=1
exp (xi m)2
2 2 = (2 2) N2 exp 1 2 2
XN i=1
(xi m)2
!
La log-vraisemblance d’un échantillon(x1; x2; :::; xn)est donc égale à :
lnL(x1; x2; :::; xN;m; 2) = lnh
(2 2) N2i + ln
"
exp 1
2 2 XN i=1
(xi m)2
!#
= N
2 ln 2 2 1 2 2
XN i=1
(xi m)2
= N
2 ln [2 ] N
2 ln 2 1 2 2
XN i=1
(xi m)2
2- En utilisant la condition du premier ordre portant sur m; déterminer l’estimateur du maximum de vraisemblancemb du paramètrem.
1.b. A…n de déterminer l’estimateur du maximum de vraisemblance mb du paramètre m, il faut maximiser la log-vraisemblance par rapport à la variable m à (x1; x2; :::; xN) donnés. La première étape consiste à résoudre l’équation correspondant à la condition du premier ordre :
@lnL
@m (x1; x2; :::; xN;m; 2) = 0
or @@mlnL(x1; x2; :::; xN;m; 2) = 212
PN i=1
( 2) (xi m) = 12
PN i=1
(xi m)donc :
@lnL
@m (x1; x2; :::; xN;m; 2) = 0() 12 PN i=1
(xi m) = 0^ () PN i=1
(xi m) = 0^ d’où
@lnL
@m (x1; x2; :::; xN;m; 2) = 0 () PN i=1
xi PN i=1
^
m = 0() PN i=1
xi =N m^ ()
^ m=N1
PN i=1
xi=x
La fonctionm!lnL(x1; x2; :::; xN;m; 2)atteint donc un extrémum (c’est- à-dire un maximum ou un minimum) au point m^ = N1
PN i=1
xi. Il s’agit bien d’un maximum car la fonctionm!lnL(x1; x2; :::; xN;m; 2)est concave. En e¤et, pour tout(x1; x2; :::; xN;m; 2);on a :
@2lnL
@m2 (x1; x2; :::; xN;m; 2) = N
2 <0
En particulier, la condition du second ordre@@m2ln2L(x1; x2; :::; xN;m; 2)<0est satisfaite.
Conclusion: L’estimateur du maximum de vraisemblance du paramètre m estm^ = n1
Pn i=1
Xi. 3- On poses= 2:
lnL(x1; x2; :::; xN;m; 2) = N
2 ln [2 ] N
2 ln 2 1 2 2
XN i=1
(xi m)2
= N
2 ln [2 ] N
2 ln [s] 1 2 s
XN i=1
(xi m)2
La condition du premier ordre surs: @@slnL(x1; x2; :::; xN;m; 2) = 0or
@lnL
@s (x1; x2; :::; xN;m; 2) = N 2
1 s+1
s2 1 2
XN i=1
(xi m)2= 1 2s
"
N +1 s
XN i=1
(xi m)2
#
donc : @ln@sL(x1; x2; :::; xN;m; 2) = 0 et pour m = ^m = x () N +
1 s
PN i=1
(xi x)2= 0() 1s
PN i=1
(xi x)2 =N d’où @@mlnL(x1; x2; :::; xN;m; 2) = 0
() PN i=1
(xi x)2=N ^s()s^ =
PN i=1
(xi x)2 N
La fonctions!lnL(x1; x2; :::; xN;m; 2)atteint donc un extrémum (c’est- à-dire un maximum ou un minimum) au point s^ =
PN i=1
(xi x)2
N . Il s’agit bien d’un maximum car, pour tout(x1; x2; :::; xN;m; 2);on a :
@2lnL
@s2 (x1; x2; :::; xN;m; 2) = N 2
1 s2
2 s s4
1 2
XN i=1
(xi m)2= N 2
1 s2
1 s3
XN i=1
(xi x)2
Pour s = ^s =
PN i=1
(xi x)2
N , @2@sln2L(x1; x2; :::; xN;m; 2) = N2 s^12 1
^
s3N s^ =
N 2
1
^ s2 <0
D’où, la condition du second ordre @2@sln2L(x1; x2; :::; xN;m; 2)<0 est sat- isfaite.
Conclusion: L’estimateur du maximum de vraisemblance du paramètre s ests^=
PN i=1
(xi x)2 N
4-E( ^m) = N1 PN i=1
E(Xi) =N mN =m(l’estimateurm^ est sans biais).
V( ^m) =V N1 PN i=1
Xi = N12V PN i=1
Xi or V PN i=1
Xi = PN i=1
V(Xi) car les Xi sont supposés indépendants, donc
V( ^m) = N12
PN i=1
V(Xi) = N12N 2= N2
L’expression de la quantité d’information de Fisher est : In(m) =E @ln lnL(X1; :::; XN ;m; 2)
@m
2!
= E @2ln lnL(X1; :::; XN ;m; 2)
@m2
D’après ce qui précède, on a :@@m2ln2L(x1; x2; :::; xN ;m; 2) = N2 donc E @2lnL(X1;:::;X@m2N ;m; 2) = N2 et In(m) = N2
L’estimateurm^ est un estimateur sans biais et sa variance véri…e V( ^m) =
1
In(p). Il s’agit donc d’un estimateur e¢ cace.
5***(Bonus 2 points) Etudier le biais de s:b Comment peut-on le modi…er pour qu’il devienne sans biais ?
E(^s) = E 2 4
PN i=1
(xi x)2 N
3
5 = N1 E PN i=1
(xi x)2 = N1 PN i=1
E (xi x)2 Or E (xi x)2 =V [(xi x)] + [E(xi x)]2
E(xi x) =E(xi) E(x) =m m= 0 V [(xi x)] =V(xi) 2Cov(xi; x) +V (x) Cov(xi; x) = Cov xi;N1
PN i=1
xi = N1Cov(xi; xi) + N1Cov xi; PN j6=i
xi
!
=
1
NCov(xi; xi) + 0 = N1V (xi) = N2
D’où,V [(xi x)] =V (xi) 2Cov(xi; x)+V (x) = 2 2N2+N2 = 2 N2 =
N 1
N 2 et donc E (xi x)2 = V [(xi x)] + [E(xi x)]2 = V [(xi x)]
E(^s) = N1 PN i=1
E (xi x)2 E(^s) = N1 PN i=1
N 1 N
2 = NN1 2 6= 2 donc l’estimateur des MVS ^s est biaisé. L’estimateur sans biais de 2 (s ) est
1 N 1
PN i=1
(xi x)2 soit NN1^s:
Problème [15points]:
1.Le modèle : yi= 1+ 2xi+"i i= 1; :::N peut s’écrire sous la forme :
y=X +"avecy= 2 66 66 4
y1 : yi
: yN
3 77 77 5,X=
2 66 66 4
1 x1 : : 1 xi
: : 1 xN
3 77 77
5, et = 1
2
"= 2 66 66 4
"1 :
"i
:
"N
3 77 77 5 2. L’estimation par la méthode des moindres carrés ordinaires se fait à partir de la minimisation de la somme des carrés des résidus
PN i=1
"2i = PN i=1
(yi 1
2xi)2:Les équations normales s’obtiennent à partir des conditions du premier ordre :
@ PN i=1
(yi 1 2xi)2
@ 2 = 0
@ PN i=1
(yi 1 2xi)2
@ 1 = 0
ces deux conditions étant véri…ées pour 2=c2 et 1=c1: Or
@ PN i=1
(yi 1 2xi)2
@ 2 = 2
PN i=1
xi(yi 1 2xi) = 2 PN i=1
xiyi 1xi 2ax2i =
2 PN i=1
xiyi 2 PN i=1
x2i 1 PN i=1
xi et
@ PN i=1
(yi 1 2xi)2
@ 1 = 2
PN i=1
(yi 1
2xi) = 2 PN i=1
yi 1N 2i PN i=1
xi donc les estimateurs c1 et c2 véri…ent les deux équations suivantes (dites équations normales) :
XN i=1
xiyi c2 XN
i=1
x2i c1 XN i=1
xi= 0 (1)
XN i=1
yi c2XN
i=1
xi c1N= 0 (2)
3.En divisant parN les deux membres de l’équation (2) on obtient l’expression dec1en fonction de c2:
c1=y c2x
et en remplaçantc1dans l’équation (1) par son expression, on obtient : XN
i=1
xiyi c2 XN i=1
x2i y c2x XN i=1
xi= 0
or PN i=1
xi=N xdonc XN i=1
xiyi c2 XN
i=1
x2i N xy+c2N x2= 0
d’où
c2XN
i=1
x2i c2N x2= XN
i=1
xiyi N xy
et par conséquent :
c2= PN i=1
xiyi N xy
PN i=1
x2i N x2
=Sxy
Sxx
4. ^ = (X0X) 1 X0y= (X0X) 1 [X0X +"] = (X0X) 1X0X +(X0X) 1X0"= + (X0X) 1X0"
c2=
PN i=1
xiyi N xy PN
i=1
x2i N x2
= 2+
PN i=1
xi"i N x"
Sxx
c1 = y c2x = y = 1+ 2x+" 2+S1
xx
PN i=1
xi"i N x" x = 1+
"
PN i=1
x2i x PN i=1
xi"i
Sxx
5. Les estimateurs des MCO c1 et c2 sont sans biais, linéaires par rap- port aux variables dépendantes yi et de variance minimale dans la classe des estimateurs linéaires sans biais. Cette dernière propriété porte sur l’e¢ cacité relative des estimateurs des MCO par rapport aux autres estimateurs linéaires sans biais (Théorème de Gauss-Markov). En aucun cas, ceci n’implique que les estimateursc1et c2 sont e¢ caces au sens où leur variance atteint la borne FDCR.
E b =E + (X0X) 1" =E( )+E (X0X) 1X0" = +(X0X) 1X0E(") orE(") = 0
E b =
2 4 E c1
E c2 3
5= = 1
2
6.1 L’estimateur c2 est une combinaison linéaire d’une variable aléatoire normale doncc2 suit une loi Normale.
E c2 = 2 et V c2 = S2
xx = 22 D’où c2 N 2; 22 : de même pour l’estimateurc1 N 1; 21 avec 21= N2
PN i=1
x2i Sxx
6.2 On a montré plus haut quec2 N 2; 22 , et donc c2 2
2 N(0;1)
PosonsU = c2 2
2 ,P( u U u) = 0:98 = 2F(u) 1oùFest la fonction de répartition de la loiN(0;1), d’où F(u) = 0:99. Sur la table statistique de N(0;1); u= 2:33
P( 2:33 U 2:33) =P 2:33 c2 2
2
2:33
!
= 0:98
donc :
P c2 2:33 2 2 c2+ 2:33 2 = 0:98
On obtient alors l’intervalle de con…ance pour 2 au seuil de 98% suivant : c2 2:33 2 2 c2+ 2:33 2
De la même manière l’intervalle de con…ance pour 1au seuil de98%suivant : c1 2:33 1 1 c1+ 2:33 1
6.3 Sachant, N = 5, P5 i=1
yi = 75, P5 i=1
xi = 55, P5 i=1
xiyi = 880, P5 i=1
x2i = 633 et
2= 0;25 y= N1
PN i=1
yi= 15 x=N1
PN i=1
xi= 11 Sxy=
PN i=1
xiyi N xy= 55 Sxx=
PN i=1
x2i N(x)2= 28 D’où c2= SSxy
xx =5528 = 1:96'2et c1=y c2x= 15 2 11 = 7
21= N2
PN i=1
x2i
Sxx = (1:6)2 et 22= S2
xx = (0:09)2
Pour ces valeurs, on obtient l’intervalle de con…ance pour 2au seuil de98%
suivant : [1:79; 2:21].
Ainsi que l’intervalle de con…ance pour 1au seuil de98%suivant : [ 9:47; 4:53]
7.1zi=yi xi = 1+ 2xi+"i xi= 1+ ( 2 1)xi+"i=a+b xi+vi
d’oùa= 1 ,b= 2 1etvi="i.
7-2 On considère le modèle : zi=a+b xi+vi
b
a = z bbx c2 = Sxz
Sxx 7-3Sxz =
PN i=1
xizi N xz= PN i=1
xi(yi xi) N x(y x) = PN i=1
xiyi x2i
N xy N x2 Sxz =
PN i=1
xiyi N xy PN i=1
x2i N x2i =Sxy Sxx
7-4
ba = z bbx= (y x) c2 1 x=y c2x=c1 bb = Sxz
Sxx
= Sxy Sxx
Sxx
=Sxy
Sxx
1 =c2 1