ECO 4272: Introduction `a l’´econom´etrie Examen intra: R´eponses
Steve Ambler
D´epartement des sciences ´economiques Ecole des sciences de la gestion ´ Universit´e du Qu´ebec Montr´eal
c 2013, Steve Ambler Hiver 2013
1 Variance d’une combinaison lin´eaire de variables al´eatoires (15 points)
Nous avons
Var((a0+a1X) + (b0+b1Y))≡
k
X
i=1 n
X
j=1
((a0+a1Xi) + (b0+b1Yj)−E[(a0+a1X) + (b0+b1Y)])2hij
=
k
X
i=1 n
X
j=1
(a0+a1Xi+b0+b1Yj−a1−a1EX−b0−b1EY)2hij (Il fallait, tel que sp´ecifi´e dans l’´enonc´e de la question, partir de la d´efinition donn´ee ci-dessus.)
=
k
X
i=1 n
X
j=1
(a1(Xi−EX) +b1(Yj −EY))2hij
=
k
X
i=1 n
X
j=1
a12(Xi−EX)2 +b12(Yj−EY)2+ 2a1b1(Xi−EX) (Yj−EY) hij
=
k
X
i=1 n
X
j=1
a1(Xi−EX)2hij +
k
X
i=1 n
X
j=1
b12(Yj −EY)2hij
+
k
X
i=1 n
X
j=1
2a1b1(Xi−EX) (Y −EYj)hij
=ai2
k
X
i=1 n
X
j=1
(Xi−EX)2hij+b12
n
X
j=1 k
X
i=1
(Yj−EY)2hij
+2a1b1 k
X
i=1 n
X
j=1
(Xi−EX) (Yj−EY)hij
(Ici, j’ai fait deux petites transformations. Les constantes ne d´ependent ni deini dej, et donc on peut les ´ecrire devant les sommations. Ensuite, j’ai invers´e l’ordre des deux sommations dans le deuxi`eme terme en pr´evision de la prochaine ´etape.)
=ai2
k
X
i=1
(Xi−EX)2
n
X
j=1
hij+b12
n
X
j=1
(Yj−EY)2
k
X
i=1
hij
+2a1b1
k
X
i=1 n
X
j=1
(Xi−EX) (Yj−EY)hij
(Ici, j’ai ´ecrit le terme (Xi−EX)2, qui ne d´epend pas de j, devant la deuxi`eme sommation du premier terme et (Yj −EY)2 devant la deuxi`eme sommation du deuxi`eme terme.)
=ai2
k
X
i=1
(Xi−EX)2hi+b12
n
X
j=1
(Yj−EY)2hj
+2a1b1
k
X
i=1 n
X
j=1
(Xi−EX) (Y −EYj)hij (Ici, je remplace Pn
j=1hij parhi dans le premier terme et Pk
i=1hij par hj dans le deuxi`eme terme. Cette ´etape est cruciale. On retrouve de cette fac¸on les proba- bilit´es marginales `a partir des probabilit´es jointes.)
≡a12Var(X) +b12Var(Y) + 2a1b1Cov(X, Y), ce qui fut `a montrer.
2 Distributions de probabilit´e jointes (20 points)
Voici encore les donn´ees :
Pr(X = 2, Y = 5): 1/8 Pr(X = 2, Y = 6): 1/16 Pr(X = 2, Y = 7): 1/16 Pr(X = 3, Y = 5): 1/4 Pr(X = 3, Y = 6): 1/8 Pr(X = 3, Y = 7): — Pr(X = 4, Y = 5): 1/16 Pr(X = 4, Y = 6): 1/32 Pr(X = 4, Y = 7): 1/32 Pr(X = 5, Y = 5): 1/16 Pr(X = 5, Y = 6): 1/32 Pr(X = 5, Y = 7): 1/32
1. La somme de toutes les valeurs doit ˆetre ´egale `a 1. Donc, nous avons Pr(X = 3, Y = 7) = 1−4 + 2 + 2 + 8 + 4 + 2 + 1 + 1 + 2 + 1 + 1
32 = 4
32 = 1 8. 2. Le tableau est donn´e par
X\Y Y=5 Y=6 Y=7 Pr(X)
X=2 1/8 1/16 1/16 1/4
X=3 1/4 1/8 1/8 1/2
X=4 1/16 1/32 1/32 1/8 X=5 1/16 1/32 1/32 1/8 Pr(Y) 1/2 1/4 1/4 1 3. Nous avons
Pr(X = 3|Y = 7)
= Pr(X = 3, Y = 7) Pr(Y = 7)
= 1/8
1/4 = 1/2.
4. Nous avons
Pr(Y = 5|X = 2)
= Pr(X = 2, Y = 5) Pr(X = 2)
= 1/8
1/4 = 1/2.
5. Nous avons
E(X|Y = 5).
= 2×Pr(X = 2|Y = 5)+3×Pr(X = 3|Y = 5)+4×Pr(X = 4|Y = 5)+5×Pr(X = 5|Y = 5)
= 2× Pr(X = 2, Y = 5)
Pr(Y = 5) + 3×Pr(X = 3, Y = 5) Pr(Y = 5) +4× Pr(X = 4, Y = 5)
Pr(Y = 5) + 5× Pr(X= 5, Y = 5) Pr(Y = 5)
= 2× 1/8
1/2+ 3×1/4
1/2+ 4×1/16
1/2 + 5× 1/16 1/2
= 2×1/4 + 3×1/2 + 4×1/8 + 5×1/8 = 25/8.
6. Nous avons
E(Y|X = 4).
5×Pr(Y = 5|X = 4) + 6×Pr(Y = 6|X = 4) + 7×Pr(Y = 7|X = 4) 5×Pr(Y = 5, X = 4)
Pr(X = 4) + 6×Pr(Y = 6, X = 4)
Pr(X = 4) + 7×Pr(Y = 7, X = 4) Pr(X = 4)
= 5× 1/16
1/8 + 6× 1/32
1/8 + 7× 1/32 1/8
= 5×1/2 + 6×1/4 + 7×1/4 = 23/4.
7. Nous avons
EX = 2×Pr(X = 2) + 3×Pr(X = 3) + 4×Pr(X = 4) + 5×Pr(X = 5)
= 2×1/4 + 3×1/2 + 4×1/8 + 5×1/8 = 25/8.
8. Nous avons
EY = 5×Pr(Y = 5) + 6×Pr(Y = 6) + 7×Pr(Y = 7)
= 5×1/2 + 6×1/4 + 7×1/4 = 23/4.
9. Oui. On peut v´erifier que pour chaqueiet chaquej,
Pr(X =Xi, Y =Yj) = Pr(X =Xi)Pr(Y =Yj).
3 Tests d’hypoth`ese (20 points)
1. Comme d’habitude, on ´ecrit la statistique normalis´ee comme la valeur cal- sul´ee de notre estim´e moins sa valeur sous l’hypoth`ese nulle, divis´e par son
´ecart type. Dans ce cas, nous avons
tact = s2Y −s2Y0 qσs22
Y
2. L’´enonc´e de la question dit que l’estim´e est non biais´e. Donc nous avons
E(tact) =E
s2Y −s2Y0 qσs22
Y
= 1
qσs22 Y
E s2Y
−s2Y0
= 0
si l’hypoth`ese nulle est vraie. Nous avons aussi
Var
s2Y −s2Y0 qσs22
Y
= 1 σ2s2
Y
Var s2Y
= σ2s2
Y
σ2s2 Y
= 1.
Notez que pour calculer l’esp´erance et la variance de la statistique, il ne faut pas invoquer la convergence en distribution de la statistique. J’ai cal- cul´e l’´esp´erance en utilisant seulement l’hypoth`ese de l’absence de biais de l’estimateur. J’ai calcul´e la variance en appliquant les r`egles de base pour le calcule de variances que nous avons vues au d´ebut du cours. En fait, le calcul de l’esp´erance et de la variance est une ´etape pr´eliminaire afin de d´emontrer la convergence en distribution de l’estimateur.
3. L’´enonc´e de la question ne sp´ecifie rien concernant la loi qui g´en`ereY. Il faut supposer que l’´echantillon est suffisamment grand pour invoquer une version du th´eor`eme de la limite centrale. Si c’est le cas, la statistique nor- malis´ee suit approximativement une loi normale centr´ee r´eduite.
4. Pour une hypoth`ese alternative bilat´erale, lap-value est donn´ee par p= 2Φ (−|tact|).
5. Il faut utiliser le truc habituel de remplacer la valeur non observ´ee de la population par un estim´e convergent. Appelon cet estimeσˆ2s2
Y. La statistique normalis´ee devient
tact= s2Y −s2Y0 qσˆ2s2
Y
.
Notez queσˆs22 Y
est un estimateur de la variance de s2Y, qui lui-mˆeme est un estimateur d’une variance (la variance de la variable al´eatoireY).
6. L’esp´erance est toujours z´ero. La variance est toujours unitaire. Si l’´echantillon est assez grand, on peut traiter notre estim´e convergentσˆs22
Y
approximative- ment comme une constante lorsqu’on calcule l’esp´erance et la variance.
4 R´egression simple, tests d’hypoth`ese et intervalles de confiance (45 points)
Voici encore l’output du mod`ele.
Coefficient Estim´e Ecart type´
β0 15.13 10.38
β1 0.33 0.18
On a aussi
n 310
SSR 543.4 T SS 789.1 1. Nous savons queT SS =ESS+SSR. Donc
ESS =T SS−SSR= 789.1−543.4 = 245.7.
2. Nous avons
R2 = ESS
T SS = 1− SSR
T SS = 543.4 789.1.
3. Nous savons que dans le mod`ele de r´egression simple, R2 = (Corr(X, Y))2
⇒Corr(X, Y) = √ R2.
Nous prenons la racine carr´ee positive puisque le coefficient estim´e est posi- tif.
4. Nous avons par d´efinition sˆu =
q s2ˆu =
rSSR n−2 =
r543.4 308 .
5. Comme d’habitude, nous ´ecrivons la valeur calcul´ee de la statistique moins sa valeur sous H0, le tout divis´e par l’´ecart type de la statistique. L’hy- poth`ese nulle qui est test´ee dans ce cas estH0 :β1 = 0. Donc, nous avons
tact=
βˆ1 −0 sβˆ
1
= 0.33−0 0.18 .
Pour un test de significativit´e, l’hypoth`ese alternative est bilat´erale : H1 :β1 6= 0.
6. Puisque l’hypoth`ese alternative est bilat´erale, une grande valeur positiveo `u une grande valeur n´egative constitue de l’´evidence contreH0. Nous avons
p= 2Φ (−|tact) = 2Φ
−0.33 0.18
.
Puisque la fonction Φ(·)est la normale centr´ee r´eduite cumul´ee, nous sup- posons que la statistique calcul´ee est g´en´er´ee au moins approximativement par une loi normale centr´ee r´eduite.
7. Je vous donne Φ (−1.96) ≈ 0.025 dans l’´enonc´e de la sous-question 10.
(Mais mˆeme sans cela une r´eponse qualitative aurait ´et´e acceptable). La valeur absolue de la statistique est inf´erieure `a 1.96 (C’est quelque part entre 1.8 et 1.9). Donc, on ne rejette pas `a 5%.
8. Maintenant, on a
tact =
βˆ1−0.5 sβˆ
1
.
9. Puisque H1 est unilat´erale est nous dit H1 : β1 < 0.5, seulement des valeurs largement n´egatives de la statisque normalis´ee constituenet de l’´evidence contreH0. Nous avons
p= Φ (tact) = Φ
0.33−0.5 0.18
. 10. Nous avons
0.95 =Pr(−1.96< z < 1.96)
o`uzest une variable normale centr´ee r´eduite. Donc nous avons 0.95 =Pr −1.96<
βˆ0 −β0 σβˆ0
<1.96
!
=Pr
−1.96σβˆ0 <βˆ0−β0 <1.96σβˆ0
=Pr
−1.96σβˆ0 < β0−βˆ0 <1.96σβˆ0
=Pr
βˆ0−1.96σβˆ
0 < β0 <βˆ0+ 1.96σβˆ
0
.
Nous pouvons donc ´ecrire l’intervalle de confiance pourβ0comme βˆ0 ±1.96ˆσβˆ0
= 15.13±1.96×10.38, o`u j’ai remplac´e l’´ecart type deσβˆ
0par l’estim´e convergent calcul´e lorsqu’on estime le mod`ele par MCO.
11. Nous avons
0.99 =Pr(−2.58< z < 2.58)
o`uzest une variable normale centr´ee r´eduite. Donc nous avons 0.99 =Pr −2.58<
βˆ1 −β1
σβˆ1
<2.58
!
=Pr
−2.58σβˆ1 <βˆ1−β1 <2.58σβˆ1
=Pr
−2.58σβˆ
1 < β1−βˆ1 <2.58σβˆ
1
=Pr
βˆ1−2.58σβˆ1 < β1 <βˆ1+ 2.58σβˆ1
.
Nous pouvons donc ´ecrire l’intervalle de confiance pourβ1comme βˆ1 ±2.58ˆσβˆ
1
= 0.33±2.58×0.18,
o`u j’ai remplac´e l’´ecart type deσβˆ1par l’estim´e convergent calcul´e lorsqu’on estime le mod`ele par MCO.
5 Efficience (20 points en bonus)
1. Pour trouver la restriction pour que l’estimateur soit non biais´e, substituons (tel que sugg´er´e dans l’´enonc´e)Yidans la d´efinition deβ, et (apr`es quelques˜ simplifications) calculons son esp´erance :
β˜=
n
X
i=1
aiYi
=
n
X
i=1
ai(βXi+ui)
=β
n
X
i=1
aiXi+
n
X
i=1
aiui
⇒E
β|X˜ 1. . . Xn
=β
n
X
i=1
aiXi+E
n
X
i=1
aiui|X1. . . Xn
!
=β
n
X
i=1
aiXi+
n
X
i=1
aiE(ui|X1. . . Xn)
=β
n
X
i=1
aiXi.
Pour que cette ´egalit´e tienne pour n’importe quelle valeur deβ, il faut que
n
X
i=1
aiXi = 1.
2. Sachant quePn
i=1aiXi = 1, nous avons β˜=β+
n
X
i=1
aiui
⇒Var
β|X˜ 1. . . Xn
=Var β+
n
X
i=1
aiui|X1. . . Xn
!
=Var
n
X
i=1
aiui|X1. . . Xn
!
=
n
X
i=1
Var(aiui|X1. . . Xn)
=
n
X
i=1
ai2Var(ui|X1. . . Xn)
=σ2u
n
X
i=1
ai2.
Notez qu’il est beaucoup plus facile de calculer cette variance si on utilise le r´esultat calcul´e dans la sous-question pr´ec´edente, quePn
i=1aiXi = 1.
3. Nous avons
β¯≡ Pn
i=1Yi Pn
i=1Xi.
=
n
X
i=1
1 Pn
i=1XiYi =
n
X
i=1
¯ aiYi, o`u¯ai ≡ Pn1
i=1Xi, et
βˆ≡ Pn
i=1XiYi Pn
i=1Xi2
=
n
X
i=1
Xi Pn
i=1Xi2Yi =
n
X
i=1
ˆ aiYi, o`uˆai ≡ PnXi
i=1Xi2. Nous venons de montrer que les estimateurs sont lin´eaires dans lesYi.
4. Pour montrer l’absence de biais, il faut montrer que, dans le cas deβ,¯
n
X
i=1
¯
aiXi = 1
⇔
n
X
i=1
1 Pn
i=1XiXi = 1
⇔ 1 Pn
i=1Xi n
X
i=1
Xi = 1,
ce qui est le cas, et dans le cas deβˆque
n
X
i=1
ˆ
aiXi = 1
⇔
n
X
i=1
Xi Pn
i=1Xi2Xi = 1
⇔ 1
Pn i=1Xi2
n
X
i=1
Xi2 = 1, ce qui est le cas.
Il est beaucoup plus facile de montrer l’absence de biais si on utilise le r´esultat de la premi`ere sous-question, que Pn
i=1aiXi = 1. On peut aussi le d´emontrer directement `a partir des d´efinitions des deux estimateurs, mais c’est plus long.
5. Nous avons
Var β|X¯ 1. . . Xn
=σu2
n
X
i=1
¯ a2i =σu2
n
X
i=1
1 P
i=1Xi 2
=σ2u 1 (P
i=1Xi)2
n
X
i=1
1
=σu2 n (P
i=1Xi)2 pourβ¯et, pourβ,ˆ
Var
β|Xˆ 1. . . Xn
=σ2u
n
X
i=1
Xi P
i=1Xi2 2
=σu2 1 P
i=1Xi22 n
X
i=1
Xi2
=σ2u 1 P
i=1Xi2. Je vous ai donn´e dans l’´enonc´e que nPn
i=1Xi2 ≥ (Pn
i=1Xi)2, et donc il s’ensuit imm´ediatement que
Var β|X¯ 1. . . Xn
≥Var
β|Xˆ 1. . . Xn .
Ceci n’est pas du tout surprenant, puisqueβˆest en fait l’estimateur MCO de β, et les hypoth`eses donn´ees dans l’´enonc´e de la question sont suffisantes pour que le th´eor`eme Gauss-Markov tienne.
cr´e´e le : 07/03/2013