ECO 4272: Introduction `a l’´econom´etrie Examen intra: Solutions
Steve Ambler
D´epartement des sciences ´economiques Ecole des sciences de la gestion ´ Universit´e du Qu´ebec Montr´eal
c 2014, Steve Ambler Automne 2014
1 Moments de variables al´eatoires (10 points)
Il faut commencer avec la d´efinition de la covariance entre les deux variables al´eatoires discr`etesX etY. Supposonskr´ealisations distinctes possibles pourX etlr´ealisations distinctes possibles pourY. Nous avons
Cov(X, Y)≡
k
X
i=1 l
X
j=1
(Xi−E(X)) (Yi−E(Y))Pr(X =Xi, Y =Yj). Comme tout moment (dans la population), on additionne toutes les r´ealisations distinctes pond´er´ees par leurs probabilit´es. `A partir de la d´efinition, on simplifie.
Nous avons
Cov(X, Y) =
k
X
i=1 l
X
j=1
XiYjPr(X =Xi, Y =Yj)
−
k
X
i=1 l
X
j=1
XiE(Y)Pr(X =Xi, Y =Yj)
−
k
X
i=1 l
X
j=1
YjE(X)Pr(X =Xi, Y =Yj)
+
k
X
i=1 l
X
j=1
E(X)E(X)
=
k
X
i=1 l
X
j=1
XiYjPr(X =Xi, Y =Yj)
−
k
X
i=1
Xi l
X
j=1
E(Y)Pr(X =Xi, Y =Yj)
−
l
X
j=1
Yj
k
X
i=1
E(X)Pr(X =Xi, Y =Yj)
+E(X)E(Y)
k
X
i=1 l
X
j=1
1
=E(XY)
−E(Y)
k
X
i=1
Xi
l
X
j=1
Pr(X =Xi, Y =Yj)
−E(X)
l
X
j=1
Yj
k
X
i=1
Pr(X =Xi, Y =Yj) +E(X)E(Y)
=E(XY)
−E(Y)
k
X
i=1
XiPr(X=Xi)−E(X)
l
X
j=1
YjPr(Y =Yj) +E(X)E(Y)
=E(XY)−E(Y)E(X)−E(X)E(Y) +E(X)E(Y)
=E(XY)−E(X)E(Y),
ce qui fut `a d´emontrer. C’est un exercice pour tester vos capacit´es de manipuler les sommations et aussi pour tester si vous maˆıtrisez comment aller de probabilit´es jointes aux probabilit´es marginales. J’ai utilis´e les relations
k
X
i=1
Pr(X =Xi, Y =Yj) = Pr(Y =Yj) et
l
X
j=1
Pr(X =Xi, Y =Yj) =Pr(X =Xi)
2 Distributions de probabilit´e jointes (20 points)
Nous avons
Pr(X = 1) = 1/3, Pr(X = 2) = 1/3, Pr(X = 3) = 1/3.
Si nous avonsX = 1, nous faisons pile ou face une fois, et nous pouvons obtenir soit z´ero soit une pile. Nous avons
Pr(Y = 0|X = 1) = 1/2, Pr(Y = 1|X = 1) = 1/2.
Si nous avonsX = 2, nous faisons pile ou face deux fois, et nous pouvons obtenir z´ero, une ou deux piles. Nous avons
Pr(Y = 0|X= 2) = 1/4, Pr(Y = 1|X = 2) = 1/2, Pr(Y = 2|X = 2) = 1/4.
Pour calculer ces probabilit´es conditionnelles, il fallait seulement compter le nombre de r´ealisations distinctes (sur quatre r´ealisations distinctes possibles) qui donne soit z´ero, soit une, soit deux piles. Si nous avonsX = 3, nous faisons pile ou face trois fois, et nous pouvons obtenir z´ero, une, deux ou trois piles. Nous avons
Pr(Y = 0|X = 3) = 1/8, Pr(Y = 1|X = 3) = 3/8, Pr(Y = 2|X = 3) = 3/8, Pr(Y = 3|X = 3) = 1/8.
Maintenant, pour calculer les probabilit´es jointes nous utilisons Pr(X =Xi, Y =Yj) = Pr(X =Xi|Y =Yj)Pr(Y =Yj) et
Pr(X =Xi, Y =Yj) = Pr(Y =Yj|X =Xi)Pr(X =Xi).
1. Le tableau doit ressembler `a ce qui suit :
Y\X X=1 X=2 X=3
Y=0 1/6 1/12 1/24 7/24
Y=1 1/6 1/6 3/24 11/24
Y=2 0 1/12 3/24 5/24
Y=3 0 0 1/24 1/24
1/3 1/3 1/3 1
2. Les probabilit´es marginales pour X sont dans la derni`ere rang´ee du ta- bleau. Les probabilit´es marginales pourY sont dans la derni`ere colonne.
3. Nous avons :
E(X|Y = 2) = 1×Pr(X = 1|Y = 2) + 2×Pr(X = 2|Y = 2) +3×Pr(X = 3|Y = 2)
= 1× Pr(X = 1, Y = 2) Pr(Y = 2) +2× Pr(X = 2, Y = 2)
Pr(Y = 2) +3× Pr(X = 3, Y = 2)
Pr(Y = 2)
= 1× 0
5/24 + 2× 1/12
5/24 + 3× 3/24 5/24. Ce n’´etait pas n´ecessaire de simplifier les r´eponses 4. Nous avons :
E(Y|X = 3) = 0×Pr(Y = 0|X= 3) + 1×Pr(Y = 1|X = 3) +2×Pr(Y = 2|X = 3) + 3×Pr(Y = 3|X = 3)
= 0× Pr(Y = 0, X = 3) Pr(X = 3) +1× Pr(Y = 1, X = 3)
Pr(X = 3) +2× Pr(Y = 2, X = 3)
Pr(X = 3)
+3× Pr(Y = 3, X = 3) Pr(X = 3)
= 0×1/24
1/3 + 1×3/24
1/3 + 2×3/24
1/3 + 3×1/24 1/3 . Ce n’´etait pas n´ecessaire de simplifier les r´eponses
5. Nous avons :
E(X|Y = 0) = 1×Pr(X = 1|Y = 0) + 2×Pr(X = 2|Y = 0) +3×Pr(X = 3|Y = 0)
= 1× Pr(X = 1, Y = 0) Pr(Y = 0) +2× Pr(X = 2, Y = 0)
Pr(Y = 0) +3× Pr(X = 3, Y = 0)
Pr(Y = 0)
= 1× 1/6
7/24 + 2× 1/12
7/24 + 3× 1/24 7/24. Ce n’´etait pas n´ecessaire de simplifier les r´eponses
6. Les deux variables ne sont pas ind´ependantes. Il suffit de trouver un contre- exemple pour lequel nous avons
Pr(X =Xi, Y =Yj)6=Pr(X =Xi)Pr(Y =Yj). Nous avons
Pr(X = 1, Y = 0) = 1/66= 7/24×1/3 = Pr(X = 1)Pr(Y = 0).
3 Tests d’hypoth`ese (30 points)
1. La statistique calcul´ee (l’estimateur) est la m´ediane ´echantillonnale. Il faut la normaliser en soustrayant sa valeur sous l’hypoth`ese nulle et en divisant le tout par la racine carr´ee de la variance ´echantillonnale de la m´ediane
´echantillonnale. Nous avons (selon l’´enonc´e) Var(m) = 1
n 1 4
√1 2πσ2
2 = 1 nσ22π
4 = 1 nσ2π
2.
Donc, la statistique t que nous pouvons utiliser pour tester l’hypoth`ese nulle s’´ecrit comme
tact = m−µ0 q1
nσ2π/2 2. Nous avons
E
m−µ0 q1
nσ2π/2
= 1
q1 nσ2π/2
E(m−µ0)
= 1
q1 nσ2π/2
(µ0−µ0) = 0
si l’hypoth`ese nulle est vraie, puisque par hypoth`ese m est un estimateur non biais´e (puisque nous savons que la variable al´eatoire Y est distribu´ee comme une variable normale, qui est une distribution sym´etrique).
3. Nous avons
Var tact
=Var
m−µ0
q1 nσ2π/2
=Var
m q1
nσ2π/2
= 1
1
nσ2π/2Var(m)
= 1
1 nσ2π/2
1 nσ2π
2 = 1, ce qui fut `a d´emontrer.
4. Oui. Cette question est un peu subtile. Par hypoth`ese Y suit une distribu- tion normale, et on utilise la variance de la m´ediane ´echantillonnale qui est suppos´ee ˆetre connue. Donc, on pourrait supposer que la statistiquetsui- vrait une loi normale mˆeme en petit ´echantillon. J’ai donn´e presque tous les points `a ceux qui ont ´ecrit ceci. Par contre, la m´ediane ´echantillonnale est
une fonctionne non lin´eaire des observations. Elle n’a pas une distribution normale en petit ´echantillon mˆeme si l’´echantillon provient d’observations d’une variable al´eatoire normale. Donc, il faut avoir assez d’observations pour invoquer le th´eor`eme de la limite centrale pour effectuer le test. Si- non, on ne connaˆıt pas la distribution exacte de la statistique.
5. Si l’hypoth`ese alternative est bilat´erale (il faut ´ecrire ceci puisque ce n’est pas sp´ecifi´e dans l’´enonc´e du probl`eme), nous avons
p= 2×Φ −|tact| .
6. Il faut remplacer la variance de la m´ediane ´echantillonnale par un es- timateur convergent de cette variance. Sachant que la variance est pro- portionelle `a σ2, si on connaˆıt un estimateur convergent pour σ2 on peut construire un estimateur convergent pour la variance de la m´ediane ´echan- tillonnale. On peut donc utiliser la variance ´echantillonnale pour estimer σ2, et construire l’estimateur pour Var(m) `a partir de cet estim´e.
7. Si l’estimateur de la variance de la m´ediane ´echantillonnale est convergent, nous pouvons le traiter comme une constante dans le calcul de l’esp´erance et de la variance de tact. L’esp´erance est toujours z´ero et la variance est toujours unitaire.
8. Nous avons selon la sous-question (1) que Var(m) = 1
nσ2π 2.
La variance de la moyenne ´echantillonnale est donn´ee par Var Y¯
= 1 nσ2. Donc,
Var(m)>Var Y¯ ,
pour n’importe quelle valeur den.Mˆeme sans ce r´esultat, nous savons que l’estimateur MCO (qui estY¯) est l’estimateur lin´eaire le plus efficient si les observations ont une variance constante (un exemple du th´eor`eme Gauss-Markov). Encore une petite subtilit´e : la m´ediane est une statis- tique d’ordrequi n’est pas une fonction lin´eaire des observations, et donc on ne peut pas automatiquement invoquer le th´eor`eme Gauss-Markov, qui permet de savoir quel est l’estimateurlin´eairele plus efficient. Il ne fallait pas noter ceci pour avoir tous les points.
4 R´egression simple, tests d’hypoth`ese et intervalles de confiance (40 points)
1. Oui, la productivit´e semble ˆetre affect´ee par le nombre d’heures travaill´ees.
Le coefficient estim´eβb1 est n´egatif et sa valeur est au moins trois fois son
´ecart type. Mˆeme sans test formel on peut r´epondre oui.
2. Nous avons rRSS
n−2 ≡SER ⇒RSS =SER2×(n−2) = 1.712×(240−2).
Ce n’´etait pas n´ecessaire de simplifier.
3. Nous avons
R2 ≡1− RSS T SS
⇒T SS = RSS
1−R2 = RSS 1−0.19.
Ce n’´etait pas n´ecessaire de simplifier. La valeur de RSS provient de la sous-question 1.
4. Question qui demande un peu de r´eflection. C¸ a serait la productivit´e (nombre d’appels par heure) avec z´ero heures de travail, ce qui n’est pas tr`es lo- gique. Cela suppose que la relation entre heures travaill´ees et productivit´e, qui est approximativement lin´eaire lorsque les heures travaill´ees d´epassent 30.5 (valeur minimale dans l’´echantillon), continue `a ˆetre lin´eaire lorsque les heures tendent vers z´ero, ce qui n’est pas tr`es plausible. Autrement dit, l’ordonn´ee `a l’origine n’a pas une interpr´etation claire dans ce cas-ci.
5. Nous savons que
Corr(X, Y)2
=R2.
L’ajustement statistique doit ˆetre ´egal au carr´e du coefficient de corr´elation entre la variable explicative et la variable d´ependante. Le signe du coeffi- cient de corr´elation va correspondre au signe deβb1, qui est n´egatif. Donc
Corr(X, Y) = −√ 0.19.
Ce n’´etait pas n´ecessaire de simplifier.
6. La statistiquetpeut s’´ecrire
tact= βb1 −0 σbβˆ
1
= −0.14 0.04 .
L’hypoth`ese nulle estH0 : β1 = 0. L’hypoth`ese alternative estH1 : β1 6=
0.
7. Lap-value est donn´ee par
p= 2×Φ −|tact|
= 2×Φ (−0.14/0.04).
On suppose qu’il y a assez d’observations pour que la statistiquetsoit dis- tribu´ee approximativement comme une variable normale centr´ee r´eduite.
8. La statistique t normalis´ee d´epasse 3 en valeur absolue et donc on va re- jeter l’hypoth`ese nulle de non-significativit´e aux niveaux conventionnels.
On sait donc que le coefficient est significatif `a un taux marginal de 5%. Si on se souvient (pas n´ecessaire pour avoir les points) que
2×Φ (−2.57) ≈0.01, on sait qu’il est significatif `a un taux de 1% aussi.
9. L’hypoth`ese alternative est maintenant unilat´erale. C’est toujours la mˆeme statistique, mais lap-value est donn´ee par
p= Φ tact
= Φ (−0.14/0.04). 10. Soitz >¯ 0o`u
0.99 =Pr(−¯z < z <z)¯ avecz ∼N(0,1). Alors nous avons
0.99 = Pr −¯z < βb1−β1 bσβb
1
<z¯
!
=Pr
−¯zbσβb
1 <
βb1−β1
<z¯σbβb
1
=Pr
−¯zbσβb
1 <
β1−βb1
<z¯σbβb
1
=Pr
βb1−z¯bσ
βb1 < β1 <βb1+ ¯zbσ
βb1
. Donc, l’intervalle de confiance de 99% peut s’´ecrire
βb1±z¯bσβb
1
11. Nous avons
Yb =βb0+βb1Xe o`uXe est la valeur impos´ee deX. Nous avons donc
Yb = 19.8−0.14×30.0.
Ce n’´etait pas n´ecessaire de simplifier.
12. Nous avons
∆Yb =βb1∆X
o`u∆X est le changement impos´e dans la valeur deX. Donc nous avons
∆Yb =−0.14×5.0.
Ce n’´etait pas n´ecessaire de simplifier 13. Nous avons
∆Yb =βb1∆X
⇒Var
∆Yb
= (∆X)2bσ2
βb1
Soitz >¯ 0o`u
0.95 =Pr(−¯z < z <z)¯ avecz ∼N(0,1). Alors nous avons
0.95 = Pr
−¯z <
∆X
βb1−β1 (∆X)bσβb
1
<z¯
Pr
−¯z(∆X)σb
βb1 <∆X
βb1−β1
<z¯(∆X)bσ
βb1
Pr
−¯z(∆X)σb
βb1 <∆X
β1−βb1
<z¯(∆X)bσ
βb1
Pr
∆Xβb1−z¯(∆X)σbβb
1 <∆Xβ1 <∆Xβb1+ ¯z(∆X)bσβb
1
. Donc, l’intervalle de confiance peut s’´ecrire
∆Xβb1±z¯(∆X)bσ
βb1.
14. Il faudrait supposer la normalit´e de l’erreur avec une variance constante. Si on fait cette hypoth`ese, la statistiquetsuivrait une distributiontde Student avecn−2degr´es de libert´e.
5 Estimateurs (20 points en bonus)
1. Nous avons
βe1 ≡
1 n−1
Pn
i=2(Yi−Yi−1)
1 n−1
Pn
i=2(Xi−Xi−1)
=
1 n−1
Pn
i=2(β0+β1Xi+ui−β0−β1Xi−1−ui−1)
1 n−1
Pn
i=2(Xi−Xi−1)
=
1 n−1
Pn
i=2(β1(Xi −Xi−1) + (ui−ui−1))
1 n−1
Pn
i=2(Xi−Xi−1)
= β1n−11 Pn
i=2(Xi−Xi−1)
1 n−1
Pn
i=2(Xi−Xi−1) +
1 n−1
Pn
i=2(ui−ui−1)
1 n−1
Pn
i=2(Xi−Xi−1)
=β1 +
1 n−1
Pn
i=2(ui−ui−1)
1 n−1
Pn
i=2(Xi−Xi−1).
Maintenant il s’agit de calculer l’esp´erance de l’estimateur. Nous avons E
βe1
=β1 +E
1 n−1
Pn
i=2(ui−ui−1)
1 n−1
Pn
i=2(Xi−Xi−1)
!
=β1+E
1 n−1
Pn
i=2E((ui−ui−1)|X)
1 n−1
Pn
i=2(Xi−Xi−1)
!
=β1,
ce qui fut `a d´emontrer. Nous avons utilis´e la loi des esp´erances it´er´ees pour passer `a l’avant-derni`ere ligne.
2. Nous avons
1 n−1
n
X
i=2
(Yi−Yi−1)
= 1
n−1
n
X
i=2
Yi− 1 n−1
n−1
X
i=1
Yi
= ¯Y2 −Y¯1
o`uY¯2 est la moyenne ´echantillonnale deY en omettant la premi`ere obser- vation et o`uY¯1est la moyenne ´echantillonnale deY en omettant la derni`ere observation. Nous avons
E Y¯2
=E Y¯1
=µY.
Les deux sont des estimateurs non biais´es de la moyenne (population) de la variable al´eatoireY. Nous avons aussi
Var Y¯2
= 1
n−1 2 n
X
i=2
E(Yi)
= 1
n−1 2 n
X
i=2
µY = µY n−1. Nous avons
n→∞lim Var Y¯2
= 0 et donc nous pouvons conclure que
Y¯2 −→p µY.
De mani`ere semblable, nous pouvons conclure que Y¯1
−p
→µY
et donc
Y¯2−Y¯1 p
−
→0,
ce qui fut `a d´emontrer. J’utilise ici la preuve non rigoureuse de la convergence (absence de biais et une variance qui tend vers z´ero).
3. La d´emarche est identique par rapport `a la sous-question pr´ec´edente.
4. Notre estimateur est le ratio de deux variables al´eatoires qui convergent en probabilit´e `a z´ero. La limite de probabilit´e du ratio (qui est le ratio des limites de probabilit´e) n’est mˆeme pas d´efinie. Donc, il n’y a pas conver- gence en probabilit´e `a β1. Le probl`eme ici est que le d´enominateur de l’estimateur converge vers z´ero aussi rapidement que le num´erateur. Pour cette raison, la variance de l’estimateur ne diminue pas avecn.
cr´e´e le : 18/10/2014