ECO 4272: Introduction `a l’´econom´etrie Exercice 1: Solutions
Steve Ambler
D´epartement des sciences ´economiques Ecole des sciences de la gestion ´ Universit´e du Qu´ebec Montr´eal
c 2014, Steve Ambler Automne 2014
1 Distributions de probabilit´e jointes (20 points)
1. La somme de toutes les probabilit´es jointes doit ˆetre ´egale `a 1. Donc, la valeur manquante doit ˆetre ´egale `a 0.20.
2. Voici le tableau :
Y \X 1 2 3 4 Pr(Y)
5 0.10 0.05 0.05 0.20 0.40 6 0.20 0.05 0.05 0.10 0.40 7 0.05 0.05 0.05 0.05 0.20 Pr(X) 0.35 0.15 0.15 0.35 1.00
La derni`ere rang´ee du tableau contient les probabilit´es marginales pour la variable X, c’est `a dire Pr(X =Xi , Xi = 1,2,3,4). La derni`ere co- lonne contient les probabilit´es marginales pour la variable Y, c’est `a dire Pr(Y =Yi , Yi = 5,6,7). La somme des valeurs dans la derni`ere colonne et des valeurs dans la derni`ere rang´ee doit ˆetre ´egale `a un.
3. Nous avons
E(X|Y = 5) = 1× Pr(X = 1, Y = 5)
Pr(Y = 5) + 2×Pr(X = 2, Y = 5) Pr(Y = 5)
+3× Pr(X = 3, Y = 5)
Pr(Y = 2) + 4× Pr(X= 4, Y = 5) Pr(Y = 5)
= 1× 0.10
0.40 + 2× 0.05
0.40+ 3× 0.05
0.40+ 4× 0.20
0.40 = 1.375.
De mani`ere semblable, nous avons
E(X|Y = 6) = 1× Pr(X = 1, Y = 6)
Pr(Y = 6) + 2×Pr(X = 2, Y = 6) Pr(Y = 6) +3× Pr(X = 3, Y = 6)
Pr(Y = 6) + 4× Pr(X= 4, Y = 6) Pr(Y = 6)
= 1× 0.20
0.40+ 2×0.05
0.40+ 3×0.05
0.40+ 4× 0.10
0.40 = 2.125 et
E(X|Y = 7) = 1× Pr(X = 1, Y = 7)
Pr(Y = 7) + 2×Pr(X = 2, Y = 7) Pr(Y = 7) +3× Pr(X = 3, Y = 7)
Pr(Y = 7) + 4× Pr(X= 4, Y = 7) Pr(Y = 7)
= 1× 0.35
0.20+ 2×0.15
0.20+ 3×0.15
0.20+ 4× 0.35
0.20 = 12.5.
Vous devriez d´ej`a commencer `a soupc¸onner fortement qu’il s’agit de va- riables al´eatoires qui ne sont pas ind´ependantes, puisque les probabilit´es conditionnelles ne sont pas ´egales pour toutes les r´ealisations possibles de X aux probabilit´es non conditionnelles ou marginales.
4. Il faut proc´eder de mani`ere semblable `a la sous-question pr´ec´edente. Nous avons
E(Y|X = 1) = 5×Pr(X = 1, Y = 5)
Pr(X = 1) + 6×Pr(X = 1, Y = 6)
Pr(X = 1) + 7×Pr(X = 1, Y = 7) Pr(X = 1)
= 5×0.10
0.35+ 6× 0.20
0.35 + 7× 0.05
0.35 ≈5.85714.
De mani`ere semblable, nous avons
E(Y|X = 2) =
5×Pr(X = 2, Y = 5)
Pr(X = 2) + 6×Pr(X = 2, Y = 6)
Pr(X = 2) + 7×Pr(X = 2, Y = 7) Pr(X = 2)
= 5× 0.05
0.15+ 6×0.05
0.15+ 7×0.05
0.15 = 6.0, E(Y|X = 3) =
5×Pr(X = 3, Y = 5)
Pr(X = 3) + 6×Pr(X = 3, Y = 6)
Pr(X = 3) + 7×Pr(X = 3, Y = 7) Pr(X = 4)
= 5× 0.05
0.15+ 6×0.05
0.15+ 7×0.05
0.15 = 6.0, et
E(Y|X = 4) = 5×Pr(X = 4, Y = 5)
Pr(X = 4) + 6×Pr(X = 4, Y = 6)
Pr(X = 4) + 7×Pr(X = 4, Y = 7) Pr(X = 4)
= 5×0.20
0.35+ 6× 0.10
0.35 + 7× 0.05
0.35 ≈5.57143.
Encore une fois, les esp´erances conditionnelles ne sont pas toutes ´egales.
5. Nous avons
E(X) = 1×Pr(X = 1)+2×Pr(X = 2)+3×Pr(X = 3)+4×Pr(X = 4)
= 1×0.35 + 2×0.15 + 3×0.15 + 4×0.35 = 2.5 6. Nous avons
E(Y) = 5×Pr(Y = 5) + 6×Pr(Y = 6) + 7×Pr(Y = 7)
= 5×0.40 + 6×0.40 + 7×0.20 = 5.8.
7. Il suffit de trouver un contre-exemple. Nous avons
Pr(X = 1, Y = 5) = 0.106=Pr(X = 1)×Pr(Y = 5). Les deux variables ne sont pas ind´ependantes.
2 Efficience (40 points)
1. Nous avons
E(¯µ) =E m
m+nX¯ + n m+nY¯
= m
m+nE X¯
+ n
m+nE Y¯
= m
m+n 1 m
m
X
i=1
E(Xi) + n m+n
1 n
n
X
i=1
E(Yi)
= m
m+n 1
mmµ+ n m+n
1
nnµ=µ.
L’estimateur est non biais´e.
2. Le probl`eme est minµ¯
m
X
i=1
(Xi−µ)¯ 2+
n
X
i=1
(Yi−µ)¯ 2
! .
Il n’y a qu’une seule variable de choix. La condition du premier ordre est
−2
m
X
i=1
(Xi−µ)¯ −2
n
X
i=1
(Yi−µ) = 0¯
⇒
m
X
i=1
Xi−mµ¯+
n
X
i=1
Yi−nµ¯= 0
⇒m 1 m
m
X
i=1
Xi+n1 n
n
X
i=1
Yi = (m+n) ¯µ
⇒µ= m m+n
X¯ + n m+n
Y ,¯ ce qui fut `a d´emontrer.
3. Nous avons
Var(¯µ) =Var m
m+n
X¯ + n m+n
Y¯
= m
m+n 2
Var X¯ +
n m+n
2
Var Y¯
=
m m+n
2
1 m2
m
X
i=1
Var(Xi) + m
m+n 2
1 n2
n
X
i=1
Var(Yi)
=
m m+n
2
1
m2mσX2 + m
m+n 2
1 n2nσY2
= m
(m+n)2σX2 + n
(m+n)2σ2Y.
4. Il faut montrer que le nouvel estimateur propos´e est non biais´e. Nous avons E(˜µ) = E aX¯ + (1−a) ¯Y
=aE X¯
+ (1−a)E Y¯
=a 1 m
m
X
i=1
E(Xi) + (1−a)
n
X
i=1
E(Yi)
=am
mµ+ (1−a)n
nµ=µ, ce qui fut `a d´emontrer.
5. La variance est donn´ee par
Var aX¯ + (1−a) ¯Y
=a2 1 m2
m
X
i=1
Var(Xi) + (1−a)2 1 n2
n
X
i=1
Var(Yi)
= a2
mσX2 + (1−a)2 n σY.
6. C’est un probl`eme de minimisation relativement simple. On peut l’´ecrire mina
a2
mσX2 + (1−a)2 n σY
!
La condition du premier ordre est 2aσX2
m −2 (1−a)σY2 n = 0
⇒2a σX2
m +σY2 n
= 2σY2 n
⇒a=
σ2Y n
σ2 X
m + σn2Y = mσ2Y mσ2Y +nσ2X 7. Nous avons les r´esultats suivants.
(a) acroˆıt avec la taille du premier ´echantillon m, et tend vers 1 lorsque mtend vers l’infini.
(b) ad´ecroˆıt avec la taille du deuxi`eme ´echantillonn, et tend vers 0 lorsque ntend vers l’infini.
(c) a croˆıt lorsque la variance σX2 diminue et tend vers 1 lorsque cette variance tend vers 0.
(d) a d´ecroˆıt lorsque la variance σ2Y diminue et tend vers 0 lorsque cette variance tend vers 0.
On donne plus de poids `a l’´echantillon avec le plus grand nombre d’obser- vations et `a l’´echantillon o`u la variance de la variable al´eatoire observ´ee est plus petite.
8. Nous cherchons une solution pour a = mσY2
mσY2 +nσX2 = m m+n.
Une condition suffisante est que les deux variancesσ2X etσ2Y soient ´egales.
Quelle est la morale de cette histoire ? Nous venons de voir que, face
`a des observations qui ont une variance non constante, nous allons ac- corder davantage de poids aux observations provenant d’une distribu- tion avec uneplus petite variance. L’intuition de ce r´esultat est simple.
Une observation tir´ee d’une distribution avec une variance qui est tr`es petite nous permet d’estimer notre param`etre inconnu (µ) avec plus de pr´ecision. L’observation contient plus d’information concernant µ qu’une observation provenant d’une distribution avec une tr`es grande variance. Donc, il serait logique de mettre un poids plus ´elev´e sur les observations qui ont une plus petite variance.
Nous venons en fait de d´emontrer la logique derri`ere l’estimateur des moindres carr´es g´en´eralis´es, que vous pourrez apprendre dans le cours ECO5272. Lorsque les variances dans les deux ´echantillons sont ´egales,
on met le mˆeme poids sur chaque observation (on pond`ere quand mˆeme utilisant la taille relative des deux ´echantillons). Donc, l’estimateur MCO est en fait un cas particulier de l’estimateur des moindres carr´es g´en´eralis´es.
3 Th´eor`eme limite centrale (40 points)
J’inclus un fichier avec un code comment´e. Voir l’adresse suivante : www.er.uqam.ca/nobel/r10735/4272/tps/exer1431b.R
J’ai inclus presque toutes les commandes n´ecessaires sauf celles pour sauvegarder les graphiques dans des fichiers.