ECO 4272: Introduction `a l’´econom´etrie Exercice 1: Solutions
Steve Ambler
D´epartement des sciences ´economiques Ecole des sciences de la gestion ´ Universit´e du Qu´ebec Montr´eal
c 2013, Steve Ambler Automne 2013
1 Distributions de probabilit´e jointes (20 points)
1. La somme de toutes les probabilit´es jointes doit ˆetre ´egale `a 1. Donc, la valeur manquante doit ˆetre ´egale `a 0.10.
2. Voici le tableau :
Y \X 6 7 8 9 Pr(Y)
2 0.20 0.15 0.10 0.05 0.50 5 0.12 0.09 0.06 0.03 0.30 8 0.08 0.06 0.04 0.02 0.20 Pr(X) 0.40 0.30 0.20 0.10 1.00
La derni`ere rang´ee du tableau contient les probabilit´es marginales pour la variable X, c’est `a dire Pr(X =Xi , Xi = 6,7,8,9). La derni`ere colonne contient les probabilit´es marginales pour la variableY, c’est `a dire Pr(Y =Yi , Yi = 2,5,8). La somme des valeurs dans la derni`ere colonne et des valeurs dans la derni`ere rang´ee doit ˆetre ´egale `a un.
3. Nous avons
E(X|Y = 2) = 6× Pr(X = 6, Y = 2)
Pr(Y = 2) + 7×Pr(X = 7, Y = 2) Pr(Y = 2)
+8× Pr(X = 8, Y = 2)
Pr(Y = 2) + 9× Pr(X= 9, Y = 2) Pr(Y = 2)
= 6×0.20
0.50+ 7×0.15
0.50+ 8× 0.10
0.50 + 9× 0.05 0.50 = 7.
De mani`ere semblable, nous avons
E(X|Y = 5) = 6× Pr(X = 6, Y = 5)
Pr(Y = 5) + 7×Pr(X = 7, Y = 5) Pr(Y = 5) +8× Pr(X = 8, Y = 5)
Pr(Y = 5) + 9× Pr(X= 9, Y = 5) Pr(Y = 5)
= 6× 0.12
0.30 + 7× 0.09
0.30+ 8× 0.06
0.30+ 9× 0.03 0.30 = 7 et
E(X|Y = 8) = 6× Pr(X = 6, Y = 8)
Pr(Y = 8) + 7×Pr(X = 7, Y = 8) Pr(Y = 8) +8× Pr(X = 8, Y = 8)
Pr(Y = 8) + 9× Pr(X= 9, Y = 8) Pr(Y = 8)
= 6×0.08
0.20+ 7×0.06
0.20+ 8× 0.04
0.20 + 9× 0.02 0.20 = 7.
Vous devriez d´ej`a commencer `a soupc¸onner fortement qu’il s’agit de vari- ables al´eatoires ind´ependantes, puisque les probabilit´es conditionnelles sont
´egales pour toutes les r´ealisations possibles deXaux probabilit´es non con- ditionnelles ou marginales, et donc les esp´erances conditionnelles deXsont
´egales, peu importe la valeur deY.
4. Il faut proc´eder de mani`ere semblable `a la sous-question pr´ec´edente. Nous avons
E(Y|X = 6) = 2×Pr(X = 6, Y = 2)
Pr(X = 6) + 5×Pr(X = 6, Y = 5)
Pr(X = 6) + 8×Pr(X = 6, Y = 8) Pr(X = 6)
= 2× 0.20
0.40+ 5×0.12
0.40+ 8×0.08
0.40 = 4.1.
De mani`ere semblable, nous avons
E(Y|X = 7) =
2×Pr(X = 7, Y = 2)
Pr(X = 7) + 5×Pr(X = 7, Y = 5)
Pr(X = 7) + 8×Pr(X = 7, Y = 8) Pr(X = 7)
= 2× 0.20
0.40+ 5×0.12
0.40+ 8×0.08
0.40 = 4.1, E(Y|X = 8) =
2×Pr(X = 8, Y = 2)
Pr(X = 8) + 5×Pr(X = 8, Y = 5)
Pr(X = 8) + 8×Pr(X = 8, Y = 8) Pr(X = 8)
= 2× 0.20
0.40+ 5×0.12
0.40+ 8×0.08
0.40 = 4.1, et
E(Y|X = 9) = 2×Pr(X = 9, Y = 2)
Pr(X = 9) + 5×Pr(X = 9, Y = 5)
Pr(X = 9) + 8×Pr(X = 9, Y = 8) Pr(X = 9)
= 2× 0.20
0.40+ 5×0.12
0.40+ 8×0.08
0.40 = 4.1.
Encore une fois, les esp´erances conditionnelles sont ´egales, peu importe la valeur deX.
5. Nous avons
E(X) = 6×Pr(X = 6)+7×Pr(X = 7)+8×Pr(X = 8)+9×Pr(X = 9)
= 6×0.40 + 7×0.30 + 8×0.20 + 9×0.10 = 7.
6. Nous avons
E(Y) = 2×Pr(Y = 2) + 5×Pr(Y = 5) + 8×Pr(Y = 8)
= 2×0.50 + 5×0.30 + 8×0.20 = 4.1.
7. Nous avons d´ej`a vu que les esp´erances conditionnelles deX et Y sont les mˆemes, peu importe les valeurs de Y et X respectivement. Donc on peut conclure que les deux variables sont ind´ependantes. Il est aussi facile de v´erifier que, danschaquecas, nous avons
Pr(X =Xi, Y =Yj) =Pr(X =Xi)×Pr(Y =Yj). Les deux variables sont ind´ependantes.
2 Efficience (40 points)
1. Nous avons
E Y¯
=E 1 n
n
X
i=1
Yi
!
= 1 n
n
X
i=1
E(Yi) = 1 n
n
X
i=1
µY = 1
nnµY =µY.
La moyenne ´echantillonnale continue d’ˆetre un estimateur non biais´e, mˆeme si la variance desYi n’est pas constante.
2. Nous avons
Var Y¯
=Var 1 n
n
X
i=1
Yi
!
= 1 n2
n
X
i=1
Var(Yi) = 1 n2
n
X
i=1
σ2Xi2
= σ2 n2
n
X
i=1
Xi2.
Nous avons suppos´e que les observations sont ind´ependanes, mˆemes si les Yi n’ont pas une variance ´egale.
3. Pour r´epondre `a cette partie, nous avons besoin de l’hypoth`ese que les ob- servations sur lesXi sont finies. Supposons que
Xmin2 ≤Xmax2
.
(La preuve pour le cas inverse est facile.) Nous avons tout de suite que σ2
n2
n
X
i=1
Xi2 ≤ σ2 n2
n
X
i=1
Xmax2
.
Maintenant,
n→∞lim σ2 n2
n
X
i=1
Xmax2 = 0 puisqueXmax2 <∞. Nous avons tout de suite
n→∞lim σ2 n2
n
X
i=1
Xi2 = 0,
ce qui fut `a d´emontrer.
4. Nous avons
E Y˜
=E 1 n
n
X
i=1
ciYi
!
= 1 n
n
X
i=1
ciE(Yi) = µY n
n
X
i=1
ci.
Nous avons tout simplement appliqu´e les r`egles de base pour le calcul de l’esp`erance d’une combinaison lin´eaire de variables al´eatoires. ´Evidemment,
si n
X
i=1
ci =n l’estimateurY˜ est non biais´e.
5. L’id´ee de base est de choisir les pond´erations ci afin de construire l’esti- mateur qui est le plus efficient possible. La variance de l’estimateur Y˜ est donn´ee par
Var Y˜
=Var 1 n
n
X
i=1
ciYi
!
= 1 n2
n
X
i=1
Var(ciYi) = 1 n2
n
X
i=1
ci2
Var(Yi) = 1 n2
n
X
i=1
ci2
σ2Xi2
= σ2 n2
n
X
i=1
ci2
Xi2 ∝
n
X
i=1
ci2
Xi2
o`u ∝ se lit est proportionnel `a. Encore une fois, nous avons eu besoin de l’ind´ependance des observations pour arriver `a cette expression relativement simple. Notre probl`eme est de minimiser la variance de l’es- timateur sujet `a la contrainte qu’il reste non biais´e. Les variables de choix seront les poids `a mettre sur chaque observation (lesci) et (´evidemment) le multiplicateur de Lagrange. On peut ´ecrire le probl`eme comme
minci,λ L =
n
X
i=1
ci2Xi2+λ n−
n
X
i=1
ci
!!
.
Il y a(n+ 1)CPOs au probl`eme. Pour unci quelconque nous avons
∂L
∂ci = 0 = 2ciXi2−λ.
Pourλ, nous avons
∂L
∂λ = 0 = n−
n
X
i=1
ci
! .
Comme d’habitude, la derni`ere CPO garantie que la contrainte soit satis- faite. Sans trouver une solution finale pour les inconnus, nous avons tout de suite `a partir des CPOs pour lesci que
ci = λ 2
1
Xi2 ∝ 1 Xi2, ce qui fut `a d´emontrer.
Quelle est la morale de cette histoire ? Nous venons de voir que, face
`a des observations qui ont une variance non constante, nous allons ac- corder davantage de poids aux observations provenant d’une distribu- tion avec uneplus petite variance. L’intuition de ce r´esultat est simple.
Une observation tir´ee d’une distribution avec une variance qui est tr`es petite nous permet d’estimer notre param`etre inconnu (µY) avec plus de pr´ecision. L’observation contient plus d’information concernant µY qu’une observation provenant d’une distribution avec une tr`es grande variance. Donc, il serait logique de mettre un poids plus ´elev´e sur les observations qui ont une plus petite variance.
Nous venons en fait de d´emontrer la logique derri`ere l’estimateur des moindres carr´es g´en´eralis´es, que vous pourrez apprendre dans le cours ECO5272. Il est a noter aussi que dans le cas o`u Xi = X et donc la variance est constante, nous avons
ci = λ 2
1 X2 et donc le poids est constant. Nous avons aussi
n =
n
X
i=1
λ 2
1
X2 =nλ 2
1 X2.
⇒λ = 2X2 ⇒ci = 1.
Nous revenons `a l’estimateur MCO comme cas sp´ecial de l’estimateur MCG (moindres carr´es g´en´eralis´es) lorsque la variance des Yi est con- stante, d’o`u justement le termeg´en´eralis´es.
Nous venons aussi, en passant, de prouver le th´eor`eme Gauss-Markov.
Pourquoi ? Notre estimateur Y˜ est un estimateur lin´eaire g´en´eral, puisqu’il est tout simplement une somme pond´er´ee des observations.
Nous avons trouv´e une restriction sur les ci pour qu’il soit non biais´e.
Par la suite, nous avons minimis´e sa variance et nous avons trouv´e un cas sp´ecial o`u la variance minimale nous donne l’estimateur MCO. Le cas sp´ecial est le cas o`u la variance des observations est constante. Il est
`a noter finalement que nous avons eu besoin de l’hypoth`ese de variance constante, mais non de la normalit´e des observations.
3 Th´eor`eme limite centrale (40 points)
J’inclus un fichier avec un code comment´e. Voir l’adresse suivante : www.er.uqam.ca/nobel/r10735/4272/tps/exer1331b.R
J’ai inclus presque toutes les commandes n´ecessaires sauf celles pour sauvegarder les graphiques dans des fichiers.
1. La commande rexp(n,rate=2) va produire un ´echantillon de vari- ables al´eatoires qui suivent une loi exponentielle avec rate = λ = 2.
Si vous jouez avec cette commande, vous allez constatez qu’elle produit des nombres positifs dont la majorit´e sont inf´erieurs `a 1λ = 0.5. Ceci refl`ete le fait que c’est une distribution asym´etrique, avec plus d’observa- tions inf´erieures `a la moyenne que sup´erieures `a la moyenne. La commande mean(rexp(n,rate=2))produit la moyenne d’un ´echantillon de taille nde variables al´eatoires exponentielles. Si vous jouez avec cette commande, vous allez constater qu’elle produit des nombres positifs. Lorsquendevient grand, la moyenne ´echantillonnale est souvent tr`es pr`es de 0.5, et `a peu pr`es la moiti´e des nombres sont inf´erieurs `a 0.5. Ceci illustre num´eriquement la loi des grands nombres. Pour r´epondre `a la question, il faut construire (pour chaque valeur de n) une boucle `a ex´ecuter 10 000 fois qui contient des moyennes ´echantillonnales de variables al´eatoires exponentielles.
2. Soit Y une variable al´eatoire exponentielle, et soit Y¯ une moyenne
´echantillonalle denvariables exponentielles. Nous avons E(Y) = 1
λ, E Y¯
=E 1 n
n
X
i=1
Yi
!
= 1 λ, et
Var Y¯
=Var 1 n
n
X
i=1
Yi
!
= 1 n
1 λ2.
Donc, pour r´epondre `a la question, il faut prendre les 10 000 moyennes
´echantillonnales que vous avez g´en´er´ees, soustraire 1λ o`u bien sˆur λ = 2 dans ce cas, et diviser par
σY¯ = r1
n 1 λ2.
Bien sˆur, en divisant par des chiffres de plus en plus petit, en empˆeche la variance de diminuer avecn.
3. AppelonsX le vecteur contenant les 10 000 moyennes ´echantillonnales. Si vous ex´ecutez la commande mean(X) vous allez trouvez un chiffre pr`es de z´ero, et si vous ex´ecutez la command var(X)vous allez en principe trouver un r´esultat pr`es de un.
4. Voir le code.
5. Pour n = 1, l’histogramme devrait ressembler tout simplement `a un his- togramme de la distribution exponentielle, sauf pour la normalisation (ce qui va centrer les r´esultats sur z´ero et changer leur variance). Au fur et `a mesure quenaugmente, l’histogramme va perdre son asym´etrie et va com- mencer `a ressembler de plus en plus `a une cloche normale.
6. Le test devrait produire unep-value tr`es tr`es petite pour le casn= 1, et lap- value va augmenter avecn. Mˆeme pourn = 100vous allez presque toujours rejeter l’hypoth`ese de la normalit´e. Il estpossiblede g´en´erer un ´echantillon de donn´ees pour lesquelles on ne rejette pas la normalit´e, mais ceci serait tr`es rare. Cela montre que la distribution exponentielle est tr`es loin de la normale et que le th´eor`eme de la limite centrale s’applique seulement pour des valeurs tr`es ´elev´ees de la taille de l’´echantillon. J’inclus dans le code des
exemples pourn = 500etn = 1000. Mˆeme pourn = 1000j’ai pu rejeter l’hypoth`ese nulle de la normalit´e `a quelques reprises `a un taux marginal de 1%. Tout cela pour montrer qu’il y a des distributions pour lesquelles c¸a prend un tr`es grand ´echantillon si on veut invoquer le th´eor`eme de la limite centrale.
7. C’est un de r´esultats produits directement par la commande jarque.bera.test(x).
cr´e´e le 30/09/2013