• Aucun résultat trouvé

Steve Ambler

N/A
N/A
Protected

Academic year: 2022

Partager "Steve Ambler"

Copied!
7
0
0

Texte intégral

(1)

ECO 4272: Introduction `a l’´econom´etrie Exercice 1: Solutions

Steve Ambler

D´epartement des sciences ´economiques Ecole des sciences de la gestion ´ Universit´e du Qu´ebec Montr´eal

c 2014, Steve Ambler Automne 2014

1 Distributions de probabilit´e jointes (20 points)

1. La somme de toutes les probabilit´es jointes doit ˆetre ´egale `a 1. Donc, la valeur manquante doit ˆetre ´egale `a 0.20.

2. Voici le tableau :

Y \X 1 2 3 4 Pr(Y)

5 0.10 0.05 0.05 0.20 0.40 6 0.20 0.05 0.05 0.10 0.40 7 0.05 0.05 0.05 0.05 0.20 Pr(X) 0.35 0.15 0.15 0.35 1.00

La derni`ere rang´ee du tableau contient les probabilit´es marginales pour la variable X, c’est `a dire Pr(X =Xi , Xi = 1,2,3,4). La derni`ere co- lonne contient les probabilit´es marginales pour la variable Y, c’est `a dire Pr(Y =Yi , Yi = 5,6,7). La somme des valeurs dans la derni`ere colonne et des valeurs dans la derni`ere rang´ee doit ˆetre ´egale `a un.

3. Nous avons

E(X|Y = 5) = 1× Pr(X = 1, Y = 5)

Pr(Y = 5) + 2×Pr(X = 2, Y = 5) Pr(Y = 5)

(2)

+3× Pr(X = 3, Y = 5)

Pr(Y = 2) + 4× Pr(X= 4, Y = 5) Pr(Y = 5)

= 1× 0.10

0.40 + 2× 0.05

0.40+ 3× 0.05

0.40+ 4× 0.20

0.40 = 1.375.

De mani`ere semblable, nous avons

E(X|Y = 6) = 1× Pr(X = 1, Y = 6)

Pr(Y = 6) + 2×Pr(X = 2, Y = 6) Pr(Y = 6) +3× Pr(X = 3, Y = 6)

Pr(Y = 6) + 4× Pr(X= 4, Y = 6) Pr(Y = 6)

= 1× 0.20

0.40+ 2×0.05

0.40+ 3×0.05

0.40+ 4× 0.10

0.40 = 2.125 et

E(X|Y = 7) = 1× Pr(X = 1, Y = 7)

Pr(Y = 7) + 2×Pr(X = 2, Y = 7) Pr(Y = 7) +3× Pr(X = 3, Y = 7)

Pr(Y = 7) + 4× Pr(X= 4, Y = 7) Pr(Y = 7)

= 1× 0.35

0.20+ 2×0.15

0.20+ 3×0.15

0.20+ 4× 0.35

0.20 = 12.5.

Vous devriez d´ej`a commencer `a soupc¸onner fortement qu’il s’agit de va- riables al´eatoires qui ne sont pas ind´ependantes, puisque les probabilit´es conditionnelles ne sont pas ´egales pour toutes les r´ealisations possibles de X aux probabilit´es non conditionnelles ou marginales.

4. Il faut proc´eder de mani`ere semblable `a la sous-question pr´ec´edente. Nous avons

E(Y|X = 1) = 5×Pr(X = 1, Y = 5)

Pr(X = 1) + 6×Pr(X = 1, Y = 6)

Pr(X = 1) + 7×Pr(X = 1, Y = 7) Pr(X = 1)

= 5×0.10

0.35+ 6× 0.20

0.35 + 7× 0.05

0.35 ≈5.85714.

De mani`ere semblable, nous avons

E(Y|X = 2) =

(3)

5×Pr(X = 2, Y = 5)

Pr(X = 2) + 6×Pr(X = 2, Y = 6)

Pr(X = 2) + 7×Pr(X = 2, Y = 7) Pr(X = 2)

= 5× 0.05

0.15+ 6×0.05

0.15+ 7×0.05

0.15 = 6.0, E(Y|X = 3) =

5×Pr(X = 3, Y = 5)

Pr(X = 3) + 6×Pr(X = 3, Y = 6)

Pr(X = 3) + 7×Pr(X = 3, Y = 7) Pr(X = 4)

= 5× 0.05

0.15+ 6×0.05

0.15+ 7×0.05

0.15 = 6.0, et

E(Y|X = 4) = 5×Pr(X = 4, Y = 5)

Pr(X = 4) + 6×Pr(X = 4, Y = 6)

Pr(X = 4) + 7×Pr(X = 4, Y = 7) Pr(X = 4)

= 5×0.20

0.35+ 6× 0.10

0.35 + 7× 0.05

0.35 ≈5.57143.

Encore une fois, les esp´erances conditionnelles ne sont pas toutes ´egales.

5. Nous avons

E(X) = 1×Pr(X = 1)+2×Pr(X = 2)+3×Pr(X = 3)+4×Pr(X = 4)

= 1×0.35 + 2×0.15 + 3×0.15 + 4×0.35 = 2.5 6. Nous avons

E(Y) = 5×Pr(Y = 5) + 6×Pr(Y = 6) + 7×Pr(Y = 7)

= 5×0.40 + 6×0.40 + 7×0.20 = 5.8.

7. Il suffit de trouver un contre-exemple. Nous avons

Pr(X = 1, Y = 5) = 0.106=Pr(X = 1)×Pr(Y = 5). Les deux variables ne sont pas ind´ependantes.

(4)

2 Efficience (40 points)

1. Nous avons

E(¯µ) =E m

m+nX¯ + n m+nY¯

= m

m+nE X¯

+ n

m+nE Y¯

= m

m+n 1 m

m

X

i=1

E(Xi) + n m+n

1 n

n

X

i=1

E(Yi)

= m

m+n 1

mmµ+ n m+n

1

nnµ=µ.

L’estimateur est non biais´e.

2. Le probl`eme est minµ¯

m

X

i=1

(Xi−µ)¯ 2+

n

X

i=1

(Yi−µ)¯ 2

! .

Il n’y a qu’une seule variable de choix. La condition du premier ordre est

−2

m

X

i=1

(Xi−µ)¯ −2

n

X

i=1

(Yi−µ) = 0¯

m

X

i=1

Xi−mµ¯+

n

X

i=1

Yi−nµ¯= 0

⇒m 1 m

m

X

i=1

Xi+n1 n

n

X

i=1

Yi = (m+n) ¯µ

⇒µ= m m+n

X¯ + n m+n

Y ,¯ ce qui fut `a d´emontrer.

3. Nous avons

Var(¯µ) =Var m

m+n

X¯ + n m+n

= m

m+n 2

Var X¯ +

n m+n

2

Var Y¯

(5)

=

m m+n

2

1 m2

m

X

i=1

Var(Xi) + m

m+n 2

1 n2

n

X

i=1

Var(Yi)

=

m m+n

2

1

m2X2 + m

m+n 2

1 n2Y2

= m

(m+n)2σX2 + n

(m+n)2σ2Y.

4. Il faut montrer que le nouvel estimateur propos´e est non biais´e. Nous avons E(˜µ) = E aX¯ + (1−a) ¯Y

=aE X¯

+ (1−a)E Y¯

=a 1 m

m

X

i=1

E(Xi) + (1−a)

n

X

i=1

E(Yi)

=am

mµ+ (1−a)n

nµ=µ, ce qui fut `a d´emontrer.

5. La variance est donn´ee par

Var aX¯ + (1−a) ¯Y

=a2 1 m2

m

X

i=1

Var(Xi) + (1−a)2 1 n2

n

X

i=1

Var(Yi)

= a2

X2 + (1−a)2 n σY.

6. C’est un probl`eme de minimisation relativement simple. On peut l’´ecrire mina

a2

X2 + (1−a)2 n σY

!

La condition du premier ordre est 2aσX2

m −2 (1−a)σY2 n = 0

⇒2a σX2

m +σY2 n

= 2σY2 n

(6)

⇒a=

σ2Y n

σ2 X

m + σn2Y = mσ2Y2Y +nσ2X 7. Nous avons les r´esultats suivants.

(a) acroˆıt avec la taille du premier ´echantillon m, et tend vers 1 lorsque mtend vers l’infini.

(b) ad´ecroˆıt avec la taille du deuxi`eme ´echantillonn, et tend vers 0 lorsque ntend vers l’infini.

(c) a croˆıt lorsque la variance σX2 diminue et tend vers 1 lorsque cette variance tend vers 0.

(d) a d´ecroˆıt lorsque la variance σ2Y diminue et tend vers 0 lorsque cette variance tend vers 0.

On donne plus de poids `a l’´echantillon avec le plus grand nombre d’obser- vations et `a l’´echantillon o`u la variance de la variable al´eatoire observ´ee est plus petite.

8. Nous cherchons une solution pour a = mσY2

Y2 +nσX2 = m m+n.

Une condition suffisante est que les deux variancesσ2X etσ2Y soient ´egales.

Quelle est la morale de cette histoire ? Nous venons de voir que, face

`a des observations qui ont une variance non constante, nous allons ac- corder davantage de poids aux observations provenant d’une distribu- tion avec uneplus petite variance. L’intuition de ce r´esultat est simple.

Une observation tir´ee d’une distribution avec une variance qui est tr`es petite nous permet d’estimer notre param`etre inconnu (µ) avec plus de pr´ecision. L’observation contient plus d’information concernant µ qu’une observation provenant d’une distribution avec une tr`es grande variance. Donc, il serait logique de mettre un poids plus ´elev´e sur les observations qui ont une plus petite variance.

Nous venons en fait de d´emontrer la logique derri`ere l’estimateur des moindres carr´es g´en´eralis´es, que vous pourrez apprendre dans le cours ECO5272. Lorsque les variances dans les deux ´echantillons sont ´egales,

(7)

on met le mˆeme poids sur chaque observation (on pond`ere quand mˆeme utilisant la taille relative des deux ´echantillons). Donc, l’estimateur MCO est en fait un cas particulier de l’estimateur des moindres carr´es g´en´eralis´es.

3 Th´eor`eme limite centrale (40 points)

J’inclus un fichier avec un code comment´e. Voir l’adresse suivante : www.er.uqam.ca/nobel/r10735/4272/tps/exer1431b.R

J’ai inclus presque toutes les commandes n´ecessaires sauf celles pour sauvegarder les graphiques dans des fichiers.

Références

Documents relatifs

Q3 Pour déterminer les nombres faibles on recherche pour des valeurs croissantes de d(n), les plus petits nombres ayant ce nombre de d(n) comme diviseurs. Dans cette suite on élimine

Consigne : compare les étiquettes de l’arbre et range-les de la plus petite à la plus

Consigne : compare les étiquettes du koala et range-les de la plus petite à la plus

Je cherche le plus grand nombre entier pair s’écrivant avec 4 chiffres différents qui respecte les conditions suivantes : La somme des 4 chiffres est 6... Je cherche le plus

De plus, dans ces séances de calcul mental on peut introduire progressivement le produit de deux décimaux comme ci-dessous avant d’en arriver au chapitre..

Mill partage avec les utilitaristes le même refus de penser l’être humain à partir d’une morale transcendante ou a priori (intuitionniste). Il n’y a pas de phénomènes moraux en

- plus le rayon de l'astre est grand, plus la force est petite (car le rayon de l'astre intervient au dénominateur dans la relation du 2.a.). - plus la masse de l'astre est

 Pour traduire un nombre décimal en nombre binaire, il faut faire des divisions