• Aucun résultat trouvé

ECO 4272 : Introduction ` a l’´ Econom´ etrie Le mod` ele de r´ egression simple

N/A
N/A
Protected

Academic year: 2022

Partager "ECO 4272 : Introduction ` a l’´ Econom´ etrie Le mod` ele de r´ egression simple"

Copied!
179
0
0

Texte intégral

(1)

ECO 4272 : Introduction ` a l’´ Econom´ etrie Le mod` ele de r´ egression simple

Steve Ambler

D´epartement des sciences ´economiques Ecole des sciences de la gestion´ Universit´e du Qu´ebec `a Montr´eal

2018: Steve Amblerc

Hiver 2018

(2)

Objectifs

1. Pr´esenter le mod`ele de r´egression simple.

2. D´eriver l’estimateur MCO.

3. Etudier ses propri´´ et´es alg´ebriques.

4. Regarder les hypoth`eses statistiques du mod`ele et analyser leurs cons´equences (absence de biais, convergence, efficience). 5. Distinguer entre les cas d’erreurs h´et´erosc´edastiques et erreurs

homosc´edastiques.

6. Analyser les tests d’hypoth`ese et le calcul d’intervalles de confiance dans le cadre du mod`ele.

(3)

Objectifs

1. Pr´esenter le mod`ele de r´egression simple.

2. D´eriver l’estimateur MCO.

3. Etudier ses propri´´ et´es alg´ebriques.

4. Regarder les hypoth`eses statistiques du mod`ele et analyser leurs cons´equences (absence de biais, convergence, efficience). 5. Distinguer entre les cas d’erreurs h´et´erosc´edastiques et erreurs

homosc´edastiques.

6. Analyser les tests d’hypoth`ese et le calcul d’intervalles de confiance dans le cadre du mod`ele.

(4)

Objectifs

1. Pr´esenter le mod`ele de r´egression simple.

2. D´eriver l’estimateur MCO.

3. Etudier ses propri´´ et´es alg´ebriques.

4. Regarder les hypoth`eses statistiques du mod`ele et analyser leurs cons´equences (absence de biais, convergence, efficience). 5. Distinguer entre les cas d’erreurs h´et´erosc´edastiques et erreurs

homosc´edastiques.

6. Analyser les tests d’hypoth`ese et le calcul d’intervalles de confiance dans le cadre du mod`ele.

(5)

Objectifs

1. Pr´esenter le mod`ele de r´egression simple.

2. D´eriver l’estimateur MCO.

3. Etudier ses propri´´ et´es alg´ebriques.

4. Regarder les hypoth`eses statistiques du mod`ele et analyser leurs cons´equences (absence de biais, convergence, efficience).

5. Distinguer entre les cas d’erreurs h´et´erosc´edastiques et erreurs homosc´edastiques.

6. Analyser les tests d’hypoth`ese et le calcul d’intervalles de confiance dans le cadre du mod`ele.

(6)

Objectifs

1. Pr´esenter le mod`ele de r´egression simple.

2. D´eriver l’estimateur MCO.

3. Etudier ses propri´´ et´es alg´ebriques.

4. Regarder les hypoth`eses statistiques du mod`ele et analyser leurs cons´equences (absence de biais, convergence, efficience).

5. Distinguer entre les cas d’erreurs h´et´erosc´edastiques et erreurs homosc´edastiques.

6. Analyser les tests d’hypoth`ese et le calcul d’intervalles de confiance dans le cadre du mod`ele.

(7)

Objectifs

1. Pr´esenter le mod`ele de r´egression simple.

2. D´eriver l’estimateur MCO.

3. Etudier ses propri´´ et´es alg´ebriques.

4. Regarder les hypoth`eses statistiques du mod`ele et analyser leurs cons´equences (absence de biais, convergence, efficience).

5. Distinguer entre les cas d’erreurs h´et´erosc´edastiques et erreurs homosc´edastiques.

6. Analyser les tests d’hypoth`ese et le calcul d’intervalles de confiance dans le cadre du mod`ele.

(8)

Le mod` ele

I Le mod`ele s’´ecrit :

Yi01Xi+ui.

I Yi peut ˆetre pr´edite par une autre variable ´economique Xi.

I La relation est lin´eaire. Sansui c’est l’´equation d’une droite.

(9)

Le mod` ele

I Le mod`ele s’´ecrit :

Yi01Xi+ui.

I Yi peut ˆetre pr´edite par une autre variable ´economique Xi.

I La relation est lin´eaire. Sansui c’est l’´equation d’une droite.

(10)

Le mod` ele

I Le mod`ele s’´ecrit :

Yi01Xi+ui.

I Yi peut ˆetre pr´edite par une autre variable ´economique Xi.

I La relation est lin´eaire. Sansui c’est l’´equation d’une droite.

(11)

Estimateur MCO

I Minimiser les erreurs de pr´evision – (Yi −β0−β1Xi).

I Choisirβ0 etβ1 pour minimiser la somme des erreurs au carr´e.

I Alg´ebriquement :

βmin01

n

X

i=1

(Yi −β0−β1Xi)2.

(12)

Estimateur MCO

I Minimiser les erreurs de pr´evision – (Yi −β0−β1Xi).

I Choisirβ0 etβ1 pour minimiser la somme des erreurs au carr´e.

I Alg´ebriquement :

βmin01

n

X

i=1

(Yi −β0−β1Xi)2.

(13)

Estimateur MCO

I Minimiser les erreurs de pr´evision – (Yi −β0−β1Xi).

I Choisirβ0 etβ1 pour minimiser la somme des erreurs au carr´e.

I Alg´ebriquement :

βmin01

n

X

i=1

(Yi −β0−β1Xi)2.

(14)

Estimateur MCO

I Minimiser les erreurs de pr´evision – (Yi −β0−β1Xi).

I Choisirβ0 etβ1 pour minimiser la somme des erreurs au carr´e.

I Alg´ebriquement :

βmin01

n

X

i=1

(Yi −β0−β1Xi)2.

(15)

Estimateur MCD (suite)

I CPOs :

β0 :−2

n

X

i=1

Yi−βˆ0−βˆ1Xi

= 0;

β1 :−2

n

X

i=1

Yi−βˆ0−βˆ1Xi

Xi = 0,

I Les chapeaux sur β0 etβ1 soulignent l’id´ee que lorsqu’on trouve la solution `a ces deux ´equations, il s’agit d’estimateurs MCO.

(16)

Estimateur MCD (suite)

I CPOs :

β0 :−2

n

X

i=1

Yi−βˆ0−βˆ1Xi

= 0;

β1 :−2

n

X

i=1

Yi−βˆ0−βˆ1Xi

Xi = 0,

I Les chapeaux sur β0 etβ1 soulignent l’id´ee que lorsqu’on trouve la solution `a ces deux ´equations, il s’agit d’estimateurs MCO.

(17)

Estimateur MCD (suite)

I CPOs :

β0 :−2

n

X

i=1

Yi−βˆ0−βˆ1Xi

= 0;

β1 :−2

n

X

i=1

Yi−βˆ0−βˆ1Xi

Xi = 0,

I Les chapeaux sur β0 etβ1 soulignent l’id´ee que lorsqu’on trouve la solution `a ces deux ´equations, il s’agit d’estimateurs MCO.

(18)

Extimateur MCO (suite)

I 1`ere CPO donne

n

X

i=1

Yi −βˆ0−βˆ1Xi

= 0

n

X

i=1

βˆ0=nβˆ0 =

n

X

i=1

Yi −βˆ1Xi

⇒βˆ0= 1 n

n

X

i=1

Yi −βˆ1

1 n

n

X

i=1

Xi

⇒βˆ0 = ¯Y −βˆ1X¯.

I Solution pour ˆβ0 en fonction de ˆβ1.

(19)

Extimateur MCO (suite)

I 1`ere CPO donne

n

X

i=1

Yi −βˆ0−βˆ1Xi

= 0

n

X

i=1

βˆ0=n βˆ0 =

n

X

i=1

Yi −βˆ1Xi

⇒βˆ0= 1 n

n

X

i=1

Yi −βˆ1

1 n

n

X

i=1

Xi

⇒βˆ0 = ¯Y −βˆ1X¯.

I Solution pour ˆβ0 en fonction de ˆβ1.

(20)

Extimateur MCO (suite)

I 1`ere CPO donne

n

X

i=1

Yi −βˆ0−βˆ1Xi

= 0

n

X

i=1

βˆ0=n βˆ0 =

n

X

i=1

Yi −βˆ1Xi

⇒βˆ0= 1 n

n

X

i=1

Yi−βˆ1

1 n

n

X

i=1

Xi

⇒βˆ0 = ¯Y −βˆ1X¯.

I Solution pour ˆβ0 en fonction de ˆβ1.

(21)

Extimateur MCO (suite)

I 1`ere CPO donne

n

X

i=1

Yi −βˆ0−βˆ1Xi

= 0

n

X

i=1

βˆ0=n βˆ0 =

n

X

i=1

Yi −βˆ1Xi

⇒βˆ0= 1 n

n

X

i=1

Yi−βˆ1

1 n

n

X

i=1

Xi

⇒βˆ0 = ¯Y −βˆ1X¯.

I Solution pour ˆβ0 en fonction de ˆβ1.

(22)

Extimateur MCO (suite)

I 1`ere CPO donne

n

X

i=1

Yi −βˆ0−βˆ1Xi

= 0

n

X

i=1

βˆ0=n βˆ0 =

n

X

i=1

Yi −βˆ1Xi

⇒βˆ0= 1 n

n

X

i=1

Yi−βˆ1

1 n

n

X

i=1

Xi

⇒βˆ0 = ¯Y −βˆ1X¯.

I Solution pour ˆβ0 en fonction de ˆβ1.

(23)

I Substituant cette solution dans la deuxi`eme CPO :

n

X

i=1

Yi −Y¯ + ˆβ1X¯−βˆ1Xi

Xi = 0.

⇒ 1 n

n

X

i=1

YiXi−1 n

n

X

i=1

Y X¯ i−1 n

n

X

i=1

βˆ1(Xi)2+1 n

n

X

i=1

βˆ1X X¯ i = 0

⇒ 1 n

n

X

i=1

YiXi−Y¯1 n

n

X

i=1

Xi−βˆ1 1 n

n

X

i=1

(Xi)2−X¯1 n

n

X

i=1

Xi

!

= 0

⇒ 1 n

n

X

i=1

YiXi −Y¯X¯−βˆ1 1 n

n

X

i=1

(Xi)2−X¯X¯

!

= 0

⇒βˆ1 =

1 n

Pn

i=1YiXi −X¯Y¯

1 n

Pn

i=1(Xi)2− X¯2 =

1 n

Pn

i=1 Yi −Y¯

Xi −X¯

1 n

Pn

i=1 Xi −X¯2 .

(24)

I Substituant cette solution dans la deuxi`eme CPO :

n

X

i=1

Yi −Y¯ + ˆβ1X¯−βˆ1Xi

Xi = 0.

⇒ 1 n

n

X

i=1

YiXi−1 n

n

X

i=1

Y X¯ i−1 n

n

X

i=1

βˆ1(Xi)2+1 n

n

X

i=1

βˆ1X X¯ i = 0

⇒ 1 n

n

X

i=1

YiXi−Y¯1 n

n

X

i=1

Xi−βˆ1 1 n

n

X

i=1

(Xi)2−X¯1 n

n

X

i=1

Xi

!

= 0

⇒ 1 n

n

X

i=1

YiXi −Y¯X¯−βˆ1 1 n

n

X

i=1

(Xi)2−X¯X¯

!

= 0

⇒βˆ1 =

1 n

Pn

i=1YiXi −X¯Y¯

1 n

Pn

i=1(Xi)2− X¯2 =

1 n

Pn

i=1 Yi −Y¯

Xi −X¯

1 n

Pn

i=1 Xi −X¯2 .

(25)

I Substituant cette solution dans la deuxi`eme CPO :

n

X

i=1

Yi −Y¯ + ˆβ1X¯−βˆ1Xi

Xi = 0.

⇒ 1 n

n

X

i=1

YiXi−1 n

n

X

i=1

Y X¯ i−1 n

n

X

i=1

βˆ1(Xi)2+1 n

n

X

i=1

βˆ1X X¯ i = 0

⇒ 1 n

n

X

i=1

YiXi−Y¯1 n

n

X

i=1

Xi−βˆ1 1 n

n

X

i=1

(Xi)2−X¯1 n

n

X

i=1

Xi

!

= 0

⇒ 1 n

n

X

i=1

YiXi −Y¯X¯−βˆ1 1 n

n

X

i=1

(Xi)2−X¯X¯

!

= 0

⇒βˆ1 =

1 n

Pn

i=1YiXi −X¯Y¯

1 n

Pn

i=1(Xi)2− X¯2 =

1 n

Pn

i=1 Yi −Y¯

Xi −X¯

1 n

Pn

i=1 Xi −X¯2 .

(26)

I Substituant cette solution dans la deuxi`eme CPO :

n

X

i=1

Yi −Y¯ + ˆβ1X¯−βˆ1Xi

Xi = 0.

⇒ 1 n

n

X

i=1

YiXi−1 n

n

X

i=1

Y X¯ i−1 n

n

X

i=1

βˆ1(Xi)2+1 n

n

X

i=1

βˆ1X X¯ i = 0

⇒ 1 n

n

X

i=1

YiXi−Y¯1 n

n

X

i=1

Xi−βˆ1 1 n

n

X

i=1

(Xi)2−X¯1 n

n

X

i=1

Xi

!

= 0

⇒ 1 n

n

X

i=1

YiXi −Y¯X¯−βˆ1 1 n

n

X

i=1

(Xi)2−X¯X¯

!

= 0

⇒βˆ1 =

1 n

Pn

i=1YiXi −X¯Y¯

1 n

Pn

i=1(Xi)2− X¯2 =

1 n

Pn

i=1 Yi −Y¯

Xi −X¯

1 n

Pn

i=1 Xi −X¯2 .

(27)

I Substituant cette solution dans la deuxi`eme CPO :

n

X

i=1

Yi −Y¯ + ˆβ1X¯−βˆ1Xi

Xi = 0.

⇒ 1 n

n

X

i=1

YiXi−1 n

n

X

i=1

Y X¯ i−1 n

n

X

i=1

βˆ1(Xi)2+1 n

n

X

i=1

βˆ1X X¯ i = 0

⇒ 1 n

n

X

i=1

YiXi−Y¯1 n

n

X

i=1

Xi−βˆ1 1 n

n

X

i=1

(Xi)2−X¯1 n

n

X

i=1

Xi

!

= 0

⇒ 1 n

n

X

i=1

YiXi −Y¯X¯−βˆ1 1 n

n

X

i=1

(Xi)2−X¯X¯

!

= 0

⇒βˆ1 =

1 n

Pn

i=1YiXi−X¯Y¯

1 n

Pn

i=1(Xi)2− X¯2 =

1 n

Pn

i=1 Yi −Y¯

Xi −X¯

1 n

Pn

i=1 Xi −X¯2 .

(28)

Estimateur MCO (suite)

I 2e fa¸con ´equivalente : βˆ1 =

Pn

i=1 Yi−Y¯

Xi −X¯ Pn

i=1 Xi−X¯2 .

I 3e fa¸con ´equivalente : βˆ1=

1 (n−1)

Pn

i=1 Yi −Y¯

Xi−X¯

1 (n−1)

Pn

i=1 Xi −X¯2 .

I Comme aide-m´emoire, la derni`ere expression est peut-ˆetre la plus utile.β1 est le ratio entre la covariance ´echantillonnale entre X etY et la variance ´echantillonnale de X.

(29)

Estimateur MCO (suite)

I 2e fa¸con ´equivalente : βˆ1 =

Pn

i=1 Yi−Y¯

Xi −X¯ Pn

i=1 Xi−X¯2 .

I 3e fa¸con ´equivalente : βˆ1=

1 (n−1)

Pn

i=1 Yi −Y¯

Xi−X¯

1 (n−1)

Pn

i=1 Xi −X¯2 .

I Comme aide-m´emoire, la derni`ere expression est peut-ˆetre la plus utile.β1 est le ratio entre la covariance ´echantillonnale entre X etY et la variance ´echantillonnale de X.

(30)

Estimateur MCO (suite)

I 2e fa¸con ´equivalente : βˆ1 =

Pn

i=1 Yi−Y¯

Xi −X¯ Pn

i=1 Xi−X¯2 .

I 3e fa¸con ´equivalente : βˆ1=

1 (n−1)

Pn

i=1 Yi −Y¯

Xi−X¯

1 (n−1)

Pn

i=1 Xi −X¯2 .

I Comme aide-m´emoire, la derni`ere expression est peut-ˆetre la plus utile.β1 est le ratio entre la covariance ´echantillonnale entre X etY et la variance ´echantillonnale de X.

(31)

Propri´ et´ es alg´ ebriques de l’estimateur MCO

I L’estimateur MCO poss`ede des propri´et´esalg´ebriquesde base.

I Ces propri´et´esne d´ependent pasd’hypoth`eses concernant les propri´et´esstatistiquesde Y,X ouu.

I Nous allons utiliser ces propri´et´es `a maintes reprises pour trouver d’autres propri´et´es de l’estimateur MCO.

I Plusieurs de ces propri´et´es d´ependent du fait que le mod`ele de r´egression inclut une constante. (Sinon voir Windmeijer, 1994.)

(32)

Propri´ et´ es alg´ ebriques de l’estimateur MCO

I L’estimateur MCO poss`ede des propri´et´esalg´ebriquesde base.

I Ces propri´et´esne d´ependent pasd’hypoth`eses concernant les propri´et´esstatistiquesdeY,X ouu.

I Nous allons utiliser ces propri´et´es `a maintes reprises pour trouver d’autres propri´et´es de l’estimateur MCO.

I Plusieurs de ces propri´et´es d´ependent du fait que le mod`ele de r´egression inclut une constante. (Sinon voir Windmeijer, 1994.)

(33)

Propri´ et´ es alg´ ebriques de l’estimateur MCO

I L’estimateur MCO poss`ede des propri´et´esalg´ebriquesde base.

I Ces propri´et´esne d´ependent pasd’hypoth`eses concernant les propri´et´esstatistiquesdeY,X ouu.

I Nous allons utiliser ces propri´et´es `a maintes reprises pour trouver d’autres propri´et´es de l’estimateur MCO.

I Plusieurs de ces propri´et´es d´ependent du fait que le mod`ele de r´egression inclut une constante. (Sinon voir Windmeijer, 1994.)

(34)

Propri´ et´ es alg´ ebriques de l’estimateur MCO

I L’estimateur MCO poss`ede des propri´et´esalg´ebriquesde base.

I Ces propri´et´esne d´ependent pasd’hypoth`eses concernant les propri´et´esstatistiquesdeY,X ouu.

I Nous allons utiliser ces propri´et´es `a maintes reprises pour trouver d’autres propri´et´es de l’estimateur MCO.

I Plusieurs de ces propri´et´es d´ependent du fait que le mod`ele de r´egression inclut une constante. (Sinon voir Windmeijer, 1994.)

(35)

La somme des r´ esidus est z´ ero

I D´efinissons

ˆ

ui ≡Yi−βˆ0−βˆ1Xi

=Yi −Y¯+ ˆβ1X¯−βˆ1Xi.

I Nous avons 1 n

n

X

i=1

ˆ ui = 1

n

n

X

i=1

Yi−Y¯+ ˆβ1X¯ −βˆ1Xi

= 1 n

n

X

i=1

Yi −Y¯

−βˆ11 n

n

X

i=1

Xi−X¯

= 0.

(36)

La somme des r´ esidus est z´ ero

I D´efinissons

ˆ

ui ≡Yi−βˆ0−βˆ1Xi

=Yi −Y¯+ ˆβ1X¯−βˆ1Xi.

I Nous avons 1 n

n

X

i=1

ˆ ui = 1

n

n

X

i=1

Yi−Y¯+ ˆβ1X¯ −βˆ1Xi

= 1 n

n

X

i=1

Yi −Y¯

−βˆ11 n

n

X

i=1

Xi−X¯

= 0.

(37)

La somme des r´ esidus est z´ ero

I D´efinissons

ˆ

ui ≡Yi−βˆ0−βˆ1Xi

=Yi −Y¯+ ˆβ1X¯−βˆ1Xi.

I Nous avons 1 n

n

X

i=1

ˆ ui = 1

n

n

X

i=1

Yi−Y¯+ ˆβ1X¯ −βˆ1Xi

= 1 n

n

X

i=1

Yi −Y¯

−βˆ11 n

n

X

i=1

Xi−X¯

= 0.

(38)

La somme des r´ esidus est z´ ero

I D´efinissons

ˆ

ui ≡Yi−βˆ0−βˆ1Xi

=Yi −Y¯+ ˆβ1X¯−βˆ1Xi.

I Nous avons 1 n

n

X

i=1

ˆ ui = 1

n

n

X

i=1

Yi−Y¯+ ˆβ1X¯ −βˆ1Xi

= 1 n

n

X

i=1

Yi −Y¯

−βˆ11 n

n

X

i=1

Xi−X¯

= 0.

(39)

La somme des r´ esidus est z´ ero

I D´efinissons

ˆ

ui ≡Yi−βˆ0−βˆ1Xi

=Yi −Y¯+ ˆβ1X¯−βˆ1Xi.

I Nous avons 1 n

n

X

i=1

ˆ ui = 1

n

n

X

i=1

Yi−Y¯+ ˆβ1X¯ −βˆ1Xi

= 1 n

n

X

i=1

Yi −Y¯

−βˆ11 n

n

X

i=1

Xi−X¯

= 0.

(40)

La moyenne de la valeur pr´ edite de Y est ´ egale ` a ¯ Y

I D´efinissons ˆYi = ˆβ0+ ˆβ1Xi =Yi−uˆi , la valeur pr´edite deYi.

I Nous avons

i =Yi−uˆi

⇒ 1 n

n

X

i=1

i = 1 n

n

X

i=1

Yi− 1 n

n

X

i=1

ˆ ui

= 1 n

n

X

i=1

Yi ≡Y¯.

(41)

La moyenne de la valeur pr´ edite de Y est ´ egale ` a ¯ Y

I D´efinissons ˆYi = ˆβ0+ ˆβ1Xi =Yi−uˆi , la valeur pr´edite deYi.

I Nous avons

i =Yi−uˆi

⇒ 1 n

n

X

i=1

i = 1 n

n

X

i=1

Yi− 1 n

n

X

i=1

ˆ ui

= 1 n

n

X

i=1

Yi ≡Y¯.

(42)

La moyenne de la valeur pr´ edite de Y est ´ egale ` a ¯ Y

I D´efinissons ˆYi = ˆβ0+ ˆβ1Xi =Yi−uˆi , la valeur pr´edite deYi.

I Nous avons

i =Yi−uˆi

⇒ 1 n

n

X

i=1

i = 1 n

n

X

i=1

Yi− 1 n

n

X

i=1

ˆ ui

= 1 n

n

X

i=1

Yi ≡Y¯.

(43)

La moyenne de la valeur pr´ edite de Y est ´ egale ` a ¯ Y

I D´efinissons ˆYi = ˆβ0+ ˆβ1Xi =Yi−uˆi , la valeur pr´edite deYi.

I Nous avons

i =Yi−uˆi

⇒ 1 n

n

X

i=1

i = 1 n

n

X

i=1

Yi− 1 n

n

X

i=1

ˆ ui

= 1 n

n

X

i=1

Yi ≡Y¯.

(44)

Orthogonalit´ e entre les X

i

et les r´ esidus

n

X

i=1

Xii

=

n

X

i=1

Xii−X¯

n

X

i=1

ˆ ui =

n

X

i=1

Xi −X¯ ˆ ui

=

n

X

i=1

Xi−X¯

Yi−Y¯ + ˆβ1X¯−βˆ1Xi

=

n

X

i=1

Xi −X¯

Yi −Y¯

−βˆ1 Xi−X¯

=

n

X

i=1

Xi −X¯

Yi −Y¯

−βˆ1 n

X

i=1

Xi −X¯2

=

n

X

i=1

Xi−X¯

Yi −Y¯

− Pn

i=1 Xi−X¯

Yi −Y¯ Pn

i=1 Xi−X¯2

n

X

i=1

Xi−X¯2

=

n

X

i=1

Xi −X¯

Yi −Y¯

n

X

i=1

Xi −X¯

Yi−Y¯

= 0.

(45)

Orthogonalit´ e entre les X

i

et les r´ esidus

n

X

i=1

Xii =

n

X

i=1

Xii−X¯

n

X

i=1

ˆ ui

=

n

X

i=1

Xi −X¯ ˆ ui

=

n

X

i=1

Xi−X¯

Yi−Y¯ + ˆβ1X¯−βˆ1Xi

=

n

X

i=1

Xi −X¯

Yi −Y¯

−βˆ1 Xi−X¯

=

n

X

i=1

Xi −X¯

Yi −Y¯

−βˆ1 n

X

i=1

Xi −X¯2

=

n

X

i=1

Xi−X¯

Yi −Y¯

− Pn

i=1 Xi−X¯

Yi −Y¯ Pn

i=1 Xi−X¯2

n

X

i=1

Xi−X¯2

=

n

X

i=1

Xi −X¯

Yi −Y¯

n

X

i=1

Xi −X¯

Yi−Y¯

= 0.

(46)

Orthogonalit´ e entre les X

i

et les r´ esidus

n

X

i=1

Xii =

n

X

i=1

Xii−X¯

n

X

i=1

ˆ ui =

n

X

i=1

Xi −X¯ ˆ ui

=

n

X

i=1

Xi−X¯

Yi−Y¯ + ˆβ1X¯−βˆ1Xi

=

n

X

i=1

Xi −X¯

Yi −Y¯

−βˆ1 Xi−X¯

=

n

X

i=1

Xi −X¯

Yi −Y¯

−βˆ1 n

X

i=1

Xi −X¯2

=

n

X

i=1

Xi−X¯

Yi −Y¯

− Pn

i=1 Xi−X¯

Yi −Y¯ Pn

i=1 Xi−X¯2

n

X

i=1

Xi−X¯2

=

n

X

i=1

Xi −X¯

Yi −Y¯

n

X

i=1

Xi −X¯

Yi−Y¯

= 0.

(47)

Orthogonalit´ e entre les X

i

et les r´ esidus

n

X

i=1

Xii =

n

X

i=1

Xii−X¯

n

X

i=1

ˆ ui =

n

X

i=1

Xi −X¯ ˆ ui

=

n

X

i=1

Xi−X¯

Yi−Y¯ + ˆβ1X¯−βˆ1Xi

=

n

X

i=1

Xi −X¯

Yi −Y¯

−βˆ1 Xi−X¯

=

n

X

i=1

Xi −X¯

Yi −Y¯

−βˆ1 n

X

i=1

Xi −X¯2

=

n

X

i=1

Xi−X¯

Yi −Y¯

− Pn

i=1 Xi−X¯

Yi −Y¯ Pn

i=1 Xi−X¯2

n

X

i=1

Xi−X¯2

=

n

X

i=1

Xi −X¯

Yi −Y¯

n

X

i=1

Xi −X¯

Yi−Y¯

= 0.

(48)

Orthogonalit´ e entre les X

i

et les r´ esidus

n

X

i=1

Xii =

n

X

i=1

Xii−X¯

n

X

i=1

ˆ ui =

n

X

i=1

Xi −X¯ ˆ ui

=

n

X

i=1

Xi−X¯

Yi−Y¯ + ˆβ1X¯−βˆ1Xi

=

n

X

i=1

Xi −X¯

Yi−Y¯

−βˆ1 Xi−X¯

=

n

X

i=1

Xi −X¯

Yi −Y¯

−βˆ1 n

X

i=1

Xi −X¯2

=

n

X

i=1

Xi−X¯

Yi −Y¯

− Pn

i=1 Xi−X¯

Yi −Y¯ Pn

i=1 Xi−X¯2

n

X

i=1

Xi−X¯2

=

n

X

i=1

Xi −X¯

Yi −Y¯

n

X

i=1

Xi −X¯

Yi−Y¯

= 0.

(49)

Orthogonalit´ e entre les X

i

et les r´ esidus

n

X

i=1

Xii =

n

X

i=1

Xii−X¯

n

X

i=1

ˆ ui =

n

X

i=1

Xi −X¯ ˆ ui

=

n

X

i=1

Xi−X¯

Yi−Y¯ + ˆβ1X¯−βˆ1Xi

=

n

X

i=1

Xi −X¯

Yi−Y¯

−βˆ1 Xi−X¯

=

n

X

i=1

Xi −X¯

Yi −Y¯

−βˆ1 n

X

i=1

Xi −X¯2

=

n

X

i=1

Xi−X¯

Yi −Y¯

− Pn

i=1 Xi−X¯

Yi −Y¯ Pn

i=1 Xi−X¯2

n

X

i=1

Xi−X¯2

=

n

X

i=1

Xi −X¯

Yi −Y¯

n

X

i=1

Xi −X¯

Yi−Y¯

= 0.

(50)

Orthogonalit´ e entre les X

i

et les r´ esidus

n

X

i=1

Xii =

n

X

i=1

Xii−X¯

n

X

i=1

ˆ ui =

n

X

i=1

Xi −X¯ ˆ ui

=

n

X

i=1

Xi−X¯

Yi−Y¯ + ˆβ1X¯−βˆ1Xi

=

n

X

i=1

Xi −X¯

Yi−Y¯

−βˆ1 Xi−X¯

=

n

X

i=1

Xi −X¯

Yi −Y¯

−βˆ1 n

X

i=1

Xi −X¯2

=

n

X

i=1

Xi−X¯

Yi −Y¯

− Pn

i=1 Xi−X¯

Yi −Y¯ Pn

i=1 Xi−X¯2

n

X

i=1

Xi−X¯2

=

n

X

i=1

Xi −X¯

Yi −Y¯

n

X

i=1

Xi −X¯

Yi−Y¯

= 0.

(51)

Orthogonalit´ e entre les X

i

et les r´ esidus

n

X

i=1

Xii =

n

X

i=1

Xii−X¯

n

X

i=1

ˆ ui =

n

X

i=1

Xi −X¯ ˆ ui

=

n

X

i=1

Xi−X¯

Yi−Y¯ + ˆβ1X¯−βˆ1Xi

=

n

X

i=1

Xi −X¯

Yi−Y¯

−βˆ1 Xi−X¯

=

n

X

i=1

Xi −X¯

Yi −Y¯

−βˆ1 n

X

i=1

Xi −X¯2

=

n

X

i=1

Xi−X¯

Yi −Y¯

− Pn

i=1 Xi−X¯

Yi −Y¯ Pn

i=1 Xi−X¯2

n

X

i=1

Xi−X¯2

=

n

X

i=1

Xi −X¯

Yi −Y¯

n

X

i=1

Xi−X¯

Yi−Y¯

= 0.

(52)

Orthogonalit´ e entre les X

i

et les r´ esidus

n

X

i=1

Xii =

n

X

i=1

Xii−X¯

n

X

i=1

ˆ ui =

n

X

i=1

Xi −X¯ ˆ ui

=

n

X

i=1

Xi−X¯

Yi−Y¯ + ˆβ1X¯−βˆ1Xi

=

n

X

i=1

Xi −X¯

Yi−Y¯

−βˆ1 Xi−X¯

=

n

X

i=1

Xi −X¯

Yi −Y¯

−βˆ1 n

X

i=1

Xi −X¯2

=

n

X

i=1

Xi−X¯

Yi −Y¯

− Pn

i=1 Xi−X¯

Yi −Y¯ Pn

i=1 Xi−X¯2

n

X

i=1

Xi−X¯2

=

n

X

i=1

Xi −X¯

Yi −Y¯

n

X

i=1

Xi−X¯

Yi−Y¯

= 0.

(53)

Interpr´ etation g´ eom´ etrique (projection)

(54)

Ajustement statistique : R

2

I D´efinissons : TSS≡Pn

i=1 Yi −Y¯2

, la somme totale des carr´es.

I D´efinissons SSR≡Pn i=1

Yi−Yˆi2

, la somme des r´esidus au carr´e.

I D´efinissons ESS≡Pn i=1

i −Y¯ 2

, la somme expliqu´ee des carr´es.

I Nous pouvons montrer que TSS = ESS + SSR.

I La preuve (un peu longue) est sur la page suivante.

(55)

Ajustement statistique : R

2

I D´efinissons : TSS≡Pn

i=1 Yi −Y¯2

, la somme totale des carr´es.

I D´efinissons SSR≡Pn i=1

Yi−Yˆi

2

, la somme des r´esidus au carr´e.

I D´efinissons ESS≡Pn i=1

i −Y¯ 2

, la somme expliqu´ee des carr´es.

I Nous pouvons montrer que TSS = ESS + SSR.

I La preuve (un peu longue) est sur la page suivante.

(56)

Ajustement statistique : R

2

I D´efinissons : TSS≡Pn

i=1 Yi −Y¯2

, la somme totale des carr´es.

I D´efinissons SSR≡Pn i=1

Yi−Yˆi

2

, la somme des r´esidus au carr´e.

I D´efinissons ESS≡Pn i=1

i −Y¯ 2

, la somme expliqu´ee des carr´es.

I Nous pouvons montrer que TSS = ESS + SSR.

I La preuve (un peu longue) est sur la page suivante.

(57)

Ajustement statistique : R

2

I D´efinissons : TSS≡Pn

i=1 Yi −Y¯2

, la somme totale des carr´es.

I D´efinissons SSR≡Pn i=1

Yi−Yˆi

2

, la somme des r´esidus au carr´e.

I D´efinissons ESS≡Pn i=1

i −Y¯ 2

, la somme expliqu´ee des carr´es.

I Nous pouvons montrer que TSS = ESS + SSR.

I La preuve (un peu longue) est sur la page suivante.

(58)

Ajustement statistique : R

2

I D´efinissons : TSS≡Pn

i=1 Yi −Y¯2

, la somme totale des carr´es.

I D´efinissons SSR≡Pn i=1

Yi−Yˆi

2

, la somme des r´esidus au carr´e.

I D´efinissons ESS≡Pn i=1

i −Y¯ 2

, la somme expliqu´ee des carr´es.

I Nous pouvons montrer que TSS = ESS + SSR.

I La preuve (un peu longue) est sur la page suivante.

(59)

Ajustement statistique (suite)

TSS≡

n

X

i=1

Yi −Y¯2

=

n

X

i=1

Yi −Yˆi +

i −Y¯2

=

n

X

i=1

Yi −Yˆi

2

+

n

X

i=1

i−Y¯ 2

+ 2

n

X

i=1

Yi −Yˆii −Y¯

= SSR+ESS+2

n

X

i=1

ˆ ui

i −Y¯

= SSR+ESS+2

n

X

i=1

ˆ

uii−2 ¯Y

n

X

i=1

ˆ ui

= SSR + ESS + 2

n

X

i=1

ˆ

uii = SSR + ESS + 2

n

X

i=1

ˆ ui

βˆ0+ ˆβ1Xi

= SSR + ESS + 2 ˆβ0 n

X

i=1

ˆ ui + 2 ˆβ1

n

X

i=1

ˆ uiXi

= SSR + ESS.

(60)

Ajustement statistique (suite)

TSS≡

n

X

i=1

Yi −Y¯2

=

n

X

i=1

Yi −Yˆi +

i −Y¯2

=

n

X

i=1

Yi −Yˆi

2

+

n

X

i=1

i−Y¯ 2

+ 2

n

X

i=1

Yi −Yˆii −Y¯

= SSR+ESS+2

n

X

i=1

ˆ ui

i −Y¯

= SSR+ESS+2

n

X

i=1

ˆ

uii−2 ¯Y

n

X

i=1

ˆ ui

= SSR + ESS + 2

n

X

i=1

ˆ

uii = SSR + ESS + 2

n

X

i=1

ˆ ui

βˆ0+ ˆβ1Xi

= SSR + ESS + 2 ˆβ0 n

X

i=1

ˆ ui + 2 ˆβ1

n

X

i=1

ˆ uiXi

= SSR + ESS.

(61)

Ajustement statistique (suite)

TSS≡

n

X

i=1

Yi −Y¯2

=

n

X

i=1

Yi −Yˆi +

i −Y¯2

=

n

X

i=1

Yi −Yˆi

2

+

n

X

i=1

i−Y¯ 2

+ 2

n

X

i=1

Yi −Yˆii −Y¯

= SSR+ESS+2

n

X

i=1

ˆ ui

i −Y¯

= SSR+ESS+2

n

X

i=1

ˆ

uii−2 ¯Y

n

X

i=1

ˆ ui

= SSR + ESS + 2

n

X

i=1

ˆ

uii = SSR + ESS + 2

n

X

i=1

ˆ ui

βˆ0+ ˆβ1Xi

= SSR + ESS + 2 ˆβ0 n

X

i=1

ˆ ui + 2 ˆβ1

n

X

i=1

ˆ uiXi

= SSR + ESS.

(62)

Ajustement statistique (suite)

TSS≡

n

X

i=1

Yi −Y¯2

=

n

X

i=1

Yi −Yˆi +

i −Y¯2

=

n

X

i=1

Yi −Yˆi

2

+

n

X

i=1

i−Y¯ 2

+ 2

n

X

i=1

Yi −Yˆii −Y¯

= SSR+ESS+2

n

X

i=1

ˆ ui

i −Y¯

= SSR+ESS+2

n

X

i=1

ˆ

uii−2 ¯Y

n

X

i=1

ˆ ui

= SSR + ESS + 2

n

X

i=1

ˆ

uii = SSR + ESS + 2

n

X

i=1

ˆ ui

βˆ0+ ˆβ1Xi

= SSR + ESS + 2 ˆβ0 n

X

i=1

ˆ ui + 2 ˆβ1

n

X

i=1

ˆ uiXi

= SSR + ESS.

Références

Documents relatifs

Par exemple, dans ce chapitre, nous avons utilis´e n tantˆot pour indiquer toutes les r´ealisations distinctes possibles d’une variable al´eatoire lorsqu’on d´efinit les moments

1.2 Diagnostics pour d´ etecter des observations qui ont une influence d´ emesur´ ee sur les r´ esultats de l’estimation (coefficients, valeurs pr´ edites, variance estim´ ee

I D´ efinissons ˆ β (i ) comme le vecteur de param` etres estim´ es apr` es avoir laiss´ e tomber l’observation i de l’´ echantillon, et ˆ Y (i) le vecteur de valeurs pr´

Savoir comment tester une hypoth`ese simple concernant un moment (esp´erance, variance, etc.) d’une variable al´eatoire, avec hypoth`ese alternative unilat´erale ou

• Savoir que le test F effectu´e le plus souvent dans le contexte du mod`ele de r´egression multiple, c’est le test de l’hypoth`ese jointe nulle que tous les coefficients sauf

En d´epit de l’insistance sur une variance des erreurs qui n’est pas constante dans les donn´ees, on ne pr´esente pas de tests statistiques formels dans le manuel de Stock et

I Th´ eor` eme de la limite centrale : la moyenne d’un nombre suffisamment ´ elev´ e de variables al´ eatoires qui sont ind´ ependamment distribu´ ees et qui ont une moyenne et

I But : pr´ esenter quelques strat´ egies g´ en´ erales pour sp´ ecifier et estimer des mod` eles ´ econom´ etriques non lin´ eaires.. I Mod` eles non lin´ eaires dans les