ECO 4272 : Introduction ` a l’´ Econom´ etrie Le mod` ele de r´ egression simple
Steve Ambler
D´epartement des sciences ´economiques Ecole des sciences de la gestion´ Universit´e du Qu´ebec `a Montr´eal
2018: Steve Amblerc
Hiver 2018
Objectifs
1. Pr´esenter le mod`ele de r´egression simple.
2. D´eriver l’estimateur MCO.
3. Etudier ses propri´´ et´es alg´ebriques.
4. Regarder les hypoth`eses statistiques du mod`ele et analyser leurs cons´equences (absence de biais, convergence, efficience). 5. Distinguer entre les cas d’erreurs h´et´erosc´edastiques et erreurs
homosc´edastiques.
6. Analyser les tests d’hypoth`ese et le calcul d’intervalles de confiance dans le cadre du mod`ele.
Objectifs
1. Pr´esenter le mod`ele de r´egression simple.
2. D´eriver l’estimateur MCO.
3. Etudier ses propri´´ et´es alg´ebriques.
4. Regarder les hypoth`eses statistiques du mod`ele et analyser leurs cons´equences (absence de biais, convergence, efficience). 5. Distinguer entre les cas d’erreurs h´et´erosc´edastiques et erreurs
homosc´edastiques.
6. Analyser les tests d’hypoth`ese et le calcul d’intervalles de confiance dans le cadre du mod`ele.
Objectifs
1. Pr´esenter le mod`ele de r´egression simple.
2. D´eriver l’estimateur MCO.
3. Etudier ses propri´´ et´es alg´ebriques.
4. Regarder les hypoth`eses statistiques du mod`ele et analyser leurs cons´equences (absence de biais, convergence, efficience). 5. Distinguer entre les cas d’erreurs h´et´erosc´edastiques et erreurs
homosc´edastiques.
6. Analyser les tests d’hypoth`ese et le calcul d’intervalles de confiance dans le cadre du mod`ele.
Objectifs
1. Pr´esenter le mod`ele de r´egression simple.
2. D´eriver l’estimateur MCO.
3. Etudier ses propri´´ et´es alg´ebriques.
4. Regarder les hypoth`eses statistiques du mod`ele et analyser leurs cons´equences (absence de biais, convergence, efficience).
5. Distinguer entre les cas d’erreurs h´et´erosc´edastiques et erreurs homosc´edastiques.
6. Analyser les tests d’hypoth`ese et le calcul d’intervalles de confiance dans le cadre du mod`ele.
Objectifs
1. Pr´esenter le mod`ele de r´egression simple.
2. D´eriver l’estimateur MCO.
3. Etudier ses propri´´ et´es alg´ebriques.
4. Regarder les hypoth`eses statistiques du mod`ele et analyser leurs cons´equences (absence de biais, convergence, efficience).
5. Distinguer entre les cas d’erreurs h´et´erosc´edastiques et erreurs homosc´edastiques.
6. Analyser les tests d’hypoth`ese et le calcul d’intervalles de confiance dans le cadre du mod`ele.
Objectifs
1. Pr´esenter le mod`ele de r´egression simple.
2. D´eriver l’estimateur MCO.
3. Etudier ses propri´´ et´es alg´ebriques.
4. Regarder les hypoth`eses statistiques du mod`ele et analyser leurs cons´equences (absence de biais, convergence, efficience).
5. Distinguer entre les cas d’erreurs h´et´erosc´edastiques et erreurs homosc´edastiques.
6. Analyser les tests d’hypoth`ese et le calcul d’intervalles de confiance dans le cadre du mod`ele.
Le mod` ele
I Le mod`ele s’´ecrit :
Yi =β0+β1Xi+ui.
I Yi peut ˆetre pr´edite par une autre variable ´economique Xi.
I La relation est lin´eaire. Sansui c’est l’´equation d’une droite.
Le mod` ele
I Le mod`ele s’´ecrit :
Yi =β0+β1Xi+ui.
I Yi peut ˆetre pr´edite par une autre variable ´economique Xi.
I La relation est lin´eaire. Sansui c’est l’´equation d’une droite.
Le mod` ele
I Le mod`ele s’´ecrit :
Yi =β0+β1Xi+ui.
I Yi peut ˆetre pr´edite par une autre variable ´economique Xi.
I La relation est lin´eaire. Sansui c’est l’´equation d’une droite.
Estimateur MCO
I Minimiser les erreurs de pr´evision – (Yi −β0−β1Xi).
I Choisirβ0 etβ1 pour minimiser la somme des erreurs au carr´e.
I Alg´ebriquement :
βmin0,β1
n
X
i=1
(Yi −β0−β1Xi)2.
Estimateur MCO
I Minimiser les erreurs de pr´evision – (Yi −β0−β1Xi).
I Choisirβ0 etβ1 pour minimiser la somme des erreurs au carr´e.
I Alg´ebriquement :
βmin0,β1
n
X
i=1
(Yi −β0−β1Xi)2.
Estimateur MCO
I Minimiser les erreurs de pr´evision – (Yi −β0−β1Xi).
I Choisirβ0 etβ1 pour minimiser la somme des erreurs au carr´e.
I Alg´ebriquement :
βmin0,β1
n
X
i=1
(Yi −β0−β1Xi)2.
Estimateur MCO
I Minimiser les erreurs de pr´evision – (Yi −β0−β1Xi).
I Choisirβ0 etβ1 pour minimiser la somme des erreurs au carr´e.
I Alg´ebriquement :
βmin0,β1
n
X
i=1
(Yi −β0−β1Xi)2.
Estimateur MCD (suite)
I CPOs :
β0 :−2
n
X
i=1
Yi−βˆ0−βˆ1Xi
= 0;
β1 :−2
n
X
i=1
Yi−βˆ0−βˆ1Xi
Xi = 0,
I Les chapeaux sur β0 etβ1 soulignent l’id´ee que lorsqu’on trouve la solution `a ces deux ´equations, il s’agit d’estimateurs MCO.
Estimateur MCD (suite)
I CPOs :
β0 :−2
n
X
i=1
Yi−βˆ0−βˆ1Xi
= 0;
β1 :−2
n
X
i=1
Yi−βˆ0−βˆ1Xi
Xi = 0,
I Les chapeaux sur β0 etβ1 soulignent l’id´ee que lorsqu’on trouve la solution `a ces deux ´equations, il s’agit d’estimateurs MCO.
Estimateur MCD (suite)
I CPOs :
β0 :−2
n
X
i=1
Yi−βˆ0−βˆ1Xi
= 0;
β1 :−2
n
X
i=1
Yi−βˆ0−βˆ1Xi
Xi = 0,
I Les chapeaux sur β0 etβ1 soulignent l’id´ee que lorsqu’on trouve la solution `a ces deux ´equations, il s’agit d’estimateurs MCO.
Extimateur MCO (suite)
I 1`ere CPO donne
n
X
i=1
Yi −βˆ0−βˆ1Xi
= 0
⇒
n
X
i=1
βˆ0=nβˆ0 =
n
X
i=1
Yi −βˆ1Xi
⇒βˆ0= 1 n
n
X
i=1
Yi −βˆ1
1 n
n
X
i=1
Xi
⇒βˆ0 = ¯Y −βˆ1X¯.
I Solution pour ˆβ0 en fonction de ˆβ1.
Extimateur MCO (suite)
I 1`ere CPO donne
n
X
i=1
Yi −βˆ0−βˆ1Xi
= 0
⇒
n
X
i=1
βˆ0=n βˆ0 =
n
X
i=1
Yi −βˆ1Xi
⇒βˆ0= 1 n
n
X
i=1
Yi −βˆ1
1 n
n
X
i=1
Xi
⇒βˆ0 = ¯Y −βˆ1X¯.
I Solution pour ˆβ0 en fonction de ˆβ1.
Extimateur MCO (suite)
I 1`ere CPO donne
n
X
i=1
Yi −βˆ0−βˆ1Xi
= 0
⇒
n
X
i=1
βˆ0=n βˆ0 =
n
X
i=1
Yi −βˆ1Xi
⇒βˆ0= 1 n
n
X
i=1
Yi−βˆ1
1 n
n
X
i=1
Xi
⇒βˆ0 = ¯Y −βˆ1X¯.
I Solution pour ˆβ0 en fonction de ˆβ1.
Extimateur MCO (suite)
I 1`ere CPO donne
n
X
i=1
Yi −βˆ0−βˆ1Xi
= 0
⇒
n
X
i=1
βˆ0=n βˆ0 =
n
X
i=1
Yi −βˆ1Xi
⇒βˆ0= 1 n
n
X
i=1
Yi−βˆ1
1 n
n
X
i=1
Xi
⇒βˆ0 = ¯Y −βˆ1X¯.
I Solution pour ˆβ0 en fonction de ˆβ1.
Extimateur MCO (suite)
I 1`ere CPO donne
n
X
i=1
Yi −βˆ0−βˆ1Xi
= 0
⇒
n
X
i=1
βˆ0=n βˆ0 =
n
X
i=1
Yi −βˆ1Xi
⇒βˆ0= 1 n
n
X
i=1
Yi−βˆ1
1 n
n
X
i=1
Xi
⇒βˆ0 = ¯Y −βˆ1X¯.
I Solution pour ˆβ0 en fonction de ˆβ1.
I Substituant cette solution dans la deuxi`eme CPO :
n
X
i=1
Yi −Y¯ + ˆβ1X¯−βˆ1Xi
Xi = 0.
⇒ 1 n
n
X
i=1
YiXi−1 n
n
X
i=1
Y X¯ i−1 n
n
X
i=1
βˆ1(Xi)2+1 n
n
X
i=1
βˆ1X X¯ i = 0
⇒ 1 n
n
X
i=1
YiXi−Y¯1 n
n
X
i=1
Xi−βˆ1 1 n
n
X
i=1
(Xi)2−X¯1 n
n
X
i=1
Xi
!
= 0
⇒ 1 n
n
X
i=1
YiXi −Y¯X¯−βˆ1 1 n
n
X
i=1
(Xi)2−X¯X¯
!
= 0
⇒βˆ1 =
1 n
Pn
i=1YiXi −X¯Y¯
1 n
Pn
i=1(Xi)2− X¯2 =
1 n
Pn
i=1 Yi −Y¯
Xi −X¯
1 n
Pn
i=1 Xi −X¯2 .
I Substituant cette solution dans la deuxi`eme CPO :
n
X
i=1
Yi −Y¯ + ˆβ1X¯−βˆ1Xi
Xi = 0.
⇒ 1 n
n
X
i=1
YiXi−1 n
n
X
i=1
Y X¯ i−1 n
n
X
i=1
βˆ1(Xi)2+1 n
n
X
i=1
βˆ1X X¯ i = 0
⇒ 1 n
n
X
i=1
YiXi−Y¯1 n
n
X
i=1
Xi−βˆ1 1 n
n
X
i=1
(Xi)2−X¯1 n
n
X
i=1
Xi
!
= 0
⇒ 1 n
n
X
i=1
YiXi −Y¯X¯−βˆ1 1 n
n
X
i=1
(Xi)2−X¯X¯
!
= 0
⇒βˆ1 =
1 n
Pn
i=1YiXi −X¯Y¯
1 n
Pn
i=1(Xi)2− X¯2 =
1 n
Pn
i=1 Yi −Y¯
Xi −X¯
1 n
Pn
i=1 Xi −X¯2 .
I Substituant cette solution dans la deuxi`eme CPO :
n
X
i=1
Yi −Y¯ + ˆβ1X¯−βˆ1Xi
Xi = 0.
⇒ 1 n
n
X
i=1
YiXi−1 n
n
X
i=1
Y X¯ i−1 n
n
X
i=1
βˆ1(Xi)2+1 n
n
X
i=1
βˆ1X X¯ i = 0
⇒ 1 n
n
X
i=1
YiXi−Y¯1 n
n
X
i=1
Xi−βˆ1 1 n
n
X
i=1
(Xi)2−X¯1 n
n
X
i=1
Xi
!
= 0
⇒ 1 n
n
X
i=1
YiXi −Y¯X¯−βˆ1 1 n
n
X
i=1
(Xi)2−X¯X¯
!
= 0
⇒βˆ1 =
1 n
Pn
i=1YiXi −X¯Y¯
1 n
Pn
i=1(Xi)2− X¯2 =
1 n
Pn
i=1 Yi −Y¯
Xi −X¯
1 n
Pn
i=1 Xi −X¯2 .
I Substituant cette solution dans la deuxi`eme CPO :
n
X
i=1
Yi −Y¯ + ˆβ1X¯−βˆ1Xi
Xi = 0.
⇒ 1 n
n
X
i=1
YiXi−1 n
n
X
i=1
Y X¯ i−1 n
n
X
i=1
βˆ1(Xi)2+1 n
n
X
i=1
βˆ1X X¯ i = 0
⇒ 1 n
n
X
i=1
YiXi−Y¯1 n
n
X
i=1
Xi−βˆ1 1 n
n
X
i=1
(Xi)2−X¯1 n
n
X
i=1
Xi
!
= 0
⇒ 1 n
n
X
i=1
YiXi −Y¯X¯−βˆ1 1 n
n
X
i=1
(Xi)2−X¯X¯
!
= 0
⇒βˆ1 =
1 n
Pn
i=1YiXi −X¯Y¯
1 n
Pn
i=1(Xi)2− X¯2 =
1 n
Pn
i=1 Yi −Y¯
Xi −X¯
1 n
Pn
i=1 Xi −X¯2 .
I Substituant cette solution dans la deuxi`eme CPO :
n
X
i=1
Yi −Y¯ + ˆβ1X¯−βˆ1Xi
Xi = 0.
⇒ 1 n
n
X
i=1
YiXi−1 n
n
X
i=1
Y X¯ i−1 n
n
X
i=1
βˆ1(Xi)2+1 n
n
X
i=1
βˆ1X X¯ i = 0
⇒ 1 n
n
X
i=1
YiXi−Y¯1 n
n
X
i=1
Xi−βˆ1 1 n
n
X
i=1
(Xi)2−X¯1 n
n
X
i=1
Xi
!
= 0
⇒ 1 n
n
X
i=1
YiXi −Y¯X¯−βˆ1 1 n
n
X
i=1
(Xi)2−X¯X¯
!
= 0
⇒βˆ1 =
1 n
Pn
i=1YiXi−X¯Y¯
1 n
Pn
i=1(Xi)2− X¯2 =
1 n
Pn
i=1 Yi −Y¯
Xi −X¯
1 n
Pn
i=1 Xi −X¯2 .
Estimateur MCO (suite)
I 2e fa¸con ´equivalente : βˆ1 =
Pn
i=1 Yi−Y¯
Xi −X¯ Pn
i=1 Xi−X¯2 .
I 3e fa¸con ´equivalente : βˆ1=
1 (n−1)
Pn
i=1 Yi −Y¯
Xi−X¯
1 (n−1)
Pn
i=1 Xi −X¯2 .
I Comme aide-m´emoire, la derni`ere expression est peut-ˆetre la plus utile.β1 est le ratio entre la covariance ´echantillonnale entre X etY et la variance ´echantillonnale de X.
Estimateur MCO (suite)
I 2e fa¸con ´equivalente : βˆ1 =
Pn
i=1 Yi−Y¯
Xi −X¯ Pn
i=1 Xi−X¯2 .
I 3e fa¸con ´equivalente : βˆ1=
1 (n−1)
Pn
i=1 Yi −Y¯
Xi−X¯
1 (n−1)
Pn
i=1 Xi −X¯2 .
I Comme aide-m´emoire, la derni`ere expression est peut-ˆetre la plus utile.β1 est le ratio entre la covariance ´echantillonnale entre X etY et la variance ´echantillonnale de X.
Estimateur MCO (suite)
I 2e fa¸con ´equivalente : βˆ1 =
Pn
i=1 Yi−Y¯
Xi −X¯ Pn
i=1 Xi−X¯2 .
I 3e fa¸con ´equivalente : βˆ1=
1 (n−1)
Pn
i=1 Yi −Y¯
Xi−X¯
1 (n−1)
Pn
i=1 Xi −X¯2 .
I Comme aide-m´emoire, la derni`ere expression est peut-ˆetre la plus utile.β1 est le ratio entre la covariance ´echantillonnale entre X etY et la variance ´echantillonnale de X.
Propri´ et´ es alg´ ebriques de l’estimateur MCO
I L’estimateur MCO poss`ede des propri´et´esalg´ebriquesde base.
I Ces propri´et´esne d´ependent pasd’hypoth`eses concernant les propri´et´esstatistiquesde Y,X ouu.
I Nous allons utiliser ces propri´et´es `a maintes reprises pour trouver d’autres propri´et´es de l’estimateur MCO.
I Plusieurs de ces propri´et´es d´ependent du fait que le mod`ele de r´egression inclut une constante. (Sinon voir Windmeijer, 1994.)
Propri´ et´ es alg´ ebriques de l’estimateur MCO
I L’estimateur MCO poss`ede des propri´et´esalg´ebriquesde base.
I Ces propri´et´esne d´ependent pasd’hypoth`eses concernant les propri´et´esstatistiquesdeY,X ouu.
I Nous allons utiliser ces propri´et´es `a maintes reprises pour trouver d’autres propri´et´es de l’estimateur MCO.
I Plusieurs de ces propri´et´es d´ependent du fait que le mod`ele de r´egression inclut une constante. (Sinon voir Windmeijer, 1994.)
Propri´ et´ es alg´ ebriques de l’estimateur MCO
I L’estimateur MCO poss`ede des propri´et´esalg´ebriquesde base.
I Ces propri´et´esne d´ependent pasd’hypoth`eses concernant les propri´et´esstatistiquesdeY,X ouu.
I Nous allons utiliser ces propri´et´es `a maintes reprises pour trouver d’autres propri´et´es de l’estimateur MCO.
I Plusieurs de ces propri´et´es d´ependent du fait que le mod`ele de r´egression inclut une constante. (Sinon voir Windmeijer, 1994.)
Propri´ et´ es alg´ ebriques de l’estimateur MCO
I L’estimateur MCO poss`ede des propri´et´esalg´ebriquesde base.
I Ces propri´et´esne d´ependent pasd’hypoth`eses concernant les propri´et´esstatistiquesdeY,X ouu.
I Nous allons utiliser ces propri´et´es `a maintes reprises pour trouver d’autres propri´et´es de l’estimateur MCO.
I Plusieurs de ces propri´et´es d´ependent du fait que le mod`ele de r´egression inclut une constante. (Sinon voir Windmeijer, 1994.)
La somme des r´ esidus est z´ ero
I D´efinissons
ˆ
ui ≡Yi−βˆ0−βˆ1Xi
=Yi −Y¯+ ˆβ1X¯−βˆ1Xi.
I Nous avons 1 n
n
X
i=1
ˆ ui = 1
n
n
X
i=1
Yi−Y¯+ ˆβ1X¯ −βˆ1Xi
= 1 n
n
X
i=1
Yi −Y¯
−βˆ11 n
n
X
i=1
Xi−X¯
= 0.
La somme des r´ esidus est z´ ero
I D´efinissons
ˆ
ui ≡Yi−βˆ0−βˆ1Xi
=Yi −Y¯+ ˆβ1X¯−βˆ1Xi.
I Nous avons 1 n
n
X
i=1
ˆ ui = 1
n
n
X
i=1
Yi−Y¯+ ˆβ1X¯ −βˆ1Xi
= 1 n
n
X
i=1
Yi −Y¯
−βˆ11 n
n
X
i=1
Xi−X¯
= 0.
La somme des r´ esidus est z´ ero
I D´efinissons
ˆ
ui ≡Yi−βˆ0−βˆ1Xi
=Yi −Y¯+ ˆβ1X¯−βˆ1Xi.
I Nous avons 1 n
n
X
i=1
ˆ ui = 1
n
n
X
i=1
Yi−Y¯+ ˆβ1X¯ −βˆ1Xi
= 1 n
n
X
i=1
Yi −Y¯
−βˆ11 n
n
X
i=1
Xi−X¯
= 0.
La somme des r´ esidus est z´ ero
I D´efinissons
ˆ
ui ≡Yi−βˆ0−βˆ1Xi
=Yi −Y¯+ ˆβ1X¯−βˆ1Xi.
I Nous avons 1 n
n
X
i=1
ˆ ui = 1
n
n
X
i=1
Yi−Y¯+ ˆβ1X¯ −βˆ1Xi
= 1 n
n
X
i=1
Yi −Y¯
−βˆ11 n
n
X
i=1
Xi−X¯
= 0.
La somme des r´ esidus est z´ ero
I D´efinissons
ˆ
ui ≡Yi−βˆ0−βˆ1Xi
=Yi −Y¯+ ˆβ1X¯−βˆ1Xi.
I Nous avons 1 n
n
X
i=1
ˆ ui = 1
n
n
X
i=1
Yi−Y¯+ ˆβ1X¯ −βˆ1Xi
= 1 n
n
X
i=1
Yi −Y¯
−βˆ11 n
n
X
i=1
Xi−X¯
= 0.
La moyenne de la valeur pr´ edite de Y est ´ egale ` a ¯ Y
I D´efinissons ˆYi = ˆβ0+ ˆβ1Xi =Yi−uˆi , la valeur pr´edite deYi.
I Nous avons
Yˆi =Yi−uˆi
⇒ 1 n
n
X
i=1
Yˆi = 1 n
n
X
i=1
Yi− 1 n
n
X
i=1
ˆ ui
= 1 n
n
X
i=1
Yi ≡Y¯.
La moyenne de la valeur pr´ edite de Y est ´ egale ` a ¯ Y
I D´efinissons ˆYi = ˆβ0+ ˆβ1Xi =Yi−uˆi , la valeur pr´edite deYi.
I Nous avons
Yˆi =Yi−uˆi
⇒ 1 n
n
X
i=1
Yˆi = 1 n
n
X
i=1
Yi− 1 n
n
X
i=1
ˆ ui
= 1 n
n
X
i=1
Yi ≡Y¯.
La moyenne de la valeur pr´ edite de Y est ´ egale ` a ¯ Y
I D´efinissons ˆYi = ˆβ0+ ˆβ1Xi =Yi−uˆi , la valeur pr´edite deYi.
I Nous avons
Yˆi =Yi−uˆi
⇒ 1 n
n
X
i=1
Yˆi = 1 n
n
X
i=1
Yi− 1 n
n
X
i=1
ˆ ui
= 1 n
n
X
i=1
Yi ≡Y¯.
La moyenne de la valeur pr´ edite de Y est ´ egale ` a ¯ Y
I D´efinissons ˆYi = ˆβ0+ ˆβ1Xi =Yi−uˆi , la valeur pr´edite deYi.
I Nous avons
Yˆi =Yi−uˆi
⇒ 1 n
n
X
i=1
Yˆi = 1 n
n
X
i=1
Yi− 1 n
n
X
i=1
ˆ ui
= 1 n
n
X
i=1
Yi ≡Y¯.
Orthogonalit´ e entre les X
iet les r´ esidus
n
X
i=1
Xiuˆi
=
n
X
i=1
Xiuˆi−X¯
n
X
i=1
ˆ ui =
n
X
i=1
Xi −X¯ ˆ ui
=
n
X
i=1
Xi−X¯
Yi−Y¯ + ˆβ1X¯−βˆ1Xi
=
n
X
i=1
Xi −X¯
Yi −Y¯
−βˆ1 Xi−X¯
=
n
X
i=1
Xi −X¯
Yi −Y¯
−βˆ1 n
X
i=1
Xi −X¯2
=
n
X
i=1
Xi−X¯
Yi −Y¯
− Pn
i=1 Xi−X¯
Yi −Y¯ Pn
i=1 Xi−X¯2
n
X
i=1
Xi−X¯2
=
n
X
i=1
Xi −X¯
Yi −Y¯
−
n
X
i=1
Xi −X¯
Yi−Y¯
= 0.
Orthogonalit´ e entre les X
iet les r´ esidus
n
X
i=1
Xiuˆi =
n
X
i=1
Xiuˆi−X¯
n
X
i=1
ˆ ui
=
n
X
i=1
Xi −X¯ ˆ ui
=
n
X
i=1
Xi−X¯
Yi−Y¯ + ˆβ1X¯−βˆ1Xi
=
n
X
i=1
Xi −X¯
Yi −Y¯
−βˆ1 Xi−X¯
=
n
X
i=1
Xi −X¯
Yi −Y¯
−βˆ1 n
X
i=1
Xi −X¯2
=
n
X
i=1
Xi−X¯
Yi −Y¯
− Pn
i=1 Xi−X¯
Yi −Y¯ Pn
i=1 Xi−X¯2
n
X
i=1
Xi−X¯2
=
n
X
i=1
Xi −X¯
Yi −Y¯
−
n
X
i=1
Xi −X¯
Yi−Y¯
= 0.
Orthogonalit´ e entre les X
iet les r´ esidus
n
X
i=1
Xiuˆi =
n
X
i=1
Xiuˆi−X¯
n
X
i=1
ˆ ui =
n
X
i=1
Xi −X¯ ˆ ui
=
n
X
i=1
Xi−X¯
Yi−Y¯ + ˆβ1X¯−βˆ1Xi
=
n
X
i=1
Xi −X¯
Yi −Y¯
−βˆ1 Xi−X¯
=
n
X
i=1
Xi −X¯
Yi −Y¯
−βˆ1 n
X
i=1
Xi −X¯2
=
n
X
i=1
Xi−X¯
Yi −Y¯
− Pn
i=1 Xi−X¯
Yi −Y¯ Pn
i=1 Xi−X¯2
n
X
i=1
Xi−X¯2
=
n
X
i=1
Xi −X¯
Yi −Y¯
−
n
X
i=1
Xi −X¯
Yi−Y¯
= 0.
Orthogonalit´ e entre les X
iet les r´ esidus
n
X
i=1
Xiuˆi =
n
X
i=1
Xiuˆi−X¯
n
X
i=1
ˆ ui =
n
X
i=1
Xi −X¯ ˆ ui
=
n
X
i=1
Xi−X¯
Yi−Y¯ + ˆβ1X¯−βˆ1Xi
=
n
X
i=1
Xi −X¯
Yi −Y¯
−βˆ1 Xi−X¯
=
n
X
i=1
Xi −X¯
Yi −Y¯
−βˆ1 n
X
i=1
Xi −X¯2
=
n
X
i=1
Xi−X¯
Yi −Y¯
− Pn
i=1 Xi−X¯
Yi −Y¯ Pn
i=1 Xi−X¯2
n
X
i=1
Xi−X¯2
=
n
X
i=1
Xi −X¯
Yi −Y¯
−
n
X
i=1
Xi −X¯
Yi−Y¯
= 0.
Orthogonalit´ e entre les X
iet les r´ esidus
n
X
i=1
Xiuˆi =
n
X
i=1
Xiuˆi−X¯
n
X
i=1
ˆ ui =
n
X
i=1
Xi −X¯ ˆ ui
=
n
X
i=1
Xi−X¯
Yi−Y¯ + ˆβ1X¯−βˆ1Xi
=
n
X
i=1
Xi −X¯
Yi−Y¯
−βˆ1 Xi−X¯
=
n
X
i=1
Xi −X¯
Yi −Y¯
−βˆ1 n
X
i=1
Xi −X¯2
=
n
X
i=1
Xi−X¯
Yi −Y¯
− Pn
i=1 Xi−X¯
Yi −Y¯ Pn
i=1 Xi−X¯2
n
X
i=1
Xi−X¯2
=
n
X
i=1
Xi −X¯
Yi −Y¯
−
n
X
i=1
Xi −X¯
Yi−Y¯
= 0.
Orthogonalit´ e entre les X
iet les r´ esidus
n
X
i=1
Xiuˆi =
n
X
i=1
Xiuˆi−X¯
n
X
i=1
ˆ ui =
n
X
i=1
Xi −X¯ ˆ ui
=
n
X
i=1
Xi−X¯
Yi−Y¯ + ˆβ1X¯−βˆ1Xi
=
n
X
i=1
Xi −X¯
Yi−Y¯
−βˆ1 Xi−X¯
=
n
X
i=1
Xi −X¯
Yi −Y¯
−βˆ1 n
X
i=1
Xi −X¯2
=
n
X
i=1
Xi−X¯
Yi −Y¯
− Pn
i=1 Xi−X¯
Yi −Y¯ Pn
i=1 Xi−X¯2
n
X
i=1
Xi−X¯2
=
n
X
i=1
Xi −X¯
Yi −Y¯
−
n
X
i=1
Xi −X¯
Yi−Y¯
= 0.
Orthogonalit´ e entre les X
iet les r´ esidus
n
X
i=1
Xiuˆi =
n
X
i=1
Xiuˆi−X¯
n
X
i=1
ˆ ui =
n
X
i=1
Xi −X¯ ˆ ui
=
n
X
i=1
Xi−X¯
Yi−Y¯ + ˆβ1X¯−βˆ1Xi
=
n
X
i=1
Xi −X¯
Yi−Y¯
−βˆ1 Xi−X¯
=
n
X
i=1
Xi −X¯
Yi −Y¯
−βˆ1 n
X
i=1
Xi −X¯2
=
n
X
i=1
Xi−X¯
Yi −Y¯
− Pn
i=1 Xi−X¯
Yi −Y¯ Pn
i=1 Xi−X¯2
n
X
i=1
Xi−X¯2
=
n
X
i=1
Xi −X¯
Yi −Y¯
−
n
X
i=1
Xi −X¯
Yi−Y¯
= 0.
Orthogonalit´ e entre les X
iet les r´ esidus
n
X
i=1
Xiuˆi =
n
X
i=1
Xiuˆi−X¯
n
X
i=1
ˆ ui =
n
X
i=1
Xi −X¯ ˆ ui
=
n
X
i=1
Xi−X¯
Yi−Y¯ + ˆβ1X¯−βˆ1Xi
=
n
X
i=1
Xi −X¯
Yi−Y¯
−βˆ1 Xi−X¯
=
n
X
i=1
Xi −X¯
Yi −Y¯
−βˆ1 n
X
i=1
Xi −X¯2
=
n
X
i=1
Xi−X¯
Yi −Y¯
− Pn
i=1 Xi−X¯
Yi −Y¯ Pn
i=1 Xi−X¯2
n
X
i=1
Xi−X¯2
=
n
X
i=1
Xi −X¯
Yi −Y¯
−
n
X
i=1
Xi−X¯
Yi−Y¯
= 0.
Orthogonalit´ e entre les X
iet les r´ esidus
n
X
i=1
Xiuˆi =
n
X
i=1
Xiuˆi−X¯
n
X
i=1
ˆ ui =
n
X
i=1
Xi −X¯ ˆ ui
=
n
X
i=1
Xi−X¯
Yi−Y¯ + ˆβ1X¯−βˆ1Xi
=
n
X
i=1
Xi −X¯
Yi−Y¯
−βˆ1 Xi−X¯
=
n
X
i=1
Xi −X¯
Yi −Y¯
−βˆ1 n
X
i=1
Xi −X¯2
=
n
X
i=1
Xi−X¯
Yi −Y¯
− Pn
i=1 Xi−X¯
Yi −Y¯ Pn
i=1 Xi−X¯2
n
X
i=1
Xi−X¯2
=
n
X
i=1
Xi −X¯
Yi −Y¯
−
n
X
i=1
Xi−X¯
Yi−Y¯
= 0.
Interpr´ etation g´ eom´ etrique (projection)
Ajustement statistique : R
2I D´efinissons : TSS≡Pn
i=1 Yi −Y¯2
, la somme totale des carr´es.
I D´efinissons SSR≡Pn i=1
Yi−Yˆi2
, la somme des r´esidus au carr´e.
I D´efinissons ESS≡Pn i=1
Yˆi −Y¯ 2
, la somme expliqu´ee des carr´es.
I Nous pouvons montrer que TSS = ESS + SSR.
I La preuve (un peu longue) est sur la page suivante.
Ajustement statistique : R
2I D´efinissons : TSS≡Pn
i=1 Yi −Y¯2
, la somme totale des carr´es.
I D´efinissons SSR≡Pn i=1
Yi−Yˆi
2
, la somme des r´esidus au carr´e.
I D´efinissons ESS≡Pn i=1
Yˆi −Y¯ 2
, la somme expliqu´ee des carr´es.
I Nous pouvons montrer que TSS = ESS + SSR.
I La preuve (un peu longue) est sur la page suivante.
Ajustement statistique : R
2I D´efinissons : TSS≡Pn
i=1 Yi −Y¯2
, la somme totale des carr´es.
I D´efinissons SSR≡Pn i=1
Yi−Yˆi
2
, la somme des r´esidus au carr´e.
I D´efinissons ESS≡Pn i=1
Yˆi −Y¯ 2
, la somme expliqu´ee des carr´es.
I Nous pouvons montrer que TSS = ESS + SSR.
I La preuve (un peu longue) est sur la page suivante.
Ajustement statistique : R
2I D´efinissons : TSS≡Pn
i=1 Yi −Y¯2
, la somme totale des carr´es.
I D´efinissons SSR≡Pn i=1
Yi−Yˆi
2
, la somme des r´esidus au carr´e.
I D´efinissons ESS≡Pn i=1
Yˆi −Y¯ 2
, la somme expliqu´ee des carr´es.
I Nous pouvons montrer que TSS = ESS + SSR.
I La preuve (un peu longue) est sur la page suivante.
Ajustement statistique : R
2I D´efinissons : TSS≡Pn
i=1 Yi −Y¯2
, la somme totale des carr´es.
I D´efinissons SSR≡Pn i=1
Yi−Yˆi
2
, la somme des r´esidus au carr´e.
I D´efinissons ESS≡Pn i=1
Yˆi −Y¯ 2
, la somme expliqu´ee des carr´es.
I Nous pouvons montrer que TSS = ESS + SSR.
I La preuve (un peu longue) est sur la page suivante.
Ajustement statistique (suite)
TSS≡
n
X
i=1
Yi −Y¯2
=
n
X
i=1
Yi −Yˆi +
Yˆi −Y¯2
=
n
X
i=1
Yi −Yˆi
2
+
n
X
i=1
Yˆi−Y¯ 2
+ 2
n
X
i=1
Yi −Yˆi Yˆi −Y¯
= SSR+ESS+2
n
X
i=1
ˆ ui
Yˆi −Y¯
= SSR+ESS+2
n
X
i=1
ˆ
uiYˆi−2 ¯Y
n
X
i=1
ˆ ui
= SSR + ESS + 2
n
X
i=1
ˆ
uiYˆi = SSR + ESS + 2
n
X
i=1
ˆ ui
βˆ0+ ˆβ1Xi
= SSR + ESS + 2 ˆβ0 n
X
i=1
ˆ ui + 2 ˆβ1
n
X
i=1
ˆ uiXi
= SSR + ESS.
Ajustement statistique (suite)
TSS≡
n
X
i=1
Yi −Y¯2
=
n
X
i=1
Yi −Yˆi +
Yˆi −Y¯2
=
n
X
i=1
Yi −Yˆi
2
+
n
X
i=1
Yˆi−Y¯ 2
+ 2
n
X
i=1
Yi −Yˆi Yˆi −Y¯
= SSR+ESS+2
n
X
i=1
ˆ ui
Yˆi −Y¯
= SSR+ESS+2
n
X
i=1
ˆ
uiYˆi−2 ¯Y
n
X
i=1
ˆ ui
= SSR + ESS + 2
n
X
i=1
ˆ
uiYˆi = SSR + ESS + 2
n
X
i=1
ˆ ui
βˆ0+ ˆβ1Xi
= SSR + ESS + 2 ˆβ0 n
X
i=1
ˆ ui + 2 ˆβ1
n
X
i=1
ˆ uiXi
= SSR + ESS.
Ajustement statistique (suite)
TSS≡
n
X
i=1
Yi −Y¯2
=
n
X
i=1
Yi −Yˆi +
Yˆi −Y¯2
=
n
X
i=1
Yi −Yˆi
2
+
n
X
i=1
Yˆi−Y¯ 2
+ 2
n
X
i=1
Yi −Yˆi Yˆi −Y¯
= SSR+ESS+2
n
X
i=1
ˆ ui
Yˆi −Y¯
= SSR+ESS+2
n
X
i=1
ˆ
uiYˆi−2 ¯Y
n
X
i=1
ˆ ui
= SSR + ESS + 2
n
X
i=1
ˆ
uiYˆi = SSR + ESS + 2
n
X
i=1
ˆ ui
βˆ0+ ˆβ1Xi
= SSR + ESS + 2 ˆβ0 n
X
i=1
ˆ ui + 2 ˆβ1
n
X
i=1
ˆ uiXi
= SSR + ESS.
Ajustement statistique (suite)
TSS≡
n
X
i=1
Yi −Y¯2
=
n
X
i=1
Yi −Yˆi +
Yˆi −Y¯2
=
n
X
i=1
Yi −Yˆi
2
+
n
X
i=1
Yˆi−Y¯ 2
+ 2
n
X
i=1
Yi −Yˆi Yˆi −Y¯
= SSR+ESS+2
n
X
i=1
ˆ ui
Yˆi −Y¯
= SSR+ESS+2
n
X
i=1
ˆ
uiYˆi−2 ¯Y
n
X
i=1
ˆ ui
= SSR + ESS + 2
n
X
i=1
ˆ
uiYˆi = SSR + ESS + 2
n
X
i=1
ˆ ui
βˆ0+ ˆβ1Xi
= SSR + ESS + 2 ˆβ0 n
X
i=1
ˆ ui + 2 ˆβ1
n
X
i=1
ˆ uiXi
= SSR + ESS.