Ajustement statistique (suite)
Ajustement statistique (suite)
Ajustement statistique (suite)
Ajustement statistique (suite)
Ajustement statistique (suite)
Ajustement statistique (suite)
Ajustement statistique (suite)
I R2 est aussi ´egal `a la corr´elation (´echantillonnale) au carr´e entre Y et ˆY.
I Pour rendre la preuve plus facile, introduisons un peu de notation.
M0 ≡
I−i i0i−1
i0 .
I On a
M0Y =Y −Y,¯
M00=M0, et M0M0 =M0.
I M0 est une matrice idempotente.
Ajustement statistique (suite)
I R2 est aussi ´egal `a la corr´elation (´echantillonnale) au carr´e entre Y et ˆY.
I Pour rendre la preuve plus facile, introduisons un peu de notation.
M0 ≡
I−i i0i−1
i0 .
I On a
M0Y =Y −Y,¯
M00=M0, et M0M0 =M0.
I M0 est une matrice idempotente.
Ajustement statistique (suite)
I R2 est aussi ´egal `a la corr´elation (´echantillonnale) au carr´e entre Y et ˆY.
I Pour rendre la preuve plus facile, introduisons un peu de notation.
M0 ≡
I−i i0i−1
i0 .
I On a
M0Y =Y −Y,¯
M00=M0, et M0M0 =M0.
I M0 est une matrice idempotente.
Ajustement statistique (suite)
I R2 est aussi ´egal `a la corr´elation (´echantillonnale) au carr´e entre Y et ˆY.
I Pour rendre la preuve plus facile, introduisons un peu de notation.
M0 ≡
I−i i0i−1
i0 .
I On a
M0Y =Y −Y,¯
M00=M0, et M0M0 =M0.
I M0 est une matrice idempotente.
Ajustement statistique (suite)
I R2 est aussi ´egal `a la corr´elation (´echantillonnale) au carr´e entre Y et ˆY.
I Pour rendre la preuve plus facile, introduisons un peu de notation.
M0 ≡
I−i i0i−1
i0 .
I On a
M0Y =Y −Y,¯
M00=M0, et M0M0 =M0.
I M0 est une matrice idempotente.
Ajustement statistique (suite)
I R2 est aussi ´egal `a la corr´elation (´echantillonnale) au carr´e entre Y et ˆY.
I Pour rendre la preuve plus facile, introduisons un peu de notation.
M0 ≡
I−i i0i−1
i0 .
I On a
M0Y =Y −Y,¯
M00=M0, et M0M0 =M0.
I M0 est une matrice idempotente.
Ajustement statistique (suite)
I Nous pouvons r´e´ecrire leR2 comme
R2 ≡ ESS TSS =
Yˆ −Y¯0
Yˆ −Y¯ Y −Y¯0
Y −Y¯
= Yˆ0M0Yˆ Y0M0Y. Nous avons aussi
M0Uˆ = ˆU puisque la somme des r´esidus est z´ero.
Ajustement statistique (suite)
I Nous pouvons r´e´ecrire leR2 comme
R2 ≡ ESS TSS =
Yˆ −Y¯0
Yˆ −Y¯ Y −Y¯0
Y −Y¯
= Yˆ0M0Yˆ Y0M0Y.
Nous avons aussi
M0Uˆ = ˆU puisque la somme des r´esidus est z´ero.
Ajustement statistique (suite)
I Nous pouvons r´e´ecrire leR2 comme
R2 ≡ ESS TSS =
Yˆ −Y¯0
Yˆ −Y¯ Y −Y¯0
Y −Y¯
= Yˆ0M0Yˆ Y0M0Y. Nous avons aussi
M0Uˆ= ˆU puisque la somme des r´esidus est z´ero.
Ajustement statistique (suite)
I Donc, nous avons
Yˆ0M0Yˆ = ˆY0M0
Y −Uˆ
= ˆY0M0Y −Yˆ0M0Uˆ
= ˆY0M0Y −Yˆ0Uˆ
= ˆY0M0Y −βˆ0X0Uˆ (puisque ˆY ≡Xβ)ˆ
= ˆY0M0Y −0 = ˆY0M0Y
puisque X0Uˆ= 0 (orthogonalit´e entre les variables expicatives et les r´esidus).
Ajustement statistique (suite)
I Donc, nous avons
Yˆ0M0Yˆ = ˆY0M0
Y −Uˆ
= ˆY0M0Y −Yˆ0M0Uˆ
= ˆY0M0Y −Yˆ0Uˆ
= ˆY0M0Y −βˆ0X0Uˆ (puisque ˆY ≡Xβ)ˆ
= ˆY0M0Y −0 = ˆY0M0Y
puisque X0Uˆ= 0 (orthogonalit´e entre les variables expicatives et les r´esidus).
Ajustement statistique (suite)
I Donc, nous avons
Yˆ0M0Yˆ = ˆY0M0
Y −Uˆ
= ˆY0M0Y −Yˆ0M0Uˆ
= ˆY0M0Y −Yˆ0Uˆ
= ˆY0M0Y −βˆ0X0Uˆ (puisque ˆY ≡Xβ)ˆ
= ˆY0M0Y −0 = ˆY0M0Y
puisque X0Uˆ= 0 (orthogonalit´e entre les variables expicatives et les r´esidus).
Ajustement statistique (suite)
I Donc, nous avons
Yˆ0M0Yˆ = ˆY0M0
Y −Uˆ
= ˆY0M0Y −Yˆ0M0Uˆ
= ˆY0M0Y −Yˆ0Uˆ
= ˆY0M0Y −βˆ0X0Uˆ (puisque ˆY ≡Xβ)ˆ
= ˆY0M0Y −0 = ˆY0M0Y
puisque X0Uˆ= 0 (orthogonalit´e entre les variables expicatives et les r´esidus).
Ajustement statistique (suite)
I Donc, nous avons
Yˆ0M0Yˆ = ˆY0M0
Y −Uˆ
= ˆY0M0Y −Yˆ0M0Uˆ
= ˆY0M0Y −Yˆ0Uˆ
= ˆY0M0Y −βˆ0X0Uˆ (puisque ˆY ≡Xβ)ˆ
= ˆY0M0Y −0 = ˆY0M0Y
puisque X0Uˆ= 0 (orthogonalit´e entre les variables expicatives et les r´esidus).
Ajustement statistique (suite)
I Nous pouvons donc ´ecrire leR2 comme R2 = Yˆ0M0Y
Y0M0Y
= Yˆ0M0Y Y0M0Y
Yˆ0M0Y Yˆ0M0Y
(multipliant num´erateur et d´enominateur par la mˆeme chose)
=
Yˆ0M0Y Yˆ0M0Y (Y0M0Y)
Yˆ0M0Y
=
Yˆ0M0Y Yˆ0M0Y (Y0M0Y)
Yˆ0M0Yˆ .
Ajustement statistique (suite)
I Nous pouvons donc ´ecrire leR2 comme R2 = Yˆ0M0Y
Y0M0Y
= Yˆ0M0Y Y0M0Y
Yˆ0M0Y Yˆ0M0Y
(multipliant num´erateur et d´enominateur par la mˆeme chose)
=
Yˆ0M0Y Yˆ0M0Y (Y0M0Y)
Yˆ0M0Y
=
Yˆ0M0Y Yˆ0M0Y (Y0M0Y)
Yˆ0M0Yˆ .
Ajustement statistique (suite)
I Nous pouvons donc ´ecrire leR2 comme R2 = Yˆ0M0Y
Y0M0Y
= Yˆ0M0Y Y0M0Y
Yˆ0M0Y Yˆ0M0Y
(multipliant num´erateur et d´enominateur par la mˆeme chose)
=
Yˆ0M0Y Yˆ0M0Y (Y0M0Y)
Yˆ0M0Y
=
Yˆ0M0Y Yˆ0M0Y (Y0M0Y)
Yˆ0M0Yˆ .
Ajustement statistique (suite)
I Nous pouvons donc ´ecrire leR2 comme R2 = Yˆ0M0Y
Y0M0Y
= Yˆ0M0Y Y0M0Y
Yˆ0M0Y Yˆ0M0Y
(multipliant num´erateur et d´enominateur par la mˆeme chose)
=
Yˆ0M0Y Yˆ0M0Y (Y0M0Y)
Yˆ0M0Y
=
Yˆ0M0Y Yˆ0M0Y (Y0M0Y)
Yˆ0M0Yˆ .
Ajustement statistique (suite)
I On peut r´e´ecrire ceci en notation non matricielle pour obtenir Yˆ0M0Y Yˆ0M0Y
Ajustement statistique (suite)
I On peut r´e´ecrire ceci en notation non matricielle pour obtenir Yˆ0M0Y Yˆ0M0Y
Ajustement statistique (suite)
I On peut r´e´ecrire ceci en notation non matricielle pour obtenir Yˆ0M0Y Yˆ0M0Y
Ajustement statistique (suite)
I On peut r´e´ecrire ceci en notation non matricielle pour obtenir Yˆ0M0Y Yˆ0M0Y
Ajustement statistique (suite)
pr´edire les variations de la variable d´ependante autour de sa moyenne (mesur´e par la corr´elation entre les valeurs pr´edites et les valeurs r´ealis´ees).Ajustement statistique (suite)
pr´edire les variations de la variable d´ependante autour de sa moyenne (mesur´e par la corr´elation entre les valeurs pr´edites et les valeurs r´ealis´ees).Ajustement statistique (suite)
pr´edire les variations de la variable d´ependante autour de sa moyenne (mesur´e par la corr´elation entre les valeurs pr´edites et les valeurs r´ealis´ees).Ajustement statistique (suite)
I Dans le cas du mod`ele de r´egression simple, nous avons Yˆi−Y¯
= Xi−X¯βˆ1.
I Nous avons tout de suite
Ajustement statistique (suite)
I Dans le cas du mod`ele de r´egression simple, nous avons Yˆi−Y¯
= Xi−X¯βˆ1.
I Nous avons tout de suite
Ajustement statistique (suite)
I Dans le cas du mod`ele de r´egression simple, nous avons Yˆi−Y¯
= Xi−X¯βˆ1.
I Nous avons tout de suite
Ajustement statistique (suite)
=
1 n−1
Pn
i=1 Xi −X¯
Yi −Y¯ q 1
n−1
Pn
i=1 Yi −Y¯2q
1 n−1
Pn
i=1 Xi−X¯2
2
≡ Corr (Y,X)2
⇒R2 = Corr (Y,X)2
.
I On voit que le r´esultat trouv´e dans le chapitre sur le mod`ele de r´egression simple n’est qu’un cas sp´ecial du r´esultat g´en´eral d´evelopp´e ici.
Ajustement statistique (suite)
=
1 n−1
Pn
i=1 Xi −X¯
Yi −Y¯ q 1
n−1
Pn
i=1 Yi −Y¯2q
1 n−1
Pn
i=1 Xi−X¯2
2
≡ Corr (Y,X)2
⇒R2 = Corr (Y,X)2
.
I On voit que le r´esultat trouv´e dans le chapitre sur le mod`ele de r´egression simple n’est qu’un cas sp´ecial du r´esultat g´en´eral d´evelopp´e ici.
Ajustement statistique (suite)
=
1 n−1
Pn
i=1 Xi −X¯
Yi −Y¯ q 1
n−1
Pn
i=1 Yi −Y¯2q
1 n−1
Pn
i=1 Xi−X¯2
2
≡ Corr (Y,X)2
⇒R2 = Corr (Y,X)2
.
I On voit que le r´esultat trouv´e dans le chapitre sur le mod`ele de r´egression simple n’est qu’un cas sp´ecial du r´esultat g´en´eral d´evelopp´e ici.
Ajustement statistique (suite)
=
1 n−1
Pn
i=1 Xi −X¯
Yi −Y¯ q 1
n−1
Pn
i=1 Yi −Y¯2q
1 n−1
Pn
i=1 Xi−X¯2
2
≡ Corr (Y,X)2
⇒R2 = Corr (Y,X)2
.
I On voit que le r´esultat trouv´e dans le chapitre sur le mod`ele de r´egression simple n’est qu’un cas sp´ecial du r´esultat g´en´eral d´evelopp´e ici.
R
2ajust´ e
I Ajouter une variable explicative au mod`ele ne peut que faire augmenter R2.
I Avec autant de variables explicatives que d’observations ((k+ 1) =n), on aura R2 = 1.X est alors une matrice carr´ee et on a
0 =U =Y −Xβˆ
⇒Y =Xβ.ˆ
⇒βˆ=X−1Y.
I Donc, unR2 ´elev´e n’est pas toujours et partout une bonne chose.
R
2ajust´ e
I Ajouter une variable explicative au mod`ele ne peut que faire augmenter R2.
I Avec autant de variables explicatives que d’observations ((k+ 1) =n), on aura R2 = 1.X est alors une matrice carr´ee et on a
0 =U =Y −Xβˆ
⇒Y =Xβ.ˆ
⇒βˆ=X−1Y.
I Donc, unR2 ´elev´e n’est pas toujours et partout une bonne chose.
R
2ajust´ e
I Ajouter une variable explicative au mod`ele ne peut que faire augmenter R2.
I Avec autant de variables explicatives que d’observations ((k+ 1) =n), on aura R2 = 1.X est alors une matrice carr´ee et on a
0 =U =Y −Xβˆ
⇒Y =Xβ.ˆ
⇒βˆ=X−1Y.
I Donc, unR2 ´elev´e n’est pas toujours et partout une bonne chose.
R
2ajust´ e
I Ajouter une variable explicative au mod`ele ne peut que faire augmenter R2.
I Avec autant de variables explicatives que d’observations ((k+ 1) =n), on aura R2 = 1.X est alors une matrice carr´ee et on a
0 =U =Y −Xβˆ
⇒Y =Xβ.ˆ
⇒βˆ=X−1Y.
I Donc, unR2 ´elev´e n’est pas toujours et partout une bonne chose.
R
2ajust´ e (suite)
I Une autre mesure qui p´enalisel’ajustement lorsqu’on ajoute des variables explicatives.
R¯2≡1− n−1 n−k−1
SSR
TSS = 1− su2ˆ sY2 .
I Trois propri´et´es importantes du ¯R2. 1. n−k−1n−1 >1, et donc ¯R2<R2.
2. Ajouter une variable explicative suppl´ementaire a deux effets sur ¯R2. 1) SSR doit baisser, ce qui fait augmenter ¯R2. 2) Le facteur n−kn−1−1 augmente, ce qui fait diminuer ¯R2. L’effet net est ambigu.
3. R¯2peut ˆetre n´egatif.
R
2ajust´ e (suite)
I Une autre mesure qui p´enalisel’ajustement lorsqu’on ajoute des variables explicatives.
R¯2≡1− n−1 n−k−1
SSR
TSS = 1− su2ˆ sY2 .
I Trois propri´et´es importantes du ¯R2.
1. n−k−1n−1 >1, et donc ¯R2<R2.
2. Ajouter une variable explicative suppl´ementaire a deux effets sur ¯R2. 1) SSR doit baisser, ce qui fait augmenter ¯R2. 2) Le facteur n−kn−1−1 augmente, ce qui fait diminuer ¯R2. L’effet net est ambigu.
3. R¯2peut ˆetre n´egatif.
R
2ajust´ e (suite)
I Une autre mesure qui p´enalisel’ajustement lorsqu’on ajoute des variables explicatives.
R¯2≡1− n−1 n−k−1
SSR
TSS = 1− su2ˆ sY2 .
I Trois propri´et´es importantes du ¯R2. 1. n−k−1n−1 >1, et donc ¯R2<R2.
2. Ajouter une variable explicative suppl´ementaire a deux effets sur ¯R2. 1) SSR doit baisser, ce qui fait augmenter ¯R2. 2) Le facteur n−kn−1−1 augmente, ce qui fait diminuer ¯R2. L’effet net est ambigu.
3. R¯2peut ˆetre n´egatif.
R
2ajust´ e (suite)
I Une autre mesure qui p´enalisel’ajustement lorsqu’on ajoute des variables explicatives.
R¯2≡1− n−1 n−k−1
SSR
TSS = 1− su2ˆ sY2 .
I Trois propri´et´es importantes du ¯R2. 1. n−k−1n−1 >1, et donc ¯R2<R2.
2. Ajouter une variable explicative suppl´ementaire a deux effets sur ¯R2.
1) SSR doit baisser, ce qui fait augmenter ¯R2. 2) Le facteur n−kn−1−1 augmente, ce qui fait diminuer ¯R2. L’effet net est ambigu.
3. R¯2peut ˆetre n´egatif.
R
2ajust´ e (suite)
I Une autre mesure qui p´enalisel’ajustement lorsqu’on ajoute des variables explicatives.
R¯2≡1− n−1 n−k−1
SSR
TSS = 1− su2ˆ sY2 .
I Trois propri´et´es importantes du ¯R2. 1. n−k−1n−1 >1, et donc ¯R2<R2.
2. Ajouter une variable explicative suppl´ementaire a deux effets sur ¯R2. 1) SSR doit baisser, ce qui fait augmenter ¯R2.
2) Le facteur n−kn−1−1 augmente, ce qui fait diminuer ¯R2. L’effet net est ambigu.
3. R¯2peut ˆetre n´egatif.
R
2ajust´ e (suite)
I Une autre mesure qui p´enalisel’ajustement lorsqu’on ajoute des variables explicatives.
R¯2≡1− n−1 n−k−1
SSR
TSS = 1− su2ˆ sY2 .
I Trois propri´et´es importantes du ¯R2. 1. n−k−1n−1 >1, et donc ¯R2<R2.
2. Ajouter une variable explicative suppl´ementaire a deux effets sur ¯R2. 1) SSR doit baisser, ce qui fait augmenter ¯R2. 2) Le facteur n−kn−1−1 augmente, ce qui fait diminuer ¯R2.
L’effet net est ambigu.
3. R¯2peut ˆetre n´egatif.
R
2ajust´ e (suite)
I Une autre mesure qui p´enalisel’ajustement lorsqu’on ajoute des variables explicatives.
R¯2≡1− n−1 n−k−1
SSR
TSS = 1− su2ˆ sY2 .
I Trois propri´et´es importantes du ¯R2. 1. n−k−1n−1 >1, et donc ¯R2<R2.
2. Ajouter une variable explicative suppl´ementaire a deux effets sur ¯R2. 1) SSR doit baisser, ce qui fait augmenter ¯R2. 2) Le facteur n−kn−1−1 augmente, ce qui fait diminuer ¯R2. L’effet net est ambigu.
3. R¯2peut ˆetre n´egatif.
R
2ajust´ e (suite)
I Une autre mesure qui p´enalisel’ajustement lorsqu’on ajoute des variables explicatives.
R¯2≡1− n−1 n−k−1
SSR
TSS = 1− su2ˆ sY2 .
I Trois propri´et´es importantes du ¯R2. 1. n−k−1n−1 >1, et donc ¯R2<R2.
2. Ajouter une variable explicative suppl´ementaire a deux effets sur ¯R2. 1) SSR doit baisser, ce qui fait augmenter ¯R2. 2) Le facteur n−kn−1−1 augmente, ce qui fait diminuer ¯R2. L’effet net est ambigu.
3. R¯2peut ˆetre n´egatif.
R
2ajust´ e (suite)
I La d´efinition du R2 ajust´e semble arbitraire.
I Elle a une justificationstatistique.
I Si on ajoute une variable explicative additionnelle Xk+1 `a un mod`ele, on peut tester sa significativit´e.
I Si la statistique t normalis´ee pour le test `a une valeur absolue sup´erieure `a 1, leR2 ajust´e augmente. Si non, il diminue.
I Nous allons revenir `a cette question apr`es la section sur les tests d’hypoth`ese.
R
2ajust´ e (suite)
I La d´efinition du R2 ajust´e semble arbitraire.
I Elle a une justificationstatistique.
I Si on ajoute une variable explicative additionnelle Xk+1 `a un mod`ele, on peut tester sa significativit´e.
I Si la statistique t normalis´ee pour le test `a une valeur absolue sup´erieure `a 1, leR2 ajust´e augmente. Si non, il diminue.
I Nous allons revenir `a cette question apr`es la section sur les tests d’hypoth`ese.
R
2ajust´ e (suite)
I La d´efinition du R2 ajust´e semble arbitraire.
I Elle a une justificationstatistique.
I Si on ajoute une variable explicative additionnelle Xk+1 `a un mod`ele, on peut tester sa significativit´e.
I Si la statistique t normalis´ee pour le test `a une valeur absolue sup´erieure `a 1, leR2 ajust´e augmente. Si non, il diminue.
I Nous allons revenir `a cette question apr`es la section sur les tests d’hypoth`ese.
R
2ajust´ e (suite)
I La d´efinition du R2 ajust´e semble arbitraire.
I Elle a une justificationstatistique.
I Si on ajoute une variable explicative additionnelle Xk+1 `a un mod`ele, on peut tester sa significativit´e.
I Si la statistique t normalis´ee pour le test `a une valeur absolue sup´erieure `a 1, leR2 ajust´e augmente. Si non, il diminue.
I Nous allons revenir `a cette question apr`es la section sur les tests d’hypoth`ese.
R
2ajust´ e (suite)
I La d´efinition du R2 ajust´e semble arbitraire.
I Elle a une justificationstatistique.
I Si on ajoute une variable explicative additionnelle Xk+1 `a un mod`ele, on peut tester sa significativit´e.
I Si la statistique t normalis´ee pour le test `a une valeur absolue sup´erieure `a 1, leR2 ajust´e augmente. Si non, il diminue.
I Nous allons revenir `a cette question apr`es la section sur les tests d’hypoth`ese.