• Aucun résultat trouvé

Ajustement statistique (suite)

Ajustement statistique (suite)

Ajustement statistique (suite)

Ajustement statistique (suite)

Ajustement statistique (suite)

Ajustement statistique (suite)

Ajustement statistique (suite)

I R2 est aussi ´egal `a la corr´elation (´echantillonnale) au carr´e entre Y et ˆY.

I Pour rendre la preuve plus facile, introduisons un peu de notation.

M0

I−i i0i−1

i0 .

I On a

M0Y =Y −Y,¯

M00=M0, et M0M0 =M0.

I M0 est une matrice idempotente.

Ajustement statistique (suite)

I R2 est aussi ´egal `a la corr´elation (´echantillonnale) au carr´e entre Y et ˆY.

I Pour rendre la preuve plus facile, introduisons un peu de notation.

M0

I−i i0i−1

i0 .

I On a

M0Y =Y −Y,¯

M00=M0, et M0M0 =M0.

I M0 est une matrice idempotente.

Ajustement statistique (suite)

I R2 est aussi ´egal `a la corr´elation (´echantillonnale) au carr´e entre Y et ˆY.

I Pour rendre la preuve plus facile, introduisons un peu de notation.

M0

I−i i0i−1

i0 .

I On a

M0Y =Y −Y,¯

M00=M0, et M0M0 =M0.

I M0 est une matrice idempotente.

Ajustement statistique (suite)

I R2 est aussi ´egal `a la corr´elation (´echantillonnale) au carr´e entre Y et ˆY.

I Pour rendre la preuve plus facile, introduisons un peu de notation.

M0

I−i i0i−1

i0 .

I On a

M0Y =Y −Y,¯

M00=M0, et M0M0 =M0.

I M0 est une matrice idempotente.

Ajustement statistique (suite)

I R2 est aussi ´egal `a la corr´elation (´echantillonnale) au carr´e entre Y et ˆY.

I Pour rendre la preuve plus facile, introduisons un peu de notation.

M0

I−i i0i−1

i0 .

I On a

M0Y =Y −Y,¯

M00=M0, et M0M0 =M0.

I M0 est une matrice idempotente.

Ajustement statistique (suite)

I R2 est aussi ´egal `a la corr´elation (´echantillonnale) au carr´e entre Y et ˆY.

I Pour rendre la preuve plus facile, introduisons un peu de notation.

M0

I−i i0i−1

i0 .

I On a

M0Y =Y −Y,¯

M00=M0, et M0M0 =M0.

I M0 est une matrice idempotente.

Ajustement statistique (suite)

I Nous pouvons r´e´ecrire leR2 comme

R2 ≡ ESS TSS =

Yˆ −Y¯0

Yˆ −Y¯ Y −Y¯0

Y −Y¯

= Yˆ0M0Yˆ Y0M0Y. Nous avons aussi

M0Uˆ = ˆU puisque la somme des r´esidus est z´ero.

Ajustement statistique (suite)

I Nous pouvons r´e´ecrire leR2 comme

R2 ≡ ESS TSS =

Yˆ −Y¯0

Yˆ −Y¯ Y −Y¯0

Y −Y¯

= Yˆ0M0Yˆ Y0M0Y.

Nous avons aussi

M0Uˆ = ˆU puisque la somme des r´esidus est z´ero.

Ajustement statistique (suite)

I Nous pouvons r´e´ecrire leR2 comme

R2 ≡ ESS TSS =

Yˆ −Y¯0

Yˆ −Y¯ Y −Y¯0

Y −Y¯

= Yˆ0M0Yˆ Y0M0Y. Nous avons aussi

M0Uˆ= ˆU puisque la somme des r´esidus est z´ero.

Ajustement statistique (suite)

I Donc, nous avons

0M0Yˆ = ˆY0M0

Y −Uˆ

= ˆY0M0Y −Yˆ0M0

= ˆY0M0Y −Yˆ0

= ˆY0M0Y −βˆ0X0Uˆ (puisque ˆY ≡Xβ)ˆ

= ˆY0M0Y −0 = ˆY0M0Y

puisque X0Uˆ= 0 (orthogonalit´e entre les variables expicatives et les r´esidus).

Ajustement statistique (suite)

I Donc, nous avons

0M0Yˆ = ˆY0M0

Y −Uˆ

= ˆY0M0Y −Yˆ0M0

= ˆY0M0Y −Yˆ0

= ˆY0M0Y −βˆ0X0Uˆ (puisque ˆY ≡Xβ)ˆ

= ˆY0M0Y −0 = ˆY0M0Y

puisque X0Uˆ= 0 (orthogonalit´e entre les variables expicatives et les r´esidus).

Ajustement statistique (suite)

I Donc, nous avons

0M0Yˆ = ˆY0M0

Y −Uˆ

= ˆY0M0Y −Yˆ0M0

= ˆY0M0Y −Yˆ0

= ˆY0M0Y −βˆ0X0Uˆ (puisque ˆY ≡Xβ)ˆ

= ˆY0M0Y −0 = ˆY0M0Y

puisque X0Uˆ= 0 (orthogonalit´e entre les variables expicatives et les r´esidus).

Ajustement statistique (suite)

I Donc, nous avons

0M0Yˆ = ˆY0M0

Y −Uˆ

= ˆY0M0Y −Yˆ0M0

= ˆY0M0Y −Yˆ0

= ˆY0M0Y −βˆ0X0Uˆ (puisque ˆY ≡Xβ)ˆ

= ˆY0M0Y −0 = ˆY0M0Y

puisque X0Uˆ= 0 (orthogonalit´e entre les variables expicatives et les r´esidus).

Ajustement statistique (suite)

I Donc, nous avons

0M0Yˆ = ˆY0M0

Y −Uˆ

= ˆY0M0Y −Yˆ0M0

= ˆY0M0Y −Yˆ0

= ˆY0M0Y −βˆ0X0Uˆ (puisque ˆY ≡Xβ)ˆ

= ˆY0M0Y −0 = ˆY0M0Y

puisque X0Uˆ= 0 (orthogonalit´e entre les variables expicatives et les r´esidus).

Ajustement statistique (suite)

I Nous pouvons donc ´ecrire leR2 comme R2 = Yˆ0M0Y

Y0M0Y

= Yˆ0M0Y Y0M0Y

0M0Y Yˆ0M0Y

(multipliant num´erateur et d´enominateur par la mˆeme chose)

=

0M0Y Yˆ0M0Y (Y0M0Y)

0M0Y

=

0M0Y Yˆ0M0Y (Y0M0Y)

0M0Yˆ .

Ajustement statistique (suite)

I Nous pouvons donc ´ecrire leR2 comme R2 = Yˆ0M0Y

Y0M0Y

= Yˆ0M0Y Y0M0Y

0M0Y Yˆ0M0Y

(multipliant num´erateur et d´enominateur par la mˆeme chose)

=

0M0Y Yˆ0M0Y (Y0M0Y)

0M0Y

=

0M0Y Yˆ0M0Y (Y0M0Y)

0M0Yˆ .

Ajustement statistique (suite)

I Nous pouvons donc ´ecrire leR2 comme R2 = Yˆ0M0Y

Y0M0Y

= Yˆ0M0Y Y0M0Y

0M0Y Yˆ0M0Y

(multipliant num´erateur et d´enominateur par la mˆeme chose)

=

0M0Y Yˆ0M0Y (Y0M0Y)

0M0Y

=

0M0Y Yˆ0M0Y (Y0M0Y)

0M0Yˆ .

Ajustement statistique (suite)

I Nous pouvons donc ´ecrire leR2 comme R2 = Yˆ0M0Y

Y0M0Y

= Yˆ0M0Y Y0M0Y

0M0Y Yˆ0M0Y

(multipliant num´erateur et d´enominateur par la mˆeme chose)

=

0M0Y Yˆ0M0Y (Y0M0Y)

0M0Y

=

0M0Y Yˆ0M0Y (Y0M0Y)

0M0Yˆ .

Ajustement statistique (suite)

I On peut r´e´ecrire ceci en notation non matricielle pour obtenir Yˆ0M0Y Yˆ0M0Y

Ajustement statistique (suite)

I On peut r´e´ecrire ceci en notation non matricielle pour obtenir Yˆ0M0Y Yˆ0M0Y

Ajustement statistique (suite)

I On peut r´e´ecrire ceci en notation non matricielle pour obtenir Yˆ0M0Y Yˆ0M0Y

Ajustement statistique (suite)

I On peut r´e´ecrire ceci en notation non matricielle pour obtenir Yˆ0M0Y Yˆ0M0Y

Ajustement statistique (suite)

pr´edire les variations de la variable d´ependante autour de sa moyenne (mesur´e par la corr´elation entre les valeurs pr´edites et les valeurs r´ealis´ees).

Ajustement statistique (suite)

pr´edire les variations de la variable d´ependante autour de sa moyenne (mesur´e par la corr´elation entre les valeurs pr´edites et les valeurs r´ealis´ees).

Ajustement statistique (suite)

pr´edire les variations de la variable d´ependante autour de sa moyenne (mesur´e par la corr´elation entre les valeurs pr´edites et les valeurs r´ealis´ees).

Ajustement statistique (suite)

I Dans le cas du mod`ele de r´egression simple, nous avons Yˆi−Y¯

= Xi−X¯βˆ1.

I Nous avons tout de suite

Ajustement statistique (suite)

I Dans le cas du mod`ele de r´egression simple, nous avons Yˆi−Y¯

= Xi−X¯βˆ1.

I Nous avons tout de suite

Ajustement statistique (suite)

I Dans le cas du mod`ele de r´egression simple, nous avons Yˆi−Y¯

= Xi−X¯βˆ1.

I Nous avons tout de suite

Ajustement statistique (suite)

=

1 n−1

Pn

i=1 Xi −X¯

Yi −Y¯ q 1

n−1

Pn

i=1 Yi −Y¯2q

1 n−1

Pn

i=1 Xi−X¯2

2

≡ Corr (Y,X)2

⇒R2 = Corr (Y,X)2

.

I On voit que le r´esultat trouv´e dans le chapitre sur le mod`ele de r´egression simple n’est qu’un cas sp´ecial du r´esultat g´en´eral d´evelopp´e ici.

Ajustement statistique (suite)

=

1 n−1

Pn

i=1 Xi −X¯

Yi −Y¯ q 1

n−1

Pn

i=1 Yi −Y¯2q

1 n−1

Pn

i=1 Xi−X¯2

2

≡ Corr (Y,X)2

⇒R2 = Corr (Y,X)2

.

I On voit que le r´esultat trouv´e dans le chapitre sur le mod`ele de r´egression simple n’est qu’un cas sp´ecial du r´esultat g´en´eral d´evelopp´e ici.

Ajustement statistique (suite)

=

1 n−1

Pn

i=1 Xi −X¯

Yi −Y¯ q 1

n−1

Pn

i=1 Yi −Y¯2q

1 n−1

Pn

i=1 Xi−X¯2

2

≡ Corr (Y,X)2

⇒R2 = Corr (Y,X)2

.

I On voit que le r´esultat trouv´e dans le chapitre sur le mod`ele de r´egression simple n’est qu’un cas sp´ecial du r´esultat g´en´eral d´evelopp´e ici.

Ajustement statistique (suite)

=

1 n−1

Pn

i=1 Xi −X¯

Yi −Y¯ q 1

n−1

Pn

i=1 Yi −Y¯2q

1 n−1

Pn

i=1 Xi−X¯2

2

≡ Corr (Y,X)2

⇒R2 = Corr (Y,X)2

.

I On voit que le r´esultat trouv´e dans le chapitre sur le mod`ele de r´egression simple n’est qu’un cas sp´ecial du r´esultat g´en´eral d´evelopp´e ici.

R

2

ajust´ e

I Ajouter une variable explicative au mod`ele ne peut que faire augmenter R2.

I Avec autant de variables explicatives que d’observations ((k+ 1) =n), on aura R2 = 1.X est alors une matrice carr´ee et on a

0 =U =Y −Xβˆ

⇒Y =Xβ.ˆ

⇒βˆ=X−1Y.

I Donc, unR2 ´elev´e n’est pas toujours et partout une bonne chose.

R

2

ajust´ e

I Ajouter une variable explicative au mod`ele ne peut que faire augmenter R2.

I Avec autant de variables explicatives que d’observations ((k+ 1) =n), on aura R2 = 1.X est alors une matrice carr´ee et on a

0 =U =Y −Xβˆ

⇒Y =Xβ.ˆ

⇒βˆ=X−1Y.

I Donc, unR2 ´elev´e n’est pas toujours et partout une bonne chose.

R

2

ajust´ e

I Ajouter une variable explicative au mod`ele ne peut que faire augmenter R2.

I Avec autant de variables explicatives que d’observations ((k+ 1) =n), on aura R2 = 1.X est alors une matrice carr´ee et on a

0 =U =Y −Xβˆ

⇒Y =Xβ.ˆ

⇒βˆ=X−1Y.

I Donc, unR2 ´elev´e n’est pas toujours et partout une bonne chose.

R

2

ajust´ e

I Ajouter une variable explicative au mod`ele ne peut que faire augmenter R2.

I Avec autant de variables explicatives que d’observations ((k+ 1) =n), on aura R2 = 1.X est alors une matrice carr´ee et on a

0 =U =Y −Xβˆ

⇒Y =Xβ.ˆ

⇒βˆ=X−1Y.

I Donc, unR2 ´elev´e n’est pas toujours et partout une bonne chose.

R

2

ajust´ e (suite)

I Une autre mesure qui p´enalisel’ajustement lorsqu’on ajoute des variables explicatives.

2≡1− n−1 n−k−1

SSR

TSS = 1− su2ˆ sY2 .

I Trois propri´et´es importantes du ¯R2. 1. n−k−1n−1 >1, et donc ¯R2<R2.

2. Ajouter une variable explicative suppl´ementaire a deux effets sur ¯R2. 1) SSR doit baisser, ce qui fait augmenter ¯R2. 2) Le facteur n−kn−1−1 augmente, ce qui fait diminuer ¯R2. L’effet net est ambigu.

3. R¯2peut ˆetre n´egatif.

R

2

ajust´ e (suite)

I Une autre mesure qui p´enalisel’ajustement lorsqu’on ajoute des variables explicatives.

2≡1− n−1 n−k−1

SSR

TSS = 1− su2ˆ sY2 .

I Trois propri´et´es importantes du ¯R2.

1. n−k−1n−1 >1, et donc ¯R2<R2.

2. Ajouter une variable explicative suppl´ementaire a deux effets sur ¯R2. 1) SSR doit baisser, ce qui fait augmenter ¯R2. 2) Le facteur n−kn−1−1 augmente, ce qui fait diminuer ¯R2. L’effet net est ambigu.

3. R¯2peut ˆetre n´egatif.

R

2

ajust´ e (suite)

I Une autre mesure qui p´enalisel’ajustement lorsqu’on ajoute des variables explicatives.

2≡1− n−1 n−k−1

SSR

TSS = 1− su2ˆ sY2 .

I Trois propri´et´es importantes du ¯R2. 1. n−k−1n−1 >1, et donc ¯R2<R2.

2. Ajouter une variable explicative suppl´ementaire a deux effets sur ¯R2. 1) SSR doit baisser, ce qui fait augmenter ¯R2. 2) Le facteur n−kn−1−1 augmente, ce qui fait diminuer ¯R2. L’effet net est ambigu.

3. R¯2peut ˆetre n´egatif.

R

2

ajust´ e (suite)

I Une autre mesure qui p´enalisel’ajustement lorsqu’on ajoute des variables explicatives.

2≡1− n−1 n−k−1

SSR

TSS = 1− su2ˆ sY2 .

I Trois propri´et´es importantes du ¯R2. 1. n−k−1n−1 >1, et donc ¯R2<R2.

2. Ajouter une variable explicative suppl´ementaire a deux effets sur ¯R2.

1) SSR doit baisser, ce qui fait augmenter ¯R2. 2) Le facteur n−kn−1−1 augmente, ce qui fait diminuer ¯R2. L’effet net est ambigu.

3. R¯2peut ˆetre n´egatif.

R

2

ajust´ e (suite)

I Une autre mesure qui p´enalisel’ajustement lorsqu’on ajoute des variables explicatives.

2≡1− n−1 n−k−1

SSR

TSS = 1− su2ˆ sY2 .

I Trois propri´et´es importantes du ¯R2. 1. n−k−1n−1 >1, et donc ¯R2<R2.

2. Ajouter une variable explicative suppl´ementaire a deux effets sur ¯R2. 1) SSR doit baisser, ce qui fait augmenter ¯R2.

2) Le facteur n−kn−1−1 augmente, ce qui fait diminuer ¯R2. L’effet net est ambigu.

3. R¯2peut ˆetre n´egatif.

R

2

ajust´ e (suite)

I Une autre mesure qui p´enalisel’ajustement lorsqu’on ajoute des variables explicatives.

2≡1− n−1 n−k−1

SSR

TSS = 1− su2ˆ sY2 .

I Trois propri´et´es importantes du ¯R2. 1. n−k−1n−1 >1, et donc ¯R2<R2.

2. Ajouter une variable explicative suppl´ementaire a deux effets sur ¯R2. 1) SSR doit baisser, ce qui fait augmenter ¯R2. 2) Le facteur n−kn−1−1 augmente, ce qui fait diminuer ¯R2.

L’effet net est ambigu.

3. R¯2peut ˆetre n´egatif.

R

2

ajust´ e (suite)

I Une autre mesure qui p´enalisel’ajustement lorsqu’on ajoute des variables explicatives.

2≡1− n−1 n−k−1

SSR

TSS = 1− su2ˆ sY2 .

I Trois propri´et´es importantes du ¯R2. 1. n−k−1n−1 >1, et donc ¯R2<R2.

2. Ajouter une variable explicative suppl´ementaire a deux effets sur ¯R2. 1) SSR doit baisser, ce qui fait augmenter ¯R2. 2) Le facteur n−kn−1−1 augmente, ce qui fait diminuer ¯R2. L’effet net est ambigu.

3. R¯2peut ˆetre n´egatif.

R

2

ajust´ e (suite)

I Une autre mesure qui p´enalisel’ajustement lorsqu’on ajoute des variables explicatives.

2≡1− n−1 n−k−1

SSR

TSS = 1− su2ˆ sY2 .

I Trois propri´et´es importantes du ¯R2. 1. n−k−1n−1 >1, et donc ¯R2<R2.

2. Ajouter une variable explicative suppl´ementaire a deux effets sur ¯R2. 1) SSR doit baisser, ce qui fait augmenter ¯R2. 2) Le facteur n−kn−1−1 augmente, ce qui fait diminuer ¯R2. L’effet net est ambigu.

3. R¯2peut ˆetre n´egatif.

R

2

ajust´ e (suite)

I La d´efinition du R2 ajust´e semble arbitraire.

I Elle a une justificationstatistique.

I Si on ajoute une variable explicative additionnelle Xk+1 `a un mod`ele, on peut tester sa significativit´e.

I Si la statistique t normalis´ee pour le test `a une valeur absolue sup´erieure `a 1, leR2 ajust´e augmente. Si non, il diminue.

I Nous allons revenir `a cette question apr`es la section sur les tests d’hypoth`ese.

R

2

ajust´ e (suite)

I La d´efinition du R2 ajust´e semble arbitraire.

I Elle a une justificationstatistique.

I Si on ajoute une variable explicative additionnelle Xk+1 `a un mod`ele, on peut tester sa significativit´e.

I Si la statistique t normalis´ee pour le test `a une valeur absolue sup´erieure `a 1, leR2 ajust´e augmente. Si non, il diminue.

I Nous allons revenir `a cette question apr`es la section sur les tests d’hypoth`ese.

R

2

ajust´ e (suite)

I La d´efinition du R2 ajust´e semble arbitraire.

I Elle a une justificationstatistique.

I Si on ajoute une variable explicative additionnelle Xk+1 `a un mod`ele, on peut tester sa significativit´e.

I Si la statistique t normalis´ee pour le test `a une valeur absolue sup´erieure `a 1, leR2 ajust´e augmente. Si non, il diminue.

I Nous allons revenir `a cette question apr`es la section sur les tests d’hypoth`ese.

R

2

ajust´ e (suite)

I La d´efinition du R2 ajust´e semble arbitraire.

I Elle a une justificationstatistique.

I Si on ajoute une variable explicative additionnelle Xk+1 `a un mod`ele, on peut tester sa significativit´e.

I Si la statistique t normalis´ee pour le test `a une valeur absolue sup´erieure `a 1, leR2 ajust´e augmente. Si non, il diminue.

I Nous allons revenir `a cette question apr`es la section sur les tests d’hypoth`ese.

R

2

ajust´ e (suite)

I La d´efinition du R2 ajust´e semble arbitraire.

I Elle a une justificationstatistique.

I Si on ajoute une variable explicative additionnelle Xk+1 `a un mod`ele, on peut tester sa significativit´e.

I Si la statistique t normalis´ee pour le test `a une valeur absolue sup´erieure `a 1, leR2 ajust´e augmente. Si non, il diminue.

I Nous allons revenir `a cette question apr`es la section sur les tests d’hypoth`ese.

Documents relatifs