ECO 4272 : Introduction ` a l’´ Econom´ etrie Tests diagnostics
Steve Ambler
D´epartement des sciences ´economiques Ecole des sciences de la gestion´ Universit´e du Qu´ebec `a Montr´eal
2018: Steve Amblerc
Hiver 2018
Introduction
I But : pr´esenter de fa¸con informelle quelques tests diagnostics couramment utilis´es en ´econom´etrie appliqu´ee.
I Stock et Watson : beaucoup d’accent sur les donn´ees non normales et non homosc´edastiques, peu pou pas d’accent sur les fa¸cons de d´etecter la non-normalit´e ou l’h´et´erosc´edasticit´e.
I Voir Boomsma (2014) et Fox (2009) pour plus de d´etails, ou le 4e chapitre de Kleiber et Zeileis (2008).
Introduction
I But : pr´esenter de fa¸con informelle quelques tests diagnostics couramment utilis´es en ´econom´etrie appliqu´ee.
I Stock et Watson : beaucoup d’accent sur les donn´ees non normales et non homosc´edastiques, peu pou pas d’accent sur les fa¸cons de d´etecter la non-normalit´e ou l’h´et´erosc´edasticit´e.
I Voir Boomsma (2014) et Fox (2009) pour plus de d´etails, ou le 4e chapitre de Kleiber et Zeileis (2008).
Introduction
I But : pr´esenter de fa¸con informelle quelques tests diagnostics couramment utilis´es en ´econom´etrie appliqu´ee.
I Stock et Watson : beaucoup d’accent sur les donn´ees non normales et non homosc´edastiques, peu pou pas d’accent sur les fa¸cons de d´etecter la non-normalit´e ou l’h´et´erosc´edasticit´e.
I Voir Boomsma (2014) et Fox (2009) pour plus de d´etails, ou le 4e chapitre de Kleiber et Zeileis (2008).
Introduction (suite)
Quelques r´ef´erences Wikipedia: 1. Breusch-Pagan Test 2. Cook’s Distance
3. Errors-in-Variables Models 4. Hat Matrix
5. Heteroscedasticity 6. Leverage (Statistics) 7. Multicollinearity 8. Normality Test
9. Normal Probability Plot 10. Q-Q Plot
11. Ramsey Reset Test 12. Studentized Residual 13. White Test
Plan
1. Section sur les diagnostics informels
1.1 Analyse grahique ou alg´ebrique des r´esidus d’un mod`ele de r´egression
1.2 Diagnostics pour d´etecter des observations qui ont une influence d´emesur´ee sur les r´esultats de l’estimation (coefficients, valeurs pr´edites, variance estim´ee de l’erreur, variance estim´ee des coefficients, etc.)
2. Tests formels de 2.1 l’homosc´edasticit´e
2.2 la forme fonctionnelle du mod`ele de r´egression 2.3 la normalit´e du terme d’erreur
2.4 mesures de la multicollin´earit´e 2.5 l’ind´ependance des erreurs 2.6 l’endog´en´eit´e
Plan
1. Section sur les diagnostics informels
1.1 Analyse grahique ou alg´ebrique des r´esidus d’un mod`ele de r´egression
1.2 Diagnostics pour d´etecter des observations qui ont une influence d´emesur´ee sur les r´esultats de l’estimation (coefficients, valeurs pr´edites, variance estim´ee de l’erreur, variance estim´ee des coefficients, etc.)
2. Tests formels de 2.1 l’homosc´edasticit´e
2.2 la forme fonctionnelle du mod`ele de r´egression 2.3 la normalit´e du terme d’erreur
2.4 mesures de la multicollin´earit´e 2.5 l’ind´ependance des erreurs 2.6 l’endog´en´eit´e
Plan
1. Section sur les diagnostics informels
1.1 Analyse grahique ou alg´ebrique des r´esidus d’un mod`ele de r´egression
1.2 Diagnostics pour d´etecter des observations qui ont une influence d´emesur´ee sur les r´esultats de l’estimation (coefficients, valeurs pr´edites, variance estim´ee de l’erreur, variance estim´ee des coefficients, etc.)
2. Tests formels de
2.1 l’homosc´edasticit´e
2.2 la forme fonctionnelle du mod`ele de r´egression 2.3 la normalit´e du terme d’erreur
2.4 mesures de la multicollin´earit´e 2.5 l’ind´ependance des erreurs 2.6 l’endog´en´eit´e
Plan
1. Section sur les diagnostics informels
1.1 Analyse grahique ou alg´ebrique des r´esidus d’un mod`ele de r´egression
1.2 Diagnostics pour d´etecter des observations qui ont une influence d´emesur´ee sur les r´esultats de l’estimation (coefficients, valeurs pr´edites, variance estim´ee de l’erreur, variance estim´ee des coefficients, etc.)
2. Tests formels de 2.1 l’homosc´edasticit´e
2.2 la forme fonctionnelle du mod`ele de r´egression 2.3 la normalit´e du terme d’erreur
2.4 mesures de la multicollin´earit´e 2.5 l’ind´ependance des erreurs 2.6 l’endog´en´eit´e
Plan
1. Section sur les diagnostics informels
1.1 Analyse grahique ou alg´ebrique des r´esidus d’un mod`ele de r´egression
1.2 Diagnostics pour d´etecter des observations qui ont une influence d´emesur´ee sur les r´esultats de l’estimation (coefficients, valeurs pr´edites, variance estim´ee de l’erreur, variance estim´ee des coefficients, etc.)
2. Tests formels de 2.1 l’homosc´edasticit´e
2.2 la forme fonctionnelle du mod`ele de r´egression
2.3 la normalit´e du terme d’erreur 2.4 mesures de la multicollin´earit´e 2.5 l’ind´ependance des erreurs 2.6 l’endog´en´eit´e
Plan
1. Section sur les diagnostics informels
1.1 Analyse grahique ou alg´ebrique des r´esidus d’un mod`ele de r´egression
1.2 Diagnostics pour d´etecter des observations qui ont une influence d´emesur´ee sur les r´esultats de l’estimation (coefficients, valeurs pr´edites, variance estim´ee de l’erreur, variance estim´ee des coefficients, etc.)
2. Tests formels de 2.1 l’homosc´edasticit´e
2.2 la forme fonctionnelle du mod`ele de r´egression 2.3 la normalit´e du terme d’erreur
2.4 mesures de la multicollin´earit´e 2.5 l’ind´ependance des erreurs 2.6 l’endog´en´eit´e
Plan
1. Section sur les diagnostics informels
1.1 Analyse grahique ou alg´ebrique des r´esidus d’un mod`ele de r´egression
1.2 Diagnostics pour d´etecter des observations qui ont une influence d´emesur´ee sur les r´esultats de l’estimation (coefficients, valeurs pr´edites, variance estim´ee de l’erreur, variance estim´ee des coefficients, etc.)
2. Tests formels de 2.1 l’homosc´edasticit´e
2.2 la forme fonctionnelle du mod`ele de r´egression 2.3 la normalit´e du terme d’erreur
2.4 mesures de la multicollin´earit´e
2.5 l’ind´ependance des erreurs 2.6 l’endog´en´eit´e
Plan
1. Section sur les diagnostics informels
1.1 Analyse grahique ou alg´ebrique des r´esidus d’un mod`ele de r´egression
1.2 Diagnostics pour d´etecter des observations qui ont une influence d´emesur´ee sur les r´esultats de l’estimation (coefficients, valeurs pr´edites, variance estim´ee de l’erreur, variance estim´ee des coefficients, etc.)
2. Tests formels de 2.1 l’homosc´edasticit´e
2.2 la forme fonctionnelle du mod`ele de r´egression 2.3 la normalit´e du terme d’erreur
2.4 mesures de la multicollin´earit´e 2.5 l’ind´ependance des erreurs
2.6 l’endog´en´eit´e
Plan
1. Section sur les diagnostics informels
1.1 Analyse grahique ou alg´ebrique des r´esidus d’un mod`ele de r´egression
1.2 Diagnostics pour d´etecter des observations qui ont une influence d´emesur´ee sur les r´esultats de l’estimation (coefficients, valeurs pr´edites, variance estim´ee de l’erreur, variance estim´ee des coefficients, etc.)
2. Tests formels de 2.1 l’homosc´edasticit´e
2.2 la forme fonctionnelle du mod`ele de r´egression 2.3 la normalit´e du terme d’erreur
2.4 mesures de la multicollin´earit´e 2.5 l’ind´ependance des erreurs 2.6 l’endog´en´eit´e
Diagnostics informels
I R´esidus versus valeurs pr´edites. Nous avons d´ej`a parl´e de cet outil.
I Probl`eme potentiel :mˆeme si les erreursdu mod`ele de r´egression sont homosc´edastiques et ind´ependantes
(autrement dit les donn´ees proviennent d’un ´echantillon i.i.d.), les r´esidusdu mod`ele de r´egression auront une variance non constante et ne seront pas ind´ependants les uns par rapport aux autres.
I Pour cette raison, on travaille souvent avec les r´esidus
normalis´es, un concept auquel nous allons revenir ci-dessous.
Diagnostics informels
I R´esidus versus valeurs pr´edites. Nous avons d´ej`a parl´e de cet outil.
I Probl`eme potentiel :mˆeme si les erreursdu mod`ele de r´egression sont homosc´edastiques et ind´ependantes
(autrement dit les donn´ees proviennent d’un ´echantillon i.i.d.), les r´esidusdu mod`ele de r´egression auront une variance non constante et ne seront pas ind´ependants les uns par rapport aux autres.
I Pour cette raison, on travaille souvent avec les r´esidus
normalis´es, un concept auquel nous allons revenir ci-dessous.
Diagnostics informels
I R´esidus versus valeurs pr´edites. Nous avons d´ej`a parl´e de cet outil.
I Probl`eme potentiel :mˆeme si les erreursdu mod`ele de r´egression sont homosc´edastiques et ind´ependantes
(autrement dit les donn´ees proviennent d’un ´echantillon i.i.d.), les r´esidusdu mod`ele de r´egression auront une variance non constante et ne seront pas ind´ependants les uns par rapport aux autres.
I Pour cette raison, on travaille souvent avec les r´esidus
normalis´es, un concept auquel nous allons revenir ci-dessous.
Graphique Q–Q
I Pour analyser l’h´ypoth`ese de la normalit´e des erreurs. Le
Q est cens´e faire penser `a quantile
I On compare les quantiles de deux distributions de probabilit´e sur un graphique
I Si φ(·) est la fonction de distribution normale cumul´ee,φ−1 donne les quantiles
I 2 distributions sont identiques ⇒ les points se retrouveront sur une droite avec une pente de 45 degr´es
I Relation lin´eaire entre 2 distributions⇒ les points se retrouveront sur une droite
I En R qqnorm(x)cr´ee un graphique qui compare x `a une normale th´eorique
I En R plot(model,which=2) fait la mˆeme chose pour les r´esidus d’un mod`ele estim´e aveclm(·)
Graphique Q–Q
I Pour analyser l’h´ypoth`ese de la normalit´e des erreurs. Le
Q est cens´e faire penser `a quantile
I On compare les quantiles de deux distributions de probabilit´e sur un graphique
I Si φ(·) est la fonction de distribution normale cumul´ee,φ−1 donne les quantiles
I 2 distributions sont identiques ⇒ les points se retrouveront sur une droite avec une pente de 45 degr´es
I Relation lin´eaire entre 2 distributions⇒ les points se retrouveront sur une droite
I En R qqnorm(x)cr´ee un graphique qui compare x `a une normale th´eorique
I En R plot(model,which=2) fait la mˆeme chose pour les r´esidus d’un mod`ele estim´e aveclm(·)
Graphique Q–Q
I Pour analyser l’h´ypoth`ese de la normalit´e des erreurs. Le
Q est cens´e faire penser `a quantile
I On compare les quantiles de deux distributions de probabilit´e sur un graphique
I Si φ(·) est la fonction de distribution normale cumul´ee,φ−1 donne les quantiles
I 2 distributions sont identiques ⇒ les points se retrouveront sur une droite avec une pente de 45 degr´es
I Relation lin´eaire entre 2 distributions⇒ les points se retrouveront sur une droite
I En R qqnorm(x)cr´ee un graphique qui compare x `a une normale th´eorique
I En R plot(model,which=2) fait la mˆeme chose pour les r´esidus d’un mod`ele estim´e aveclm(·)
Graphique Q–Q
I Pour analyser l’h´ypoth`ese de la normalit´e des erreurs. Le
Q est cens´e faire penser `a quantile
I On compare les quantiles de deux distributions de probabilit´e sur un graphique
I Si φ(·) est la fonction de distribution normale cumul´ee,φ−1 donne les quantiles
I 2 distributions sont identiques ⇒ les points se retrouveront sur une droite avec une pente de 45 degr´es
I Relation lin´eaire entre 2 distributions⇒ les points se retrouveront sur une droite
I En R qqnorm(x)cr´ee un graphique qui compare x `a une normale th´eorique
I En R plot(model,which=2) fait la mˆeme chose pour les r´esidus d’un mod`ele estim´e aveclm(·)
Graphique Q–Q
I Pour analyser l’h´ypoth`ese de la normalit´e des erreurs. Le
Q est cens´e faire penser `a quantile
I On compare les quantiles de deux distributions de probabilit´e sur un graphique
I Si φ(·) est la fonction de distribution normale cumul´ee,φ−1 donne les quantiles
I 2 distributions sont identiques ⇒ les points se retrouveront sur une droite avec une pente de 45 degr´es
I Relation lin´eaire entre 2 distributions⇒ les points se retrouveront sur une droite
I En R qqnorm(x)cr´ee un graphique qui compare x `a une normale th´eorique
I En R plot(model,which=2) fait la mˆeme chose pour les r´esidus d’un mod`ele estim´e aveclm(·)
Graphique Q–Q
I Pour analyser l’h´ypoth`ese de la normalit´e des erreurs. Le
Q est cens´e faire penser `a quantile
I On compare les quantiles de deux distributions de probabilit´e sur un graphique
I Si φ(·) est la fonction de distribution normale cumul´ee,φ−1 donne les quantiles
I 2 distributions sont identiques ⇒ les points se retrouveront sur une droite avec une pente de 45 degr´es
I Relation lin´eaire entre 2 distributions⇒ les points se retrouveront sur une droite
I En R qqnorm(x) cr´ee un graphique qui compare x `a une normale th´eorique
I En R plot(model,which=2) fait la mˆeme chose pour les r´esidus d’un mod`ele estim´e aveclm(·)
Graphique Q–Q
I Pour analyser l’h´ypoth`ese de la normalit´e des erreurs. Le
Q est cens´e faire penser `a quantile
I On compare les quantiles de deux distributions de probabilit´e sur un graphique
I Si φ(·) est la fonction de distribution normale cumul´ee,φ−1 donne les quantiles
I 2 distributions sont identiques ⇒ les points se retrouveront sur une droite avec une pente de 45 degr´es
I Relation lin´eaire entre 2 distributions⇒ les points se retrouveront sur une droite
I En R qqnorm(x) cr´ee un graphique qui compare x `a une normale th´eorique
I En R plot(model,which=2) fait la mˆeme chose pour les r´esidus d’un mod`ele estim´e aveclm(·)
Diagramme de variable ajout´ ee
I But – d´etecter si l’impact d’une variable individuelle (dans un mod`ele de r´egression multiple) est bien capt´e par une relation lin´eaire
I Difficile avec un graphique des r´esidus contre la variable explicative (il faut tenir constantes les valeurs de toutes les autres variables explicatives)
I On voudrait regarder l’impact d’une variable individuelle sur la variable d´ependante ayant purg´e l’impact de toutes les autres variables
I Un diagramme de variable ajout´ee nous permet de faire ceci. La d´emarche est la suivante :
Diagramme de variable ajout´ ee
I But – d´etecter si l’impact d’une variable individuelle (dans un mod`ele de r´egression multiple) est bien capt´e par une relation lin´eaire
I Difficile avec un graphique des r´esidus contre la variable explicative (il faut tenir constantes les valeurs de toutes les autres variables explicatives)
I On voudrait regarder l’impact d’une variable individuelle sur la variable d´ependante ayant purg´e l’impact de toutes les autres variables
I Un diagramme de variable ajout´ee nous permet de faire ceci. La d´emarche est la suivante :
Diagramme de variable ajout´ ee
I But – d´etecter si l’impact d’une variable individuelle (dans un mod`ele de r´egression multiple) est bien capt´e par une relation lin´eaire
I Difficile avec un graphique des r´esidus contre la variable explicative (il faut tenir constantes les valeurs de toutes les autres variables explicatives)
I On voudrait regarder l’impact d’une variable individuelle sur la variable d´ependante ayant purg´e l’impact de toutes les autres variables
I Un diagramme de variable ajout´ee nous permet de faire ceci. La d´emarche est la suivante :
Diagramme de variable ajout´ ee
I But – d´etecter si l’impact d’une variable individuelle (dans un mod`ele de r´egression multiple) est bien capt´e par une relation lin´eaire
I Difficile avec un graphique des r´esidus contre la variable explicative (il faut tenir constantes les valeurs de toutes les autres variables explicatives)
I On voudrait regarder l’impact d’une variable individuelle sur la variable d´ependante ayant purg´e l’impact de toutes les autres variables
I Un diagramme de variable ajout´ee nous permet de faire ceci.
La d´emarche est la suivante :
Diagramme de variable ajout´ ee (suite)
1. Estimer un mod`ele avecY comme variable d´ependante et toutes les autres variables `a partXj comme variables explicatives. Appelons les r´esidus ˆuy
2. Estimer un mod`ele Xj comme variable d´ependanteet toutes les autres variables explicatives `a partXj comme variables explicatives. Appelons les r´esidus ˆuj
3. Cr´eer un graphique avec ˆuy sur l’axe vertical et ˆuj sur l’axe horizontal
4. On peut aussi estimer ˆ
uyi =γ0+γ1uˆji +i.
et ajouter la ligne de r´egression au graphique (avec la commande abline(·))
Diagramme de variable ajout´ ee (suite)
1. Estimer un mod`ele avecY comme variable d´ependante et toutes les autres variables `a partXj comme variables explicatives. Appelons les r´esidus ˆuy
2. Estimer un mod`ele Xj comme variable d´ependanteet toutes les autres variables explicatives `a partXj comme variables explicatives. Appelons les r´esidus ˆuj
3. Cr´eer un graphique avec ˆuy sur l’axe vertical et ˆuj sur l’axe horizontal
4. On peut aussi estimer ˆ
uyi =γ0+γ1uˆji +i.
et ajouter la ligne de r´egression au graphique (avec la commande abline(·))
Diagramme de variable ajout´ ee (suite)
1. Estimer un mod`ele avecY comme variable d´ependante et toutes les autres variables `a partXj comme variables explicatives. Appelons les r´esidus ˆuy
2. Estimer un mod`ele Xj comme variable d´ependanteet toutes les autres variables explicatives `a partXj comme variables explicatives. Appelons les r´esidus ˆuj
3. Cr´eer un graphique avec ˆuy sur l’axe vertical et ˆuj sur l’axe horizontal
4. On peut aussi estimer ˆ
uyi =γ0+γ1uˆji +i.
et ajouter la ligne de r´egression au graphique (avec la commande abline(·))
Diagramme de variable ajout´ ee (suite)
1. Estimer un mod`ele avecY comme variable d´ependante et toutes les autres variables `a partXj comme variables explicatives. Appelons les r´esidus ˆuy
2. Estimer un mod`ele Xj comme variable d´ependanteet toutes les autres variables explicatives `a partXj comme variables explicatives. Appelons les r´esidus ˆuj
3. Cr´eer un graphique avec ˆuy sur l’axe vertical et ˆuj sur l’axe horizontal
4. On peut aussi estimer ˆ
uyi =γ0+γ1uˆji +i.
et ajouter la ligne de r´egression au graphique (avec la commande abline(·))
Diagramme de variable ajout´ ee (suite)
1. Estimer un mod`ele avecY comme variable d´ependante et toutes les autres variables `a partXj comme variables explicatives. Appelons les r´esidus ˆuy
2. Estimer un mod`ele Xj comme variable d´ependanteet toutes les autres variables explicatives `a partXj comme variables explicatives. Appelons les r´esidus ˆuj
3. Cr´eer un graphique avec ˆuy sur l’axe vertical et ˆuj sur l’axe horizontal
4. On peut aussi estimer ˆ
uyi =γ0+γ1uˆji +i.
et ajouter la ligne de r´egression au graphique (avec la commande abline(·))
Diagramme de variable ajout´ ee (suite)
I Le th´eor`eme Frisch-Waugh-Lovell nous dit que le ˆγ1 doit ˆetre identique `a ˆβj
I En R,avPlots(·)(packagecar), o`u l’argument est un mod`ele estim´e, cr´ee des diagrammes de variable ajout´ee pour toutesles variables explicatives
I Interpr´etation — le coefficient ˆγ donne l’impact deXj sur Y une fois que l’on purgeXj des effets des autres variables explicatives. Mais c’est exactement ce que fait l’estimation par MCO du mod`ele de r´egression multiple.
Diagramme de variable ajout´ ee (suite)
I Le th´eor`eme Frisch-Waugh-Lovell nous dit que le ˆγ1 doit ˆetre identique `a ˆβj
I En R,avPlots(·)(packagecar), o`u l’argument est un mod`ele estim´e, cr´ee des diagrammes de variable ajout´ee pour toutesles variables explicatives
I Interpr´etation — le coefficient ˆγ donne l’impact deXj sur Y une fois que l’on purgeXj des effets des autres variables explicatives. Mais c’est exactement ce que fait l’estimation par MCO du mod`ele de r´egression multiple.
Diagramme de variable ajout´ ee (suite)
I Le th´eor`eme Frisch-Waugh-Lovell nous dit que le ˆγ1 doit ˆetre identique `a ˆβj
I En R,avPlots(·)(packagecar), o`u l’argument est un mod`ele estim´e, cr´ee des diagrammes de variable ajout´ee pour toutesles variables explicatives
I Interpr´etation — le coefficient ˆγ donne l’impact deXj sur Y une fois que l’on purgeXj des effets des autres variables explicatives. Mais c’est exactement ce que fait l’estimation par MCO du mod`ele de r´egression multiple.
Diagramme de r´ esidus partiels
I Graphique avec ˆui + ˆβjXji sur l’axe vertical, Xji sur l’axe horizontal
I La pente est donn´ee par ˆβj
I Boomsma (2014) – ces diagrammes sont plus utiles pour d´etecter les non-lin´earit´es, tandis que les diagrammes de variable ajout´ee sont plus utiles pour d´etecter les observations aberrantes et influentes
I R:prplot(·,x)(packagefaraway) permet de g´en´erer automatiquement des graphiques de r´esidus partiels pour un mod`ele estim´e
I Premier argument : nom du mod`ele estim´e. Deuxi`eme argument : nombre de la variable explicative.
Diagramme de r´ esidus partiels
I Graphique avec ˆui + ˆβjXji sur l’axe vertical, Xji sur l’axe horizontal
I La pente est donn´ee par ˆβj
I Boomsma (2014) – ces diagrammes sont plus utiles pour d´etecter les non-lin´earit´es, tandis que les diagrammes de variable ajout´ee sont plus utiles pour d´etecter les observations aberrantes et influentes
I R:prplot(·,x)(packagefaraway) permet de g´en´erer automatiquement des graphiques de r´esidus partiels pour un mod`ele estim´e
I Premier argument : nom du mod`ele estim´e. Deuxi`eme argument : nombre de la variable explicative.
Diagramme de r´ esidus partiels
I Graphique avec ˆui + ˆβjXji sur l’axe vertical, Xji sur l’axe horizontal
I La pente est donn´ee par ˆβj
I Boomsma (2014) – ces diagrammes sont plus utiles pour d´etecter les non-lin´earit´es, tandis que les diagrammes de variable ajout´ee sont plus utiles pour d´etecter les observations aberrantes et influentes
I R:prplot(·,x)(packagefaraway) permet de g´en´erer automatiquement des graphiques de r´esidus partiels pour un mod`ele estim´e
I Premier argument : nom du mod`ele estim´e. Deuxi`eme argument : nombre de la variable explicative.
Diagramme de r´ esidus partiels
I Graphique avec ˆui + ˆβjXji sur l’axe vertical, Xji sur l’axe horizontal
I La pente est donn´ee par ˆβj
I Boomsma (2014) – ces diagrammes sont plus utiles pour d´etecter les non-lin´earit´es, tandis que les diagrammes de variable ajout´ee sont plus utiles pour d´etecter les observations aberrantes et influentes
I R:prplot(·,x)(packagefaraway) permet de g´en´erer automatiquement des graphiques de r´esidus partiels pour un mod`ele estim´e
I Premier argument : nom du mod`ele estim´e. Deuxi`eme argument : nombre de la variable explicative.
Diagramme de r´ esidus partiels
I Graphique avec ˆui + ˆβjXji sur l’axe vertical, Xji sur l’axe horizontal
I La pente est donn´ee par ˆβj
I Boomsma (2014) – ces diagrammes sont plus utiles pour d´etecter les non-lin´earit´es, tandis que les diagrammes de variable ajout´ee sont plus utiles pour d´etecter les observations aberrantes et influentes
I R:prplot(·,x)(packagefaraway) permet de g´en´erer automatiquement des graphiques de r´esidus partiels pour un mod`ele estim´e
I Premier argument : nom du mod`ele estim´e. Deuxi`eme argument : nombre de la variable explicative.
R´ esidus Normalis´ es
I Mˆeme si les erreurs d’un mod`ele sont homosc´edastiques, les r´esidus ne le sont pas
I Les r´esidusne peuventˆetre ind´ependants puisqu’ils satisfont X0Uˆ= 0
I Cette propri´et´e impose des relations alg´ebriques exactes(en faitk+ 1 relations exactes) entre les r´esidus qui les
empˆechent d’ˆetre ind´ependantes au sens statistique du terme
I Nous avons
Uˆ≡Y −Xβˆ=Y −X X0X−1
X0Y
=
I −X X0X−1
X0
Y
≡(I−H)Y
I (I−H) est sym´etrique etidempotente
R´ esidus Normalis´ es
I Mˆeme si les erreurs d’un mod`ele sont homosc´edastiques, les r´esidus ne le sont pas
I Les r´esidusne peuventˆetre ind´ependants puisqu’ils satisfont X0Uˆ= 0
I Cette propri´et´e impose des relations alg´ebriques exactes(en faitk+ 1 relations exactes) entre les r´esidus qui les
empˆechent d’ˆetre ind´ependantes au sens statistique du terme
I Nous avons
Uˆ≡Y −Xβˆ=Y −X X0X−1
X0Y
=
I −X X0X−1
X0
Y
≡(I−H)Y
I (I−H) est sym´etrique etidempotente
R´ esidus Normalis´ es
I Mˆeme si les erreurs d’un mod`ele sont homosc´edastiques, les r´esidus ne le sont pas
I Les r´esidusne peuventˆetre ind´ependants puisqu’ils satisfont X0Uˆ= 0
I Cette propri´et´e impose des relations alg´ebriques exactes(en faitk+ 1 relations exactes) entre les r´esidus qui les
empˆechent d’ˆetre ind´ependantes au sens statistique du terme
I Nous avons
Uˆ≡Y −Xβˆ=Y −X X0X−1
X0Y
=
I −X X0X−1
X0
Y
≡(I−H)Y
I (I−H) est sym´etrique etidempotente
R´ esidus Normalis´ es
I Mˆeme si les erreurs d’un mod`ele sont homosc´edastiques, les r´esidus ne le sont pas
I Les r´esidusne peuventˆetre ind´ependants puisqu’ils satisfont X0Uˆ= 0
I Cette propri´et´e impose des relations alg´ebriques exactes(en faitk+ 1 relations exactes) entre les r´esidus qui les
empˆechent d’ˆetre ind´ependantes au sens statistique du terme
I Nous avons
Uˆ≡Y −Xβˆ=Y −X X0X−1
X0Y
=
I −X X0X−1
X0
Y
≡(I−H)Y
I (I−H) est sym´etrique etidempotente
R´ esidus Normalis´ es
I Mˆeme si les erreurs d’un mod`ele sont homosc´edastiques, les r´esidus ne le sont pas
I Les r´esidusne peuventˆetre ind´ependants puisqu’ils satisfont X0Uˆ= 0
I Cette propri´et´e impose des relations alg´ebriques exactes(en faitk+ 1 relations exactes) entre les r´esidus qui les
empˆechent d’ˆetre ind´ependantes au sens statistique du terme
I Nous avons
Uˆ≡Y −Xβˆ=Y −X X0X−1
X0Y
=
I −X X0X−1
X0
Y
≡(I−H)Y
I (I−H) est sym´etrique etidempotente
R´ esidus Normalis´ es (suite)
I Variance (conditionnelle) du vecteur des r´esidus ˆU. ˆU est n×1, la matrice variance-covariance est n×n
E
UˆUˆ0|X
= E (I−H)YY0(I −H)|X
= E (I −H) (Xβ+U) (Xβ+U)0(I −H)|X
= (I−H)Xββ0X0(I−H) +E (I−H)XβU0|X +E Uβ0X0(I−H)|X + (I−H) E UU0
(I −H).
= (I−H) E UU0
(I−H) puisque (I −H)X = 0
R´ esidus Normalis´ es (suite)
I Cas homosc´edastique :
=σ2(I−H),
I Mˆeme si les erreurs sont homosc´edastiques les variances des r´esidus sont proportionnelles aux ´el´ements sur la diagonale de (I−H)
R´ esidus Normalis´ es (suite)
I Cas homosc´edastique :
=σ2(I−H),
I Mˆeme si les erreurs sont homosc´edastiques les variances des r´esidus sont proportionnelles aux ´el´ements sur la diagonale de (I−H)
R´ esidus normalis´ es (suite)
I R´esidusnormalis´es (oustudentis´es de fa¸con interne) :
ri ≡ uˆi ˆ σ√
1−hii
o`u ˆσ est l’´ecart type de la r´egression et leshii sont les
´
el´ements sur la diagonale de H
I On normalise les r´esidus en divisant par un estim´e de leurs
´
ecarts types (sousH0 de l’homosc´edasticit´e)
I Un graphique avec les r´esidus normalis´es (ou au carr´e) sur l’axe vertical et avec la variable d´ependante ou une des variables explicatives sur l’axe horizontal peut faire ressortir mieux si l’hypoth`ese de l’homosc´edasticit´e tient ou non
I R:rstandard(·). L’argument : l’objet utilis´e pour sauvegarder les r´esultats d’estimation d’un mod`ele
R´ esidus normalis´ es (suite)
I R´esidusnormalis´es (oustudentis´es de fa¸con interne) :
ri ≡ uˆi ˆ σ√
1−hii
o`u ˆσ est l’´ecart type de la r´egression et leshii sont les
´
el´ements sur la diagonale de H
I On normalise les r´esidus en divisant par un estim´e de leurs
´
ecarts types (sousH0 de l’homosc´edasticit´e)
I Un graphique avec les r´esidus normalis´es (ou au carr´e) sur l’axe vertical et avec la variable d´ependante ou une des variables explicatives sur l’axe horizontal peut faire ressortir mieux si l’hypoth`ese de l’homosc´edasticit´e tient ou non
I R:rstandard(·). L’argument : l’objet utilis´e pour sauvegarder les r´esultats d’estimation d’un mod`ele
R´ esidus normalis´ es (suite)
I R´esidusnormalis´es (oustudentis´es de fa¸con interne) :
ri ≡ uˆi ˆ σ√
1−hii
o`u ˆσ est l’´ecart type de la r´egression et leshii sont les
´
el´ements sur la diagonale de H
I On normalise les r´esidus en divisant par un estim´e de leurs
´
ecarts types (sousH0 de l’homosc´edasticit´e)
I Un graphique avec les r´esidus normalis´es (ou au carr´e) sur l’axe vertical et avec la variable d´ependante ou une des variables explicatives sur l’axe horizontal peut faire ressortir mieux si l’hypoth`ese de l’homosc´edasticit´e tient ou non
I R:rstandard(·). L’argument : l’objet utilis´e pour sauvegarder les r´esultats d’estimation d’un mod`ele
R´ esidus normalis´ es (suite)
I R´esidusnormalis´es (oustudentis´es de fa¸con interne) :
ri ≡ uˆi ˆ σ√
1−hii
o`u ˆσ est l’´ecart type de la r´egression et leshii sont les
´
el´ements sur la diagonale de H
I On normalise les r´esidus en divisant par un estim´e de leurs
´
ecarts types (sousH0 de l’homosc´edasticit´e)
I Un graphique avec les r´esidus normalis´es (ou au carr´e) sur l’axe vertical et avec la variable d´ependante ou une des variables explicatives sur l’axe horizontal peut faire ressortir mieux si l’hypoth`ese de l’homosc´edasticit´e tient ou non
I R:rstandard(·). L’argument : l’objet utilis´e pour sauvegarder les r´esultats d’estimation d’un mod`ele
R´ esidus normalis´ es (suite)
I Si les hypoth`eses statistiques derri`ere le mod`ele tiennent (y compris l’homosc´edasticit´e des erreurs), il devrait ˆetre le cas que Var (ri|X) = 1 et Corr (ri,rj|X) a tendance `a ˆetre faible (Kleiber et Zeileis 2008)
I Dans les sections qui suivent, la plupart des mesures utilis´ees sont bas´ees sur les r´esidus normalis´es et non sur les r´esidus eux-mˆemes.
R´ esidus normalis´ es (suite)
I Si les hypoth`eses statistiques derri`ere le mod`ele tiennent (y compris l’homosc´edasticit´e des erreurs), il devrait ˆetre le cas que Var (ri|X) = 1 et Corr (ri,rj|X) a tendance `a ˆetre faible (Kleiber et Zeileis 2008)
I Dans les sections qui suivent, la plupart des mesures utilis´ees sont bas´ees sur les r´esidus normalis´es et non sur les r´esidus eux-mˆemes.
La Matrice H
I La matrice H a ´et´e d´efinie dans la sous-section pr´ec´edente.
I H est cens´e faire penser `ahat (chapeau).
I La matrice H est utilis´ee aussi pour calculer les distances de Cook et pour mesurer les effets de levier.
I Il est possible de montrer que l’on peut exprimer les valeurs pr´edites de la variable d´ependante comme
Yˆj =h1jY1+h2jY2+. . .+hnjYn=
n
X
i=1
hijYi.
La Matrice H
I La matrice H a ´et´e d´efinie dans la sous-section pr´ec´edente.
I H est cens´e faire penser `ahat (chapeau).
I La matrice H est utilis´ee aussi pour calculer les distances de Cook et pour mesurer les effets de levier.
I Il est possible de montrer que l’on peut exprimer les valeurs pr´edites de la variable d´ependante comme
Yˆj =h1jY1+h2jY2+. . .+hnjYn=
n
X
i=1
hijYi.
La Matrice H
I La matrice H a ´et´e d´efinie dans la sous-section pr´ec´edente.
I H est cens´e faire penser `ahat (chapeau).
I La matrice H est utilis´ee aussi pour calculer les distances de Cook et pour mesurer les effets de levier.
I Il est possible de montrer que l’on peut exprimer les valeurs pr´edites de la variable d´ependante comme
Yˆj =h1jY1+h2jY2+. . .+hnjYn=
n
X
i=1
hijYi.
La Matrice H
I La matrice H a ´et´e d´efinie dans la sous-section pr´ec´edente.
I H est cens´e faire penser `ahat (chapeau).
I La matrice H est utilis´ee aussi pour calculer les distances de Cook et pour mesurer les effets de levier.
I Il est possible de montrer que l’on peut exprimer les valeurs pr´edites de la variable d´ependante comme
Yˆj =h1jY1+h2jY2+. . .+hnjYn=
n
X
i=1
hijYi.
La Matrice H
I La matrice H a ´et´e d´efinie dans la sous-section pr´ec´edente.
I H est cens´e faire penser `ahat (chapeau).
I La matrice H est utilis´ee aussi pour calculer les distances de Cook et pour mesurer les effets de levier.
I Il est possible de montrer que l’on peut exprimer les valeurs pr´edites de la variable d´ependante comme
Yˆj =h1jY1+h2jY2+. . .+hnjYn=
n
X
i=1
hijYi.
La Matrice H (suite)
I Ainsi, le poids hij capte la contribution de l’observationYi `a la valeur pr´edite ˆYj.
I On peut montrer que
hii =
n
X
j=1
hij2,
et donc la valeur hii r´esume l’influence potentielle de l’observation Yi sur toutesles valeurs pr´edites ˆYj.
I On peut montrer que 1
n ≤hii ≤1.
I On peut aussi montrer que la valeur moyenne des hii est donn´ee par
1 n
n
X
i=1
hii = ¯h = k+ 1 n .
La Matrice H (suite)
I Ainsi, le poids hij capte la contribution de l’observationYi `a la valeur pr´edite ˆYj.
I On peut montrer que
hii =
n
X
j=1
hij2,
et donc la valeur hii r´esume l’influence potentielle de l’observation Yi sur toutesles valeurs pr´edites ˆYj.
I On peut montrer que 1
n ≤hii ≤1.
I On peut aussi montrer que la valeur moyenne des hii est donn´ee par
1 n
n
X
i=1
hii = ¯h = k+ 1 n .
La Matrice H (suite)
I Ainsi, le poids hij capte la contribution de l’observationYi `a la valeur pr´edite ˆYj.
I On peut montrer que
hii =
n
X
j=1
hij2,
et donc la valeur hii r´esume l’influence potentielle de l’observation Yi sur toutesles valeurs pr´edites ˆYj.
I On peut montrer que 1
n ≤hii ≤1.
I On peut aussi montrer que la valeur moyenne des hii est donn´ee par
1 n
n
X
i=1
hii = ¯h = k+ 1 n .
La Matrice H (suite)
I Ainsi, le poids hij capte la contribution de l’observationYi `a la valeur pr´edite ˆYj.
I On peut montrer que
hii =
n
X
j=1
hij2,
et donc la valeur hii r´esume l’influence potentielle de l’observation Yi sur toutesles valeurs pr´edites ˆYj.
I On peut montrer que 1
n ≤hii ≤1.
I On peut aussi montrer que la valeur moyenne des hii est donn´ee par
1 n
n
X
i=1
hii = ¯h = k+ 1 n .
La Matrice H (suite)
I Il est possible de montrer que, dans le mod`ele de r´egression simple,
hii = 1
n + Xi −X¯2
Pn
j=1 Xj −X¯2,
ce qui a l’interpr´etation de la distance deXi par rapport `a la moyenne ´echantillonnale ¯X, normalis´ee par la somme des distances des Xj par rapport `a la moyenne ´echantillonnale ¯X.
I Les hii peuvent ˆetre calcul´es enRavec la commande
hatvalues(·)o`u l’argument de la commande est un mod`ele estim´e avec la commandelm(·).
I Pour plus de d´etails sur les propri´et´es de la matrice H voir Hoaglin et Welsch (1978).
La Matrice H (suite)
I Il est possible de montrer que, dans le mod`ele de r´egression simple,
hii = 1
n + Xi −X¯2
Pn
j=1 Xj −X¯2,
ce qui a l’interpr´etation de la distance deXi par rapport `a la moyenne ´echantillonnale ¯X, normalis´ee par la somme des distances des Xj par rapport `a la moyenne ´echantillonnale ¯X.
I Les hii peuvent ˆetre calcul´es en Ravec la commande
hatvalues(·)o`u l’argument de la commande est un mod`ele estim´e avec la commandelm(·).
I Pour plus de d´etails sur les propri´et´es de la matrice H voir Hoaglin et Welsch (1978).
La Matrice H (suite)
I Il est possible de montrer que, dans le mod`ele de r´egression simple,
hii = 1
n + Xi −X¯2
Pn
j=1 Xj −X¯2,
ce qui a l’interpr´etation de la distance deXi par rapport `a la moyenne ´echantillonnale ¯X, normalis´ee par la somme des distances des Xj par rapport `a la moyenne ´echantillonnale ¯X.
I Les hii peuvent ˆetre calcul´es en Ravec la commande
hatvalues(·)o`u l’argument de la commande est un mod`ele estim´e avec la commandelm(·).
I Pour plus de d´etails sur les propri´et´es de la matrice H voir Hoaglin et Welsch (1978).
Sensibilit´ e ` a des observations particuli` eres
I Il y a quelques techniques informelles d’essayer de d´etecter des observations aberrantes ou influentes, qui ont une influence pr´epond´erante sur les r´esultats de l’estimation.
I L’id´ee de base est d’analyser ce qui arrive si on laisse tomber une seule observation de l’´echantillon.
I On peut mesurer l’impact ou bien sur les coefficients estim´es ou bien sur la valeur pr´edite de la variable d´ependante.
I D´efinissons ˆβ(i) comme le vecteur de param`etres estim´es apr`es avoir laiss´e tomber l’observation i de l’´echantillon, et ˆY(i) le vecteur de valeurs pr´edites de la variable d´ependante apr`es avoir laiss´e tomber l’observation i de l’´echantillon.
Sensibilit´ e ` a des observations particuli` eres
I Il y a quelques techniques informelles d’essayer de d´etecter des observations aberrantes ou influentes, qui ont une influence pr´epond´erante sur les r´esultats de l’estimation.
I L’id´ee de base est d’analyser ce qui arrive si on laisse tomber une seule observation de l’´echantillon.
I On peut mesurer l’impact ou bien sur les coefficients estim´es ou bien sur la valeur pr´edite de la variable d´ependante.
I D´efinissons ˆβ(i) comme le vecteur de param`etres estim´es apr`es avoir laiss´e tomber l’observation i de l’´echantillon, et ˆY(i) le vecteur de valeurs pr´edites de la variable d´ependante apr`es avoir laiss´e tomber l’observation i de l’´echantillon.
Sensibilit´ e ` a des observations particuli` eres
I Il y a quelques techniques informelles d’essayer de d´etecter des observations aberrantes ou influentes, qui ont une influence pr´epond´erante sur les r´esultats de l’estimation.
I L’id´ee de base est d’analyser ce qui arrive si on laisse tomber une seule observation de l’´echantillon.
I On peut mesurer l’impact ou bien sur les coefficients estim´es ou bien sur la valeur pr´edite de la variable d´ependante.
I D´efinissons ˆβ(i) comme le vecteur de param`etres estim´es apr`es avoir laiss´e tomber l’observation i de l’´echantillon, et ˆY(i) le vecteur de valeurs pr´edites de la variable d´ependante apr`es avoir laiss´e tomber l’observation i de l’´echantillon.
Sensibilit´ e ` a des observations particuli` eres
I Il y a quelques techniques informelles d’essayer de d´etecter des observations aberrantes ou influentes, qui ont une influence pr´epond´erante sur les r´esultats de l’estimation.
I L’id´ee de base est d’analyser ce qui arrive si on laisse tomber une seule observation de l’´echantillon.
I On peut mesurer l’impact ou bien sur les coefficients estim´es ou bien sur la valeur pr´edite de la variable d´ependante.
I D´efinissons ˆβ(i) comme le vecteur de param`etres estim´es apr`es avoir laiss´e tomber l’observation i de l’´echantillon, et ˆY(i) le vecteur de valeurs pr´edites de la variable d´ependante apr`es avoir laiss´e tomber l’observation i de l’´echantillon.
Effets de levier
I L’effet de levier de l’observation i est donn´e tout simplement par la valeur de hii.
I Parmi les autres propri´et´es deH, 0≤hii ≤1, trace (H) =k+ 1,
o`u (k+ 1) est le nombre de variables explicatives dans le mod`ele.
I Comme r`egle approximative, des valeurs au moins trois fois la valeur moyenne peuvent ˆetre consid´er´ees indicatrices
d’observations aberrantes ou influentes.
Effets de levier
I L’effet de levier de l’observation i est donn´e tout simplement par la valeur de hii.
I Parmi les autres propri´et´es deH, 0≤hii ≤1, trace (H) =k+ 1,
o`u (k+ 1) est le nombre de variables explicatives dans le mod`ele.
I Comme r`egle approximative, des valeurs au moins trois fois la valeur moyenne peuvent ˆetre consid´er´ees indicatrices
d’observations aberrantes ou influentes.
Effets de levier
I L’effet de levier de l’observation i est donn´e tout simplement par la valeur de hii.
I Parmi les autres propri´et´es deH, 0≤hii ≤1, trace (H) =k+ 1,
o`u (k+ 1) est le nombre de variables explicatives dans le mod`ele.
I Comme r`egle approximative, des valeurs au moins trois fois la valeur moyenne peuvent ˆetre consid´er´ees indicatrices
d’observations aberrantes ou influentes.
DFFITS
iI D´efinition :
DFFITi ≡Yˆi−Yˆ(i).
I Cette mesure calcule l’impact d’omettre l’observation i sur la valeur pr´edite de la variable d´ependante (aussi de
l’observation i).
I D´efinition :
DFFITSi ≡ Yˆi−Yˆ(i) ˆ σ(i)√
hii
o`u ˆσ(i) est l’´ecart type de la r´egression estim´e sans l’observation i :
ˆ
σ2i ≡ 1 n−k
X
j6=i
ˆ ui2,
I Comme r`egle approximative, les points o`u la mesure d´epasse 2×q
k+1
n sont `a signaler comme des observations influentes.
DFFITS
iI D´efinition :
DFFITi ≡Yˆi−Yˆ(i).
I Cette mesure calcule l’impact d’omettre l’observation i sur la valeur pr´edite de la variable d´ependante (aussi de
l’observation i).
I D´efinition :
DFFITSi ≡ Yˆi−Yˆ(i) ˆ σ(i)√
hii
o`u ˆσ(i) est l’´ecart type de la r´egression estim´e sans l’observation i :
ˆ
σ2i ≡ 1 n−k
X
j6=i
ˆ ui2,
I Comme r`egle approximative, les points o`u la mesure d´epasse 2×q
k+1
n sont `a signaler comme des observations influentes.
DFFITS
iI D´efinition :
DFFITi ≡Yˆi−Yˆ(i).
I Cette mesure calcule l’impact d’omettre l’observation i sur la valeur pr´edite de la variable d´ependante (aussi de
l’observation i).
I D´efinition :
DFFITSi ≡ Yˆi−Yˆ(i) ˆ σ(i)√
hii
o`u ˆσ(i) est l’´ecart type de la r´egression estim´e sans l’observation i :
ˆ
σ2i ≡ 1 n−k
X
j6=i
ˆ ui2,
I Comme r`egle approximative, les points o`u la mesure d´epasse 2×q
k+1
n sont `a signaler comme des observations influentes.
DFFITS
iI D´efinition :
DFFITi ≡Yˆi−Yˆ(i).
I Cette mesure calcule l’impact d’omettre l’observation i sur la valeur pr´edite de la variable d´ependante (aussi de
l’observation i).
I D´efinition :
DFFITSi ≡ Yˆi−Yˆ(i) ˆ σ(i)√
hii
o`u ˆσ(i) est l’´ecart type de la r´egression estim´e sans l’observation i :
ˆ
σ2i ≡ 1 n−k
X
j6=i
ˆ ui2,
I Comme r`egle approximative, les points o`u la mesure d´epasse 2×q
k+1
n sont `a signaler comme des observations influentes.
DFBETAS
j,(i)I Pour le coefficientβj, on d´efinit DFBETAj,(i) comme DFBETAj,(i)≡βˆj −βˆj,(i).
I C’est une mesure de l’impact de laisser tomber l’observationi sur la valeur du coefficient estim´e j.
I Pour le coefficientβj, on d´efinit DFBETASj,(i) comme DFBETASj,(i)≡
βˆj−βˆj,(i) ˆ
σ q
(X0X)−1jj
o`u (X0X)−1jj est l’´el´ement dans laje colonne et laje rang´ee de l’inverse de (X0X)
I Une valeur sup´erieure `a 2/√
n est consid´er´eesuspicieuse.
DFBETAS
j,(i)I Pour le coefficientβj, on d´efinit DFBETAj,(i) comme DFBETAj,(i)≡βˆj −βˆj,(i).
I C’est une mesure de l’impact de laisser tomber l’observationi sur la valeur du coefficient estim´e j.
I Pour le coefficientβj, on d´efinit DFBETASj,(i) comme DFBETASj,(i)≡
βˆj−βˆj,(i) ˆ
σ q
(X0X)−1jj
o`u (X0X)−1jj est l’´el´ement dans laje colonne et laje rang´ee de l’inverse de (X0X)
I Une valeur sup´erieure `a 2/√
n est consid´er´eesuspicieuse.