• Aucun résultat trouvé

ECO 4272 : Introduction ` a l’´ Econom´ etrie Tests diagnostics

N/A
N/A
Protected

Academic year: 2022

Partager "ECO 4272 : Introduction ` a l’´ Econom´ etrie Tests diagnostics"

Copied!
117
0
0

Texte intégral

(1)

ECO 4272 : Introduction ` a l’´ Econom´ etrie Tests diagnostics

Steve Ambler

D´epartement des sciences ´economiques Ecole des sciences de la gestion´ Universit´e du Qu´ebec `a Montr´eal

2018: Steve Amblerc

Hiver 2018

(2)

Introduction

I But : pr´esenter de fa¸con informelle quelques tests diagnostics couramment utilis´es en ´econom´etrie appliqu´ee.

I Stock et Watson : beaucoup d’accent sur les donn´ees non normales et non homosc´edastiques, peu pou pas d’accent sur les fa¸cons de d´etecter la non-normalit´e ou l’h´et´erosc´edasticit´e.

I Voir Boomsma (2014) et Fox (2009) pour plus de d´etails, ou le 4e chapitre de Kleiber et Zeileis (2008).

(3)

Introduction

I But : pr´esenter de fa¸con informelle quelques tests diagnostics couramment utilis´es en ´econom´etrie appliqu´ee.

I Stock et Watson : beaucoup d’accent sur les donn´ees non normales et non homosc´edastiques, peu pou pas d’accent sur les fa¸cons de d´etecter la non-normalit´e ou l’h´et´erosc´edasticit´e.

I Voir Boomsma (2014) et Fox (2009) pour plus de d´etails, ou le 4e chapitre de Kleiber et Zeileis (2008).

(4)

Introduction

I But : pr´esenter de fa¸con informelle quelques tests diagnostics couramment utilis´es en ´econom´etrie appliqu´ee.

I Stock et Watson : beaucoup d’accent sur les donn´ees non normales et non homosc´edastiques, peu pou pas d’accent sur les fa¸cons de d´etecter la non-normalit´e ou l’h´et´erosc´edasticit´e.

I Voir Boomsma (2014) et Fox (2009) pour plus de d´etails, ou le 4e chapitre de Kleiber et Zeileis (2008).

(5)

Introduction (suite)

Quelques r´ef´erences Wikipedia: 1. Breusch-Pagan Test 2. Cook’s Distance

3. Errors-in-Variables Models 4. Hat Matrix

5. Heteroscedasticity 6. Leverage (Statistics) 7. Multicollinearity 8. Normality Test

9. Normal Probability Plot 10. Q-Q Plot

11. Ramsey Reset Test 12. Studentized Residual 13. White Test

(6)

Plan

1. Section sur les diagnostics informels

1.1 Analyse grahique ou alg´ebrique des r´esidus d’un mod`ele de egression

1.2 Diagnostics pour d´etecter des observations qui ont une influence d´emesur´ee sur les r´esultats de l’estimation (coefficients, valeurs pr´edites, variance estim´ee de l’erreur, variance estim´ee des coefficients, etc.)

2. Tests formels de 2.1 l’homosc´edasticit´e

2.2 la forme fonctionnelle du mod`ele de r´egression 2.3 la normalit´e du terme d’erreur

2.4 mesures de la multicollin´earit´e 2.5 l’ind´ependance des erreurs 2.6 l’endog´en´eit´e

(7)

Plan

1. Section sur les diagnostics informels

1.1 Analyse grahique ou alg´ebrique des r´esidus d’un mod`ele de egression

1.2 Diagnostics pour d´etecter des observations qui ont une influence d´emesur´ee sur les r´esultats de l’estimation (coefficients, valeurs pr´edites, variance estim´ee de l’erreur, variance estim´ee des coefficients, etc.)

2. Tests formels de 2.1 l’homosc´edasticit´e

2.2 la forme fonctionnelle du mod`ele de r´egression 2.3 la normalit´e du terme d’erreur

2.4 mesures de la multicollin´earit´e 2.5 l’ind´ependance des erreurs 2.6 l’endog´en´eit´e

(8)

Plan

1. Section sur les diagnostics informels

1.1 Analyse grahique ou alg´ebrique des r´esidus d’un mod`ele de egression

1.2 Diagnostics pour d´etecter des observations qui ont une influence d´emesur´ee sur les r´esultats de l’estimation (coefficients, valeurs pr´edites, variance estim´ee de l’erreur, variance estim´ee des coefficients, etc.)

2. Tests formels de

2.1 l’homosc´edasticit´e

2.2 la forme fonctionnelle du mod`ele de r´egression 2.3 la normalit´e du terme d’erreur

2.4 mesures de la multicollin´earit´e 2.5 l’ind´ependance des erreurs 2.6 l’endog´en´eit´e

(9)

Plan

1. Section sur les diagnostics informels

1.1 Analyse grahique ou alg´ebrique des r´esidus d’un mod`ele de egression

1.2 Diagnostics pour d´etecter des observations qui ont une influence d´emesur´ee sur les r´esultats de l’estimation (coefficients, valeurs pr´edites, variance estim´ee de l’erreur, variance estim´ee des coefficients, etc.)

2. Tests formels de 2.1 l’homosc´edasticit´e

2.2 la forme fonctionnelle du mod`ele de r´egression 2.3 la normalit´e du terme d’erreur

2.4 mesures de la multicollin´earit´e 2.5 l’ind´ependance des erreurs 2.6 l’endog´en´eit´e

(10)

Plan

1. Section sur les diagnostics informels

1.1 Analyse grahique ou alg´ebrique des r´esidus d’un mod`ele de egression

1.2 Diagnostics pour d´etecter des observations qui ont une influence d´emesur´ee sur les r´esultats de l’estimation (coefficients, valeurs pr´edites, variance estim´ee de l’erreur, variance estim´ee des coefficients, etc.)

2. Tests formels de 2.1 l’homosc´edasticit´e

2.2 la forme fonctionnelle du mod`ele de r´egression

2.3 la normalit´e du terme d’erreur 2.4 mesures de la multicollin´earit´e 2.5 l’ind´ependance des erreurs 2.6 l’endog´en´eit´e

(11)

Plan

1. Section sur les diagnostics informels

1.1 Analyse grahique ou alg´ebrique des r´esidus d’un mod`ele de egression

1.2 Diagnostics pour d´etecter des observations qui ont une influence d´emesur´ee sur les r´esultats de l’estimation (coefficients, valeurs pr´edites, variance estim´ee de l’erreur, variance estim´ee des coefficients, etc.)

2. Tests formels de 2.1 l’homosc´edasticit´e

2.2 la forme fonctionnelle du mod`ele de r´egression 2.3 la normalit´e du terme d’erreur

2.4 mesures de la multicollin´earit´e 2.5 l’ind´ependance des erreurs 2.6 l’endog´en´eit´e

(12)

Plan

1. Section sur les diagnostics informels

1.1 Analyse grahique ou alg´ebrique des r´esidus d’un mod`ele de egression

1.2 Diagnostics pour d´etecter des observations qui ont une influence d´emesur´ee sur les r´esultats de l’estimation (coefficients, valeurs pr´edites, variance estim´ee de l’erreur, variance estim´ee des coefficients, etc.)

2. Tests formels de 2.1 l’homosc´edasticit´e

2.2 la forme fonctionnelle du mod`ele de r´egression 2.3 la normalit´e du terme d’erreur

2.4 mesures de la multicollin´earit´e

2.5 l’ind´ependance des erreurs 2.6 l’endog´en´eit´e

(13)

Plan

1. Section sur les diagnostics informels

1.1 Analyse grahique ou alg´ebrique des r´esidus d’un mod`ele de egression

1.2 Diagnostics pour d´etecter des observations qui ont une influence d´emesur´ee sur les r´esultats de l’estimation (coefficients, valeurs pr´edites, variance estim´ee de l’erreur, variance estim´ee des coefficients, etc.)

2. Tests formels de 2.1 l’homosc´edasticit´e

2.2 la forme fonctionnelle du mod`ele de r´egression 2.3 la normalit´e du terme d’erreur

2.4 mesures de la multicollin´earit´e 2.5 l’ind´ependance des erreurs

2.6 l’endog´en´eit´e

(14)

Plan

1. Section sur les diagnostics informels

1.1 Analyse grahique ou alg´ebrique des r´esidus d’un mod`ele de egression

1.2 Diagnostics pour d´etecter des observations qui ont une influence d´emesur´ee sur les r´esultats de l’estimation (coefficients, valeurs pr´edites, variance estim´ee de l’erreur, variance estim´ee des coefficients, etc.)

2. Tests formels de 2.1 l’homosc´edasticit´e

2.2 la forme fonctionnelle du mod`ele de r´egression 2.3 la normalit´e du terme d’erreur

2.4 mesures de la multicollin´earit´e 2.5 l’ind´ependance des erreurs 2.6 l’endog´en´eit´e

(15)

Diagnostics informels

I R´esidus versus valeurs pr´edites. Nous avons d´ej`a parl´e de cet outil.

I Probl`eme potentiel :mˆeme si les erreursdu mod`ele de r´egression sont homosc´edastiques et ind´ependantes

(autrement dit les donn´ees proviennent d’un ´echantillon i.i.d.), les r´esidusdu mod`ele de r´egression auront une variance non constante et ne seront pas ind´ependants les uns par rapport aux autres.

I Pour cette raison, on travaille souvent avec les r´esidus

normalis´es, un concept auquel nous allons revenir ci-dessous.

(16)

Diagnostics informels

I R´esidus versus valeurs pr´edites. Nous avons d´ej`a parl´e de cet outil.

I Probl`eme potentiel :mˆeme si les erreursdu mod`ele de r´egression sont homosc´edastiques et ind´ependantes

(autrement dit les donn´ees proviennent d’un ´echantillon i.i.d.), les r´esidusdu mod`ele de r´egression auront une variance non constante et ne seront pas ind´ependants les uns par rapport aux autres.

I Pour cette raison, on travaille souvent avec les r´esidus

normalis´es, un concept auquel nous allons revenir ci-dessous.

(17)

Diagnostics informels

I R´esidus versus valeurs pr´edites. Nous avons d´ej`a parl´e de cet outil.

I Probl`eme potentiel :mˆeme si les erreursdu mod`ele de r´egression sont homosc´edastiques et ind´ependantes

(autrement dit les donn´ees proviennent d’un ´echantillon i.i.d.), les r´esidusdu mod`ele de r´egression auront une variance non constante et ne seront pas ind´ependants les uns par rapport aux autres.

I Pour cette raison, on travaille souvent avec les r´esidus

normalis´es, un concept auquel nous allons revenir ci-dessous.

(18)

Graphique Q–Q

I Pour analyser l’h´ypoth`ese de la normalit´e des erreurs. Le

Q est cens´e faire penser `a quantile

I On compare les quantiles de deux distributions de probabilit´e sur un graphique

I Si φ(·) est la fonction de distribution normale cumul´ee,φ−1 donne les quantiles

I 2 distributions sont identiques ⇒ les points se retrouveront sur une droite avec une pente de 45 degr´es

I Relation lin´eaire entre 2 distributions⇒ les points se retrouveront sur une droite

I En R qqnorm(x)cr´ee un graphique qui compare x `a une normale th´eorique

I En R plot(model,which=2) fait la mˆeme chose pour les r´esidus d’un mod`ele estim´e aveclm(·)

(19)

Graphique Q–Q

I Pour analyser l’h´ypoth`ese de la normalit´e des erreurs. Le

Q est cens´e faire penser `a quantile

I On compare les quantiles de deux distributions de probabilit´e sur un graphique

I Si φ(·) est la fonction de distribution normale cumul´ee,φ−1 donne les quantiles

I 2 distributions sont identiques ⇒ les points se retrouveront sur une droite avec une pente de 45 degr´es

I Relation lin´eaire entre 2 distributions⇒ les points se retrouveront sur une droite

I En R qqnorm(x)cr´ee un graphique qui compare x `a une normale th´eorique

I En R plot(model,which=2) fait la mˆeme chose pour les r´esidus d’un mod`ele estim´e aveclm(·)

(20)

Graphique Q–Q

I Pour analyser l’h´ypoth`ese de la normalit´e des erreurs. Le

Q est cens´e faire penser `a quantile

I On compare les quantiles de deux distributions de probabilit´e sur un graphique

I Si φ(·) est la fonction de distribution normale cumul´ee,φ−1 donne les quantiles

I 2 distributions sont identiques ⇒ les points se retrouveront sur une droite avec une pente de 45 degr´es

I Relation lin´eaire entre 2 distributions⇒ les points se retrouveront sur une droite

I En R qqnorm(x)cr´ee un graphique qui compare x `a une normale th´eorique

I En R plot(model,which=2) fait la mˆeme chose pour les r´esidus d’un mod`ele estim´e aveclm(·)

(21)

Graphique Q–Q

I Pour analyser l’h´ypoth`ese de la normalit´e des erreurs. Le

Q est cens´e faire penser `a quantile

I On compare les quantiles de deux distributions de probabilit´e sur un graphique

I Si φ(·) est la fonction de distribution normale cumul´ee,φ−1 donne les quantiles

I 2 distributions sont identiques ⇒ les points se retrouveront sur une droite avec une pente de 45 degr´es

I Relation lin´eaire entre 2 distributions⇒ les points se retrouveront sur une droite

I En R qqnorm(x)cr´ee un graphique qui compare x `a une normale th´eorique

I En R plot(model,which=2) fait la mˆeme chose pour les r´esidus d’un mod`ele estim´e aveclm(·)

(22)

Graphique Q–Q

I Pour analyser l’h´ypoth`ese de la normalit´e des erreurs. Le

Q est cens´e faire penser `a quantile

I On compare les quantiles de deux distributions de probabilit´e sur un graphique

I Si φ(·) est la fonction de distribution normale cumul´ee,φ−1 donne les quantiles

I 2 distributions sont identiques ⇒ les points se retrouveront sur une droite avec une pente de 45 degr´es

I Relation lin´eaire entre 2 distributions⇒ les points se retrouveront sur une droite

I En R qqnorm(x)cr´ee un graphique qui compare x `a une normale th´eorique

I En R plot(model,which=2) fait la mˆeme chose pour les r´esidus d’un mod`ele estim´e aveclm(·)

(23)

Graphique Q–Q

I Pour analyser l’h´ypoth`ese de la normalit´e des erreurs. Le

Q est cens´e faire penser `a quantile

I On compare les quantiles de deux distributions de probabilit´e sur un graphique

I Si φ(·) est la fonction de distribution normale cumul´ee,φ−1 donne les quantiles

I 2 distributions sont identiques ⇒ les points se retrouveront sur une droite avec une pente de 45 degr´es

I Relation lin´eaire entre 2 distributions⇒ les points se retrouveront sur une droite

I En R qqnorm(x) cr´ee un graphique qui compare x `a une normale th´eorique

I En R plot(model,which=2) fait la mˆeme chose pour les r´esidus d’un mod`ele estim´e aveclm(·)

(24)

Graphique Q–Q

I Pour analyser l’h´ypoth`ese de la normalit´e des erreurs. Le

Q est cens´e faire penser `a quantile

I On compare les quantiles de deux distributions de probabilit´e sur un graphique

I Si φ(·) est la fonction de distribution normale cumul´ee,φ−1 donne les quantiles

I 2 distributions sont identiques ⇒ les points se retrouveront sur une droite avec une pente de 45 degr´es

I Relation lin´eaire entre 2 distributions⇒ les points se retrouveront sur une droite

I En R qqnorm(x) cr´ee un graphique qui compare x `a une normale th´eorique

I En R plot(model,which=2) fait la mˆeme chose pour les r´esidus d’un mod`ele estim´e aveclm(·)

(25)

Diagramme de variable ajout´ ee

I But – d´etecter si l’impact d’une variable individuelle (dans un mod`ele de r´egression multiple) est bien capt´e par une relation lin´eaire

I Difficile avec un graphique des r´esidus contre la variable explicative (il faut tenir constantes les valeurs de toutes les autres variables explicatives)

I On voudrait regarder l’impact d’une variable individuelle sur la variable d´ependante ayant purg´e l’impact de toutes les autres variables

I Un diagramme de variable ajout´ee nous permet de faire ceci. La d´emarche est la suivante :

(26)

Diagramme de variable ajout´ ee

I But – d´etecter si l’impact d’une variable individuelle (dans un mod`ele de r´egression multiple) est bien capt´e par une relation lin´eaire

I Difficile avec un graphique des r´esidus contre la variable explicative (il faut tenir constantes les valeurs de toutes les autres variables explicatives)

I On voudrait regarder l’impact d’une variable individuelle sur la variable d´ependante ayant purg´e l’impact de toutes les autres variables

I Un diagramme de variable ajout´ee nous permet de faire ceci. La d´emarche est la suivante :

(27)

Diagramme de variable ajout´ ee

I But – d´etecter si l’impact d’une variable individuelle (dans un mod`ele de r´egression multiple) est bien capt´e par une relation lin´eaire

I Difficile avec un graphique des r´esidus contre la variable explicative (il faut tenir constantes les valeurs de toutes les autres variables explicatives)

I On voudrait regarder l’impact d’une variable individuelle sur la variable d´ependante ayant purg´e l’impact de toutes les autres variables

I Un diagramme de variable ajout´ee nous permet de faire ceci. La d´emarche est la suivante :

(28)

Diagramme de variable ajout´ ee

I But – d´etecter si l’impact d’une variable individuelle (dans un mod`ele de r´egression multiple) est bien capt´e par une relation lin´eaire

I Difficile avec un graphique des r´esidus contre la variable explicative (il faut tenir constantes les valeurs de toutes les autres variables explicatives)

I On voudrait regarder l’impact d’une variable individuelle sur la variable d´ependante ayant purg´e l’impact de toutes les autres variables

I Un diagramme de variable ajout´ee nous permet de faire ceci.

La d´emarche est la suivante :

(29)

Diagramme de variable ajout´ ee (suite)

1. Estimer un mod`ele avecY comme variable d´ependante et toutes les autres variables `a partXj comme variables explicatives. Appelons les r´esidus ˆuy

2. Estimer un mod`ele Xj comme variable d´ependanteet toutes les autres variables explicatives `a partXj comme variables explicatives. Appelons les r´esidus ˆuj

3. Cr´eer un graphique avec ˆuy sur l’axe vertical et ˆuj sur l’axe horizontal

4. On peut aussi estimer ˆ

uyi01ji +i.

et ajouter la ligne de r´egression au graphique (avec la commande abline(·))

(30)

Diagramme de variable ajout´ ee (suite)

1. Estimer un mod`ele avecY comme variable d´ependante et toutes les autres variables `a partXj comme variables explicatives. Appelons les r´esidus ˆuy

2. Estimer un mod`ele Xj comme variable d´ependanteet toutes les autres variables explicatives `a partXj comme variables explicatives. Appelons les r´esidus ˆuj

3. Cr´eer un graphique avec ˆuy sur l’axe vertical et ˆuj sur l’axe horizontal

4. On peut aussi estimer ˆ

uyi01ji +i.

et ajouter la ligne de r´egression au graphique (avec la commande abline(·))

(31)

Diagramme de variable ajout´ ee (suite)

1. Estimer un mod`ele avecY comme variable d´ependante et toutes les autres variables `a partXj comme variables explicatives. Appelons les r´esidus ˆuy

2. Estimer un mod`ele Xj comme variable d´ependanteet toutes les autres variables explicatives `a partXj comme variables explicatives. Appelons les r´esidus ˆuj

3. Cr´eer un graphique avec ˆuy sur l’axe vertical et ˆuj sur l’axe horizontal

4. On peut aussi estimer ˆ

uyi01ji +i.

et ajouter la ligne de r´egression au graphique (avec la commande abline(·))

(32)

Diagramme de variable ajout´ ee (suite)

1. Estimer un mod`ele avecY comme variable d´ependante et toutes les autres variables `a partXj comme variables explicatives. Appelons les r´esidus ˆuy

2. Estimer un mod`ele Xj comme variable d´ependanteet toutes les autres variables explicatives `a partXj comme variables explicatives. Appelons les r´esidus ˆuj

3. Cr´eer un graphique avec ˆuy sur l’axe vertical et ˆuj sur l’axe horizontal

4. On peut aussi estimer ˆ

uyi01ji +i.

et ajouter la ligne de r´egression au graphique (avec la commande abline(·))

(33)

Diagramme de variable ajout´ ee (suite)

1. Estimer un mod`ele avecY comme variable d´ependante et toutes les autres variables `a partXj comme variables explicatives. Appelons les r´esidus ˆuy

2. Estimer un mod`ele Xj comme variable d´ependanteet toutes les autres variables explicatives `a partXj comme variables explicatives. Appelons les r´esidus ˆuj

3. Cr´eer un graphique avec ˆuy sur l’axe vertical et ˆuj sur l’axe horizontal

4. On peut aussi estimer ˆ

uyi01ji +i.

et ajouter la ligne de r´egression au graphique (avec la commande abline(·))

(34)

Diagramme de variable ajout´ ee (suite)

I Le th´eor`eme Frisch-Waugh-Lovell nous dit que le ˆγ1 doit ˆetre identique `a ˆβj

I En R,avPlots(·)(packagecar), o`u l’argument est un mod`ele estim´e, cr´ee des diagrammes de variable ajout´ee pour toutesles variables explicatives

I Interpr´etation — le coefficient ˆγ donne l’impact deXj sur Y une fois que l’on purgeXj des effets des autres variables explicatives. Mais c’est exactement ce que fait l’estimation par MCO du mod`ele de r´egression multiple.

(35)

Diagramme de variable ajout´ ee (suite)

I Le th´eor`eme Frisch-Waugh-Lovell nous dit que le ˆγ1 doit ˆetre identique `a ˆβj

I En R,avPlots(·)(packagecar), o`u l’argument est un mod`ele estim´e, cr´ee des diagrammes de variable ajout´ee pour toutesles variables explicatives

I Interpr´etation — le coefficient ˆγ donne l’impact deXj sur Y une fois que l’on purgeXj des effets des autres variables explicatives. Mais c’est exactement ce que fait l’estimation par MCO du mod`ele de r´egression multiple.

(36)

Diagramme de variable ajout´ ee (suite)

I Le th´eor`eme Frisch-Waugh-Lovell nous dit que le ˆγ1 doit ˆetre identique `a ˆβj

I En R,avPlots(·)(packagecar), o`u l’argument est un mod`ele estim´e, cr´ee des diagrammes de variable ajout´ee pour toutesles variables explicatives

I Interpr´etation — le coefficient ˆγ donne l’impact deXj sur Y une fois que l’on purgeXj des effets des autres variables explicatives. Mais c’est exactement ce que fait l’estimation par MCO du mod`ele de r´egression multiple.

(37)

Diagramme de r´ esidus partiels

I Graphique avec ˆui + ˆβjXji sur l’axe vertical, Xji sur l’axe horizontal

I La pente est donn´ee par ˆβj

I Boomsma (2014) – ces diagrammes sont plus utiles pour d´etecter les non-lin´earit´es, tandis que les diagrammes de variable ajout´ee sont plus utiles pour d´etecter les observations aberrantes et influentes

I R:prplot(·,x)(packagefaraway) permet de g´en´erer automatiquement des graphiques de r´esidus partiels pour un mod`ele estim´e

I Premier argument : nom du mod`ele estim´e. Deuxi`eme argument : nombre de la variable explicative.

(38)

Diagramme de r´ esidus partiels

I Graphique avec ˆui + ˆβjXji sur l’axe vertical, Xji sur l’axe horizontal

I La pente est donn´ee par ˆβj

I Boomsma (2014) – ces diagrammes sont plus utiles pour d´etecter les non-lin´earit´es, tandis que les diagrammes de variable ajout´ee sont plus utiles pour d´etecter les observations aberrantes et influentes

I R:prplot(·,x)(packagefaraway) permet de g´en´erer automatiquement des graphiques de r´esidus partiels pour un mod`ele estim´e

I Premier argument : nom du mod`ele estim´e. Deuxi`eme argument : nombre de la variable explicative.

(39)

Diagramme de r´ esidus partiels

I Graphique avec ˆui + ˆβjXji sur l’axe vertical, Xji sur l’axe horizontal

I La pente est donn´ee par ˆβj

I Boomsma (2014) – ces diagrammes sont plus utiles pour d´etecter les non-lin´earit´es, tandis que les diagrammes de variable ajout´ee sont plus utiles pour d´etecter les observations aberrantes et influentes

I R:prplot(·,x)(packagefaraway) permet de g´en´erer automatiquement des graphiques de r´esidus partiels pour un mod`ele estim´e

I Premier argument : nom du mod`ele estim´e. Deuxi`eme argument : nombre de la variable explicative.

(40)

Diagramme de r´ esidus partiels

I Graphique avec ˆui + ˆβjXji sur l’axe vertical, Xji sur l’axe horizontal

I La pente est donn´ee par ˆβj

I Boomsma (2014) – ces diagrammes sont plus utiles pour d´etecter les non-lin´earit´es, tandis que les diagrammes de variable ajout´ee sont plus utiles pour d´etecter les observations aberrantes et influentes

I R:prplot(·,x)(packagefaraway) permet de g´en´erer automatiquement des graphiques de r´esidus partiels pour un mod`ele estim´e

I Premier argument : nom du mod`ele estim´e. Deuxi`eme argument : nombre de la variable explicative.

(41)

Diagramme de r´ esidus partiels

I Graphique avec ˆui + ˆβjXji sur l’axe vertical, Xji sur l’axe horizontal

I La pente est donn´ee par ˆβj

I Boomsma (2014) – ces diagrammes sont plus utiles pour d´etecter les non-lin´earit´es, tandis que les diagrammes de variable ajout´ee sont plus utiles pour d´etecter les observations aberrantes et influentes

I R:prplot(·,x)(packagefaraway) permet de g´en´erer automatiquement des graphiques de r´esidus partiels pour un mod`ele estim´e

I Premier argument : nom du mod`ele estim´e. Deuxi`eme argument : nombre de la variable explicative.

(42)

R´ esidus Normalis´ es

I Mˆeme si les erreurs d’un mod`ele sont homosc´edastiques, les r´esidus ne le sont pas

I Les r´esidusne peuventˆetre ind´ependants puisqu’ils satisfont X0Uˆ= 0

I Cette propri´et´e impose des relations alg´ebriques exactes(en faitk+ 1 relations exactes) entre les r´esidus qui les

empˆechent d’ˆetre ind´ependantes au sens statistique du terme

I Nous avons

Uˆ≡Y −Xβˆ=Y −X X0X−1

X0Y

=

I −X X0X−1

X0

Y

≡(I−H)Y

I (I−H) est sym´etrique etidempotente

(43)

R´ esidus Normalis´ es

I Mˆeme si les erreurs d’un mod`ele sont homosc´edastiques, les r´esidus ne le sont pas

I Les r´esidusne peuventˆetre ind´ependants puisqu’ils satisfont X0Uˆ= 0

I Cette propri´et´e impose des relations alg´ebriques exactes(en faitk+ 1 relations exactes) entre les r´esidus qui les

empˆechent d’ˆetre ind´ependantes au sens statistique du terme

I Nous avons

Uˆ≡Y −Xβˆ=Y −X X0X−1

X0Y

=

I −X X0X−1

X0

Y

≡(I−H)Y

I (I−H) est sym´etrique etidempotente

(44)

R´ esidus Normalis´ es

I Mˆeme si les erreurs d’un mod`ele sont homosc´edastiques, les r´esidus ne le sont pas

I Les r´esidusne peuventˆetre ind´ependants puisqu’ils satisfont X0Uˆ= 0

I Cette propri´et´e impose des relations alg´ebriques exactes(en faitk+ 1 relations exactes) entre les r´esidus qui les

empˆechent d’ˆetre ind´ependantes au sens statistique du terme

I Nous avons

Uˆ≡Y −Xβˆ=Y −X X0X−1

X0Y

=

I −X X0X−1

X0

Y

≡(I−H)Y

I (I−H) est sym´etrique etidempotente

(45)

R´ esidus Normalis´ es

I Mˆeme si les erreurs d’un mod`ele sont homosc´edastiques, les r´esidus ne le sont pas

I Les r´esidusne peuventˆetre ind´ependants puisqu’ils satisfont X0Uˆ= 0

I Cette propri´et´e impose des relations alg´ebriques exactes(en faitk+ 1 relations exactes) entre les r´esidus qui les

empˆechent d’ˆetre ind´ependantes au sens statistique du terme

I Nous avons

Uˆ≡Y −Xβˆ=Y −X X0X−1

X0Y

=

I −X X0X−1

X0

Y

≡(I−H)Y

I (I−H) est sym´etrique etidempotente

(46)

R´ esidus Normalis´ es

I Mˆeme si les erreurs d’un mod`ele sont homosc´edastiques, les r´esidus ne le sont pas

I Les r´esidusne peuventˆetre ind´ependants puisqu’ils satisfont X0Uˆ= 0

I Cette propri´et´e impose des relations alg´ebriques exactes(en faitk+ 1 relations exactes) entre les r´esidus qui les

empˆechent d’ˆetre ind´ependantes au sens statistique du terme

I Nous avons

Uˆ≡Y −Xβˆ=Y −X X0X−1

X0Y

=

I −X X0X−1

X0

Y

≡(I−H)Y

I (I−H) est sym´etrique etidempotente

(47)

R´ esidus Normalis´ es (suite)

I Variance (conditionnelle) du vecteur des r´esidus ˆU. ˆU est n×1, la matrice variance-covariance est n×n

E

UˆUˆ0|X

= E (I−H)YY0(I −H)|X

= E (I −H) (Xβ+U) (Xβ+U)0(I −H)|X

= (I−H)Xββ0X0(I−H) +E (I−H)XβU0|X +E Uβ0X0(I−H)|X + (I−H) E UU0

(I −H).

= (I−H) E UU0

(I−H) puisque (I −H)X = 0

(48)

R´ esidus Normalis´ es (suite)

I Cas homosc´edastique :

2(I−H),

I Mˆeme si les erreurs sont homosc´edastiques les variances des r´esidus sont proportionnelles aux ´el´ements sur la diagonale de (I−H)

(49)

R´ esidus Normalis´ es (suite)

I Cas homosc´edastique :

2(I−H),

I Mˆeme si les erreurs sont homosc´edastiques les variances des r´esidus sont proportionnelles aux ´el´ements sur la diagonale de (I−H)

(50)

R´ esidus normalis´ es (suite)

I R´esidusnormalis´es (oustudentis´es de fa¸con interne) :

ri ≡ uˆi ˆ σ√

1−hii

o`u ˆσ est l’´ecart type de la r´egression et leshii sont les

´

el´ements sur la diagonale de H

I On normalise les r´esidus en divisant par un estim´e de leurs

´

ecarts types (sousH0 de l’homosc´edasticit´e)

I Un graphique avec les r´esidus normalis´es (ou au carr´e) sur l’axe vertical et avec la variable d´ependante ou une des variables explicatives sur l’axe horizontal peut faire ressortir mieux si l’hypoth`ese de l’homosc´edasticit´e tient ou non

I R:rstandard(·). L’argument : l’objet utilis´e pour sauvegarder les r´esultats d’estimation d’un mod`ele

(51)

R´ esidus normalis´ es (suite)

I R´esidusnormalis´es (oustudentis´es de fa¸con interne) :

ri ≡ uˆi ˆ σ√

1−hii

o`u ˆσ est l’´ecart type de la r´egression et leshii sont les

´

el´ements sur la diagonale de H

I On normalise les r´esidus en divisant par un estim´e de leurs

´

ecarts types (sousH0 de l’homosc´edasticit´e)

I Un graphique avec les r´esidus normalis´es (ou au carr´e) sur l’axe vertical et avec la variable d´ependante ou une des variables explicatives sur l’axe horizontal peut faire ressortir mieux si l’hypoth`ese de l’homosc´edasticit´e tient ou non

I R:rstandard(·). L’argument : l’objet utilis´e pour sauvegarder les r´esultats d’estimation d’un mod`ele

(52)

R´ esidus normalis´ es (suite)

I R´esidusnormalis´es (oustudentis´es de fa¸con interne) :

ri ≡ uˆi ˆ σ√

1−hii

o`u ˆσ est l’´ecart type de la r´egression et leshii sont les

´

el´ements sur la diagonale de H

I On normalise les r´esidus en divisant par un estim´e de leurs

´

ecarts types (sousH0 de l’homosc´edasticit´e)

I Un graphique avec les r´esidus normalis´es (ou au carr´e) sur l’axe vertical et avec la variable d´ependante ou une des variables explicatives sur l’axe horizontal peut faire ressortir mieux si l’hypoth`ese de l’homosc´edasticit´e tient ou non

I R:rstandard(·). L’argument : l’objet utilis´e pour sauvegarder les r´esultats d’estimation d’un mod`ele

(53)

R´ esidus normalis´ es (suite)

I R´esidusnormalis´es (oustudentis´es de fa¸con interne) :

ri ≡ uˆi ˆ σ√

1−hii

o`u ˆσ est l’´ecart type de la r´egression et leshii sont les

´

el´ements sur la diagonale de H

I On normalise les r´esidus en divisant par un estim´e de leurs

´

ecarts types (sousH0 de l’homosc´edasticit´e)

I Un graphique avec les r´esidus normalis´es (ou au carr´e) sur l’axe vertical et avec la variable d´ependante ou une des variables explicatives sur l’axe horizontal peut faire ressortir mieux si l’hypoth`ese de l’homosc´edasticit´e tient ou non

I R:rstandard(·). L’argument : l’objet utilis´e pour sauvegarder les r´esultats d’estimation d’un mod`ele

(54)

R´ esidus normalis´ es (suite)

I Si les hypoth`eses statistiques derri`ere le mod`ele tiennent (y compris l’homosc´edasticit´e des erreurs), il devrait ˆetre le cas que Var (ri|X) = 1 et Corr (ri,rj|X) a tendance `a ˆetre faible (Kleiber et Zeileis 2008)

I Dans les sections qui suivent, la plupart des mesures utilis´ees sont bas´ees sur les r´esidus normalis´es et non sur les r´esidus eux-mˆemes.

(55)

R´ esidus normalis´ es (suite)

I Si les hypoth`eses statistiques derri`ere le mod`ele tiennent (y compris l’homosc´edasticit´e des erreurs), il devrait ˆetre le cas que Var (ri|X) = 1 et Corr (ri,rj|X) a tendance `a ˆetre faible (Kleiber et Zeileis 2008)

I Dans les sections qui suivent, la plupart des mesures utilis´ees sont bas´ees sur les r´esidus normalis´es et non sur les r´esidus eux-mˆemes.

(56)

La Matrice H

I La matrice H a ´et´e d´efinie dans la sous-section pr´ec´edente.

I H est cens´e faire penser `ahat (chapeau).

I La matrice H est utilis´ee aussi pour calculer les distances de Cook et pour mesurer les effets de levier.

I Il est possible de montrer que l’on peut exprimer les valeurs pr´edites de la variable d´ependante comme

j =h1jY1+h2jY2+. . .+hnjYn=

n

X

i=1

hijYi.

(57)

La Matrice H

I La matrice H a ´et´e d´efinie dans la sous-section pr´ec´edente.

I H est cens´e faire penser `ahat (chapeau).

I La matrice H est utilis´ee aussi pour calculer les distances de Cook et pour mesurer les effets de levier.

I Il est possible de montrer que l’on peut exprimer les valeurs pr´edites de la variable d´ependante comme

j =h1jY1+h2jY2+. . .+hnjYn=

n

X

i=1

hijYi.

(58)

La Matrice H

I La matrice H a ´et´e d´efinie dans la sous-section pr´ec´edente.

I H est cens´e faire penser `ahat (chapeau).

I La matrice H est utilis´ee aussi pour calculer les distances de Cook et pour mesurer les effets de levier.

I Il est possible de montrer que l’on peut exprimer les valeurs pr´edites de la variable d´ependante comme

j =h1jY1+h2jY2+. . .+hnjYn=

n

X

i=1

hijYi.

(59)

La Matrice H

I La matrice H a ´et´e d´efinie dans la sous-section pr´ec´edente.

I H est cens´e faire penser `ahat (chapeau).

I La matrice H est utilis´ee aussi pour calculer les distances de Cook et pour mesurer les effets de levier.

I Il est possible de montrer que l’on peut exprimer les valeurs pr´edites de la variable d´ependante comme

j =h1jY1+h2jY2+. . .+hnjYn=

n

X

i=1

hijYi.

(60)

La Matrice H

I La matrice H a ´et´e d´efinie dans la sous-section pr´ec´edente.

I H est cens´e faire penser `ahat (chapeau).

I La matrice H est utilis´ee aussi pour calculer les distances de Cook et pour mesurer les effets de levier.

I Il est possible de montrer que l’on peut exprimer les valeurs pr´edites de la variable d´ependante comme

j =h1jY1+h2jY2+. . .+hnjYn=

n

X

i=1

hijYi.

(61)

La Matrice H (suite)

I Ainsi, le poids hij capte la contribution de l’observationYi `a la valeur pr´edite ˆYj.

I On peut montrer que

hii =

n

X

j=1

hij2,

et donc la valeur hii r´esume l’influence potentielle de l’observation Yi sur toutesles valeurs pr´edites ˆYj.

I On peut montrer que 1

n ≤hii ≤1.

I On peut aussi montrer que la valeur moyenne des hii est donn´ee par

1 n

n

X

i=1

hii = ¯h = k+ 1 n .

(62)

La Matrice H (suite)

I Ainsi, le poids hij capte la contribution de l’observationYi `a la valeur pr´edite ˆYj.

I On peut montrer que

hii =

n

X

j=1

hij2,

et donc la valeur hii r´esume l’influence potentielle de l’observation Yi sur toutesles valeurs pr´edites ˆYj.

I On peut montrer que 1

n ≤hii ≤1.

I On peut aussi montrer que la valeur moyenne des hii est donn´ee par

1 n

n

X

i=1

hii = ¯h = k+ 1 n .

(63)

La Matrice H (suite)

I Ainsi, le poids hij capte la contribution de l’observationYi `a la valeur pr´edite ˆYj.

I On peut montrer que

hii =

n

X

j=1

hij2,

et donc la valeur hii r´esume l’influence potentielle de l’observation Yi sur toutesles valeurs pr´edites ˆYj.

I On peut montrer que 1

n ≤hii ≤1.

I On peut aussi montrer que la valeur moyenne des hii est donn´ee par

1 n

n

X

i=1

hii = ¯h = k+ 1 n .

(64)

La Matrice H (suite)

I Ainsi, le poids hij capte la contribution de l’observationYi `a la valeur pr´edite ˆYj.

I On peut montrer que

hii =

n

X

j=1

hij2,

et donc la valeur hii r´esume l’influence potentielle de l’observation Yi sur toutesles valeurs pr´edites ˆYj.

I On peut montrer que 1

n ≤hii ≤1.

I On peut aussi montrer que la valeur moyenne des hii est donn´ee par

1 n

n

X

i=1

hii = ¯h = k+ 1 n .

(65)

La Matrice H (suite)

I Il est possible de montrer que, dans le mod`ele de r´egression simple,

hii = 1

n + Xi −X¯2

Pn

j=1 Xj −X¯2,

ce qui a l’interpr´etation de la distance deXi par rapport `a la moyenne ´echantillonnale ¯X, normalis´ee par la somme des distances des Xj par rapport `a la moyenne ´echantillonnale ¯X.

I Les hii peuvent ˆetre calcul´es enRavec la commande

hatvalues(·)o`u l’argument de la commande est un mod`ele estim´e avec la commandelm(·).

I Pour plus de d´etails sur les propri´et´es de la matrice H voir Hoaglin et Welsch (1978).

(66)

La Matrice H (suite)

I Il est possible de montrer que, dans le mod`ele de r´egression simple,

hii = 1

n + Xi −X¯2

Pn

j=1 Xj −X¯2,

ce qui a l’interpr´etation de la distance deXi par rapport `a la moyenne ´echantillonnale ¯X, normalis´ee par la somme des distances des Xj par rapport `a la moyenne ´echantillonnale ¯X.

I Les hii peuvent ˆetre calcul´es en Ravec la commande

hatvalues(·)o`u l’argument de la commande est un mod`ele estim´e avec la commandelm(·).

I Pour plus de d´etails sur les propri´et´es de la matrice H voir Hoaglin et Welsch (1978).

(67)

La Matrice H (suite)

I Il est possible de montrer que, dans le mod`ele de r´egression simple,

hii = 1

n + Xi −X¯2

Pn

j=1 Xj −X¯2,

ce qui a l’interpr´etation de la distance deXi par rapport `a la moyenne ´echantillonnale ¯X, normalis´ee par la somme des distances des Xj par rapport `a la moyenne ´echantillonnale ¯X.

I Les hii peuvent ˆetre calcul´es en Ravec la commande

hatvalues(·)o`u l’argument de la commande est un mod`ele estim´e avec la commandelm(·).

I Pour plus de d´etails sur les propri´et´es de la matrice H voir Hoaglin et Welsch (1978).

(68)

Sensibilit´ e ` a des observations particuli` eres

I Il y a quelques techniques informelles d’essayer de d´etecter des observations aberrantes ou influentes, qui ont une influence pr´epond´erante sur les r´esultats de l’estimation.

I L’id´ee de base est d’analyser ce qui arrive si on laisse tomber une seule observation de l’´echantillon.

I On peut mesurer l’impact ou bien sur les coefficients estim´es ou bien sur la valeur pr´edite de la variable d´ependante.

I D´efinissons ˆβ(i) comme le vecteur de param`etres estim´es apr`es avoir laiss´e tomber l’observation i de l’´echantillon, et ˆY(i) le vecteur de valeurs pr´edites de la variable d´ependante apr`es avoir laiss´e tomber l’observation i de l’´echantillon.

(69)

Sensibilit´ e ` a des observations particuli` eres

I Il y a quelques techniques informelles d’essayer de d´etecter des observations aberrantes ou influentes, qui ont une influence pr´epond´erante sur les r´esultats de l’estimation.

I L’id´ee de base est d’analyser ce qui arrive si on laisse tomber une seule observation de l’´echantillon.

I On peut mesurer l’impact ou bien sur les coefficients estim´es ou bien sur la valeur pr´edite de la variable d´ependante.

I D´efinissons ˆβ(i) comme le vecteur de param`etres estim´es apr`es avoir laiss´e tomber l’observation i de l’´echantillon, et ˆY(i) le vecteur de valeurs pr´edites de la variable d´ependante apr`es avoir laiss´e tomber l’observation i de l’´echantillon.

(70)

Sensibilit´ e ` a des observations particuli` eres

I Il y a quelques techniques informelles d’essayer de d´etecter des observations aberrantes ou influentes, qui ont une influence pr´epond´erante sur les r´esultats de l’estimation.

I L’id´ee de base est d’analyser ce qui arrive si on laisse tomber une seule observation de l’´echantillon.

I On peut mesurer l’impact ou bien sur les coefficients estim´es ou bien sur la valeur pr´edite de la variable d´ependante.

I D´efinissons ˆβ(i) comme le vecteur de param`etres estim´es apr`es avoir laiss´e tomber l’observation i de l’´echantillon, et ˆY(i) le vecteur de valeurs pr´edites de la variable d´ependante apr`es avoir laiss´e tomber l’observation i de l’´echantillon.

(71)

Sensibilit´ e ` a des observations particuli` eres

I Il y a quelques techniques informelles d’essayer de d´etecter des observations aberrantes ou influentes, qui ont une influence pr´epond´erante sur les r´esultats de l’estimation.

I L’id´ee de base est d’analyser ce qui arrive si on laisse tomber une seule observation de l’´echantillon.

I On peut mesurer l’impact ou bien sur les coefficients estim´es ou bien sur la valeur pr´edite de la variable d´ependante.

I D´efinissons ˆβ(i) comme le vecteur de param`etres estim´es apr`es avoir laiss´e tomber l’observation i de l’´echantillon, et ˆY(i) le vecteur de valeurs pr´edites de la variable d´ependante apr`es avoir laiss´e tomber l’observation i de l’´echantillon.

(72)

Effets de levier

I L’effet de levier de l’observation i est donn´e tout simplement par la valeur de hii.

I Parmi les autres propri´et´es deH, 0≤hii ≤1, trace (H) =k+ 1,

o`u (k+ 1) est le nombre de variables explicatives dans le mod`ele.

I Comme r`egle approximative, des valeurs au moins trois fois la valeur moyenne peuvent ˆetre consid´er´ees indicatrices

d’observations aberrantes ou influentes.

(73)

Effets de levier

I L’effet de levier de l’observation i est donn´e tout simplement par la valeur de hii.

I Parmi les autres propri´et´es deH, 0≤hii ≤1, trace (H) =k+ 1,

o`u (k+ 1) est le nombre de variables explicatives dans le mod`ele.

I Comme r`egle approximative, des valeurs au moins trois fois la valeur moyenne peuvent ˆetre consid´er´ees indicatrices

d’observations aberrantes ou influentes.

(74)

Effets de levier

I L’effet de levier de l’observation i est donn´e tout simplement par la valeur de hii.

I Parmi les autres propri´et´es deH, 0≤hii ≤1, trace (H) =k+ 1,

o`u (k+ 1) est le nombre de variables explicatives dans le mod`ele.

I Comme r`egle approximative, des valeurs au moins trois fois la valeur moyenne peuvent ˆetre consid´er´ees indicatrices

d’observations aberrantes ou influentes.

(75)

DFFITS

i

I D´efinition :

DFFITi ≡Yˆi−Yˆ(i).

I Cette mesure calcule l’impact d’omettre l’observation i sur la valeur pr´edite de la variable d´ependante (aussi de

l’observation i).

I D´efinition :

DFFITSi ≡ Yˆi−Yˆ(i) ˆ σ(i)

hii

o`u ˆσ(i) est l’´ecart type de la r´egression estim´e sans l’observation i :

ˆ

σ2i ≡ 1 n−k

X

j6=i

ˆ ui2,

I Comme r`egle approximative, les points o`u la mesure d´epasse 2×q

k+1

n sont `a signaler comme des observations influentes.

(76)

DFFITS

i

I D´efinition :

DFFITi ≡Yˆi−Yˆ(i).

I Cette mesure calcule l’impact d’omettre l’observation i sur la valeur pr´edite de la variable d´ependante (aussi de

l’observation i).

I D´efinition :

DFFITSi ≡ Yˆi−Yˆ(i) ˆ σ(i)

hii

o`u ˆσ(i) est l’´ecart type de la r´egression estim´e sans l’observation i :

ˆ

σ2i ≡ 1 n−k

X

j6=i

ˆ ui2,

I Comme r`egle approximative, les points o`u la mesure d´epasse 2×q

k+1

n sont `a signaler comme des observations influentes.

(77)

DFFITS

i

I D´efinition :

DFFITi ≡Yˆi−Yˆ(i).

I Cette mesure calcule l’impact d’omettre l’observation i sur la valeur pr´edite de la variable d´ependante (aussi de

l’observation i).

I D´efinition :

DFFITSi ≡ Yˆi−Yˆ(i) ˆ σ(i)

hii

o`u ˆσ(i) est l’´ecart type de la r´egression estim´e sans l’observation i :

ˆ

σ2i ≡ 1 n−k

X

j6=i

ˆ ui2,

I Comme r`egle approximative, les points o`u la mesure d´epasse 2×q

k+1

n sont `a signaler comme des observations influentes.

(78)

DFFITS

i

I D´efinition :

DFFITi ≡Yˆi−Yˆ(i).

I Cette mesure calcule l’impact d’omettre l’observation i sur la valeur pr´edite de la variable d´ependante (aussi de

l’observation i).

I D´efinition :

DFFITSi ≡ Yˆi−Yˆ(i) ˆ σ(i)

hii

o`u ˆσ(i) est l’´ecart type de la r´egression estim´e sans l’observation i :

ˆ

σ2i ≡ 1 n−k

X

j6=i

ˆ ui2,

I Comme r`egle approximative, les points o`u la mesure d´epasse 2×q

k+1

n sont `a signaler comme des observations influentes.

(79)

DFBETAS

j,(i)

I Pour le coefficientβj, on d´efinit DFBETAj,(i) comme DFBETAj,(i)≡βˆj −βˆj,(i).

I C’est une mesure de l’impact de laisser tomber l’observationi sur la valeur du coefficient estim´e j.

I Pour le coefficientβj, on d´efinit DFBETASj,(i) comme DFBETASj,(i)

βˆj−βˆj,(i) ˆ

σ q

(X0X)−1jj

o`u (X0X)−1jj est l’´el´ement dans laje colonne et laje rang´ee de l’inverse de (X0X)

I Une valeur sup´erieure `a 2/√

n est consid´er´eesuspicieuse.

(80)

DFBETAS

j,(i)

I Pour le coefficientβj, on d´efinit DFBETAj,(i) comme DFBETAj,(i)≡βˆj −βˆj,(i).

I C’est une mesure de l’impact de laisser tomber l’observationi sur la valeur du coefficient estim´e j.

I Pour le coefficientβj, on d´efinit DFBETASj,(i) comme DFBETASj,(i)

βˆj−βˆj,(i) ˆ

σ q

(X0X)−1jj

o`u (X0X)−1jj est l’´el´ement dans laje colonne et laje rang´ee de l’inverse de (X0X)

I Une valeur sup´erieure `a 2/√

n est consid´er´eesuspicieuse.

Références

Documents relatifs

Savoir comment tester une hypoth`ese simple concernant un moment (esp´erance, variance, etc.) d’une variable al´eatoire, avec hypoth`ese alternative unilat´erale ou

• Savoir que le test F effectu´e le plus souvent dans le contexte du mod`ele de r´egression multiple, c’est le test de l’hypoth`ese jointe nulle que tous les coefficients sauf

En d´epit de l’insistance sur une variance des erreurs qui n’est pas constante dans les donn´ees, on ne pr´esente pas de tests statistiques formels dans le manuel de Stock et

I Th´ eor` eme de la limite centrale : la moyenne d’un nombre suffisamment ´ elev´ e de variables al´ eatoires qui sont ind´ ependamment distribu´ ees et qui ont une moyenne et

I But : pr´ esenter quelques strat´ egies g´ en´ erales pour sp´ ecifier et estimer des mod` eles ´ econom´ etriques non lin´ eaires.. I Mod` eles non lin´ eaires dans les

• Attention aux autres manuels. La plupart des manuels classiques d´eveloppent le mod`ele de r´egression simple et le mod`ele de r´egression multiple sous les hypoth`eses suivantes:

Regarder les hypoth` eses statistiques du mod` ele et analyser leurs cons´ equences (absence de biais, convergence, efficience).. Distinguer entre les cas d’erreurs h´ et´

I La multicollin´ earit´ e imparfaite n’est typiquement pas un signe d’une erreur logique dans le choix des variables explicatives du mod` ele, mais est due aux donn´ ees utilis´