• Aucun résultat trouvé

ECO 4272 : Introduction ` a l’´ Econom´ etrie Tests diagnostics

N/A
N/A
Protected

Academic year: 2022

Partager "ECO 4272 : Introduction ` a l’´ Econom´ etrie Tests diagnostics"

Copied!
43
0
0

Texte intégral

(1)

ECO 4272 : Introduction ` a l’´ Econom´ etrie Tests diagnostics

Steve Ambler

D´epartement des sciences ´economiques Ecole des sciences de la gestion´ Universit´e du Qu´ebec `a Montr´eal

2018: Steve Amblerc

Hiver 2018

(2)

Introduction

I But : pr´esenter de fa¸con informelle quelques tests diagnostics couramment utilis´es en ´econom´etrie appliqu´ee.

I Stock et Watson : beaucoup d’accent sur les donn´ees non normales et non homosc´edastiques, peu pou pas d’accent sur les fa¸cons de d´etecter la non-normalit´e ou l’h´et´erosc´edasticit´e.

I Voir Boomsma (2014) et Fox (2009) pour plus de d´etails, ou le 4e chapitre de Kleiber et Zeileis (2008).

(3)

Introduction (suite)

Quelques r´ef´erences Wikipedia: 1. Breusch-Pagan Test 2. Cook’s Distance

3. Errors-in-Variables Models 4. Hat Matrix

5. Heteroscedasticity 6. Leverage (Statistics) 7. Multicollinearity 8. Normality Test

9. Normal Probability Plot 10. Q-Q Plot

11. Ramsey Reset Test 12. Studentized Residual 13. White Test

(4)

Plan

1. Section sur les diagnostics informels

1.1 Analyse grahique ou alg´ebrique des r´esidus d’un mod`ele de egression

1.2 Diagnostics pour d´etecter des observations qui ont une influence d´emesur´ee sur les r´esultats de l’estimation (coefficients, valeurs pr´edites, variance estim´ee de l’erreur, variance estim´ee des coefficients, etc.)

2. Tests formels de 2.1 l’homosc´edasticit´e

2.2 la forme fonctionnelle du mod`ele de r´egression 2.3 la normalit´e du terme d’erreur

2.4 mesures de la multicollin´earit´e 2.5 l’ind´ependance des erreurs 2.6 l’endog´en´eit´e

(5)

Diagnostics informels

I R´esidus versus valeurs pr´edites. Nous avons d´ej`a parl´e de cet outil.

I Probl`eme potentiel :mˆeme si les erreursdu mod`ele de r´egression sont homosc´edastiques et ind´ependantes

(autrement dit les donn´ees proviennent d’un ´echantillon i.i.d.), les r´esidusdu mod`ele de r´egression auront une variance non constante et ne seront pas ind´ependants les uns par rapport aux autres.

I Pour cette raison, on travaille souvent avec les r´esidus

normalis´es, un concept auquel nous allons revenir ci-dessous.

(6)

Graphique Q–Q

I Pour analyser l’h´ypoth`ese de la normalit´e des erreurs. Le

Q est cens´e faire penser `a quantile

I On compare les quantiles de deux distributions de probabilit´e sur un graphique

I Si φ(·) est la fonction de distribution normale cumul´ee,φ−1 donne les quantiles

I 2 distributions sont identiques ⇒ les points se retrouveront sur une droite avec une pente de 45 degr´es

I Relation lin´eaire entre 2 distributions⇒ les points se retrouveront sur une droite

I En R qqnorm(x) cr´ee un graphique qui compare x `a une normale th´eorique

I En R plot(model,which=2) fait la mˆeme chose pour les r´esidus d’un mod`ele estim´e aveclm(·)

(7)

Diagramme de variable ajout´ ee

I But – d´etecter si l’impact d’une variable individuelle (dans un mod`ele de r´egression multiple) est bien capt´e par une relation lin´eaire

I Difficile avec un graphique des r´esidus contre la variable explicative (il faut tenir constantes les valeurs de toutes les autres variables explicatives)

I On voudrait regarder l’impact d’une variable individuelle sur la variable d´ependante ayant purg´e l’impact de toutes les autres variables

I Un diagramme de variable ajout´ee nous permet de faire ceci.

La d´emarche est la suivante :

(8)

Diagramme de variable ajout´ ee (suite)

1. Estimer un mod`ele avecY comme variable d´ependante et toutes les autres variables `a partXj comme variables explicatives. Appelons les r´esidus ˆuy

2. Estimer un mod`ele Xj comme variable d´ependanteet toutes les autres variables explicatives `a partXj comme variables explicatives. Appelons les r´esidus ˆuj

3. Cr´eer un graphique avec ˆuy sur l’axe vertical et ˆuj sur l’axe horizontal

4. On peut aussi estimer ˆ

uyi01ji +i.

et ajouter la ligne de r´egression au graphique (avec la commande abline(·))

(9)

Diagramme de variable ajout´ ee (suite)

I Le th´eor`eme Frisch-Waugh-Lovell nous dit que le ˆγ1 doit ˆetre identique `a ˆβj

I En R,avPlots(·)(packagecar), o`u l’argument est un mod`ele estim´e, cr´ee des diagrammes de variable ajout´ee pour toutesles variables explicatives

I Interpr´etation — le coefficient ˆγ donne l’impact deXj sur Y une fois que l’on purgeXj des effets des autres variables explicatives. Mais c’est exactement ce que fait l’estimation par MCO du mod`ele de r´egression multiple.

(10)

Diagramme de r´ esidus partiels

I Graphique avec ˆui + ˆβjXji sur l’axe vertical, Xji sur l’axe horizontal

I La pente est donn´ee par ˆβj

I Boomsma (2014) – ces diagrammes sont plus utiles pour d´etecter les non-lin´earit´es, tandis que les diagrammes de variable ajout´ee sont plus utiles pour d´etecter les observations aberrantes et influentes

I R:prplot(·,x)(packagefaraway) permet de g´en´erer automatiquement des graphiques de r´esidus partiels pour un mod`ele estim´e

I Premier argument : nom du mod`ele estim´e. Deuxi`eme argument : nombre de la variable explicative.

(11)

R´ esidus Normalis´ es

I Mˆeme si les erreurs d’un mod`ele sont homosc´edastiques, les r´esidus ne le sont pas

I Les r´esidusne peuventˆetre ind´ependants puisqu’ils satisfont X0Uˆ= 0

I Cette propri´et´e impose des relations alg´ebriques exactes(en faitk+ 1 relations exactes) entre les r´esidus qui les

empˆechent d’ˆetre ind´ependantes au sens statistique du terme

I Nous avons

Uˆ≡Y −Xβˆ=Y −X X0X−1

X0Y

=

I −X X0X−1

X0

Y

≡(I−H)Y

I (I−H) est sym´etrique etidempotente

(12)

R´ esidus Normalis´ es (suite)

I Variance (conditionnelle) du vecteur des r´esidus ˆU. ˆU est n×1, la matrice variance-covariance est n×n

E

UˆUˆ0|X

= E (I−H)YY0(I −H)|X

= E (I −H) (Xβ+U) (Xβ+U)0(I −H)|X

= (I−H)Xββ0X0(I−H) +E (I−H)XβU0|X +E Uβ0X0(I−H)|X + (I−H) E UU0

(I −H).

= (I−H) E UU0

(I−H) puisque (I −H)X = 0

(13)

R´ esidus Normalis´ es (suite)

I Cas homosc´edastique :

2(I−H),

I Mˆeme si les erreurs sont homosc´edastiques les variances des r´esidus sont proportionnelles aux ´el´ements sur la diagonale de (I−H)

(14)

R´ esidus normalis´ es (suite)

I R´esidusnormalis´es (oustudentis´es de fa¸con interne) :

ri ≡ uˆi ˆ σ√

1−hii

o`u ˆσ est l’´ecart type de la r´egression et leshii sont les

´

el´ements sur la diagonale de H

I On normalise les r´esidus en divisant par un estim´e de leurs

´

ecarts types (sousH0 de l’homosc´edasticit´e)

I Un graphique avec les r´esidus normalis´es (ou au carr´e) sur l’axe vertical et avec la variable d´ependante ou une des variables explicatives sur l’axe horizontal peut faire ressortir mieux si l’hypoth`ese de l’homosc´edasticit´e tient ou non

I R:rstandard(·). L’argument : l’objet utilis´e pour sauvegarder les r´esultats d’estimation d’un mod`ele

(15)

R´ esidus normalis´ es (suite)

I Si les hypoth`eses statistiques derri`ere le mod`ele tiennent (y compris l’homosc´edasticit´e des erreurs), il devrait ˆetre le cas que Var (ri|X) = 1 et Corr (ri,rj|X) a tendance `a ˆetre faible (Kleiber et Zeileis 2008)

I Dans les sections qui suivent, la plupart des mesures utilis´ees sont bas´ees sur les r´esidus normalis´es et non sur les r´esidus eux-mˆemes.

(16)

La Matrice H

I La matrice H a ´et´e d´efinie dans la sous-section pr´ec´edente.

I H est cens´e faire penser `ahat (chapeau).

I La matrice H est utilis´ee aussi pour calculer les distances de Cook et pour mesurer les effets de levier.

I Il est possible de montrer que l’on peut exprimer les valeurs pr´edites de la variable d´ependante comme

j =h1jY1+h2jY2+. . .+hnjYn=

n

X

i=1

hijYi.

(17)

La Matrice H (suite)

I Ainsi, le poids hij capte la contribution de l’observationYi `a la valeur pr´edite ˆYj.

I On peut montrer que

hii =

n

X

j=1

hij2,

et donc la valeur hii r´esume l’influence potentielle de l’observation Yi sur toutesles valeurs pr´edites ˆYj.

I On peut montrer que 1

n ≤hii ≤1.

I On peut aussi montrer que la valeur moyenne des hii est donn´ee par

1 n

n

X

i=1

hii = ¯h = k+ 1 n .

(18)

La Matrice H (suite)

I Il est possible de montrer que, dans le mod`ele de r´egression simple,

hii = 1

n + Xi −X¯2

Pn

j=1 Xj −X¯2,

ce qui a l’interpr´etation de la distance deXi par rapport `a la moyenne ´echantillonnale ¯X, normalis´ee par la somme des distances des Xj par rapport `a la moyenne ´echantillonnale ¯X.

I Les hii peuvent ˆetre calcul´es en Ravec la commande

hatvalues(·)o`u l’argument de la commande est un mod`ele estim´e avec la commandelm(·).

I Pour plus de d´etails sur les propri´et´es de la matrice H voir Hoaglin et Welsch (1978).

(19)

Sensibilit´ e ` a des observations particuli` eres

I Il y a quelques techniques informelles d’essayer de d´etecter des observations aberrantes ou influentes, qui ont une influence pr´epond´erante sur les r´esultats de l’estimation.

I L’id´ee de base est d’analyser ce qui arrive si on laisse tomber une seule observation de l’´echantillon.

I On peut mesurer l’impact ou bien sur les coefficients estim´es ou bien sur la valeur pr´edite de la variable d´ependante.

I D´efinissons ˆβ(i) comme le vecteur de param`etres estim´es apr`es avoir laiss´e tomber l’observation i de l’´echantillon, et ˆY(i) le vecteur de valeurs pr´edites de la variable d´ependante apr`es avoir laiss´e tomber l’observation i de l’´echantillon.

(20)

Effets de levier

I L’effet de levier de l’observation i est donn´e tout simplement par la valeur de hii.

I Parmi les autres propri´et´es deH, 0≤hii ≤1, trace (H) =k+ 1,

o`u (k+ 1) est le nombre de variables explicatives dans le mod`ele.

I Comme r`egle approximative, des valeurs au moins trois fois la valeur moyenne peuvent ˆetre consid´er´ees indicatrices

d’observations aberrantes ou influentes.

(21)

DFFITS

i

I D´efinition :

DFFITi ≡Yˆi−Yˆ(i).

I Cette mesure calcule l’impact d’omettre l’observation i sur la valeur pr´edite de la variable d´ependante (aussi de

l’observation i).

I D´efinition :

DFFITSi ≡ Yˆi−Yˆ(i) ˆ σ(i)

hii

o`u ˆσ(i) est l’´ecart type de la r´egression estim´e sans l’observation i :

ˆ

σ2i ≡ 1 n−k

X

j6=i

ˆ ui2,

I Comme r`egle approximative, les points o`u la mesure d´epasse 2×q

k+1

n sont `a signaler comme des observations influentes.

(22)

DFBETAS

j,(i)

I Pour le coefficientβj, on d´efinit DFBETAj,(i) comme DFBETAj,(i)≡βˆj −βˆj,(i).

I C’est une mesure de l’impact de laisser tomber l’observationi sur la valeur du coefficient estim´e j.

I Pour le coefficientβj, on d´efinit DFBETASj,(i) comme DFBETASj,(i)

βˆj−βˆj,(i) ˆ

σ q

(X0X)−1jj

o`u (X0X)−1jj est l’´el´ement dans laje colonne et la je rang´ee de l’inverse de (X0X)

I Une valeur sup´erieure `a 2/√

n est consid´er´eesuspicieuse.

(23)

Distances de Cook

I D´efinition : pour l’observation i, La distance de Cook est d´efinie comme

Di =

Yˆ−Yˆ(i) 0

Yˆ−Yˆ(i)

(k+ 1)ˆσ

o`u (k+ 1) est le nombre total de param`etres estim´es et ˆσ est l’´ecart type de la r´egression

I Dans le mod`ele de r´egression simple, on peut montrer que les d´efinitions suivantes sont ´equivalentes alg´ebriquement :

Di = uˆi2 (k+ 1)ˆσ

hii (1−hii)2

,

Di =

βˆ−βˆi0

(X0X)

βˆ−βˆi (1 +k+ 1)ˆσ2

o`u βi est le vecteur (entier) de param`etres estim´es en omettant l’observation i de l’´echantillon

(24)

R´ esidus studentis´ es

I D´efinition :

ti ≡ uˆi ˆ σ(i)

1−hii

(o`u ˆσ(i) a la mˆeme d´efinition que dans la sous-section sur DFFIT), qui a l’interpr´etation de la variance estim´e de l’erreur en excluant l’observation i

I La justification de cette mesure (par rapport aux r´esidus normalis´es d´efinis plus haut) est que si on veut juger si l’observation i est une observation aberrante ou non, il est mieux d’exclure cette observation de l’estimation de la variance

I La commande en R rstudent(·)o`u comme d’habitude l’argument est le nom du mod`ele estim´e va calculer les r´esidus studentis´es automatiquement

(25)

Trois Commandes utiles

1. plot(·): l’argument est un mod`ele estim´e

2. influence.measures(·): calcule entre autres les distances de Cook et les mesures DFFITS et DFBETAS.

summary(influence.measures(·)): indique toutes les observations influentes selon au moins un des crit`eres 3. influence(·): calcule les r´esultats suivants :

3.1 hat: un vecteur dont les ´el´ements sont les hii

3.2 coefficients: une matrice o`u l’ie rang´ee donne le changement des coefficients estim´es lorsqu’on laisse tomber l’ie observation de l’´echantillon (tous les DFBETAj,(i)) 3.3 sigma: un vecteur dont l’ie ´el´ement contient un estim´e de

l’´ecart type de l’erreur de l’´equation lorsqu’on laisse tomber l’ie observation

3.4 wt.res: un vecteur de r´esidus de l’estimation du mod`ele par moindres carr´es pond´er´es (section 17.5 du manuel)

(26)

Tests diagnostics formels — h´ et´ erosc´ edasticit´ e

I Plusieurs tests pour d´etecter l’h´et´erosc´edasticit´e. Tous ces tests ont comme H0 l’homosc´edasticit´e

I Les deux tests les plus fr´equemment utilis´es sont Breusch-Paganet White

I Breusch-Pagan: test de significativit´e de la r´egression Uˆ2=Xγ+

o`u ˆU2 est le vecteur de r´esidus au carr´e (par d´efaut les r´esidus normalis´es)

I White : on r´egresse les r´esidus au carr´e sur (1) les variables explicatives du mod`ele, (2) les produits de toutes les paires de variables explicatives, (3) les variables explicatives au carr´e. La statistique nR2 suit une distribution chi-carr´e en grand

´

echantillon (nombre de degr´es de libert´e ´egal au nombre de param`etres estim´es dans le mod`ele auxiliaire. En R,

white.test(·)(package bstats)

(27)

Test Reset de Ramsey

I Pour ´evaluer la forme fonctionnelle d’un mod`ele de r´egression.

I But : savoir s’il y a des combinaisons non lin´eaires des valeurs pr´edites qui ajoutent du pouvoir explicatif

I Peut d´etecter des non-lin´earit´es, mais ne sugg`ere pas la forme fonctionnelle appropri´ee

I On estime le mod`ele suivant :

Yi01X1i2X2i +. . .+γkXki1i22i3+. . .+δk−1ik +i.

(28)

Test Reset de Ramsey (suite)

I On utilise une statistique F pour tester la significativit´e des coefficientsδ

I Le choix de l’ordre du polynˆome en ˆYi est arbitraire. On utilise souvent seulement ˆYi au carr´e

I Notez que l’hypoth`ese nulle est que les termes non lin´eaires dans les valeurs pr´edites sont non significatives. Donc, l’hypoth`ese nulle est que la spe´cification initiale de l’´equation est ad´equate

I L’utilisation du test Reset ne devrait pas remplacer un examen d´etaill´e par d’autres moyens (graphiques ou autres)

(29)

Normalit´ e : Shapiro-Wilk

I H0 : l’´echantillon provient d’une distribution normale W ≡

Pn

i=1aix(i)2

Pn

i=1(xi −x)¯ 2

x(i) : l’observation i o`u les observations ont ´et´e class´ees dans l’ordre et

a≡(a1, . . . ,an)≡ m0V−1 (m0V−1V−1m)1/2 o`u

m= (m1, . . . ,mn)0

sont les valeurs anticip´ees des statistiques d’ordre de variables i.i.d. provenant d’une normale centr´ee r´eduite, V est la matrice variance-covariance des statistiques d’ordre

I Des petitesvaleurs m`enent au rejet. Shapiro et Wilk (1965) a une table de points de la distribution cumul´ee de la statistique

I R:shapiro.test(·), provenant du packagestats, o`u l’argument est un vecteur de r´esidus

(30)

Normalit´ e : Jarque-Bera

I Combine des mesures empiriques de l’asym´etrie et de l’aplatissement

JB≡ n 6

S2+1

4(K −3)2

o`u

S ≡ µˆ3 ˆ σ3 =

1 n

Pn i=1( ˆui)3 1

n

Pn

i=1( ˆui)23/2

et

K ≡ µˆ4 ˆ σ4 =

1 n

Pn i=1( ˆui)4 1

n

Pn i=1( ˆui)2

2,

o`u ˆµ3 et ˆµ4 sont des estim´es des troisi`eme et quatri`eme moments centr´es des r´esidus et ˆσ2 est un estim´e de la variance des r´esidus. Les moments sontcentr´espuisque de toute fa¸con la somme des r´esidus d’une r´egression est par construction ´egale `a z´ero.

(31)

Normalite : Jarque-Bera (suite)

I La statistique JB suit (approximativement ou en grand

´

echantillon) une distribution chi-carr´e avec deux degr´es de libert´e. L’hypoth`ese nulle est la normalit´e

I Une grande valeur de la statistique calcul´ee m`ene au rejet

I R:jarque.bera.test(·)(packagetseries) o`u l’argument de la commande est une s´erie de donn´ees

(32)

Ind´ ependance des erreurs

I Ce sujet est beaucoup plus pertinent dans le cas o`u les donn´ees sont des s´eries chronologiques. Il s’agit de tests pour d´etecter la pr´esence d’autocorr´elation dans les erreurs

I A voir dans le cadre du cours ECO5272`

(33)

Multicollin´ earit´ e

I Voir Giles (2011, 2013f). Giles est assez sarcastique au sujet de la multicollin´earit´e, surtout dans son article de 2011.A generally reliable guide may be obtained by counting the number of observations. Most of the time in econometric analysis, when n is close to zero, it is also far from infinity.

I Interpr´etation : le probl`eme survient puisque nous n’avons pas assez d’observations pour distinguer entre les impacts de variables explicatives diff´erentes

I La multicollin´earit´e (lorsqu’elle n’est pas parfaite) est une propri´et´e de l’´echantillon de donn´ees qui est `a notre

disposition. Donc, il n’y pas forc´ement un rem`ede au probl`eme

(34)

Multicollin´ earit´ e : d´ etection

1. Changements importants dans les valeurs estim´ees de coefficients lors de l’ajout ou du retrait d’une ou plusieurs variables

2. Coefficients non significatifs individuellement mais significatifs en bloc

3. Variance inflation factor: VIF≡ 1−R1 2 j

.Rj2 : ajustement statistique d’une r´egression de la variable explicativej sur toutes les autres variables explicatives du mod`ele

4. Conditionnement de X0X. Racine carr´ee du ratio de la plus grande valeur caract´eristique sur la plus petite valeur

caract´eristique. Un chiffre sup´erieur `a 30 est un indice qu’il y a un probl`eme

5. Test Farrar-Glauber (1967). Voir Giles (2013f).

Interpr´etation : test des corr´elations entre les variables dansX dans la population.

6. Construction d’une matrice de corr´elations.

(35)

Multicollin´ earit´ e : cons´ equences

1. Cas extrˆemes : l’ordi a des difficult´es (num´eriques) `a inverser X0X.

2. L’estim´e de l’impact d’une des variables sur la variable d´ependante devient beaucoup moins pr´ecis.

3. La multicollin´earit´e peut aggraver les effets de variables omises.

(36)

Multicollin´ earit´ e : rem` edes possibles

1. V´erifier la pr´esence de la trappe aux variables dichotomiques 2. Essayer de r´eestimer le mod`ele utilisant un sous-´echantillon

des donn´ees

3. Rien faire. Essayer de faire parler les donn´ees lorsqu’elles sont muettes sur la question que nous leur posons est inutile 4. Laisser tomber une variable. Attention au probl`eme de biais ! 5. Obtenir davantage d’observations si possible

6. Centrer les variables explicatives en soustrayant les moyennes 7. Renormaliser les variables explicatives pour que les variables

explicatives soient d’un ordre de grandeur comparable. Ceci peut affecter le conditionnement de la matrice (X0X).

8. Utiliser la technique de la r´egression pseudo-orthogonale (ridge regression en anglais). Un sujet qui est au-del`a de la mati`ere du cours

9. Si les variables explicatives qui sont corr´el´ees sont des retards (dans le contexte des s´eries chronologiques), on peut utiliser la technique des retards distribu´ees qui impose une structure sur les coefficients `a estimer

(37)

Endog´ en´ eit´ e

I Ce sujet nous m`ene vraiment `a la fronti`ere de la mati`ere du cours, puisqu’il nous am`ene `a parler de la technique

d’estimation par variables instrumentales. Le principe de base est (j’esp`ere) relativement simple `a comprendre. Pour plus de d´etails, voir le chapitre 12 du manuel de Stock et Watson (version en langue anglaise).

I C’est une fa¸con g´en´erale de r´esumer tout ce qui peut causer une corr´elation non nulle entre les variables explicatives du mod`ele et le terme d’erreur. Nous avons d´ej`a vu en d´etail le probl`eme de variables omises. Il y a d’autres sources possibles du probl`eme.

I Causes possibles de l’endog´en´eit´e.

1. Variable(s) omise(s).

2. Erreurs de mesure.

3. Simultan´eit´e.

(38)

Endog´ en´ eit´ e : test Durbin-Hausman-Wu

I D´epend de l’existenced’instrumentsappropri´es.

I Instrument: variable corr´el´ee avec les variables explicatives non corr´el´ee avec le terme d’erreur

I Les instruments peuvent ˆetre utilis´es pour construire un estimateur convergent des coefficients du mod`ele

I Soit le mod`ele lin´eaire donn´e par Y =Xβ+U

o`u il n’est plus forc´ement le cas que E (U|X) = 0

I Soit une matrice W de dimensions n×k2 avec k2≥k+ 1 et o`u E (U|W) = 0

I S’il y a des variables parmi X qui ne sont pas corr´el´ees avecU elles peuvent ˆetre incluses dansW

(39)

Endog´ en´ eit´ e : test Durbin-Hausman-Wu (suite)

I Consid´erez maintenant le mod`ele transform´e R0W0Y =R0W0Xβ+R0W0U

R : matrice de pond´erations. L’estimateur IV (variables instrumentales)

βˆIV = R0W0X−1

R0W0Y

I Estimateur convergent βˆIV = R0W0X−1

R0W0(Xβ+U) =β+ R0W0X−1

R0W0U

⇒βˆIV −→p β+ lim

n→∞

1

nR0W0X −1

× lim

n→∞

1

nR0W0U

=β puisque Corr (W,U) = 0

(40)

Endog´ en´ eit´ e : test Durbin-Hausman-Wu (suite)

I Si les U sont ind´ependantes et homosc´edastiques le choix optimal de R est donn´e par

R = W0W−1

W0X,

qui serait la matrice de coefficients estim´es de r´egressions MCO des variables X sur les W

I Dans ce cas, on a βˆIV =

X0W W0W−1

W0X −1

X0W W0W−1

W0Y

I Dans ce cas, l’estimateur IV est connu sous le nom de l’estimateur moindres carr´es `a deux ´etapes (la premi`ere ´etape

´

etant la r´egression de toutes les variables explicatives du mod`ele initial sur toutes les variables instrumentales)

(41)

Endog´ en´ eit´ e : test Durbin-Hausman-Wu (suite)

I On estime le mod`ele par MCO et par IV

I Sous H0 (absence d’endog´en´eit´e) les deux estim´es sont convergents et l’estimateur MCO est plus efficient que l’estimateur IV

I Sous H1 l’estimateur IV est toujours convergent tandis que l’estimateur MCO ne l’est pas. La statistique s’´ecrit

DHW ≡

βˆ−βˆIV0 Σˆβˆ

IV −Σˆβˆ

βˆ−βˆIV βˆIV : matrice variance-covariance (estim´ee) de ˆβIV, et †: l’inverse g´en´eralis´ee Moore-Penrose

I DHW suit une chi-carr´e avec un nombre de degr´es de libert´e

´

egal au rang de Σˆβˆ

IV −Σˆβˆ

I R :hausman.systemfit(·)(packagesystemfit)

(42)

Endog´ en´ eit´ e : test Durbin-Hausman-Wu (suite)

I Fa¸con plus simple Wooldridge (2009, section 15.5)

I Soit le mod`ele lin´eaire

Yi01W1,i +. . .+βkWk,ik+1Xi+Ui, o`u les W ne sont pas corr´el´ees avecU

I ∃ des instruments qui comprennent les W

I Soit le mod`ele auxiliaire

Xi01W1,i +. . .+γk2Wk2,i +i, k2 ≥k+ 1

I X sera non corr´el´ee avec U si et seulement sin’est pas corr´el´ee avecU.

I Utiliser les r´esidus ˆi comme variable explicative additionnelle dans le mod`ele initial pour estimer

Yi01W1,i+. . .+βkWk,ik+1Xik+2ˆi + ˜Ui.

I On teste H0k+2= 0 avec une statistique t. Si on rejette on conclut que X est endog`ene

(43)

Endog´ en´ eit´ e : test Durbin-Hausman-Wu (suite)

I Possible de g´en´eraliser cette m´ethode au cas o`u il y a plus qu’une variable qui est potentiellement endog`ene dans le mod`ele initial

I Probl`eme avec ce test et avec l’estimateur IV en g´en´eral est la n´ecessit´e d’identifier des variables instrumentales appropri´ees.

Il faut trouver des variables non corr´el´ees avec le terme d’erreur etfortement corr´el´ees avec les variables explicatives qui sont endog`enes

I Une recherche GoogleouGoogle Scholar avec les mots cl´es

weak instruments devrait suffir pour constater que c’est un sujet de recherche tr`es actif

Références

Documents relatifs

Propriété : deux vecteurs sont égaux si et seulement si ils ont les mêmes coordonnées dans

Nous allons voir dans ce chapitre que les fonctions du second degré et les fonctions homographiques peuvent se déduire par les transformations précédentes des fonctions carré

Par exemple, dans ce chapitre, nous avons utilis´e n tantˆot pour indiquer toutes les r´ealisations distinctes possibles d’une variable al´eatoire lorsqu’on d´efinit les moments

1.2 Diagnostics pour d´ etecter des observations qui ont une influence d´ emesur´ ee sur les r´ esultats de l’estimation (coefficients, valeurs pr´ edites, variance estim´ ee

Savoir comment tester une hypoth`ese simple concernant un moment (esp´erance, variance, etc.) d’une variable al´eatoire, avec hypoth`ese alternative unilat´erale ou

• Savoir que le test F effectu´e le plus souvent dans le contexte du mod`ele de r´egression multiple, c’est le test de l’hypoth`ese jointe nulle que tous les coefficients sauf

En d´epit de l’insistance sur une variance des erreurs qui n’est pas constante dans les donn´ees, on ne pr´esente pas de tests statistiques formels dans le manuel de Stock et

I Th´ eor` eme de la limite centrale : la moyenne d’un nombre suffisamment ´ elev´ e de variables al´ eatoires qui sont ind´ ependamment distribu´ ees et qui ont une moyenne et