Économétrie II
Ch. 3. Hétéroscédasticité L3 Économétrie – L3 MASS
Prof. Philippe Polomé, U. Lyon 2 Année 2016-2016
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité
Rappel
1. E(✏i) =08i :Espérance nulle 2. var(✏i) = 2 8i :Homoscédasticité
3. cov(✏t,✏s) =08t 6=s :Pas d’auto-corrélation 4. E(✏ixi) =08i :Exogénéité
5. XLa matrice X est de plein rang :Pas de multicolinéarité 6. Le modèle est correctement spécifié
7. La variable dépendante Y est continue
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité
Table des matières
Ch. 3.9i :var(✏i) = i2 : Hétéroscédasticité Définition
Sources Conséquences
Estimer la matrice de variance-covariance
Moindres carrés pondérés “Weighted Least Squares”
Tests
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Définition
Table des matières
Ch. 3.9i :var(✏i) = i2 : Hétéroscédasticité Définition
Sources Conséquences
Estimer la matrice de variance-covariance
Moindres carrés pondérés “Weighted Least Squares”
Tests
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Définition
Définition du problème
I L’hypothèse d’homoscédasticitérequiert que la variance des termes d’erreur soit la mêmepour chaque observation
I Il y a hétéroscédasticité dans le modèle Y =X +✏lorsque :
var(✏) =E⇣
✏✏0⌘
=⌃✏= 2 66 64
12 0
22
...
0 N2
3 77
756= 2IN
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Définition
Représentation graphique
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Sources
Table des matières
Ch. 3.9i :var(✏i) = i2 : Hétéroscédasticité Définition
Sources Conséquences
Estimer la matrice de variance-covariance
Moindres carrés pondérés “Weighted Least Squares”
Tests
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Sources
Données en moyenne
I S’il y a homoscédasticité dans les données de départ, les données en moyenne seront hétéroscédastiques
I yit avecvar(yit) =18i,t
I Mais on ne dispose que des moyennes T1g P
tyit =yi où Tg
est la taille du groupe
I Par ex : des moyennes régionales de données individuelles
I var(yi) = T12 gvar(P
tyit) = T12 g
P
tvar(yit) = TTg2 g = T1
g : dépend de la taille du groupe
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Sources
Modèle à “coefficients aléatoires”
I Si le modèle sous-jacent est Yi =↵+ ( +µi)xi +✏i
I Par ex. effet de l’éducation sur le salaire
I Alors Yi =↵+ xi+µixi +✏i =↵+ xi +⌘i
I Et, avec des termes d’erreurs✏i et µi homoscédastiques et indépendant et un régresseurxi non-stochastique, on trouve
I var(⌘i) = 2✏+ 2µxi hétéroscédastique
I Semblable au cas suivant
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Sources
Régresseur manquant hétéroscédastique
I Si le modèle sous-jacent est yi = 0+ 1x1i+ 2x2i +✏i I Mais le modèle estimé est yi = 0+ 1x1i +µi
I Alors µi = 2x2i+✏i donc,
I six2i n’est pas corrélé à✏i,var(µi) = 22var(x2i) + 2
I six2i n’est pas stochastique (analyse conditionnelle), var(µi) = 22x2i+ 2
I Hétéroscédastique sauf cas particulier
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Sources
Effet taille
I La variance est une mesure absolue, pas relative
I Imaginons que le CA de toutes les entreprises varie de 10%
I 10% est un grand nombre pour une grande entreprise
I Part du revenu disponible dépensé en loisirs
I Les familles à faibles revenus dépensent relativement peu en loisirs. Les variations de ces dépenses entre ces familles sont donc faibles
I Pour les familles avec des revenus importants, le montant moyen relatif dépensé en loisirs sera plus élevé, et il y aura une plus grande variabilité entre de telles familles
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Sources
Variables explicatives de la variance
I Un régresseur définit des groupesde variances différentes dans la variable expliquée
I Ex. Rendement de l’éducation
I varianceen productivité propre inobservable✏diffère selon les niveauxhd’éducation atteints
I ln(salairei) =↵+ educationh+Xi +✏i
I aveci2hetvar(✏i) = 2h=fonction(educationh)
I Similaire à l’effet taille
I Faible éducation : salaire proche du minimum I Également :
I Qualité inobservée d’un bien par niveau de prix
I Taux d’épargne par niveau de revenu
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Conséquences
Table des matières
Ch. 3.9i :var(✏i) = i2 : Hétéroscédasticité Définition
Sources Conséquences
Estimer la matrice de variance-covariance
Moindres carrés pondérés “Weighted Least Squares”
Tests
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Conséquences
Propriétés de ˆ
I MCO restent sans biais(X non-stochastique par facilité)
E⇣ ˆ⌘
=E✓⇣
X0X⌘ 1
X0(X +✏)
◆
= +⇣
X0X⌘ 1
X0E(✏) =
I MCOconsistants / convergents (sans démonstration)
I Matrice de variance-covariance des coefficients estimés n’est plus 2⇣
X0X⌘ 1
, mais bien (sandwich)
⌃ˆ=E✓⇣
ˆ ⌘ ⇣
ˆ ⌘0◆
=⇣
X0X⌘ 1 X0E⇣
✏✏0⌘ X⇣
X0X⌘ 1
=⇣
X0X⌘ 1
X0⌃✏X⇣
X0X⌘ 1
I Théorème de Gauss-Markov ne s’applique plus
I MCO n’est plusefficient
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Conséquences
Inférence
I Estimateur MCO ˆ✏0ˆ✏ N k
⇣X0X⌘ 1
est biaisé pour⌃ˆ
I Tests d’hypothèse usuels post-estimation (t-stat, F-stat ou LM)invalides dans leur forme classique
I Le bootstrap reste par contre valide
I asymptotiquement comme toujours
I Comment faire face à ces conséquences ? 2 approches
I Estimer⌃ˆà partir de MCO & refaire l’inférence
I Proposer un estimateuralternatif
I Moindres Carrés Pondérés
I Vise à récupérer l’efficience
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Estimer la matrice de variance-covariance
Table des matières
Ch. 3.9i :var(✏i) = i2 : Hétéroscédasticité Définition
Sources Conséquences
Estimer la matrice de variance-covariance
Moindres carrés pondérés “Weighted Least Squares”
Tests
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Estimer la matrice de variance-covariance
Estimateur robuste White (1980)
I On sait⌃ˆ=⇣
X0X⌘ 1
X0⌃✏X⇣
X0X⌘ 1
sandwich
I Sauf cas particulier,⌃✏ inconnue
I White : Pour obtenir un estimateur de ⌃ˆ, il suffit d’un estimateur deX0⌃✏X (et pas de⌃✏)
I Sous des conditions très générales,S = N1 XN
i=1
ˆ
✏2iXiXi0 est un estimateur consistant de N1X0⌃✏X
I ˆ✏i =yi Xi0ˆMCO résidu MCOi
I Xi vecteur-colonne correspondant à l’observationi deX
I DoncXiXi0 est bienk⇥k
I Expliciter la matriceX0⌃✏X : intuition estimateur de White
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Estimer la matrice de variance-covariance
La matrice X
0⌃
✏X
k⇥k= 2 66 64
x11 x21 . . . xN1
x12 x22 . . . xN2
... ... ... ...
x1k x2k . . . xNk
3 77 75 2 66 64
12 0
22
...
0 2N
3 77 75 2 66 64
x11 x12 . . . x1k
x21 x22 . . . x2k
... ... ... ...
xN1 xN2 · · · xNk
3 77 75
= 2 66 64
12x11 22x21 . . . 2NxN1
12x12 22x22 . . . 2NxN2 ... ... ... ...
12x1k 22x2k . . . N2xNk 3 77 75 2 66 64
x11 x12 . . . x1k
x21 x22 . . . x2k
... ... ... ...
xN1 xN2 · · · xNk
3 77 75
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Estimer la matrice de variance-covariance
La matrice X
0⌃
✏X
k⇥k= 2 66 66 66 66 66 66 64
XN i=1
2ixi12 XN
i=1
i2xi1xi2 . . . XN i=1
2ixi1xik
XN i=1
2ixi22 . . . XN
i=1
i2xi2xi2
... ...
sym
XN i=1
i2xik2 3 77 77 77 77 77 77 75
Comparer avecS = N1 XN
i=1
ˆ
✏2iXiXi0
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Estimer la matrice de variance-covariance
Matrice de variance-covariance “robuste”
I ⌃ˆˆ=N⇣
X0X⌘ 1 S⇣
X0X⌘ 1
consistant pour ⌃ˆ
I Peut-être utilisé pour tests usuels post-estimation
I Écart-types issus de White : “robustes à l’hétéroscédasticité”
I Suggestion : corriger la matrice de White parn/(n k 1)
I Lorsquen ! 1les deux approches sont équivalentes
I L’estimateur de White est seulement consistant
I Pas sans biais
I Valable seulement asymptotiquement
I Sur échantillons de petite taille
I t de Student “de White” n’ont pas une distribution proche du t
I Tests ont peu de puissance
I Utile de voir si Bootstrap mène aux mêmes résultats
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Estimer la matrice de variance-covariance
Matrice de White : logiciels
I La correction par la matrice de White est pré-programmée sur tous les logiciels d’économétrie.
I Sous Gretl, cocher une case dans la boîte de dialogue d’estimation
I Plusieurs variantes à la correction de White, manuel de Gretl pour les détails
I Dans GRETL
I Prenez les donnéeshprice1.gdtdans Gretl Wooldridge
I Régressezlprice surllotsize,lsqrft,bdrms,colonial
I Pour obtenir l’estimation “robuste” des t-stats
I Cocher “erreurs standards robustes” (la constante n’est plus significative)
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Moindres carrés pondérés “Weighted Least Squares”
Table des matières
Ch. 3.9i :var(✏i) = i2 : Hétéroscédasticité Définition
Sources Conséquences
Estimer la matrice de variance-covariance
Moindres carrés pondérés “Weighted Least Squares”
Tests
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Moindres carrés pondérés “Weighted Least Squares”
Moindres carrés pondérés “Weighted Least Squares”
I Approche alternative à celle de White pour traiter l’hétéroscédasticité
I + ancienne
I Disposer d’informations supplémentaires sur la forme de l’hétéroscédasticité rencontrée permet toujours de dériver un estimateur plus efficient que celui donné par l’estimation
“robuste”
I Donc si on connait la forme de l’hétéroscédasticité, on devrait pouvoir obtenir un gain en efficience
I L’idée générale est de transformer les données de sorte à ce que les erreurs deviennent homoscédastiques
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Moindres carrés pondérés “Weighted Least Squares”
Forme de l’hétéroscédasticité connue à une constante près
I Supposons que l’hétéroscédasticité puisse être modélisée sous la forme var(✏|X) = 2h(X)
I On peut alors écrire⌃✏= 2 0 BB BB
@
h1 0 · · · 0
0 h2 ...
... ...
0 · · · hN
1 CC CC A= 2 avechi =h(Xi)>0
I Si on réécrit le modèleY =X +✏
I sous la forme Yi phi
= Xi phi
+ ✏i
phi
I alors le terme d’erreur est homoscédastique
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Moindres carrés pondérés “Weighted Least Squares”
Remarque
I Le résidu MCP est ˆ✏⇤ =Y⇤ X⇤ˆMCP
I Le but de MCP est minimiser la P
des carrés des résidus sur les donnéestransformées :
minˆ✏⇤0ˆ✏⇤ =minP
i
⇣Yi⇤ Xi⇤ˆMCP⌘2
=minP
i
✓ Yi
phi
Xi
phi
ˆMCP◆2
=minP
i
⇣
Yi XiˆMCP⌘2 /hi
I Chaque observation estpondérée par l’inverse de sa variance
I Plus une observation a une variance élevée, moins ellepèse dans la somme des carrés des résidus
I La qualité de l’ajustement (R2) aux données originales n’est donc plus recherchée :R2n’estplus une mesure intéressante
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Moindres carrés pondérés “Weighted Least Squares”
MCP en pratique
I Il faut connaître la forme de l’hétéroscédasticité
I Dans la plupart des cas on ne sait rien sur cette forme
I Il faut donc un estimateur deh(X) ou éventuellement d’autres formesh(X,Z)
I Moindres Carrés PondérésFaisables/Feasible Weighted Least Squares
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Moindres carrés pondérés “Weighted Least Squares”
MCP Faisable
I On suppose une forme simple de type h(Xi) =exp( 0+ 1x1i+ 2x2i +...)
I exp garanti la positivité
I var(✏i|Xi) = 2exp( 0+ 1x1i+ 2x2i+...)
I Comme MCO est sans biais en présence d’hétéroscédasticité, ˆ
✏i2 peut être vu comme une estimation de var(✏i|Xi)
I ˆ✏2i = 2exp( 0+ 1x1i+ 2x2i+...)⌫i;⌫ terme d’erreur
I Estimer ln ✏ˆ2i =↵0+ 1x1i + 2x2i +...+ln(⌫i) par MCO
I On peut rajouter des régresseursZ +X dans cette équation
I Estimation dehi :hˆi =exp⇣ ˆ
↵0+ ˆ1x1i+ ˆ2x2i+...+12ˆ⌫2⌘
I Il faut ajouter un terme en variance au carré parce que exp est non-linéaire (Verbeek) – sans démonstration
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Moindres carrés pondérés “Weighted Least Squares”
Mise en garde sur les MCP faisables
I Dans le doute sur la présence et la forme de l’hétéroscédasticité
I il peut être tentant de prendre une forme usuelle et d’appliquer les MCP
I D’autant plus tentant si le logiciel utilisé propose une procédure simple
I Mais
I Si les termes d’erreurs sont homoscédastiques au départ,
I l’estimateur desMCPF pourra être biaisé et inconsistant
I Par monte-carlo, on voit que ce sont des configurations peu courantes
I Si l’hétéroscédasticité dépend d’une variable inconnue,
I ou ne dépend pas d’une variable,
I il peut être difficile d’apporter une correction significative
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Moindres carrés pondérés “Weighted Least Squares”
Comparaison des deux approches
I Approche 1 : MCP
I ˆMCP 6= ˆMCO
I Approche historique, en principe meilleure que MCO
I Si l’hyp sur forme de l’hétéroscédasticité est correcte
I Permet alors un gain d’efficience
I Mais risques l’hyp est fausse
I Approche 2 : var\⇣ ˆMCO⌘
robuste
I On garde les ˆMCO
I 2.a. White : basé sur un résultat plus récent (1980) que MCP ; requiert une plus grande puissance de calcul
I 2.b. bootstrap : puissance de calcul encore plus grande
I 2.a et 2.b : pas d’hypothèses supplémentaires par rapport à MCO mais seulement valables pour de grands échantillons
I Évite de tester l’hétéroscédasticité
I et de chercher quelle forme elle pourrait prendre
I Renonce au gain potentiel d’efficience
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Moindres carrés pondérés “Weighted Least Squares”
Importance de l’hétéroscédasticité en pratique
I L’hétéroscédasticité est la norme avec les données micro en coupe transversale
I L’homoscédasticité est l’exception
I On va habituellement utiliser White / bootstrap
I Plus rarement MCP / MCG
I Pas aussi évident pour les séries temporelles
I Car c’est toujours la même unité qui est observée
I White est aussi disponible
I Mais existence de modèles alternatifs propres
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Moindres carrés pondérés “Weighted Least Squares”
Exemple dans Gretl
I Prenez les donnéeshprice1.gdt dans Gretl Wooldridge
I Régressez lprice surllotsize,lsqrft,bdrms,colonial
I Moindres Carrés Pondérés : “Modèle” – “autres modèles linéaires” – “MCP”
I Un seul régresseur est associé à l’hét.
I Une façon alternative est “Hétéroscédasticité corrigée” qui impose une correction “à la White”
I c’est-à-dire : l’hét. est approximée à partir d’une regression contenant les régresseurs et leurs carrés
I comme dans le test de White (plus loin)
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Tests
Table des matières
Ch. 3.9i :var(✏i) = i2 : Hétéroscédasticité Définition
Sources Conséquences
Estimer la matrice de variance-covariance
Moindres carrés pondérés “Weighted Least Squares”
Tests
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Tests
Principe des tests d’hétéroscédasticité
I On n’observe jamais les vrais termes d’erreur.
I On les “estime” à partir des résidus de la régression par MCOˆ✏i
I “car” MCO sans biais en présence d’hétéroscédasticité
I 3 tests populaires
I Breusch-Pagan
I White
I Goldfeld-Quandt
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Tests
Test de Breusch-Pagan
I On veut tester H0 :var(✏i|x1i, ...,xki) = 2 8i
I Equivalent à testerH0:E ✏2i|x1i, ...,xki = 28i carE(✏) =0
I Si on suppose que la relation entre✏2i et Xi est suffisamment proche du linéaire
I ✏2i = 0+ 1x1i+...+ kxki+⌫
I Alors testerH0revient à testerH0: 1= 2=...= k =0
I Régresser carré des résidusˆ✏2i sur toutes les variables explicatives X
I Tester significativité globale via la procédure habituelle (F-test ou LM-test)
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Tests
Test de White
I Test de Breusch-Pagan permet de détecter les formes linéaires d’hétéroscédasticité
I Test de White permet de prendre en compte certaines non-linéarités en utilisant les carrés et les produits croisés de toutes les variables explicatives
I Même procédure que Breusch-Pagan
I En introduisant tous lesxj2et lesxjxm
I Et en testant que les paramètres associés sont conjointement significatifs (F-test ou LM-test)
I Rapidement : nombre de paramètres à estimer impraticable. . .
I En proba (5%) erreur type I :¬R H0 fréquente
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Tests
Forme alternative du test de White
I Les valeurs ajustéesyˆi =Xiˆsont fonction de toutes lesX
I yˆ2 est une fonction des carrésxj2et des produits croisésxjxm I yˆ2 peut être utilisé pour représenter les non-linéarités
I On peut utiliseryˆpour représenter tous lesX à la fois
I Procédure
1. Régresser le carré des résidus MCOˆ✏2i sur les valeurs ajustées ˆ
yi etyˆi2
2. F-test ou un LM-test sur la significativité globale de cette régression
I On ne teste plus que les coef. de ces 2 paramètres
I Ce test repose sur une hypothèse forte concernant la forme de l’hétéroscédasticité
I Celle-ci est fonction des variables incluses
I N’impose pas la linéarité de cette forme (on peut étendre aux cubes...)
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Tests
Test de Goldfeld-Quandt
I Dans le cas où la théorie permet d’envisager une hétéroscédasticité causée par une seule explicativexm
1. Trier les observations par les valeurs de la variable explicative soupçonnée source d’hétéroscédasticité
I et donc corrélée avecˆ✏2i
2. Supprimer la partie des données triées qui se trouve au milieu de l’échantillon
I entre1/3et1/5des données
3. Estimations séparées (MCO) sur les deux sous échantillons : hautes et basses valeurs dexm
4. Les rapport des variances estimées des termes d’erreur des deux régressions suit une distribution de Fisher
I GQ= ˆ12
ˆ22 ⇠FN1 K,N2 K
I N1 K = nombre de degrés de liberté de la 1ère régression
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Tests
Exemple dans Gretl
I Prenez les donnéeshprice1.gdt dans Gretl Wooldridge
I Régressez lprice surllotsize,lsqrft,bdrms,colonial
I Pour tester : MCO puis post-estimation
I Gretl propose 2 tests : White (1ºforme), Breusch-Pagan, mais pas Goldfeld-Quandt
I Breusch-PaganR homoscédasticité
I White (1ºforme)¬R
I Difficile de conclure
Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Tests
Devoir #3 Hétéroscédasticité
Conception d’une feuille de tableur pour montrer l’effet de l’hétéroscédasticitésur les coefficients estimés dans une
régression linéaire MCO à deux variablesx1 et x2 et une constante.
1. Générer le terme d’erreur ✏; par exemple pour chaque observation i, générer d’abord un nombre aléatoire
↵i 2[1,10], puis générer ✏i =↵in(0,1)
2. Illustrer que les MCO sont inconsistants ou non lorsqu’il y a hétéroscédasticité
3. Employer la formule classique de calcul de la matrice de variance-covariance des estimations MCO
3.1 (pour les plus motivés) Montrer que la diagonale de cette matrice ne s’approche pas des variances des coefficients estimés en Monte-Carlo