• Aucun résultat trouvé

Économétrie II

N/A
N/A
Protected

Academic year: 2022

Partager "Économétrie II"

Copied!
39
0
0

Texte intégral

(1)

Économétrie II

Ch. 3. Hétéroscédasticité L3 Économétrie – L3 MASS

Prof. Philippe Polomé, U. Lyon 2 Année 2016-2016

(2)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité

Rappel

1. E(✏i) =08i :Espérance nulle 2. var(✏i) = 2 8i :Homoscédasticité

3. cov(✏t,✏s) =08t 6=s :Pas d’auto-corrélation 4. E(✏ixi) =08i :Exogénéité

5. XLa matrice X est de plein rang :Pas de multicolinéarité 6. Le modèle est correctement spécifié

7. La variable dépendante Y est continue

(3)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité

Table des matières

Ch. 3.9i :var(✏i) = i2 : Hétéroscédasticité Définition

Sources Conséquences

Estimer la matrice de variance-covariance

Moindres carrés pondérés “Weighted Least Squares”

Tests

(4)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Définition

Table des matières

Ch. 3.9i :var(✏i) = i2 : Hétéroscédasticité Définition

Sources Conséquences

Estimer la matrice de variance-covariance

Moindres carrés pondérés “Weighted Least Squares”

Tests

(5)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Définition

Définition du problème

I L’hypothèse d’homoscédasticitérequiert que la variance des termes d’erreur soit la mêmepour chaque observation

I Il y a hétéroscédasticité dans le modèle Y =X +✏lorsque :

var(✏) =E⇣

✏✏0

=⌃= 2 66 64

12 0

22

...

0 N2

3 77

756= 2IN

(6)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Définition

Représentation graphique

(7)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Sources

Table des matières

Ch. 3.9i :var(✏i) = i2 : Hétéroscédasticité Définition

Sources Conséquences

Estimer la matrice de variance-covariance

Moindres carrés pondérés “Weighted Least Squares”

Tests

(8)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Sources

Données en moyenne

I S’il y a homoscédasticité dans les données de départ, les données en moyenne seront hétéroscédastiques

I yit avecvar(yit) =18i,t

I Mais on ne dispose que des moyennes T1g P

tyit =yi où Tg

est la taille du groupe

I Par ex : des moyennes régionales de données individuelles

I var(yi) = T12 gvar(P

tyit) = T12 g

P

tvar(yit) = TTg2 g = T1

g : dépend de la taille du groupe

(9)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Sources

Modèle à “coefficients aléatoires”

I Si le modèle sous-jacent est Yi =↵+ ( +µi)xi +✏i

I Par ex. effet de l’éducation sur le salaire

I Alors Yi =↵+ xiixi +✏i =↵+ xi +⌘i

I Et, avec des termes d’erreurs✏i et µi homoscédastiques et indépendant et un régresseurxi non-stochastique, on trouve

I var(⌘i) = 2+ 2µxi hétéroscédastique

I Semblable au cas suivant

(10)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Sources

Régresseur manquant hétéroscédastique

I Si le modèle sous-jacent est yi = 0+ 1x1i+ 2x2i +✏i I Mais le modèle estimé est yi = 0+ 1x1ii

I Alors µi = 2x2i+✏i donc,

I six2i n’est pas corrélé ài,vari) = 22var(x2i) + 2

I six2i n’est pas stochastique (analyse conditionnelle), vari) = 22x2i+ 2

I Hétéroscédastique sauf cas particulier

(11)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Sources

Effet taille

I La variance est une mesure absolue, pas relative

I Imaginons que le CA de toutes les entreprises varie de 10%

I 10% est un grand nombre pour une grande entreprise

I Part du revenu disponible dépensé en loisirs

I Les familles à faibles revenus dépensent relativement peu en loisirs. Les variations de ces dépenses entre ces familles sont donc faibles

I Pour les familles avec des revenus importants, le montant moyen relatif dépensé en loisirs sera plus élevé, et il y aura une plus grande variabilité entre de telles familles

(12)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Sources

Variables explicatives de la variance

I Un régresseur définit des groupesde variances différentes dans la variable expliquée

I Ex. Rendement de l’éducation

I varianceen productivité propre inobservablediffère selon les niveauxhd’éducation atteints

I ln(salairei) =+ educationh+Xi +i

I aveci2hetvar(✏i) = 2h=fonction(educationh)

I Similaire à l’effet taille

I Faible éducation : salaire proche du minimum I Également :

I Qualité inobservée d’un bien par niveau de prix

I Taux d’épargne par niveau de revenu

(13)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Conséquences

Table des matières

Ch. 3.9i :var(✏i) = i2 : Hétéroscédasticité Définition

Sources Conséquences

Estimer la matrice de variance-covariance

Moindres carrés pondérés “Weighted Least Squares”

Tests

(14)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Conséquences

Propriétés de ˆ

I MCO restent sans biais(X non-stochastique par facilité)

E⇣ ˆ⌘

=E✓⇣

X0X⌘ 1

X0(X +✏)

= +⇣

X0X⌘ 1

X0E(✏) =

I MCOconsistants / convergents (sans démonstration)

I Matrice de variance-covariance des coefficients estimés n’est plus 2

X0X⌘ 1

, mais bien (sandwich)

ˆ=E✓⇣

ˆ ⌘ ⇣

ˆ ⌘0

=⇣

X0X⌘ 1 X0E⇣

✏✏0⌘ X⇣

X0X⌘ 1

=⇣

X0X⌘ 1

X0X⇣

X0X⌘ 1

I Théorème de Gauss-Markov ne s’applique plus

I MCO n’est plusefficient

(15)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Conséquences

Inférence

I Estimateur MCO ˆ✏0ˆ✏ N k

⇣X0X⌘ 1

est biaisé pour⌃ˆ

I Tests d’hypothèse usuels post-estimation (t-stat, F-stat ou LM)invalides dans leur forme classique

I Le bootstrap reste par contre valide

I asymptotiquement comme toujours

I Comment faire face à ces conséquences ? 2 approches

I Estimerˆà partir de MCO & refaire l’inférence

I Proposer un estimateuralternatif

I Moindres Carrés Pondérés

I Vise à récupérer l’efficience

(16)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Estimer la matrice de variance-covariance

Table des matières

Ch. 3.9i :var(✏i) = i2 : Hétéroscédasticité Définition

Sources Conséquences

Estimer la matrice de variance-covariance

Moindres carrés pondérés “Weighted Least Squares”

Tests

(17)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Estimer la matrice de variance-covariance

Estimateur robuste White (1980)

I On sait⌃ˆ=⇣

X0X⌘ 1

X0X⇣

X0X⌘ 1

sandwich

I Sauf cas particulier,⌃ inconnue

I White : Pour obtenir un estimateur de ⌃ˆ, il suffit d’un estimateur deX0X (et pas de⌃)

I Sous des conditions très générales,S = N1 XN

i=1

ˆ

2iXiXi0 est un estimateur consistant de N1X0X

I ˆi =yi Xi0ˆMCO résidu MCOi

I Xi vecteur-colonne correspondant à l’observationi deX

I DoncXiXi0 est bienkk

I Expliciter la matriceX0X : intuition estimateur de White

(18)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Estimer la matrice de variance-covariance

La matrice X

0

X

kk

= 2 66 64

x11 x21 . . . xN1

x12 x22 . . . xN2

... ... ... ...

x1k x2k . . . xNk

3 77 75 2 66 64

12 0

22

...

0 2N

3 77 75 2 66 64

x11 x12 . . . x1k

x21 x22 . . . x2k

... ... ... ...

xN1 xN2 · · · xNk

3 77 75

= 2 66 64

12x11 22x21 . . . 2NxN1

12x12 22x22 . . . 2NxN2 ... ... ... ...

12x1k 22x2k . . . N2xNk 3 77 75 2 66 64

x11 x12 . . . x1k

x21 x22 . . . x2k

... ... ... ...

xN1 xN2 · · · xNk

3 77 75

(19)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Estimer la matrice de variance-covariance

La matrice X

0

X

kk

= 2 66 66 66 66 66 66 64

XN i=1

2ixi12 XN

i=1

i2xi1xi2 . . . XN i=1

2ixi1xik

XN i=1

2ixi22 . . . XN

i=1

i2xi2xi2

... ...

sym

XN i=1

i2xik2 3 77 77 77 77 77 77 75

Comparer avecS = N1 XN

i=1

ˆ

2iXiXi0

(20)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Estimer la matrice de variance-covariance

Matrice de variance-covariance “robuste”

I ⌃ˆˆ=N⇣

X0X⌘ 1 S⇣

X0X⌘ 1

consistant pour ⌃ˆ

I Peut-être utilisé pour tests usuels post-estimation

I Écart-types issus de White : “robustes à l’hétéroscédasticité”

I Suggestion : corriger la matrice de White parn/(n k 1)

I Lorsquen ! 1les deux approches sont équivalentes

I L’estimateur de White est seulement consistant

I Pas sans biais

I Valable seulement asymptotiquement

I Sur échantillons de petite taille

I t de Student “de White” n’ont pas une distribution proche du t

I Tests ont peu de puissance

I Utile de voir si Bootstrap mène aux mêmes résultats

(21)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Estimer la matrice de variance-covariance

Matrice de White : logiciels

I La correction par la matrice de White est pré-programmée sur tous les logiciels d’économétrie.

I Sous Gretl, cocher une case dans la boîte de dialogue d’estimation

I Plusieurs variantes à la correction de White, manuel de Gretl pour les détails

I Dans GRETL

I Prenez les donnéeshprice1.gdtdans Gretl Wooldridge

I Régressezlprice surllotsize,lsqrft,bdrms,colonial

I Pour obtenir l’estimation “robuste” des t-stats

I Cocher “erreurs standards robustes” (la constante n’est plus significative)

(22)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Moindres carrés pondérés “Weighted Least Squares”

Table des matières

Ch. 3.9i :var(✏i) = i2 : Hétéroscédasticité Définition

Sources Conséquences

Estimer la matrice de variance-covariance

Moindres carrés pondérés “Weighted Least Squares”

Tests

(23)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Moindres carrés pondérés “Weighted Least Squares”

Moindres carrés pondérés “Weighted Least Squares”

I Approche alternative à celle de White pour traiter l’hétéroscédasticité

I + ancienne

I Disposer d’informations supplémentaires sur la forme de l’hétéroscédasticité rencontrée permet toujours de dériver un estimateur plus efficient que celui donné par l’estimation

“robuste”

I Donc si on connait la forme de l’hétéroscédasticité, on devrait pouvoir obtenir un gain en efficience

I L’idée générale est de transformer les données de sorte à ce que les erreurs deviennent homoscédastiques

(24)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Moindres carrés pondérés “Weighted Least Squares”

Forme de l’hétéroscédasticité connue à une constante près

I Supposons que l’hétéroscédasticité puisse être modélisée sous la forme var(✏|X) = 2h(X)

I On peut alors écrire⌃= 2 0 BB BB

@

h1 0 · · · 0

0 h2 ...

... ...

0 · · · hN

1 CC CC A= 2 avechi =h(Xi)>0

I Si on réécrit le modèleY =X +✏

I sous la forme Yi phi

= Xi phi

+ i

phi

I alors le terme d’erreur est homoscédastique

(25)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Moindres carrés pondérés “Weighted Least Squares”

Remarque

I Le résidu MCP est ˆ✏ =Y XˆMCP

I Le but de MCP est minimiser la P

des carrés des résidus sur les donnéestransformées :

minˆ✏0ˆ✏ =minP

i

⇣Yi XiˆMCP2

=minP

i

✓ Yi

phi

Xi

phi

ˆMCP2

=minP

i

Yi XiˆMCP2 /hi

I Chaque observation estpondérée par l’inverse de sa variance

I Plus une observation a une variance élevée, moins ellepèse dans la somme des carrés des résidus

I La qualité de l’ajustement (R2) aux données originales n’est donc plus recherchée :R2n’estplus une mesure intéressante

(26)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Moindres carrés pondérés “Weighted Least Squares”

MCP en pratique

I Il faut connaître la forme de l’hétéroscédasticité

I Dans la plupart des cas on ne sait rien sur cette forme

I Il faut donc un estimateur deh(X) ou éventuellement d’autres formesh(X,Z)

I Moindres Carrés PondérésFaisables/Feasible Weighted Least Squares

(27)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Moindres carrés pondérés “Weighted Least Squares”

MCP Faisable

I On suppose une forme simple de type h(Xi) =exp( 0+ 1x1i+ 2x2i +...)

I exp garanti la positivité

I var(✏i|Xi) = 2exp( 0+ 1x1i+ 2x2i+...)

I Comme MCO est sans biais en présence d’hétéroscédasticité, ˆ

i2 peut être vu comme une estimation de var(✏i|Xi)

I ˆ2i = 2exp( 0+ 1x1i+ 2x2i+...)i; terme d’erreur

I Estimer ln ✏ˆ2i =↵0+ 1x1i + 2x2i +...+ln(⌫i) par MCO

I On peut rajouter des régresseursZ +X dans cette équation

I Estimation dehi :hˆi =exp⇣ ˆ

0+ ˆ1x1i+ ˆ2x2i+...+12ˆ2

I Il faut ajouter un terme en variance au carré parce que exp est non-linéaire (Verbeek) – sans démonstration

(28)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Moindres carrés pondérés “Weighted Least Squares”

Mise en garde sur les MCP faisables

I Dans le doute sur la présence et la forme de l’hétéroscédasticité

I il peut être tentant de prendre une forme usuelle et d’appliquer les MCP

I D’autant plus tentant si le logiciel utilisé propose une procédure simple

I Mais

I Si les termes d’erreurs sont homoscédastiques au départ,

I l’estimateur desMCPF pourra être biaisé et inconsistant

I Par monte-carlo, on voit que ce sont des configurations peu courantes

I Si l’hétéroscédasticité dépend d’une variable inconnue,

I ou ne dépend pas d’une variable,

I il peut être difficile d’apporter une correction significative

(29)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Moindres carrés pondérés “Weighted Least Squares”

Comparaison des deux approches

I Approche 1 : MCP

I ˆMCP 6= ˆMCO

I Approche historique, en principe meilleure que MCO

I Si l’hyp sur forme de l’hétéroscédasticité est correcte

I Permet alors un gain d’efficience

I Mais risques l’hyp est fausse

I Approche 2 : var\⇣ ˆMCO

robuste

I On garde les ˆMCO

I 2.a. White : basé sur un résultat plus récent (1980) que MCP ; requiert une plus grande puissance de calcul

I 2.b. bootstrap : puissance de calcul encore plus grande

I 2.a et 2.b : pas d’hypothèses supplémentaires par rapport à MCO mais seulement valables pour de grands échantillons

I Évite de tester l’hétéroscédasticité

I et de chercher quelle forme elle pourrait prendre

I Renonce au gain potentiel d’efficience

(30)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Moindres carrés pondérés “Weighted Least Squares”

Importance de l’hétéroscédasticité en pratique

I L’hétéroscédasticité est la norme avec les données micro en coupe transversale

I L’homoscédasticité est l’exception

I On va habituellement utiliser White / bootstrap

I Plus rarement MCP / MCG

I Pas aussi évident pour les séries temporelles

I Car c’est toujours la même unité qui est observée

I White est aussi disponible

I Mais existence de modèles alternatifs propres

(31)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Moindres carrés pondérés “Weighted Least Squares”

Exemple dans Gretl

I Prenez les donnéeshprice1.gdt dans Gretl Wooldridge

I Régressez lprice surllotsize,lsqrft,bdrms,colonial

I Moindres Carrés Pondérés : “Modèle” – “autres modèles linéaires” – “MCP”

I Un seul régresseur est associé à l’hét.

I Une façon alternative est “Hétéroscédasticité corrigée” qui impose une correction “à la White”

I c’est-à-dire : l’hét. est approximée à partir d’une regression contenant les régresseurs et leurs carrés

I comme dans le test de White (plus loin)

(32)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Tests

Table des matières

Ch. 3.9i :var(✏i) = i2 : Hétéroscédasticité Définition

Sources Conséquences

Estimer la matrice de variance-covariance

Moindres carrés pondérés “Weighted Least Squares”

Tests

(33)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Tests

Principe des tests d’hétéroscédasticité

I On n’observe jamais les vrais termes d’erreur.

I On les “estime” à partir des résidus de la régression par MCOˆ✏i

I “car” MCO sans biais en présence d’hétéroscédasticité

I 3 tests populaires

I Breusch-Pagan

I White

I Goldfeld-Quandt

(34)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Tests

Test de Breusch-Pagan

I On veut tester H0 :var(✏i|x1i, ...,xki) = 2 8i

I Equivalent à testerH0:E 2i|x1i, ...,xki = 28i carE(✏) =0

I Si on suppose que la relation entre✏2i et Xi est suffisamment proche du linéaire

I 2i = 0+ 1x1i+...+ kxki+

I Alors testerH0revient à testerH0: 1= 2=...= k =0

I Régresser carré des résidusˆ✏2i sur toutes les variables explicatives X

I Tester significativité globale via la procédure habituelle (F-test ou LM-test)

(35)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Tests

Test de White

I Test de Breusch-Pagan permet de détecter les formes linéaires d’hétéroscédasticité

I Test de White permet de prendre en compte certaines non-linéarités en utilisant les carrés et les produits croisés de toutes les variables explicatives

I Même procédure que Breusch-Pagan

I En introduisant tous lesxj2et lesxjxm

I Et en testant que les paramètres associés sont conjointement significatifs (F-test ou LM-test)

I Rapidement : nombre de paramètres à estimer impraticable. . .

I En proba (5%) erreur type I :¬R H0 fréquente

(36)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Tests

Forme alternative du test de White

I Les valeurs ajustéesyˆi =Xiˆsont fonction de toutes lesX

I yˆ2 est une fonction des carrésxj2et des produits croisésxjxm I yˆ2 peut être utilisé pour représenter les non-linéarités

I On peut utiliseryˆpour représenter tous lesX à la fois

I Procédure

1. Régresser le carré des résidus MCOˆ2i sur les valeurs ajustées ˆ

yi etyˆi2

2. F-test ou un LM-test sur la significativité globale de cette régression

I On ne teste plus que les coef. de ces 2 paramètres

I Ce test repose sur une hypothèse forte concernant la forme de l’hétéroscédasticité

I Celle-ci est fonction des variables incluses

I N’impose pas la linéarité de cette forme (on peut étendre aux cubes...)

(37)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Tests

Test de Goldfeld-Quandt

I Dans le cas où la théorie permet d’envisager une hétéroscédasticité causée par une seule explicativexm

1. Trier les observations par les valeurs de la variable explicative soupçonnée source d’hétéroscédasticité

I et donc corrélée avecˆ2i

2. Supprimer la partie des données triées qui se trouve au milieu de l’échantillon

I entre1/3et1/5des données

3. Estimations séparées (MCO) sur les deux sous échantillons : hautes et basses valeurs dexm

4. Les rapport des variances estimées des termes d’erreur des deux régressions suit une distribution de Fisher

I GQ= ˆ12

ˆ22 FN1 K,N2 K

I N1 K = nombre de degrés de liberté de la 1ère régression

(38)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Tests

Exemple dans Gretl

I Prenez les donnéeshprice1.gdt dans Gretl Wooldridge

I Régressez lprice surllotsize,lsqrft,bdrms,colonial

I Pour tester : MCO puis post-estimation

I Gretl propose 2 tests : White (1ºforme), Breusch-Pagan, mais pas Goldfeld-Quandt

I Breusch-PaganR homoscédasticité

I White (1ºforme)¬R

I Difficile de conclure

(39)

Ch. 3.9i:var(✏i) = 2i : Hétéroscédasticité Tests

Devoir #3 Hétéroscédasticité

Conception d’une feuille de tableur pour montrer l’effet de l’hétéroscédasticitésur les coefficients estimés dans une

régression linéaire MCO à deux variablesx1 et x2 et une constante.

1. Générer le terme d’erreur ✏; par exemple pour chaque observation i, générer d’abord un nombre aléatoire

i 2[1,10], puis générer ✏i =↵in(0,1)

2. Illustrer que les MCO sont inconsistants ou non lorsqu’il y a hétéroscédasticité

3. Employer la formule classique de calcul de la matrice de variance-covariance des estimations MCO

3.1 (pour les plus motivés) Montrer que la diagonale de cette matrice ne s’approche pas des variances des coefficients estimés en Monte-Carlo

Références

Documents relatifs

On pousse tous les bits d'un cran (ou de plusieurs si on remplace 1 par n) vers la droite (on perd donc des données de ce côté), on complète par des zéros sur la gauche. On obtient

I Il faut bien rester conscient que certaines variables peuvent capter des effets plus larges “confondants” que ce pourquoi elles sont incluses dans le modèle.. Table

Pour ce faire, nous allons nous intéresser aux multiples de 3 inférieurs à 1000 en les classant suivant la puissance de 3 dont ils

1/ Dans un tube à essai, verse le sirop (de menthe ou grenadine) sur environ 2 cm de hauteur, sans qu’il touche les bords de ton verre.. 2/ Verse ensuite, très délicatement, en

On note que 31250 est le premier entier pour lequel la fonction f qui à un entier associe le logarithme en base dix de la plus grande puissance de 10 formée par un produit

Les sommes des deux entiers contenus dans tous les dominos, horizontaux ou verticaux, constitués de deux cases adjacentes sont toutes différentes.. Déterminer en fonction de n la

Autant, o:l sinon plus que pour les st·icnccs, cette expérimentation doit être à la base de noire enseignement mathématique... D'abord parce qu'on mesure bien

Pour mieux comprendre notre demande d’une plus grande transparence sur la méthodologie des sondages électoraux, en particulier sur la « marge d’erreur » et le «