• Aucun résultat trouvé

Économétrie II

N/A
N/A
Protected

Academic year: 2022

Partager "Économétrie II"

Copied!
40
0
0

Texte intégral

(1)

Économétrie II

Ch. 1. Rappels de Concepts L3 Économétrie – L3 MASS

Pr. Philippe Polomé, U. Lyon 2 Année 2015-2016

(2)

Table des matières

Ch. 1. Rappels de Concepts

Modèle de Régression Linéaire (MRL) formel Causalité contre corrélation

Distribution d’échantillonnage & propriétés d’un estimateur

(3)

Ch. 1. Rappels de Concepts

Modèle de Régression Linéaire (MRL) formel

Notations

I Yi = 0+ 1X1i+...+ kXki+✏i

I i=1...I indexe les observations

I tséries temporelles,noui coupes transversales

I Y variable endogène, expliquée, dépendante

I Xj avecj=1...k variable explicative ou causale, régresseur

I pas nécessairement exogène

I E(Yi) = 0+ 1X1i +...+ kXki

I (sans le✏)théorie (causale)

I j mesure quantitativement l’influence deXj surY

I j pentede la droite selonXj

I 0 constante, terme indépendant ou intercept

I vecteur de coefficients du modèle

(4)

Notations

I Terme d’erreur ✏ou µ

I Interprétations : erreurs de mesures, régresseurs inobservables ou manquants, facteurs aléatoires...

I Tous les modèles économétriques sontstochastiques

I Notation matricielle Y =X +✏

I On observeY etX

I L’économétrie est un ensemble de techniques pourestimer à partir deY et deX

I Chaque technique = une formule, qu’on appelle

« estimateur» et qu’on note avec un chapeau

I Exemple « Moindres carrés ordinaire » ˆ =

X0X 1

X0Y

I 9estimateurs « maximum de vraisemblance », « méthode des moments », « variables instrumentales », « moindres carrés généralisés »...

(5)

Ch. 1. Rappels de Concepts

Modèle de Régression Linéaire (MRL) formel

Notations

I Prédiction avec un chapeauYˆ 8 les estimateurs

I Yˆ =Xˆavec MCO p.e.

I Toujours erreur de prédiction

I X 2échantillon : “Valeur ajustée”

I On n’observe jamais le terme d’erreur ✏

I (Y,X)2échantillon : calcul durésiduˆ=Y Yˆ =Y Xˆ

I Résidu s’écrit parfois e et peut se nommer « erreur »

I Porte à confusion

(6)

Exemple simple

(7)

Ch. 1. Rappels de Concepts

Modèle de Régression Linéaire (MRL) formel

Ce qu’on a et ce qu’on veut faire

I Modèle causal stochastique

I S’il fait plus chaud (X : température), la consommation de crème glacée (Y) augmente, toutes autres choses (✏) égales

I Yt = 1+ 2Xt+t

I pour chaquet=1...T

I avec erreurs aléatoires non-observablest (pas toute autres choses égales)

I Série temporelle courte'coupe transversale I On a des données

I VariableY

I Une ou plusieurs variablesX1...Xk explicatives

I On veut

I Quantifier l’influence deX surY

I PrédireY conditionnellement à certaines valeurs pourX

I Comment faire ?

(8)

Intuition 1 : Droite qui “passe au mieux”

(9)

Ch. 1. Rappels de Concepts

Modèle de Régression Linéaire (MRL) formel

Intuition 1 : Droite qui “passe au mieux”

I Yt = 1+ 2Xt+✏t pour chaquet =1...T

I On suppose que c’est une bonne approximation de la relation réelle

I = événement aléatoirenon-mesuréet non-systématique

I pas corrélé avecX

I ˆde t.q. la droiteYt = ˆ1+ ˆ2Xt “passe au mieux” dans le nuage de points

I C’est du dessin : minimisation des distances euclidiennes

I Soit le résiduˆ=Y Xˆ

I Cherche le vecteur de nombres ˆ t.q. somme des carrés des résidusPT

t=1

Yt Xtˆ2

est minimale

I Réponse ˆ =

X0X 1

X0Y : estimateur moindres carrés

(10)

Intuition 1 : Logiciels

I L’exemple dans Tableur Icecream_inverse_TCD.ods

I Dessin

I Calcul matriciel

I L’exemple dans Gretl

(11)

Ch. 1. Rappels de Concepts

Modèle de Régression Linéaire (MRL) formel

Intuition 2 : “Inversion” de Y = X + ✏

I Imaginons que✏=0 et queX soit carrée et inversible

I Alors9 X 1telle queX 1X =I

I =X 1Y s’obtient par inversion

I système d’équations linéaires

I Mais ✏6=0 etX pas carrée! « Généralisation » de l’inverse

I Prémultiplier parX0, on a X0Y =X0X +X0

I X0X est carrée et “souvent” inversible

I À condition d’absence de multicolinéarité

I Hypothèse:X0=0 covariance zéro

I AlorsX0Y =X0X et donc =

X0X 1

X0Y

I exactement : et non ˆ

(12)

Intuition 2 : “Inversion” de Y = X + ✏

I En général, X0✏6=0 mais

I Si on peut supposer queX00 en un sens stochastique

I au moins lorsque la taille de l’échantillon! 1

I Alors on peut écrire ˆ =

X0X 1

X0Y

I dans le sens où ˆest une approximation de quandn! 1 I L’inversion est une intuition d’un autre estimateur

I Méthode des moments

(13)

Ch. 1. Rappels de Concepts

Modèle de Régression Linéaire (MRL) formel

Estimateur Méthode des Moments MM

I Soit Aun estimateur de , alors on peut écrireY XA= ˆ✏

I Hypothèse exogénéitéE(✏|X) =0

I =) E(X✏) =0 (corrélation nulle8régresseurs)

I Stratégie MM

I Cettehypothèsesur les moments de la pop. est imposéeaux moments de l’échantillon : on veutAt.q.X0ˆ=0

I Donc :X0(Y XA) =0 : CPO des MCO

I Alors A= (X0X) 1X0Y = ˆ:

I Estimateur MM = estimateur MCO pour le MRLY =X +

I X0ˆ=X0

Y X

X0X 1

X0Y

=0 par construction

I Mais la méthode des moments s’applique pareillement à des modèles non linéairesY =g(X, ) +

I Et le principe est très différent

(14)

Prédiction & effet marginal

I Un objectif était de prédire au mieux les ventes de crème glacée en fonction de la température

I La prédiction se trouve sur la droite : Yˆ =Xˆ

I Aussi bien pour MCO que pour MM dans ce cas-ci

I Un 2nd objectif était la quantification de l’influence deX surY

I @Y/@X1estimé= ˆ1 = coefficient estimé deX1= pente de la droite

I 1 = effet (constant) d’un changement marginal dex1 sury

(15)

Ch. 1. Rappels de Concepts Causalité contre corrélation

Table des matières

Ch. 1. Rappels de Concepts

Modèle de Régression Linéaire (MRL) formel Causalité contre corrélation

Distribution d’échantillonnage & propriétés d’un estimateur

(16)

Causalité contre corrélation

I Modèle causal : X causeY,X influenceY,X ⇢y

I Pas le contraire

I Ce n’est pas la même chose qu’une corrélation

I X corrélé àY ,Y corrélé àX

I Dans l’exemple des ventes de crème glacée, la température cause les ventes

I Un accroissement de température provoque un accroissement de demande

I Ce n’est pas parce que les gens mangent plus de glaces que la température va augmenter

(17)

Ch. 1. Rappels de Concepts Causalité contre corrélation

Simultanéité

Dans des modèles plus sophistiqués, causalité pas évidente

I En macro, le taux de change agit-il sur la balance commerciale ou est-ce l’inverse ?

I En marketing, au niveau de la firme, les ventes et les dépenses de publicité sont dites simultanées

I chacune est cause de l’autre

I La demande d’un produit (quantité) dépend du prix, mais l’inverse est vrai aussi (simultanéité)

(18)

Régression inverse

I La régression ne mesure que des corrélations

I Ne peut queconfirmer ou infirmerun modèle théorique

I Uniquement dans un sens statistique : pour un certain jeu de données, le modèle est confirmé/infirmé

I 9tests de causalité applicables dans certaines circonstances

I Certaines données (panel p.e.) permettent d’être plus sûr de la causalité

I Changements expliquent changements

I Exemple de régression inverse dans le cas des crèmes glacées : X1 = 1+ 2Y +✏

I TableurIcecream_inverse_TCD.ods

(19)

Ch. 1. Rappels de Concepts Causalité contre corrélation

Exemple des cigognes

I Fisher, 1936

I Copenhagen, décennie post WWI

I En réalité : constructions importantes et migration des campagnes

I Exemple de régression fallacieuse spurieuse (spurious)

(20)

Pq les cigognes sont-elles associées aux bébés ?

I Oiseau migrateur européen

I Part à l’automne et revient en Europe centre & nord début avril

I Soit 9 mois après le solstice d’été (21 juin / Saint Jean) environ

I Le solstice d’été était un important festival païen, où les gens se mariaient beaucoup

(21)

Ch. 1. Rappels de Concepts Causalité contre corrélation

Les moyennes conditionnelles

I Exemple de tableau croisé dynamique / Pivot table dans Excel

I Google “Excel 25 easy PivotTable reports”

I TableurIcecream_inverse_TCD.ods

I Les moyennes conditionnelles sont des moyennes (arithmétiques simples) calculées par groupedans l’échantillon

I P.e. les ventes moyennes par vendeur dans une entreprise

I Il est facile de croire que les différences entre moyennes conditionnelles sont dues aux “conditionneurs”

I P.e. les ventes de Smith sont plus élevées que celles de González parce que Smith est meilleur vendeur que González

I Mais il ne s’agit que d’une corrélation, pas d’une causalité

I P.e. les ventes de Smith sont plus élevées parce qu’il est sur un plus grand territoire

I Pas “toutes autres choses égales” /ceteris paribus

(22)

Causalité : conclusion

I L’économétrie, les moyennes conditionnelles, les corrélations ne servent qu’à quantifier, pas à expliquer

I De telles quantifications peuvent confirmer ou infirmer une théorie dans un sens probabiliste

I Il ne faut pas accepter n’importe quel résultat juste parce qu’il a été obtenu par des méthodes sophistiquées

I L’hypothèse de causalité

I Est commune à tous les modèles économétriques

I La tester est l’objectif principal de l’économétrie

(23)

Ch. 1. Rappels de Concepts

Distribution d’échantillonnage & propriétés d’un estimateur

Table des matières

Ch. 1. Rappels de Concepts

Modèle de Régression Linéaire (MRL) formel Causalité contre corrélation

Distribution d’échantillonnage & propriétés d’un estimateur

(24)

Chaque échantillon est aléatoire

I Exemple de la vente de crème glacée sur la plage

I Un autre vendeur sur autre plage aurait récolté des données différentes

I La méthodologie présentée auparavant est applicable de même

I Le modèle est le même ... mais les valeurs des coefficients seront différentes dans les deux cas !

I Echantillon aléatoire ) ˆaléatoire alors que ne l’est pas !

I Quel est le ˆcorrect ? Tous les deux sont corrects

I Tous les deux sont entachés d’une marge d’erreur par rapport au « vrai » coefficient

I On va illustrer comment fluctuent les ˆ

I Distribution d’échantillonnage

(25)

Ch. 1. Rappels de Concepts

Distribution d’échantillonnage & propriétés d’un estimateur

Simulation de Monte-Carlo Monte Carlo.ods

I On génère des données artificielles afin d’illustrer certains outils théoriques dans un cadre contrôlé

I Fonctionalea() / rand(): crée une valeur tirée d’une v. a. de distribution uniforme entre 0 et 1

I sqrt(-2*ln(alea()))*sin(2*pi()*alea())crée une valeurn(0,1)

I Avec ces fonctions, on génèreX etµ

I Calculer Y =2 3X+µ(ou tout autre choix de coefficient)

I Générer ainsi 10 lignes (par exemple)

I En utilisant Y et X on estime ˆ

I On voit bien que ˆ6=

I En recommençant l’opération, on crée des vecteurs ˆi qui sont tousdifférents les uns des autres et de

I Les ˆi sont tous aléatoires, ne l’est pas

I est aléatoire

I X est aléatoire, mais l’analyse est conditionnelle àX

I Comme siX était constant

(26)

Distribution d’échantillonnage

I ˆaléatoire : conséquences

I Pas de garantie d’être proche des vraies valeurs

I ˆsuit une distribution

I La valeur de ˆchange avec chaque échantillon :distribution d’échantillonnage

I Comme toute distribution, elle a desmoments: moyenne, variance,...

I Selon les valeurs atteintes par ces moments, l’estimateur a des propriétés plus ou moins bonnes

I Un estimateur sera jugé meilleur qu’un autre si ses propriétés sont meilleures

I On va voir pour MCO dans le MRL

(27)

Ch. 1. Rappels de Concepts

Distribution d’échantillonnage & propriétés d’un estimateur

Distribution d’échantillonnage de ˆ

1

dans Monte Carlo.ods

I Vraie valeur 1.5

I Moyenne 1.57...

I Écart type 4.55...

I n=835

(28)

Modèle de régression linéaire : 7 hypothèses

Les circonstances dans lesquelles MCO est un “bon” estimateur

I Modèle de Régression Linéaire (MRL)Y =X +✏

I 7 hypothèses classiques (+ celle de causalité)

I Lorsqu’elles sont vérifiées, l’estimateur MCO possède des propriétés désirables

I Dans quels cas ne sont-elles pas satisfaites ?

I Conséquences sur l’estimateur ?

I Peut-on “réparer” ?

I Proposer un estimateur alternatif, transformer les données...

(29)

Ch. 1. Rappels de Concepts

Distribution d’échantillonnage & propriétés d’un estimateur

MRL Y = X + ✏ : hypothèses 1-4

1. E(✏i) =08i : les erreurs ont uneespérance nulle

2. var(✏i) = 2 8i : la variance de chaque erreur est la même et est réelle =Homoscédasticité

3. cov(✏t,✏s) =08t 6=s : les erreurs sont indépendantes entre elles = Pas d’auto-corrélation

I 1+2+3 = “Sphéricité des erreurs”

4. E(✏ixi) =08i : il n’y a pas de corrélation contemporaine (mêmei) entre l’erreur et chaque régresseur =Exogénéité

(30)

Figure:MRLY =X +: Illustration graphique des 4 hyp. sur l’erreur

Tiré de Wooldridge

(31)

Ch. 1. Rappels de Concepts

Distribution d’échantillonnage & propriétés d’un estimateur

MRL Y = X + ✏ : hypothèses 5-7

I 5. X de plein rang

I Aucun régresseur ne peut s’écrire comme une combinaison linéaire des autres régresseurs

I Sinon :colinéaritéparfaite des régresseurs

I X0X pas inversible I 6. MRL correctement spécifié

I La réalité est effectivement linéaire en les coefficients (forme fonctionnelle)

I non stochastiques

I Il ne manque aucun régresseurpertinent

I 7.Y continue

I Pas qualitative : 0/1 ou bien A, B, C, D

I Pas discrète : 0,1,2,3...

I Pas tronquée/censurée : [3,12] ou [-1,+1]

I Hypothèses MRL pas respectées )MCO perd certaines/toutes propriétés

(32)

MRL Y = X + ✏ : Propriétés de l’estimateur MCO

Table:Propriétés de l’estimateur MCO lorsque toutes les hypothèses du MRL sont respectées

Moment* n petit n! 1

Espérance biais consistance Variance efficience efficience asymptotique

* de la distribution d’échantillonnage

(33)

Ch. 1. Rappels de Concepts

Distribution d’échantillonnage & propriétés d’un estimateur

Propriété 1 de MCO dans le MRL : absence de biais

I L’espérance de l’estimateurE⇣ ˆ⌘

=

I L’estimateur est ditnon-biaisé

I Preuve math en annexe

I La moyenne des coefficients estimés (sur l’ensemble des échantillons simulés) tend à se rapprocher des vraies valeurs

I « En moyenne, cet estimateur ne se trompe pas »

I E ˆ

moyenne ˆ

lorsqu’il y a beaucoup d’échantillons

I Illustré dansMonte Carlo.ods

I ˆMCO est non-biaisé

(34)

Propriété 2 de MCO dans MRL : consistance / convergence

I Plus la taille de l’échantillon grandit, plus les coefficients estimés tendent à se rapprocher des vraies valeurs

I L’estimateur est ditconsistant

I Souvent “convergent” en français

I Lorsque la taille de l’échantillon tend vers l’infini, les

coefficients estimés convergent (en probabilité) vers les vraies valeurs

I On écrit :Plim ˆ

=

I Preuve math assez compliquée

I Plus facile à illustrer dans un TableurMonte Carlo.ods

I ˆMCO est consistant

(35)

Ch. 1. Rappels de Concepts

Distribution d’échantillonnage & propriétés d’un estimateur

Propriétés 3-4 de MCO dans le MRL : efficience

I Théorème de Gauss-Markov :var⇣ ˆ⌘

est la plus petite de tous les estimateurs linéaires non-biaisés

I ˆMCO estBLUE=efficient

I Théorème de Cramer-Rao: ˆest le plus efficient de tous les estimateurs consistants

I ˆMCO estasymptotiquement efficient= atteint la borne inférieure de Cramer-Rao

I L’efficience d’un estimateur est sa précision

I Inverse de sa variance

I L’efficience estcomparative

I Un estimateur ˆest plus efficient qu’un estimateur ˜si var

˜ var

ˆ

est une matrice sdp

(36)

Devoir #1 : Monte-Carlo

I Réaliser votre propre exemple de Monte Carlo dans un tableur

I Avec 2 régresseurs, un distribué uniformément dans[0,1] et l’autre distribué normalementn(0,1), une constante et un terme d’erreur distribuén(0,1)

I Choisissez les valeurs des coefficients

I Tout le monde devrait avoir des chiffres différents

I Calculez les coefficients explicitement avec les formules

I X0X sera 3x3 et ˆsera 3x1

I Calculez le R2

I Répliquer l’opération avec des tailles d’échantillons croissantes pour monter la consistance de l’estimateur

I Les devoirs ne sont ni notés ni corrigés, mais ils sont matières d’examen

I Si vous avez des difficultés à les faire, on en discute en cours

(37)

Ch. 1. Rappels de Concepts

Distribution d’échantillonnage & propriétés d’un estimateur

Annexe. Démonstration de E ⇣ ˆ ⌘

=

E⇣ ˆ⌘

=E✓⇣

X0X⌘ 1

X0Y

=E✓⇣

X0X⌘ 1

X0(X +✏)

=E✓⇣

X0X⌘ 1 X0X

◆ +EX,✏

✓⇣X0X⌘ 1 X0

I parce que E(somme) =somme(E) et X est une v.a.

=E( ) +EX

✓ E

⇣X0X⌘ 1

X0✏|X

I par la loi d’itération des espérances (ci-dessous)

=E( ) +EX

✓⇣

X0X⌘ 1

X0E[✏|X]

= si E[✏|X] =0

(38)

E[Y] =EX EY|X(Y|X)

I E[Y]est l’espérance inconditionnelle (ou marginale) de Y

I EX [ ]est l’espérance inconditionnelle (marginale) par rapport à X (on traiteY comme fixe)

I EY|X ( )est l’espérance conditionnelle de Y par rapport à X

I YetX appartiennent au même espace de probabilités (ci-dessous)

Preuve dans le cas discret EX

EY|X(Y|X)⇤

=P

xEY|X (Y|X)Pr(X =x)

=P

x

hP

yyPr(Y =y|X =x)i

Pr(X =x)

=P

x

P

yy(Pr(Y =y|X =x)Pr(X =x))

=P

x

P

yyPr(Y =y,X =x)

=E[Y]

Car Pr(Y =y|X =x)Pr(X =x) =Pr(Y =y,X =x): la prob conjointe (Y,X) = prob conditionnelle (Y|X)• prob marginale (X)

(39)

Ch. 1. Rappels de Concepts

Distribution d’échantillonnage & propriétés d’un estimateur

Loi d’itération des espérances

Exemple des deux dés (à six faces équiprobables) E(De´1) =Ee2

Ee1|e2(De´1|De´2) E(De´1) =P6

e1=1Pr(De´1=de´1)de´1=P

i1 6i=3.5 Ee2

Ee1|D´e2(De´1|De´2)

=P6

De´2=1Ee1|D´e2[De´1|De´2]Pr(De´2=de´2)

=P6

De´2=1Ee1|e2[De´1|De´2]16

=P6

De´2=1⇣P6

e1|De´2=iPr(De´1|De´2=i)i

16

=P6

De´2=1⇣P6 11

6i

16 =3.5

(40)

Espace de probabilités

I On considère une “expérience” aux résultats aléatoires, p.e. un lancer de 2 dés.

I L’ensemble de tous les résultats élémentaires : (1,1), (1,2)...(6,6) constitue l’espace d’échantillonnage ⌦

I Les évènements sont des combinaisons des résultats

élémentaires, p.e. “somme des 2 dés = 10”, “au moins un des dés = 3”...

I L’ensemble de ces évènements se nomme un algèbre et est notéF

I La fonction P de mesure de probabilité associe à chaque évènement une probabilité

I Ces trois composants (⌦,F,P)constitue l’espace de probabilité

Références

Documents relatifs

Un chercheur en sociologie veut analyser s’il existe une relation linéaire entre la densité de population dans les ville et le taux de criminalité correspondant dans ces villes?.

Déterminer par le calcul les coefficients a et b, en arrondissant a à  10 −2  et b

I Multiples données réelles sur l’économie et autres. I On aimerait pouvoir évaluer quantitativement

(e) Ajuster un modèle de régression linéaire multiple avec interaction permettant d’expliquer la variable logclaimcst0 en fonction des variables gender et agecat, considérée comme

I L’inférence classique ne dépend donc de l’hypothèse de normalité des erreurs que pour les petits échantillons. I L’avantage du bootstrap est moindre

White : basé sur un résultat plus récent (1980) que MCP ; requiert une plus grande puissance de calcul.

- si l’abscisse et l’ordonnée des points sont presque des fonctions affines d’une même variable t (le temps par exemple), alors “ mathématiquement ” le nuage des points

Dans la pratique, le choix des varia- bles explicatives retenues requiert d'autant plus une vision globale, que ce choix résulte d'un compromis entre la qualité de l'approxima-