Économétrie II
Ch. 1. Rappels de Concepts L3 Économétrie – L3 MASS
Pr. Philippe Polomé, U. Lyon 2 Année 2015-2016
Table des matières
Ch. 1. Rappels de Concepts
Modèle de Régression Linéaire (MRL) formel Causalité contre corrélation
Distribution d’échantillonnage & propriétés d’un estimateur
Ch. 1. Rappels de Concepts
Modèle de Régression Linéaire (MRL) formel
Notations
I Yi = 0+ 1X1i+...+ kXki+✏i
I i=1...I indexe les observations
I tséries temporelles,noui coupes transversales
I Y variable endogène, expliquée, dépendante
I Xj avecj=1...k variable explicative ou causale, régresseur
I pas nécessairement exogène
I E(Yi) = 0+ 1X1i +...+ kXki
I (sans le✏)théorie (causale)
I j mesure quantitativement l’influence deXj surY
I j pentede la droite selonXj
I 0 constante, terme indépendant ou intercept
I vecteur de coefficients du modèle
Notations
I Terme d’erreur ✏ou µ
I Interprétations : erreurs de mesures, régresseurs inobservables ou manquants, facteurs aléatoires...
I Tous les modèles économétriques sontstochastiques
I Notation matricielle Y =X +✏
I On observeY etX
I L’économétrie est un ensemble de techniques pourestimer à partir deY et deX
I Chaque technique = une formule, qu’on appelle
« estimateur» et qu’on note avec un chapeau
I Exemple « Moindres carrés ordinaire » ˆ =⇣
X0X⌘ 1
X0Y
I 9estimateurs « maximum de vraisemblance », « méthode des moments », « variables instrumentales », « moindres carrés généralisés »...
Ch. 1. Rappels de Concepts
Modèle de Régression Linéaire (MRL) formel
Notations
I Prédiction avec un chapeauYˆ 8 les estimateurs
I Yˆ =Xˆavec MCO p.e.
I Toujours erreur de prédiction
I X 2échantillon : “Valeur ajustée”
I On n’observe jamais le terme d’erreur ✏
I (Y,X)2échantillon : calcul durésiduˆ✏=Y Yˆ =Y Xˆ
I Résidu s’écrit parfois e et peut se nommer « erreur »
I Porte à confusion
Exemple simple
Ch. 1. Rappels de Concepts
Modèle de Régression Linéaire (MRL) formel
Ce qu’on a et ce qu’on veut faire
I Modèle causal stochastique
I S’il fait plus chaud (X : température), la consommation de crème glacée (Y) augmente, toutes autres choses (✏) égales
I Yt = 1+ 2Xt+✏t
I pour chaquet=1...T
I avec erreurs aléatoires non-observables✏t (pas toute autres choses égales)
I Série temporelle courte'coupe transversale I On a des données
I VariableY
I Une ou plusieurs variablesX1...Xk explicatives
I On veut
I Quantifier l’influence deX surY
I PrédireY conditionnellement à certaines valeurs pourX
I Comment faire ?
Intuition 1 : Droite qui “passe au mieux”
Ch. 1. Rappels de Concepts
Modèle de Régression Linéaire (MRL) formel
Intuition 1 : Droite qui “passe au mieux”
I Yt = 1+ 2Xt+✏t pour chaquet =1...T
I On suppose que c’est une bonne approximation de la relation réelle
I ✏= événement aléatoirenon-mesuréet non-systématique
I ✏pas corrélé avecX
I ˆde t.q. la droiteYt = ˆ1+ ˆ2Xt “passe au mieux” dans le nuage de points
I C’est du dessin : minimisation des distances euclidiennes
I Soit le résiduˆ✏=Y Xˆ
I Cherche le vecteur de nombres ˆ t.q. somme des carrés des résidusPT
t=1
⇣Yt Xtˆ⌘2
est minimale
I Réponse ˆ =⇣
X0X⌘ 1
X0Y : estimateur moindres carrés
Intuition 1 : Logiciels
I L’exemple dans Tableur Icecream_inverse_TCD.ods
I Dessin
I Calcul matriciel
I L’exemple dans Gretl
Ch. 1. Rappels de Concepts
Modèle de Régression Linéaire (MRL) formel
Intuition 2 : “Inversion” de Y = X + ✏
I Imaginons que✏=0 et queX soit carrée et inversible
I Alors9 X 1telle queX 1X =I
I =X 1Y s’obtient par inversion
I système d’équations linéaires
I Mais ✏6=0 etX pas carrée! « Généralisation » de l’inverse
I Prémultiplier parX0, on a X0Y =X0X +X0✏
I X0X est carrée et “souvent” inversible
I À condition d’absence de multicolinéarité
I Hypothèse:X0✏=0 covariance zéro
I AlorsX0Y =X0X et donc =⇣
X0X⌘ 1
X0Y
I exactement : et non ˆ
Intuition 2 : “Inversion” de Y = X + ✏
I En général, X0✏6=0 mais
I Si on peut supposer queX0✏⇡0 en un sens stochastique
I au moins lorsque la taille de l’échantillon! 1
I Alors on peut écrire ˆ =⇣
X0X⌘ 1
X0Y
I dans le sens où ˆest une approximation de quandn! 1 I L’inversion est une intuition d’un autre estimateur
I Méthode des moments
Ch. 1. Rappels de Concepts
Modèle de Régression Linéaire (MRL) formel
Estimateur Méthode des Moments MM
I Soit Aun estimateur de , alors on peut écrireY XA= ˆ✏
I Hypothèse exogénéitéE(✏|X) =0
I =) E(X✏) =0 (corrélation nulle8régresseurs)
I Stratégie MM
I Cettehypothèsesur les moments de la pop. est imposéeaux moments de l’échantillon : on veutAt.q.X0ˆ✏=0
I Donc :X0(Y XA) =0 : CPO des MCO
I Alors A= (X0X) 1X0Y = ˆ:
I Estimateur MM = estimateur MCO pour le MRLY =X +✏
I X0ˆ✏=X0
✓ Y X⇣
X0X⌘ 1
X0Y
◆
=0 par construction
I Mais la méthode des moments s’applique pareillement à des modèles non linéairesY =g(X, ) +✏
I Et le principe est très différent
Prédiction & effet marginal
I Un objectif était de prédire au mieux les ventes de crème glacée en fonction de la température
I La prédiction se trouve sur la droite : Yˆ =Xˆ
I Aussi bien pour MCO que pour MM dans ce cas-ci
I Un 2nd objectif était la quantification de l’influence deX surY
I @Y/@X1estimé= ˆ1 = coefficient estimé deX1= pente de la droite
I 1 = effet (constant) d’un changement marginal dex1 sury
Ch. 1. Rappels de Concepts Causalité contre corrélation
Table des matières
Ch. 1. Rappels de Concepts
Modèle de Régression Linéaire (MRL) formel Causalité contre corrélation
Distribution d’échantillonnage & propriétés d’un estimateur
Causalité contre corrélation
I Modèle causal : X causeY,X influenceY,X ⇢y
I Pas le contraire
I Ce n’est pas la même chose qu’une corrélation
I X corrélé àY ,Y corrélé àX
I Dans l’exemple des ventes de crème glacée, la température cause les ventes
I Un accroissement de température provoque un accroissement de demande
I Ce n’est pas parce que les gens mangent plus de glaces que la température va augmenter
Ch. 1. Rappels de Concepts Causalité contre corrélation
Simultanéité
Dans des modèles plus sophistiqués, causalité pas évidente
I En macro, le taux de change agit-il sur la balance commerciale ou est-ce l’inverse ?
I En marketing, au niveau de la firme, les ventes et les dépenses de publicité sont dites simultanées
I chacune est cause de l’autre
I La demande d’un produit (quantité) dépend du prix, mais l’inverse est vrai aussi (simultanéité)
Régression inverse
I La régression ne mesure que des corrélations
I Ne peut queconfirmer ou infirmerun modèle théorique
I Uniquement dans un sens statistique : pour un certain jeu de données, le modèle est confirmé/infirmé
I 9tests de causalité applicables dans certaines circonstances
I Certaines données (panel p.e.) permettent d’être plus sûr de la causalité
I Changements expliquent changements
I Exemple de régression inverse dans le cas des crèmes glacées : X1 = 1+ 2Y +✏
I TableurIcecream_inverse_TCD.ods
Ch. 1. Rappels de Concepts Causalité contre corrélation
Exemple des cigognes
I Fisher, 1936
I Copenhagen, décennie post WWI
I En réalité : constructions importantes et migration des campagnes
I Exemple de régression fallacieuse spurieuse (spurious)
Pq les cigognes sont-elles associées aux bébés ?
I Oiseau migrateur européen
I Part à l’automne et revient en Europe centre & nord début avril
I Soit 9 mois après le solstice d’été (21 juin / Saint Jean) environ
I Le solstice d’été était un important festival païen, où les gens se mariaient beaucoup
Ch. 1. Rappels de Concepts Causalité contre corrélation
Les moyennes conditionnelles
I Exemple de tableau croisé dynamique / Pivot table dans Excel
I Google “Excel 25 easy PivotTable reports”
I TableurIcecream_inverse_TCD.ods
I Les moyennes conditionnelles sont des moyennes (arithmétiques simples) calculées par groupedans l’échantillon
I P.e. les ventes moyennes par vendeur dans une entreprise
I Il est facile de croire que les différences entre moyennes conditionnelles sont dues aux “conditionneurs”
I P.e. les ventes de Smith sont plus élevées que celles de González parce que Smith est meilleur vendeur que González
I Mais il ne s’agit que d’une corrélation, pas d’une causalité
I P.e. les ventes de Smith sont plus élevées parce qu’il est sur un plus grand territoire
I Pas “toutes autres choses égales” /ceteris paribus
Causalité : conclusion
I L’économétrie, les moyennes conditionnelles, les corrélations ne servent qu’à quantifier, pas à expliquer
I De telles quantifications peuvent confirmer ou infirmer une théorie dans un sens probabiliste
I Il ne faut pas accepter n’importe quel résultat juste parce qu’il a été obtenu par des méthodes sophistiquées
I L’hypothèse de causalité
I Est commune à tous les modèles économétriques
I La tester est l’objectif principal de l’économétrie
Ch. 1. Rappels de Concepts
Distribution d’échantillonnage & propriétés d’un estimateur
Table des matières
Ch. 1. Rappels de Concepts
Modèle de Régression Linéaire (MRL) formel Causalité contre corrélation
Distribution d’échantillonnage & propriétés d’un estimateur
Chaque échantillon est aléatoire
I Exemple de la vente de crème glacée sur la plage
I Un autre vendeur sur autre plage aurait récolté des données différentes
I La méthodologie présentée auparavant est applicable de même
I Le modèle est le même ... mais les valeurs des coefficients seront différentes dans les deux cas !
I Echantillon aléatoire ) ˆaléatoire alors que ne l’est pas !
I Quel est le ˆcorrect ? Tous les deux sont corrects
I Tous les deux sont entachés d’une marge d’erreur par rapport au « vrai » coefficient
I On va illustrer comment fluctuent les ˆ
I Distribution d’échantillonnage
Ch. 1. Rappels de Concepts
Distribution d’échantillonnage & propriétés d’un estimateur
Simulation de Monte-Carlo Monte Carlo.ods
I On génère des données artificielles afin d’illustrer certains outils théoriques dans un cadre contrôlé
I Fonctionalea() / rand(): crée une valeur tirée d’une v. a. de distribution uniforme entre 0 et 1
I sqrt(-2*ln(alea()))*sin(2*pi()*alea())crée une valeurn(0,1)
I Avec ces fonctions, on génèreX etµ
I Calculer Y =2 3X+µ(ou tout autre choix de coefficient)
I Générer ainsi 10 lignes (par exemple)
I En utilisant Y et X on estime ˆ
I On voit bien que ˆ6=
I En recommençant l’opération, on crée des vecteurs ˆi qui sont tousdifférents les uns des autres et de
I Les ˆi sont tous aléatoires, ne l’est pas
I ✏est aléatoire
I X est aléatoire, mais l’analyse est conditionnelle àX
I Comme siX était constant
Distribution d’échantillonnage
I ˆaléatoire : conséquences
I Pas de garantie d’être proche des vraies valeurs
I ˆsuit une distribution
I La valeur de ˆchange avec chaque échantillon :distribution d’échantillonnage
I Comme toute distribution, elle a desmoments: moyenne, variance,...
I Selon les valeurs atteintes par ces moments, l’estimateur a des propriétés plus ou moins bonnes
I Un estimateur sera jugé meilleur qu’un autre si ses propriétés sont meilleures
I On va voir pour MCO dans le MRL
Ch. 1. Rappels de Concepts
Distribution d’échantillonnage & propriétés d’un estimateur
Distribution d’échantillonnage de ˆ
1dans Monte Carlo.ods
I Vraie valeur 1.5
I Moyenne 1.57...
I Écart type 4.55...
I n=835
Modèle de régression linéaire : 7 hypothèses
Les circonstances dans lesquelles MCO est un “bon” estimateur
I Modèle de Régression Linéaire (MRL)Y =X +✏
I 7 hypothèses classiques (+ celle de causalité)
I Lorsqu’elles sont vérifiées, l’estimateur MCO possède des propriétés désirables
I Dans quels cas ne sont-elles pas satisfaites ?
I Conséquences sur l’estimateur ?
I Peut-on “réparer” ?
I Proposer un estimateur alternatif, transformer les données...
Ch. 1. Rappels de Concepts
Distribution d’échantillonnage & propriétés d’un estimateur
MRL Y = X + ✏ : hypothèses 1-4
1. E(✏i) =08i : les erreurs ont uneespérance nulle
2. var(✏i) = 2 8i : la variance de chaque erreur est la même et est réelle =Homoscédasticité
3. cov(✏t,✏s) =08t 6=s : les erreurs sont indépendantes entre elles = Pas d’auto-corrélation
I 1+2+3 = “Sphéricité des erreurs”
4. E(✏ixi) =08i : il n’y a pas de corrélation contemporaine (mêmei) entre l’erreur et chaque régresseur =Exogénéité
Figure:MRLY =X +✏: Illustration graphique des 4 hyp. sur l’erreur
Tiré de Wooldridge
Ch. 1. Rappels de Concepts
Distribution d’échantillonnage & propriétés d’un estimateur
MRL Y = X + ✏ : hypothèses 5-7
I 5. X de plein rang
I Aucun régresseur ne peut s’écrire comme une combinaison linéaire des autres régresseurs
I Sinon :colinéaritéparfaite des régresseurs
I X0X pas inversible I 6. MRL correctement spécifié
I La réalité est effectivement linéaire en les coefficients (forme fonctionnelle)
I non stochastiques
I Il ne manque aucun régresseurpertinent
I 7.Y continue
I Pas qualitative : 0/1 ou bien A, B, C, D
I Pas discrète : 0,1,2,3...
I Pas tronquée/censurée : [3,12] ou [-1,+1]
I Hypothèses MRL pas respectées )MCO perd certaines/toutes propriétés
MRL Y = X + ✏ : Propriétés de l’estimateur MCO
Table:Propriétés de l’estimateur MCO lorsque toutes les hypothèses du MRL sont respectées
Moment* n petit n! 1
Espérance biais consistance Variance efficience efficience asymptotique
* de la distribution d’échantillonnage
Ch. 1. Rappels de Concepts
Distribution d’échantillonnage & propriétés d’un estimateur
Propriété 1 de MCO dans le MRL : absence de biais
I L’espérance de l’estimateurE⇣ ˆ⌘
=
I L’estimateur est ditnon-biaisé
I Preuve math en annexe
I La moyenne des coefficients estimés (sur l’ensemble des échantillons simulés) tend à se rapprocher des vraies valeurs
I « En moyenne, cet estimateur ne se trompe pas »
I E⇣ ˆ⌘
⇡moyenne⇣ ˆ⌘
lorsqu’il y a beaucoup d’échantillons
I Illustré dansMonte Carlo.ods
I ˆMCO est non-biaisé
Propriété 2 de MCO dans MRL : consistance / convergence
I Plus la taille de l’échantillon grandit, plus les coefficients estimés tendent à se rapprocher des vraies valeurs
I L’estimateur est ditconsistant
I Souvent “convergent” en français
I Lorsque la taille de l’échantillon tend vers l’infini, les
coefficients estimés convergent (en probabilité) vers les vraies valeurs
I On écrit :Plim⇣ ˆ⌘
=
I Preuve math assez compliquée
I Plus facile à illustrer dans un TableurMonte Carlo.ods
I ˆMCO est consistant
Ch. 1. Rappels de Concepts
Distribution d’échantillonnage & propriétés d’un estimateur
Propriétés 3-4 de MCO dans le MRL : efficience
I Théorème de Gauss-Markov :var⇣ ˆ⌘
est la plus petite de tous les estimateurs linéaires non-biaisés
I ˆMCO estBLUE=efficient
I Théorème de Cramer-Rao: ˆest le plus efficient de tous les estimateurs consistants
I ˆMCO estasymptotiquement efficient= atteint la borne inférieure de Cramer-Rao
I L’efficience d’un estimateur est sa précision
I Inverse de sa variance
I L’efficience estcomparative
I Un estimateur ˆest plus efficient qu’un estimateur ˜si var⇣
˜⌘ var⇣
ˆ⌘
est une matrice sdp
Devoir #1 : Monte-Carlo
I Réaliser votre propre exemple de Monte Carlo dans un tableur
I Avec 2 régresseurs, un distribué uniformément dans[0,1] et l’autre distribué normalementn(0,1), une constante et un terme d’erreur distribuén(0,1)
I Choisissez les valeurs des coefficients
I Tout le monde devrait avoir des chiffres différents
I Calculez les coefficients explicitement avec les formules
I X0X sera 3x3 et ˆsera 3x1
I Calculez le R2
I Répliquer l’opération avec des tailles d’échantillons croissantes pour monter la consistance de l’estimateur
I Les devoirs ne sont ni notés ni corrigés, mais ils sont matières d’examen
I Si vous avez des difficultés à les faire, on en discute en cours
Ch. 1. Rappels de Concepts
Distribution d’échantillonnage & propriétés d’un estimateur
Annexe. Démonstration de E ⇣ ˆ ⌘
=
E⇣ ˆ⌘
=E✓⇣
X0X⌘ 1
X0Y
◆
=E✓⇣
X0X⌘ 1
X0(X +✏)
◆
=E✓⇣
X0X⌘ 1 X0X
◆ +EX,✏
✓⇣X0X⌘ 1 X0✏
◆
I parce que E(somme) =somme(E) et X est une v.a.
=E( ) +EX
✓ E✏
⇣X0X⌘ 1
X0✏|X
◆
I par la loi d’itération des espérances (ci-dessous)
=E( ) +EX
✓⇣
X0X⌘ 1
X0E✏[✏|X]
◆
= si E✏[✏|X] =0
E[Y] =EX EY|X(Y|X)
I E[Y]est l’espérance inconditionnelle (ou marginale) de Y
I EX [ ]est l’espérance inconditionnelle (marginale) par rapport à X (on traiteY comme fixe)
I EY|X ( )est l’espérance conditionnelle de Y par rapport à X
I YetX appartiennent au même espace de probabilités (ci-dessous)
Preuve dans le cas discret EX⇥
EY|X(Y|X)⇤
=P
xEY|X (Y|X)Pr(X =x)
=P
x
hP
yyPr(Y =y|X =x)i
Pr(X =x)
=P
x
P
yy(Pr(Y =y|X =x)Pr(X =x))
=P
x
P
yyPr(Y =y,X =x)
=E[Y]
Car Pr(Y =y|X =x)Pr(X =x) =Pr(Y =y,X =x): la prob conjointe (Y,X) = prob conditionnelle (Y|X)• prob marginale (X)
Ch. 1. Rappels de Concepts
Distribution d’échantillonnage & propriétés d’un estimateur
Loi d’itération des espérances
Exemple des deux dés (à six faces équiprobables) E(De´1) =ED´e2
⇥ED´e1|D´e2(De´1|De´2)⇤ E(De´1) =P6
D´e1=1Pr(De´1=de´1)de´1=P
i1 6i=3.5 ED´e2⇥
ED´e1|D´e2(De´1|De´2)⇤
=P6
De´2=1ED´e1|D´e2[De´1|De´2]Pr(De´2=de´2)
=P6
De´2=1ED´e1|D´e2[De´1|De´2]16
=P6
De´2=1⇣P6
D´e1|De´2=iPr(De´1|De´2=i)i⌘
16
=P6
De´2=1⇣P6 11
6i⌘
16 =3.5
Espace de probabilités
I On considère une “expérience” aux résultats aléatoires, p.e. un lancer de 2 dés.
I L’ensemble de tous les résultats élémentaires : (1,1), (1,2)...(6,6) constitue l’espace d’échantillonnage ⌦
I Les évènements sont des combinaisons des résultats
élémentaires, p.e. “somme des 2 dés = 10”, “au moins un des dés = 3”...
I L’ensemble de ces évènements se nomme un algèbre et est notéF
I La fonction P de mesure de probabilité associe à chaque évènement une probabilité
I Ces trois composants (⌦,F,P)constitue l’espace de probabilité