Le cas de l’homosc´edasticit´e ne pr´esente en principe rien de diff´erent par rapport au cas g´en´eral.
On peut en principe remplacerΣˆβˆdans la formule ci-dessus pourF parΣ˜βˆqui provient de la sous-section6.1ci-dessus. Donc, nous avons :
F ≡
Rβˆ−r0h
RΣ˜βˆR0i−1
Rβˆ−r /q,
Par contre, dans le cas homosc´edastique, il y a une fac¸on plus simple d’effectuer des tests
d’hypoth`ese. On peut estimer le mod`ele sous l’hypoth`ese nulle et sous l’hypoth`ese alternative, et utiliser la formule suivante :
F = (SSRrestricted−SSRunrestricted)/q SSRunrestricted/(n−kunrestricted−1),
o`uSSRrestricted est la somme des r´esidus carr´es du mod`ele estim´e en imposant les contraintes et SSRunrestricted est la somme des r´esidus carr´es du mod`ele estim´e sans imposer les contraintes.
L’hypoth`ese nulle que l’on veut tester revient `a imposer des contraintes sur les valeurs des coefficients. Une formule ´equivalente est la suivante :
F = (R2unrestricted−R2restricted)/q
(1−R2unrestricted)/(n−kunrestricted−1),
o`uR2restrictedest la mesure de l’ajustement statistiqueR2du mod`ele estim´e en imposant les contraintes etSSRunrestrictedest leR2du mod`ele estim´e sans imposer les contraintes. Vous devriez montrer alg´ebriquement comment passer de la premi`ere `a la deuxi`eme version de ce test.
La d´emonstration est en fait tr`es simple.
Nous n’allons pas montrer formellement pourquoi les statistiquesF dans le cas homosc´edastique peuvent ˆetre transform´ees pour ˆetre ´ecrites sous cette forme. On peut trouver une d´emonstration dans la plupart des manuels d’´econom´etrie avanc´es comme Greene (2000, section 7.2.3). Je reproduis la preuve dans l’encadr´e qui suit. La lecture de cet encadr´e est recommand´e seulement `a
ceux qui s’y int´eressent vraiment.
Dans cet encadr´e je montre l’´equivalance
La preuve passe par l’estimation du mod`ele de r´egression multiple sujet aux contraintes que nous voulons tester. Le probl`eme peut s’´ecrire
minβ (Y −Xβ)0(Y −Xβ)
sujet `a la contrainte
Rβ =r.
Nous pouvons ´ecrire le probl`eme de minimisation `a l’aide d’un vecteur de multiplicateurs de Lagrangeλcomme suit, d´efinissantS comme l’expression lagrangienne `a minimiser.
min
β,λ S = (Y −Xβ)0(Y −Xβ) + 2λ0(Rβ−r). Les conditions du premier ordre du probl`eme sont
∂S
∂β = 0 = 2X0(y−Xβ) + 2R0λ;
∂S
∂λ = 0 = 2 (Rβ−r).
Je vous invite `a faire le lien entre ces conditions du premier ordre et les r`egles de diff´erentiation matricielle que nous avons vues en d´ebut de chapitre.
Nous pouvons regrouper les CPO ensemble en notation matricielle comme suit.
X0X R0
R 0
β˜
˜λ
=
X0Y r
o`u j’ai ´ecrit des˜sur les inconnus du probl`eme pour souligner le fait que les solutions au
probl`eme constituent notre estimateur MCO sous contraintes.
La solution est donn´ee par
Je suppose ici que la matrice qu’il faut inverser est non singuli`ere. Pour trouver l’inverse de la matrice, nous pouvons utiliser la formule suivante pour les matrices partitionn´ees.
Je vous invite `a v´erifier qu’il s’agit bel et bien de l’inverse de la matrice originale en faisant les multiplications matricielles appropri´ees pour retrouver la matrice identit´e. Appliquant cette formule dans le cas qui nous pr´eoccupe, nous obtenons
β˜= ˆβ−(X0X)−1R0h satisfait ces restrictions exactement (autrement dit siRβˆ=r), alors nous avonsλ˜ = 0et
l’estimateur des MCO sous contraintes devient ´egal `a l’estimateur MCO sans contrainte.
Nous sommes sur le point de pouvoir montrer que la formule g´en´erale pour la statistiqueF se r´eduit au cas sp´ecial sous l’hypoth`ese de l’homosc´edasticit´e. Je prends `a ce stade-ci un
raccourci en faisant appel `a un r´esultat d´evelopp´e dans l’article de Greene et Seaks (1991), qui montrent que la variance de l’estimateurβ˜(sous l’hypoth`ese de l’homosc´edasticit´e) est donn´ee par
Var β|X˜
=σ2(X0X)−1−σ2R0h
R(X0X)−1R0i−1
R(X0X)−1.
o`u
σ2 ≡Var(ui|Xi).
Notez que le premier terme est la variance de l’estimateur MCOβˆsous l’hypoth`ese
d’homosc´edasticit´e. Pour calculer la variance deβ, il faut soustraire une matrice qui (on peut˜ montrer) est une matrice positive-d´efinie. Cela veut dire que la variance deβ˜estplus petite que la variance deβ, la diff´erence ´etant une matrice positive-d´efinie. L’interpr´etation, c’estˆ que le fait d’imposer les contraintes et donc d’imposer de l’information additionnelle
concernant les valeurs des param`etresβr´eduit la variance de l’estimateur.
Apr`es cette petite parenth`ese, proc´edons maintenant `a notre d´emonstration. D´efinissons
U˜ ≡Y −Xβ˜
=Y −Xβˆ−X
β˜−βˆ
= ˆU −X
β˜−βˆ . Nous avons
U˜0U˜ =
Uˆ−X
β˜−βˆ0
Uˆ −X
β˜−βˆ
= ˆU0Uˆ −Uˆ0X
β˜−βˆ
−
β˜−βˆ
X0Uˆ +
β˜−βˆ
X0X
β˜−βˆ
= ˆU0Uˆ +
β˜−βˆ
X0X
β˜−βˆ
o`u les deux termes dans l’avant derni`ere expression sont ´egaux `a z´ero puisque les r´esidus MCO sont orthogonaux `aX. Donc
U˜0U˜ = ˆU0Uˆ +
β˜−βˆ0
X0X
β˜−βˆ
≥Uˆ0U .ˆ
Notez que dans ce casU˜0U˜ etUˆ0Uˆ sont des scalaires, et donc l’in´egalit´e est une in´egalit´e ordinaire. Le dernier terme du cˆot´e droit dans cette ´equation est une forme quadratique est donc doit ˆetre positif. `A moins queβ˜= ˆβ, il va ˆetre strictement positif. Ceci est logique.U˜0U˜ est une somme de r´esidus au carr´e qui r´esulte de la solution d’un probl`eme de minimisation sous contrainte, tandis queUˆ0Uˆ est une somme de r´esidus au carr´e qui r´esulte de la solution du mˆeme probl`eme de minimisation, sans imposer la contrainte. Il est normal que le minimum trouv´e comme solution au probl`eme non contraint soit inf´erieur au minimum trouv´e au
probl`eme sous contrainte.
Cela veut dire queU˜0U˜ −Uˆ0Uˆ est une mesure de la d´et´erioration de l’ajustement en imposant les restrictions, et peut ˆetre utilis´e pour construire le testF. La solution que nous avons trouv´ee pourβ˜nous donne
β˜−βˆ
=−(X0X)−1R0h
R(X0X)−1R0i−1
Rβˆ−r .
Substituant, on a
U˜0U˜ −Uˆ0Uˆ =
β˜−βˆ0
X0X
β˜−βˆ
=
Rβˆ−r0h
R(X0X)−1R0i−1
(X0X)−1 R(X0X)−1X0X(X0X)−1R0
h
R(X0X)−1R0i−1
Rβˆ−r
=
Rβˆ−r0h
R(X0X)−1R0i−1h
R(X0X)−1R0i h
R(X0X)−1R0i−1
Rβˆ−r
=
Rβˆ−r0h
R(X0X)−1R0i−1
Rβˆ−r .
Notez aussi que dans ce cas,
U˜0U˜ ≡SSRrestricted et
Uˆ0Uˆ ≡SSRunrestricted.
Voici la derni`ere ´etape dans l’argument. Sous l’hypoth`ese nulle (queRβ =r), puisqueβˆsuit (asymptotiquement ou approximativement) une distribution normale, alors
Rβˆ=r suit une distribution asymptotiquement normale aussi, puisqu’il s’agit d’une combinaison lin´eaire de variables al´eatoires (asymptotiquement) normales. Sa variance est donn´ee par
Var
Rβˆ−r
=R Varβˆ
R0 =σ2R(X0X)−1R0
sous l’hypoth`ese d’homosc´edasticit´e. Pour cette raison, nous pouvons montrer que
Rβˆ−r0
σ2R(X0X)−1R0 Rβˆ−r
suit (asymptotiquement ou approximativement en ´echantillon fini) une distribution chi-carr´e avecqdegr´es de libert´e, o`u comme d’habitudeqest le nombre de restrictions. Le probl`eme, c’est queσ2 n’est pas observable. La derni`ere ´etape est de convertir en une statistique que
nous pouvons calculer avec les donn´ees que nous avons. Nous pouvons montrer que
F ≡
Rβˆ−r0
σ2R(X0X)−1R0
Rβˆ−r /q [(n−k−1)s2/σ2]/(n−k−1)
est le ratio de deux variables chi-carr´e (encore une fois asymptotiquement ou
approximativement en ´echantillon fini), chacune divis´ee par son nombre de degr´es de libert´e.
Lesσ2 au num´erateur et au d´enominateur s’annulent, et nous savons que notre estimateur (convergent et non biais´e)s2 est donn´e par
s2 ≡ Uˆ0Uˆ
(n−k−1) =SSRunrestricted/(n−k−1).
⇒(n−k−1)s2 =SSRunrestricted
Donc nous avons
F =
Rβˆ−r 0
R(X0X)−1R0
Rβˆ−r
/q SSRunrestricted/(n−kunrestricted−1)
= (SSRrestricted−SSRunrestricted)/q SSRunrestricted/(n−kunrestricted−1),
ce qui fut `a montrer. Le ratio de ces variables chi-carr´e, les deux divis´ees par les degr´es de libert´e, suit une distributionF. Encore une fois, si nous ne sommes pas prˆets `a faire
l’hypoth`ese que les erreurs du mod`ele non contraintui sont g´en´er´ees par une loi normale, ce r´esultat est un r´esultat asymptotique et ne tient que de fac¸on approximative en ´echantillon fini.
Puisque nous utilisons un r´esultat qui tient asymptotiquement ou approximativement en grand
´echantillon, nous utilisons la fonction de distribution cumul´ee deFq,∞.
Ces tests sont faciles `a calculer et ont une interpr´etation intuitive simple. Par contre, ils ne sont valides que dans le cas d’erreurs homosc´edastiques.
Un exemple concret pourrait aider `a rendre plus clair le conceptestimer le mod`ele en imposant les contraintes. Soit le mod`ele de r´egression multiple standard, ´ecrit en notation non matricielle :
Yi =β0+X1iβ1+X2iβ2+. . .+Xkiβk+ui.
Nous voulons tester l’hypoth`ese nulle queβ1+β2 = 1. Notez que l’hypoth`ese nulle revient `a imposer une restriction (contrainte) sur la valeur de ces deux coefficients. Isolantβ2 nous donne
β2 = 1−β1.
Maintenant, substituant dans le mod`ele, nous avons :
Yi =β0+X1iβ1+X2i(1−β1) +. . .+Xkiβk+ui,
que nous pouvons r´e´ecrire comme :
Yi−X2i =β0+ (X1i−X2i)β1+X3iβ3+. . .+Xkiβk+ui.
On peut estimer ce mod`ele (la version contrainte) avec un logiciel commeR,STATAouGRETL en d´efinissant une nouvelle variable d´ependanteY˜i ≡Yi−X2i et une nouvelle variable
explicativeZi ≡X1i−X2i. Le mod`ele `a estimer devient :
Y˜i =β0+Ziβ1+X3iβ3+. . .+Xkiβk+ui.
Notez bien que ce que nous venons de fairen’est pas la mˆeme choseque ce que nous avons fait pour transformer le mod`ele pour tester une seule hypoth`ese dans le cadre d’une combinaison lin´eaire de coefficients. Dans ce dernier cas, nous avons propos´e d’estimer un mod`ele ´equivalent au mod`ele initial. Puisqu’il ´etait ´equivalent, l’estimation ´etait valide sans imposer des hypoth`eses additionnelles. Dans le pr´esent contexte, le mod`ele transform´e n’est pas ´equivalent au mod`ele
initial. Il n’est valide que sous les contraintes deH0.
Nous savons que la loiF est d´efinie seulement pour des valeurs positives de la variable al´eatoire.
Dans ce cas, les estim´es MCO du mod`ele contraint proviennent de la solution `a un probl`eme de minimisation contraint, o`u la contrainte est l’hypoth`ese nulle que nous voulons tester. Les estim´es MCO du mod`ele non contraint proviennent de la solution `a un probl`eme de minimisation o`u cette contrainte n’est pas impos´ee. Pour cette raison, la somme des r´esidus carr´es du mod`ele contraint doit ˆetre au moins aussi ´elev´ee que pour le mod`ele non contraint, et la statistiqueF calcul´ee par une des formules ou par l’autre doit ˆetre positive.13
L’extension au cas d’hypoth`eses jointes est directe.