• Aucun résultat trouvé

Le cas de l’homosc´edasticit´e ne pr´esente en principe rien de diff´erent par rapport au cas g´en´eral.

On peut en principe remplacerΣˆβˆdans la formule ci-dessus pourF parΣ˜βˆqui provient de la sous-section6.1ci-dessus. Donc, nous avons :

F ≡

Rβˆ−r0h

RΣ˜βˆR0i−1

Rβˆ−r /q,

Par contre, dans le cas homosc´edastique, il y a une fac¸on plus simple d’effectuer des tests

d’hypoth`ese. On peut estimer le mod`ele sous l’hypoth`ese nulle et sous l’hypoth`ese alternative, et utiliser la formule suivante :

F = (SSRrestricted−SSRunrestricted)/q SSRunrestricted/(n−kunrestricted−1),

o`uSSRrestricted est la somme des r´esidus carr´es du mod`ele estim´e en imposant les contraintes et SSRunrestricted est la somme des r´esidus carr´es du mod`ele estim´e sans imposer les contraintes.

L’hypoth`ese nulle que l’on veut tester revient `a imposer des contraintes sur les valeurs des coefficients. Une formule ´equivalente est la suivante :

F = (R2unrestricted−R2restricted)/q

(1−R2unrestricted)/(n−kunrestricted−1),

o`uR2restrictedest la mesure de l’ajustement statistiqueR2du mod`ele estim´e en imposant les contraintes etSSRunrestrictedest leR2du mod`ele estim´e sans imposer les contraintes. Vous devriez montrer alg´ebriquement comment passer de la premi`ere `a la deuxi`eme version de ce test.

La d´emonstration est en fait tr`es simple.

Nous n’allons pas montrer formellement pourquoi les statistiquesF dans le cas homosc´edastique peuvent ˆetre transform´ees pour ˆetre ´ecrites sous cette forme. On peut trouver une d´emonstration dans la plupart des manuels d’´econom´etrie avanc´es comme Greene (2000, section 7.2.3). Je reproduis la preuve dans l’encadr´e qui suit. La lecture de cet encadr´e est recommand´e seulement `a

ceux qui s’y int´eressent vraiment.

Dans cet encadr´e je montre l’´equivalance

La preuve passe par l’estimation du mod`ele de r´egression multiple sujet aux contraintes que nous voulons tester. Le probl`eme peut s’´ecrire

minβ (Y −Xβ)0(Y −Xβ)

sujet `a la contrainte

Rβ =r.

Nous pouvons ´ecrire le probl`eme de minimisation `a l’aide d’un vecteur de multiplicateurs de Lagrangeλcomme suit, d´efinissantS comme l’expression lagrangienne `a minimiser.

min

β,λ S = (Y −Xβ)0(Y −Xβ) + 2λ0(Rβ−r). Les conditions du premier ordre du probl`eme sont

∂S

∂β = 0 = 2X0(y−Xβ) + 2R0λ;

∂S

∂λ = 0 = 2 (Rβ−r).

Je vous invite `a faire le lien entre ces conditions du premier ordre et les r`egles de diff´erentiation matricielle que nous avons vues en d´ebut de chapitre.

Nous pouvons regrouper les CPO ensemble en notation matricielle comme suit.

X0X R0

R 0

 β˜

˜λ

=

 X0Y r

o`u j’ai ´ecrit des˜sur les inconnus du probl`eme pour souligner le fait que les solutions au

probl`eme constituent notre estimateur MCO sous contraintes.

La solution est donn´ee par

Je suppose ici que la matrice qu’il faut inverser est non singuli`ere. Pour trouver l’inverse de la matrice, nous pouvons utiliser la formule suivante pour les matrices partitionn´ees.

Je vous invite `a v´erifier qu’il s’agit bel et bien de l’inverse de la matrice originale en faisant les multiplications matricielles appropri´ees pour retrouver la matrice identit´e. Appliquant cette formule dans le cas qui nous pr´eoccupe, nous obtenons

β˜= ˆβ−(X0X)−1R0h satisfait ces restrictions exactement (autrement dit siRβˆ=r), alors nous avonsλ˜ = 0et

l’estimateur des MCO sous contraintes devient ´egal `a l’estimateur MCO sans contrainte.

Nous sommes sur le point de pouvoir montrer que la formule g´en´erale pour la statistiqueF se r´eduit au cas sp´ecial sous l’hypoth`ese de l’homosc´edasticit´e. Je prends `a ce stade-ci un

raccourci en faisant appel `a un r´esultat d´evelopp´e dans l’article de Greene et Seaks (1991), qui montrent que la variance de l’estimateurβ˜(sous l’hypoth`ese de l’homosc´edasticit´e) est donn´ee par

Var β|X˜

2(X0X)−1−σ2R0h

R(X0X)−1R0i−1

R(X0X)−1.

o`u

σ2 ≡Var(ui|Xi).

Notez que le premier terme est la variance de l’estimateur MCOβˆsous l’hypoth`ese

d’homosc´edasticit´e. Pour calculer la variance deβ, il faut soustraire une matrice qui (on peut˜ montrer) est une matrice positive-d´efinie. Cela veut dire que la variance deβ˜estplus petite que la variance deβ, la diff´erence ´etant une matrice positive-d´efinie. L’interpr´etation, c’estˆ que le fait d’imposer les contraintes et donc d’imposer de l’information additionnelle

concernant les valeurs des param`etresβr´eduit la variance de l’estimateur.

Apr`es cette petite parenth`ese, proc´edons maintenant `a notre d´emonstration. D´efinissons

U˜ ≡Y −Xβ˜

=Y −Xβˆ−X

β˜−βˆ

= ˆU −X

β˜−βˆ . Nous avons

0U˜ =

Uˆ−X

β˜−βˆ0

Uˆ −X

β˜−βˆ

= ˆU0Uˆ −Uˆ0X

β˜−βˆ

β˜−βˆ

X0Uˆ +

β˜−βˆ

X0X

β˜−βˆ

= ˆU0Uˆ +

β˜−βˆ

X0X

β˜−βˆ

o`u les deux termes dans l’avant derni`ere expression sont ´egaux `a z´ero puisque les r´esidus MCO sont orthogonaux `aX. Donc

0U˜ = ˆU0Uˆ +

β˜−βˆ0

X0X

β˜−βˆ

≥Uˆ0U .ˆ

Notez que dans ce casU˜0U˜ etUˆ0Uˆ sont des scalaires, et donc l’in´egalit´e est une in´egalit´e ordinaire. Le dernier terme du cˆot´e droit dans cette ´equation est une forme quadratique est donc doit ˆetre positif. `A moins queβ˜= ˆβ, il va ˆetre strictement positif. Ceci est logique.U˜0U˜ est une somme de r´esidus au carr´e qui r´esulte de la solution d’un probl`eme de minimisation sous contrainte, tandis queUˆ0Uˆ est une somme de r´esidus au carr´e qui r´esulte de la solution du mˆeme probl`eme de minimisation, sans imposer la contrainte. Il est normal que le minimum trouv´e comme solution au probl`eme non contraint soit inf´erieur au minimum trouv´e au

probl`eme sous contrainte.

Cela veut dire queU˜0U˜ −Uˆ0Uˆ est une mesure de la d´et´erioration de l’ajustement en imposant les restrictions, et peut ˆetre utilis´e pour construire le testF. La solution que nous avons trouv´ee pourβ˜nous donne

β˜−βˆ

=−(X0X)−1R0h

R(X0X)−1R0i−1

Rβˆ−r .

Substituant, on a

0U˜ −Uˆ0Uˆ =

β˜−βˆ0

X0X

β˜−βˆ

=

Rβˆ−r0h

R(X0X)−1R0i−1

(X0X)−1 R(X0X)−1X0X(X0X)−1R0

h

R(X0X)−1R0i−1

Rβˆ−r

=

Rβˆ−r0h

R(X0X)−1R0i−1h

R(X0X)−1R0i h

R(X0X)−1R0i−1

Rβˆ−r

=

Rβˆ−r0h

R(X0X)−1R0i−1

Rβˆ−r .

Notez aussi que dans ce cas,

0U˜ ≡SSRrestricted et

0Uˆ ≡SSRunrestricted.

Voici la derni`ere ´etape dans l’argument. Sous l’hypoth`ese nulle (queRβ =r), puisqueβˆsuit (asymptotiquement ou approximativement) une distribution normale, alors

Rβˆ=r suit une distribution asymptotiquement normale aussi, puisqu’il s’agit d’une combinaison lin´eaire de variables al´eatoires (asymptotiquement) normales. Sa variance est donn´ee par

Var

Rβˆ−r

=R Varβˆ

R02R(X0X)−1R0

sous l’hypoth`ese d’homosc´edasticit´e. Pour cette raison, nous pouvons montrer que

Rβˆ−r0

σ2R(X0X)−1R0 Rβˆ−r

suit (asymptotiquement ou approximativement en ´echantillon fini) une distribution chi-carr´e avecqdegr´es de libert´e, o`u comme d’habitudeqest le nombre de restrictions. Le probl`eme, c’est queσ2 n’est pas observable. La derni`ere ´etape est de convertir en une statistique que

nous pouvons calculer avec les donn´ees que nous avons. Nous pouvons montrer que

F ≡

Rβˆ−r0

σ2R(X0X)−1R0

Rβˆ−r /q [(n−k−1)s22]/(n−k−1)

est le ratio de deux variables chi-carr´e (encore une fois asymptotiquement ou

approximativement en ´echantillon fini), chacune divis´ee par son nombre de degr´es de libert´e.

Lesσ2 au num´erateur et au d´enominateur s’annulent, et nous savons que notre estimateur (convergent et non biais´e)s2 est donn´e par

s2 ≡ Uˆ0

(n−k−1) =SSRunrestricted/(n−k−1).

⇒(n−k−1)s2 =SSRunrestricted

Donc nous avons

F =

Rβˆ−r 0

R(X0X)−1R0

Rβˆ−r

/q SSRunrestricted/(n−kunrestricted−1)

= (SSRrestricted−SSRunrestricted)/q SSRunrestricted/(n−kunrestricted−1),

ce qui fut `a montrer. Le ratio de ces variables chi-carr´e, les deux divis´ees par les degr´es de libert´e, suit une distributionF. Encore une fois, si nous ne sommes pas prˆets `a faire

l’hypoth`ese que les erreurs du mod`ele non contraintui sont g´en´er´ees par une loi normale, ce r´esultat est un r´esultat asymptotique et ne tient que de fac¸on approximative en ´echantillon fini.

Puisque nous utilisons un r´esultat qui tient asymptotiquement ou approximativement en grand

´echantillon, nous utilisons la fonction de distribution cumul´ee deFq,∞.

Ces tests sont faciles `a calculer et ont une interpr´etation intuitive simple. Par contre, ils ne sont valides que dans le cas d’erreurs homosc´edastiques.

Un exemple concret pourrait aider `a rendre plus clair le conceptestimer le mod`ele en imposant les contraintes. Soit le mod`ele de r´egression multiple standard, ´ecrit en notation non matricielle :

Yi0+X1iβ1+X2iβ2+. . .+Xkiβk+ui.

Nous voulons tester l’hypoth`ese nulle queβ12 = 1. Notez que l’hypoth`ese nulle revient `a imposer une restriction (contrainte) sur la valeur de ces deux coefficients. Isolantβ2 nous donne

β2 = 1−β1.

Maintenant, substituant dans le mod`ele, nous avons :

Yi0+X1iβ1+X2i(1−β1) +. . .+Xkiβk+ui,

que nous pouvons r´e´ecrire comme :

Yi−X2i0+ (X1i−X2i1+X3iβ3+. . .+Xkiβk+ui.

On peut estimer ce mod`ele (la version contrainte) avec un logiciel commeR,STATAouGRETL en d´efinissant une nouvelle variable d´ependanteY˜i ≡Yi−X2i et une nouvelle variable

explicativeZi ≡X1i−X2i. Le mod`ele `a estimer devient :

i0+Ziβ1+X3iβ3+. . .+Xkiβk+ui.

Notez bien que ce que nous venons de fairen’est pas la mˆeme choseque ce que nous avons fait pour transformer le mod`ele pour tester une seule hypoth`ese dans le cadre d’une combinaison lin´eaire de coefficients. Dans ce dernier cas, nous avons propos´e d’estimer un mod`ele ´equivalent au mod`ele initial. Puisqu’il ´etait ´equivalent, l’estimation ´etait valide sans imposer des hypoth`eses additionnelles. Dans le pr´esent contexte, le mod`ele transform´e n’est pas ´equivalent au mod`ele

initial. Il n’est valide que sous les contraintes deH0.

Nous savons que la loiF est d´efinie seulement pour des valeurs positives de la variable al´eatoire.

Dans ce cas, les estim´es MCO du mod`ele contraint proviennent de la solution `a un probl`eme de minimisation contraint, o`u la contrainte est l’hypoth`ese nulle que nous voulons tester. Les estim´es MCO du mod`ele non contraint proviennent de la solution `a un probl`eme de minimisation o`u cette contrainte n’est pas impos´ee. Pour cette raison, la somme des r´esidus carr´es du mod`ele contraint doit ˆetre au moins aussi ´elev´ee que pour le mod`ele non contraint, et la statistiqueF calcul´ee par une des formules ou par l’autre doit ˆetre positive.13

L’extension au cas d’hypoth`eses jointes est directe.

Documents relatifs