• Aucun résultat trouvé

Choix de l’ordre p

Dans le document Les modèles VAR(p) (Page 95-98)

Différents tests sont proposés pour choisir le bon ordre du modèle.

4.5.1 La statistique du rapport de vraisemblance et tests séquentiels

L’objectif de ce test est de comparer deux modèles, l’un qui est dit contraint et l’autre qui est le modèle complet.

Rappelons que la statistique du rapport de vraisemblance, notée λRV, est :

λRV = 2(ln l(δMV) − ln l(δMV,c))

où l(δMV) représente la fonction de vraisemblance associée au modèle complet et l(δMV,c), celle du

modèle contraint selon l’hypothèse nulle. Dans notre contexte, on a :

H0: Le modèle VAR(p − 1) est vrai ou Ap= 0

H1: Le modèle VAR(p) est vrai ou Ap6= 0

Par la suite, nous utiliserons cette statistique pour effectuer des tests séquentiels conditionnels jusqu’à ce qu’on obtienne le bon ordre de modèle. Ils sont conditionnels parce qu’ils dépendent des résultats des tests précédents. Le nombre de tests effectués au total sera donc fonction du nombre d’hypothèses nulles non rejetées. On définit de ce fait, un ordre p maximal qu’on note Mmax. Les matrices Ai sont

les matrices de coefficients déjà définies dans les sections précédentes (définition 4.5) . Le premier test effectué sera donc :

H01: Le modèle VAR(Mmax− 1) est vrai ou AMmax = 0

H11: Le modèle VAR(Mmax) est vrai ou AMmax 6= 0.

Si l’hypothèse nulle n’est pas rejetée, on effectuera le test suivant :

H02: Le modèle VAR(Mmax− 2) est vrai ou AMmax− 1 = 0

H12: Le modèle VAR(Mmax− 1) est vrai ou AMmax− 1 6= 0|AMmax= 0,

et, ainsi de suite, jusqu’à ce qu’on trouve un ordre appelé m qui est tel que le résultat du test d’hypo- thèses

H0: Am+1= 0

H1: Am+16= 0|AMmax= 0, . . . ,Am+2= 0

est que l’hypothèse nulle n’est pas rejetée, mais celui de H0: Am= 0

H1: Am6= 0|AMmax= 0, . . . ,Am+1= 0

rejette l’hypothèse nulle ; notons que m est compris entre 0 et Mmax.

Dans le cas d’un VAR(p), la statistique du rapport de vraisemblance pour la i-ème hypothèse nulle est notée λRV et est donnée par

λRV = n(ln |ΣµMV(Mmax− i)| − ln |ΣµMV(Mmax− i + 1)|), (4.29)

où ln |ΣµMV(Mmax− i)| est la log-vraisemblance associée à la variance de l’erreur de prévision d’un

modèle VAR(Mmax− i) estimée selon la méthode du maximum de vraisemblance. La statistique λRV

donnée par l’expression (4.29) suit une loi khi-carrée avec K2degrés de liberté lorsque H0est vraie. En

effet, le nombre de contraintes équivaut au nombre d’éléments de la dernière matrice de coefficients, c’est-à-dire K2car elle est une matrice carrée avec K lignes.

Les modèles choisis grâce à cette méthode ont tendance à être moins parcimonieux que ceux sélec- tionnés par les critères d’information.

4.5.2 Les critères d’information

Dans le processus de sélection de modèle, diverses méthodes parmi lesquelles figurent les critères d’information sont mises à la disposition de l’analyste. Il est important de tenir compte de l’objectif que l’on cherche à atteindre lorsqu’on sélectionne l’ordre du modèle VAR(p). Nous allons présenter 4 critères qui sont à minimiser et les comparer en fonction des propriétés qu’ils possèdent. En effet, l’ordre choisi pour un critère est celui du modèle VAR(p) qui a la plus petite valeur du critère parmi les modèles candidats.

1. L’erreur finale de prédiction ou FPE : ce critère a été proposé parAkaike(1969,1971). Il pro- pose de baser le choix du modèle sur la minimisation de l’erreur quadratique moyenne prédite à l’horizon 1. On a FPE(m) = n+ Km + 1 T T n− Km − 1ΣµMV(m) = n + Km + 1 n− Km − 1 K |ΣµMV(m)|

où ΣµMV(m)) est l’estimateur du maximum de vraisemblance de Σulorsqu’un ordre égal à m est

choisi, c’est-à-dire si on a ajusté un VAR(m). L’ordre ˆp(FPE) est la valeur de l’ordre du modèle dont le critère FPE est le plus petit parmi les candidats (m = 0,1, . . . , Mmax) ;

2. Le critère d’information d’Akaike ou AIC. Il a été proposé parAkaike(1973,1974) et AIC(m) = ln |ΣµMV(m)| +

2mK2 n ,

pour (m = 0,1, . . . , Mmax). On choisit l’ordre ˆp(AIC) du modèle dont le critère AIC est mini-

misé ;

3. Le critère d’information Bayesien ou BIC. Proposé parSchwarz et al.(1978), il est égal à BIC= ln |ΣµMV(m)| +

2mK2ln n

n ,

pour (m = 0,1, . . . , Mmax). On choisit l’ordre ˆp(BIC) du modèle dont le critère BIC est mini-

misé ;

4. Le critère d’information de Hannan-Quinn ou HQ. Il a été proposé par Hannan and Quinn

(1979) . On a

HQ= ln |ΣµMV(m)| +

2mK2ln ln n

n ,

pour (m = 0,1, . . . , Mmax). On choisit l’ordre ˆp(HQC) du modèle dont le critère HQC est mini-

misé.

Ces critères peuvent être comparés selon différentes propriétés. En effet, la notion de performance d’un critère dépend de la définition que l’on donne à cette performance ou optimalité. Tout d’abord, lorsque l’objectif de l’analyse est la prédiction, on choisira le FPE ou l’AIC car ils préservent l’effica- cité asymptotique, ce que BIC et HQ ne font pas. On a que ln FPE(m) = AIC(m) + 2K/n + O(n−2), ce qui permet d’affirmer que ces deux critères ont tendance à sélectionner le même modèle pour des échantillons plus ou moins larges puisque la valeur 2K/n ne dépend pas de l’ordre m.

Déterminer la consistance d’un estimateur revient à déterminer si les probabilités asymptotiques de sous-estimer et de surparamétrer un modèle sont toutes les deux nulles. En d’autres termes, les esti- mateurs des ordres donnés par un critère sont dits consistants si ce critère sélectionne la plupart du temps le vrai modèle. En ce sens, les critères BIC et HQ sont fortement consistants contrairement à l’AIC et le FPE. Le premier est convergent en probabilité et presque sûrement pendant que le second, qui peut avoir une vitesse de convergence faible10, l’est en probabilité. Il serait un compromis11entre

10. Olivier et al.(1997) 11. Olivier et al.(1997)

l’AIC et le BIC. L’AIC et le FPE ont tendance à surestimer le vrai ordre du modèle. Cependant, des études ont prouvé que lorsque le vrai ordre est infini, l’AIC semble plus performant lorsqu’on ajuste un modèle d’ordre fini. Par exemple,Paulsen and Tjøstheim(1985, p. 224) affirment que le bon ordre est choisi si le nombre de composantes est élevé (K ≥ 5). Mais, Galbraith and Zinde-Walsh(2004) concluent, dans leur étude, que le BIC est de loin plus performant que l’AIC lorsque l’on choisit la distance de Hilbert entre le vrai modèle et le modèle estimé comme condition de performance des critères, et ce même si le vrai processus est d’ordre infini. Les critères FPE et HQ, quant à eux, sont aussi performants mais moins bons que le BIC. En somme, l’AIC et le FPE font choisir des ordres supérieurs à ceux du BIC et de HQ, mais on accordera une préférence à l’AIC et au FPE dans le cas des échantillons de petite taille car le BIC choisit des modèles sousparamétrés et fortement biaisés.

Proposition 4.10 Soit un échantillon de taille n du processus K-vectoriel yt et y−M+1, . . . ,y0, un en-

semble de valeurs connues à l’avance. Si on ajuste des modèles VAR(m) d’ordres égaux à 1, . . . , M à notre échantillon, alors :

ˆ p(SC) ≤ ˆp(HQ) ≤ ˆp(AIC)pour n ≥ 16; ˆ p(HQ) ≤ ˆp(AIC)pour 8 ≤ n ≤ 16 et ˆ p(SC) ≤ ˆp(HQ)pour n ≤ 7.

Toutes ces comparaisons nous conduisent à affirmer que le critère choisi pour la sélection de modèle dépend de l’objectif de l’analyse et des informations dont on dispose sur les données. Ces informations peuvent être la taille de l’échantillon, la complexité du modèle, les modèles candidats, la présence du vrai modèle parmi ceux-ci, etc. Au lieu d’avoir une préférence pour un seul critère, il sera intéressant de comparer les modèles selon différents critères et de choisir le modèle minimisant une majorité des critères d’information.

Dans le document Les modèles VAR(p) (Page 95-98)

Documents relatifs