• Aucun résultat trouvé

Nous présentons le principe de la prévision, sans entrer dans le détail des calculs. Le calcul de la prévision nous amène à introduire la fonction d’autocorrélation partielle, utile pour identifier le modèle ARMA d’une série (cf. section 4.6).

4.4.1 Principe

On dispose de y1, y2, . . . , yT, observations d’une série stationnaire de moyenne μ et de fonction d’autocovariance γl, l = 0, 1, 2 . . . et l’on veut la série en T + h,

h≥ 1. Par convention, la prédiction de yT +h connaissant le passé yT, yT −1, . . . , y1

de la série est la fonction de ces observations qui minimise l’erreur quadratique moyenne (EQM) de prévision E((yt+h−g)2) pour toutes les fonctions g(.) du passé

jusqu’en t. Ce minimum est atteint pour la fonction, espérance conditionnelle au passé, notée

E(yt+h|yt, yt−1, . . . , y1).

C’est le meilleur prédicteur de ytà l’horizon h. Il est souvent difficile de calculer cette espérance conditionnelle, aussi se restreint-on à g(.), fonction linéaire des ob-servations passées. On appelle alors g(.) espérance conditionnelle linéaire (EL) et la prédiction associée est le meilleur prédicteur linéaire, abrégé en BLP (Best Linear

Predictor ) de yT +h; nous le noterons yT +h|T ou EL(yT +h|yT, yT −1, . . . , y1) ; cette question est présentée notamment par Gourieroux & Monfort (1995, chap. 3) et Hamilton (1994). Le BLP est de la forme : a0+ T

k=1akyT +1−k. Nous admettrons qu’il vérifie le système linéaire :

a0= μ(1− T i=1 ai), ΓTaT = γT(h) (4.31) où aT = [a1, . . . , aT], ΓT = [γi−j]Ti,j=1, γT(h) = [γh, γh+1, . . . , γh+T −1].

Propriété 4.4 (Meilleur prédicteur linéaire d’un processus stationnaire)

de yT +h vérifie yT +h|T = μ + T i=1 ai(yT +1−i− μ), (4.32) E[yT +h− yT +h|T] = 0, (4.33) E[(yT +h− yT +h|T)yt] = 0, t = 1, . . . , T, (4.34) E[(yT +h− yT +h|T)2)] = γ0− a TγT(h). (4.35) Remarques

– La deuxième équation dit que l’espérance mathématique du BLP est égale à celle de la quantité à prédire. Le BLP est dit sans biais.

– La troisième équation dit que l’erreur de prédiction est orthogonale à yt, t≤ T .

– L’erreur quadratique de prévision à l’horizon h est donnée par (4.35). A l’horizon 1, cette erreur est aussi appelée erreur quadratique moyenne, EQM ou MSE (Mean Square Error ).

– Si ytest gaussien, le meilleur prédicteur se confond avec le meilleur prédicteur linéaire. Dans ce livre, à l’exception du chapitre 12 où les séries étudiées montrent de l’hétéroscédasticité conditionnelle et ne peuvent donc pas être considérées comme gaussiennes, espérance conditionnelle et espérance conditionnelle linéaire se confondent.

– Comparons (4.31) avec les équations de Yule-Walker (4.27) obtenues pour un AR(p). On voit que pour un AR(p), (a1, . . . , ap)≡ (φ1, . . . , φp), autrement dit, la prévision à l’horizon 1, basée sur p instants passés, est l’équation d’autoré-gression, au bruit près. Nous reviendrons sur cette observation dans la prochaine section.

4.4.2 Fonction d’autocorrélation partielle

Considérons une série stationnaire{yt} centrée et ses régressions linéaires sur son

passé résumé à une, deux, trois . . . observations :

yt = φ1,1yt−1+ u1t (4.36)

yt = φ1,2yt−1+ φ2,2yt−2+ u2t

yt = φ1,3yt−1+ φ2,3yt−2+ φ3,3yt−3+ u3t

.. .

Par exemple, φ1,2yt−1+ φ2,2yt−2désigne le BLP de ytconnaissant yt−1 et yt−2, et s’obtient en résolvant (4.31) où a0= 0, c’est-à-dire :

 γ0 γ1 γ1 γ0   φ1,2 φ2,2  =  γ1 γ2  .

Considérons les φk,k, k = 1, 2, . . . Ils ont la même interprétation que les

coeffi-cients d’une régression linéaire classique : φk,kreprésente l’apport d’explication de

yt−k à yt, toutes choses égales par ailleurs, c’est-à-dire étant donné qu’on régresse également sur yt−1, . . . , yt−k+1. Ils forment la fonction d’autocorrélation partielle que nous abrégerons en PACF.

Supposons en particulier que yt soit autorégressif, un AR(3) pour fixer les idées, alors il est clair que yt−4n’apporte rien de plus que yt−1, yt−2, yt−3pour expliquer

ytet on montre en effet que pour un AR(3), φk,k= 0, k > 3. D’une façon générale on a :

Propriété 4.5

(a) La PACF d’un AR(p) est nulle à partir de l’ordre p + 1.

(b) La PACF d’un processus qui a une composante moyenne mobile a une

dé-croissance exponentielle.

Ainsi la PACF d’un ARMA(p, q), q > 0 présente une décroissance exponentielle ou sinusoïdale amortie.

Calcul de la PACF. L’algorithme de Durbin-Levinson (voir Brockwell & Da-vis, 2002 ou Shumway & Stoffer, 2006) calcule itérativement la PACF à partir de l’ACF. Les estimations φk,k, k = 1, 2, . . . obtenues en appliquant l’algorithme

de Durbin-Levinson à l’ACF empirique forment la fonction d’autocorrélation

par-tielle empirique. L’algorithme de Durbin-Levinson est programmé dans la fonction

PacfDL()de FitAR. D’un point de vue pratique, on pensera qu’une série suit un AR(p) si les φk,k 0, k > p, précisément :

Propriété 4.6

Si yt est un AR(p), alors :

(a) φp,p converge vers φp,p quand T → ∞,

(b) φl,l,∀l > p converge vers 0 quand T → ∞,

(c) var( φl,l) 1/T ∀l > p.

Si la PACF empirique d’une série n’est plus significativement différente de zéro à partir d’un certain ordre k, on essaiera de lui ajuster un modèle AR(k− 1).

Exemple 4.5 Calculons à l’aide de l’algorithme de Durbin-Levinson la PACF d’un AR(2)

yt=−0.7yt−1+ 0.2yt−2+ zt (4.37)

puis les coefficientsaT jusqu’à T = 4 du système (4.31). Vu la discussion de (4.36), nous nous attendons à trouver, pour k > 2, des coefficients ak nuls. Nous calculons d’abord la fonction d’autocovariance théorique, g, à l’aide de TacvfARMA(). La fonction PacfDL() a comme argument la fonction d’autocorrélation, g/g[1].

> g=TacvfARMA(phi=c(-.7,.2),lag.max=4) > (a=PacfDL(g/g[1],LinearPredictor=TRUE))

$Pacf

[1] -8.750000e-01 2.000000e-01 7.401487e-16 1.644775e-16

$ARCoefficients

[1] -7.000000e-01 2.000000e-01 8.552829e-16 1.644775e-16

$ResidualVariance [1] 0.225

> g[1]-t(as.matrix(a$ARCoefficients))%*%as.matrix(g[-1])

[,1]

[1,] 1

a$Pacf est le vecteur des φk,k, effectivement nuls à partir de k = 3. Le vecteur a$ARCoefficients est le vecteur (a1, . . . , a4), avec (a1, a2) = (φ1, φ2) et ak = 0 à partir de k = 3. La dernière ligne de code calcule la variance de l’erreur de prédiction à l’horizon 1, expression (4.35). Elle vaut 1, comme on s’y attendait, car le bruit utilisé pour calculer la fonction d’autocovariance par TacvfARMA() est supposé de variance 1.

Exercice 4.4

Simuler une trajectoire de 200 valeurs d’un processus autor´egressif ob´eissant `a (4.37) et calculer la PCF empirique jusqu’au retard 4. Comparer avec l’exemple pr´ec´edent.

4.4.3 Prévision d’un modèle autorégressif

Nous considérons {yt} AR(p), avec zt, bruit blanc gaussien. Après la discussion qui précède, nous admettrons les résultats suivants.

Prévision à l’horizon 1. L’espérance linéaire de

yt+1= φ0+ φ1yt+ φ2yt−1+ . . . + φpyt+1−p+ zt+1,

conditionnellement à son passé est :

yt+1|t= φ0+ φ1yt+ φ2yt−1+ . . . + φpyt+1−p,

l’erreur de prédiction associée est donc

et(1) = yt+1− yt+1|t= zt+1

et l’erreur quadratique moyenne de prévision est égale à la variance, σz2. C’est la variance de yt+1conditionnellement au passé de la série. Dans ce modèle, elle est indépendante de t. Le bruit blanc zt+1peut être interprété comme la correction à la prédiction mécanique de yt+1par les valeurs les plus récemment observées. On appelle d’ailleurs souvent innovation le bruit blanc ztdans les séries représentables par un filtre linéaire et causal.

Prévision à l’horizon 2. La prévision de

yt+2= φ0+ φ1yt+1+ φ2yt+ . . . + φpyt+2−p+ zt+2

connaissant le passé yt, yt−1, . . . est toujours l’espérance conditionnelle linéaire

par rapport à ce passé. Comme l’espérance d’une somme de v.a. est la somme des espérances :

yt+2|t= φ0+ φ1yt+1|t+ φ2yt+ . . . + φpyt+2−p

et l’erreur de prédiction est :

et(2) = yt+2− yt+2|t= zt+2+ φ1et(1) = zt+2+ φ1zt+1,

d’espérance nulle et de variance σ2z(1 + φ21). La variance de l’erreur de prévision augmente évidemment avec l’horizon de prévision.

La prévision d’un AR(p) à un horizon h quelconque est :

yt+h|t= φ0+ φ1yt+h−1|t+ φ2yt+h−2|t+ . . . + φpyt+h−p|t (4.38) où yt+h−k|t= yt+h−k si h− k ≤ 0.

On peut montrer que pour un AR(p), yt+h|t → E(yt) quand h → ∞. C’est la

propriété dite de retour à la moyenne et la variance de l’erreur de prévision tend vers la variance de yt. Dans la pratique, on remplace les φ par leurs estimations et on ne tient pas compte de la variabilité de ces dernières pour établir la prévision, qu’on note alorsyt+h|t. Nous n’aurons pas besoin de préciser davantage les notions d’espérance conditionnelle et d’espérance conditionnelle linéaire.

4.4.4 Prévision d’un MA(q)

On a observé yt, MA(q), jusqu’en t et on veut le prédire en t + h, h≥ 1. Le passé

est engendré de façon équivalente par yt, yt−1, . . . ou par zt, zt−1, . . . .

Prévision à l’horizon 1.

yt+1= μ + zt+1+ θ1zt+ θ2zt−1+ . . . + θqzt+1−q,

donc

yt+1|t= E(yt+1|yt, yt−1, . . . ) = μ + θ1zt+ θ2zt−1+ . . . + θqzt−q

et l’erreur de prédiction associée est :

et(1) = yt+1− yt+1|t= zt+1,

de variance σ2z. Pour un horizon h > q, on voit que la prévision est μ, le retour à la moyenne se fait en q étapes. Cette formulation de la prévision d’un MA n’est pas très pratique car elle fait intervenir l’erreur, non observée. Shumway & Stoffer (2006) et Brockwell & Davis (2002) présentent la prévision en détail et l’illustrent de nombreux exemples. Nous pratiquerons la prévision sur des modèles préalablement estimés dans les chapitres étudiant des cas réels.