S´eries temporelles : mod`eles et statistiques
Cet enseignement a fait l’objet d’un cours - td d’environ 40 heures au Master-2“Statistiques appliqu´ees aux sciences du vivant” de l’Universit´e de Cotonou en novembre 2008. L’objectif ´etait de pr´esenter les principaux mod`eles de s´eries temporelles (ST), ou encore s´eries chronologiques (SC), leurs statistiques et les m´ethodes de pr´evision. L’´etude d’une ST a un double objectif : mod´eliser pour expliquer un ph´enom`ene observ´e ; pr´edire la s´erie dans le futur. Le plan de ce cours est le suivant :
1. Mod`eles stationnaires au second ordre.
2. Mod`eles non-stationnaires.
3. Pr´ediction.
4. Mod`eles ARMA.
5. Un peu de th´eorie spectrale.
6. Estimation d’un ARMA.
7. R´egression `a r´esidus corr´el´es, ARIMA et SARIMA.
8. Pr´evision sans mod`ele.
9. SC bivari´ee ; mod`ele ARCH.
10. Annexes et r´ef´erences.
A l’inverse d’un ´echantillon, les observations d’une SC sont d´ependantes, cette d´ependance tem- porelle ´etant mod´elis´ee de fa¸con causale avec comme mod`eles centraux les ARMA. La litt´erature sur ce sujet est abondante. Deux livres “historiques” donnent la pr´esentation moderne des SC : Anderson (1971), The statistical analysis of time series (J. Wiley) et Box et Jenkins (1976) : Time Series Analysis : Forecasting and Control (Holden-Day). Le livre de Brockwell et Davis (1991), Time Series : Theory and Methods (Springer) est une r´ef´erence th´eorique incontournable mais difficile. Ces mˆemes auteurs ont ´ecrit un deuxi`eme livre, Introduction to Time Series and Forcasting (2002), qui est une approche plus simple, claire, bien illustr´ee et `a laquelle est jointe un tutoriel, ITSM, tr`es p´edagogique, ouvrage duquel nous avons retir´e quelques id´ees ou exrcices.
Il existe ´egalement des polycopi´es disponibles sous le label “S´eries Temporelles”
Le logiciel R
R est un outil indispensable `a une bonne compr´ehension du cours et `a sa mise en application.
Nous conseillons vivement au lecteur d’avancer dans la lecture de ce cours en ouvrant une deuxi`eme fenˆetre ‘‘R’’et en faisant les va-et-vient indispensables entre les notions et r´esultats pr´esent´es et les fonctions deR qui leurs sont d´edi´es. Quelques-unes de ces fonctions sont donn´ees dans le cours du texte. Pour l’installation de R et une premi`ere description, c.f. l’annexe du §10.5.
Un exemple introductif : la s´erie des niveaux du lac Huron. Parcourant le pack- age DataSets de R, en extraire la s´erie temporelle LakeHuron : cette s´erie annuelle donne les niveaux du lac Huron de 1875 `a 1972 (n = 98 donn´ees). D´eclarant cette suite comme une s´erie chronologique (x=ts(LakeHuron)) et utilisant la fonction Plot, repr´esenter graphiquement cette s´erie X1, X2,· · · , X98 (pour d’autres jeux de donn´ees, cf. § 10.5.1).
Qu’observe-t-on ? Une d´ecroissance moyenne de ce niveau, approximativement affine, qu’on peut mod´eliser par :
Xt=a+bt+et, t = 1,98.
Il est facile d’estimer cette tendance par moindres carr´es ordinaires (fonction lm de R). On peut alors analyser les r´esidus estim´es bet=Xt−(ba+bbt), t= 1,98.
On commencera par repr´esenter graphiquement cette s´erie. En moyenne, les bet successifs gar- dent un mˆeme signe avec seulement 10 changements de signes sur 98 instants : ceci indique une corr´elation positive entre lesbesuccessifs. Ainsi, se pose une question centrale dans l’´etude des SC : b
e est-il un bruit blanc (BB), c-`a-d une suite de variables centr´ees, de mˆemes variances et non- corr´el´es ? Pour r´epondre `a cette question, on va utiliser le programme acf (du package stats) qui fournit le graphique des premi`eres auto-covariances empiriques de X, avec les limites de l’in- tervalle de confiance au niveau 95% sur cette acf empirique si be ´etait un BB : clairement, be n’est pas un BB (on donnera des proc´edures de test statistique pour d´ecider de cela).
Mais pourquoi est-il important de savoir si be est un BB ou non ? Parce qu’il est int´eressant de savoir s’il y a une tendance pour les r´esidus `a garder localement un signe positif (p´eriode de recharge du lac) ou n´egative (p´eriode de baisse de niveau), cela une fois ˆot´ee la tendance affine b
a+bbt. Une autre raison est la suivante : si on veut pr´evoir la hauteur du lac en 1973 ou plus tard, il est important de savoir si be est corr´el´e ou non : si be est un BB, la bonne pr´evision naturelle en 1973 est Xb1973 =ba+bb×99 et dans ce cas, on ne peut pas faire mieux. Mais sibe n’est pas un BB, on peut faire mieux en utilisant la structure de corr´elation de be. Par exemple, s’il est raisonnable de mod´eliser be par un AR(1),
b
et=ρbet−1+ηt (η un BB),
o`u on estimeρparbρ, alors la pr´edictionXe1973 =ba+bb×98+bρ×be1972,o`ube1972 =X1972−(ba+bb×1972), est meilleure que la pr´ec´edente.
Cet exemple simple soul`eve quelques-unes des questions qui seront ´etudi´ees ici : X est-elle de moyenne constante ? Si non, quel mod`ele proposer pour la moyenne de X? Comment rendre X stationnaire en moyenne ? Le r´esidu de la r´egression envisag´ee est-il un BB ? Sinon, quel mod`ele stationnaire proposer pour ce r´esidu et comment l’estimer ? Comment utiliser cette structure au premier ordre (moyenne) et second ordre (covariance des r´esidus) pour pr´evoir au mieux la s´erie dans le futur ? Comment valider le mod`ele retenu (premier et second ordre) ?
1 Mod` ele stationnaire au second ordre
1.1 D´ efinitions
La notion fondamentale qui structure la mod´elisation d’un processus temporel est-celle de stationnarit´e. Commen¸cons par donner quelques d´efinitions
1. Une SC (un processus)X = (Xt, t ∈ Z) est dite du second ordre (on note X ∈ L2) si pour tout t, E(Xt)2 < ∞. Dans ce cas, E(|Xt|) < ∞, l’esp´erance existe et il est ´equivalent de dire que V ar(Xt) < ∞ pour tout t. On note m(t) = E(Xt) la fonction moyenne de X et C(s, t) =Cov(Xs, Xt) sa fonction decovariance.
2. X est gaussienne si toute combinaison lin´eaire finie des (Xt) est gaussienne : pour toute suite d’instantst1, t2,· · · , tK et de poids r´eelsa1, a2,· · · , aK,Y =PK
j=1ajXtj est gaussienne.
Une s´erie gaussienne est toujours du second ordre mais l’inverse n’est pas vrai. La loi d’un processus gaussien est enti`erement caract´eris´ee par ses fonctions moyennem(·) et covariance C(·,·).
3. Un processus X est dit stationnaire au second ordre si pour tout t, s ∈ Z, la moyenne est constante et la covariance C(s, t) ne d´epend que de (t−s) :
∀s, t :m(t) =E(Xt) =m et Cov(Xs, Xt) =C(s, t) =γ(s−t).
h 7→ γ(h) est la fonction d’auto-covariance (acvf) de X et h 7→ ρ(h) = γ(h)γ(0) sa fonction d’auto-corr´elation (acf).
4. Un processusX est strictement stationnaire si pour tout k >0, toute suite t1, t2,· · · , tk et tout h ∈ Z, les lois de (Xt1, Xt2,· · · , Xtk) et de (Xt1+h, Xt2+h,· · · , Xtk+h) sont identiques : la translation T(h) : t −→ t+h laisse invariante la loi de X. Un processus strictement stationnaire et du second ordre est stationnaire au second ordre mais l’inverse n’est pas vrai en g´en´eral, sauf pour les processus gaussiens.
Dans ce cours, nous utiliserons principalement la notion de stationnarit´e au second ordre : sans mention explicite, “stationnaire” signifiera “stationnaire au second ordre”.
5. Un processus e = (et, t ∈ Z) est un bruit i.i.d. si e est une suite i.i.d. centr´ee. Si la loi commune des et est L, on notera e ∼ i.i.d.(L) et e ∼ i.i.d.(0,σ2) si L est centr´ee et de variance finie σ2, e ∼ i.i.d(N(0,σ2)) si la loi commune est gaussienne centr´ee de variance σ2.
6. Un processus e = (et, t ∈ Z) est un bruit blanc faible (not´e BB) si e est stationnaire au second ordre, centr´e, avec Cov(et, es) = 0 si s 6= t. On notera e ∼ BB(0,σ2) si V ar(et) = E(e2t) =σ2.
1.2 Exemples
Marche al´eatoire : poure∼i.i.d.(0,σ2), on d´efinit X0 =e0 et pour t≥0,Xt+1 =Xt+et+1.X n’est pas stationnaire car V ar(Xt) = tσ2 n’est pas constante. Plus g´en´eralement, Cov(Xt, Xs) = sσ2 si s≤t.
Processus MA(1) : soit e∼BB(0,σ2),θ ∈R et la s´erie,
Xt =et+θet−1, t≥1 (1)
X est stationnaire centr´e de covariance,
γ(0) =σ2(1 +θ2), γ(1) =γ(−1) =θσ2 et γ(h) = 0 si |h|≥2.
L’acvf (l’acf) d’un MA(1) est de port´ee 1.
Plus g´en´eralement (cf.§4.2), pour q un entier >0, un M A(q) est d´efini par, Xt=et+θ1et−1+· · ·+θqet−q,t ≥1.
Il est facile de voir que l’acvf est nulle si |h| ≥ q + 1. Cette propri´et´e est caract´eristique d’un M A(q).
Processus AR(1) : Soit |φ|<1. Supposons que la s´erie,
Xt =φXt−1+et o`ue∼BB(0,σ2),
est stationnaire et que et est non-corr´el´e `a Xs d`es que s < t. D’une part, E(Xt) = φE(Xt−1) et donc m = 0 (X est centr´e) ; d’autre part, pour h≥1 :
γ(h) = Cov(Xt, Xt−h) =Cov(φXt−1+et, Xt−h)
= φγ(h−1) =γ(0)φ|h|. L’acvf d’un AR(1) d´ecroit exponentiellement.
Processus lin´eaire : ces processus sont `a la base de la construction des mod`eles ARMA (cf.
§4.2). Soit e ∼ BB(0,σ2), (θj, j ∈ Z) une suite r´eelle de l2(Z) (P
Zθ2j < ∞). Alors le processus lin´eaire X associ´e aux (θj) et `ae comme d´efini ci-dessous est stationnaire :
Xt=X
Z
θjet−j est d’acvf : γ(h) =σ2X
Z
θjθj+h.
S´erie p´eriodique : soit 0 < ω < π une fr´equence donn´ee et Xt = Acos(ωt) +Bsin(ωt), A et B ´etant d´ecorr´el´ees, centr´ees, de variances finies. (Xt) est centr´ee et V ar(Xt) est constante si V ar(A) =V ar(B) =σ2.X est alors stationnaire d’acvf :
γ(h) =σ2cos(ωt).
Plus g´en´eralement, soient 0 < ω1 < ω2 < · · · < ωr < π r-fr´equences fix´ees, {Ai, Bi, i = 1, r} 2r v.a. d´ecorr´el´ees, centr´ees telles que V ar(Ai) = V ar(Bi) = σ2i < ∞, i= 1, r. Alors le m´elange de r-processus p´eriodiques associ´es aux r fr´equences est stationnaire :
Xt= X
i=1,r
{Aicos(ωit) +Bisin(ωit)} d’acvf γ(h) = X
i=1,r
σ2i cos(ωit). (2) Un m´elange “continu” de telles composantes infinit´esimales est de fait la forme g´en´erale d’une SC du second ordre (cf. (30)).
1.3 Moyenne, acvf et acf empiriques
Supposons que X(n) = (x1, x2,· · · , xn) est l’observation de X, une s´erie stationnaire. La moyenne empirique est :
x=mb = 1 n
Xn 1
xi. L’acvf empirique `a distance hest :
b
γ(h) = 1 n
nX−|h|
i=1
(xi+|h|−x)(xi−x), −n < h < n.
Diviser parn, et non par (n−|h|), le nombre de termes de la somme, garantit queΓbn= [bγ(i−j)]ni,j=1 est s.d.p., propri´et´e importante pour l’estimation et la pr´ediction.
Enfin, l’acf empirique estbρ(h) = bγ(h)bγ(0) pour−n < h < n.
1.3.1 Exercices
1. Simuler n = 200 valeurs i.i.d. N(0,1) et calculer moyenne et auto-corr´elations empiriques (fonctions rnorm etacf deR).
2. Soit {Zt}∼ i.i.d. N(0,σ2), a, b et c trois constantes. Parmi lequels des processus suivants, lesquels sont stationnaires et pr´eciser la moyenne et l’acvf de ceux qui le sont :
(a) Xt=a+bZt+cZt−2; (b) Xt =Z1cos(ct) +Z2sin(ct) ; (c) Xt=Ztcos(ct) +Zt−1sin(ct) ; (d) Xt =Z2t;
(e) Xt=ZtZt−1; (f) Xt=f(Zt, Zt−1) o`u f est continue et born´ee ; (g) Xt=ZtZ2t; (h) Xt=Zt2Zt+1.
3. BB i.i.d. ou Bruit Blanc faible : soit {Zt}∼i.i.d. N(0,1) et X, Xt =
½ Zt si t est pair et
√1
2(Zt2−1−1) sinon. (3)
(a) - V´erifier queX ∼BB(0,1) mais queX n’est pas une suitei.i.d.. Que vautE(Xn+1 |Xn) suivant la parit´e de n?
(b) - Simuler une s´erieX de longueur 200. Graphique et acvf empiriqueX. Cela confirme-t-il la non-corr´elation de X?
(c) - Soit Yt =Xt2, t = 1,200 ; acvf empirique de Y ; Y est-elle un BB? En d´eduire que la suite X n’est pasi.i.d.. Et si Yt =|Xt|?
4. On notebρ(h) l’acf des observations x1, x2,· · · , xn.
a - Montrer que bρ(h)−→1 si n→ ∞ pourxt=a+bt,b6= 0.
b - Montrer que bρ(h)−→cos(ah) sin→ ∞pour xt= cos(at).
1.4 Propri´ et´ es
Auto-covariance :
1. γ(0) ≥0,|γ(h)|≤γ(0) et γ(h) =γ(−h) pour tout h.
2. Pour toute suite a1, a2,· · · , aK r´eelle : V ar(
XK t=1
atXt) = XK i,j=1
aiajγ(i−j)≥0. (4) Cette propri´et´e traduit que l’acvf γ(·) estsemi-d´efinie positive (s.d.p.). Elle estd´efinie posi- tive (d.p.) si on a la stricte positivit´e d`es quea 6= 0. Cette d´efinition est analogue `a la s.d.p.
des matrices [γ(i−j)]Ki,j=1 pour toutK ≥1. On a la propri´et´e r´eciproque et caract´eristique suivante :
3. Une fonction r´eelle sur N est une acvf si et seulement si (ssi) elle est paire et s.d.p..
4. S’assurer qu’une fonctionκ(·) est une acvf ? Le plus simple est de “proposer” une s´erie dont l’acvf est γ(·) (cf. aussi la caract´erisation d’une acvf via la densit´e spectrale de X, §5.1).
Par exemple, montrons que la fonction κ(·) d´efinie ci-dessous est une covariance ssi|ρ|≤ 12 : κ(0) = 1,κ(h) =ρ si |h|= 1 et κ(0) = 0 sinon. (5)
• La condition est suffisante : le MA(1) (1) admet pour acvf γ(1) = 1+θθ 2 = ρ, ´equation en θ qui admet bien une racine r´eelle si |ρ|≤ 12; pour avoir γ(0) = 1, on imposeraσ2(1 +θ2) = 1.
•• La condition est n´ecessaire : ou κ(·) n’est pas une acvf sinon. Pour cela, on propose a t.q. (4) n’est pas v´erifi´ee : si ta= (1,−1,1,−1,· · ·)∈Rn, alorstaKna=n−2ρ(n−1) siK = [κ(i−j)]ni,j=1 et donc que taKna <0 si|ρ|> 12 etn grand :κ(·) n’est pas une acvf.
1.4.1 Exercices
1. X etY sont deux SC stationnaires au second ordre et ind´ependantes. D´emontrer queX+Y est stationnaire.
2. En identifiant une s´erie associ´ee appropri´ee, v´erifier que C1 etC2 sont des covariances : C1(h) = 4×(0.5)|h|+ cos(ah) ;
C2(h) = 1 si h= 0, C2(h) = 0 si |h|= 1 ou |h|≥3 et C2(h) = 0.4 si |h|= 2.
1.5 Propri´ et´ es des estimations empiriques
Soit X(n) = (X1, X2,· · · , Xn) l’observation d’une s´erie X stationnaire au second ordre.
1.5.1 Moyenne empirique.
— Xn = n1P
i=1,nXi estime sans biais la moyenne m=E(X1).
— Siγ(h)h−→→∞0, alorsV ar(Xn−µ) =E(Xn−µ)2 n−→→∞0 (on noteXn L2
−→µcette convergence en moyenne quadratique).
— Si de plusv=P
h∈Z|γ(h)|<∞, alors :V ar(Xn)∼ vn.
Anticipant la d´efinition des mod`eles lin´eaires (cf. §4.2), on a la convergence en loi suivante :
— Si de plusX est un processus lin´eaire (i.e. un ARMA) associ´e `a un bruit i.i.d.(0,σ2) : Xn∼N(µ, v
n).
L’intervalle de confiance (IC) approch´e de m `a 95% est [Xn−1.96pv
n, Xn+ 1.96pv
n].
1.5.2 Lois des covariances et corr´elations empiriques.
Soient bγ(h) et bρ(h) pour −n < h < n les acvf et acf empiriques de X calcul´ees `a partir de l’observation X(n). On a :
— Ces estimations sont approximativement sans biais si nest “grand”.
— Une r`egle est d’avoir au moinsn >40 observations et de se limiter aux h < n4 .
— Les matrices de covariances (de corr´elations) associ´ees aux bγ(·) sont s.d.p.. Elles sont d.p.
d`es que la loi de X1 est `a densit´e.
— Ces estimations sont asymptotiquement normales siXt =P
Zψiεt−i pour ε ∼ BB(0,σ2) `a condition que P
Z|ψi|<∞ et P
Z|i|ψ2i <∞ (BD).
— Ces deux derni`eres conditions sont satisfaites siX est un ARMA.
— Formule de Bartlett :elle pr´ecise la matrice de covariance d’un vecteur de corr´elations em- piriques ; soitρ = (ρ(1),ρ(2),· · · ,ρ(k)) etbρson estimation empirique. Alors, bρ∼Nk(ρ,Wn) o`u W est donn´ee par la formule de Bartlett :
wij =X
l∈Z
{ρ(l+i) +ρ(l−i)−2ρ(l)ρ(i)}{ρ(l+j) +ρ(l−j)−2ρ(l)ρ(j)}. (6) La formule de Bartlett est la cl´e de questions de base concernant un processus stationnaire.
Un cas particulier important est `a la base des tests de :
“(H0) : les (Xi) sont i.i.d.de variance finie”, Sous (H0),wii= 1 et wij= 0 pour tout i6=j, et donc pour sin grand :
Sous (H0) :bρ(1),bρ(2),· · · ,bρ(k) sont i.i.d. N(0,1n).
1.6 Tests de bruit blanc
1.6.1 Tests param´etriques On veut tester l’hypoth`ese,
(H0) :X ∼i.i.d(m,σ2),
de loi commune centr´ee (m = 0) ou non. Il y a 3 versions test du Chi 2 r´esultant de (6).
Test du portemanteau :
Sous (H0) :Q=n XK k=1
b
ρ2(k)∼χ2K si nest grand.
Rα ={nPK
k=1bρ2(k) ≥q(α;K)} est une r´egion de rejet approximative de (H0) au niveau α pour le α-quantile P(χ2K ≥q(α;K)) =α.
Test de Ljung-Box : est issu d’un raffinement de l’approximation par un χ2 : Sous (H0) :QLB =n(n+ 2)
XK k=1
b ρ2(k)
n−k ∼χ2K.
Test de McLeod-Li : sous (H0), la suite Yt = Xt2 est i.i.d. de variance finie si E(X14) < ∞; notant ρXX la corr´elation des (Xi2, i= 1, n), on a :
Si E(X14)<∞ et sous (H0) :QM L =n(n+ 2) XK k=1
bρ2XX(k)
n−k ∼χ2K.
Ce test permet de d´etecter qu’une suite est non i.i.d. mˆeme si son acvf empirique est proche de celle d’un BB. D’autres transformations Yt=f(Xt) peuvent ˆetre utilis´ee, par exemple Yt =|Xt|. Vous pouvez `a ce sujet reprendre l’exemple de la s´erie X d´efinie `a l’exercice 1.3.1-2).
1.6.2 Tests non-param´etriques Le test du point tournant.
2 ≤i ≤ n−1 est un point tournant d’une suite num´erique x = (x1, x2,· · · , xn) si soit xi−1 < xi
et xi > xi+1 (pic local de la suite xeni), soit xi−1 > xi etxi < xi+1 (vall´ee locale de la suitex en i). Notons :
(He0) : les (Xi) sonti.i.d. de loi commune `a densit´e,
et T le nombre de points tournants de x. Il est intuitif que T est faible si les Xi successifs sont corr´el´es positivement et queT est grand si lesXi successifs sont corr´el´es n´egativement. On propose donc comme comme r´egion de rejet de (He0) :
Rα ={¯¯T −EHe
0(T)¯¯≥s(α)},
les valeurs de T autour de son esp´erance sous He0 correspondant `a l’acceptation de (He0). Il faut
´
evaluer la loi deT sous (He0). Sous l’hypoth`ese que la loi marginale commune de Xt est `a densit´e, on a (cf. exercice 1.6.4-1) :
E(T) = 2
3(n−2) et V ar(T) = 16n−29 90 .
D’autre part, pour ngrand, on peut montrer que T est approximativement normal. La r´egion de rejet approximative au niveau α pourngrand est,t(β) ´etant leβ-quantile de la normale r´eduite :
Rα ={
¯¯
¯¯T −2
3(n−2)
¯¯
¯¯≥t(α 2)
r16n−29 90 }. Le test de signe sur la diff´erence.
On compte S le nombre de fois que xi > xi−1 pour i = 2, n : sous (He0), E(S) = 12(n−1) et on peut aussi montrer que V ar(S) = n+112 , S ´etant approximativement normale pour n grand. Les petites ou les grandes valeurs de S mettant en doute (He0), on propose comme r´egion de rejet,
Rα ={
¯¯
¯¯S−n−1 2
¯¯
¯¯≥t(α 2)
rn+ 1 12 }. Puissance des tests.
Comme on devrait le faire pour chaque test en cas de maintien de l’hypoth`ese nulle, il faut ´evaluer la puissance du test en sp´ecifiant la famille d’alternatives envisag´ees. A ce sujet, le test de signe sur la diff´erence pr´esente un risque car il conduit `a accepter (He0) si (xi) est proche de la p´eriodicit´e (S est alors proche de n−21) : le test de signe est de faible puissance pour la famille d’alternatives o`u x est proche de la p´eriodicit´e.
1.6.3 Test du caract`ere gaussien
On suppose observ´e un ´echantillon i.i.d. {ei, i= 1, n} et on veut tester (H0) :e1 ∼N(m,σ2).
Approche graphique : droite de Henry ou qq-plot Classons par ordre croissant les e : e(1) < e(2) <· · ·< e(n) et notonsu(1) < u(2) <· · ·< u(n) un ´echantillon gaussien r´eduit r´eordonn´e, mj =E(u(j)) l’esp´erance de ces statistiques d’ordre. Le qq-plot des {ei} est le graphique croisant les quantiles th´eoriques et les quantiles empiriques qq(e) = {(mj, e(j)), j = 1, n} : sous (H0), et pour n grand, les points de qq(e) sont approximativement align´es sur une droite de pente σ et d’ordonn´ee `a l’origine m. Une forte d´eviation `a cette propri´et´e fait douter de (H0), c-`a-d du caract`ere gaussien des observations. La fonctionqqplotdu packageStatsdeR permet de juger de cet alignement. Une r`egle statistique de rejet est construite sur la base der2, le carr´e du co´efficient de corr´elation empirique du graphique qq(e),
r2 = {P
(ei−e)mi}2 {P
(ei−e)2}{P m2i}
On rejettera (H0) au niveau α si Rα = {r2 < s(α)}. Pour n < 100, il existe des tables donnant s(α) ; pour n= 200, s(5%) =.987 ets(10%) =.989.
Approche param´etrique : test de Jarque-Berra (JB) La statistique de JB est construite sur la constatation suivante : une loi gaussienne est decoefficient d’asym´etrie κ3 =E(X−µ)3/σ3 nul (skewness,κ3 = 0 siX sym´etrique) et decoefficient d’applatissement κ4 =E(X−µ)4/σ4 = 3 (kurtosis).
Jarque et Bera proposent un test test de l’hypoth`ese plus faible : (He0) :κ3 = 0 et κ4 = 3.
Soient S etK les estimateurs empiriques de κ3 etκ4 calcul´es `a partir de (ei) ; alors la statistique : JB = n−p
6 {S2+1
4(K−3)2}
prend une valeur faible sous l’hypoth`ese de normalit´e. Jarque et Bera ont montr´e que la loi asymptotique de JB est, sous (He0), un χ2 `a 2 ddl. On rejette l’hypoth`ese gaussienne si on tombe dans la r´egion de rejetRα ={JB ≥q(2;α)}.
1.6.4 Exercices et fonctions R utiles
1. Test du point tournant. Soient X1, X2, X3 trois v.a.r. i.i.d.de densit´ef.
a - D´emontrer que p = P(X1 < X2 et X3 < X2) = R
RP(Y1 < Y2 et Y3 < Y2 | Y2 = y)f(y)dy) = 13. Que vaut q=P(Y1 > Y2 et Y3 > Y2) ?
b - En d´eduire que l’esp´erance du nombre de points tournants d’une s´erie {Xi, i = 1, n} de v.a.r. i.i.d.`a densit´e est 23(n−2).
2. Loi asymptotique pour la covariance empirique d’un bruit i.i.d.(0,σ2).
Soient (et, t= 1,2,· · ·) un bruit i.i.d.(0,σ2) et sa covariance empirique `a distance 1 calcul´ee pour un ´echantillon e1, e2,· · · , en :
b
γn(1) = 1 n
X
i=1,n−1
Ui o`u Ui =eiei+1, i≥1.
a - V´erifier que (Ui, i ≥ 1) est une suite strictement stationnaire du second ordre. V´erifier de plus que Ui et Uj sont ind´ependantes si |i−j|>1. Quelle est l’acvf de U?
b - Utilisant le TCL pour les suites m-ind´ependantes (cf. Annexe §10.4), d´emontrer que :
√nbγn(1)ÃN(0,σ4) et √
nbρn(1)ÃN(0,1).
c - G´en´eraliser ce r´esultat `a la corr´elation empirique `a distance k et `a la loi jointe de deux corr´elations empiriques.
3. Simuler un 200-´echantillon d’une loiL, dresser son qq-plot et tester la gaussianit´e de Lpar : (i) le test sur r2 (cor(x, y) destats) ;
(ii) la statistique JB.
On envisagera les loisL suivantes : une gaussienne (rnorm(n, mean, sd)est un g´en´erateur denv.a.i.i.d.N(m,σ2)) ; une Student (rt(n,df,ncp),ncp= param`etre de non centralit´e) ; une loi exponentielle (rexp(n,rate)) ; une loi uniforme (runif(n,min,max)) ; une loi > 0 log-normale (rlnorm(n,meanlog,sdlog)).
Fonctions R utiles :
Package stats : rxxx(n,param`etres)(simulation d’un n-´echantillon de la loi xxx), acf, qqplot, Box.test (tests de Box-Pierce et Ljung-Box)
Package tseries : jarque.bera.test, run.test (test des runs du caract`ere i.i.d. d’une s´erie binaire)
2 Mod` eles non-stationnaires
Ce sujet sera repris au chapitre 7 traitant des SARIMA et des r´egressions `a r´esidu processus.
Pr´esentons quelques situations de non-stationnarit´e.
2.1 Non-stationnarit´ e en moyenne
C’est le cas o`u t7→m(t) =E(Xt) n’est pas constante.
2.1.1 Mod`ele de r´egression
On dispose d’un mod`ele param´etrique m(t) =g(t,β) o`u β ∈Rp et g est une fonction connue.
Le mod`ele est lin´eaire en β, c-`a-d g(t,β) =tg(t)β, ou non. Dans un mod`ele lin´eaire,
Xt= tg(t)β+e(t), t= 1,2,· · · (7) o`u e est un r´esidu centr´e ;e pourra ˆetre stationnaire de mod`ele param´etrique e(ϕ), ϕ∈ Rl; dans ce cas X est param´etr´e au premier ordre (β) et au second ordre (ϕ). Si e n’est pas stationnaire, on devra op´erer des transformations pour le stationnariser (transformation de Box-Cox, cf. §2.2 ; diff´erenciation, cf. §2.1.4).
Donnons quelques exemples classiques de mod`eles (7) :
— g(t) est un vecteur de variables exog`enes observables.
— g(t) est le vecteur des monomes en t de degr´e≤r.
— g(t) est associ´e `a une composante saisonni`ere p´eriodique.
— ou g(t) est une combinaison de ces mod`eles.
Une mod´elisation classiquetendance + saisonnalit´e + r´esidu est :
Xt=m(t) +st+et,t ≥1, (8) m(t) est une tendance et (st) est une saisonnalit´e de p´eriode d, c-`a-d que ∀t ≥ 0, st+d ≡st. Par exemple, m(t) = a +bt est une tendance affine et s est une saisonnalit´e centr´ee et (8) est de
dimension d+ 1 ; le centrage s1+s2+· · ·+sd= 0 est indispensable afin de rendre les param`etres (a, s) identifiables.
Exemple : La s´erieAirPassengers (cf.datasets deR) est un classique de l’´etude des SC (cf.
Box & Jenkins). Cette s´erie mensuelle donne le nombre total de passagers avion de 1949 `a 1960.
OuvrirRet charger cette s´erie. En donner la repr´esentation graphique. Constater l’existence d’une saisonnalit´e mensuelle (d = 12) et d’une croissance moyenne approximativement affine (mod`ele (8). On constate qu’il subsiste une non-stationnarit´e en variance qui n´ecessitera une transformation de Box-Cox des donn´ees afin de les stationnariser en variance (cf. §2.2).
Si la r´egressiont 7→m(t,β) n’est pas connue et si l’observation estX1, X2,· · · , Xn, on estimera β par MCO. Cette estimation pourra ˆetre am´elior´ee dans un second temps par MCG une fois identifi´ee et estim´ee la structure du r´esidu (et) (cf.§ 7.1 et annexe §10.3).
La pr´evision deXn+h,reposera sur : (i) l’estimation de β; (ii) la pr´evision du r´esidu en+h : Xbn,h=m(n+h,β) +b ben,h.
Deux facteurs d’impr´ecision apparaissent mais sinest grand et sibβest une estimation consistante, c’est l’incertitude sur la pr´evision ebn,h `a pas h qui est dominante.
2.1.2 Filtrage d’une tendance et/ou d’une saisonnalit´e par moyenne mobile
Tendance sans saisonalit´e Supposons que Xt = m(t) +et pour un r´esidu (et) centr´e. Sans mod`ele sur la tendance t7→m(t), le filtrage par moyenne mobile (MA pour Moving Average) est une m´ethode locale non-param´etrique permettant defiltrer la tendance m(t) =E(Xt).
Supposons que l’on observe X(n) = (X1, X2,· · · , Xn) et que m(t) soit `a “variation r´eguli`ere et lente” autour de t, approximativement affine sur [t−q, t+q]. Alors lefiltre en (2q+ 1)-MA :
b
m(t) = 1 2q+ 1
Xq j=−q
Xt+j pourq+ 1≤t≤n−q,
donne une “bonne approximation” de m(t) pour laquelle bet =Xt−m(t) est approximativementb centr´ee. Par exemple, si m(s) = a +bs, m(t) =b m(t) +eet o`u eet = 2q+11 Pq
j=−qet+j est “petit”, parce que centr´e et de variance 2q+1σ2 si e ∼BB(0,σ2). L’´etude portera alors sur la nouvelle s´erie des r´esidus bet =Xt−m(t). D’autresb filtres plus efficaces peuvent ˆetre utilis´es.
Tendance et saisonnalit´e Supposons que Xt = m(t) + st +et o`u s est une d-saisonnalit´e centr´ee :
• on commence par estimer la tendance avec un filtre ´eliminant la saisonnalit´e ; par exemple si d est pair,
b
m1(t) = 1
2d(Xt−d+Xt−d+1+· · ·+Xt+d−1+Xt+d) pour d
2 < t≤n− d 2.
• on estime ensuite la saisonnalit´e en prennant la moyenne arithm´etique wk des d´eviations {Xk+jd−mb1(k+jd), d2 < k+jd ≤n− d2};
•on recentre cette estimation en bsk =wk−w. Las´erie d´esaisonalis´ee est dt=Xt−bst.
• on termine en r´eestimant la tendance par filtrage en moyenne mobile `a partir de la s´erie d´esaisonalis´ee (dt), soit mb2(t).
Il reste alors `a ´etudier la s´erie recentr´ee bet=Xt−(mb2(t) +bst), t= 1, n.
2.1.3 Exercice et fonctions R utiles Soit B l’op´erateur de retard :BZt=Zt−1.
1 - D´eterminer les constantes a, b et c t.q. le filtre F(B) = 1 +aB +bB2 +cB3 laisse invariant les tendances affines mais absorbe les 2-saisonalit´es.
2 - V´erifier que lefiltreF(B) =P2
i=−2aiBide co´efficients (a−2, a−1, a0, a1, a2) = 19(−1,4,3,4,−1) laisse invariant les tendances polynomiales de degr´e≤3 mais absorbe les 3-saisonalit´es.
Fonctions R utiles :
Package stats : decompose(en T(t) +S(t) +e(t)), monthplot (ajustement saisonnier) Package forecast : seasadj (d´esaisonalise une s´erie)
Package tseries : kpss.test (test de stationnarit´e) 2.1.4 Stationnarisation par diff´erenciation
Stationnarisation de la moyenne. La constatation de base est la suivante : notons
∇Zt=Zt−Zt−1
l’op´erateur de diff´erence d’ordre 1 : siXt=a+bt+et, ∇Xt =b+εt o`u εt =∇et =et−et−1 est stationnaire centr´e si el’est. Ainsi, la diff´erenciation∇ stationnarise en moyenne une s´erie dont la tendance est affine en pr´eservant la stationnarit´e du r´esidu. Il est facile d’´etendre ce r´esultat aux tendances polynomiales de degr´e k qui sont absorb´ees par lak-it´er´ee ∇k de∇:
∇kP(t) =c siP est un polynome de degr´e k.
Ainsi, si Xt = P(t) + et o`u P est polynomiale de degr´e k, alors Yt = ∇kXt = c+εt o`u ε est stationnaire si e l’est. Cette constatation justifie l’utilisation de la diff´erenciation ∇ ou de ses premi`eres it´er´ees ∇k lorsque la tendance d’une s´erie est r´eguli`ere et varie lentement. Un inconv´enient de cette diff´erenciation est de “compliquer” ´eventuellement la structure du bruit r´esiduel ε (i.e. si e est unBB, ε devient unM A(1)).
Elimination d’une d-saisonnalit´e. Soit∇dla diff´erenciation d’ordred(ne pas confondre avec
∇d) :
∇dZt=Zt−Zt−d.
Si s = (st) est une d-saisonnalit´e, ∇dst ≡ 0 : la d-diff´erenciation absorbe les d-saisonalit´es. Par exemple, si Xt =st+et, ∇dXt =εt o`u εt =∇det est stationnaire si e l’est. Remarquons que ∇d stationnarise ´egalement une SC `a tendance affine : si Xt = a+bt+st+et, ∇dZt ≡ d×b+εt
est stationnaire. Cependant on optera souvent pour une composition des deux diff´erenciations
∇∇d=∇d∇ dans une telle situation.
Retour `a la s´erie d’origine La technique de diff´erenciation permet de passer d’une s´erie X non stationnaire en moyenne `a une s´erieY stationnaire en moyenne. Pour la pr´ediction deX, on passera par la pr´ediction surY puis on remontera parfiltrage inverse `a la pr´ediction recherch´ee sur X. Illustrons cela `a travers un exemple : on observe X(n) = (X1, X2,· · · , Xn) et on veut pr´edire Xn+2; on pense ˆetre en pr´esence d’une tendance r´eguli`ere pour la s´erie X qui est trimestrielle. On propose donc la stationnarisation suivante :
Yt =∇4∇Xt= (Xt−Xt−1)−(Xt−4−Xt−5) =Xt−Xt−1−Xt−4+Xt−5,t = 6, n
On constate un r´etr´ecissement du domaine d’observation pour la s´erie diff´erenci´ee Y (n − 5 observations Yt au lieu de n pour X). On pr´evoit Yn+2 par Ybn,2 puis on calcule la pr´ediction associ´ee Xbn,2 = Ybn,2+Xbn,1 +Xn−2−Xn−3, et `a nouveau Xbn,1 = Ybn,1+Xn+Xn−3 −Xn−4. On trouve :
Xbn,2 =Ybn,2+Ybn,1+Xn+Xn−2−Xn−4.
2.1.5 Exercices
1. Soit {et} un bruit stationnaire centr´e, a et b deux constantes, Xt = (a + bt)st +εt et Yt = (∇12)2Xt. V´erifier queY est stationnaire. D´eterminer sa covariance en fonction de celle de e.
2. (a) - Simuler la s´erie Xt = a+bt+σet pour t = 1,200, a = 2, b = 0.1, σ = 2, e ´etant i.i.d.(N(0,1)). Graphe, acvf et pacf empiriques de (Xt, t= 1,200). Calculer l’estimation des MCO de (a, b) et l’estimation d´eduite de σ2 (cf. Annexe §10.3). Tester b= 0 contre b >0.
(b) - Simuler la s´erie Xt = a+bt+ηt pour t = 1,200, a = 2, b = 0.1, η ´etant le mod`ele AR(1) d’´equation :
ηt=ρηt−1+et, t= 0,200 pour ρ=
√3 2 .
V´erifier que V ar(ηt) = 4. Tracer la s´erie (ηt, t = 1,200), son acvf et sa pacf empiriques.
Estimer bpar MCO. Comment tester b= 0 ?
3. (a) - Soit (et, t = 1,200) ∼ i.i.d.(N(0,1)), Xt = t+et, Yt = √
tet et Zt = cosπt4 +et pour t = 1,200.Quelles sont les acvf empiriques deX,Y etZ. Quelles conclusions en tirez-vous ? (b) - Soit X1,t = Xt −Xt−1 pour t = 2,200 et Z1,t = Zt −Zt−8 pour t = 9,200. Mˆemes questions sur X1 etZ1.
2.2 Non-stationnarit´ e en variance
C’est la situation o`u V ar(Xt) = σ2(t) d´epend de t. R´eexaminons la s´erie AirPassengers : la variance σ2(t) est une fonction croissante de la moyennem(t) :
σ2(t) =f(m(t)). (9)
Soit cv(X) = E(X)σ(X) lecoefficient de variation d’une v.a. X >0. De nombreux ph´enom`enes X sont
`
a cv(X) =κ constant : l’ordre de grandeur de la variabilit´e de X (son ecart type) est du mˆeme ordre que la moyenne de X (nombre de malades d’un canton, trafic de voyageurs, chiffre d’affaires d’une entreprise). Dans ce cas, le mod`ele pour (9) estσ(t) =κ m(t).
2.2.1 Transformation stabilisant la variance
Une solution consiste `a trouver une transformation g(Xt) telle que V ar(g(Xt)) est approxi- mativement constante. L’approche est la suivante : supposons que X ∼ N(m,κ2f(m)) et que κ est petit. Le r´esultat (cf. (45) de l’annexe, §10.4) pr´ecise la loi approch´ee de la d´eformation d’une gaussienne de petite variance si g est diff´erentiable autour dem,
g(X)∼N(g(m),κ2f(m)g0(m)2).
La variance est stabilis´ee si f(m)g0(m)2 =c. D’o`u l’´equation diff´erentielle sur g : g0(m) = c
pf(m),
2.2.2 Trois exemples
— X est `acv constantκpetit,σ2 =f(m) =κ2m2 etg0(m) = mc : on obtientg(m) =κlog(m) : le log stabilise la variance d’un mod`ele `a cv constant et petit.
— σ2 =κ2m, κ petit : σ2 =f(m) =κ2m etg(m) =κm−12 stabilise la variance.
— Plus g´en´eralement, la transformationde Box-Cox : f(m) = ma
a , a >0 et f(m) = log(m) pour a= 0,
stabilise la variance deXsiσ2 =κ2m2−2a,κpetit, la situation fronti`erea= 0 correspondant au cas d’un cv constant.
2.2.3 Exercices et fonctions R utiles
On consid`ere la s´erie Xt = (a+bt)Zt, t ≥ 0, a et b > 0 o`u (Zt) est une suite stationnaire de v.a. sur R+, E(Z1) =µ >0, V ar(Z1) =σ2.
a - Calculer l’esp´erance et la variance de Xt. Que vaut le coefficient de variation deXt? b - SoitYt =∇Xt=Xt−Xt−1pourt≥1. (Yt) est-elle stationnaire en esp´erance ? en variance ? c - SoitWt = log(∇Xt). Montrer que (Wt) est approximativement stationnaire si t est grand et/ou si aÀb.
d - On observe X(n) = (X1, X2,· · · , Xn) et on dispose d’une pr´evision cWn,1 de Wn+1 en fonction des Wt pass´es. Comment pr´evoir Xn+1?
Fonctions R utiles :
Dans le packageforecast : BoxCox, InvBoxCox.
Dans le packagastats : diff.ts, diffinv
3 Pr´ ediction L
2et auto-corr´ elation partielle
3.1 Pr´ ediction au second ordre : le cas g´ en´ eral
Soient Y, W = (W1, W2,· · · , Wn), (n + 1) v.a.r. du second ordre. Supposons connues les moyennes et les variances-covariances suivantes :
µY = E(Y),µW = t(µi =E(Wi), i= 1, n)∈Rn; γ = Cov(W, Y)∈Rn;V ar(Y)∈R;
Γ = Cov(W), matrice n×n.
L’objectif est de pr´edire au mieux, pour le crit`ere de l’´ecart quadratique moyen (EQM), Y `a partir d’une combinaison affine des Wi, i = 1, n. Il s’agit donc de trouver la combinaison affine Yb =a0+a1W1+a2W2 +· · ·+anWn qui minimise l’EQM :
S(a) =E(Y −Yb)2 =E{Y −(a0+a1W1 +a2W2+· · ·+anWn)}2.
On parle aussi de lar´egression affine deY surW :Yb est la projection orthogonale (pour le produit scalaire de la covariance de Y) sur l’espace affine engendr´e par lesW.
Proposition : La pr´ediction optimale s’´ecrit Yb =µY+ ta(W −µW) o`u a = t(a1, a2,· · · , an) v´erifie :
taΓ=γ et EQM(Yb) =V ar(Y)− taγ. (10) Preuve : Soit L2 l’espace de Hilbert des variables centr´ees de variancesfinies muni du produit scalaire de la covariance,hU, Vi=Cov(U, V). Recentrons les (n+ 1) variablesY etW. Minimiser le crit`ere de l’EQM revient `a projeter orthogonalement Y sur l’espace lin´eaire des W. Cette projection existe toujours et l’orthogonalit´e de (Y −Yb) aux Wi, i = 1, n, s’´ecrit, notant Γi la i-i`eme colonne de Γ :
Cov(Y −Y , Wb i) = 0, i= 1, n, soit : taΓi =γi pouri= 1, n, (11) c-`a-d : taΓ=γ.
Un tela existe toujours et est unique si Γest r´eguli`ere :a=Γ−1γ. Un calcul direct donne l’erreur de pr´ediction. . . .¥
3.2 Le cas d’un processus stationnaire
3.2.1 Pr´ediction `a l’horizon h
Un objectif central dans l’´etude des SC est la pr´ediction `a l’horironh >0 deXn+hsi on observe X(n) =t(X1, X2,· · · , Xn). Si la s´erie est centr´ee et si X est stationnaire d’acvf γ(·), la propri´et´e pr´ec´edente nous dit que cette pr´evision vaut,
Xbn,h = taX(n) o`utaΓ=γ,avec
γ = tCov(Xn+h, X(n)) = t(γ(n+h−1),· · · ,γ(h+ 1),γ(h)) et Γ = Cov(X(n)) = (γ(i−j))ni,j=1.
L’erreur de pr´evision est donn´ee par (10). Si γ(·) n’est pas connue, on la remplacera par son estimation ; dans ce cas, l’erreur de pr´evision donn´ee par (10) n’est qu’approch´ee puisqu’un facteur d’impr´ecision sur les param`etres bγ(k) s’ajoute `a l’incertitude sur le processus.
3.2.2 Algorithme r´ecursif de pr´ediction ; pr´evision de valeurs manquantes
Une difficult´e dans l’obtention de Xbn,h r´eside dans l’inversion de la matrice Γ de taille n×n lorsque n est grand. Il existe des algorithmes r´ecursifs qui l`event cette difficult´e (i.e. algorithme de Durbin-Levinson, cf. BD). Leur principe est le suivant : une fois calcul´ee Xbn,1, on cherche `a obtenir par une r´ecursion simple (sans inversion de matrice) la pr´ediction Xbn+1,1 sur la base des observations et de Xbn,1.
La pr´edictionL2 permet ´egalement d’estimer unevaleur manquanteXk, 1< k < ndeXk(n) = (X1,· · · , Xk−1, Xk+1,· · ·Xn) :
Xbk(n) = taXk(n) o`u taΓ=γ pour Γ=Cov(Xk(n)) et γ = tCov(Xk, Xk(n)).
3.2.3 Exercices
1. Pr´evision optimale sur la derni`ere observation
a - Pr´eciser la loi conditionnelle L(Y | X = x) si t(X, Y) ∼ N2(t(a, b),Σ) de covariance Σ=³σ2
1 ρσ1σ2
ρσ1σ2 σ22
´
inversible.
b - SoitX1, X2,· · · un processus stationnaire au second ordre de moyennem et d’ACFρ(·).
D´emontrer que le pr´edicteur optimal de Xn+h en fonction de la seule observation Xn et de la constante 1 est Xbn,h=ρ(h)Xn+m(1−ρ(h)). Quelle est la loi de cette pr´edition siX est gaussienne ?
2. Pr´ediction de valeurs manquantes.
a - X1, X2, X4 etX5 sont les observations d’un MA(1) : Xt =Zt+θZt−1 o`u Z ∼BB(0,σ2).
D´eterminer la meilleure pr´ediction lin´eaire de la valeur manquante X3 en pr´ecisant chaque fois les erreurs de pr´edictions : (a1) en fonction deX2, X4; (a2) en fonction de X1, X2; (a3) en fonction de X1, X2, X4 et X5.
b - Mˆemes questions maisX est l’AR(1) stationnaire :Xt =φXt−1+Zt.
3.3 Auto-corr´ elation partielle
3.3.1 Le cas g´en´eral
Soient Y, Z et W = (W1, W2,· · · , Wn),(n+ 2) v.a. r´eelles de variancesfinies, de moyennes et de variances-covariances connues. Soit Yb (resp. Zb) la r´egression affine de Y (resp. Z) sur W et bε(Y |W) (resp.bε(Z |W)) le r´esidu de cette r´egression :
Y =Yb +bε(Y |W) et Z =Zb+bε(Z |W).
D´efinition : Lecoefficient de corr´elation partielle ρP(Y, Z |W) entre Y etZ `a W connu est le coefficient de corr´elation entre les r´esidusbε(Y |W) et bε(Z |W) des r´egressions de Y sur W et de Z surW :
ρP(Y, Z |W) =ρ(bε(Y |W),bε(Z |W)). (12) Ce coefficient mesure le degr´e de liaison affine entre Y etZ une fois retir´ee l’information affine qu’apporteW `a l’une et `a l’autre des variablesY etZ. Par exemple, si on observe unn-´echantillon de la taille Y, du poids Z et de l’ˆage W d’une population, la corr´elation ρP(Y, Z |W) est le bon indice de liaison affine entre taille et poids `a “ˆage fix´e” ; la corr´elation habituelle ρ(Y, Z), plus grande que la corr´elation partielle, int`egre le fait que taille et poids sont deux fonctions croissantes de l’ˆage et en fait masque la liaison intrins`eque entre la taille et le poids.
Exemple : Soit (Y, Z, W) ∈ R3 de moyenne m, de variances σ2 ∈ R3 et de matrice de corr´elationsρ. On peut alors expliciter la forme analytique de ρP(Y, Z |W). Les deux r´egressions sont :
Y −mY = ρY W σY
σW
(W −mW) +bε(Y |W) et Z −mZ = ρZW σZ
σW
(W −mW) +bε(Z |W).
Reste `a calculer la corr´elation simple ρ(bε(Y |W),bε(Z |W)). Un calcul direct conduit `a : ρP(Y, Z |W) = ρY Z−ρY WρZW
p1−ρ2Y Wp
1−ρ2ZW. 3.3.2 Auto-corr´elation partielle pour un processus stationnaire
Soit X un processus stationnaire au second ordre.
D´efinition : La fonction d’auto-corr´elation partielle (not´ee pacf) de X `a distanceh > 0 est d´efinie par :
α(h) =ρP(X0, Xh |X1, X2,· · · , Xh−1),
α(h) est la corr´elation entre X0 et Xh aux valeurs interm´ediaires (X1, X2,· · · , Xh−1) fix´ees. Par convention, on pose α(0) = 1.
Lien avec la pr´ediction.
La pr´ediction deXh sur la base deX0h−1 = (X0, X1, X2,· · · , Xh−1) est donn´ee parXbh,1 =tahX0h−1 o`uah =Γ−h1γh, Γh = (γ(i−j))hi,j=0−1 etγh =t(γ(h),γ(h−1),· · · ,γ(1)). On a la propri´et´e suivante (cf. BD) :
Propri´et´e :Soit a0,h le coefficient de X0 dansXbh,1. Alors la pacf de X `a distancehvauta0,h : α(h) =ρ(X0, Xh |X1, X2,· · · , Xh−1) =a0h.
Anticipons sur les mod`eles ARMA : une propri´et´e caract´eristique des AR(p) est que la pacf d’un AR(p) est nulle au del`a de p : α(h) = 0 si h > p. Cette propri´et´e est la propri´et´e duale de celle d’un M A(q) pour lequel l’acf v´erifie :ρ(h) = 0 si h > q.
3.3.3 Exercices
1. SoientX,Y etZtrois variablesi.i.d.(0,1),X1 =X+Z etY1 =Y+Z. Calculerρ(X1, Y1 |Z).
2. Utilisant la d´efinition de la pacf, d´emontrer que la pacf d’un AR(1) (cf. §4.2) est nulle `a partir de la distance 2. G´en´eraliser au cas d’un AR(p).
4 Mod` eles ARM A
Les mod`eles ARM A (Auto-Regressive with Moving Average) sont des mod`eles stationnaires de petite dimension dont la covariance approche une large famille de covariances. En particulier, pour toute covariance γ(·) et tout entierK >0, il existe un mod`eleARM A(et mˆeme un AR)X tel queγ(k) =γX(k) pour 0≤k ≤K. Ces mod`eles vont ˆetre d´efinis comme desmod`eles lin´eaires associ´es `a un BB. Commen¸cons par d´efinir de tels mod`eles lin´eaires.
4.1 Processus lin´ eaire
Soit ψ une suite del1 (P
Z|ψi|<∞) et ε∼BB(0,σ2). Un processus lin´eaire est : Xt =X
i∈Z
ψiεt−i, t∈Z. (13) Xt est donc une moyenne glissante infinie (M A(∞)) et bilat´erale du bruitε pour des poidsψ. La s´erie d´efinissant Xt converge en probabilit´e et dans L2 sous la conditionψ∈l1 (cf. §10.2). L’acvf de X vaut :
γX(h) =σ2X
i∈Z
ψiψi+h. (14)
En particulier, γ(h) tend vers 0 si h→ ∞.
4.2 Mod` ele ARM A(p, q)
Un ARM A(p, q) associ´e `a ε ∼ BB(0,σ2) et de param`etres φ ∈ Rp, θ ∈ Rq, est un processus stationnaire X v´erifiant pour chaque t∈Z :
Xt−φ1Xt−1 −· · ·−φpXt−p =εt+θ1εt−1+· · ·+θqεt−q. (15) Notons P(z) (resp.Q(z)) le polynome associ´e `a la composante AR(p) (resp.M A(q)) :
P(z) = 1−φ1z−· · ·−φpzp (φp 6= 0);
Q(z) = 1 +θ1z+· · ·+θqzq (θq 6= 0).
On supposera toujours que P etQsont sans facteur commun. SiB est l’op´erateur de retard d´efini pour tout t∈Z par BXt=Xt−1, l’´equation g´en´eratrice de l’ARM A s’´ecrit :
P(B)Xt=Q(B)εt. (16)
Propri´et´es : (15) admet une solution stationnaire ssi P(z)6= 0 pour |z|= 1.
Preuve : Si P(z)6= 0 pour |z|= 1, alors ∃δ > 0 t.q. P−1 admette un d´eveloppement de Laurent uniform´ement convergent sur la couronne 1−|δ|≤|z|≤1−|δ|,
P−1(z) =X
i∈Z
χizi avec χ0 = 1, (17) et la suite des (χi) est `a d´ecroissance exponentielle. On en d´eduit que Q(z)P(z) = P
i∈Zψizi, avec ψ0 = 1, o`u (ψ), ´etant `a d´ecroissance exponentielle, est dans l1. D´efinissons alors :
Xt=X
i∈Z
ψiεt−i. (18)
X est solution de (16) et son acvf est donn´ee par (14). .. . . .¥ Les ARM A sont donc des processus lin´eaires particuliers dont les poids ψ d´ecroissent expo- nentiellement ; X est un AR(p) si q= 0 ; X est un M A(q) sip= 0.
4.2.1 Causalit´e, inversibilit´e
Causalit´e et innovation de X Une repr´esentation (15) est causale si la repr´esentation (18) de Xt ne fait intervenir que les bruits εs, s≤t : notons Yuv le sous-espace lin´eaire deL2 engendr´e par les v.a.{Yt, u≤t≤v}. Si la repr´esentation de X est causale,X−∞t ⊆εt−∞. εtest l’innovation de X `a l’instantt, caract´eris´ee par :
X−∞t =X−∞t−1⊕(εt) et Cov(εt, Xs) = 0 si s < t. (19) Propri´et´e : (15) est causale ssi P(z) 6= 0 pour |z| ≤ 1, c-`a-d si P n’a pas de racine sur le disque unit´e.
Preuve : En effet, cette condition assure que le d´eveloppement de Laurent (17) de P(z)−1 est le d´eveloppement ordinaire en s´erie enti`ereP−1(z) =P
i≥0χizi, convergent si|z|≤1. . . .¥ SiP(z) =Qp
k=1(1−zzk), le d´eveloppement de P(z)−1 s’obtient `a partir des d´eveloppement des fractions rationnelles :
1 1− zzk
=X
i≥0
(zk)−izi pour |z|≤1.
Inversibilit´e de l’ARMA La repr´esentation (15) est inversible si pour tout t : εt=X
i≥0
ϕiXt−i. (20)
La repr´esentation est inversible si Q(z) 6= 0 pour |z| ≤ 1, c-`a-d si le polynome MA n’a pas de racine sur le disque unit´e. Pour un ARMA inversible, εt−∞⊆X−∞t .
Ainsi si la repr´esentation ARMA est causale et inversible, on a l’´egalit´e entre les espaces engendr´es par X et par ε:
Si X est causal et inversible : ∀t :εt−∞=X−∞t . 4.2.2 Exercice
Parmi les mod`eles suivants, lesquels sont causaux ? inversibles ? (e est un BB(0,σ2)) et pour ceux qui sont causaux, calculer les 6 premiers co´efficients ψi de la repr´esentation causale Xt = P
i∈Zψiet−i, t ∈Z:
— Xt= 0.8Xt−1+et+ 1.2et−1
— Xt+ 1.9Xt−1+ 0.88Xt−2 =et+ 0.2et−1+ 0.7et−2.
— Xt−0.9Xt−2 =et−0.16et−2. 4.2.3 Exemples d’ARM A
Les mod`eles en moyenne glissante M A(q) Consid´erons :
M A(q) :Xt=εt+θ1εt−1+· · ·+θqεt−q, (21) et posons θ0 = 1. X a pour acvf :
γ(h) =σ2
q−h
X
i=0
θiθi+h pour |h|≤q etγ(h) = 0 sinon.
La port´ee de l’acvf d’un M A(q) est q. Cette propri´et´e est caract´eristique des M A (BD) : un processus stationnaire dont l’acvf est de port´eeqpeut s’´ecrire comme unM A(q). La repr´esentation est inversible si Q(z) = 1 +Pq
1θjzj ne s’annule pas sur |z|≤1 : dans ce cas, ∀t:εt−∞ =X−∞t .