• Aucun résultat trouvé

Cours Séries Temporelles 1

N/A
N/A
Protected

Academic year: 2022

Partager "Cours Séries Temporelles 1"

Copied!
44
0
0

Texte intégral

(1)

S´eries temporelles : mod`eles et statistiques

Cet enseignement a fait l’objet d’un cours - td d’environ 40 heures au Master-2“Statistiques appliqu´ees aux sciences du vivant” de l’Universit´e de Cotonou en novembre 2008. L’objectif ´etait de pr´esenter les principaux mod`eles de s´eries temporelles (ST), ou encore s´eries chronologiques (SC), leurs statistiques et les m´ethodes de pr´evision. L’´etude d’une ST a un double objectif : mod´eliser pour expliquer un ph´enom`ene observ´e ; pr´edire la s´erie dans le futur. Le plan de ce cours est le suivant :

1. Mod`eles stationnaires au second ordre.

2. Mod`eles non-stationnaires.

3. Pr´ediction.

4. Mod`eles ARMA.

5. Un peu de th´eorie spectrale.

6. Estimation d’un ARMA.

7. R´egression `a r´esidus corr´el´es, ARIMA et SARIMA.

8. Pr´evision sans mod`ele.

9. SC bivari´ee ; mod`ele ARCH.

10. Annexes et r´ef´erences.

A l’inverse d’un ´echantillon, les observations d’une SC sont d´ependantes, cette d´ependance tem- porelle ´etant mod´elis´ee de fa¸con causale avec comme mod`eles centraux les ARMA. La litt´erature sur ce sujet est abondante. Deux livres “historiques” donnent la pr´esentation moderne des SC : Anderson (1971), The statistical analysis of time series (J. Wiley) et Box et Jenkins (1976) : Time Series Analysis : Forecasting and Control (Holden-Day). Le livre de Brockwell et Davis (1991), Time Series : Theory and Methods (Springer) est une r´ef´erence th´eorique incontournable mais difficile. Ces mˆemes auteurs ont ´ecrit un deuxi`eme livre, Introduction to Time Series and Forcasting (2002), qui est une approche plus simple, claire, bien illustr´ee et `a laquelle est jointe un tutoriel, ITSM, tr`es p´edagogique, ouvrage duquel nous avons retir´e quelques id´ees ou exrcices.

Il existe ´egalement des polycopi´es disponibles sous le label “S´eries Temporelles”

Le logiciel R

R est un outil indispensable `a une bonne compr´ehension du cours et `a sa mise en application.

Nous conseillons vivement au lecteur d’avancer dans la lecture de ce cours en ouvrant une deuxi`eme fenˆetre ‘‘R’’et en faisant les va-et-vient indispensables entre les notions et r´esultats pr´esent´es et les fonctions deR qui leurs sont d´edi´es. Quelques-unes de ces fonctions sont donn´ees dans le cours du texte. Pour l’installation de R et une premi`ere description, c.f. l’annexe du §10.5.

Un exemple introductif : la s´erie des niveaux du lac Huron. Parcourant le pack- age DataSets de R, en extraire la s´erie temporelle LakeHuron : cette s´erie annuelle donne les niveaux du lac Huron de 1875 `a 1972 (n = 98 donn´ees). D´eclarant cette suite comme une s´erie chronologique (x=ts(LakeHuron)) et utilisant la fonction Plot, repr´esenter graphiquement cette s´erie X1, X2,· · · , X98 (pour d’autres jeux de donn´ees, cf. § 10.5.1).

Qu’observe-t-on ? Une d´ecroissance moyenne de ce niveau, approximativement affine, qu’on peut mod´eliser par :

Xt=a+bt+et, t = 1,98.

Il est facile d’estimer cette tendance par moindres carr´es ordinaires (fonction lm de R). On peut alors analyser les r´esidus estim´es bet=Xt−(ba+bbt), t= 1,98.

(2)

On commencera par repr´esenter graphiquement cette s´erie. En moyenne, les bet successifs gar- dent un mˆeme signe avec seulement 10 changements de signes sur 98 instants : ceci indique une corr´elation positive entre lesbesuccessifs. Ainsi, se pose une question centrale dans l’´etude des SC : b

e est-il un bruit blanc (BB), c-`a-d une suite de variables centr´ees, de mˆemes variances et non- corr´el´es ? Pour r´epondre `a cette question, on va utiliser le programme acf (du package stats) qui fournit le graphique des premi`eres auto-covariances empiriques de X, avec les limites de l’in- tervalle de confiance au niveau 95% sur cette acf empirique si be ´etait un BB : clairement, be n’est pas un BB (on donnera des proc´edures de test statistique pour d´ecider de cela).

Mais pourquoi est-il important de savoir si be est un BB ou non ? Parce qu’il est int´eressant de savoir s’il y a une tendance pour les r´esidus `a garder localement un signe positif (p´eriode de recharge du lac) ou n´egative (p´eriode de baisse de niveau), cela une fois ˆot´ee la tendance affine b

a+bbt. Une autre raison est la suivante : si on veut pr´evoir la hauteur du lac en 1973 ou plus tard, il est important de savoir si be est corr´el´e ou non : si be est un BB, la bonne pr´evision naturelle en 1973 est Xb1973 =ba+bb×99 et dans ce cas, on ne peut pas faire mieux. Mais sibe n’est pas un BB, on peut faire mieux en utilisant la structure de corr´elation de be. Par exemple, s’il est raisonnable de mod´eliser be par un AR(1),

b

et=ρbet1t (η un BB),

o`u on estimeρparbρ, alors la pr´edictionXe1973 =ba+bb×98+bρ×be1972,o`ube1972 =X1972−(ba+bb×1972), est meilleure que la pr´ec´edente.

Cet exemple simple soul`eve quelques-unes des questions qui seront ´etudi´ees ici : X est-elle de moyenne constante ? Si non, quel mod`ele proposer pour la moyenne de X? Comment rendre X stationnaire en moyenne ? Le r´esidu de la r´egression envisag´ee est-il un BB ? Sinon, quel mod`ele stationnaire proposer pour ce r´esidu et comment l’estimer ? Comment utiliser cette structure au premier ordre (moyenne) et second ordre (covariance des r´esidus) pour pr´evoir au mieux la s´erie dans le futur ? Comment valider le mod`ele retenu (premier et second ordre) ?

1 Mod` ele stationnaire au second ordre

1.1 D´ efinitions

La notion fondamentale qui structure la mod´elisation d’un processus temporel est-celle de stationnarit´e. Commen¸cons par donner quelques d´efinitions

1. Une SC (un processus)X = (Xt, t ∈ Z) est dite du second ordre (on note X ∈ L2) si pour tout t, E(Xt)2 < ∞. Dans ce cas, E(|Xt|) < ∞, l’esp´erance existe et il est ´equivalent de dire que V ar(Xt) < ∞ pour tout t. On note m(t) = E(Xt) la fonction moyenne de X et C(s, t) =Cov(Xs, Xt) sa fonction decovariance.

2. X est gaussienne si toute combinaison lin´eaire finie des (Xt) est gaussienne : pour toute suite d’instantst1, t2,· · · , tK et de poids r´eelsa1, a2,· · · , aK,Y =PK

j=1ajXtj est gaussienne.

Une s´erie gaussienne est toujours du second ordre mais l’inverse n’est pas vrai. La loi d’un processus gaussien est enti`erement caract´eris´ee par ses fonctions moyennem(·) et covariance C(·,·).

3. Un processus X est dit stationnaire au second ordre si pour tout t, s ∈ Z, la moyenne est constante et la covariance C(s, t) ne d´epend que de (t−s) :

∀s, t :m(t) =E(Xt) =m et Cov(Xs, Xt) =C(s, t) =γ(s−t).

h 7→ γ(h) est la fonction d’auto-covariance (acvf) de X et h 7→ ρ(h) = γ(h)γ(0) sa fonction d’auto-corr´elation (acf).

(3)

4. Un processusX est strictement stationnaire si pour tout k >0, toute suite t1, t2,· · · , tk et tout h ∈ Z, les lois de (Xt1, Xt2,· · · , Xtk) et de (Xt1+h, Xt2+h,· · · , Xtk+h) sont identiques : la translation T(h) : t −→ t+h laisse invariante la loi de X. Un processus strictement stationnaire et du second ordre est stationnaire au second ordre mais l’inverse n’est pas vrai en g´en´eral, sauf pour les processus gaussiens.

Dans ce cours, nous utiliserons principalement la notion de stationnarit´e au second ordre : sans mention explicite, “stationnaire” signifiera “stationnaire au second ordre”.

5. Un processus e = (et, t ∈ Z) est un bruit i.i.d. si e est une suite i.i.d. centr´ee. Si la loi commune des et est L, on notera e ∼ i.i.d.(L) et e ∼ i.i.d.(0,σ2) si L est centr´ee et de variance finie σ2, e ∼ i.i.d(N(0,σ2)) si la loi commune est gaussienne centr´ee de variance σ2.

6. Un processus e = (et, t ∈ Z) est un bruit blanc faible (not´e BB) si e est stationnaire au second ordre, centr´e, avec Cov(et, es) = 0 si s 6= t. On notera e ∼ BB(0,σ2) si V ar(et) = E(e2t) =σ2.

1.2 Exemples

Marche al´eatoire : poure∼i.i.d.(0,σ2), on d´efinit X0 =e0 et pour t≥0,Xt+1 =Xt+et+1.X n’est pas stationnaire car V ar(Xt) = tσ2 n’est pas constante. Plus g´en´eralement, Cov(Xt, Xs) = sσ2 si s≤t.

Processus MA(1) : soit e∼BB(0,σ2),θ ∈R et la s´erie,

Xt =et+θet1, t≥1 (1)

X est stationnaire centr´e de covariance,

γ(0) =σ2(1 +θ2), γ(1) =γ(−1) =θσ2 et γ(h) = 0 si |h|≥2.

L’acvf (l’acf) d’un MA(1) est de port´ee 1.

Plus g´en´eralement (cf.§4.2), pour q un entier >0, un M A(q) est d´efini par, Xt=et1et1+· · ·+θqetq,t ≥1.

Il est facile de voir que l’acvf est nulle si |h| ≥ q + 1. Cette propri´et´e est caract´eristique d’un M A(q).

Processus AR(1) : Soit |φ|<1. Supposons que la s´erie,

Xt =φXt1+et o`ue∼BB(0,σ2),

est stationnaire et que et est non-corr´el´e `a Xs d`es que s < t. D’une part, E(Xt) = φE(Xt1) et donc m = 0 (X est centr´e) ; d’autre part, pour h≥1 :

γ(h) = Cov(Xt, Xth) =Cov(φXt1+et, Xth)

= φγ(h−1) =γ(0)φ|h|. L’acvf d’un AR(1) d´ecroit exponentiellement.

Processus lin´eaire : ces processus sont `a la base de la construction des mod`eles ARMA (cf.

§4.2). Soit e ∼ BB(0,σ2), (θj, j ∈ Z) une suite r´eelle de l2(Z) (P

Zθ2j < ∞). Alors le processus lin´eaire X associ´e aux (θj) et `ae comme d´efini ci-dessous est stationnaire :

Xt=X

Z

θjetj est d’acvf : γ(h) =σ2X

Z

θjθj+h.

(4)

S´erie p´eriodique : soit 0 < ω < π une fr´equence donn´ee et Xt = Acos(ωt) +Bsin(ωt), A et B ´etant d´ecorr´el´ees, centr´ees, de variances finies. (Xt) est centr´ee et V ar(Xt) est constante si V ar(A) =V ar(B) =σ2.X est alors stationnaire d’acvf :

γ(h) =σ2cos(ωt).

Plus g´en´eralement, soient 0 < ω1 < ω2 < · · · < ωr < π r-fr´equences fix´ees, {Ai, Bi, i = 1, r} 2r v.a. d´ecorr´el´ees, centr´ees telles que V ar(Ai) = V ar(Bi) = σ2i < ∞, i= 1, r. Alors le m´elange de r-processus p´eriodiques associ´es aux r fr´equences est stationnaire :

Xt= X

i=1,r

{Aicos(ωit) +Bisin(ωit)} d’acvf γ(h) = X

i=1,r

σ2i cos(ωit). (2) Un m´elange “continu” de telles composantes infinit´esimales est de fait la forme g´en´erale d’une SC du second ordre (cf. (30)).

1.3 Moyenne, acvf et acf empiriques

Supposons que X(n) = (x1, x2,· · · , xn) est l’observation de X, une s´erie stationnaire. La moyenne empirique est :

x=mb = 1 n

Xn 1

xi. L’acvf empirique `a distance hest :

b

γ(h) = 1 n

nX−|h|

i=1

(xi+|h|−x)(xi−x), −n < h < n.

Diviser parn, et non par (n−|h|), le nombre de termes de la somme, garantit queΓbn= [bγ(i−j)]ni,j=1 est s.d.p., propri´et´e importante pour l’estimation et la pr´ediction.

Enfin, l’acf empirique estbρ(h) = bγ(h)bγ(0) pour−n < h < n.

1.3.1 Exercices

1. Simuler n = 200 valeurs i.i.d. N(0,1) et calculer moyenne et auto-corr´elations empiriques (fonctions rnorm etacf deR).

2. Soit {Zt}∼ i.i.d. N(0,σ2), a, b et c trois constantes. Parmi lequels des processus suivants, lesquels sont stationnaires et pr´eciser la moyenne et l’acvf de ceux qui le sont :

(a) Xt=a+bZt+cZt2; (b) Xt =Z1cos(ct) +Z2sin(ct) ; (c) Xt=Ztcos(ct) +Zt1sin(ct) ; (d) Xt =Z2t;

(e) Xt=ZtZt1; (f) Xt=f(Zt, Zt1) o`u f est continue et born´ee ; (g) Xt=ZtZ2t; (h) Xt=Zt2Zt+1.

3. BB i.i.d. ou Bruit Blanc faible : soit {Zt}∼i.i.d. N(0,1) et X, Xt =

½ Zt si t est pair et

1

2(Zt21−1) sinon. (3)

(a) - V´erifier queX ∼BB(0,1) mais queX n’est pas une suitei.i.d.. Que vautE(Xn+1 |Xn) suivant la parit´e de n?

(b) - Simuler une s´erieX de longueur 200. Graphique et acvf empiriqueX. Cela confirme-t-il la non-corr´elation de X?

(c) - Soit Yt =Xt2, t = 1,200 ; acvf empirique de Y ; Y est-elle un BB? En d´eduire que la suite X n’est pasi.i.d.. Et si Yt =|Xt|?

(5)

4. On notebρ(h) l’acf des observations x1, x2,· · · , xn.

a - Montrer que bρ(h)−→1 si n→ ∞ pourxt=a+bt,b6= 0.

b - Montrer que bρ(h)−→cos(ah) sin→ ∞pour xt= cos(at).

1.4 Propri´ et´ es

Auto-covariance :

1. γ(0) ≥0,|γ(h)|≤γ(0) et γ(h) =γ(−h) pour tout h.

2. Pour toute suite a1, a2,· · · , aK r´eelle : V ar(

XK t=1

atXt) = XK i,j=1

aiajγ(i−j)≥0. (4) Cette propri´et´e traduit que l’acvf γ(·) estsemi-d´efinie positive (s.d.p.). Elle estd´efinie posi- tive (d.p.) si on a la stricte positivit´e d`es quea 6= 0. Cette d´efinition est analogue `a la s.d.p.

des matrices [γ(i−j)]Ki,j=1 pour toutK ≥1. On a la propri´et´e r´eciproque et caract´eristique suivante :

3. Une fonction r´eelle sur N est une acvf si et seulement si (ssi) elle est paire et s.d.p..

4. S’assurer qu’une fonctionκ(·) est une acvf ? Le plus simple est de “proposer” une s´erie dont l’acvf est γ(·) (cf. aussi la caract´erisation d’une acvf via la densit´e spectrale de X, §5.1).

Par exemple, montrons que la fonction κ(·) d´efinie ci-dessous est une covariance ssi|ρ|≤ 12 : κ(0) = 1,κ(h) =ρ si |h|= 1 et κ(0) = 0 sinon. (5)

• La condition est suffisante : le MA(1) (1) admet pour acvf γ(1) = 1+θθ 2 = ρ, ´equation en θ qui admet bien une racine r´eelle si |ρ|≤ 12; pour avoir γ(0) = 1, on imposeraσ2(1 +θ2) = 1.

•• La condition est n´ecessaire : ou κ(·) n’est pas une acvf sinon. Pour cela, on propose a t.q. (4) n’est pas v´erifi´ee : si ta= (1,−1,1,−1,· · ·)∈Rn, alorstaKna=n−2ρ(n−1) siK = [κ(i−j)]ni,j=1 et donc que taKna <0 si|ρ|> 12 etn grand :κ(·) n’est pas une acvf.

1.4.1 Exercices

1. X etY sont deux SC stationnaires au second ordre et ind´ependantes. D´emontrer queX+Y est stationnaire.

2. En identifiant une s´erie associ´ee appropri´ee, v´erifier que C1 etC2 sont des covariances : C1(h) = 4×(0.5)|h|+ cos(ah) ;

C2(h) = 1 si h= 0, C2(h) = 0 si |h|= 1 ou |h|≥3 et C2(h) = 0.4 si |h|= 2.

1.5 Propri´ et´ es des estimations empiriques

Soit X(n) = (X1, X2,· · · , Xn) l’observation d’une s´erie X stationnaire au second ordre.

1.5.1 Moyenne empirique.

— Xn = n1P

i=1,nXi estime sans biais la moyenne m=E(X1).

— Siγ(h)h−→→∞0, alorsV ar(Xn−µ) =E(Xn−µ)2 n−→→∞0 (on noteXn L2

−→µcette convergence en moyenne quadratique).

— Si de plusv=P

h∈Z|γ(h)|<∞, alors :V ar(Xn)∼ vn.

(6)

Anticipant la d´efinition des mod`eles lin´eaires (cf. §4.2), on a la convergence en loi suivante :

— Si de plusX est un processus lin´eaire (i.e. un ARMA) associ´e `a un bruit i.i.d.(0,σ2) : Xn∼N(µ, v

n).

L’intervalle de confiance (IC) approch´e de m `a 95% est [Xn−1.96pv

n, Xn+ 1.96pv

n].

1.5.2 Lois des covariances et corr´elations empiriques.

Soient bγ(h) et bρ(h) pour −n < h < n les acvf et acf empiriques de X calcul´ees `a partir de l’observation X(n). On a :

— Ces estimations sont approximativement sans biais si nest “grand”.

— Une r`egle est d’avoir au moinsn >40 observations et de se limiter aux h < n4 .

— Les matrices de covariances (de corr´elations) associ´ees aux bγ(·) sont s.d.p.. Elles sont d.p.

d`es que la loi de X1 est `a densit´e.

— Ces estimations sont asymptotiquement normales siXt =P

Zψiεti pour ε ∼ BB(0,σ2) `a condition que P

Zi|<∞ et P

Z|i|ψ2i <∞ (BD).

— Ces deux derni`eres conditions sont satisfaites siX est un ARMA.

— Formule de Bartlett :elle pr´ecise la matrice de covariance d’un vecteur de corr´elations em- piriques ; soitρ = (ρ(1),ρ(2),· · · ,ρ(k)) etbρson estimation empirique. Alors, bρ∼Nk(ρ,Wn) o`u W est donn´ee par la formule de Bartlett :

wij =X

l∈Z

{ρ(l+i) +ρ(l−i)−2ρ(l)ρ(i)}{ρ(l+j) +ρ(l−j)−2ρ(l)ρ(j)}. (6) La formule de Bartlett est la cl´e de questions de base concernant un processus stationnaire.

Un cas particulier important est `a la base des tests de :

“(H0) : les (Xi) sont i.i.d.de variance finie”, Sous (H0),wii= 1 et wij= 0 pour tout i6=j, et donc pour sin grand :

Sous (H0) :bρ(1),bρ(2),· · · ,bρ(k) sont i.i.d. N(0,1n).

1.6 Tests de bruit blanc

1.6.1 Tests param´etriques On veut tester l’hypoth`ese,

(H0) :X ∼i.i.d(m,σ2),

de loi commune centr´ee (m = 0) ou non. Il y a 3 versions test du Chi 2 r´esultant de (6).

Test du portemanteau :

Sous (H0) :Q=n XK k=1

b

ρ2(k)∼χ2K si nest grand.

Rα ={nPK

k=12(k) ≥q(α;K)} est une r´egion de rejet approximative de (H0) au niveau α pour le α-quantile P(χ2K ≥q(α;K)) =α.

Test de Ljung-Box : est issu d’un raffinement de l’approximation par un χ2 : Sous (H0) :QLB =n(n+ 2)

XK k=1

b ρ2(k)

n−k ∼χ2K.

(7)

Test de McLeod-Li : sous (H0), la suite Yt = Xt2 est i.i.d. de variance finie si E(X14) < ∞; notant ρXX la corr´elation des (Xi2, i= 1, n), on a :

Si E(X14)<∞ et sous (H0) :QM L =n(n+ 2) XK k=1

2XX(k)

n−k ∼χ2K.

Ce test permet de d´etecter qu’une suite est non i.i.d. mˆeme si son acvf empirique est proche de celle d’un BB. D’autres transformations Yt=f(Xt) peuvent ˆetre utilis´ee, par exemple Yt =|Xt|. Vous pouvez `a ce sujet reprendre l’exemple de la s´erie X d´efinie `a l’exercice 1.3.1-2).

1.6.2 Tests non-param´etriques Le test du point tournant.

2 ≤i ≤ n−1 est un point tournant d’une suite num´erique x = (x1, x2,· · · , xn) si soit xi1 < xi

et xi > xi+1 (pic local de la suite xeni), soit xi1 > xi etxi < xi+1 (vall´ee locale de la suitex en i). Notons :

(He0) : les (Xi) sonti.i.d. de loi commune `a densit´e,

et T le nombre de points tournants de x. Il est intuitif que T est faible si les Xi successifs sont corr´el´es positivement et queT est grand si lesXi successifs sont corr´el´es n´egativement. On propose donc comme comme r´egion de rejet de (He0) :

Rα ={¯¯T −EHe

0(T)¯¯≥s(α)},

les valeurs de T autour de son esp´erance sous He0 correspondant `a l’acceptation de (He0). Il faut

´

evaluer la loi deT sous (He0). Sous l’hypoth`ese que la loi marginale commune de Xt est `a densit´e, on a (cf. exercice 1.6.4-1) :

E(T) = 2

3(n−2) et V ar(T) = 16n−29 90 .

D’autre part, pour ngrand, on peut montrer que T est approximativement normal. La r´egion de rejet approximative au niveau α pourngrand est,t(β) ´etant leβ-quantile de la normale r´eduite :

Rα ={

¯¯

¯¯T −2

3(n−2)

¯¯

¯¯≥t(α 2)

r16n−29 90 }. Le test de signe sur la diff´erence.

On compte S le nombre de fois que xi > xi1 pour i = 2, n : sous (He0), E(S) = 12(n−1) et on peut aussi montrer que V ar(S) = n+112 , S ´etant approximativement normale pour n grand. Les petites ou les grandes valeurs de S mettant en doute (He0), on propose comme r´egion de rejet,

Rα ={

¯¯

¯¯S−n−1 2

¯¯

¯¯≥t(α 2)

rn+ 1 12 }. Puissance des tests.

Comme on devrait le faire pour chaque test en cas de maintien de l’hypoth`ese nulle, il faut ´evaluer la puissance du test en sp´ecifiant la famille d’alternatives envisag´ees. A ce sujet, le test de signe sur la diff´erence pr´esente un risque car il conduit `a accepter (He0) si (xi) est proche de la p´eriodicit´e (S est alors proche de n21) : le test de signe est de faible puissance pour la famille d’alternatives o`u x est proche de la p´eriodicit´e.

(8)

1.6.3 Test du caract`ere gaussien

On suppose observ´e un ´echantillon i.i.d. {ei, i= 1, n} et on veut tester (H0) :e1 ∼N(m,σ2).

Approche graphique : droite de Henry ou qq-plot Classons par ordre croissant les e : e(1) < e(2) <· · ·< e(n) et notonsu(1) < u(2) <· · ·< u(n) un ´echantillon gaussien r´eduit r´eordonn´e, mj =E(u(j)) l’esp´erance de ces statistiques d’ordre. Le qq-plot des {ei} est le graphique croisant les quantiles th´eoriques et les quantiles empiriques qq(e) = {(mj, e(j)), j = 1, n} : sous (H0), et pour n grand, les points de qq(e) sont approximativement align´es sur une droite de pente σ et d’ordonn´ee `a l’origine m. Une forte d´eviation `a cette propri´et´e fait douter de (H0), c-`a-d du caract`ere gaussien des observations. La fonctionqqplotdu packageStatsdeR permet de juger de cet alignement. Une r`egle statistique de rejet est construite sur la base der2, le carr´e du co´efficient de corr´elation empirique du graphique qq(e),

r2 = {P

(ei−e)mi}2 {P

(ei−e)2}{P m2i}

On rejettera (H0) au niveau α si Rα = {r2 < s(α)}. Pour n < 100, il existe des tables donnant s(α) ; pour n= 200, s(5%) =.987 ets(10%) =.989.

Approche param´etrique : test de Jarque-Berra (JB) La statistique de JB est construite sur la constatation suivante : une loi gaussienne est decoefficient d’asym´etrie κ3 =E(X−µ)33 nul (skewness,κ3 = 0 siX sym´etrique) et decoefficient d’applatissement κ4 =E(X−µ)44 = 3 (kurtosis).

Jarque et Bera proposent un test test de l’hypoth`ese plus faible : (He0) :κ3 = 0 et κ4 = 3.

Soient S etK les estimateurs empiriques de κ3 etκ4 calcul´es `a partir de (ei) ; alors la statistique : JB = n−p

6 {S2+1

4(K−3)2}

prend une valeur faible sous l’hypoth`ese de normalit´e. Jarque et Bera ont montr´e que la loi asymptotique de JB est, sous (He0), un χ2 `a 2 ddl. On rejette l’hypoth`ese gaussienne si on tombe dans la r´egion de rejetRα ={JB ≥q(2;α)}.

1.6.4 Exercices et fonctions R utiles

1. Test du point tournant. Soient X1, X2, X3 trois v.a.r. i.i.d.de densit´ef.

a - D´emontrer que p = P(X1 < X2 et X3 < X2) = R

RP(Y1 < Y2 et Y3 < Y2 | Y2 = y)f(y)dy) = 13. Que vaut q=P(Y1 > Y2 et Y3 > Y2) ?

b - En d´eduire que l’esp´erance du nombre de points tournants d’une s´erie {Xi, i = 1, n} de v.a.r. i.i.d.`a densit´e est 23(n−2).

2. Loi asymptotique pour la covariance empirique d’un bruit i.i.d.(0,σ2).

Soient (et, t= 1,2,· · ·) un bruit i.i.d.(0,σ2) et sa covariance empirique `a distance 1 calcul´ee pour un ´echantillon e1, e2,· · · , en :

b

γn(1) = 1 n

X

i=1,n1

Ui o`u Ui =eiei+1, i≥1.

a - V´erifier que (Ui, i ≥ 1) est une suite strictement stationnaire du second ordre. V´erifier de plus que Ui et Uj sont ind´ependantes si |i−j|>1. Quelle est l’acvf de U?

(9)

b - Utilisant le TCL pour les suites m-ind´ependantes (cf. Annexe §10.4), d´emontrer que :

√nbγn(1)ÃN(0,σ4) et √

nbρn(1)ÃN(0,1).

c - G´en´eraliser ce r´esultat `a la corr´elation empirique `a distance k et `a la loi jointe de deux corr´elations empiriques.

3. Simuler un 200-´echantillon d’une loiL, dresser son qq-plot et tester la gaussianit´e de Lpar : (i) le test sur r2 (cor(x, y) destats) ;

(ii) la statistique JB.

On envisagera les loisL suivantes : une gaussienne (rnorm(n, mean, sd)est un g´en´erateur denv.a.i.i.d.N(m,σ2)) ; une Student (rt(n,df,ncp),ncp= param`etre de non centralit´e) ; une loi exponentielle (rexp(n,rate)) ; une loi uniforme (runif(n,min,max)) ; une loi > 0 log-normale (rlnorm(n,meanlog,sdlog)).

Fonctions R utiles :

Package stats : rxxx(n,param`etres)(simulation d’un n-´echantillon de la loi xxx), acf, qqplot, Box.test (tests de Box-Pierce et Ljung-Box)

Package tseries : jarque.bera.test, run.test (test des runs du caract`ere i.i.d. d’une s´erie binaire)

2 Mod` eles non-stationnaires

Ce sujet sera repris au chapitre 7 traitant des SARIMA et des r´egressions `a r´esidu processus.

Pr´esentons quelques situations de non-stationnarit´e.

2.1 Non-stationnarit´ e en moyenne

C’est le cas o`u t7→m(t) =E(Xt) n’est pas constante.

2.1.1 Mod`ele de r´egression

On dispose d’un mod`ele param´etrique m(t) =g(t,β) o`u β ∈Rp et g est une fonction connue.

Le mod`ele est lin´eaire en β, c-`a-d g(t,β) =tg(t)β, ou non. Dans un mod`ele lin´eaire,

Xt= tg(t)β+e(t), t= 1,2,· · · (7) o`u e est un r´esidu centr´e ;e pourra ˆetre stationnaire de mod`ele param´etrique e(ϕ), ϕ∈ Rl; dans ce cas X est param´etr´e au premier ordre (β) et au second ordre (ϕ). Si e n’est pas stationnaire, on devra op´erer des transformations pour le stationnariser (transformation de Box-Cox, cf. §2.2 ; diff´erenciation, cf. §2.1.4).

Donnons quelques exemples classiques de mod`eles (7) :

— g(t) est un vecteur de variables exog`enes observables.

— g(t) est le vecteur des monomes en t de degr´e≤r.

— g(t) est associ´e `a une composante saisonni`ere p´eriodique.

— ou g(t) est une combinaison de ces mod`eles.

Une mod´elisation classiquetendance + saisonnalit´e + r´esidu est :

Xt=m(t) +st+et,t ≥1, (8) m(t) est une tendance et (st) est une saisonnalit´e de p´eriode d, c-`a-d que ∀t ≥ 0, st+d ≡st. Par exemple, m(t) = a +bt est une tendance affine et s est une saisonnalit´e centr´ee et (8) est de

(10)

dimension d+ 1 ; le centrage s1+s2+· · ·+sd= 0 est indispensable afin de rendre les param`etres (a, s) identifiables.

Exemple : La s´erieAirPassengers (cf.datasets deR) est un classique de l’´etude des SC (cf.

Box & Jenkins). Cette s´erie mensuelle donne le nombre total de passagers avion de 1949 `a 1960.

OuvrirRet charger cette s´erie. En donner la repr´esentation graphique. Constater l’existence d’une saisonnalit´e mensuelle (d = 12) et d’une croissance moyenne approximativement affine (mod`ele (8). On constate qu’il subsiste une non-stationnarit´e en variance qui n´ecessitera une transformation de Box-Cox des donn´ees afin de les stationnariser en variance (cf. §2.2).

Si la r´egressiont 7→m(t,β) n’est pas connue et si l’observation estX1, X2,· · · , Xn, on estimera β par MCO. Cette estimation pourra ˆetre am´elior´ee dans un second temps par MCG une fois identifi´ee et estim´ee la structure du r´esidu (et) (cf.§ 7.1 et annexe §10.3).

La pr´evision deXn+h,reposera sur : (i) l’estimation de β; (ii) la pr´evision du r´esidu en+h : Xbn,h=m(n+h,β) +b ben,h.

Deux facteurs d’impr´ecision apparaissent mais sinest grand et sibβest une estimation consistante, c’est l’incertitude sur la pr´evision ebn,h `a pas h qui est dominante.

2.1.2 Filtrage d’une tendance et/ou d’une saisonnalit´e par moyenne mobile

Tendance sans saisonalit´e Supposons que Xt = m(t) +et pour un r´esidu (et) centr´e. Sans mod`ele sur la tendance t7→m(t), le filtrage par moyenne mobile (MA pour Moving Average) est une m´ethode locale non-param´etrique permettant defiltrer la tendance m(t) =E(Xt).

Supposons que l’on observe X(n) = (X1, X2,· · · , Xn) et que m(t) soit `a “variation r´eguli`ere et lente” autour de t, approximativement affine sur [t−q, t+q]. Alors lefiltre en (2q+ 1)-MA :

b

m(t) = 1 2q+ 1

Xq j=q

Xt+j pourq+ 1≤t≤n−q,

donne une “bonne approximation” de m(t) pour laquelle bet =Xt−m(t) est approximativementb centr´ee. Par exemple, si m(s) = a +bs, m(t) =b m(t) +eet o`u eet = 2q+11 Pq

j=qet+j est “petit”, parce que centr´e et de variance 2q+1σ2 si e ∼BB(0,σ2). L’´etude portera alors sur la nouvelle s´erie des r´esidus bet =Xt−m(t). D’autresb filtres plus efficaces peuvent ˆetre utilis´es.

Tendance et saisonnalit´e Supposons que Xt = m(t) + st +et o`u s est une d-saisonnalit´e centr´ee :

• on commence par estimer la tendance avec un filtre ´eliminant la saisonnalit´e ; par exemple si d est pair,

b

m1(t) = 1

2d(Xtd+Xtd+1+· · ·+Xt+d1+Xt+d) pour d

2 < t≤n− d 2.

• on estime ensuite la saisonnalit´e en prennant la moyenne arithm´etique wk des d´eviations {Xk+jd−mb1(k+jd), d2 < k+jd ≤n− d2};

•on recentre cette estimation en bsk =wk−w. Las´erie d´esaisonalis´ee est dt=Xt−bst.

• on termine en r´eestimant la tendance par filtrage en moyenne mobile `a partir de la s´erie d´esaisonalis´ee (dt), soit mb2(t).

Il reste alors `a ´etudier la s´erie recentr´ee bet=Xt−(mb2(t) +bst), t= 1, n.

(11)

2.1.3 Exercice et fonctions R utiles Soit B l’op´erateur de retard :BZt=Zt1.

1 - D´eterminer les constantes a, b et c t.q. le filtre F(B) = 1 +aB +bB2 +cB3 laisse invariant les tendances affines mais absorbe les 2-saisonalit´es.

2 - V´erifier que lefiltreF(B) =P2

i=2aiBide co´efficients (a2, a1, a0, a1, a2) = 19(−1,4,3,4,−1) laisse invariant les tendances polynomiales de degr´e≤3 mais absorbe les 3-saisonalit´es.

Fonctions R utiles :

Package stats : decompose(en T(t) +S(t) +e(t)), monthplot (ajustement saisonnier) Package forecast : seasadj (d´esaisonalise une s´erie)

Package tseries : kpss.test (test de stationnarit´e) 2.1.4 Stationnarisation par diff´erenciation

Stationnarisation de la moyenne. La constatation de base est la suivante : notons

∇Zt=Zt−Zt1

l’op´erateur de diff´erence d’ordre 1 : siXt=a+bt+et, ∇Xt =b+εt o`u εt =∇et =et−et1 est stationnaire centr´e si el’est. Ainsi, la diff´erenciation∇ stationnarise en moyenne une s´erie dont la tendance est affine en pr´eservant la stationnarit´e du r´esidu. Il est facile d’´etendre ce r´esultat aux tendances polynomiales de degr´e k qui sont absorb´ees par lak-it´er´ee ∇k de∇:

kP(t) =c siP est un polynome de degr´e k.

Ainsi, si Xt = P(t) + et o`u P est polynomiale de degr´e k, alors Yt = ∇kXt = c+εt o`u ε est stationnaire si e l’est. Cette constatation justifie l’utilisation de la diff´erenciation ∇ ou de ses premi`eres it´er´ees ∇k lorsque la tendance d’une s´erie est r´eguli`ere et varie lentement. Un inconv´enient de cette diff´erenciation est de “compliquer” ´eventuellement la structure du bruit r´esiduel ε (i.e. si e est unBB, ε devient unM A(1)).

Elimination d’une d-saisonnalit´e. Soit∇dla diff´erenciation d’ordred(ne pas confondre avec

d) :

dZt=Zt−Ztd.

Si s = (st) est une d-saisonnalit´e, ∇dst ≡ 0 : la d-diff´erenciation absorbe les d-saisonalit´es. Par exemple, si Xt =st+et, ∇dXtt o`u εt =∇det est stationnaire si e l’est. Remarquons que ∇d stationnarise ´egalement une SC `a tendance affine : si Xt = a+bt+st+et, ∇dZt ≡ d×b+εt

est stationnaire. Cependant on optera souvent pour une composition des deux diff´erenciations

∇∇d=∇d∇ dans une telle situation.

Retour `a la s´erie d’origine La technique de diff´erenciation permet de passer d’une s´erie X non stationnaire en moyenne `a une s´erieY stationnaire en moyenne. Pour la pr´ediction deX, on passera par la pr´ediction surY puis on remontera parfiltrage inverse `a la pr´ediction recherch´ee sur X. Illustrons cela `a travers un exemple : on observe X(n) = (X1, X2,· · · , Xn) et on veut pr´edire Xn+2; on pense ˆetre en pr´esence d’une tendance r´eguli`ere pour la s´erie X qui est trimestrielle. On propose donc la stationnarisation suivante :

Yt =∇4∇Xt= (Xt−Xt1)−(Xt4−Xt5) =Xt−Xt1−Xt4+Xt5,t = 6, n

On constate un r´etr´ecissement du domaine d’observation pour la s´erie diff´erenci´ee Y (n − 5 observations Yt au lieu de n pour X). On pr´evoit Yn+2 par Ybn,2 puis on calcule la pr´ediction associ´ee Xbn,2 = Ybn,2+Xbn,1 +Xn2−Xn3, et `a nouveau Xbn,1 = Ybn,1+Xn+Xn3 −Xn4. On trouve :

Xbn,2 =Ybn,2+Ybn,1+Xn+Xn2−Xn4.

(12)

2.1.5 Exercices

1. Soit {et} un bruit stationnaire centr´e, a et b deux constantes, Xt = (a + bt)stt et Yt = (∇12)2Xt. V´erifier queY est stationnaire. D´eterminer sa covariance en fonction de celle de e.

2. (a) - Simuler la s´erie Xt = a+bt+σet pour t = 1,200, a = 2, b = 0.1, σ = 2, e ´etant i.i.d.(N(0,1)). Graphe, acvf et pacf empiriques de (Xt, t= 1,200). Calculer l’estimation des MCO de (a, b) et l’estimation d´eduite de σ2 (cf. Annexe §10.3). Tester b= 0 contre b >0.

(b) - Simuler la s´erie Xt = a+bt+ηt pour t = 1,200, a = 2, b = 0.1, η ´etant le mod`ele AR(1) d’´equation :

ηt=ρηt1+et, t= 0,200 pour ρ=

√3 2 .

V´erifier que V ar(ηt) = 4. Tracer la s´erie (ηt, t = 1,200), son acvf et sa pacf empiriques.

Estimer bpar MCO. Comment tester b= 0 ?

3. (a) - Soit (et, t = 1,200) ∼ i.i.d.(N(0,1)), Xt = t+et, Yt = √

tet et Zt = cosπt4 +et pour t = 1,200.Quelles sont les acvf empiriques deX,Y etZ. Quelles conclusions en tirez-vous ? (b) - Soit X1,t = Xt −Xt1 pour t = 2,200 et Z1,t = Zt −Zt8 pour t = 9,200. Mˆemes questions sur X1 etZ1.

2.2 Non-stationnarit´ e en variance

C’est la situation o`u V ar(Xt) = σ2(t) d´epend de t. R´eexaminons la s´erie AirPassengers : la variance σ2(t) est une fonction croissante de la moyennem(t) :

σ2(t) =f(m(t)). (9)

Soit cv(X) = E(X)σ(X) lecoefficient de variation d’une v.a. X >0. De nombreux ph´enom`enes X sont

`

a cv(X) =κ constant : l’ordre de grandeur de la variabilit´e de X (son ecart type) est du mˆeme ordre que la moyenne de X (nombre de malades d’un canton, trafic de voyageurs, chiffre d’affaires d’une entreprise). Dans ce cas, le mod`ele pour (9) estσ(t) =κ m(t).

2.2.1 Transformation stabilisant la variance

Une solution consiste `a trouver une transformation g(Xt) telle que V ar(g(Xt)) est approxi- mativement constante. L’approche est la suivante : supposons que X ∼ N(m,κ2f(m)) et que κ est petit. Le r´esultat (cf. (45) de l’annexe, §10.4) pr´ecise la loi approch´ee de la d´eformation d’une gaussienne de petite variance si g est diff´erentiable autour dem,

g(X)∼N(g(m),κ2f(m)g0(m)2).

La variance est stabilis´ee si f(m)g0(m)2 =c. D’o`u l’´equation diff´erentielle sur g : g0(m) = c

pf(m),

2.2.2 Trois exemples

— X est `acv constantκpetit,σ2 =f(m) =κ2m2 etg0(m) = mc : on obtientg(m) =κlog(m) : le log stabilise la variance d’un mod`ele `a cv constant et petit.

— σ22m, κ petit : σ2 =f(m) =κ2m etg(m) =κm12 stabilise la variance.

(13)

— Plus g´en´eralement, la transformationde Box-Cox : f(m) = ma

a , a >0 et f(m) = log(m) pour a= 0,

stabilise la variance deXsiσ22m22a,κpetit, la situation fronti`erea= 0 correspondant au cas d’un cv constant.

2.2.3 Exercices et fonctions R utiles

On consid`ere la s´erie Xt = (a+bt)Zt, t ≥ 0, a et b > 0 o`u (Zt) est une suite stationnaire de v.a. sur R+, E(Z1) =µ >0, V ar(Z1) =σ2.

a - Calculer l’esp´erance et la variance de Xt. Que vaut le coefficient de variation deXt? b - SoitYt =∇Xt=Xt−Xt1pourt≥1. (Yt) est-elle stationnaire en esp´erance ? en variance ? c - SoitWt = log(∇Xt). Montrer que (Wt) est approximativement stationnaire si t est grand et/ou si aÀb.

d - On observe X(n) = (X1, X2,· · · , Xn) et on dispose d’une pr´evision cWn,1 de Wn+1 en fonction des Wt pass´es. Comment pr´evoir Xn+1?

Fonctions R utiles :

Dans le packageforecast : BoxCox, InvBoxCox.

Dans le packagastats : diff.ts, diffinv

3 Pr´ ediction L

2

et auto-corr´ elation partielle

3.1 Pr´ ediction au second ordre : le cas g´ en´ eral

Soient Y, W = (W1, W2,· · · , Wn), (n + 1) v.a.r. du second ordre. Supposons connues les moyennes et les variances-covariances suivantes :

µY = E(Y),µW = ti =E(Wi), i= 1, n)∈Rn; γ = Cov(W, Y)∈Rn;V ar(Y)∈R;

Γ = Cov(W), matrice n×n.

L’objectif est de pr´edire au mieux, pour le crit`ere de l’´ecart quadratique moyen (EQM), Y `a partir d’une combinaison affine des Wi, i = 1, n. Il s’agit donc de trouver la combinaison affine Yb =a0+a1W1+a2W2 +· · ·+anWn qui minimise l’EQM :

S(a) =E(Y −Yb)2 =E{Y −(a0+a1W1 +a2W2+· · ·+anWn)}2.

On parle aussi de lar´egression affine deY surW :Yb est la projection orthogonale (pour le produit scalaire de la covariance de Y) sur l’espace affine engendr´e par lesW.

Proposition : La pr´ediction optimale s’´ecrit Yb =µY+ ta(W −µW) o`u a = t(a1, a2,· · · , an) v´erifie :

taΓ=γ et EQM(Yb) =V ar(Y)− taγ. (10) Preuve : Soit L2 l’espace de Hilbert des variables centr´ees de variancesfinies muni du produit scalaire de la covariance,hU, Vi=Cov(U, V). Recentrons les (n+ 1) variablesY etW. Minimiser le crit`ere de l’EQM revient `a projeter orthogonalement Y sur l’espace lin´eaire des W. Cette projection existe toujours et l’orthogonalit´e de (Y −Yb) aux Wi, i = 1, n, s’´ecrit, notant Γi la i-i`eme colonne de Γ :

Cov(Y −Y , Wb i) = 0, i= 1, n, soit : tii pouri= 1, n, (11) c-`a-d : taΓ=γ.

Un tela existe toujours et est unique si Γest r´eguli`ere :a=Γ1γ. Un calcul direct donne l’erreur de pr´ediction. . . .¥

(14)

3.2 Le cas d’un processus stationnaire

3.2.1 Pr´ediction `a l’horizon h

Un objectif central dans l’´etude des SC est la pr´ediction `a l’horironh >0 deXn+hsi on observe X(n) =t(X1, X2,· · · , Xn). Si la s´erie est centr´ee et si X est stationnaire d’acvf γ(·), la propri´et´e pr´ec´edente nous dit que cette pr´evision vaut,

Xbn,h = taX(n) o`utaΓ=γ,avec

γ = tCov(Xn+h, X(n)) = t(γ(n+h−1),· · · ,γ(h+ 1),γ(h)) et Γ = Cov(X(n)) = (γ(i−j))ni,j=1.

L’erreur de pr´evision est donn´ee par (10). Si γ(·) n’est pas connue, on la remplacera par son estimation ; dans ce cas, l’erreur de pr´evision donn´ee par (10) n’est qu’approch´ee puisqu’un facteur d’impr´ecision sur les param`etres bγ(k) s’ajoute `a l’incertitude sur le processus.

3.2.2 Algorithme r´ecursif de pr´ediction ; pr´evision de valeurs manquantes

Une difficult´e dans l’obtention de Xbn,h r´eside dans l’inversion de la matrice Γ de taille n×n lorsque n est grand. Il existe des algorithmes r´ecursifs qui l`event cette difficult´e (i.e. algorithme de Durbin-Levinson, cf. BD). Leur principe est le suivant : une fois calcul´ee Xbn,1, on cherche `a obtenir par une r´ecursion simple (sans inversion de matrice) la pr´ediction Xbn+1,1 sur la base des observations et de Xbn,1.

La pr´edictionL2 permet ´egalement d’estimer unevaleur manquanteXk, 1< k < ndeXk(n) = (X1,· · · , Xk1, Xk+1,· · ·Xn) :

Xbk(n) = taXk(n) o`u taΓ=γ pour Γ=Cov(Xk(n)) et γ = tCov(Xk, Xk(n)).

3.2.3 Exercices

1. Pr´evision optimale sur la derni`ere observation

a - Pr´eciser la loi conditionnelle L(Y | X = x) si t(X, Y) ∼ N2(t(a, b),Σ) de covariance Σ=³σ2

1 ρσ1σ2

ρσ1σ2 σ22

´

inversible.

b - SoitX1, X2,· · · un processus stationnaire au second ordre de moyennem et d’ACFρ(·).

D´emontrer que le pr´edicteur optimal de Xn+h en fonction de la seule observation Xn et de la constante 1 est Xbn,h=ρ(h)Xn+m(1−ρ(h)). Quelle est la loi de cette pr´edition siX est gaussienne ?

2. Pr´ediction de valeurs manquantes.

a - X1, X2, X4 etX5 sont les observations d’un MA(1) : Xt =Zt+θZt1 o`u Z ∼BB(0,σ2).

D´eterminer la meilleure pr´ediction lin´eaire de la valeur manquante X3 en pr´ecisant chaque fois les erreurs de pr´edictions : (a1) en fonction deX2, X4; (a2) en fonction de X1, X2; (a3) en fonction de X1, X2, X4 et X5.

b - Mˆemes questions maisX est l’AR(1) stationnaire :Xt =φXt1+Zt.

3.3 Auto-corr´ elation partielle

3.3.1 Le cas g´en´eral

Soient Y, Z et W = (W1, W2,· · · , Wn),(n+ 2) v.a. r´eelles de variancesfinies, de moyennes et de variances-covariances connues. Soit Yb (resp. Zb) la r´egression affine de Y (resp. Z) sur W et bε(Y |W) (resp.bε(Z |W)) le r´esidu de cette r´egression :

Y =Yb +bε(Y |W) et Z =Zb+bε(Z |W).

(15)

D´efinition : Lecoefficient de corr´elation partielle ρP(Y, Z |W) entre Y etZ `a W connu est le coefficient de corr´elation entre les r´esidusbε(Y |W) et bε(Z |W) des r´egressions de Y sur W et de Z surW :

ρP(Y, Z |W) =ρ(bε(Y |W),bε(Z |W)). (12) Ce coefficient mesure le degr´e de liaison affine entre Y etZ une fois retir´ee l’information affine qu’apporteW `a l’une et `a l’autre des variablesY etZ. Par exemple, si on observe unn-´echantillon de la taille Y, du poids Z et de l’ˆage W d’une population, la corr´elation ρP(Y, Z |W) est le bon indice de liaison affine entre taille et poids `a “ˆage fix´e” ; la corr´elation habituelle ρ(Y, Z), plus grande que la corr´elation partielle, int`egre le fait que taille et poids sont deux fonctions croissantes de l’ˆage et en fait masque la liaison intrins`eque entre la taille et le poids.

Exemple : Soit (Y, Z, W) ∈ R3 de moyenne m, de variances σ2 ∈ R3 et de matrice de corr´elationsρ. On peut alors expliciter la forme analytique de ρP(Y, Z |W). Les deux r´egressions sont :

Y −mY = ρY W σY

σW

(W −mW) +bε(Y |W) et Z −mZ = ρZW σZ

σW

(W −mW) +bε(Z |W).

Reste `a calculer la corr´elation simple ρ(bε(Y |W),bε(Z |W)). Un calcul direct conduit `a : ρP(Y, Z |W) = ρY Z−ρY WρZW

p1−ρ2Y Wp

1−ρ2ZW. 3.3.2 Auto-corr´elation partielle pour un processus stationnaire

Soit X un processus stationnaire au second ordre.

D´efinition : La fonction d’auto-corr´elation partielle (not´ee pacf) de X `a distanceh > 0 est d´efinie par :

α(h) =ρP(X0, Xh |X1, X2,· · · , Xh1),

α(h) est la corr´elation entre X0 et Xh aux valeurs interm´ediaires (X1, X2,· · · , Xh1) fix´ees. Par convention, on pose α(0) = 1.

Lien avec la pr´ediction.

La pr´ediction deXh sur la base deX0h1 = (X0, X1, X2,· · · , Xh1) est donn´ee parXbh,1 =tahX0h1 o`uahh1γh, Γh = (γ(i−j))hi,j=01 etγh =t(γ(h),γ(h−1),· · · ,γ(1)). On a la propri´et´e suivante (cf. BD) :

Propri´et´e :Soit a0,h le coefficient de X0 dansXbh,1. Alors la pacf de X `a distancehvauta0,h : α(h) =ρ(X0, Xh |X1, X2,· · · , Xh1) =a0h.

Anticipons sur les mod`eles ARMA : une propri´et´e caract´eristique des AR(p) est que la pacf d’un AR(p) est nulle au del`a de p : α(h) = 0 si h > p. Cette propri´et´e est la propri´et´e duale de celle d’un M A(q) pour lequel l’acf v´erifie :ρ(h) = 0 si h > q.

3.3.3 Exercices

1. SoientX,Y etZtrois variablesi.i.d.(0,1),X1 =X+Z etY1 =Y+Z. Calculerρ(X1, Y1 |Z).

2. Utilisant la d´efinition de la pacf, d´emontrer que la pacf d’un AR(1) (cf. §4.2) est nulle `a partir de la distance 2. G´en´eraliser au cas d’un AR(p).

(16)

4 Mod` eles ARM A

Les mod`eles ARM A (Auto-Regressive with Moving Average) sont des mod`eles stationnaires de petite dimension dont la covariance approche une large famille de covariances. En particulier, pour toute covariance γ(·) et tout entierK >0, il existe un mod`eleARM A(et mˆeme un AR)X tel queγ(k) =γX(k) pour 0≤k ≤K. Ces mod`eles vont ˆetre d´efinis comme desmod`eles lin´eaires associ´es `a un BB. Commen¸cons par d´efinir de tels mod`eles lin´eaires.

4.1 Processus lin´ eaire

Soit ψ une suite del1 (P

Zi|<∞) et ε∼BB(0,σ2). Un processus lin´eaire est : Xt =X

i∈Z

ψiεti, t∈Z. (13) Xt est donc une moyenne glissante infinie (M A(∞)) et bilat´erale du bruitε pour des poidsψ. La s´erie d´efinissant Xt converge en probabilit´e et dans L2 sous la conditionψ∈l1 (cf. §10.2). L’acvf de X vaut :

γX(h) =σ2X

i∈Z

ψiψi+h. (14)

En particulier, γ(h) tend vers 0 si h→ ∞.

4.2 Mod` ele ARM A(p, q)

Un ARM A(p, q) associ´e `a ε ∼ BB(0,σ2) et de param`etres φ ∈ Rp, θ ∈ Rq, est un processus stationnaire X v´erifiant pour chaque t∈Z :

Xt−φ1Xt1 −· · ·−φpXtpt1εt1+· · ·+θqεtq. (15) Notons P(z) (resp.Q(z)) le polynome associ´e `a la composante AR(p) (resp.M A(q)) :

P(z) = 1−φ1z−· · ·−φpzpp 6= 0);

Q(z) = 1 +θ1z+· · ·+θqzqq 6= 0).

On supposera toujours que P etQsont sans facteur commun. SiB est l’op´erateur de retard d´efini pour tout t∈Z par BXt=Xt1, l’´equation g´en´eratrice de l’ARM A s’´ecrit :

P(B)Xt=Q(B)εt. (16)

Propri´et´es : (15) admet une solution stationnaire ssi P(z)6= 0 pour |z|= 1.

Preuve : Si P(z)6= 0 pour |z|= 1, alors ∃δ > 0 t.q. P1 admette un d´eveloppement de Laurent uniform´ement convergent sur la couronne 1−|δ|≤|z|≤1−|δ|,

P1(z) =X

i∈Z

χizi avec χ0 = 1, (17) et la suite des (χi) est `a d´ecroissance exponentielle. On en d´eduit que Q(z)P(z) = P

i∈Zψizi, avec ψ0 = 1, o`u (ψ), ´etant `a d´ecroissance exponentielle, est dans l1. D´efinissons alors :

Xt=X

i∈Z

ψiεti. (18)

X est solution de (16) et son acvf est donn´ee par (14). .. . . .¥ Les ARM A sont donc des processus lin´eaires particuliers dont les poids ψ d´ecroissent expo- nentiellement ; X est un AR(p) si q= 0 ; X est un M A(q) sip= 0.

(17)

4.2.1 Causalit´e, inversibilit´e

Causalit´e et innovation de X Une repr´esentation (15) est causale si la repr´esentation (18) de Xt ne fait intervenir que les bruits εs, s≤t : notons Yuv le sous-espace lin´eaire deL2 engendr´e par les v.a.{Yt, u≤t≤v}. Si la repr´esentation de X est causale,X−∞t ⊆εt−∞. εtest l’innovation de X `a l’instantt, caract´eris´ee par :

X−∞t =X−∞t1⊕(εt) et Cov(εt, Xs) = 0 si s < t. (19) Propri´et´e : (15) est causale ssi P(z) 6= 0 pour |z| ≤ 1, c-`a-d si P n’a pas de racine sur le disque unit´e.

Preuve : En effet, cette condition assure que le d´eveloppement de Laurent (17) de P(z)1 est le d´eveloppement ordinaire en s´erie enti`ereP1(z) =P

i0χizi, convergent si|z|≤1. . . .¥ SiP(z) =Qp

k=1(1−zzk), le d´eveloppement de P(z)1 s’obtient `a partir des d´eveloppement des fractions rationnelles :

1 1− zzk

=X

i0

(zk)izi pour |z|≤1.

Inversibilit´e de l’ARMA La repr´esentation (15) est inversible si pour tout t : εt=X

i0

ϕiXti. (20)

La repr´esentation est inversible si Q(z) 6= 0 pour |z| ≤ 1, c-`a-d si le polynome MA n’a pas de racine sur le disque unit´e. Pour un ARMA inversible, εt−∞⊆X−∞t .

Ainsi si la repr´esentation ARMA est causale et inversible, on a l’´egalit´e entre les espaces engendr´es par X et par ε:

Si X est causal et inversible : ∀t :εt−∞=X−∞t . 4.2.2 Exercice

Parmi les mod`eles suivants, lesquels sont causaux ? inversibles ? (e est un BB(0,σ2)) et pour ceux qui sont causaux, calculer les 6 premiers co´efficients ψi de la repr´esentation causale Xt = P

i∈Zψieti, t ∈Z:

— Xt= 0.8Xt1+et+ 1.2et1

— Xt+ 1.9Xt1+ 0.88Xt2 =et+ 0.2et1+ 0.7et2.

— Xt−0.9Xt2 =et−0.16et2. 4.2.3 Exemples d’ARM A

Les mod`eles en moyenne glissante M A(q) Consid´erons :

M A(q) :Xtt1εt1+· · ·+θqεtq, (21) et posons θ0 = 1. X a pour acvf :

γ(h) =σ2

qh

X

i=0

θiθi+h pour |h|≤q etγ(h) = 0 sinon.

La port´ee de l’acvf d’un M A(q) est q. Cette propri´et´e est caract´eristique des M A (BD) : un processus stationnaire dont l’acvf est de port´eeqpeut s’´ecrire comme unM A(q). La repr´esentation est inversible si Q(z) = 1 +Pq

1θjzj ne s’annule pas sur |z|≤1 : dans ce cas, ∀t:εt−∞ =X−∞t .

Références

Documents relatifs

I Il faudrait d´ emontrer par r´ ecurrence que le nombre de colonnes ne contenant aucune case color´ ee obtenu par ce calcul n’est jamais nul pour 2x sup´ erieur ou ´ egal `

Puis est fourni le nombre effectif de colonnes sans z´ero du tableau, qui correspondent aux d´ecompositions de Goldbach du nombre pair consid´er´e qui font intervenir les

– Ce développement est trop court en l’état, il sera donc nécessaire de l’allonger le moins artificiellement possible.. On pourrait aussi inclure le calcul de l’intégrale de

Si la mesure µ n’e pas fini mais finie sur tous les compas (ce qui revient `a fire que g e localement int´egrable), il e ais´e d’adapt´e le raisonnement pr´ec´edent pour obtenir

[r]

De plus F(f ) est nulle en dehors d’un segment et donc dominée par toute puissance de x au voisinage des infinis.. La question précédente donne alors la nullité de f

Désignons par a, (3, y les angles que forme, avec trois axes rectangulaires, la tangente à la courbe au point M, dont les coordonnées sont x , y, z\ par £, v, £ et A, ^, v les

Remarquons tout d’abord les diff´erences quant aux nombres de d´emons- trations de convergence donn´ees suivant les auteurs : Cauchy en fournit quatre dont la premi`ere remonte `a