VII.2 Processus univari´ es ` a temps discret
Cette section pose les bases de la mod´elisation probabiliste des s´eries temporelles. Il d´efinit les notions de processus stochastique et de stationnarit´e, ainsi que des outils d’analyse comme les autocorr´elogrammes et le p´eriodogramme.
Soit (xt)t∈T une famille d’observations d’un ph´enom`ene qui peut ˆetre physique, ´econo-mique, biologique... Chaque observationxt∈Rda ´et´e enregistr´ee `a un temps sp´ecifiquet∈T et on appelle s´erie temporellecet ensemble d’observations.
SiT est d´enombrable (en g´en´eral T ⊂Z), on parle de s´erie temporelle `a temps discret . Si T n’est pas d´enombrable (en g´en´eral un intervalle de R), on parle de s´erie temporelle
`
a temps continu .
On consid`ere des s´eries temporelles `a valeur dansRd. Sid= 1, on parle de s´erieunivari´ee . Si d >1, on parle de s´erie multivari´ee .
On d´esignera dans la suite par s´erie temporelle unes´erie temporelle univari´ee `a temps discret.
On consid`ere en Statistique que l’observation x est la r´ealisation d’une variable al´eatoire X. De mani`ere analogue, une s´erie temporelle (xt)t∈T est consid´er´ee comme la r´ealisation d’un processus stochastique (d’une suite de variables al´eatoires) (Xt)t∈T.
VII.2.1 Processus stochastique du second ordre
D´efinition VII.1. Soit X := (Xt)t∈T un processus stochastique (i.e. une suite de variables al´eatoires). Le processus X est dit du second ordre si pour tout t ∈ T, Xt est une variable al´eatoire de carr´e int´egrable i.e.E(|Xt|2)<+∞.
Voici deux exemples de processus du second ordre qui sont fondamentaux dans la suite.
D´efinition VII.2. (εt)t∈Z est un bruit blanc fort si :
– (εt)t∈Z est une suite de variables al´eatoires r´eelles ind´ependantes et identiquement dis-tribu´ees (i.i.d.),
– ∀t∈Z:E(εt) = 0 etE ε2t
=σ2.
D´efinition VII.3. (εt)t∈Z est un bruit blanc faible si :
– (εt)t∈Z est une suite de variables al´eatoires r´eelles identiquement distribu´ees, – ∀(t, t′)∈Z2, t6=t′ :Cov(εt, εt′) = 0,
– ∀t∈Z:E(εt) = 0 et E ε2t
=σ2.
On rappelle maintenant un r´esultat important pour l’´etude de processus du second ordre.
Proposition VII.4. Soient(Xn)n∈Z et (Yn)n∈Z deux processus tels que
VII.2.2 Processus stationnaire
Dans de tr`es nombreux cas, on ne peut pas renouveler la suite de mesures dans des conditions identiques (par exemple le taux de chˆomage mensuel). Alors pour que le mod`ele d´eduit `a partir d’une suite d’observations ait un sens, il faut que toute portion de la trajectoire observ´ee fournisse des informations sur la loi du processus et que des portions diff´erentes, mais de mˆeme longueur, fournissent les mˆemes indications. D’o`u la notion de stationnarit´e.
D´efinition VII.5. Un processus (Xt)t∈T est fortement stationnaire ou strictement sta-tionnaire si, pour tousk≥1, (t1, ..., tk)∈Tk,h tel que (t1+h, . . . , tk+h)∈Tk, les vecteurs (Xt1, ..., Xtk) et (Xt1+h, ..., Xtk+h) ont mˆeme loi.
Cette propri´et´e tr`es forte est tr`es difficile `a v´erifier, d’o`u la notion de stationnarit´e faible.
D´efinition VII.6. Un processus (Xt)t∈T du second ordre estfaiblement stationnaire ou stationnaire `a l’ordre 2, si son esp´erance E(Xt) et ses autocovariances Cov(Xs, Xt) sont invariantes par translation dans le temps :
– ∀t∈T, E(Xt) =E(X0), – ∀(s, t)∈T2,∀h
(s+h, t+h)∈T2 , Cov(Xs, Xt) =Cov(Xs+h, Xt+h).
Dans la suite, on notera µX =E(X0) et γX(h) =Cov(X0, Xh).
Remarque VII.7.
– La stationnarit´e faible est bien plus facile `a ´etudier et `a v´erifier que la stationnarit´e stricte.
– Un processus stationnaire n’est pas obligatoirement born´e ou “sympathique” (par exemple, un bruit blanc).
– Pour un processus du second ordre, la stationnarit´e stricte implique la stationnarit´e faible. La r´eciproque est fausse (elle n’est vraie que pour les processus gaussiens).
♦ Exemple VII.8. 1. Un bruit blanc fort est fortement stationnaire.
2. Un bruit blanc faible est faiblement stationnaire.
3. Un processus pr´esentant une tendance et/ou une saisonnalit´e n’est pas faiblement sta-tionnaire.
♦ On d´esignera dans la suite par processus stationnaire, un processus faiblement stationnaire (donc du second ordre). De plus, on supposera que le processus est `a temps discret et plus pr´ecis´ement queT =Z.
Proposition VII.9. Soit (Xt)t∈Z un processus stationnaire (au sens faible). Soit une suite (ai)i∈Z telle que P
Cela implique notamment qu’une somme de v.a.r d’un processus stationnaire est station-naire.
Notons que la somme de deux processus stationnaires n’est pas forc´ement stationnaire.
Il existe des non-stationnarit´es particuli`eres dont :
VII.2. PROCESSUS UNIVARI ´ES `A TEMPS DISCRET 139 – (Xt)t∈Z est un processus non-stationnaire TS (Trend Stationary) s’il peut s’´ecrire sous la forme :Xt=f(t)+Yt, o`uf est une fonction d´eterministe et (Yt)t∈Zun processus stationnaire.
– (Xt)t∈Z est un processus non-stationnaire DS (Difference Stationary) s’il est sta-tionnaire apr`esddiff´erenciations : ∇dXt= (I−B)dXto`u BXt=Xt−1. Sid= 2, cela signifie que le processus d´efini pour tout t ∈ Z par ∇2Xt = Xt−2Xt−1 +Xt−2 est stationnaire.
Ces processus peuvent n´eanmoins ˆetre rendus stationnaires par une suite de transforma-tions usuelles (d´esaisonnalisation, diff´erenciation, transformation non lin´eaire...). Une m´etho-dologie classique est celle de Box-Jenkins que nous ´etudierons par la suite et en TP.
VII.2.3 Autocovariance et autocorr´elations
L’autocovariance (resp. l’autocorr´elation) d’un processus stochastique est la covariance (resp. la corr´elation) de ce processus avec une version d´ecal´e dans le temps de lui mˆeme. Ces fonctions sont bien d´efinies pour un processus stationnaire. Dans la suite on consid`ere un processus stationnaire (Xt)t∈Z.
Fonction d’autocovariance
D´efinition VII.10. On appelle fonction d’autocovariancedu processus X la fonction γ suivante :
∀h∈Z:γ(h) =Cov(Xt, Xt−h)
Proposition VII.11. La fonction d’autocovariance v´erifie les propri´et´es suivantes : – γ(0)≥0,
– |γ(h)| ≤γ(0),
– γ est une fonction sym´etrique : pour touth∈N,γ(−h) =γ(h), – γ est une fonction semi-d´efinie positive :
∀n∈N∗,∀(ai)i∈{1,...,n}∈Rn: Xn
i=1
Xn j=1
aiajγ(i−j)≥0.
Comme la fonctionγest sym´etrique, on calculera la fonction d’autocovariance pourh∈N. R´eciproquement, si une fonction γ v´erifie :
– γ(−h) =γ(h),h∈N∗,
– ∀n∈N∗,∀(ai)i∈{1,...,n}∈Rn: Pn
i=1
Pn j=1
aiajγ(i−j)≥0, alors c’est une fonction d’autocovariance.
Autocorr´elogramme simple
D´efinition VII.12. On appelle autocorr´elogramme simple du processus X la fonction ρ suivante :
∀h∈Z:ρ(h) =Corr(Xt, Xt−h) = γ(h) γ(0)
L’autocorr´elogramme simple est donc la fonction d’autocovariance renormalis´ee. Il v´erifie – ρ est une fonction d´efinie positive :
∀n≥0,∀(ai)i∈{1,...,n}:
D´efinition VII.14. On appelle matrice d’autocorr´elation de (Xt, ..., Xt−h+1) avec h ∈ N∗ la matrice suivante :
Rh =
Proposition VII.15. La fonction ρ est une fonction d´efinie positive si et seulement si∀h∈ N∗: detRh ≥0.
La seconde condition fixe de nombreuses contraintes aux corr´elations, par exemple : detR3 ≥0⇔[1−ρ(2)]
1 +ρ(2)−2ρ2(1)
≥0.
Autocorr´elogramme partiel
Une seconde fa¸con de mesurer l’influence entre le processus et son d´ecal´e dans le temps est de calculer la corr´elation entre deux instants en enlevant une partie de l’information contenue entre ces deux instants. Plus pr´ecisement, on calcule la corr´elation entre le terme Xt−EL(Xt|Xt−1, ..., Xt−h+1) et le terme Xt−h−EL(Xt−h|Xt−1, ..., Xt−h+1), o`u la quantit´e EL(Xt|Xt−1, ..., Xt−h+1) (resp.EL(Xt−h|Xt−1, ..., Xt−h+1)) d´esigne la r´egression lin´eaire de Xt (resp. Xt−h) surXt−1, ...,Xt−h+1.
On rappelle que la r´egression lin´eaire d’une variable al´eatoire Z surnvariables al´eatoires Y1, . . . , Yn est la variable al´eatoire, not´ee EL(Z|Y1, ..., Yn), est la combinaison lin´eaire des D´efinition VII.16. On appelleautocorr´elogramme partieldu processus X la fonction r suivante : r(1) =ρ(1) et pour tout h∈N∗,
r(h) =Corr(Xt, Xt−h|Xt−1, ..., Xt−h+1)
= Cov(Xt−EL(Xt|Xt−1, ..., Xt−h+1), Xt−h−EL(Xt−h|Xt−1, ..., Xt−h+1)) Var(Xt−EL(Xt|Xt−1, ..., Xt−h+1)) .
VII.2. PROCESSUS UNIVARI ´ES `A TEMPS DISCRET 141 Th´eor`eme VII.17. Soit(Xt)t∈Zun processus stationnaire. On consid`ere la r´egression lin´eaire de Xt sur Xt−1, ..., Xt−h :
D’apr`es cette proposition, si on a une estimation de (ρ(1), ..., ρ(h)) et donc de la matrice d’autocorr´elation Rh d´efinie par (VII.1), alors on est capable d’estimer (a1(h), ..., ah(h)) (en inversant la matrice Rh). On obtient aussi, d’apr`es le th´eor`eme pr´ec´edent, une estimation de l’autocorr´elogramme partiel r(h).
Une fa¸con moins coˆuteuse d’inverser la matrice Rh pour d´eterminer les autocorr´elations partielles est d’utiliser l’algorithme de Durbin-Levinson.
Algorithme VII.18. Algorithme de Durbin-Levinson : a1(1) =ρ(1)
VII.2.4 Estimation des moments pour les processus stationnaires Soit (Xt)t∈Z un processus stationnaire.
Esp´erance
Xi. C’est un estimateur convergent vers µ lorsque T tend vers l’infini.
Autocovariance et autocorr´elation
Si on dispose de (X1, ..., XT) alors on peut consid´erer les deux estimateurs suivants de la fonction d’autocorr´elation γ(h) : pour tout h∈ {1, . . . , T −1}
et
¯
γ(h) = 1 T −h
XT t=h+1
Xt−XT
Xt−h−XT .
Ils sont tous les deux convergents et asymptotiquement sans biais mais le biais de ¯γ(h) est plus petit que celui debγ(h). Par contre le premier est d´efini positif tandis que le second ne l’est pas en g´en´eral.
On en d´eduit l’estimateur suivant de l’autocorr´elogramme simple ρ(h) :
∀h∈ {1, ..., T −1}:ρb(h) = PT t=h+1
Xt−XT
Xt−h−XT PT
t=1
Xt−XT2
Remarque VII.19. On peut noter que :
– Appliquer ces estimateurs avec h=T −1 pose probl`eme.
– On peut faire les calculs mˆeme lorsque le processus n’est pas stationnaire !
– Les estimations des autocorr´elations partielles se d´eduisent des estimations des auto-corr´elations simples grˆace `a l’algorithme de Durbin-Levinson.
♦
VII.2.5 Tests de blancheur
Il existe diff´erents tests de blancheur n´ecessaires notamment pour valider les mod´elisations SARIMA (Seasonal ARIMA), notamment letest de Portmanteau .
On consid`ere le test suivant (de Portmanteau ou de Ljung-Box) : H0 : (Xt)t∈Z est un bruit blanc
H1 : (Xt)t∈Z n’est pas un bruit blanc
Si on dispose de (X1, ..., XT), on consid`ere la statistique suivante (calcul´ee sur les k premi`eres estimations des autocorr´elations) :
Q¯k=T Xk h=1
ρb2(h)
Une trop grande valeur de ¯Qk indique que les autocorr´elations sont trop importantes pour ˆetre celles d’un bruit blanc. On peut ´egalement consid´erer la statistique (qui converge plus vite) :
Qk=T(T + 2) Xk h=1
ρb2(h) T−h
SousH1,Qk diverge vers l’infini quandT tend vers l’infini. Asymptotiquement, sousH0,Qk suit une loi duχ2 `ak degr´es de libert´e. On rejette donc l’hypoth`ese H0 au niveauα si :
Qk> χ2k(1−α)
VII.2. PROCESSUS UNIVARI ´ES `A TEMPS DISCRET 143 o`u χ2k(1−α) d´esigne le quantile d’ordre 1−α d’une loi du χ2 `a k degr´es de libert´e. En g´en´eral on pr´ef`ere travailler sur la p-valeur :
p-valeur =P χ2k≥Qk On rejette l’hypoth`ese H0 au niveau α si :p-valeur< α.
Exemple VII.20. Le logiciel SAS permet d’effectuer le test de blancheur. La sortie suivante correspond au test de blancheur appliqu´ee `a un bruit blanc simul´e :
♦ Dans cet exemple, on a choisit k= 6,12,18 et 24. On peut lire par exemple :
q18= 13.96 o`u q18est la r´ealisation de Q18, p-valeur = 0.7320.
On ne rejette donc pas (fort heureusement) l’hypoth`ese de blancheur de cette s´erie.
VII.2.6 Densit´e spectrale
D´efinition VII.21. Soit (Xt)t∈Z un processus stationnaire de fonction d’autocovariance γ. On appelle densit´e spectraledeX la transform´ee de Fourier discr`ete,f, de la suite des autocovariances (lorsqu’elle existe) :
f(ω) = 1 2π
+∞
X
h=−∞
γ(h)e−ihω Cette densit´e spectrale existe lorsque :
+∞X
h=−∞
|γ(h)|<+∞
Si elle existe elle est continue, positive, paire et 2π-p´eriodique (ce qui permet de l’´etudier uniquement sur [0, π]).
Th´eor`eme VII.22 (Th´eor`eme spectral). Si f est la densit´e spectrale de X alors : γ(h) =
Z +π
−π
f(ω)eihωdω.
Exemple VII.23. Soit (εt)t∈Z un bruit blanc faible de variance σ2. On a : γ(h) = σ2 si h = 0 etγ(h) = 0 sinon. On en d´eduit donc :
f(ω) = σ2 2π
R´eciproquement, si la densit´e spectrale est constante, alors le processus correspondant est
un bruit blanc faible. ♦
D´efinition VII.24. Soit (Xt)t∈Z un processus stationnaire.
Si on dispose de (X1, ..., XT), on appelle p´eriodogramme la fonction IT suivante :
IT (ω) = 1 T
XT t=1
Xte−itω
2
Si le processus (Xt)t∈Z admet une densit´e spectrale, alors 1
2πIT (ω) est un estimateur sans biais de la densit´e spectrale (mais non-convergent !). On peut r´esoudre le probl`eme de convergence en lissant le p´eriodogramme et en consid´erant l’estimateur suivant :
f(ω) =ˆ 1 2π
X
|j|≤mT
WT(j)IT
g(T, ω) +2πj T
,
o`u
– g(T, ω) est le multiple de 2π/T le plus proche de ω, – mT →+∞ et mTT →0 quandT →+∞,
– ∀j∈Z, WT(j)≥0, WT(−j) =Wt(j), – P
|j|≤mTWT(j) = 1 etP
|j|≤mTWT2(j)→0.
Par exemple les poids constants WT(j) = 1/(2mT + 1) conviennent, mais il existe d’autres choix avec de meilleures propri´et´es.
Une grande valeur du p´eriodogramme sugg`ere que la s´erie a une composante saisonni`ere
`
a la fr´equence correspondante.
Exemple VII.25. Le graphique ci-dessous repr´esente le p´eriodogramme liss´e du nombre de passagers a´eriens, dans le domaine fr´equentiel :
Le graphique ci-dessous repr´esente le p´eriodogramme du nombre de passagers a´eriens, dans le domaine temporel1 :
1On passe du domaine fr´equentiel au domaine temporel `a l’aide de la relation :T =2π
̟.