• Aucun résultat trouvé

Processus univari´es ` a temps discret

Dans le document ´ECOLE NATIONALE DES PONTS ET CHAUSS´EES (Page 147-155)

VII.2 Processus univari´ es ` a temps discret

Cette section pose les bases de la mod´elisation probabiliste des s´eries temporelles. Il d´efinit les notions de processus stochastique et de stationnarit´e, ainsi que des outils d’analyse comme les autocorr´elogrammes et le p´eriodogramme.

Soit (xt)tT une famille d’observations d’un ph´enom`ene qui peut ˆetre physique, ´econo-mique, biologique... Chaque observationxt∈Rda ´et´e enregistr´ee `a un temps sp´ecifiquet∈T et on appelle s´erie temporellecet ensemble d’observations.

SiT est d´enombrable (en g´en´eral T ⊂Z), on parle de s´erie temporelle `a temps discret . Si T n’est pas d´enombrable (en g´en´eral un intervalle de R), on parle de s´erie temporelle

`

a temps continu .

On consid`ere des s´eries temporelles `a valeur dansRd. Sid= 1, on parle de s´erieunivari´ee . Si d >1, on parle de s´erie multivari´ee .

On d´esignera dans la suite par s´erie temporelle unes´erie temporelle univari´ee `a temps discret.

On consid`ere en Statistique que l’observation x est la r´ealisation d’une variable al´eatoire X. De mani`ere analogue, une s´erie temporelle (xt)tT est consid´er´ee comme la r´ealisation d’un processus stochastique (d’une suite de variables al´eatoires) (Xt)t∈T.

VII.2.1 Processus stochastique du second ordre

D´efinition VII.1. Soit X := (Xt)tT un processus stochastique (i.e. une suite de variables al´eatoires). Le processus X est dit du second ordre si pour tout t ∈ T, Xt est une variable al´eatoire de carr´e int´egrable i.e.E(|Xt|2)<+∞.

Voici deux exemples de processus du second ordre qui sont fondamentaux dans la suite.

D´efinition VII.2. (εt)t∈Z est un bruit blanc fort si :

– (εt)tZ est une suite de variables al´eatoires r´eelles ind´ependantes et identiquement dis-tribu´ees (i.i.d.),

– ∀t∈Z:E(εt) = 0 etE ε2t

2.

D´efinition VII.3. (εt)tZ est un bruit blanc faible si :

– (εt)tZ est une suite de variables al´eatoires r´eelles identiquement distribu´ees, – ∀(t, t)∈Z2, t6=t :Cov(εt, εt) = 0,

– ∀t∈Z:E(εt) = 0 et E ε2t

2.

On rappelle maintenant un r´esultat important pour l’´etude de processus du second ordre.

Proposition VII.4. Soient(Xn)nZ et (Yn)nZ deux processus tels que

VII.2.2 Processus stationnaire

Dans de tr`es nombreux cas, on ne peut pas renouveler la suite de mesures dans des conditions identiques (par exemple le taux de chˆomage mensuel). Alors pour que le mod`ele d´eduit `a partir d’une suite d’observations ait un sens, il faut que toute portion de la trajectoire observ´ee fournisse des informations sur la loi du processus et que des portions diff´erentes, mais de mˆeme longueur, fournissent les mˆemes indications. D’o`u la notion de stationnarit´e.

D´efinition VII.5. Un processus (Xt)t∈T est fortement stationnaire ou strictement sta-tionnaire si, pour tousk≥1, (t1, ..., tk)∈Tk,h tel que (t1+h, . . . , tk+h)∈Tk, les vecteurs (Xt1, ..., Xtk) et (Xt1+h, ..., Xtk+h) ont mˆeme loi.

Cette propri´et´e tr`es forte est tr`es difficile `a v´erifier, d’o`u la notion de stationnarit´e faible.

D´efinition VII.6. Un processus (Xt)tT du second ordre estfaiblement stationnaire ou stationnaire `a l’ordre 2, si son esp´erance E(Xt) et ses autocovariances Cov(Xs, Xt) sont invariantes par translation dans le temps :

– ∀t∈T, E(Xt) =E(X0), – ∀(s, t)∈T2,∀h

(s+h, t+h)∈T2 , Cov(Xs, Xt) =Cov(Xs+h, Xt+h).

Dans la suite, on notera µX =E(X0) et γX(h) =Cov(X0, Xh).

Remarque VII.7.

– La stationnarit´e faible est bien plus facile `a ´etudier et `a v´erifier que la stationnarit´e stricte.

– Un processus stationnaire n’est pas obligatoirement born´e ou “sympathique” (par exemple, un bruit blanc).

– Pour un processus du second ordre, la stationnarit´e stricte implique la stationnarit´e faible. La r´eciproque est fausse (elle n’est vraie que pour les processus gaussiens).

♦ Exemple VII.8. 1. Un bruit blanc fort est fortement stationnaire.

2. Un bruit blanc faible est faiblement stationnaire.

3. Un processus pr´esentant une tendance et/ou une saisonnalit´e n’est pas faiblement sta-tionnaire.

♦ On d´esignera dans la suite par processus stationnaire, un processus faiblement stationnaire (donc du second ordre). De plus, on supposera que le processus est `a temps discret et plus pr´ecis´ement queT =Z.

Proposition VII.9. Soit (Xt)tZ un processus stationnaire (au sens faible). Soit une suite (ai)i∈Z telle que P

Cela implique notamment qu’une somme de v.a.r d’un processus stationnaire est station-naire.

Notons que la somme de deux processus stationnaires n’est pas forc´ement stationnaire.

Il existe des non-stationnarit´es particuli`eres dont :

VII.2. PROCESSUS UNIVARI ´ES `A TEMPS DISCRET 139 – (Xt)t∈Z est un processus non-stationnaire TS (Trend Stationary) s’il peut s’´ecrire sous la forme :Xt=f(t)+Yt, o`uf est une fonction d´eterministe et (Yt)tZun processus stationnaire.

– (Xt)t∈Z est un processus non-stationnaire DS (Difference Stationary) s’il est sta-tionnaire apr`esddiff´erenciations : ∇dXt= (I−B)dXto`u BXt=Xt1. Sid= 2, cela signifie que le processus d´efini pour tout t ∈ Z par ∇2Xt = Xt−2Xt−1 +Xt−2 est stationnaire.

Ces processus peuvent n´eanmoins ˆetre rendus stationnaires par une suite de transforma-tions usuelles (d´esaisonnalisation, diff´erenciation, transformation non lin´eaire...). Une m´etho-dologie classique est celle de Box-Jenkins que nous ´etudierons par la suite et en TP.

VII.2.3 Autocovariance et autocorr´elations

L’autocovariance (resp. l’autocorr´elation) d’un processus stochastique est la covariance (resp. la corr´elation) de ce processus avec une version d´ecal´e dans le temps de lui mˆeme. Ces fonctions sont bien d´efinies pour un processus stationnaire. Dans la suite on consid`ere un processus stationnaire (Xt)tZ.

Fonction d’autocovariance

D´efinition VII.10. On appelle fonction d’autocovariancedu processus X la fonction γ suivante :

∀h∈Z:γ(h) =Cov(Xt, Xth)

Proposition VII.11. La fonction d’autocovariance v´erifie les propri´et´es suivantes : – γ(0)≥0,

– |γ(h)| ≤γ(0),

– γ est une fonction sym´etrique : pour touth∈N,γ(−h) =γ(h), – γ est une fonction semi-d´efinie positive :

∀n∈N,∀(ai)i∈{1,...,n}∈Rn: Xn

i=1

Xn j=1

aiajγ(i−j)≥0.

Comme la fonctionγest sym´etrique, on calculera la fonction d’autocovariance pourh∈N. R´eciproquement, si une fonction γ v´erifie :

– γ(−h) =γ(h),h∈N,

– ∀n∈N,∀(ai)i∈{1,...,n}∈Rn: Pn

i=1

Pn j=1

aiajγ(i−j)≥0, alors c’est une fonction d’autocovariance.

Autocorr´elogramme simple

D´efinition VII.12. On appelle autocorr´elogramme simple du processus X la fonction ρ suivante :

∀h∈Z:ρ(h) =Corr(Xt, Xth) = γ(h) γ(0)

L’autocorr´elogramme simple est donc la fonction d’autocovariance renormalis´ee. Il v´erifie – ρ est une fonction d´efinie positive :

∀n≥0,∀(ai)i∈{1,...,n}:

D´efinition VII.14. On appelle matrice d’autocorr´elation de (Xt, ..., Xt−h+1) avec h ∈ N la matrice suivante :

Rh =

Proposition VII.15. La fonction ρ est une fonction d´efinie positive si et seulement si∀h∈ N: detRh ≥0.

La seconde condition fixe de nombreuses contraintes aux corr´elations, par exemple : detR3 ≥0⇔[1−ρ(2)]

1 +ρ(2)−2ρ2(1)

≥0.

Autocorr´elogramme partiel

Une seconde fa¸con de mesurer l’influence entre le processus et son d´ecal´e dans le temps est de calculer la corr´elation entre deux instants en enlevant une partie de l’information contenue entre ces deux instants. Plus pr´ecisement, on calcule la corr´elation entre le terme Xt−EL(Xt|Xt1, ..., Xth+1) et le terme Xth−EL(Xth|Xt1, ..., Xth+1), o`u la quantit´e EL(Xt|Xt1, ..., Xth+1) (resp.EL(Xth|Xt1, ..., Xth+1)) d´esigne la r´egression lin´eaire de Xt (resp. Xt−h) surXt−1, ...,Xt−h+1.

On rappelle que la r´egression lin´eaire d’une variable al´eatoire Z surnvariables al´eatoires Y1, . . . , Yn est la variable al´eatoire, not´ee EL(Z|Y1, ..., Yn), est la combinaison lin´eaire des D´efinition VII.16. On appelleautocorr´elogramme partieldu processus X la fonction r suivante : r(1) =ρ(1) et pour tout h∈N,

r(h) =Corr(Xt, Xth|Xt−1, ..., Xth+1)

= Cov(Xt−EL(Xt|Xt1, ..., Xth+1), Xth−EL(Xth|Xt1, ..., Xth+1)) Var(Xt−EL(Xt|Xt1, ..., Xt−h+1)) .

VII.2. PROCESSUS UNIVARI ´ES `A TEMPS DISCRET 141 Th´eor`eme VII.17. Soit(Xt)t∈Zun processus stationnaire. On consid`ere la r´egression lin´eaire de Xt sur Xt−1, ..., Xth :

D’apr`es cette proposition, si on a une estimation de (ρ(1), ..., ρ(h)) et donc de la matrice d’autocorr´elation Rh d´efinie par (VII.1), alors on est capable d’estimer (a1(h), ..., ah(h)) (en inversant la matrice Rh). On obtient aussi, d’apr`es le th´eor`eme pr´ec´edent, une estimation de l’autocorr´elogramme partiel r(h).

Une fa¸con moins coˆuteuse d’inverser la matrice Rh pour d´eterminer les autocorr´elations partielles est d’utiliser l’algorithme de Durbin-Levinson.

Algorithme VII.18. Algorithme de Durbin-Levinson : a1(1) =ρ(1)

VII.2.4 Estimation des moments pour les processus stationnaires Soit (Xt)t∈Z un processus stationnaire.

Esp´erance

Xi. C’est un estimateur convergent vers µ lorsque T tend vers l’infini.

Autocovariance et autocorr´elation

Si on dispose de (X1, ..., XT) alors on peut consid´erer les deux estimateurs suivants de la fonction d’autocorr´elation γ(h) : pour tout h∈ {1, . . . , T −1}

et

¯

γ(h) = 1 T −h

XT t=h+1

Xt−XT

Xth−XT .

Ils sont tous les deux convergents et asymptotiquement sans biais mais le biais de ¯γ(h) est plus petit que celui debγ(h). Par contre le premier est d´efini positif tandis que le second ne l’est pas en g´en´eral.

On en d´eduit l’estimateur suivant de l’autocorr´elogramme simple ρ(h) :

∀h∈ {1, ..., T −1}:ρb(h) = PT t=h+1

Xt−XT

Xth−XT PT

t=1

Xt−XT2

Remarque VII.19. On peut noter que :

– Appliquer ces estimateurs avec h=T −1 pose probl`eme.

– On peut faire les calculs mˆeme lorsque le processus n’est pas stationnaire !

– Les estimations des autocorr´elations partielles se d´eduisent des estimations des auto-corr´elations simples grˆace `a l’algorithme de Durbin-Levinson.

VII.2.5 Tests de blancheur

Il existe diff´erents tests de blancheur n´ecessaires notamment pour valider les mod´elisations SARIMA (Seasonal ARIMA), notamment letest de Portmanteau .

On consid`ere le test suivant (de Portmanteau ou de Ljung-Box) : H0 : (Xt)tZ est un bruit blanc

H1 : (Xt)t∈Z n’est pas un bruit blanc

Si on dispose de (X1, ..., XT), on consid`ere la statistique suivante (calcul´ee sur les k premi`eres estimations des autocorr´elations) :

k=T Xk h=1

ρb2(h)

Une trop grande valeur de ¯Qk indique que les autocorr´elations sont trop importantes pour ˆetre celles d’un bruit blanc. On peut ´egalement consid´erer la statistique (qui converge plus vite) :

Qk=T(T + 2) Xk h=1

ρb2(h) T−h

SousH1,Qk diverge vers l’infini quandT tend vers l’infini. Asymptotiquement, sousH0,Qk suit une loi duχ2 `ak degr´es de libert´e. On rejette donc l’hypoth`ese H0 au niveauα si :

Qk> χ2k(1−α)

VII.2. PROCESSUS UNIVARI ´ES `A TEMPS DISCRET 143 o`u χ2k(1−α) d´esigne le quantile d’ordre 1−α d’une loi du χ2 `a k degr´es de libert´e. En g´en´eral on pr´ef`ere travailler sur la p-valeur :

p-valeur =P χ2k≥Qk On rejette l’hypoth`ese H0 au niveau α si :p-valeur< α.

Exemple VII.20. Le logiciel SAS permet d’effectuer le test de blancheur. La sortie suivante correspond au test de blancheur appliqu´ee `a un bruit blanc simul´e :

♦ Dans cet exemple, on a choisit k= 6,12,18 et 24. On peut lire par exemple :

q18= 13.96 o`u q18est la r´ealisation de Q18, p-valeur = 0.7320.

On ne rejette donc pas (fort heureusement) l’hypoth`ese de blancheur de cette s´erie.

VII.2.6 Densit´e spectrale

D´efinition VII.21. Soit (Xt)tZ un processus stationnaire de fonction d’autocovariance γ. On appelle densit´e spectraledeX la transform´ee de Fourier discr`ete,f, de la suite des autocovariances (lorsqu’elle existe) :

f(ω) = 1 2π

+

X

h=−∞

γ(h)eihω Cette densit´e spectrale existe lorsque :

+∞X

h=−∞

|γ(h)|<+∞

Si elle existe elle est continue, positive, paire et 2π-p´eriodique (ce qui permet de l’´etudier uniquement sur [0, π]).

Th´eor`eme VII.22 (Th´eor`eme spectral). Si f est la densit´e spectrale de X alors : γ(h) =

Z

π

f(ω)eihωdω.

Exemple VII.23. Soit (εt)tZ un bruit blanc faible de variance σ2. On a : γ(h) = σ2 si h = 0 etγ(h) = 0 sinon. On en d´eduit donc :

f(ω) = σ2

R´eciproquement, si la densit´e spectrale est constante, alors le processus correspondant est

un bruit blanc faible. ♦

D´efinition VII.24. Soit (Xt)t∈Z un processus stationnaire.

Si on dispose de (X1, ..., XT), on appelle p´eriodogramme la fonction IT suivante :

IT (ω) = 1 T

XT t=1

Xteitω

2

Si le processus (Xt)tZ admet une densit´e spectrale, alors 1

2πIT (ω) est un estimateur sans biais de la densit´e spectrale (mais non-convergent !). On peut r´esoudre le probl`eme de convergence en lissant le p´eriodogramme et en consid´erant l’estimateur suivant :

f(ω) =ˆ 1 2π

X

|j|≤mT

WT(j)IT

g(T, ω) +2πj T

,

o`u

– g(T, ω) est le multiple de 2π/T le plus proche de ω, – mT →+∞ et mTT →0 quandT →+∞,

– ∀j∈Z, WT(j)≥0, WT(−j) =Wt(j), – P

|j|≤mTWT(j) = 1 etP

|j|≤mTWT2(j)→0.

Par exemple les poids constants WT(j) = 1/(2mT + 1) conviennent, mais il existe d’autres choix avec de meilleures propri´et´es.

Une grande valeur du p´eriodogramme sugg`ere que la s´erie a une composante saisonni`ere

`

a la fr´equence correspondante.

Exemple VII.25. Le graphique ci-dessous repr´esente le p´eriodogramme liss´e du nombre de passagers a´eriens, dans le domaine fr´equentiel :

Le graphique ci-dessous repr´esente le p´eriodogramme du nombre de passagers a´eriens, dans le domaine temporel1 :

1On passe du domaine fr´equentiel au domaine temporel `a l’aide de la relation :T =

̟.

Dans le document ´ECOLE NATIONALE DES PONTS ET CHAUSS´EES (Page 147-155)