3.2 Étude d'une série temporelle
3.2.1 Processus stationnaire
3.2.1.7 Exemples de processus stationnaires et ergodiques
C'est à partir de l'observation de ces éléments estimés que l'identication du
pro-cessus générateur des données est possible. Il s'agit ensuite de comparer l'ACF et la
PACF estimées à partir de l'échantillon,(x
1, ..., x
T), aux ACF et PACF des processus
stationnaires connus. Dans cette section, deux des principaux processus stationnaires
sont brièvement présentés, le processus bruit blanc et le processus autorégressif. Le
premier joue un rôle important et indispensable dans l'étude de séries temporelles,
comparable aux erreurs indépendantes dans l'analyse classique. Le second est le seul
autre type de processus stationnaire utilisé dans la suite du mémoire. Cependant, il
existe des processus moyenne mobile (MA) et des processus combinant les deux
pré-cédents (ARMA) [45], non discutés ici.
a. Processus bruit blanc
Les processus bruit blanc sont des processus stationnaires et ergodiques.
Il existe deux dénitions d'un bruit blanc cependant, dans la pratique, seule la
dé-nition faible est utilisée.
Un processus (
t)
t∈Test un bruit blanc faible si :
1. ∀(t, t
0)∈Z
2,Cov(t
0t) = 0
2. ∀t∈Z,E[
t] = 0 etE[
246 3.2. Étude d'une série temporelle
Un bruit blanc est donc une réalisation d'aléas successifs. Un bruit blanc faible est
faiblement stationnaire.
Identication d'un bruit blanc
L'ACF d'un bruit blanc ne présente aucune valeur signicative, à part celle
corres-pondant au décalage nul (h = 0) qui vaut 1. La PACF ne présente aucune valeur
signicativement diérente de 0.
Vérication du bruit blanc ou tests de blancheur
Il existe diérents tests permettant de vérier si un processus est un bruit blanc faible.
Dans cette section, seuls les tests utilisés dans la suite du mémoire sont présentés. Soit
un processus (
t)
t∈Tun processus stochastique, stationnaire et ergodique.
Test de nullité de la moyenne
Si le processus (t)
t∈{1,...,T}est i.i.d. (0, σ
2), on doit avoir : ¯t= 1
T
P
Tt=1
t−−−→
T→∞0.
Par application du théorème Central-Limite, on montre que : ¯t
σ
√
T −→ N
L(0,1). Dès
lors, on peut tester la nullité de la moyenne en construisant l'intervalle de conance
sur ¯
tau seuil standard de 95%. P{¯
t∈[−1.96σ
√
T ,
1.96σ
√
T ]}= 0.95.
Test d'indépendance ou de non-corrélation
Le test de Portmanteau ou test d'adéquation globale du modèle repose sur l'idée qu'un
bruit blanc faible ne doit pas révéler d'autocorrélations non nulles.
H
0: (
t)
t∈{1,...,T}est un bruit blanc
H
1: (
t)
t∈{1,...,T}n'est pas un bruit blanc
Le test de Ljung-Box [47] est l'un des tests de Pormanteau couramment utilisé. Il
propose les hypothèses suivantes : H0 : ρ(h) = 0 ∀h ≤ K et sont construites de la
façon suivante :
Q
LB=T(T + 2)
KX
k=1ˆ
ρ
2(k)
T −k
TA∞−−−Aχ
2KUne trop grande valeur de QLB indique que les autocorrélations sont trop
impor-tantes pour être celles d'un bruit blanc. AsymptotiquementQ
LBsuit une loi du Khi-2
à k degré de liberté : QLB −A
pχ
2K. On rejette donc l'hypothèse H
0au niveau α si
Q
LB≥χ
2K
(1−α) oùχ
2K
(1−α)désigne le quantile d'ordre(1−α)d'une loi du Khi-2
à K degré de liberté.
Test de normalité
Si de plus, le processus (
t)
t∈{1,...,T}est supposé gaussien alors le test de
Shapiro-Wilk peut s'appliquer :
H
0: un échantillon de taille T, (
1, ...,
T), est issue d'une population normalement
distribuée.
La statistique de test s'écrit :
W = (
P
Ti=1
a
i(i))
2P
Ti=1
(
i−¯)
2où,
(i)désigne la ième statistique d'ordre et les a
isont tels que :
(a
1, ..., aT) = m
0
V
−1(m
0V
−1V
−1m)
1/2avec m
1, ..., m
Tles espérances des statistiques d'ordre d'un échantillon de variables
indépendantes et identiquement distribuée tiré d'une loi normale, et V la matrice de
variance-covariance de ces statistiques d'ordre.
Si la valeur de W est trop faible, l'hypothèse H
0est rejetée.
Un deuxième test peut être utilisé :
Le test de Kolmogorov-Smirnov basé sur la fonction de répartition empirique permet
de déterminer si un échantillon suit une loi connue par sa fonction de répartition, par
exemple la loi normale.
Soit(x
1, ...x
n)un échantillon de n variables aléatoires indépendantes à valeurs réelles,
alors la fonction de répartition empirique de cet échantillon est dénie par :
F
n(x) = 1
n
nX
i=1δ
xi≤x48 3.2. Étude d'une série temporelle
La fonction de répartition empirique est un processus qui prend ses valeurs dans
l'espace des fonctions croissantes comprises entre 0 et 1. Grâce à ses propriétés, on a
la convergence suivante, pour tout c≥0 :
P[sup|F
n(x)−F(x)| ≤ √c
n]
nA∞−−−A2
+∞X
r=1(−1)
r−1exp(−2r
2c
2)
Le terme α(c)vaut 0.05 quand c=1.36. Il est ainsi facile de proposer un test
d'hypo-thèse pour décider si un échantillon provient bien de la loi normale.
Ce test suppose que la loi F est connue, or dans la pratique, F est estimée à partir
des données. Ainsi, la statistique de test construite à partir d'une estimation de F ne
suit pas la loi de Kolmogorov-Smirnov. Ce test n'est donc pas adéquate et pourtant
il est classiquement encore utilisé.
b. Processus autorégressif d'ordre p
Les processus autorégressifs sont des processus stationnaires et ergodiques.
Un processus (ν
t)
t∈Test un processus autorégressif d'ordre p, notéAR(p), si :
1. (ν
t)
t∈Test faiblement stationnaire
2. ∀ t ∈ Z, ν
t= P
pi=1
φ
iν
t−i+
toù φ
p6= 0 et (
t)
t∈Test un bruit blanc faible de
variance σ
2.
On note généralement ce processus de la façon suivante : Φ(B)ν
t=
tavec Φ(B) =
I −P
pi=1
φ
iB
ioù B est le processus retard (Bν
t= ν
t−1). Remarquons que si Φ(B)
admet une racine sur le cercle unité, alors le processus (X
t)
t∈Zn'est pas stationnaire.
Si un processus (ν
t)
t∈Zest un processus AR d'ordre p qui a toutes les racines de son
polynôme Φà l'extérieur du cercle unité, alors on dit que la représentation est
cano-nique.
Si un processus (ν
t)
t∈Zest un processus AR d'ordre p canonique, Φ(B)X
t=
t.alors
il admet une écriture appelée MA(∞), ν
t= Φ
−1(B)
t=
t+P
+∞i=1
ψ
it−i. Pour des
plus amples détails, consulter Hamilton, 1994 [45].
Identication du processus AR(p) canonique
Autocorrélations simples
Soit (νt)
t∈Zun processus AR(p) canonique.
∀t ∈Z, νt=
p
X
i=1
φiνt
−i+t
Le système liant les autocorrélations simples aux paramètres autoregressifs(φ
i)
i∈{1,...,p},
appelé équations de Yule-Walker [48,49], est le suivant :
ρ(1)
ρ(2)
...
ρ(p)
=
1 ρ(1) ... ρ(p−1)
ρ(1) 1 ... ...
... ... ... ρ(1)
ρ(p−1) ... ρ(1) 1
φ
1φ
2...
φp
ρ=R(p)φ
Comme vu précédemment, ce système va permettre d'obtenir les paramètres
autoré-gressifs ( ˆφ
i)
i∈{1,...,p}en inversant la matrice R(p), qui est de plein rang et symétrique
(donc inversible) estimée à partir des corrélations empiriques. L'algorithme de
Dur-bin permet de déterminer les autocorrélations partielles de manière plus simple que
l'inversion de R(p).
On peut également remarquer que les autocorrélations simples sont solution d'une
équation de récurrence linéaire simple d'ordre p. Si les racines du polynôme Φ(z),
z
i= 1
α
i, i ∈ {1, ..., p}, sont réelles et distinctes alors on obtient une solution de la
forme :
ρ(h) =
pX
i=1c
iα
ihOn constate ainsi une décroissance exponentielle des autocorrélations simples vers 0.
Autocorrélations partielles
s'an-50 3.2. Étude d'une série temporelle
nulent à partir du rang p+ 1.
r(p)6= 0
∀h≥p+ 1, r(h) = 0
Réciproquement, il s'agit d'une condition nécessaire et susante pour qu'un processus
(ν
t)
t∈Zsoit un AR(p).
Ces caractéristiques vont permettre l'identication d'un processus autorégressif : si
l'ACF présente une décroissance exponentielle vers 0 et la PACF s'annule à partir du
rang p+ 1, alors il s'agit d'un AR(p).
Vérication de la modélisation du processus
La vérication de la modélisation passe essentiellement par la vérication que le
pro-cessus de résidu est bien un bruit blanc.
Dans le document
Usage des anti-infectieux et infections invasives à pneumocoque en France, étude d'associations temporelles
(Page 68-73)