• Aucun résultat trouvé

3.2 Étude d'une série temporelle

3.2.2 Processus non stationnaires

r(p)6= 0

∀h≥p+ 1, r(h) = 0

Réciproquement, il s'agit d'une condition nécessaire et susante pour qu'un processus

t

)

t∈Z

soit un AR(p).

Ces caractéristiques vont permettre l'identication d'un processus autorégressif : si

l'ACF présente une décroissance exponentielle vers 0 et la PACF s'annule à partir du

rang p+ 1, alors il s'agit d'un AR(p).

Vérication de la modélisation du processus

La vérication de la modélisation passe essentiellement par la vérication que le

pro-cessus de résidu est bien un bruit blanc.

3.2.2 Processus non stationnaires

En réalité, les séries temporelles comportent souvent une tendance et/ou une

sai-sonnalité. Elles ne sont donc pas stationnaires. An de se ramener à un processus

stationnaire, il faut stationnariser la série étudiée. Dans cette partie, quelques

méthodes de détection de la non-stationnarité ainsi que diérentes méthodes de

sta-tionnarisation de la tendance et de la saisonnalité sont exposées.

3.2.2.1 Détection de la non stationnarité

Étude graphique : Dans toute étude de série temporelle, il est important de

com-mencer par observer sa représentation sur un graphique portant en abscisse le temps

et en ordonnées, la valeur recueillie à chaque pas de temps. Certaines grandes

ca-ractéristiques de l'évolution de cette série peuvent s'y lire comme la présence d'une

saisonnalité ou d'une tendance. Par exemple, sur les gures 2.3 et 2.4, la saisonnalité

des indicateurs est nettement visible.

Étude des autocorrélations : L'ACF et la PACF de la série peuvent permettre

également d'identier une tendance ou une saisonnalité.

Analyse spectrale : L'idée de l'analyse spectrale consiste à utiliser l'hypothèse que

la série temporelle est composée de sinus et de cosinus à diérentes fréquences, et ainsi

l'étude de la saisonnalité d'une série revient à étudier ses diérentes fréquences.

D'après le paragraphe consacré à l'analyse spectrale dans la section précédente, nous

avons vu qu'un processus stationnaire et ergodique peut être étudié à partir de

l'es-timation de sa densité spectrale. Dans le cas de processus non stationnaires, l'étude

spectrale également peut être menée. Une grande valeur du périodogramme suggère

que la série a une composante saisonnière à la fréquence correspondante.

Ces trois études sont complémentaires. L'étude des ACF et PACF permet de

conr-mer la présence des caractéristiques identiées à l'observation du graphique de la

série. L'analyse spectrale, plus ne que les deux autres, peut permettre de déceler

des caractéristiques non visibles à partir des autres méthodes. Il existe des tests de

stationnarité, tel que le test de Dickey et Fuller [50], mais dans la pratique, nous

préférons les tests empiriques présentés précédemment (étude graphique, l'étude des

ACF et PACF, et l'analyse spectrale).

3.2.2.2 Stationnarisation

Une série temporelle, (X

t

)

{t=1,...,T}

, peut être décomposée en diérents termes : T

t

,

une tendance, S

t

une composante saisonnière et

t

un résidu aléatoire. Ainsi, sous

l'hypothèse d'un modèle additif, X

t

=T

t

+S

t

+

t

.

Une possibilité pour rendre (X

t

)

{t=1,...,T}

stationnaire est d'estimer la tendance et la

saison par régression linéaire à l'aide des moindres carrés ordinaires (MCO), méthode

préconisée par Thomas et Wallis [51]. Les résidus de cette régression linéaire sont alors

stationnaires et forment ce qu'on appelle une série temporelle ajustée ou

désaisonna-lisée.

52 3.2. Étude d'une série temporelle

publique présentent souvent un cycle de variations annuelles. Dès lors, l'estimation de

ces variations par les MCO à l'aide d'une fonction trigonométrique se présente comme

l'option la plus naturelle. Les autres méthodes de lissage sont également envisagées et

seront discutées plus loin dans ce mémoire.

Série comportant une tendance

Pour estimer une tendance d'une série, on peut ajuster sur les données une fonction

de la forme P

a

i=1

δ

i

T

i

t

.

Ainsi, on peut considérer par exemple, une tendance linéaire (a = 1), une tendance

quadratique (a= 2). Les δ

i

sont estimés par les MCO.

Série comportant une saison

Pour estimer la composante saisonnière, plusieurs options sont possibles : les lissages

paramétriques, semi-paramétriques et non-paramétriques.

a. Lissages paramétriques

La régression périodique, régression sur une fonction trigonométrique, permet

d'esti-mer une évolution moyenne de long terme. Si la série temporelle étudiée présente un

cycle annuel, la régression périodique estime un cycle moyen sur la période d'étude.

Cette méthode suppose que le pic saisonnier ainsi que son amplitude restent constants

dans le temps [52]. L'ajustement peut se faire sur la fonction suivante :

X

θ

α

1

cosθ+α

2

sinθ (3.2)

avec θ une fonction de t (par exemple θ = 2π k t/12 pour des données mensuelles,

θ = 2π k t/52pour des données hebdomadaires, etc.) [5355]. Les paramètres α

1

et

α

2

, sont estimés par les MCO.

La fonction trigonométrique utilisée peut inclure une ou plusieurs fréquences. Plus ce

nombre est important, meilleure est l'adéquation aux données, mais plus le nombre

de paramètres à estimer est important. Il s'agit donc de trouver un compromis entre

adéquation et nombre de paramètres à estimer [56].

b. Lissages semi-paramétriques

Les splines cubiques de régression présentent une approche alternative intéressante car

plus souple que la précédente [57]. Dans ce cas, les données temporelles sont réparties

en intervalles sur lesquels un polynôme d'ordre 3 est estimé par régression, avec une

condition sur les bornes des intervalles. La souplesse des splines permet de capter

l'évo-lution des données de façon plus ne. La nesse de cette estimation dépend à la fois

du nombre d'intervalles déterminés et du degré du polynôme. Les polynômes cubiques

sont les plus souvent implémentés car ils orent un bon compromis entre souplesse

et nombre de paramètres à estimer [58]. Le nombre d'intervalles (ou de n÷uds

déli-mitant ces intervalles) est à déterminer en fonction des données et de considérations

théoriques. Plus le nombre d'intervalles est important, meilleur est l'ajustement aux

données, mais plus il y a de paramètres à estimer. Il existe également des méthodes

permettant de déterminer ce nombre d'intervalles : par exemple, la validation croisée,

ou la comparaison de modèles à l'aide de l'AIC. La règle de parcimonie est d'usage.

L'équation suivante présente une spline cubique de régression comprenant K n÷uds

(K+ 1 intervalles) par an [57] :

3

X

i=0

γ

0i

t

i

+

n

X

j=1 K

X

k=1

γ

kj3

(t−ξ

kj

)

3+

(3.3)

nle nombre d'années considérées et ξkj lekième n÷ud de lajième année.(.)

+

désigne

la fonction suivante : u

+

= u si u ≥ 0 et u

+

= 0 si u ≤ 0. Les paramètres γ

0i

pour

i= 0, ...,3et γkj

3

pourk = 1, ..., K etj = 1, ..., n sont estimés par les MCO.

Cette modélisation permet à la fois une estimation moyenne de la saison et une

estima-tion propre à chaque intervalle déterminé. Le nombre de paramètres dépend également

de ce nombre d'intervalles. Ici, 4 + 6×n paramètres sont à estimer pour 12×n

ob-servations.

c. Lissages non-paramétriques

Le lissage non-paramétrique permet d'estimer un eet moyen par unité de temps

constituant la périodicité de la série [51]. Si(Xt)

{t=1,...,T}

a une périodicité connue, de

54 3.3. Étude du lien entre deux ou plusieurs séries temporelles