• Aucun résultat trouvé

Les modèles VAR(p)

N/A
N/A
Protected

Academic year: 2021

Partager "Les modèles VAR(p)"

Copied!
182
0
0

Texte intégral

(1)

Les modèles VAR(p)

Mémoire

Amenan Christiane Chukunyere

Maîtrise en statistique - avec mémoire

Maître ès sciences (M. Sc.)

(2)

Résumé

Ce mémoire a pour objectif d’étudier une famille de méthodes pour modéliser de façon conjointe plusieurs séries temporelles. Nous nous servons de ces méthodes pour prédire le comportement de cinq séries temporelles américaines et de ressortir les liens dynamiques qui pourraient exister entre elles. Pour ce faire, nous utilisons les modèles de vecteurs autorégressifs d’ordre p proposés parSims

(1980) qui sont une généralisation multivariée des modèles de Box et Jenkins. Tout d’abord, nous définissons un ensemble de concepts et outils statistiques qui seront utiles à la compréhension de notions utilisées par la suite dans ce mémoire. S’ensuit la présentation des modèles et de la méthode de Box et Jenkins. Cette méthode est appliquée à chacune des cinq séries en vue d’avoir des modèles univariés. Puis, nous présentons les modèles VAR(p) et nous faisons un essai d’ajustement de ces modèles à un vecteur dont les composantes sont les cinq séries. Nous discutons de la valeur ajoutée de l’analyse multivariée par rapport à l’ensemble des analyses univariées.

(3)

Abstract

This thesis aims to study a family of methods to jointly model several time series. We use these meth-ods to predict the behavior of five US time series and to highlight the dynamic links that might exist between them. To do this, we use the p-order autoregressive vector models proposed bySims(1980), which are a multivariate generalization of the Box and Jenkins models. First, we define a set of con-cepts and statistical tools that will be useful for the understanding of notions used later in this thesis. Follows the presentation of the models and the method of Box and Jenkins. This method is applied to each of the five series in order to have univariate models. Then, we present the VAR(p) models and we test the fit of these models to a vector series whose components are the five aforementioned series. We discuss the added value of multivariate analysis compared to the five univariate analyzes.

(4)

Table des matières

Résumé ii

Abstract iii

Table des matières iv

Liste des tableaux vi

Liste des figures ix

Remerciements xiii

Introduction 1

1 QUELQUES OUTILS ET DÉFINITIONS STATISTIQUES 3

1.1 Processus stochastique . . . 3

1.2 Stationnarité. . . 4

1.3 Bruit blanc . . . 5

1.4 Autocovariance et autocorrélation . . . 5

1.5 Estimation de la moyenne et des fonctions d’autocovariance, d’autocorrélation et d’autocorrélation partielle d’un processus stationnaire . . . 7

1.6 Opérations sur les séries . . . 10

1.7 Transformation de Box et Cox . . . 12

1.8 Processus linéaire . . . 12

2 LES MODÈLES DE BOX ET JENKINS 14 2.1 Les modèles ARIMA(p, d, q) . . . 14

2.2 Les processus multiplicatifs saisonniers (SARIMA(P, D, Q)(p, d, q)) . . . 23

2.3 La méthode de Box et Jenkins : ses étapes . . . 25

3 APPLICATION UNIVARIÉE 30 3.1 Analyse descriptive des séries . . . 30

3.2 La série « taux de chômage » . . . 31

3.3 La série « produit national brut » . . . 37

3.4 La série « consommation » . . . 41

3.5 La série « investissements privés en capitaux » . . . 47

3.6 La série « investissements gouvernementaux » . . . 52

(5)

4 MODÈLES VAR(p) 57

4.1 Stationnarité d’un processus K-vectoriel . . . 58

4.2 Écriture moyenne mobile d’un processus K-vectoriel et décomposition de Wold . 62 4.3 Les processus VAR(p) . . . 64

4.4 Estimation d’un VAR(p) . . . 76

4.5 Choix de l’ordre p. . . 81

4.6 Validation de modèle . . . 84

4.7 Prévisions . . . 86

4.8 Analyse structurelle d’un processus VAR(p) . . . 88

4.9 Construction d’un modèle VAR. . . 100

5 RETOUR À L’APPLICATION : ANALYSE MULTIVARIÉE 102 5.1 Observation graphique des cinq séries transformées . . . 102

5.2 Analyse multivariée : 5 variables . . . 103

5.3 Analyse multivariée : Modèle à 4 variables. . . 113

Conclusion 121 A Algèbre vectorielle et notion statistique 123 A.1 Algèbre vectorielle . . . 123

A.2 Les coefficients d’aplatissement et d’asymétrie . . . 125

B Tableaux et graphiques 126 B.1 Tableaux section taux de chômage . . . 126

B.2 Tableaux section produit national brut . . . 128

B.3 Tableaux section consommation . . . 128

B.4 Tableaux section investissements privés . . . 130

B.5 Tableaux section investissements gouvernementaux . . . 132

B.6 Tableaux de décomposition de la variance des erreurs de prédiction . . . 132

B.7 Graphiques de prévisions du chapitre 5 . . . 140

C Code informatique 142 C.1 Code SAS . . . 142

C.2 Code R . . . 153

(6)

Liste des tableaux

3.1 Tableau des estimateurs des paramètres du modèle de départ AR(1) avec constante

pour la série « taux de chômage » différenciée . . . 33

3.2 Comparaison des modèles candidats sans constante-Test Portmanteau sur les résidus,

AIC, BIC-série « taux de chômage » . . . 33

3.3 Tableau des estimateurs des paramètres du modèle candidat AR(12) sans constante

avec p=1,4,8,12 pour la série « taux de chômage » différenciée . . . 34

3.4 Matrice de corrélation des estimateurs pour le modèle final SARIMA(1,1,0)(3,0,0) . 34

3.5 Test Portmanteau sur les résidus du modèle final SARIMA(1,1,0)(3,0,0)-série « taux

de chômage » . . . 35

3.6 Tableau des estimateurs des paramètres du modèle MA(2) avec constante pour la série

« produit national brut » transformée et différenciée . . . 38

3.7 Matrice de corrélation des estimateurs pour le modèle final MA(2) . . . 38

3.8 Test Portmanteau sur les résidus du modèle final MA(2) - série « produit national brut » 39

3.9 Tableau des estimateurs des paramètres du modèle de départ MA(3) pour la série

« consommation » transformée et différenciée . . . 43

3.10 Comparaison des modèles candidats-P-valeurs du test Portmanteau sur les résidus,

AIC, BIC-série « consommation » . . . 43

3.11 Tableau des estimateurs des paramètres du modèle final MA(2,3,8) pour la série « consom-mation » transformée et différenciée . . . 43

3.12 Matrice de corrélation des estimateurs pour le modèle final MA(2,3,8) pour la série

« consommation » transformée et différenciée . . . 44

3.13 Test Portmanteau sur les résidus du modèle final MA(2,3,8) pour la série «

consom-mation » transformée et différenciée . . . 45

3.14 Tableau des estimateurs des paramètres du modèle de départ AR(1) avec constante

pour la série « investissements privés » transformée et différenciée . . . 48

3.15 Comparaison des modèles candidats sans constante-Test Portmanteau sur les résidus,

AIC, BIC-série « investissements privés » . . . 48

3.16 Tableau des estimateurs des paramètres du modèle candidat AR(12) sans constante

avec p=1,4,8,12 pour la série « investissements privés » transformée et différenciée . 49

3.17 Matrice de corrélation des estimateurs pour le modèle final SARIMA4((1, 1, 0)(3, 0, 0)) 49

3.18 Test Portmanteau sur les résidus du modèle final SARIMA4((1, 1, 0)(3, 0, 0))-série

« investissements privés » . . . 49

3.19 Tableau des estimateurs des paramètres du modèle de départ AR(1) avec constante

pour la série « investissements gouvernementaux » différenciée . . . 53

3.20 Tableau des estimateurs des paramètres du modèle final ARIMA(12,1,0) avec p=1,3,12

(7)

3.21 Matrice de corrélation des estimateurs pour le modèle final ARIMA(12,1,0) avec

co-efficients non nuls à p=1,3,12 . . . 54

3.22 Test Portmanteau sur les résidus du modèle final ARIMA(12,1,0) avec coefficients non nuls à p=1,3,12-série « investissements gouvernementaux » . . . 54

5.1 Critère BIC de modèles concurrents selon l’ordre . . . 104

5.2 Représentation schématique de l’autorégression partielle . . . 104

5.3 Représentation schématique des paramètres estimés . . . 105

5.4 Matrice des corrélations des innovations estimée. . . 105

5.5 Représentation schématique des corrélations croisées des résidus . . . 106

5.6 Test du Portemanteau pour corrélations croisées des résidus . . . 106

5.7 Test du bruit blanc du modèle à une variable . . . 107

5.8 Diagnostics ANOVA du modèle à une variable. . . 107

5.9 Test de Wald de la causalité au sens de Granger . . . 110

5.10 Tableau de comparaison des modèles univariés et multivarié pour chaque série selon la valeur de l’erreur quadratique prévisionnelle aux 4, 8 et 12 dernières périodes tronquées 115 5.11 Test de causalité de Granger dans le cadre d’un test de Wald . . . 118

B.1 Tableau des estimateurs des paramètres du modèle de départ AR(1)avec constante pour la série « taux de chômage » différenciée . . . 126

B.2 Tableau des estimateurs des paramètres du modèle de départ AR(1)sans constante pour la série « taux de chômage » différenciée . . . 126

B.3 Tableau des estimateurs des paramètres du modèle candidat AR(4)sans constante avec p=1,4 pour la série « taux de chômage » différenciée . . . 126

B.4 Tableau des estimateurs des paramètres du modèle candidat AR(8)sans constante avec p=1,8 pour la série « taux de chômage » différenciée . . . 126

B.5 Tableau des estimateurs des paramètres du modèle candidat AR(8)sans constante avec p=1,4,8 pour la série « taux de chômage » différenciée . . . 127

B.6 Tableau des estimateurs des paramètres du modèle candidat AR(12)sans constante avec p=1,4,8,12 pour la série « taux de chômage » différenciée . . . 127

B.7 Matrice de corrélation des estimateurs pour le modèle final SARIMA(1,1,0)(3,0,0) . 127 B.8 Test Portmanteau sur les résidus du modèle final SARIMA(1,1,0)(3,0,0)-série « taux de chômage » . . . 127

B.9 Comparaison des modèles candidats sans constante-Test Portmanteau sur les rési-dus,AIC, BIC-série « taux de chômage » . . . 127

B.10 Tableau des estimateurs des paramètres du modèle MA(2)avec constante pour la série « produit national brut » transformée et différenciée . . . 128

B.11 Matrice de corrélation des estimateurs pour le modèle final MA(2) . . . 128

B.12 Test Portmanteau sur les résidus du modèle final MA(2)-série « produit national brut » 128 B.13 Tableau des estimateurs des paramètres du modèle de départ MA(3) pour la série « consommation » transformée et différenciée . . . 128

B.14 Tableau des estimateurs des paramètres du modèle final MA(2,3,8)pour la série « consom-mation » transformée et différenciée . . . 129

B.15 Matrice de corrélation des estimateurs pour le modèle final MA(2,3,8)pour la série « consommation » transformée et différenciée . . . 129

B.16 Test Portmanteau sur les résidus du modèle final MA(2,3,8)pour la série « consomma-tion » transformée et différenciée . . . 129

(8)

B.17 Comparaison des modèles candidats-Test Portmanteau sur les résidus,AIC, BIC-série

« consommation » . . . 129

B.18 Tableau des estimateurs des paramètres du modèle de départ AR(1)avec constante pour la série « investissements privés » transformée et différenciée . . . 130

B.19 Tableau des estimateurs des paramètres du modèle de départ AR(1)sans constante pour la série « investissements privés » transformée et différenciée . . . 130

B.20 Tableau des estimateurs des paramètres du modèle candidat AR(4)sans constante avec p=1,4 pour la série « investissements privés » transformée et différenciée . . . 130

B.21 Tableau des estimateurs des paramètres du modèle candidat AR(8)sans constante avec p=1,4,8 pour la série « investissements privés » transformée et différenciée . . . 130

B.22 Tableau des estimateurs des paramètres du modèle candidat AR(12)sans constante avec p=1,4,8,12 pour la série « investissements privés » transformée et différenciée . 131 B.23 Matrice de corrélation des estimateurs pour le modèle final SARIMA(1,1,0)(3,0,0) . 131 B.24 Test Portmanteau sur les résidus du modèle final SARIMA(1,1,0)(3,0,0)-série « inves-tissements privés » . . . 131

B.25 Comparaison des modèles candidats sans constante-Test Portmanteau sur les rési-dus,AIC, BIC-série « investissements privés » . . . 131

B.26 Tableau des estimateurs des paramètres du modèle de départ AR(1)avec constante pour la série « investissements gouvernementaux » différenciée . . . 132

B.27 Tableau des estimateurs des paramètres du modèle AR(3) avec p=1,3 pour la série « investissements gouvernementaux » différenciée . . . 132

B.28 Tableau des estimateurs des paramètres du modèle final ARIMA(12,1,0) avec p=1,3,12 pour la série « investissements gouvernementaux » différenciée . . . 132

B.29 Matrice de corrélation des estimateurs pour le modèle final ARIMA(12,1,0) avec co-efficients non nuls à p=1,3,12 . . . 132

B.30 Test Portmanteau sur les résidus du modèle final ARIMA(12,1,0)avec coefficients non nuls à p=1,3,12-série « investissements gouvernementaux » . . . 133

B.31 Comparaison des modèles candidats-Test Portmanteau sur les résidus,AIC, BIC-série « investissements gouvernementaux » . . . 133

B.32 Décomposition en proportions de la variance des erreurs de prévision associées à l’ordre d’entrée y1, y2, y3, y4et y5 . . . 134

B.33 Décomposition en proportions de la variance des erreurs de prévision associées à l’ordre d’entrée y4, y3, y2, y1et y5 . . . 135

B.34 Décomposition en proportions de la variance des erreurs de prévision . . . 136

B.35 Décomposition en proportions de la variance des erreurs de prévision . . . 137

B.36 Décomposition en proportions de la variance des erreurs de prévision . . . 138

(9)

Liste des figures

2.1 Exemples d’ACF et de PACF théoriques d’un AR(1) et d’un AR(2). . . 17

2.2 Exemples d’ACF et de PACF théoriques d’un MA(1) et d’un MA(2) . . . 19

2.3 Exemple d’ACF et de PACF théoriques d’un ARMA(1,1) . . . 22

2.4 Exemples d’ACF et de PACF d’un AR(2), d’un MA(1) et d’un ARMA(2,1) saisonniers 25

3.1 Graphiques des 5 séries (Taux de chômage,Produit national brut, Consommation,

In-vestissements privés, InIn-vestissements gouvernementaux) . . . 31

3.2 La série « taux de chômage » (à gauche) de 1948-II à 1988-II et autocorrélations

simples (à droite) . . . 32

3.3 Série « taux de chômage » différenciée et corrélogrammes . . . 32

3.4 Autocorrélations simples (supérieur gauche) et autocorrélations partielles (supérieur

droit) estimées des résidus et probabilités de test de bruit blanc (inférieur droit) . . . 35

3.5 Comparaison des prévisions et valeurs réelles pour le modèle SARIMA4((1, 1, 0)(3, 0, 0))

appliqué à la série « taux de chômage différenciée » . . . 36

3.6 Comparaison des prévisions et valeurs réelles : cas de l’exclusion des 4 dernières

valeurs de la série « chômage » . . . 36

3.7 Produit national brut de 1948-II à 1988-II . . . 37

3.8 Série « produit national brut » transformée puis différenciée et corrélogrammes associés 38

3.9 Autocorrélations simples (supérieur gauche) et autocorrélations partielles (supérieur

droit) estimées des résidus et probabilités de test de bruit blanc (inférieur droit) . . . 39

3.10 Comparaison des prévisions et valeurs réelles du « Produit national brut » pour le

modèle MA(2) appliqué à la série « Produit national brut » transformée puis différenciée 40

3.11 Comparaison des prévisions et valeurs réelles : cas de l’exclusion des 4 dernières

valeurs de la série « produit national brut » . . . 41

3.12 Série « consommation » de 1948-II à 1988-II . . . 41

3.13 Série « consommation » transformée et différenciée et corrélogrammes associés . . . 42

3.14 Graphiques des résidus du modèle de départ . . . 42

3.15 Autocorrélations simples (supérieur gauche) et autocorrélations partielles (supérieur

droit) estimées des résidus et probabilités de test de bruit blanc (inférieur droit) . . . 44

3.16 Comparaison des prévisions et valeurs réelles pour le modèle MA(3) appliqué à la

série « consommation » transformée puis différenciée . . . 45

3.17 Comparaison des prévisions et valeurs réelles : cas de l’exclusion des 4 dernières

valeurs de la série « consommation » . . . 46

3.18 La série « investissements privés en capitaux » (à gauche) de 1948-II à 1988-II et

autocorrélations simples (à droite) . . . 47

3.19 Série « Investissements privés » transformée et différenciée . . . 47

(10)

3.21 Autocorrélations simples (supérieur gauche) et autocorrélations partielles (supérieur

droit) estimées des résidus et probabilités de test de bruit blanc (inférieur droit) . . . 50

3.22 Comparaison des prévisions et valeurs réelles pour le modèle SARIMA4((1; 1; 0)(3; 0; 0)) appliqué à la série « Investissements privés » transformée puis différenciée . . . 51

3.23 Comparaison des prévisions et valeurs réelles : cas de l’exclusion des 4 dernières valeurs de la série « investissements privés » . . . 51

3.24 La série « investissements gouvernementaux » (à gauche) de 1948-II à 1988-II et au-tocorrélations simples (à droite) . . . 52

3.25 Série différenciée d’un ordre et corrélogrammes . . . 52

3.26 Autocorrélations simples (à gauche) et autocorrélations partielles (à droite) des résidus 53 3.27 Autocorrélations simples (à gauche) et autocorrélations partielles (à droite) des résidus 55 3.28 Comparaison des prévisions et valeurs réelles pour le modèle ARIMA(12, 1, 0) avec p=1,3,12 appliqué à la série « investissements gouvernementaux » différenciée . . . . 56

3.29 Comparaison des prévisions et valeurs réelles : cas de l’exclusion des 4 dernières valeurs de la série « investissements gouvernementaux » . . . 56

4.1 Réponses aux chocs unitaires de l’exemple ( 4.13) . . . 94

4.2 Réponses cumulatives aux chocs unitaires de l’exemple 4.15 . . . 96

4.3 Réponses aux chocs orthogonaux de l’exemple 4.16 . . . 99

5.1 Graphe des 5 séries transformées mais non différenciées . . . 103

5.2 Diagnostics graphiques de normalité des erreurs de prévision associées à la série "pro-duit national brut" stationnarisée . . . 107

5.3 Diagnostics graphiques de normalité des erreurs de prévision associées à la série "In-vestissements privés" stationnarisée . . . 108

5.4 Réponses à l’impact sur les erreurs orthogonalisées de la série "investissements gou-vernementaux" stationnarisée . . . 110

5.5 Réponses à l’impact sur les erreurs orthogonalisées de la série "investissements gou-vernementaux" stationnarisée (suite) . . . 111

5.6 Réponses à l’impact sur les erreurs orthogonalisées de la série " investissements gou-vernementaux" stationnarisée . . . 111

5.7 Réponses à l’impact sur les erreurs orthogonalisées de la série " investissements gou-vernementaux" stationnarisée (suite) . . . 112

5.8 Prévisions de la série "taux de chômage"-ligne et cercles rouges (tracé de la série)-ligne et cercles bleus (modèle VAR)-série)-ligne et cercles verts(modèle univarié) . . . 115

5.9 Prévisions de la série "produit national brut"-ligne et cercles rouges (tracé de la série)-ligne et cercles bleus (modèle VAR)-série)-ligne et cercles verts(modèle univarié) . . . 116

5.10 Prévisions de la série "consommation"-ligne et cercles rouges (tracé de la série)-ligne et cercles bleus (modèle VAR)-ligne et cercles verts(modèle univarié) . . . 117

5.11 Prévisions de la série "investissements privés"-ligne et cercles rouges (tracé de la série)-ligne et cercles bleus (modèle VAR)-ligne et cercles verts(modèle univarié) . . 118

B.1 Prévisions de la série "produit national brut" . . . 140

(11)
(12)

Mieux vaut la fin d’une chose que son commencement.

(13)

Remerciements

Rendre à César ce qui est à César...

Il est primordial de savoir reconnaître à chacun sa contribution dans ce travail de longue haleine, non sans difficultés, mais qui a pu voir le jour et prendre fin à ce jour. Je tiens à exprimer toute ma grati-tude :

À celui qui a accepté de diriger mes travaux, pour ses remarques, corrections et suggestions per-tinentes : mon Directeur, le Professeur Thierry Duchesne. Je vous remercie pour votre patience, votre compréhension, votre accueil chaleureux dans votre bureau qui était toujours ouvert, même sans rendez-vous. Je ne saurais sans doute oublier le financement de mes travaux de recherche. À celui qui a su, par son expertise en la matière, me faire des commentaires pointus et à propos : mon codirecteur, le Professeur Michel Carbon. Vous avez toujours été tel un père, prêt à me fournir toutes les bonnes références afin de faire de ce mémoire un travail de qualité. Vos stylos, quelques furent leurs couleurs ont laissé une marque indélébile sur ce mémoire.

À tout le département de Mathématiques et Statistique et tous les Professeurs, collègues et l’adminis-tration qui le composent, particulièrement Messieurs Guenette, Rivest, Lakhal-Chaieb et Mesdames Emmanuelle Reny-Nolin, Anne-Sophie Charest et Sylvie Drolet.

À Monsieur Jean-Claude Mirassou de la Présidence de la République de Côte d’Ivoire. Les années de soutien financier sont innombrables.

À ma mère, la championne en chef, N’Da Amani pour qui j’ai toujours été une championne, mon papa chéri Dibi Georges Emmanuel, à celui qui m’a donné la vie, Feu Chukunyère Patrick et à mes soeurs Diane, Marlène, Phoebé, Ange, Claudia et Ruth et grands-frères. Merci Maman pour tes conseils, tes prières.

À mes précieux Danielle et Emmanuel Akaffou, Rachelle et Angelin Kouadio, Alice et Yves Odia, à Pasteur Benoît, Pasteurs Michel et Diane, à Eunice Nono Kamga, à mes colocataires Adèle, Elfried, Chancelle, Mariam, Thomas, Dimitri, Edouard, Laurent et Rebecca, à Franck Mpodé, Bénédicte et Jean-Paul, Sara, Nora, Aurore, Secondine, Jessy, Elodie, Anemone, à Bertha, Iris, Francia, Glein, Christophe, Maman Joyce, Anita, Angela, Acsa, Hervé, Grace, Calixte, M. Bouda et toute ma famille en Christ. Vous ne pouvez savoir à quel point votre présence m’a aidée à grandir. Nos larmes de cha-grin se transformées en larmes d’allégresse.

Enfin, à Celui qui donne au-delà de mon entendement, celui qui a toujours pourvu à mes besoins, qui m’a donné son Amour inconditionnel et qui m’a fait découvrir la vraie vie : mon Sauveur Jésus-Christ.

(14)

Merci car sans Toi, j’aurais décroché mais tu as placé sur mon chemin toutes ces personnes extraor-dinaires qui ont su m’encourager et m’ont aidée dans bien de domaines. Je te remercie d’ores et déjà pour cette nouvelle saison qui commence pour moi.

(15)

Introduction

En économie, des modèles énoncés par les théoriciens ne sont pas souvent basés sur des hypothèses statistiques, mais plutôt sur des a priori, des idées ou hypothèses "arrêtées" qui n’ont pas quelques fois des preuves qui sont vérifiables. Cependant, Sims(1996) a affirmé :"Méfiez-vous des a priori

théoriques. Laissez parler les données"1. Les a priori sont certes importants car ils sont

une bonne base sur laquelle s’appuyer pour "débuter" une étude ou même avoir des connaissances utiles sur les paramètres étudiés, mais il ne faudrait pas s’y limiter. Au contraire, il faut se servir des données dont on dispose pour effectuer des tests et produire des résultats vérifiables et quanti-fiables. Ces résultats nous permettent de parvenir à des conclusions sur les hypothèses énoncées : les confirmer ou les infirmer. Les conclusions obtenues seront ainsi plus fiables et mèneront de ce fait à des prises de décision sur des politiques plus appropriées. L’analyse des séries temporelles fait partie des tâches auxquelles s’adonnent économètres et statisticiens, c’est-à-dire, se servir de leur expertise afin d’obtenir des modèles qui s’ajusteraient au mieux aux données étudiées, ressortir "le meilleur" de celles-ci et parvenir de ce fait à donner les informations pertinentes aux demandeurs, employeurs, clients intéressés par leurs recherches mathématiques et statistiques sur ces données économiques. Plusieurs approches de modélisation adaptées selon les séries étudiées, dont deux que nous présen-tons, ont été utilisées pour faire de la modélisation des séries chronologiques. Une première est de modéliser et prédire un ensemble de séries individuellement à partir de leur propre passé. Ainsi, dans les années 70, Box et Jenkins proposent une approche univariée en s’inspirant des travaux introduits par Yule(1926) (autorégressifs AR), Slutzky(1937) (moyenne mobile MA) et Wold(1938) (au-torégressifs moyenne mobile ARMA) pour développer les modèles ARIMA (au(au-torégressifs moyenne mobile intégrés).

Différentes études2avaient montré à l’époque que ces modèles ARIMA pouvaient être meilleurs com-parés aux modèles économétriques jugés lourds et complexes, du point de vue du nombre d’équations et de la quantité de paramètres. Par ailleurs, les modèles économétriques des années 70, qui étaient des modèles à équations simultanées, se sont avérés médiocres suite aux chocs de ces années-là parce qu’ils ne parvenaient pas à produire de bonnes prévisions. Cette situation a favorisé l’utilisation ac-crue de l’approche univariée qui est devenue populaire au détriment des modèles économétriques

1. (Gossé and Guillaumin,2011, p. 3) 2. VoirMakridakis and Hibon(1997, p. 2)

(16)

keynesiens qui ont reçu beaucoup de critiques.

Une seconde approche multivariée permet de modéliser simultanément plusieurs séries, ce qui permet en outre d’étudier les liens entre ces dernières. ChristopherSims(1980) , dans sa critique des modèles macroéconométriques keynesiens, a proposé un type de modèle multivarié de séries temporelles ap-pelé les vecteurs autorégressifs, ou VAR. Ces processus K-vectoriels (vecteur de K composantes) sont représentés par K équations linéaires, chaque équation d’une série étant une combinaison linéaire des valeurs passées de celle-ci et des valeurs passées des K-1 autres composantes. SelonStock and Wat-son(2001), cet outil statistique, facile à utiliser et à interpréter, s’avérait être une solution alternative adéquate pour répondre aux quatre missions d’un macroéconomètre, soit la description des données, la prévision, l’inférence structurelle et l’analyse des politiques. Les modèles VAR seraient donc la voie afin de décéler les liens dynamiques entre les séries.Gossé and Guillaumin(2011) affirment que les processus VAR produisent des prévisions qui sont meilleures que celles obtenues des modèles macroéconométriques, ce que confirmeLitterman(1986). À partir de ces modèles, on peut non seule-ment améliorer la prévision mais aussi arriver à répondre à des questions d’ordre structurel. En effet, l’on est capable de ressortir les relations de causalité notamment la notion d’exogénéité faible, forte ou stricte des variables et mesurer l’impact des chocs subis par chacune des variables sur les autres. L’objectif de ce mémoire est d’étudier cette modélisation multivariée à travers l’utilisation du proces-sus VAR. Tout d’abord, nous allons le définir, présenter et interpréter ses composantes. Nous allons aussi étudier les méthodes d’inférence sur les paramètres du modèle. Par ailleurs, nous allons ap-prendre comment spécifier une structure adéquate du modèle mais aussi identifier les liens dynamiques entre les séries et mesurer la force de ces liens par l’analyse structurelle. Cette analyse structurelle se traduit par l’étude des liens de causalité entre les séries. Ne se limitant pas à observer des liens de cau-salité, nous voudrions connaître le sens de cette causalité par la fonction de réponse impulsionnelle ou impact d’une impulsion en faisant subir un choc à une série et en analysant les effets immédiats et/ou temporels existants ou non de ce choc sur les autres composantes du processus. Par la décomposition de la variance de l’erreur de prédiction, nous observerons la part attribuable à chaque composante dans le calcul de l’erreur de prédiction. Enfin, nous allons analyser la valeur ajoutée de l’analyse mul-tivariée par les processus VAR comparativement à l’analyse univariée grâce au calcul d’une mesure d’erreur et à l’observation de graphiques de prévisions. Pour ce faire, nous allons essayer de prédire un vecteur de cinq séries temporelles économiques trimestrielles dans un contexte multivarié et de vérifier si leur prévision est meilleure que celle de la modélisation univariée.

Le mémoire se compose de cinq chapitres. Dans le premier, nous définissons les divers concepts et outils statistiques qui seront fort utilisés dans les chapitres suivants. Le chapitre 2 présente les modèles de Box et Jenkins et la méthodologie proposée pour l’analyse univariée des séries. Une application de cette méthode à un jeu de données réelles composé de cinq séries est proposée dans le chapitre 3. Dans le quatrième chapitre, nous abordons le sujet des modèles VAR(p). Au chapitre 5, nous appliquons cette méthode au même jeu de données qu’au chapitre 3. Enfin, nous terminons ce mémoire par une conclusion.

(17)

Chapitre 1

QUELQUES OUTILS ET

DÉFINITIONS STATISTIQUES

1.1

Processus stochastique

Le cours hebdomadaire d’une action, les précipitations journalières ou le taux d’inflation mensuel sont des ensembles de suites de valeurs indexées par le temps appelées séries temporelles. Une série temporelle est un processus, une suite d’opérations ou d’événements. Lorsque l’occurence de ces événements n’est pas déterministe, on parle de processus stochastique. Dans cette section, il s’agira de définir ce qu’est un processus stochastique, d’en énumérer quelques caractéristiques importantes et d’étudier quelques classes de processus stochastiques qui nous seront plus utiles dans ce mémoire, comme par exemple un processus du second ordre.

Définition 1.1 Un processus stochastique est une famille de variables aléatoires (X (t),t ∈ T ), toutes définies sur l’espace de probabilité (Ω,A ,P) et à valeurs dans un même espace mesurable (E,E ). Souvent, E = R ou Rn etE est sa tribu borélienne. La loi du processus est l’image Px de P par X

(où X = (X (t),t ∈ T )). (E,E ) est appelé l’espace d’états du processus. Si E = R, alors le processus est dit réel unidimensionnel (ou univarié). Si E = Rn, alors le processus est multidimensionnel de dimension n. T est appelé aussi espace des temps. T est soitR (ou un intervalle de R) et dans ce cas, le processus sera dit continu, soit Z (ou un sous-ensemble de Z comme {1,2, . . . ,n}) et le processus sera dit discret.

Proposition 1.1 (Théorème de Kolmogorov) Soit µJ:B(R|J|) → [0; 1] J ⊂ I une famille de mesures

de probabilité indexée par les parties finies J de I et vérifiant la condition suivante :

Pour toute partie J= {t1, . . . ,tn} de I telle que t1< t2< · · · < tnet pour1 ≤ i ≤ n et A1, . . . ,An∈B(R),

(18)

Alors, il existe un espace probabilisé(Ω,A ,P) et un processus stochastique {Xt;t ∈ I} tel que, pour

toute partie finie J⊂ I, la loi image de P par (Xt1, . . . ,Xtn) coïncide avec µJ.

Dans la suite, notre étude portera sur des processus (X (t),t ∈ T ) à espace des temps discret. En d’autres termes, T sera soitZ, soit un sous-ensemble de Z. Nous nous concentrerons sur les processus du second ordre, qui sont définis comme suit.

Définition 1.2 Un processus stochastique X = (X (t),t ∈ T ) est dit du second ordre si et seulement si E(Xt2) < ∞, ∀ t ∈ T , c’est-à-dire si son moment d’ordre deux existe.

Grâce à l’inégalité de Schwarz, pour les variables du processus du second ordre, la moyenne existe, ainsi que les covariances γ(s,t) = Cov(Xs,Xt). On pourra noter L2 = L2(Ω,A ,P), l’ensemble des

variables aléatoires définies sur (Ω,A ,P), de carré intégrable. Et on notera X ∈ L2, le fait que X est un processus du second ordre.

Tous les processus abordés dans la suite de ce mémoire seront considérés de second ordre.

1.2

Stationnarité

La modélisation du comportement aléatoire d’une série temporelle est beaucoup plus simple lorsque certains aspects de la loi de (X (t),t ∈Z) ne changent pas lorsque t varie. On parle alors de processus ou de séries ayant certaines propriétés de stationnarité. Plus formellement, il existe deux types de stationnarité : celle au sens strict, celle au sens faible.

Définition 1.3 Un processus (X (t),t ∈Z) est dit stationnaire au sens strict si les lois des vecteurs finis dimensionnels(Xt1, Xt2,. . . , Xtk) et (Xt1+h, Xt2+h,. . . , Xtk+h) coïncident ∀ k ∈ N

, ∀ t

1,. . . ,tk∈ Z et

∀ h ∈ N.

Définition 1.4 Un processus (X (t),t ∈Z) est dit stationnaire au sens faible si et seulement si : – Son espérance est constante au cours du temps, c’est-à-dire, E[Xt] = µ, ∀ t ∈ Z ;

– Sa fonction d’autocovariance dépend seulement de l’écart de temps t2−t1, c’est-à-dire, Cov(Xt1,Xt2) =

Cov(Xt1+c,Xt2+c) = γ(t2− t1) avec c, une constante quelconque. Dans ce cas, E(X 2

t ) = γ(0) + µ2

est une constante,∀ t ∈ Z.

Pour la suite de cet ouvrage, (X (t),t ∈Z) sera dit stationnaire s’il l’est au sens faible.

La stationnarité implique non seulement une absence de tendance, mais aussi une variance constante ou homoscédasticité. La stationnarité au sens strict implique celle au sens faible. Ces deux notions coïncident uniquement dans le cas d’un processus gaussien.

(19)

1.3

Bruit blanc

Définition 1.5 (Bruit blanc faible) Un bruit blanc faible est un processus (εt,t ∈ Z) centré (E(εt) =

0), dont les variables sont non corrélées, c’est-à-dire que Cov(εt1, εt2) = 0 , ∀ t16= t2.

Le bruit blanc est dit fort si ses variables sont indépendantes.

Dans ce mémoire, on fera toujours référence à la notion de bruit blanc faible lorsqu’on énoncera le concept de bruit blanc.

Définition 1.6 (Bruit blanc gaussien) Un processus (εt,t ∈ Z) est un bruit blanc gaussien s’il s’agit

d’un bruit blanc dont les variables sont indépendantes et identiquement distribuées de loi normale de moyenne nulle.

1.4

Autocovariance et autocorrélation

Dans cette section, nous présentons les fonctions d’autocorrélation et d’autocovariance qui sont des outils bien utiles à différentes étapes des études de séries temporelles.

Définition 1.7 La fonction d’autocovariance d’un processus (X (t),t ∈Z), notée γ(.), est définie par :

∀ t1,t2∈ Z, γ(t1,t2) = Cov(Xt1,Xt2).

En supposant t2= t1+ h, la fonction d’autocovariance d’un processus stationnaire est :

∀ h ∈ Z, γ(t1,t1+ h) = γ(h) = E[(Xt1− µ)(Xt1+h− µ)] = γ(−h),

où µ = E[Xt] est l’espérance du processus.

Remarque : La fonction γ(.) est paire.

Pour t1= t2= t, on a en particulier pour un processus stationnaire :

γ (t, t) = Var(Xt) = γ(0),

ce qui montre que la variance est bien constante dans le cas stationnaire.

Définition 1.8 La fonction d’autocorrélation d’un processus (X (t),t ∈Z), notée ρ(.), est définie par :

ρ (t1,t2) =

γ (t1,t2)

p

γ (t ,t ) · γ(t ,t )

(20)

La fonction d’autocorrélation simple (ACF) d’un processus stationnaire, notée ρ(h), est définie par :

ρ (h) =p γ (t1,t1+ h) γ (t1,t1)γ(t1+ h,t1+ h)

=γ (h)

γ (0), ∀ h ∈ Z. Remarque : La fonction ρ(.) est paire.

Définition 1.9 La fonction d’autocorrélation partielle d’un processus (X (t),t ∈Z), notée r(.), est définie par r(t1,t2) = Cov(Xt1− X ∗ t1,Xt2− X ∗ t2) pVar(Xt1− X ∗ t1) ·Var(Xt2− X ∗ t2) . où Xt∗ 1 et X ∗

t2 sont respectivement les meilleures estimations linéaires affines de Xt1 et Xt2 en fonction

des valeurs Xt1+1, . . . ,Xt2−1, t2> t1.

Lorsque t2= t1, r(t1,t2) = r(t1,t1) = r(t2,t2) = 1.

Et la fonction d’autocorrélation partielle (PACF) d’un processus stationnaire, notée r(h), est

r(h) = Cov(Xt− X ∗ t ,Xt+h− Xt+h∗ ) q Var(Xt− Xt∗)Var(Xt+h− Xt+h∗ ) , ∀ h ∈ Z,

où Xt+k∗ est la meilleure estimation linéaire affine de Xt+k en fonction des valeurs Xt+1, . . . ,Xt+k−1,

k6 2. Dans ce cas, r(h) est le coefficient de corrélation entre Xt et Xt+k lorsqu’on ôte à Xt et Xt+k

toute l’information linéaire affine en termes de variables intermédiaires. Lorsque h= 0, r(0) = 1.

Remarque : La fonction r(.) est paire.

Remarque : On a que r(1) = ρ(1). Ceci s’explique bien par le fait qu’il n’existe aucune variable intermédiaire entre deux variables consécutives.

Définition 1.10 (Définition équivalente de la fonction d’autocorrélation partielle) La fonction d’au-tocorrélation partielle d’un processus stationnaire, notée r(h), peut être aussi définie comme le der-nier coefficient φhhdans la projection linéaire de Xh+1 sur ses h dernières valeurs1. Cette projection

linéaire s’exprime par ∑hj=1φh jXh+1− j. Dans ce cas, r(h) = φhhest obtenue en résolvant le système

d’équations suivant :

(21)

         ρ (0) ρ (1) . . . ρ (h − 2) ρ (h − 1) ρ (1) ρ (0) . . . ρ (h − 3) ρ (h − 2) .. . . . .. . . . ... ρ (h − 2) ρ (h − 3) . . . ρ (0) ρ (1) ρ (h − 1) ρ (h − 2) . . . ρ (1) ρ (0)                   φh1 φh2 .. . φhh−1 φhh          =          ρ (1) ρ (2) .. . ρ (h − 1) ρ (h)         

De la résolution de ce système d’équations, on obtient :

r(h) = det          ρ (0) ρ (1) . . . ρ (h − 2) | ρ(1) ρ (1) ρ (0) . . . ρ (h − 3) | ρ(2) .. . . . .. . . . | ... ρ (h − 2) ρ (h − 3) . . . ρ (0) | ... ρ (h − 1) ρ (h − 2) . . . ρ (1) | ρ(h)          det          ρ (0) ρ (1) . . . ρ (h − 2) ρ (h − 1) ρ (1) ρ (0) . . . ρ (h − 3) ρ (h − 2) .. . . . .. . . . ... ρ (h − 2) ρ (h − 3) . . . ρ (0) ρ (1) ρ (h − 1) ρ (h − 2) . . . ρ (1) ρ (0)          (1.1)

où det(M) est le déterminant de la matrice M.

Remarque : Cette propriété est la conséquence du théorème deFrisch and Waugh(1933).

1.5

Estimation de la moyenne et des fonctions d’autocovariance,

d’autocorrélation et d’autocorrélation partielle d’un processus

stationnaire

La plupart du temps, la vraie valeur des paramètres associés à une population n’est pas connue. Des échantillons sont alors tirés en vue d’avoir une idée, la plus proche possible, de la réalité. Ces para-mètres sont alors estimés. Dans cette partie, il s’agira de définir certains estimateurs, dont ceux des fonctions présentées à la dernière section, et quelques unes de leurs propriétés.

Dans tout ce qui suit, on observe un échantillon X1,. . . , Xn de taille n d’un processus stationnaire

(X (t),t ∈ Z) dont µ est la moyenne, γ(.) sa fonction d’autocovariance, ρ(.) sa fonction d’autocorré-lation et r(.) sa fonction d’aucorréd’autocorré-lation partielle.

Définition 1.11 (Un estimateur de la moyenne) On estime la moyenne µ du processus (X (t),t ∈Z) par :

(22)

¯ X=1 n n

t=1 Xt. (1.2)

Proposition 1.2 (Convergence et loi asymptotique) ¯X converge en moyenne quadratique vers µ, c’est-à-dire, lorsque n→ ∞, Var[ ¯X] = E[( ¯X− µ)2] → 0, si γ(n) → 0 et nVar[ ¯X] −→ ∞

h=−∞ γ (h), si ∞

h=−∞ |γ(h)| < ∞.

De plus, si Xt= µ + ∑∞j=−∞ψjZt− joù{Zt} est une suite de variables indépendantes et identiquement

distribuées de moyenne 0 et de variance σ2, ∑∞

j=−∞|ψj| < ∞ et ∑∞j=−∞ψj6= 0 alors,

¯

X est asymptotiquement normale de moyenne µ et de variance ∑∞h=−∞γ (h) n = σ

2(∑

j=−∞ψj)2.

Cette proposition est tirée des pages 218 et 219 deBrockwell and Davis(2009).

Définition 1.12 (Un estimateur de la fonction d’autocovariance) On estime la fonction d’autoco-variance γ(h) de (X (t),t ∈Z) par : ˆ γ (h) = 1 n n−h

t=1 (Xt− ¯X)(Xt+h− ¯X), ∀ h = 0, . . . , n − 1, n ≥ 1. (1.3)

Cet estimateur est biaisé. Pour en obtenir un qui ne l’est pas, on remplacera 1n par n−h1 .

Proposition 1.3 (Loi asymptotique de la fonction d’autocovariance) Si Xt= µ + ∑∞j=−∞ψjZt− joù

{Zt} est une suite de variables indépendantes et identiquement distribuées de moyenne 0 et de

va-riance σ2, ∑∞

j=−∞|ψj| < ∞ et E[Z4] = ησ4< ∞, alors même si ˆγ (h) est biaisé, sa loi asymptotique est

de moyenne γ(h) sous certaines conditions de régularité (proposition 7.3.4, page 230 deBrockwell and Davis(2009)).

Définition 1.13 (Un estimateur de la fonction d’autocorrélation et loi asymptotique) On estime la fonction d’autocorrélation d’un processus stationnaire, notée ρ(h) par :

ˆ

ρ (h) =γ (h)ˆ ˆ

γ (0), ∀ h = 0, . . . , n − 1. (1.4)

Si de plus, Xt= µ + ∑∞j=−∞ψjZt− j, où{Zt} est une suite de variables indépendantes et identiquement

distribuées de moyenne 0 et de variance σ2, ∑∞

(23)

le vecteur ˆρ (h) a une loi asymptotique normale de moyenne ρ (h) et de variance n−1w avec ˆ

ρ (h) = [ ˆρ (1), . . . , ˆρ (h)] , ρ (h) = [ρ (1), . . . ,ρ (h)] ,

et w est la matrice de variances-covariances donnée par la formule de Bartlett mentionnée à la page 221 deBrockwell and Davis(2009)).

On peut aussi écrire :

Var[ ˆρ (h)] ≈ n−1, (h > q), où les ACF des q premiers retards sont significativement non nuls.

Définition 1.14 (Un estimateur de la fonction d’autocorrélation partielle) On estime la fonction d’au-tocorrélation partielle d’un processus stationnaire(X (t),t ∈ Z) en remplaçant toutes les autocorré-lations ρ(.) par leurs estimateurs respectifs dans la formule (1.1). On a donc :

ˆr(h) = det          ˆ ρ (0) ρ (1)ˆ . . . ρ (h − 2)ˆ | ρ (1)ˆ ˆ ρ (1) ρ (0)ˆ . . . ρ (h − 3)ˆ | ρ (2)ˆ .. . . . .. . . . | ... ˆ ρ (h − 2) ρ (h − 3)ˆ . . . ρ (0)ˆ | ... ˆ ρ (h − 1) ρ (h − 2)ˆ . . . ρ (1)ˆ | ρ (h)ˆ          det          ˆ ρ (0) ρ (1)ˆ . . . ρ (h − 2)ˆ ρ (h − 1)ˆ ˆ ρ (1) ρ (0)ˆ . . . ρ (h − 3)ˆ ρ (h − 2)ˆ .. . . . .. . . . ... ˆ ρ (h − 2) ρ (h − 3)ˆ . . . ρ (0)ˆ ρ (1)ˆ ˆ ρ (h − 1) ρ (h − 2)ˆ . . . ρ (1)ˆ ρ (0)ˆ          (1.5)

Proposition 1.4 (Propriétés asymptotiques de la fonction d’autocorrélation partielle) Si {Xt} est

un bruit blanc (respectivement un processus autorégressif AR(p)), alors Var[ ˆr(h)] ≈ n−1, (h > p),

où les PACF de retards 1 à p sont significativement non nulles.

La notion de processus autorégressif sera abordée dans le chapitre 2. Ces propriétés asymptotiques nous permettront de définir des bandes de confiance pour les paramètres présentés dans la section précédente.

(24)

1.6

Opérations sur les séries

Dans cette section, nous allons définir l’opérateur retard et l’opérateur différenciation. Ces opérateurs seront très utiles car ils nous permettront de définir plusieurs types de modèles à l’aide d’une notation compacte et efficace.

Définition 1.15 (Opérateur retard) Soit B, l’opérateur retard, (Xt,t ∈ Z) , une série de valeurs et k,

l’ordre du retard. Alors

BkXt = Xt−k, ∀t ∈ Z, ∀k ∈ N.

L’opérateur B permet donc de reculer de k pas à partir d’une position t.

Bien entendu, si Xt= C, ∀t ∈ Z, alors

BkXt= BkC= C, ∀k ∈ N,

car, une constante ne peut varier.

L’observation des autocorrélations simples (ACF) et du graphique d’une série permet de détecter la présence ou non de problèmes de stationnarité tels que la tendance. Celle-ci, lorsqu’elle existe, démontre un lien plus ou moins important entre les réalisations de la série. Elle est détectée quand les autocorrélations simples ne décroissent pas vers 0 exponentiellement (très rapidement). Par ailleurs, elle peut être décélée lorsque le graphique de la série montre des valeurs qui suivent un certain schéma (courbe, croissance ou décroissance, etc.) général d’évolution dans le temps. Dans le cas échéant, il y a une forte autocorrélation alors qu’on désire travailler avec une série qui soit stationnaire. La différenciation se veut une solution pour faire disparaître une tendance, et ainsi faire décroître les ACF vers 0 exponentiellement. Une autre façon de vérifier la nécessité d’une différenciation est d’ajuster la série à un processus autoregressif d’ordre 1 noté AR(1) (voir chapitre 2) et de vérifier si la valeur absolue du coefficient associé au modèle trouvé est voisine de 1 mais est inférieure à 1.

Définition 1.16 (Différenciation) Soit ∇, l’opérateur différenciation, (X (t),t ∈ T ), une série de n valeurs et d, l’ordre de différenciation.

On a ∇dXt = d

k=0 (−1)kCdkXt−k, ∀d ≥ 1, d ≤ n − 1.

Exemple 1.1 Pour des ordres de 1 et de 2, la définition1.16nous donne ∇Xt= Xt− Xt−1,

(25)

∇2Xt= (Xt− Xt−1) − (Xt−1− Xt−2) = Xt− 2Xt−1+ Xt−2.

L’ordre d représente donc le nombre de différenciations appliquées à la série et le nombre de valeurs de la série obtenue sera donc égal à n − d. Lorsqu’elle est d’ordre 1, la différenciation élimine une tendance linéaire. Une différenciation d’ordre 2 peut être nécessaire dans le cas d’une tendance qua-dratique. La différenciation est certes utile, cependant il faut éviter la surdifférenciation car elle crée plus de problèmes qu’elle n’en règle. En effet, elle rajoute de la dépendance là où il n’en existe au-cune, alors que l’objectif visé est d’obtenir une série stationnaire. Il faut donc s’assurer d’appliquer le nombre adéquat de différenciations, d’avoir ainsi l’ordre optimal. Une manière d’identifier la sur-différenciation d’une série est de vérifier si la valeur de l’estimateur ˆρ (1) avoisine -0.5 pendant que celles des autres ˆρ (h) sont petites2.

En notant I, l’opérateur identité, on peut remarquer que ∇ = I − B car, ∇Xt= Xt− Xt−1= Xt− BXt = (I − B)Xt.

Une autre forme de différenciation est avérée lorsqu’on observe une tendance saisonnière de la série, c’est-à-dire, la présence, à des intervalles réguliers, de pics. Le caractère saisonnier peut être observé grâce au graphique de la série et à l’autocorrélogramme simple. On remarquera pour ce dernier que les ACF ne décroissent pas vers 0 très rapidement aux multiples de la saison. À titre d’exemple, les températures sont saisonnières.

Définition 1.17 (Opérateur de différenciation saisonnière) L’opérateur ∇sest défini par

∇sXt = Xt− Xt−s,

où s est la saison.

En d’autres termes

∇s= I − Bs.

Et pour une différenciation saisonnière d’ordre D,

∇Ds= (I − Bs)D.

Il faut différencier autant que nécessaire tout en évitant de surdifférencier. De plus, le nombre de valeurs de la série différenciée sera réduit de l’ordre multiplié par la saison. Par exemple, si on observe 50 valeurs trimestrielles d’une série avec saisonnalité annuelle (s = 4), la série obtenue après une différenciation saisonnière aura 46 valeurs. Il est possible d’observer plus d’une sorte de tendance. Une ou des différenciation(s) saisonnière(s) et simple(s) s’avèreront alors nécessaires.

(26)

1.7

Transformation de Box et Cox

Dans bien des situations, il arrive que la variable dépendante étudiée présente des variations impor-tantes et irrégulières dans ses valeurs. Sa variance n’est donc pas homogène : c’est l’hétéroscédasticité. Afin de régler ce problème, il est proposé d’appliquer une transformation à notre variable. Dans les prochaines lignes, nous allons discuter de la transformée de Box-Cox, laquelle a été proposée parBox and Cox(1964).

Définition 1.18 La fonction g de la transformée de Box-Cox appliquée à une variable aléatoire posi-tive Y est définie par

g(y; λ ) =

( yλ−1

λ , si λ 6= 0,

ln y, si λ = 0.

Le paramètre λ sera estimé par la méthode du maximum de vraisemblance en même temps que d’autres paramètres. S’il est proche de 1, il n’y aura pas lieu d’appliquer une transformation de Box et Cox sur les données initiales. S’il est proche de 0, la transformation logarithmique est conseillée. Cette dernière est souvent utilisée à cause de sa tendance à supprimer ou réduire fortement les grandes fluctuations.

1.8

Processus linéaire

Définition 1.19 (Xt,t ∈ Z) est un processus linéaire s’il est une combinaison linéaire des variables

d’un bruit blanc(εt,t ∈ Z). Il s’écrit :

Xt = µ + ∞

k=−∞ ψkεt−k, ∞

k=0 ψk2< ∞, où µ = E[Xt].

Cette définition nous permet d’introduire le théorème de la décomposition de Wold.

Définition 1.20 Tout processus (Xt,t ∈ Z) stationnaire faible non déterministe de moyenne nulle peut

être décomposé en deux composantes mutuellement non corrélées. L’une est une combinaison linéaire des variables d’un bruit blanc et l’autre est un processus déterministe, c’est-à-dire, qui peut être exactement prédit par une fonction linéaire de ses observations passées. On écrit(Xt,t ∈ Z) sous la

forme Xt = ∞

k=0 ψkεt−k+ dt, où 1. ψ0= 1 et ∑∞k=0ψk2< ∞ ;

(27)

2. {εt,t ∈ Z} est un bruit blanc de variance σε2;

3. La suite de coefficients(ψk) et la suite {εt, ∈ Z} sont uniques ;

4. Le processus{dt,t ∈ Z} est déterministe ;

5. {εt} ∈Mtx,Mnxétant l’ensemble de toutes les combinaisons linéaires des Xs, s6 n ;

6. E[dsεt] = 0, ∀ t, s.

Lorsque la composante déterministe est nulle, le processus est dit purement non déterministe.

Notons qu’on peut remplacer ∑∞

k=0ψk2< ∞ par ∑∞k=0|ψk| < ∞ parce que la seconde implique la

pre-mière. Par ailleurs, cette dernière fait appel à la condition d’absolue sommabilité d’une suite ψk qui

est satisfaite lorsqu’un processus Xt est stationnaire. Elle garantit aussi l’unicité du processus Xt.

Ce théorème implique qu’on peut représenter tout processus purement non déterministe sous la forme d’un processus ARMA(p, q), lequel sera l’objet du prochain chapitre.

(28)

Chapitre 2

LES MODÈLES DE BOX ET JENKINS

Dans l’histoire des séries temporelles, des scientifiques ont introduit différentes manières d’aborder le sujet de leur ajustement à des séries observées. Pour ne citer que ceux-ci, Yule(1926) est celui qui, le premier, a introduit le concept des processus autorégressifs (AR(p)).Slutzky(1937) a, quant à lui, en 1937, présenté les processus moyenne mobile (MA(q)). C’est enfin en 1938 queWold(1938) combina ces deux concepts et montra que les modèles autorégressifs moyenne mobile (ARMA(p, q)) pouvaient être utilisés pour modéliser les séries stationnaires. En 1970, Box and Jenkins(1970) ont proposé une méthode en 3 étapes afin d’appliquer ces modèles à des séries réelles comme le cours d’une action ou des données économiques. Ces étapes sont l’identification, l’estimation et les tests d’adéquation. Par ailleurs, il arrive qu’une série ait une composante saisonnière et/ou non stationnaire. Dans les prochaines lignes, nous allons non seulement décrire ces étapes qui s’appliquent tout aussi bien aux processus non stationnaires que stationnaires, mais aussi donner de plus amples détails sur ces modèles, plus commnunément connus sous le nom de modèles de Box et Jenkins.

2.1

Les modèles ARIMA(p, d, q)

2.1.1 Les processus autorégressifs d’ordre p (AR(p))

Soit Xt, un processus de moyenne µ. Nous pouvons définir ˜X, la version centrée de Xt, en prenant

˜

Xt= Xt− µ.

Définition 2.1 Un processus ˜Xt= Xt− µ autorégressif d’ordre p, noté AR(p), s’écrit comme

Φ(B) ˜Xt= ˜Xt− ϕ1X˜t−1− ϕ2X˜t−2− · · · − ϕpX˜t−p= εt, ϕp6= 0;

La valeur ˜Xt dépend des p dernières variables Xt−1, · · · ,Xt−pet du bruit blanc εt.

Par exemple, dans un AR(3), ˜Xtest prédite par ses 3 valeurs précédentes. Sa formule est ˜Xt= ϕ1X˜t−1+

(29)

De par la définition d’un processus autorégressif, on s’attend logiquement à ce que le présent et le futur soient prédits par le passé. En effet, puisque "l’on récolte ce que l’on sème", l’effet ne peut que suivre sa cause et non l’inverse. La condition de causalité, qui induit des restrictions sur des paramètres du modèle autorégressif, a été introduite afin de parer le problème des processus explosifs, c’est-à-dire, ceux qui dépendent du futur. Prenons l’exemple d’un AR(1) explosif, qui dépend du futur, dont |ϕ| > 1. L’objectif est de trouver une manière de l’exprimer mathématiquement afin de retrouver la forme d’un processus causal, lequel sera présenté plus tard dans cette section.

En partant de l’écriture générale d’un processus AR(1), on a ˜

Xt= ϕ ˜Xt−1+ εt = ϕ(ϕ ˜Xt−2+ εt−1) + εt.

Par récursivité, on obtient :

˜ Xt = ∞

k=0 ϕkεt−k.

Cependant, puisque |ϕ| > 1, lorsque k → ∞, |ϕ|k aura tendance à augmenter au point où ∑k=0j−1ϕkεt−k

ne convergera pas en moyenne quadratique lorsque j → ∞.

En lieu et place de la forme usuelle, car on ne peut exprimer les processus explosifs selon la formule obtenue précédemment, on va écrire le processus en fonction des valeurs futures :

˜

Xt = ϕ ˜Xt−1+ εt ⇐⇒ ˜Xt−1= ϕ−1X˜t− ϕ−1εt.

On peut alors écrire :

˜ Xt= ϕ−1X˜t+1− ϕ−1εt+1 ˜ Xt+1= ϕ−1X˜t+2− ϕ−1εt+2 .. . ˜ Xt+k−1= ϕ−1X˜t+k− ϕ−1εt+k.

Par récursivité, on obtient :

˜ Xt = ϕ−kX˜t+k− k

i=1 ϕ−iεt+i.

Par convergence, l’expression ci-dessus se réduit à ˜ Xt = − ∞

k=1 ϕ−kεt+k En effet, |ϕ−k| < 1, ∀ k ∈ N∗et − ∑∞

k=1ϕ−kεt+kconvergera en moyenne quadratique.

En généralisant au cas AR(p), on impose que les modules des racines du polynôme caractéristique Φ(B) soient tous supérieurs à 1.

(30)

Définition 2.2 (Processus causal) Un processus AR(p), défini par Φ(B) ˜Xt = εt , est dit causal s’il

peut être exprimé sous forme d’un processus linéaire : ˜ Xt= ∞

k=0 φkεt−k= ψ(B)εt,

où{εt,t ∈ Z} est un bruit blanc, ψ(B) = ∑∞k=0ψkBk, et ∑∞k=0|ψk| < ∞ ; on fixe ψ0= 1.

Proposition 2.1 Un processus AR(p) est causal si et seulement si Φ(z) 6= 0 pour tout complexe z dont le module est inférieur ou égal à 1. Les coefficients du processus linéaire lui correspondant sont déterminés en résolvant l’équation :

ψ (z) = ∞

k=0 ψkzk= 1 Φ(z), |z| ≤ 1.

Donc( ˜X,t ∈ Z) est causal si et seulement si les racines du polynôme autorégressif sont hors du disque unité.

Or Φ(z)1 =1−ϕ 1

1z−ϕ2z2−···−ϕpzp. On en déduit que ψ0= 1.

Les propriétés ci-dessous sont caractéristiques des processus AR(p).

Proposition 2.2 (Propriétés des processus AR(p)) Les autocorrélations simples (ACF) d’un proces-sus AR(p) décroissent exponentiellement vers 0 alors que les autocorrélations partielles (PACF) s’an-nulent à partir du rang p+ 1.

Les modules des racines de l’équation caractéristique associée au polynôme Φ(B) doivent être situés hors du disque unité, donc, supérieurs à 1. L’équation caractéristique associée à Φ(B) est

φ (z) = 1 − ϕ1z− ϕ2z2− · · · − ϕpzp= 0.

Les graphiques de la figure ( 2.1) sont un exemple d’illustration des propriétés des AR(p) énoncées ci-dessus. Dans notre cas, nous avons deux processus AR(1) et AR(2). Les coefficients associés sont donnés sur le graphique. Les PACF respectifs s’annulent précisement après les premier et second rangs.

2.1.2 Les processus moyenne mobile d’ordre q (MA(q))

Définition 2.3 Un processus est dit moyenne mobile d’ordre q, noté MA(q), s’il s’écrit : ˜

Xt= Θ(B)εt = εt+ θ1εt−1+ θ2εt−2+ · · · + θqεt−q.

˜

(31)

FIGURE2.1: Exemples d’ACF et de PACF théoriques d’un AR(1) et d’un AR(2)

Par exemple, lorsque ˜Xt suit un processus MA(2), le choc aléatoire au temps t est déterminé par

ses 2 derniers chocs aléatoires et par la valeur du choc aléatoire au temps t. Sa formule est ˜Xt =

εt− θ1εt−1− θ2εt−2.

Il peut arriver que deux processus de même ordre aient les mêmes fonctions d’autocorrélation et d’autocovariance. De ce fait, le choix du bon modèle basé sur le critère d’inversibilité, que nous allons définir à la suite d’un exemple, se veut la solution adéquate à ce problème de non-unicité du modèle candidat.

Exemple 2.1 : Pour un processus MA(1), l’autocorrélation est la même, qu’on ait comme coefficient θ ou θ1.

La formule de l’autocorrélation pour un processus MA(1) de coefficient α est

ρx(h) =      1, si h = 0, α 1+α2, si h = 1, 0, si h > 1.

À partir de cette formule, on peut aisément prouver que les autocorrélations de deux processus MA(1), dont les coefficients sont des inverses, sont égales. Car, pour α = θ ,ρx(h) = 1+θθ 2 lorsque h= 1, et

pour α = 1, ρx(h) = 1 θ 1 2 = θ 1+θ2

(32)

Définition 2.4 (Processus inversible) Un processus MA(p,q) est dit inversible si on peut l’exprimer par : π (B) ˜Xt= ∞

k=0 πkX˜t−k= εt,

où{εt,t ∈ Z} est un bruit blanc, π(B) = ∑∞k=0πkBk, et ∑∞k=0|πk| < ∞ ; on fixe π0= 1.

Proposition 2.3 Un processus (Xt,t ∈ Z), MA(q) est inversible si et seulement si Θ(z) 6= 0 pour tout

complexe z dont le module est inférieur ou égal à 1. Les coefficients πk sont déterminés en résolvant

l’équation : π (z) = ∞

k=0 πkzk= 1 Θ(z), |z| ≤ 1.

Donc un processus MA(q) est inversible si et seulement si les racines du polynôme caractéristique associées au polynôme Θ(B) sont situées hors du disque unité.

Or Θ(z)1 =1+θ 1

1z+θ2z2+···+θqzq. On en déduit que π0= 1.

Remarque : Les propriétés ci-dessous sont caractéristiques des processus MA(q) réguliers.

Proposition 2.4 (Propriétés des processus MA(q)) Les autocorrélations partielles (PACF) décroissent exponentiellement vers 0 alors que les autocorrélations simples (ACF) s’annulent à partir du rang q+ 1.

Les modules des racines de l’équation caractéristique associée au polynôme Θ(B) doivent être situés hors du disque unité, donc, supérieurs à 1. L’équation caractéristique associée à Θ(B) est

θ (z) = 1 + θ1z+ θ2z2+ · · · + θqzq= 0.

Les graphiques de la figure ( 2.2) sont un exemple d’illustration des propriétés des MA(q) énoncées ci-dessus. Dans notre cas, nous avons deux processus MA(1) et MA(2). Les coefficients associés sont donnés sur le graphique. Les ACF respectifs s’annulent précisement après les premier et second rangs.

2.1.3 Les processus ARMA(p,q)

Définition 2.5 Un processus ARMA(p,q) s’écrit :

Φ(B) ˜Xt= Θ(B)εt.

ou ˜

Xt= ϕ1X˜t−1+ ϕ2X˜t−2+ · · · + ϕpX˜t−p+ εt+ θ1εt−1+ θ2εt−2+ · · · + θqεt−q, ϕp6= 0, θq6= 0,

(33)

FIGURE2.2: Exemples d’ACF et de PACF théoriques d’un MA(1) et d’un MA(2)

˜

Xt dépend directement, non seulement de ses p dernières valeurs et de son bruit blanc courant, mais

aussi des q chocs aléatoires précédents. Un processus ARMA(2,2) est donc un processus dont la va-riable centrée est déterminée par ses 2 plus récentes valeurs et la réalisation courante ainsi que les deux valeurs précédentes de son bruit blanc. Autrement dit, ˜Xt= ϕ1X˜t−1+ ϕ2X˜t−2+ εt− θ1εt−1− θ2εt−2.

Définition 2.6 (Processus causal) Un processus ARMA(p,q), défini par Φ(B) ˜Xt = Θ(B)εt , est dit

causal s’il peut être exprimé sous forme d’un processus linéaire : ˜ Xt= ∞

k=0 ψkεt−k= ψ(B)εt,

où{εt,t ∈ Z} est un bruit blanc, ψ(B) = ∑∞k=0ψkBk, et ∑∞k=0|ψk| < ∞ ; on fixe ψ0= 1.

Proposition 2.5 Soit (Xt,t ∈ Z), un processus ARMA(p,q) dont les polynômes Φ(.) et Θ(.) n’ont

aucune racine commune. (Xt,t ∈ Z) est causal si et seulement si Φ(z) 6= 0 pour tout complexe z

dont le module est inférieur ou égal à 1. Les coefficients du processus linéaire lui correspondant sont déterminés en résolvant l’équation :

ψ (z) = ∞

k=0 ψkzk= Θ(z) Φ(z), |z| ≤ 1.

(34)

Or Θ(z)Φ(z)= 1+θ1z+θ2z2+···+θqzq

1−ϕ1z−ϕ2z2−···−ϕpzp. On en déduit que ψ0= 1.

Définition 2.7 (Processus inversible) Un processus ARMA(p,q) est dit inversible s’il peut être ex-primé comme : π (B) ˜Xt= ∞

k=0 πkX˜t−k= εt, où π(B) = ∑∞ k=0πkBk, et ∑∞k=0|πk| < ∞ ; on fixe π0= 1.

Proposition 2.6 Soit (Xt,t ∈ Z), un processus ARMA(p,q) dont les polynômes Φ(.) et Θ(.) n’ont

aucune racine commune.(Xt,t ∈ Z) est inversible si et seulement si Θ(z) 6= 0 pour tout complexe z

dont le module est inférieur ou égal à 1. Les coefficients πksont déterminés en résolvant l’équation :

π (z) = ∞

k=0 πkzk= Φ(z) Θ(z), |z| ≤ 1. Or Φ(z)Θ(z)=1−ϕ1z−ϕ2z2−···−ϕpzp 1+θ1z+θ2z2+···+θqzq. On en déduit que π0= 1.

Exemple 2.2 Observons un processus qui s’écrit : ˜

Xt= 0.3 ˜Xt−1+ 0.01 ˜Xt−2+ εt− εt−1+ 0.25εt−2.

Sous cette forme, c’est un processus ARMA(2,2). En effectuant une factorisation, nous obtenons : (1 − 0.3B − 0.01B2) ˜Xt= (1 − B + 0.25B2)εt.

On a donc :

Φ(z) = (1 − 0.3z − 0.01z2) = (1 + 0.2z)(1 − 0.5z) et Θ(z) = (1 − z + 0.25z2) = (1 − 0.5z)2. Les polynômes Φ(z) et Θ(z) ont une racine commune. C’est un cas de surparamétrisation. L’objec-tif est d’obtenir un processus le plus parcimonieux possible sans redondance de racines, donc un ARMA(p,q) minimal. Le bon modèle est un ARMA(1,1) qui s’écrit :

(1 + 0.2B) ˜Xt = (1 − 0.5B)εt.

Cet exemple 2.2justifie bien le fait d’imposer des restrictions aux racines des polynômes caractéris-tiques. En effet, il ne doit pas avoir de racines communes à ceux-ci.

Les exemples cités dans l’illustration des concepts de causalité, d’inversibilité et d’unicité des racines des polynômes caractéristiques plus haut sont inspirés des pages 87, 91-93 et 95-96 deShumway and Stoffer(2011). Tous ces concepts ont été introduits car on veut conserver la propriété de stationnarité.

(35)

Proposition 2.7 [Propriétés des processus ARMA(p,q)]

Les autocorrélations simples (ACF) et les autocorrélations partielles (PACF) des résidus décroissent exponentiellement vers 0 mais ne permettent pas de distinguer ce type de modèles mixtes, c’est-à-dire qu’on ne peut trouver les ordres p et q à partir de ces fonctions.

Les modules des racines des équations caractéristiques associées aux polynômes Φ(B) et Θ(B) sont tous supérieurs à 1. Par ailleurs, ces racines ne sont pas communes.

Il existe des méthodes, comme la méthode du coin1, pour identifier les ordres p et q simultanément.

(36)

FIGURE2.3: Exemple d’ACF et de PACF théoriques d’un ARMA(1,1)

Les graphiques de la figure (2.3) sont un exemple d’illustration des propriétés des ARMA(p,q) énon-cées ci-dessus. Dans notre cas, nous avons un processus ARMA(1,1). Les coefficients associés sont donnés sur le graphique. On remarque bien que les propriétés sont respectées, c’est-à-dire que les PACF et ACF décroissent exponentiellement vers 0.

2.1.4 Les processus ARIMA(p,d,q)

Quand une série n’est pas stationnaire, on a recours à un ensemble de transformations pour la rendre stationnaire. L’une de ces opérations est la différenciation. Un type de processus pour lesquels cette technique est utilisée sont les processus ARIMA(p,d,q).

Définition 2.8 Un processus ARIMA(p, d, q) est obtenu en quatre étapes : 1. Le centrage ˜Xt= Xt− µ ;

2. La différenciation d’ordre d, ∇d;

3. L’application de l’opérateur autorégressif d’ordre p à la série différenciée : Φ(B) = I − ϕ1B− ϕ2B2− · · · − ϕpBp, ϕp6= 0;

(37)

4. L’application de l’opérateur moyenne mobile d’ordre q au bruit blanc εt :

Θ(B) = I + θ1B+ θ2B2+ · · · + θqBq, θq6= 0.

Définition 2.9 Un processus centré ˜X dit ARIMA(p,d,q) s’écrit : Φ(B)∇dX˜t = Θ(B)εt,

avec,

Φ(z) = 1 − ϕ1z− ϕ2z2− · · · − ϕpzp,

le polynôme autorégressif de degré p, et

Θ(z) = 1 + θ1z+ θ2z2+ · · · + θqzq,

le polynôme moyenne mobile de degré q. Les polynômes Φ(z) et Θ(z) n’ont pas de racines communes.

Par exemple, un processus ARIMA(3, 1, 2) est un processus qui a été centré et différencié une fois dont la valeur à un certain moment t dépend de sa valeur précédente et de ses deux derniers bruits blancs. Sa formule est ∇ ˜Xt = ϕ1∇ ˜Xt−1+ ϕ2∇ ˜Xt−2+ ϕ3∇ ˜Xt−3+ εt− θ1εt−1− θ2εt−2.

Proposition 2.8 Un processus centré ˜X est dit ARIMA(p,d,q) si ∇dX est un processus ARMA(p,q).˜

Toutes les propriétés et définitions d’un processus ARMA(p,q) citées plus haut s’appliquent donc à ∇dX˜.

Cas particuliers

Lorsque d et q sont nuls, le processus est dit autorégressif d’ordre p et est noté AR(p). Lorsque d et p sont nuls, il est dit moyenne mobile d’ordre q et est noté MA(q).

Lorsque d est nul, il est dit autorégressif moyenne mobile d’ordres p et q et est noté ARMA(p,q).

2.2

Les processus multiplicatifs saisonniers (SARIMA(P,D,Q)(p,d,q))

Dans la liste des processus non stationnaires, il en existe des saisonniers. La saisonnalité s’illustre par la présence, sur le corrélogramme simple, de pics à des intervalles réguliers multiples de la saison de la série. Par exemple, une série présentant la température quotidienne sur un horizon de 5 ans révèlera des similitudes au niveau des valeurs de température par saison. Ce processus est dit saisonnier. Dans cette section, nous allons présenter les processus saisonniers SARIMA(P,D,Q)(p,d,q).

(38)

Définition 2.10 Un processus ˜Xt, dit SARIMA(P,D,Q)(p,d,q), s’écrit :

Φp(B)ΦP(Bs)∇d∇DX˜t= Θq(B)ΘQ(Bs)εt,

avec :

– D et d, respectivement les ordres de différenciation saisonnière et non saisonnière ; – s, la saison ;

– Φp(B) et ΦP(Bs) sont les opérateurs autorégressifs non saisonnier et saisonnier d’ordres p et P ;

– Θq(B) et ΘQ(Bs) sont les opérateurs moyenne mobile non saisonnier et saisonnier d’ordres q et Q,

et

– {εt,t ∈ Z} est un bruit blanc.

Lorsqu’il est purement saisonnier, les valeurs d, p et q sont nulles et il s’exprime ainsi : ΦP(Bs)∇DX˜t= ΘQ(Bs)εt.

Avec, ΦP(Bs) = 1 − Φ1Bs− Φ2B2s− · · · − ΦpBPset ΘQ(Bs) = 1 + Θ1Bs+ Θ2B2s+ · · · + ΘQBQs, les

opérateurs saisonniers autorégressif d’ordre P et moyenne mobile d’ordre Q.

Il faut noter que les conditions d’inversibilité et de causalité sont aussi appliquables dans le cas des processus ARMA(P,Q) purement saisonniers. Les restrictions sont faites dans ce cas sur les modules des racines des polynômes ΦP(zs) et ΘQ(zs) et ces modules doivent être situés hors du cercle unitaire

de façon équivalente aux processus non saisonniers. Il va sans dire que les processus saisonniers purs présentent des propriétés similaires aux processus ARMA.

Proposition 2.9 (Propriétés des processus ARs(P), MAs(Q) et ARMAs(P,Q)) Les autocorrélations

théo-riques simples (ACF) aux temps ou retards multiples de la saison décroissent exponentiellement vers 0 lorsque le processus est autorégressif alors que les autocorrélations théoriques partielles (PACF) multiples de la saison s’annulent à partir du rang P+ 1.

Les autocorrélations théoriques partielles (PACF) aux temps ou retards multiples de la saison dé-croissent exponentiellement vers 0 lorsque le processus est moyenne mobile alors que les autocorré-lations théoriques simples (ACF) multiples de la saison s’annulent à partir du rang Q+ 1.

Dans le cas d’un processus mixte saisonnier ARMA(P,Q), les autocorrélations théoriques simples (ACF) aux temps ou retards multiples de la saison décroissent exponentiellement vers 0 pendant que les autocorrélations théoriques partielles (PACF) aux temps ou retards multiples de la saison dé-croissent exponentiellement vers 0.

Il ne faut pas oublier que les ACF et PACF aux temps autres que ceux multiples de la saison sont toutes nulles car les réalisations ne sont corrélées qu’aux temps multiples de s.

(39)

FIGURE2.4: Exemples d’ACF et de PACF d’un AR(2), d’un MA(1) et d’un ARMA(2,1) saisonniers

Grâce aux graphiques de la figure (2.4), on démontre aisément les propriétés énoncées ci-haut. Dans le cas de notre exemple de début de section sur la température quotidienne, si la température est prédite grâce à ses valeurs saisonnières des deux dernières années, le modèle approprié pour cette série est un SAR4(2) ou SARIMA(2,0,0)(0,0,0).

2.3

La méthode de Box et Jenkins : ses étapes

Cette méthode s’applique à un processus stationnaire ou non en vue de déterminer le modèle qui s’y ajuste le mieux. Elle consiste en différentes étapes : l’identification, l’estimation et le diagnostic. Des détails sur celles-ci seront donnés dans les prochaines lignes.

2.3.1 Identification

Comme son nom l’indique, cette étape consiste à identifier, de par leurs ordres, plusieurs modèles susceptibles de bien s’ajuster à la série à l’étude. Il faudra tout d’abord s’assurer de sa stationnarité en variance et en tendance. La première se détecte par l’analyse graphique des observations de la série au cours du temps. Si elle présente des fluctuations importantes et/ou irrégulières, on peut conclure à l’hétéroscédasticité de la série et régler ce problème à l’aide de la transformation de Box-Cox. La tendance, elle, est présente lorsque le corrélogramme simple (ACF) montre que les autocorrélations ne s’annulent pas très rapidement. On peut aussi observer constater la tendance par l’observation

Références

Documents relatifs

Illustrer avec des images découpées, le texte de l'histoire utilisant un vocabulaire spatial Associer chaque image au texte correspondant à la direction surveillée. e place les

[r]

Au second tour des élections régionales de 2004, la gauche devance la droite de 13 points et devient majoritaire en voix pour la première fois depuis 1988, tandis que l’extrême

Entoure en rouge les animaux qui se dirigent vers

Au cours de cet exposé, nous avons établi sous certaines hypothèses-de stationnarité, acceptables dans de nombreuses applications pratiques, les re- lations formelles

Rappelons que ce modèle avait été créé artificiellement chez des souris à la suite de l’insertion d’un transgène dans leur chromosome 4, insertion qui avait entraîné

Ainsi, alors que le gène du récepteur II b de l’activine est ex- primé des deux côtés du nœud de Hensen, comme la plupart des autres gènes exprimés dans ce tissu, le gène

Jeudi, jour de la plus grande récolte, elle cuit 16 kg de cerises avec 10 kg de sucre.. Samedi, fin de la récolte, elle cuit 5 kg de cerises avec 3 kg