R EVUE DE STATISTIQUE APPLIQUÉE
J.-P. I NDJEHAGOPIAN
Les processus stochastiques vectoriels ARMA : une procédure d’identification
Revue de statistique appliquée, tome 27, n
o3 (1979), p. 33-45
<http://www.numdam.org/item?id=RSA_1979__27_3_33_0>
© Société française de statistique, 1979, tous droits réservés.
L’accès aux archives de la revue « Revue de statistique appliquée » (http://www.
sfds.asso.fr/publicat/rsa.htm) implique l’accord avec les conditions générales d’uti- lisation (http://www.numdam.org/conditions). Toute utilisation commerciale ou im- pression systématique est constitutive d’une infraction pénale. Toute copie ou im- pression de ce fichier doit contenir la présente mention de copyright.
Article numérisé dans le cadre du programme
33
LES PROCESSUS STOCHASTIQUES VECTORIELS ARMA : UNE PROCÉDURE D’IDENTIFICATION
J.-P.
INDJEHAGOPIAN*
RESUME
Cet article considère une classe particulière de processus stochastiques vectoriels sta- tionnaires : les modèles
autorégressifs -
moyennes mobiles ARMA multivariés et présente uneprocédure
pour modéliser les séries temporelles multidimensionnelles à l’aide de cette classe de modèles. Cetteprocédure
reprend le schéma itératif bien connu de Box et Jenkins : identi- fier(spécifier) -
estimer - contrôler en proposant une solution au problème difficile de l’iden-tification
(spécification)
du modèle.1 - INTRODUCTION
Depuis quelques années,
dans le domaine de laprévision économique (au
sens le
plus large),
laméthodologie
de Box et Jenkins[3] tend
à être deplus
enplus
utilisée au détriment de
l’approche économétrique.
Eneffet,
dans un certainnombre de domaines de
l’économie,
il n’existe pas encore de théorieséconomiques
satisfaisantes
qui
rendentparfaitement compte
des faits observés(par exemple
l’in-flation,
lamonnaie,
lechômage,
lecomportement
des consommateurs,etc.).
L’étatactuel de ces théories conduit
généralement
à des modèleséconométriques empi- riques présentant
des erreurs despécification et/ou
des autocorrélations dans les séries résiduelles etc. Lesprévisions
faites àpartir
de ces modèles ne sontplus optimales
vis-à-vis ducritère, généralement
retenu, du minimum del’espérance
du carré de l’erreur de
prévision.
En ce sens, des étudescomparatives
ont montré que les modèles non stationnaires ARIMA de Box et Jenkins donnaient de meilleuresprédictions.
La
procédure proposée
par Box et Jenkins pour modéliser une série unidi- mensionnelle estcependant critiquable
dans la mesure où ellen’intègre
pas les effets croisés entre la série étudiée et d’autres sérieséconomiques.
On peut alorsse demander si les
prévisions
sur chacune des sériespourraient
être améliorées sion tenait
compte
des effets croisés(unidirectionnels
ou avecrétroaction).
Pourjuger
de l’amélioration en terme deprévision,
il est alors nécessaire d’élaborer un modèlestochastique
multivarié àpartir
de la connaissance del’historique
de lachronique
multidimensionnelle .(*) Ecole
Supérieure
des Sciences Economiques et Commerciales BP 105 - 95021 Cergy Pontoise Cedex.Revue de Statistique Appliquée, 1979, vol. XXVII, n° 3
Mots
clefs : Analyse
des sériestemporelles, Box-Jenkins, prédiction.
L’objet
de cet article est deprésenter
une méthode d’identification(spéci- fication)
de modèles ARMA multivariésqui
furent introduits pour lapremière
fois par
Quenouille [18].
Cet articlecomporte
troisparties.
Lapremière partie présente quelques concepts
de base sur les processus faiblement stationnaires et des résultats récents sur la matrice de covariance et la factorisationcanonique
d’un processus ARMA. La
partie
suivante aborde lespropriétés
descomposantes
d’un vecteur aléatoire évoluant suivant un processus vectoriel ARMA et enfin la troisièmepartie présente
uneprocédure
de construction de modèles ARMA.2 - PROCESSUS
STOCHASTIQUES
MULTIVARIES STATIONNAIRESSoit
{zt ;
t EZ}
un processusstochastique temporel
discret tel que la va- riable aléatoire vectoriellezt comporte
mcomposantes
z1t, ... , zmt. Ce processus vectoriel est ditfaiblement
stationnaire(ou
stationnaire au deuxièmeordre)
sichaque composante zit
est faiblement stationnaire(i.e
les moments d’ordre unet deux existent et sont invariants au cours du
temps)
et si deplus
la covariance pour toutcouple
decomposantes
est stationnaire. Ces définitionspeuvent
être résumées comme suit :Pour la suite de
l’exposé,
on définit la matrice de covariancerk
audécalage
k du processus faiblement stationnaire
zt
paroù
De même on définit la matrice des coefficients de corrélation croisée
Pk
et la fonction
génératrice
de covariancer(B)
du processus faiblementstationnaire, respectivement
par :où B
représente l’opérateur
dedécalage Bz - t = 3t-i , Bkzt = zt-k.
ROZANOV
[ 19 ]
et HANNAN[8]
ont montré àpartir
del’analyse spectrale qu’il
était
possible
degénéraliser
le théorème dedécomposition
de WOLD[23]
pour unprocessus
zt
centré stationnaire(du
deuxièmeordre).
Cettedécomposition appelée
factorisation
canonique
seprésente
sous la forme :35 où :
(i) 03A8(B) = 03A3 ’lFk Bk
est une matrice dont les éléments sont des fonc- tions rationnelles de B et où{03A8k}
est une suite de matrices de dimen-sion
(m, m)
(ü) avec {at}
est 1 matrice un processus unité de dimension vectoriel bruit blanc(m, m)
satisfaisant àE(ata’t +k) = 03B4k0
1(iii)
lesdénominateurs, polynomiaux
enB,
dechaque
élément de03A8(B)
onttous leurs
poles
situés à l’extérieur dudisque
unité et les racines dedet
03A8(B)
= 0 ne sont pas situées à l’intérieur dudisque
unité.La
décomposition (2.1.)
n’estcependant
pasunique.
Il est en effetpossible
de trouver d’autres factorisations
canoniques
du processus faiblement stationnaireZt qui
conduisent à la même fonctiongénératrice
de covariance r. Cesreprésenta-
tions se
distinguent
par la structureprobabiliste
des innovations at .(Cf.
HAUGH etBOX
[10],
HANNAN[8],
INDJEHAGOPIAN[12]
et[13], ÈEDOLTER [15].
HANNAN
[8]
et ROZANOV[19]
ont montré que si les éléments d’unereprésentation 03A8(B)
sont des fonctions rationnelles deB,
il est alorspossible
defactoriser 03A8 sous la forme
(principe
deparcimonie) : 03A8(B) = [-P(B)]-1 0398(B)
où
03A6(B)
et0(B)
sontrespectivement
despolynomes
dedegrés
p et q :Si de
plus,
on suppose que les racines dedet 03A6(B)
= 0 sont extérieures audisque
unité(condition
de stationnarité du processuslinéaire)
et que les racinesde det
0(B)
= 0 sont à l’extérieur dudisque
unité(condition d’inversibilité)
etque de
plus
ces deuxéquations
n’ont aucune racine en commun, alors le processus ztpeut
s’écrire :soit
avec :
où 03A9 est une matrice
(m, m) symétrique
définiepositive
et03B4k0
lesymbole
deKRONECKER.
La
représentation (2.2.)
estappelée
modèle ARMA multivarié d’ordre p et q avec lescomposantes
du bruit blanc(vectoriel)
acorrélées
deux à deux auxmêmes
époques
i.e. :Revue de Statistique Appliquée, 1979, vol. XXVII, n° 3
Cette
représentation (2.2.)
fut introduite pour lapremière
fois parQUE-
NOUILLE[18].
Onpeut
montrerqu’il
esttoujours possible
de trouver une versionde
(2.2)
telle que la matrice 0 de covariance du processus bruit blanc soitdiago-
nale ou réduite à la matrice unité
(cf.
HAUGH et BOX[10]
et INDJEHAGOPIAN[12]).
Cas
particulier
de modèles ARMA multivariés1)
Modèleautorégressif
multivarié(centré)
d’ordre p : où le processus{at}
est tel que :A
partir
del’équation (2.3.),
on démontre facilement que les matrices de covariance satisfont à la relation :et
En
remplaçant
dans(2.4)
ledécalage
k par1, 2, ...
p et en tenant compte de la relationrk
=0393’-k,
on peutexprimer
les coefficients matriciels03A6j
àpartir
de combinaisons linéaires des covariances
ro,
... ,hp .
Ces relationslinéaires géné-
ralisent les
équations
de Yules-Walker pour un modèleautorégressif
univarié(cf.
BOX et JENKINS
[3 ]).
2)
Modèle moyenne mobile multivarié(centré)
d’ordre q :où le processus
innovation at
satisfait à :En utilisant
(2.6),
la matrice de covariance d’unMA(q)
s’écrit :Cette relation
généralise
celle trouvée par Box et Jenkins[3]
dans le casd’un
MA(q)
univarié.37
On peut montrer
qu’il
y a 2q modèlesMA(q) possibles qui
satisfont à(2.7) (cf.
HANNAN[7]).
Aussi dans uneperspective
deprédiction
vers le futur on sélec-tionne le modèle
MA(q) qui
vérifie la condition d’inversibilité(i.e
lepolynome
det
0 (B)
= 0 n’a pas de racines à l’intérieur dudisque unité).
3)
Modèleautorégressif -
moyenne mobile(centré)
d’ordre p et q On démontre aussiqu’un
processuszt solution
del’équation :
avec
a ses matrices de covariance
qui,
àpartir
dudécalage
q +1,
vérifie lapropriété
Cette relation est
identique
à celle du modèle ARMA(p , q)
univarié.4)
Modèle multivarié saisonnierLes séries
économiques
multidimensionnelles que l’on est amené àanalyser présentent généralement
uncomportement
saisonnier. Il est donc nécessaire d’é- tendre la classe des modèles ARMA multivariés. afin depouvoir
décrire cetype
de séries. HILLMER[11]
propose degénéraliser
le modèle saisonniermultiplicatif
de BOX et JENKINS
[3]
au cas d’un processus m-vectorielzt
centré et faiblementstationnaire,
depériodicité
s,i.e.,
où les
polynomes 03A6(B)
et0(B)
sont définis comme en(2.2)
et où :avec
(Di l, (1 j P)
et82,s (1
QQ)
des matrices de dimension(m,m).
On suppose en outre que les racines de det
03A6s(Bs) = 0
sont à l’extérieur dudisque
unité(stationnarité-
del’autorégressif saisonnier),
que les racines de det0398s (BS)
= 0 ne sont pas à l’intérieur dudisque
unité(condition
d’inversibilité du moyenne mobilesaisonnier)
et que deplus,
ces deuxéquations
n’ont aucuneracine en commun.
Ces modèles saisonniers
peuvent
être traités comme des modèles ARMA multivariés non saisonniers d’ordresplus
élevés dont lesparamètres matriciels, compte
tenu des conditions énoncéesci-dessus,
satisfont un certain nombre decontraintes.
Revue de Statistique Appliquée, 1979, vol. X XV 11, n° 3
3 - MODELES SUIVIS PAR LES COMPOSANTES D’UN PROCESSUS VECTORIEL APPARTENANT A LA CLASSE DES ARMA
Dans
l’analyse
des sériestemporelles,
unproblème important
est celui de l’identification(spécification)
du modèle dans la classe des modèles linéaires ARMA.Pour tenter de résoudre ce
problème difficile,
BOX et JENKINS[3]
ontproposé,
dans le cas des séries
temporelles univariées,
d’utiliser la fonction d’autocorrélation estimée et la fonction d’autocorrélationpartielle
estimée. L’extension d’une telleprocédure
au cas des sériestemporelles
multidimensionnelles est actuellement diffi- cile car on ne sait pas très bienanalyser
la structure des matrices de corrélation d’un processus ARMA multivarié.Pour
palier
à cet inconvénient nous proposerons auparagraphe
suivant uneméthode d’identification
(spécification) qui
nécessitel’analyse
de chacune descomposantes
de lachronique
multidimensionnelle. A ceteffet,
il est nécessaire de trouver les modèles suivis par lescomposantes
d’une variable aléatoire vectorielle zt satisfaisant àl’équation
d’un ARMA multivarié.Pour cela considérons le cas d’un modèle
autorégressif AR(p)
dont le pro-cessus
m-vectoriel zt soit
solution de :~(B)zt = (I-~1B = ...-~1Bp)zt
= atou encore, en
décomposant
la matricecp(B)
en bloc de matrices :avec :
Hl (B)
unopérateur scalaire, H2 (B)
etH3 (B)
des matrices de dimension(m - 1 , 1)
et03A6m-1 (B) l’opérateur
matriciel(m - 1, m - 1).
A l’aide de ces blocs et si
03A6m-1(B)
estinversible,
on obtient :avec :
Pour
exprimer (3.2)
sous forme depolynomes
en Bappliqués
à la compo- sante z1t et auxcomposantes
du bruit at,multiplions (3.2)
par le déterminant de03A6m-1 (B),
soit :où
03A6*m-1 (B)
est la matriceadjointe
de03A6m-1 (B)
A
partir
de(3.3)
onpeut
conclure que lacomposante zit,
issue d’un pro-cessus multivarié
AR(p),
suit engénéral
un processusautorégressif
avec bruitcorrélé
(il
en serait de même des autrescomposantes).
Si les matricesH2 (B)
et39
H1(B)
n’ont pas de facteurs communs avec la matrice03A6m-1(B), il
s’ensuit que lacomposante
z 1 t suit un processus ARMA dont l’ordre del’autorégressif
estmp
(il
en serait de même des autrescomposantes
duprocessus).
A titre
d’exemple,
considérons tout d’abord le modèleautorégressif
bivarié :La résolution du
système
matriciel conduit à :Il
apparait
ainsi que la composante z 1 t suit un processusautorégressif
engénéral
d’ordre 2 avec des erreurs corrélées(si
an et a2t sontcorrélés).
Si l’on se
place
dansl’hypothèse
où le coefficient~12
est nul(pas
de rétro-action ou "feedback" de z2 sur
z1),
alors le modèle(3.5) après simplification
par 1-~22
B s’écrit sous la forme d’unAR(1 ) :
En
développant
des calculs similaires sur lacomposante
z2t, on montre aisé- ment en conservantl’hypothèse
de non rétroaction de Z2 sur z1, que l’on retombesur le modèle de BOX et JENKINS avec fonction de transfert
v(B) :
où
v(B) s’exprime
comme lerapport
de deuxpolynomes
dedegré
un et où lavariable
exogène
z 1 t est non corrélée au bruit blanc ~t+k pour tout k.Considérons maintenant un modèle moyenne mobile
MA(q)
multivarié. La relation(2.7)
montre que la matrice de covariancerk
est nulle dès que ledécalage
k est
supérieur
à l’ordre q du MA multivarié. Cettepropriété implique
que l’auto- covariance dechaque composante de z t est
nulle dès que ledécalage
k estsupérieur
à q.
Chaque composante
suit donc un modèle MA univarié d’ordre auplus égal
àl’ordre du modèle MA multivarié.
4 - PROCEDURES DE CONSTRUCTION D’UN MODELE ARMA
Une
approche
similaire à laprocédure
itérativeproposée
par BOX et JENKINS[3] peut
être utilisée pour la construction d’un modèlestochastique
multivarié.Cette
méthodologie comprend
lesphases
suivantes :1)
Considérer une classe de modèlesstochastiques
linéaires suffisammentgé-
nérale pour couvrir les situations variées et identifier
(spécifier)
une sous classe demodèles
compatibles
avec les donnéesmultiples ;
2)
Estimer lesparamètres
inconnus du modèle multivarié dans la sous classe retenue ;Revue de Statistique Appliquée, 1979, vol. XXVII, n° 3
3)
Contrôler la validité dumodèle,
itérer laprocédure
si les testsstatistiques
sont
négatifs.
a) Spécification
Cette
première phase
consiste à sélectionner les ordres p et q du processus ARMA multivarié ensupposant
que la série multidimensionnelle observée est uneréalisation de ce processus. Au
préalable,
il convient de "stationnariser" chacune des sériescomposantes
observées. A ceteffet,
on utilise lesopérateurs
différences(1 - B)d et/ou
les différences saisonnières(1 - Bs)D
si s est lapériodicité
cf. BOXet JENKINS
[3]
etplus généralement,
les transformations de BOX et COX[2]
ou de ANSLEY [ 1 ].
Les outils
statistiques
utilisés pour cettephase
d’identification sousprinci- palement
la fonction matricielle de covariance estimée k ~Ck
et la fonction matri-cielle de corrélation croisée estimée k ~
Rk,
donnéesrespectivement
par :où
zi
etZj
sontrespectivement
les moyennes des sériescomposantes
stationnaires ziet
zj(1 i , j m)
et
Ces outils sont actuellement d’un
emploi
peu commode car il est difficile de déceler la structurethéorique
de la fonction matricielle des corrélations croisées àpartir
de son estimation.HAUGH
[9],
HAUGH et BOX[10],
PIERCE[17] utilisent,
dans le cas dedeux
séries,
uneprocédure
à deuxétapes.
Lapremière étape
consiste à identifier(spécifier)
pour chacune desséries, préalablement "stationnarisée",
un modèleARMA
univarié,
ladeuxième,
vise à identifier le modèle ARMA bivarié reliant les deux bruits blancs estimés(ou résidus)
issus des modèles univariés estimés. Cette identification s’effectue àpartir
de la fonction de corrélation croisée estimée des résidus. En combinant les modèles issus des deuxétapes,
on en déduit la formedu modèle bivarié sur la série bidimensionnelle initiale.
GRANGER et NEWBOLD
[6] adoptent
uneprocédure
similaire. ZELLNER et PALM[24]
et WALLIS[20]
utilisent le fait que les modèles ARMAprésentés
en
(2.2) peuvent
s’écrire :où 03A6*(B)
est la matriceadjointe de 03A6(B)
et où les racines dedet 03A6(B)
= 0 sontsupposées
être à l’extérieur dudisque
unité. Il s’ensuit que chacune des séries suitun modèle ARMA. Ces modèles ARMA
présentent généralement
le même ordreet les mêmes
paramètres
pour leurpartie autorégressive.
41
Dans le cas
particulier
d’un effet unidirectionnel entre deux variables(pas
de
rétroaction)
BOX et JENKINS[3] proposent
d’utiliser un modèle linéairedynamique (fonction
detransfert).
L’approche qui
est discutée ici utilise les informations issues del’analyse
univariée de
chaque
sériecomposante.
Deplus,
il est tenucompte
despropriétés suivantes,
énoncées dans lapartie
3 :(i)
Si le modèle multivarie est unAR(p)
alorschaque
sériecomposante
suitun modèle ARMA
(p , q)
oùp
p ;(ii)
Si le modèle multivarié est unMA(q)
alorschaque
série composante suit aussi unMA(q)
ouq
q.La
spécification
du modèle multivarié revient àprendre
un modèle de mêmenature que les modèles univariés i.e. si
chaque
sériecomposante
suit un MA dont l’ordre maximum est q, le modèle multivarié aura pour structure unMA(q),
sichaque
sériecomposante
suit un ARMA et si p(respectivement q) représente
l’ordre minimum
(respectivement maximum)
desparties autorégressives (respecti-
vement moyennes
mobiles),
le modèle multivarié sera un ARMA(p, q).
b)
EstimationAprès
avoirspécifié
la structure du modèle i.e. lesopérations
de "station- narisation" et les ordres p, q du modèle ARMA(éventuellement
les ordres P etQ
du modèle saisonniermultiplicatif)
on doit estimer lesparamètres
matriciels.Les
procédures
d’estimation desparamètres
matriciels du modèle ARMA multivariélorsque
les ordres p et q sontspécifiés, s’appuient généralement
sur laméthode du maximum de vraisemblance dans le cas où le processus vectoriel bruit blanc est
normal.
WILSON[22]
propose uneprocédure
itérativequi
per- metd’approximer
la fonction de vraisemblance desparamètres
enprenant
les valeurs dedémarrage des at
nuls. Ceci suppose que les valeurs dedémarrage
ontun effet
négligeable
sur la fonction de vraisemblancelorsque
le nombre d’obser- vations sur la série multidimensionnelle zt estgrand.
Cetteprocédure généralise l’algorithme
deMarquardt (cf.
DRAPERet
SMITH[5]). HILLMER [11] et OSBORN [16]
utilisent une méthode similaire en relaxant la condition sur les valeurs dedémarrage des at
et en calculant la fonction de vraisemblance exacte.c)
Contrôle-validationCette
phase permet
de testerl’adéquation
du modèle estimé à la série mul-tiple
observés. Deuxtypes
de contrôle sont mis enplace
sur les résidus.1)
Tests à l’aide de la fonction d’autocorrélation et de la fonction de corrélation croiséeSi le modèle est correctement
spécifié
et si on connaît les vraies valeurs desparamètres
dumodéle,
les bruits vectorielsat
sontindépendants, d’espérance
nulleet de matrice de covariance n
i.e., E(ata’t+k) = 03B4k0
03A9. On montre, cf. BOX etJENKINS
[3] que
les coefficients d’autocorrélation estimés rii(k) de ait (1
im)
sont non corrélés et
asymptotiquement indépendants
et distribués suivant une loi normale de moyen zéro et de variance n-1(où
n est le nombre de donnéesdispo-
Revue de Statistique Appliquée, 1979, vol. XXVII, n° 3
nibles pour
chaque série).
Dans la réalité on estime le modèle et on observe les résidusâ t,
on est ainsi amené à calculerrii (k)
àpartir
des résidusâ it .
On montrecependant
que les{ii(k)}
ont la même distributionasymptotique
que les{rii(k)}.
De
plus,
on montre que cette dernièrepropriété
reste valablelorsque
l’on utilise les coefficients de corrélation croisés estimés rij(k)
entre les deux sériesindépen-
dantes ait et ajt
(cf.
HAUGH[9],
HAUGH et BOX[10]).
Ces
propriétés statistiques permettent
de tester pourchaque
coefficient d’auto- corrélation(de
corrélationcroisée) l’hypothèse
nullepii(k)
= 0(ou pij(k)
=0).
2)
Test dit du"portmanteau"
Un autre test
peut
être utilisé pour contrôlerl’indépendance
de deux séries ait et ajt(1 i, j
c m ; i~ j).
Ce test utilise lastatistique Q = n 03A3 2ij(k)
où K est un ensemble de
décalages.
Cettestatistique,
sousl’hypothèse
nulle d’indé-pendance
des deuxséries,
estasymptotiquement
distribuée comme unX2
dedegrés
M
de liberté card K. En
particulier,
siQM ==
n03A3 rij(k) ~2M+ 1(03B1) on rejettera
k= -M
l’hypothèse d’indépendance
des deuxséries,
au seuil a oùA
partir
de lastatistique QK
HAUGH et BOX[10],
PIERCE[17]
montrentqu’il
estpossible
de vérifier des schémas de causalité entre deux séries zi et zj.d)
Prévision àpartir
des modèles ARMA multivariésDans la classe des modèles univariés ARIMA
(p, d, q),
onpeut
montrer en utilisant la théoriegénérale
de laprédiction développée principalement
par KOL- MOGOROV[14]
et WIENER[21]
que leprédicteur
linéaire de l’observation future Zn+Qqui
minimisel’espérance
du carré de l’erreur deprévision,
connaissant les valeurspassées
Zg,S n, est donnée parl’espérance
conditionnelleCette fonction linéaire des valeurs
passées
se calcule facilement àpartir
deEn
effet,
ensupposant
que le processus(4.1)
estinversible,
onpeut
déve-lopper
en série entière7r(B)
=(1 - B)d ~(B)/03B8(B)
= 1 - 03C01B - 03C02B2 -
... etA
partir
de(4.2)
BOX et JENKINS[3]
montrent que43
Dans le cas des processus
m-vectoriels,
la formule(4.3) peut
êtregénéra-
lisée en
remplaçant
la suite des03C0()j
par la suite des matricesII(~)i
de dimension(m, m).
Cettegénéralisation correspond
auprédicteur
linéairezn (Q) optimal
dansle sens où la matrice de covariance
V.(9)
du vecteur erreurdé prévision 5 (Q)
=zn+~ - n(~)
est laplus petite(1)
cf. GRANGER et NEWBOLD[6]).
5 - CONCLUSION
Dans cet
article,
nous avons tout d’abordprésenté
la classe des processusstochastiques
vectoriels stationnaires ARMA en insistant sur le fait que la facto- risationcanonique
d’un processus, àpartir
de sa fonctiongénératrice
decovariance,
n’était pasunique.
Nous avons donné aussiquelques exemples
de processus ARMAen
indiquent
quel’équation
aux différences sur la fonction d’autocovariance(équa-
tion de Yules
WALKER)
segénéralisait
au cas multidimensionnel. Malheureuse- ment, l’état actuel des recherches dans ce domaine nepermet
pas d’utiliser les relations de Yules WALKERgénéralisées
pour identifier le processus vectorielcomme dans le cas unidimensionnel.
Enfin,
nous avonsproposé
uneprocédure
d’identification(spécification)
de modèles ARMA multivariés àpartir,
d’unepart,
del’analyse
de chacune descomposantes
de la série à l’aide de la démarche BOX et JENKINS et d’autrepart,
des résultatsthéoriques
démontrés à lapartie
3.Quelques exemples d’application
del’analyse
des sériestemporelles
multi-dimensionnelles
(macroéconomie,
macroéconomiefinancière, etc.)
utilisant lesprocédures
soit de HAUGH[9]
soit de ZELLNER et PALM[24]
ont été récem-ment
publiés (cf.
CRAMER et MILLER[4],
HAUGH et BOX[10],
WALLIS[20],
ZELLNER et PALM[24]).
Plusieursapplications pratiques,
dans le do-maine de la
macroéconomie,
sont en cours d’élaboration en utilisant laprocé-
dure de l’auteur.
REFERENCES
[1]
ANSLEYC.F.,
SPIVEY W.A. and WROBLESKY W.J. - A class of transfor- mations for BOX and JENKINS seasonal models.Appl.
Statist.(1977), 26, n° 2,173-177.
[2]
BOX G.E.P. and COX D.R. - Ananalysis
oftransformation,
Journalof Royal,
Stat.
Soc., Series B,
26(1964), 211-252.
(1) Soient deux matrices Vi et V2 de dimension (m,m) définies positives, VI est dite plus petite que V2 si
u’V1u u’V2u
pour tout vecteur non nul u de dimension (m, 1).Revue de Statistique Appliquée, 1979, vol. XXVII, n° 3
[3]
BOX G.E.P. and JENKINS G.M. - Time SeriesAnalysis, Forecasting
andControl,
HoldenDay,
SanFrancisco, 1976.
[4]
CRAMER R. and MILLER R. -Dynamic modelling
of multivariate time series for use in bankanalysis,
Jour.of Money,
Credit andBanking,
Vol.VIII, n° 1, Feb. 1976.
[5]
DRAPER N.R. and SMITH H. -Applied Regression Analysis, Wiley,
NewYork, 1966.
[6]
GRANGERC.W.J.,
and NEWBOLD P. -Forecasting
Economic TimeSeries,
AcademicPress,
NewYork, 1977.
[7]
HANNAN E.J. - TimeSeries Analysis, Methuen, Londres, 1960.
[8]
HANNANE.J. 2014 Multiple
TimeSeries, Wiley,
New York 1970.[9]
HAUGH L.D. - TheIdentification of
Time SeriesInterrelationships
withSpecial Reference
toDynamic Regression Models,
Ph. D.Thesis,
Univer-sity of Wisconsin, Madison, 1972.
[10]
HAUGH L.D. and BOX G.E.P. - Identification ofDynamic Regression (Distributed Lag)
ModelsConnecting
Two TimeSeries, JASA, 72, 1977,
121-130.[11] HILLMER
S.C. - Time Series :Estimation, Smoothing
and SeasonalAdjust- ing,
Ph. D.Thesis, University of Wisconsin, Madison, 1976.
[12]
INDJEHAGOPIAN J.P. - Modeles ARMAmultidimensionnels,
uneprocé-
dure de
construction,
Document de Recherche78.001, CERESSEC,
Centrede Recherche de
l’ESSEC,
Mai 1978.[13] INDJEHAGOPIAN
J.P. - Uneprocédure
de construction de modèles ARIMA multivariés.Application.
Actes duColloque
StructuresEconomiques
etEconométrie, Départ,
deMathématiques,
Université ClaudeBERNARD,
Lyon,
Mai1978,
p. II-13 à II-28.[14]
KOLMOGOROV A.N. -Interpolation
andExtrapolation
ofStationarity
Random
Sequence, 1941,
Translation RandCorp.
SantaMonica, Calif.,
RM - 2090 - PR.
[15] LEDOLTER
J. - A Multivariate Time SeriesApproach
toModelling
Macro-Economic
Sequences,
R.M.77-33,
International Institut forApplied Systems Analysis, Laxenburg, Asutria, 1977.
[16]
OSBORN D.R. - Exact andapproximate
maximum likehood estimators formoving
averageprocesses, Journal of Royal
Stat.Soc.,
SerieB, 38, (1977),
114-118.
[17]
PIERCED.A. 2014 Relationships -
and the Lack Thereof - Between Economic TimeSeries,
withSpecial
Reference toMoney
and InterestRates, (with discussion), JASA,
72(1977), 11-26.
[18] QUENOUILLE
M.H. - TheAnalysis of Multiple
TimeSeries, Griffin, London, 1957.
[19]
ROZANOV Y.A. -Stationary
RandomProcesses, Holden-Day,
SanFrancisco,
1967.
[20]
WALLIS K.F. -Multiple
Time Series and the Final form of EconometricModels, Econometrica,
vol.45, n°
6(september 1977).
45
[21]
WIENER N. - TheExtrapolation, Interpolation
andSmoothing of Stationary
Time
Series, Wiley,
NewYork, 1949.
[22]
WILSON G. - The Estimation of Parameters in Multivariate Time SeriesModels,
Journalof Royal
Stat.Soc.,
SerieB,
35(1973),
76-85.[23]
WOLD H.O. 2014 Astudy
in theanalysis of stationary
timeseries, Almquist
and
Wicksell, Upsala,
2ndEdition, 1954.
[24]
ZELLNER A. and F. PALM. - Time SeriesAnalysis
and SimultaneousEqua-
tion Econometric
Models,
Journalof Econometrics, 2, (1974), 17-54.
Revue de Statistique Appliquée, 1979, vol. XXVII, n° 3