• Aucun résultat trouvé

Ann´eeacad´emique2011-2012AbdelkamelALJ ContributiontotheestimationofVARMAmodelswithtime-dependentcoefficients. Facult´edesSciencesD´epartementdeMath´ematique Universit´eLibredeBruxelles

N/A
N/A
Protected

Academic year: 2021

Partager "Ann´eeacad´emique2011-2012AbdelkamelALJ ContributiontotheestimationofVARMAmodelswithtime-dependentcoefficients. Facult´edesSciencesD´epartementdeMath´ematique Universit´eLibredeBruxelles"

Copied!
33
0
0

Texte intégral

(1)

Universit´e Libre de Bruxelles Facult´e des Sciences

D´epartement de Math´ematique

Contribution to the estimation of VARMA models with time-dependent coefficients.

Th`ese pr´esent´ee en vue de l’obtention du grade de Docteur en Sciences, orientation statistique

Promoteurs: Guy M´elard et Siegfried H¨ormann

(2)
(3)
(4)
(5)

REMERCIEMENT

D’abord, je voudrais exprimer ma profonde gratitude et ma reconnaissance envers mon- sieur le professeur Guy M´elard qui m’a propos´e le sujet de cette th`ese. Sa modestie, sa sympathie, sa patience et ses qualit´es humaines m’ont facilit´e la pr´eparation de ce travail.

La pr´eparation de ce travail ne se serait pas r´ealis´ee sans ses conseils, ses encouragement, ses interventions et son aide continue. Je le remercie infiniment pour le grand honneur qu’il m’a accord´e.

Je tiens `a remercier tr`es vivement monsieur le professeur Siegfried H¨ormann mon co- directeur de th`ese. Nos discussions ces derniers temps m’ont tr`es b´en´efiques. Il me fait un grand honneur d’ˆetre mon co-promoteur de th`ese.

J’exprime ma gratitude `a monsieur le professeur Davy Paindaveine pour sa gentillesse et aussi pour avoir accept´e d’ˆetre le pr´esident du jury de soutenance.

Un merci sp´ecial revient `a madame le professeur Rajae Azrak pour ses remmarques

Je remercie chaleureusement mesdames les professeurs Catherine Dehon et Catherine Vermandele ainsi que monsieur le professeur S´ebastien Van Bellegem d’avoir accept´e de faire partie du jury de ma th`ese.

Je voudrais remercier mes coll`egues de bureau et amis Germain, Christophe, Nicolas, R´emi, Sarah, Maude et Christopher pour les tr`es bons moments que nous avons v´ecus

(6)

discussions qui m’ont permis de voir plus clair dans certains probl`emes.

Une aide pr´ecieuse m’est venue de la part des secr´etaires, mesdames Jacqueline Botte- manne, Patricia Semeraro et Val´erie Baijot. Merci pour leur efficacit´e et leur dynamisme.

Je tiens ´evidemment `a remercier ma famille, et tout sp´ecialement mes parents, ma femme Siham, mes fr`eres et soeurs, pour leur soutien moral et mat´eriel inconditionnel du- rant toutes mes ´etudes et pour tous les moments forts et joyeux que j’ai pu passer avec eux.

Enfin, je remercie mon tr´esor Kenza pour sa pr´esence et son sourire qui m’a donn´e de l’´energie pour terminer ma th`ese.

(7)

R ´ESUME´

Dans cette th`ese, nous ´etudions l’estimation de mod`eles autor´egressif-moyenne mobile vectoriels ou VARMA, `a coefficients d´ependant du temps, et avec une matrice de covariance des innovations d´ependant du temps. Ces mod`eles sont appel´es tdVARMA. Les ´el´ements des matrices des coefficients et de la matrice de covariance sont des fonctions d´eterministes du temps d´ependant d’un petit nombre de param`etres. Une premi`ere partie de la th`ese est consacr´ee `a l’´etude des propri´et´es asymptotiques de l’estimateur du quasi-maximum de vraisemblance gaussienne. La convergence presque sˆure et la normalit´e asymptotique de cet estimateur sont d´emontr´ees sous certaines hypoth`eses v´erifiables, dans le cas o`u les coefficients d´ependent du tempst mais pas de la taille des s´eriesn. Avant cela nous con- sid´erons les propri´et´es asymptotiques des estimateurs de mod`eles non-stationnaires assez g´en´eraux, pour une fonction de p´enalit´e g´en´erale. Nous passons ensuite `a l’application de ces th´eor`emes en consid´erant que la fonction de p´enalit´e est la fonction de vraisemblance gaussienne (Chapitre 2). L’´etude du comportement asymptotique de l’estimateur lorsque les coefficients du mod`ele d´ependent du temps t et aussi de n fait l’objet du Chapitre 3.

Dans ce cas, nous utilisons une loi faible des grands nombres et un th´eor`eme central lim- ite pour des tableaux de diff´erences de martingales. Ensuite, nous pr´esentons des con- ditions qui assurent la consistance faible et la normalit´e asymptotique. Les principaux r´esultats asymptotiques sont illustr´es par des exp´eriences de simulation et des exemples dans la litt´erature. La deuxi`eme partie de cette th`ese est consacr´ee `a un algorithme qui nous permet d’´evaluer la fonction de vraisemblance exacte d’un processus tdVARMA d’ordre (p, q) gaussien. Notre algorithme est bas´e sur la factorisation de Cholesky d’une matrice bande partitionn´ee. Le point de d´epart est une g´en´eralisation au cas multivari´e de M´elard (1982) pour ´evaluer la fonction de vraisemblance exacte d’un mod`ele ARMA(p, q) uni- vari´e. Aussi, nous utilisons quelques r´esultats de Jonasson et Ferrando (2008) ainsi que les programmes Matlab de Jonasson (2008) dans le cadre d’une fonction de vraisemblance gaussienne de mod`eles VARMA `a coefficients constants. Par ailleurs, nous d´eduisons que

(8)

dep,qetnest approximativement le double par rapport `a un mod`ele VARMA `a coefficients constants. L’impl´ementation de cet algorithme a ´et´e test´ee en comparant ses r´esultats avec d’autres programmes et logiciels tr`es connus. L’utilisation des mod`eles VARMA `a coeffi- cients d´ependant du temps apparaˆıt particuli`erement adapt´ee pour la dynamique de quelques s´eries financi`eres en mettant en ´evidence l’existence de la d´ependance des param`etres en fonction du temps.

(9)

CONTENTS

1 Synopsis 1

1.1 Introduction et motivations . . . 1

1.1.1 D´efinition et notations . . . 3

1.1.2 Objectifs . . . 4

1.2 Contributions de la th`ese . . . 5

1.2.1 R´esultats du chapitre 2 . . . 5

1.2.2 R´esultats du chapitre 3 . . . 6

1.2.3 R´esultats du chapitre 4 . . . 6

2 Conclusion et perspectives 10

Bibliography 12

(10)
(11)

1 SYNOPSIS

1.1 Introduction et motivations

Dans la litt´erature de l’analyse des s´erie chronologiques la classe des mod`eles autor´egressifs moyenne-mobile (ARMA), introduite par Box et Jenkins au d´ebut des ann´ees 70, a ´et´e au centre d’int´erˆet de beaucoup des travaux de recherches ce qui lui a garanti un d´eveloppement consid´erable et un grand succ`es dans de multiples domaines d’application. Dans le cas scalaire ce mod`ele suit la sp´ecification suivante :

xt

p

X

i=1

Aixti=t+

q

X

j=1

Bjtj, (1.1.1)

o`u les coefficientsAi etBjsont des constantes ettest un processus bruit blanc (lestsont des variables al´eatoires ind´ependantes, identiquement distribu´ees, telles queE(t) = 0et var(t) =σ2). Le mod`ele d´efini en (1.1.1) est une fonction lin´eaire de valeurs pass´ees de la variable{xt, t∈N}et des valeurs pr´esente et pass´ees des innovations{t, t∈N}. Malgr´e, la simplicit´e de cette mod´elisation, elle pr´esente quelques limitations : (i) sa lin´earit´e, (ii) elle est invariante dans le temps (les coefficients du mod`ele sont constants), des caract´eristiques difficiles `a justifier pour de longues p´eriodes. Ces limitations du mod`ele ARMA stationnaire sont `a l’origine de nombreux travaux de recherche pendant les quatre derni`eres d´ecennies dans l’objectif de proposer des g´en´eralisations dans plusieurs directions. Par cons´equent, cet int´erˆet a donn´e naissance `a des mod`eles non lin´eaires avec une litt´erature abondante (voir, par exemple, Priestley, 1988; Hamilton, 1989; Tong, 1990; Granger et Ter¨asvirta, 1993; Tsay, 2005) et des mod`ele non-stationnaires (voir, par exemple, Abdrabbo et Priest- ley, 1967; Hallin et Ingenbleek, 1983; Priestley, 1988; Hallin, 1989).

Dans le domaine de l’application statistique des mod`eles non-stationnaires, la litt´erature s’est abondamment focalis´ee sur les mod`eles `a coefficients p´eriodiques (voir Tiao and Grupe, 1980; Anderson and Vecchia, 1993; Bentarzi and Hallin, 1993; Basawa and Lund, 2001). Et ceci contrairement au mod`ele g´en´eral `a coefficients d´ependant du temps qui

(12)

a ´et´e peu ´etudi´e dans la litt´erature que ce soit du point de vue th´eorique ou du point de vue pratique. L’une des difficult´es est l’absence de la stationnarit´e et la pr´esence de l’h´et´erosc´edasticit´e. Parmi les auteurs qui se sont int´eress´es `a ces mod`eles nous citons Quenouille (1957), Miller (1968, 1969), Subba Rao (1970), Wegman (1974), Hallin and M´elard (1977), M´elard et Kiehm (1981), M´elard (1982), Hallin (1986).

Les propri´et´es asymptotiques des mod`eles `a coefficients d´ependant du temps ont ´et´e peu investigu´ees dans la litt´erature. Parmi les auteurs qui se sont int´eress´es `a l’´etude des propri´et´es asymptotiques des mod`eles `a coefficients d´ependant du temps, citons Tyssedal et Tjøstheim (1982), Tjøstheim et Paulsen (1983), Kwoun et Yajima (1986), Hamdoune (1995), Dahlhaus (1997), Bibi and Francq (2003), Francq and Gautier (2004a, b, c) et d’autres. Dahlhaus (1996c) a ´etudi´e les propri´et´es asymptotiques d’un estimateur d’un mod`ele autor´egressif `a coefficients d´ependant du temps (tdAR) mais localement station- naire. Azrak et M´elard (2006) ont donn´e des conditions de convergence et de normalit´e asymptotique de l’estimateur du quasi-maximum de vraisemblance (QMV) pour un mod`ele ARMA `a coefficients d´ependant du temps (tdARMA) scalaire. Plus pr´ecis´ement ils ont trait´e des mod`eles dont les coefficients et la variance des erreurs sont des fonctions d´e- terministes du temps, et elles d´ependent aussi de la taille de la s´erie, ce qui est consid´er´e comme une source suppl´ementaire de difficult´es.

Le probl`eme d’estimation des mod`eles VARMA, la version multivari´ee de (1.1.1) `a attir´e l’attention de plusieurs auteurs et les travaux dans la litt´erature se sont focalis´es sou- vent sur la m´ethode de maximum de vraisemblance gaussienne citons par exemple Hillmer et Tiao (1979), Hall et Nicholls (1980), Shea (1984, 1987, 1989) et Mauricio (1995, 1996).

Notons que les r´esultats d’Ansley et Newbold (1980) en utilisant des simulations de Monte Carlo montrent que pour des mod`eles ARMA scalaires et pour des s´eries courtes la m´ethode exacte pour l’´evaluation de la fonction de vraisemblance est meilleure que la m´ethode con- ditionnelle ou la m´ethode des moindres carr´es. D’autre part, il existe trois approches prin- cipales pour ´evaluer la fonction de vraisemblance exacte d’un mod`ele VARMA gaussien.

Parmi ces trois approches, il y en a deux qui sont tr`es connues : la premi`ere est bas´ee sur la factorisation de Cholesky, la deuxi`eme est bas´ee sur le filtre de Kalman. Penzer et Shea (1997) et Mauricio (2002) montrent que les m´ethodes bas´ees sur la factorisation de

2

(13)

Cholesky sont plus efficaces et plus rapides dans plusieurs cas.

1.1.1 D´efinition et notations

Soit (Ω,F,P) un espace de probabilit´e. On consid`ere un processus stochastique{xt, t∈N} ou {xt, t ∈ Z}, selon le cas, et `a valeur dans Rr avec r ≥ 1. Si r = 1 le processus est dit univari´e. Sir >1le processus est dit multivari´e ou vectoriel. Dans cette section nous nous contentons de rappeler la d´efinition d’un processus tdARMA scalaire accompagn´ee d’un exemple sans introduire les d´etails (M´elard, 1985; Azrak, 1996; Azrak et M´elard, 2006).

Processus ARMA(p,q) `a coefficients d´ependant du temps

Un processus ARMA scalaire{xt, t∈N} `a coefficients d´ependant du temps (tdARMA) est solution de l’´equation aux diff´erences stochastique suivante :

xt=

p

X

i=1

At,ixti+gtt+

q

X

j=1

Bt,jgtjtj, (1.1.2) o`u les coefficientsAt,i etBt,j ainsi quegt sont des fonctions d´eterministes de temps,test un bruit blanc,petqsont des constantes. Des conditions initiales doivent ˆetre p´ecis´ees, par exemple quext=t= 0pourt <1.

Example 1.1.1 tdARMA(1,1)

Le processus suivant repr´esente un cas particulier de (1.1.2) avecp= 1etq= 1est appel´e tdARMA(1,1) :

xt=Atxti+gtt+Btgttj.

avec t est un bruit blanc et les coefficients At et Bt ainsi que gt qui sont des fonctions d´eterministes d´ependant d’un petit nombre de param`etres et du temps, d´efinies, par exem- ple, par









At=A0+n11(t−n+1

2 )A00, Bt=B0+n11(t−n+1

2 )B00, gt= expn

2nη1(t−n+1

2 )o .

o`uA0, A00, B0, B00 etηsont des param`etres r´eels. Le choix de ces fonction est faite pour que le processus ne soit pas explosif (|At|< 1), et pour que les variances ne soient pas

(14)

n´egatives. SiA00,B00etηsont assez petits, les coefficients varieront dans le temps mais pas trop.

Ce mod`ele est donc une alternative r´ealiste au mod`ele `a coefficients constants tout en permettant une ´evolution lente. D’autres choix de fonctions sont possibles, y compris des fonctions pr´esentant des ruptures ou des variations p´eriodiques. Nous ne discutons pas dans ce travail de la sp´ecification de ces fonctions ni d’ailleurs du choix depet deq, pour lesquels les m´ethodes de sp´ecification usuelles ne sont plus valides en toute rigueur.

1.1.2 Objectifs

A notre connaissance l’estimation du mod`eles (1.1.2) dans le cas multivari´e ou vectoriel (tdVARMA) n’a ´et´e jamais abord´e sauf M´elard (1985, p. 35) qui l’a esquiss´ee. Dans notre travail, nous nous y int´eressons en ´etudiant les propri´et´es asymptotiques des estima- teurs du maximum de vraisemblance ce qui nous permet d’´etendre au cas multivari´e les r´esultats trouv´es dans Azrak et M´elard (2006). Dans notre travail, nous ´etudions la th´eorie asymptotique en consid´erons deux mod`eles tdVARMA diff´erents, (i) dans le premier les coefficients d´ependent d’un petit nombre des param`etres et du temps, (ii) dans le deuxi`eme not´e par tdVARMA(n)les coefficients d´ependent aussi de la taille de la s´erien. Notons que l’approche suivie ici est diff´erente de celle de Dahlhaus (1996a, b, c) qui se base sur des pro- cessus localement stationnaires. Ensuite, nous proc´edons `a l’estimation des param`etres du mod`ele tdVARMA en appliquant la m´ethode de quasi-maximum de vraisemblance. Nous proposons pour ce faire un algorithme qui permet d’´evaluer la fonction de vraisemblance exacte dans le cas o`u le processus des innovations est gaussien. Cet algorithme se base sur la m´ethode de Cholesky et pr´esente une g´en´eralisation de l’algorithme de M´elard (1982) du cas scalaire au cas multivari´e et de Jonasson et Ferrando (2008) du cas stationnaire au cas d´ependant du temps.

4

(15)

1.2 Contributions de la th`ese

1.2.1 R´esultats du chapitre 2

Les propri´et´es asymptotiques des estimateurs du maximum de vraisemblance des mod`eles ARMA `a coefficients d´ependant du temps sont tr`es peu d´evelopp´ees dans la litt´erature,

´etant donn´e les difficult´es pour v´erifier les conditions de convergence et de la normalit´e asymptotique. Ces complications sont dues au fait que la difficult´e est multiple :

• les observations ne sont pas ind´ependantes;

• les observations ne sont pas des r´ealisations d’un processus stationnaire et ergodique;

• les observations ne sont pas identiquement distribu´ees, notamment par le fait que les coefficients et la variance des erreurs d´ependent du temps.

Azrak et M´elard (2006) ´etablissent des conditions permettant la convergence presque sˆure et la normalit´e asymptotique des mod`ele tdARMA scalaire. Dans ce chapitre nous avons ´etendu ces r´esultats au cas multivari´e. Pour cela nous consid´erons les propri´et´es asymptotiques des estimateurs de mod`eles non n´ecessairement stationnaires, pour une fonc- tion de p´enalit´e g´en´erale (Klimko et Nelson, 1978). Ceci nous a permis de proposer deux th´eor`emes : le premier sur la convergence presque sˆure et le deuxi`eme sur la normalit´e asymptotique de l’estimateur du quasi-maximum de vraisemblance (QMV) en consid´erant comme fonction de p´enalit´e la fonction de vraisemblance gaussienne. Ensuite, nous ap- pliquons ces r´esultats `a des mod`eles tdVARMA(p, q) en montrant dans un th´eor`eme la convergence presque sˆure et la normalit´e asymptotique sous certaines hypoth`eses relative- ment v´erifiables. Notons que les d´emonstrations de tous les th´eor`emes propos´es reposent essentiellement sur la th´eorie des martingales et mixingales. Nous terminons ce chapitre par des exemples en g´en´eralisant l’exemple AR(1) `a coefficients d´ependant du temps donn´e par Kwoun and Yajima (1985) `a un mod`ele tdVAR(1). Des simulations qui confirment les r´esultats asymptotiques sont donn´ees.

(16)

1.2.2 R´esultats du chapitre 3

Dans ce chapitre, nous prouvons la convergence en probabilit´e et la normalit´e asymptotique de l’estimateur du QMV des mod`eles VARMA `a coefficients d´ependant du tempstet de la taille de la s´erien, not´es VARMA(n). En raison de la d´ependance des coefficients de la taille de la s´erien, les th´eor`emes utilis´ees au chapitre 2 c’est-`a-dire la loi forte des grands nom- bres de Stout (1974) et le th´eor`eme central limite de Basawa et Prakasa Rao (1980) pour les diff´erences de martingale ne peuvent plus ˆetre utilis´es dans ce cadre. En effet, les pro- cessus trait´es dans ce chapitre sont des tableaux de martingale. Par cons´equent, nous avons recours `a la th´eorie asymptotique pour des tableaux de martingale, ce qui n’a pas ´et´e facile

`a r´ealiser ´etant donn´e la raret´e des th´eor`emes pour les tableaux de martingale qui s’adaptent

`a notre contexte. Finalement, sous certaines conditions, nous avons montr´e, sous forme d’un th´eor`eme, la convergence faible et la normalit´e asymptotique de l’estimateur du QMV pour des processus tdVARMA(n), et cela par l’utilisation d’une loi faible des grands nom- bres et d’un th´eor`eme central limite pour des tableaux de martingale. Nous avons montr´e dans ce chapitre `a travers quelques exemples sous forme des cas particuliers et simples des mod`eles tdVARMA(n) que nos hypoth`eses sont relativement v´erifiables. Nos r´esultats num´eriques : (i) des simulations de Monte Carlo pour des mod`eles tdVAR(n) et tdVMA(n) qui montrent que la th´eorie asymptotique d´evelopp´ee dans ce chapitre s’applique approx- imativement pour des ´echantillons de petites tailles (n= 20,50,100), (ii) et des exemples empiriques qui mettent en ´evidence la n´ecessit´e des mod`eles `a coefficients d´ependant du temps.

1.2.3 R´esultats du chapitre 4

Dans ce chapitre, nous nous int´eressons `a l’´evaluation de la fonction de vraisemblance exacte d’un mod`ele tdVARMA gaussien, d’ordrep et q. Cela nous permet d’estimer les param`etres de ce mod`ele. M´elard (1982) a donn´e un algorithme qui permet le calcul de la fonction de vraisemblance exacte dans le cas d’un mod`ele tdARMA scalaire bas´e sur la factorisation de Cholesky. Notre premier objectif ´etait une g´en´eralisation de cet algo- rithme aux mod`eles tdVARMA. Le point de d´epart de cet algorithme consiste `a effectuer un changement de variables qui nous permet d’´ecrire la matrice de covariance des nou-

6

(17)

velles variables sous forme d’une matrice bloc bande ou bande partitionn´ee dont les blocs sont les matrices de covariances qui sont calcul´ees par des r´ecurrences. Le d´emarrage de la proc´edure d’estimation est bas´ee sur des conditions initiales, et sur les hypoth`eses de la stationnarit´e et l’inversibilit´e dans le pass´e c’est-`a-dire pour t ≤1. Jonasson et Ferrando (2008) ont donn´e un algorithme qui permet le calcul de la fonction de vraisemblance exacte dans le cas d’un mod`ele VARMA stationnaire bas´e sur la factorisation de Cholesky. De plus Jonasson (2008) l’a impl´ement´e dans Matlab. Pendant l’impl´ementation de notre algo- rithme intitul´e AMJ (pour Alj, M´elard et Jonasson) nous avons utilis´e quelques programmes Matlab de Jonasson (2008). L’exemple de la s´erie bivari´ee des rendements logarithmiques d’IBM et de l’indice Standard and Poor’s 500 (S&P500) de Tsay (2005) trait´ee en d´etail dans ce chapitre ainsi que les r´esultats des simulations montrent l’utilit´e des mod`eles tdVARMA.

La derni`ere partie de ce chapitre est consacr´ee a la pr´esentation d’une fiche technique des diff´erentes fonctions Matlab utilis´ees dans AMJ.

(18)

8

(19)

2 CONCLUSION ET PERSPECTIVES

Dans cette th`ese, nous avons ´etudi´e la classe des mod`eles VARMA(p,q) `a coefficients d´ependant du temps ou tdVARMA(p, q). La caract´eristique principale de ces mod`eles est leur non stationnarit´e : les coefficients ainsi que la matrice de covariance des innova- tions sont des fonctions d´eterministes du temps qui d´ependent aussi d’un petit nombre des param`etres.

Dans le chapitre 2, sous certaines hypoth`eses relativement v´erifiables, nous avons ´etabli la convergence forte et la normalit´e asymptotique de l’estimateur du quasi-maximum de vraisemblance (QMV) d’un mod`ele tdVARMA(p, q). D’apr`es nos r´esultats de simulation, la th´eorie asymptotique semble applicable mˆeme pour des s´eries tr`es courtes.

Dans le chapitre 3, nous nous sommes int´eress´es `a un mod`ele plus g´en´eral que celui du chapitre 2. C’est le mod`ele tdVARMA(n) (p, q) dont les coefficients d´ependent non seulement du temps mais aussi de la taille de la s´erie n. Cette d´ependance est la source de difficult´es ´etant donn´e la raret´e des outils asymptotiques pour les tableaux de martin- gale ou de mixingale. Malgr´e toutes ces difficult´es nous avons finalement pu montrer sous certaines conditions la convergence faible et la normalit´e asymptotique de l’estimateur du QMV. De plus, `a travers des exemples simples et des simulations il semble que les r´esultats asymptotiques fonctionnent mˆeme pour des s´eries de petites tailles.

Ensuite, nous avons abord´e le probl`eme de l’estimation des param`etres des mod`eles tdVARMA(p, q) ou tdVARMA(n)(p, q). Nous avons propos´e un algorithme bas´e sur la factorisation de Cholesky qui permet d’´evaluer la fonction de vraisemblance gaussienne d’une mani`ere exacte. Cet algorithme pr´esente une g´en´eralisation in´edite d’un algorithme dans la litt´erature. Nous d´eduisons que le nombre d’op´erations requis pour l’´evaluation de la fonction de vraisemblance en fonction dep,qetnest approximativement le double par rapport `a un mod`ele VARMA `a coefficients constants. L’exemple empirique choisi dans ce chapitre montre que (i) les coefficients des mod`eles d´ependent effectivement du temps; (ii) et que les mod`eles `a coefficients d´ependant du temps sont plus adapt´es `a ces s´eries en se basant sur quelques crit`eres d’informations. Nos r´esultats num´eriques et les tests effectu´es

(20)

sur notre programme AMJ montrent son efficacit´e malgr´e qu’il soit toujours moins rapide que les autres programmes.

Ce travail comporte de nombreuses extensions possibles. Une voie de recherche future pour le chapitre 2 est de trouver un ensemble plus large de fonctions qui v´erifient les hy- poth`eses de la th´eorie asymptotique et s’adapte au type des s´eries chronologiques en ques- tion. Une extension possible du chapitre 3 est d’´etendre les r´esultats asymptotiques (con- vergence en probabilit´e) vers une convergence presque sˆure. Cela nous laisse penser que la difficult´e majeure d´epend de l’existence d’une loi forte des grands nombres qui s’adapte

`a notre contexte. En outre, l’apparition r´ecente de quelques travaux qui s’int´eressent `a l’estimation semi param´etrique des mod`eles `a coefficients d´ependent du temps mais lo- calement stationnaire nous ouvre la porte pour ´etendre cela `a des mod`eles tdVARMA.

Dans le chapitre 4, nous avons propos´e un algorithme pour l’´evaluation de la fonction de vraisemblance gaussienne d’un mod`ele tdVARMA bas´e sur la factorisation de Cholesky.

Il pourrait ˆetre int´eressant de d´evelopper un algorithme bas´e sur le filtre de Kalman en g´en´eralisant Azrak et M´elard (1998) au cas multivari´e. Cela devrait permettre de traiter le cas de donn´ees manquantes. Le programme AMJ propos´e au chapitre 4 reste moins rapide.

Une autre m´ethode d’optimisation bas´ee sur les d´eriv´ees de la fonction objectif (ucminf) propos´e par Nielsen (2000) pourrait ˆetre consid´er´ee comme une alternative `a la fonction fminunc de Matlab et pourrait r´eduire le temps de calcul. Cependant son int´egration reste un champ de recherche `a exploirer car cela n´ecessiterait de programmer toutes les d´eriv´ees des r´ecurrences.

10

(21)

BIBLIOGRAPHY

[1] Aasnaes, H. and Kailath, T. (1973) An innovations approach to least-squares estima- tion, Pt. VII: Some applications of vector autoregressive moving average models, IEEE Trans. Automatic Control18(6), 601-607.

[2] Abdrabbo, N. A. and Priestley, M. B. (1967) On the prediction of non-stationary pro- cesses,J. Roy. Statist. Soc. Ser.B29, 570-585.

[3] Akaike, H.(1974) A new look at the statistical model identification,IEEE Transactions on Automatic Control19(6), 716723.

[4] Akaike, H. (1976) Canonical correlation analysis of time series and the use of an in- formation criterion, in R.K. Mehra, and D.G. Lainiotis (eds.)System Identification: Ad- vances and Case Studies, Academic Press, New York, NY., 27-96.

[5] Alj, A., Azrak, R., H¨ormann, S. and M´elard, G. (2012) An alternative central limit theorem for martingale difference arrays, in preparation.

[6] Anderson, O. D. (1980)Analyzing time series, North-Holland, Amsterdam.

[7] Anderson, O. D. and Vecchia, A. (1993) Asymptotic results for periodic autoregressive moving average processes,J. Time Ser. Anal.14, 1-18.

[8] Andrews, D. W. K. (1988) Laws of large numbers for dependent non-identically dis- tributed random variables,Econom. Theory4, 458-467.

[9] Ansley, C. F. (1979) An algorithm for the exact likelihood of a mixed autoregressive moving average process,Biometrika66, 59-65.

[10] Ansley, C. F., and Newbold, P. (1980) Finite sample properties of estimators for autoregressive-moving average models,J. Econometrics13, 159-183.

[11] Ansley, C. F. and Kohn, R. (1983) Exact likelihood of vector autoregressive-moving average process with missing or aggregated data,Biometrika70 (1), 275−278.

(22)

[12] Atchad`e, Y. F. (2009) A strong law of large numbers for martingale arrays, Technical report, Univ. of Michigan. Available at (http://www.stat.lsa.umich.edu/

˜yvesa/).

[13] Azrak, R. (1996) Contribution `a l’estimation de mod`eles non-stationaires, Thesis pre- sented at Universit´e Libre de Bruxelles.

[14] Azrak, R. and M´elard, G. (1998) Exact quasi-likelihood of time-dependent ARMA models,J. Statist. Plann. Inference68(1), 31−45.

[15] Azrak, R. and M´elard, G. (2006) Asymptotic properties of quasi-likelihood estimators for ARMA models with time-dependent coefficients,Statistical Inference for Stochastic Processes9, 279-330.

[16] Azrak, R. and M´elard, G. (2011) Autoregressive models with time-dependent coeffi- cients - A comparison with Dahlhaus’ approach, ECARES working paper, Universit´e Libre de Bruxelles.

[17] Azrak, R. and M´elard, G. (2012) Time series analysis by time dependent models, Chapter 4, book in preparation.

[18] Bar-Shalom, Y. (1971) On the asymptotic properties of the maximum-likelihood esti- mate obtained from dependent observations,J. Roy. Statist. Soc. Ser. B33, 72-77.

[19] Basawa, I. V. and Prakasa Rao, B. L. S. (1980) Statistical Inference for Stochastic Processes, Academic Press, New York.

[20] Basawa, I. V. and Lund, R. L. S. (2001) Large sample properties of parameter esti- mates for periodic ARMA models.J. Time Ser. Anal.22, 651-663.

[21] Bentarzi, M. and Hallin, M. (1993). On the invertibility of periodic moving-average models,J. Time Ser. Anal.15, 262-268.

[22] Bhat, B. R. (1974), On the method of maximum-likelihood for dependent observa- tions, J. Roy. Statist. Soc. Ser. B36, 48-53.

12

(23)

[23] Bibi, A. and Francq, C. (2003) Consistent and asymptotically normal estimators for cyclically time-dependent linear models,Ann. Inst. Statist. Math.55, 41-68.

[24] Boubacar Mainassara, Y. (2010) Estimation, validation et identification des mod`eles ARMA faibles multivari´es, Thesis presented at Universit´e Lille 3.

[25] Boubacar Mainassara, Y. and Francq, C. (2011) Estimating structural VARMA models with uncorrelated but non-independent error terms.J. Multi. Anal.102, 496-505.

[26] Box, G. E. P. and Jenkins, G. M. (1976)Time series analysis, forecasting and control, Holden-Day, San Francisco (revised edition).

[27] Box, G. E. P., Jenkins, G. M. and Reinsel, G. C. (1994)Time series analysis, forecast- ing and control, 3rd ed., Prentice Hall, Englewood Clifs.

[28] Brown, B. M. (1971) Martingale central limit theorems,Ann. Math. Statist.,42, 59-66.

[29] Brockwell, P. J. and Davis, R. A. (1991)Time series: theory and methods, Springer, Wiley.

[30] Burnham, K. P. and Anderson, D. R. (2002) Model selection and multi-model infer- ence: a practical information-theoretical approach,2d ed. Springer Verlag, New York.

[31] Crowder, J. (1976) Maximum-likelihood estimation for dependent observations, J.

Roy. Statist. Soc. Ser. B38, 45-53.

[32] Caines, P. E. and Rissanen, J. (1974) Maximum likelihood estimation of parameters in multivariate Gaussian stochastic processes.IEEE Trans. Inf. Theory 20, 102-104.

[33] Chow, Y. S. (1971) On theLp convergence forn1/pSn, 0< p <2,Ann. Math. Statist.

42, 393-394.

[34] Coleman, T., Branch, M. A. and Grace, A. (1999)Optimization toolbox: user’s guide, The MathWorks, Inc., Natic, Ma.

[35] Dahlhaus, R. (1996a) Maximum likelihood estimation and model selection for locally stationary processes,J. Nonparametr. Statist.6, 171-191.

(24)

[36] Dahlhaus, R. (1996b) On the Kullback-Leibler information divergence of locally sta- tionary processes,Stochastic Process. Appl.62, 139-168.

[37] Dahlhaus, R. (1996c) Asymptotic statistical inference for nonstationary processes with evolutionary spectra, inAthens Conference on Applied Probability an Time Series Analysis, P. M. Robinson and M. Rosenblatt, eds2. Springer, New York, 145-159.

[38] Dahlhaus, R. (1997) Fitting time series models to non-stationary processes, Ann.

Statist.25, 1-37.

[39] Davidson, J. E. H. (1994)Stochastic limit theorems. An introduction for econometri- cians, Oxford University Press, Oxford.

[40] de Jong, R. M. (1996) A strong law of large numbers for triangular mixingale arrays, Statistics and Probability Letters27, 1-9.

[41] Doob, J. L. (1953),Stochastic processes, Wiley, New York.

[42] Francq, C. and Gautier, A. (2004 a) Estimation of time-varying ARMA models with Markovian changes in regime, Statistics and Probability Letters70, 243-251.

[43] Francq, C. and Gautier, A. (2004 b) Estimation de mod`eles ARMA `a changements de r´egime r´ecurrents, C. R. Acad. Sci. Paris339, 55-58.

[44] Francq, C. and Gautier, A. (2004 c) Large sample properties of parameter least squares estimates for time-varying ARMA models,J. Time Ser. Anal.25, 765-783.

[45] Francq, C. and Zako¨ıan, J-M. (2005) A Central limit theorem for mixing triangular arrays, Econometric Theory21, 1165-1171.

[46] Francq, C. and Ra¨ıssi, H. (2007) Multivariate portmanteau test for autoregressive mod- els with uncorrelated but nonindependent errors,J. Time Ser. Anal.28, 454-470.

[47] Gaenssler, P., Strobel, J. and Stute, W. (1978) On central limit theorems for martingale arrays,Acta Mathematica Academiae Scientiarum Hungaricae31, 205-216.

14

(25)

[48] Golub, G. and van Loan, C. (1996)Matrix computations. 3rd edition. Johns Hopkins University Press, Baltimore.

[49] Granger, C. W. J. and Ter¨asvirta, T. (1993)Modeling nonlinear economic relations, Oxford University Press, Oxford.

[50] Grillenzoni, C. (1990) Modeling time-varying dynamical systems, J. Amer. Statist.

Assoc.85, 499-507.

[51] Gy¨orfi, L., Haerdle, W., Sarda, P., and Vieu, Ph. (1989)Nonparametric curve estima- tion from time series, Springer Verlag, Berlin.

[52] Hall, P. and Heyde, C. C. (1980) Martingale limit theory and its application, Aca- demic Press, New York.

[53] Hallin, M. (1978) Mixed autoregressive-moving average multivariate processes with time-dependent coefficients,J. Multi. Anal.8, 567-572.

[54] Hallin, M. (1986) Non-stationary q-dependent processes and time-varying moving average models: invertibility properties and the forecasting problem,Adv. Appl. Probab.

18, 170-210.

[55] Hallin, M. and Ingenbleek, J. F. (1983) Nonstationary Yule-Walker equations,Statist.

Probab. Lett.1, 189-195.

[56] Hallin, M. and M´elard, G. (1977) Ind´eterminabilit´e pure et inversibilit´e des processus autor´egressifs moyenne mobile `a coefficients d´ependant du temps, Cahiers du Centre d’Etude de Recherche Op´erationnelle19, 385-392.

[57] Hamdoune, S. (1995) Etude des probl`emes d’estimation de certains mod`eles ARMA

´evolutifs, Thesis presented at Universit´e Henri Poincar´e, Nancy 1.

[58] Hamilton, J. D. (1989) A New approach to the economic analysis of non-stationary time series and the business cycle,Econometrica 57(2), 357-84.

[59] Hamilton, J. D. (1994) Time series analysis, Princeton University Press, Princeton N.J.

(26)

[60] Hannan, E. J. (1969) The estimation of mixed autoregressive moving average systems, Biometrika 56, 579-592.

[61] Hannan, E. J. (1970) Multiple time series, J. Wiley, New York. NY.

[62] Hannan, E. J., and B. G. Quinn (1979) The determination of the order of an autore- gression,J. Roy. Statist. Soc. Ser. B41, 190-195.

[63] Hannan, E. J., Dunsmuir, W.T.M. and Deistler, M. (1980) Estimation of vector AR- MAX models, J. Multi. Anal.10, 275-295.

[64] H¨ardle,W., L¨utkepohl, H. and Chen, R. (1997) A review of nonparametric time series analysis,Int. Statist. Rev.65, 49-72.

[65] Harville, D. A. (1997) Matrix algebra from a statistician’s perspective, Springer- Verlag, New York.

[66] Harvey, A. C. and Philips, G. D. A. (1979) Maximum likelihood estimation of regres- sion models with autoregressive-moving average disturbances, Biometrika 66, 49-58.

[67] Hillmer, S.C. and Tiao, G.C. (1979) Likelihood function of stationary multiple autore- gressive moving average models,J. Amer. Statist. Assoc.74, 652-660.

[68] Hurvich, C. M. and Tsai, C. L. (1989) Regression and time series model selection in small samples. Biometrika 76, 297-307.

[69] Jonasson, K. (2008) Algorithm 878: Exact VARMA likelihood and its gradient for complete and incomplete data with Matlab.ACM Trans. Math. Softw.35, 1.

[70] Jonasson, K. and Ferrando, S. E. (2008) Evaluating exact VARMA likelihood and its gradient when data are incomplete.ACM Trans. Math Softw.35, 1.

[71] Kiehm, J, L., Lefevre, C. and M´elard, G. (1980) Forme r´etrospective d’un mod`ele FARIMAG, Cahiers du centre d’´etudes de recherche op´erationnelle22, 375-383.

[72] Klimko, L. A. and Nelson, P. I. (1978) On conditional least squares estimation for stochastic processes,Ann. Statist.6, 629-642.

16

(27)

[73] Kohn, R. (1979) Asymptotic estimation and hypothesis testing results for vector linear time series models, Econometrica 47, 1005-1030.

[74] Kollo, T. and von Rosen, D. (2005) Advanced multivariate statistics with matrices., Springer Verlag, New York.

[75] Kwoun, G. H. and Yajima, Y. (1986) On an autoregressive model with time-dependent coefficients,Ann. Inst. Statist. Math.38, Part A, 297-309.

[76] Lanne, M. and Saikkonen, P. (2010) Noncausal vector autoregression. Research Dis- cussion Papers, Helsinki Center of Economic Research, Finland.

[77] Lehmann, E. L. (1983)Theory of point estimation, Wiley.

[78] Luceeno, A. (1994) A fast algorithm for the exact likelihood of stationary and non- stationary vector autoregressive-moving average processes,Biometrika81 (3), 555-565.

[79] Lindquist, A. (1974) A new algorithm for optimal filtering of discrete-time stationary processes,Siam J. control,12, 736-746.

[80] L¨uktepohl, H. (1993) Introduction to multiple time series analysis, Springer-Verlag, New-York.

[81] L¨uktepohl, H. (2005) New introduction to multiple time series analysis, Springer- Verlag, New-York.

[82] Magnus, J. R. and Neudecker, H. (2007)Matrix differential calculus with applications in statistics and econometrics, Third Edition. John Wiley, Chichester, New York.

[83] Mauricio, J.A. (1995) Exact maximum likelihood estimation of stationary vector au- toregressive moving average models,J. Amer. Statist. Assoc.90, 282-291.

[84] Mauricio, J.A. (1996) Some computational aspects of exact maximum likelihood es- timation of time series models, in: Prat, A. (Ed.), Compstat 1996 Proceedings on Com- putational Statistics. Physica-Verlag, Heidelberg, 361-366.

(28)

[85] Mauricio, J.A. (1997) Algorithm AS 311: The exact likelihood function of a vector autoregressive moving average model, J. Roy. Statist. Soc. Ser. C. Appl. Statist. 46(1), 157−171.

[86] Mauricio, J.A. (2002) An algorithm for the exact likelihood of a stationary vector autoregressive moving average model.J. Time Ser. Anal.23(4), 473−486.

[87] Mauricio, J.A., (2005) Additional material on exact maximum likelihood estimation of partially nonstationary vector ARMA models. ( http://www.ucm.es/info/

ecocuan/jam).

[88] M´elard, G. (1982) The likelihood function of a time-dependent ARMA model, in O.D.

Anderson and M.R. Perryman (eds),App. Time Ser. Anal., North-Holland, Amsterdam, 229-239.

[89] M´elard, G. (1984) Algorithm AS197: A fast algorithm for the exact likelihood of autoregressive moving average models. J. Roy. Statist. Soc. C Appl. Statist. 33, 104- 114.

[90] M´elard, G. (1985) Analyse de donn´ees chronologiques, Coll. S´eminaire de math´ematiques sup´erieures - S´eminaire scientifique OTAN (NATO Advanced Study In- stitute)89, Presses de l’Universit´e de Montr´eal, Montr´eal.

[91] M´elard, G. (1977) Sur une classe de modles ARIMA d´ependant du temps,Cahier du Centre d’Etudes de Recherche Op´erationnelle19, 285-295.

[92] M´elard, G. and Kiehm, J.-L. (1981) ARIMA models with time-dependent coefficients for economic time series, in O. D. Anderson and M. R. Perryman (eds) Time Series Analysis, North-Holland, Amsterdam, 355-363.

[93] M´elard, G. and Pasteels, J. M. (1997)Manuel d’utilisation de Time Series Expert (TSE version 2.3), Institut de Statistique, Universit´e libre de Bruxelles.

[94] M´elard, G., Roy, R., and Saidi, A. (2006) Exact maximum likelihood estimation of structured or unit root multivariate time series models, Comput. Statist. Data Anal.

50(11), 2957−2986.

18

(29)

[95] Miller, K. S. (1968)Linear difference equations, Benjamin, New York, 1968.

[96] Miller, K. S. (1969) Non-stationary autoregressive processes,I.E.E.E. Trans. Inform.

TheoryIT-15, 1969, 315-316.

[97] Morf, M., G. Sidhu, and T. Kalaith (1974) Some new algorithms for recursive estima- tion in constant, linear, discrete-time systems,IEEE Transactions on Automatic Control 19, 315-323.

[98] Nicholls, D.F. and Hall, A.D. (1979) The exact likelihood function of multivariate autoregressive moving average models,Biometrika66, 259-264.

[99] Newbold, P. and Granger, C.W.J. (1974) Experience with forecasting univariate time series and the combination of forecasts,J. R. Statist. Sot. A137, 131-146.

[100] Nicholls, D.F. and Quinn, B.G. (1982) Random coefficient autoregressive models:

an introduction. Springer Verlag, New York.

[101] Pearlman, J. G. (1980) An algorithm for the exact likelihood of a high-order autore- gressive moving average process,Biometrika67(1), 232-233.

[102] Penzer, J. and Shea, B. L. (1997) The exact likelihood of an autoregressive-moving average model with incomplete data,Biometrika84(4), 919−928.

[103] Petrov, V. V. (1995)Limit theorems of probability theory: sequences of independent random variables, Oxford University Press, Oxford .

[104] Phadke, M. S. and Kedem, G. (1978) Computation of the exact likelihood function of multivariate moving average models, Biometrika65, 511-519.

[105] Pham, D. and Tran, T. (1985) Some mixing properties of time series models,Stochas- tic Process. Appl.19, 297-303.

[106] Poskitt, D. S. and Salau, M.O. (1995) On the relationship between generalized least squares and Gaussian estimation of vector ARMA models, J. Time Ser. Anal. 16(6), 617-645.

(30)

[107] Priestley, M. B. (1965) Evolutionary spectra and non-stationary processes, J. Roy.

Statist. Soc. Ser. B27, 204-237.

[108] Priestley, M. B. (1988) Non-linear and non-stationary time series analysis, Aca- demic Press, New York.

[109] Quenouille, M. H. (1957)The Analysis of multiple time series, Griffin, London.

[110] Ra¨ıssi, H. (2007) Contribution l’inf´erence statistique des mod`eles vectoriels au- tor´egressifs et `a correction d’erreurs, Thesis presented at Universit´e Lille 3.

[111] Reinsel, G. C. (1979) FIML estimation of the dynamic simultaneous equations model with ARMA disturbances,J. Econometrics9, 263-281.

[112] Reinsel, G. C. (1998)Elements of multivariate time series analysis, Springer-Verlag, New-York, 2nd edition.

[113] Reinsel, G. C., Basu S. and Yap, S.F. (1992) Maximum likelihood estimators in the multivariate autoregressive moving average model from a generalized lest squares viewpoint,J. Time Ser. Anal.13, 133-145.

[114] Rissanen, J. (1978) Modelling by shortest data description,Automatica14, 465-471.

[115] Rissanen, J. and Barbosa, L. (1969) Properties of infinite covariance matrices and stability of optimum predictors,Inform. Sci.1, 221-236.

[116] Schneider, T. and Neumaier, A. (2001) Algorithm 808: ARfitA Matlab package for the estimation of parameters and eigenmodes of multivariate autoregressive models, ACM Trans. Math. Softw.27, 1, 58-65.

[117] Schwarz, G. (1978) Estimating the dimension of a model,Ann. Stat.6, 461-464 [118] Schweppe, F. C. (1965) Evaluation of likelihood functions for Gaussian signals,

IEEE Trans. Inform. Theory11, 61-70.

20

(31)

[119] Shea, B. L. (1984) Maximum likelihood estimation of multivariate ARMA processes via the Kalman filter, in: Anderson, O.D. (Ed.), Time Series Analysis: Theory and Practice 5. North-Holland, Amsterdam, 91-101.

[120] Shea, B. L. (1987) Estimation of multivariate time series, J. Time Ser. Anal. 8, 95- 109.

[121] Shea, B. L. (1988) A note on the generation of independent realizations of a vector autoregressive moving average process,J. Time Ser. Anal.9, 403-410.

[122] Shea, B. L. (1989) Algorithm AS 242: The exact likelihood of a vector autoregressive moving average model,J. Roy. Statist. Soc. Ser. C. Appl. Statist.38(1), 161-204.

[123] Shittu, O. I and Asemota, M. J (2009) Comparison of criteria for estimating the order of autoregressive process: A Monte Carlo approach, European Journal of Scientific Research30(3), 409-416.

[124] Siddiqui, M. M. (1958) On the inversion of the sample covariance matrix in a sta- tionary autoregressive process,Ann. Math. Statist.29, 124-127.

[125] Silvey, D. (1961) A note on maximum-likelihood in the case of dependent random variables,J. Roy. Statist. Soc. Ser. B23, 444-452.

[126] Steele, J. M. (2004)The Cauchy-Schwarz master class: An introduction to the art of mathematical inequalities, Cambridge University Press and the Mathematical Associa- tion of America, Cambridge UK and Washington DC.

[127] Stout, W. F. (1974)Almost sure convergence, Academic Press, New York.

[128] Subba Rao, T. (1970) The fitting of non-stationary time-series models with time dependent parameters,J. Roy. Statist. Soc. Ser. B32, 312-322.

[129] Taniguchi, M. and Kakizawa, Y. (2000)Asymptotic theory of statistical inference for time Series, Springer Verlag, New York.

[130] Terceiro, J. (1990)Estimation of dynamic econometric models with errors in vari- ables, Springer-Verlag, Berlin.

(32)

[131] Terceiro, J., Casals, J. M., Jerez, M., Serrano, G. R. and Sotoca, S. (2000) Time series analysis using Matlab, Available at (http://www.ucm.es/info/icae/

e4/e4download.htm).

[132] Tiao, G. C., Box, G. E. P. (1981) Modeling multiple time series with applications,J.

Amer. Statist. Assoc76, 802-816.

[133] Tiao, G. C., and Grupe, M. R. (1980) Hidden periodic autoregressive-moving average models in time series data, Biometrika67, 365-373.

[134] Tjøstheim, D. (1984) Estimation in linear time series models II: some non-stationary series, Department of Mathematics, University of Bergen 5000 Bergen , Norway and Department of Statistics, University of North Carolina Chapel Hill, North Carolina 27514.

[135] Tjøstheim, D. and Paulsen, J. (1983) Bias of some commonly used time series esti- mates,Biometrika70, 389-399.

[136] Tjøstheim, D. (1986) Estimation in nonlinear time series models,Stochastic Process.

Appl.21, 251-273.

[137] Tjøstheim, D. (1994) Nonlinear time series, a selective review,Scand. J. Statist.21, 97-130.

[138] Tsay, R. S. (2005)Analysis of financial time series, 2nd Edition, John Wiley, New York.

[139] Tong, H. (1990) Non-linear time series: a dynamical system approach, Oxford University Press, Oxford.

[140] Tunnicliffe Wilson, G. (1973) The estimation of parameters in multivariate time se- ries models, J. Roy. Statist. Soc. Ser. B 35, 76-85.

[141] Tyssedal, J. S. and Tjøstheim, D. (1982) Autoregressive processes with a time- dependent variance,J. Time Series Anal.3, 209-217.

22

(33)

[142] Van Bellegem, S. and Dahlhaus, R (2006) Semiparametric estimation by model se- lection for locally stationary processes,J. Roy. Statist. Soc. Ser. B68(5), 721-746.

[143] Wegman, E. J. (1974) Some results on non-stationary first order auto-regression, Technometrics 16, 321-322.

[144] White, H. (1984) Asymptotic theory for econometricians, Academic Press, New York.

[145] Whittle, P. (1965) Recursive relations for predictors of non-stationary processes,J.

Roy. Statist. Soc. Ser. B27, 523-532.

Références

Documents relatifs

lutionary substitution models from a theory of systems point of view; (ii) investigated the mathematical conditions and the correspondent biological interpretation of the

• The theoretical and experimental comparison between piezoelectric shunt damping (active and passive) and classical active control with Integral Force Feedback on a single

Observe that on the contrary of games of perfect information, finding a solution to the reachability question for a game of imperfect information gives no information about the

The violation of the CP symmetry in weak interactions is observationally well established through the decay of K and B mesons. However, the complete understanding of CP violation

Pour illustrer le cours 4 ”Choix de mod` ele”, consid´ erons les donn´ ees du tableau sui- vant (Source : Andrews et Herzberg (1985)) relatives dans les quartiers de Chicago, o` u F

Pour le d´etecteur ISOPHOT C-100 embarqu´e sur le satellite ISO, nous avons montr´e qu’un mod`ele semi-empirique permet de d´ecrire avec une bonne pr´ecision (de l’ordre de

I Le profit esp´er´e est plus important pour un individu participant au

Outils: Transform´ee de Laplace, ´equation de Fokker-Planck, noyaux de Green, d´eveloppement en s´erie de fonctions propres, nouvelle repr´sentation int´egrale pour le module au