• Aucun résultat trouvé

Utilisation des notions de dépendance faible en statistique

N/A
N/A
Protected

Academic year: 2021

Partager "Utilisation des notions de dépendance faible en statistique"

Copied!
197
0
0

Texte intégral

(1)

HAL Id: tel-00160702

https://tel.archives-ouvertes.fr/tel-00160702v2

Submitted on 30 Aug 2007

HAL is a multi-disciplinary open access

archive for the deposit and dissemination of

sci-entific research documents, whether they are

pub-lished or not. The documents may come from

teaching and research institutions in France or

abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est

destinée au dépôt et à la diffusion de documents

scientifiques de niveau recherche, publiés ou non,

émanant des établissements d’enseignement et de

recherche français ou étrangers, des laboratoires

publics ou privés.

Utilisation des notions de dépendance faible en

statistique

Olivier Wintenberger

To cite this version:

Olivier Wintenberger. Utilisation des notions de dépendance faible en statistique. Mathématiques

[math]. Université Panthéon-Sorbonne - Paris I, 2007. Français. �tel-00160702v2�

(2)

U.F.R. MATHÉMATIQUES

N

o

attribuépar labibliothèque

2

0

0

7

P A

0

1

0

0

1

5

THÈSE

pour obtenir legrade de DOCTEUR ÈS-SCIENCES

SPÉCIALITÉMATHÉMATIQUES APPLIQUÉES

présentéeetsoutenue publiquement par

Olivier WINTENBERGER

11 juin2007

sousle titre

UTILISATION DES NOTIONS DE DÉPENDANCE FAIBLE EN

STATISTIQUE

Dire teurs de Thèse

M. PaulDOUKHAN,Professeur hargé de missionàl'ENSAE,

M. Jean-Mar BARDET, Professeur àl'Université Paris 1 Panthéon-Sorbonne.

Jury

Rapporteurs : M. EmmanuelRIO, Professeurà l'Université deVersailles St-Quentin-en-Yvelines, M. Qi-ManSHAO, Professeur àl'Université deHong Kong etde l'Oregon.

Examinateurs: M. IstvánBERKES,Professeur à l'Université de Graz,

M. Gérard GREGOIRE,Professeurà l'Universitéde Grenoble 1, Mme. Dominique PICARD,Professeur àl'UniversitéParis 7, M. Jean-Mi hel ZAKOIAN, Professeurà l'UniversitéLille 3.

(3)
(4)
(5)
(6)

Remer iements

Je dois le bon a omplissement de ette thèse à plusieurs personnes : ha une, dans son rle, m'a littéralement portéjusqu'àsonterme.

Enpremier lieuà mesdire teurs, dansunstyle trèsdiérent. APaulquim'a montrépar sa motiva-tion, sonenthousiasme, sondynamismequelemétierde her heur pouvaitêtre passionnant.A Jean Mar qui a été pour moi un modèle d'équilibre, de alme etde patien e, qui sont desvaleurs aussi indispensables pour e métier exigeant. A Marie Cottrell pour m'avoir a ueilliau sein du SAMOS dansla gaieté et labonne humeur. A toute l'équipe de e laboratoire qui réussit à on ilier rigueur intelle tuelle etdétente. A mesaînés dans e domaine s ientique, Patri eBertail, OdileBrandière, JérmeDede ker,Sana Louhi hi, Floren e Merlevède,ClémentinePrieur etPhilippe Soulierquiont toujours été de bon onseil. Mer i aussi à Emmanuel Rio et Qi Man Shao qui m'ont fait proter de leur expertise dans le domaine en rapportant sur ma thèse. A István Berkes, Gérard Grégoire, DominiquePi ardetJeanMi helZakoïanqui ont trèsgentimenta epté d'êtrelesmembresde mon jury. Leurjugement é lairé m'en ourage àaller plusloin.

D'autres personnes m'ont beau oup apporté, que e soit sur le plan s ientique ou non. A mes o-auteurs Irène Gannaz et Ni olas Raga he qui, étant do torants ommemoi, ont partagé les mêmes sentiments.Ad'autresdo torants,enparti uliersduSAMOS ommeCatherine,Hatem,Imen,Lionel, Madalina,Omaret euxduséminairedeChevaleret ommeChristophe,Claire,Guillaume,Mathieu, Pierre,Sebastien,Stéphane,ThanhMai,ThomasetTuave quij'aipartagédenombreuxmomentsde détenteaussi.Ades ollèguesquisontdevenusdesamis ommeCé ile,Gilles,GabrieletJeanMi hel.

Enn, il y a eux qui ont rendu tout ela possible et qui y donnent un sens. A ma famille qui a joué un rle très important, en parti ulier à mes parents qui m'ont toujours soutenu. A mesgrands parentspourleurgentillesse.EtbiensûràNathaliequi abienvoulupartager savie ave moidurant estroisannées eten fairedesannées de bonheur.

(7)
(8)

Résumé

La dépendan e faible est un outil très performant pour obtenir des résultatsasymptotiques en sta-tistique des séries hronologiques. Son atout majeur est de résumer les propriétés de dépendan e de très nombreux modèles via le omportement d'une suite de oe ients. Dans un problème où le modèlen'est pas lairement identiable,deshypothèsessurles oe ientsdedépendan efaiblesont parfois moins ontraignantes que le hoix d'un modèle. De plus, pour ertains modèles ausaux, la dépendan efaible permetd'étudier les propriétés de dépendan e làoù toutes les autres notions (de mélange par exemple) é houent. Les oe ients permettent d'élargir aux séries hronologiques des résultatsasymptotiques lassiquesdu as deréféren e, elui d'observations indépendantes.

Le hapitre 1 estunesynthèsedestravaux;il reprendles prin ipauxrésultatsdes hapitressuivants qui peuvent être lus séparément. Après avoir déni les notions de faible dépendan e utilisées dans e travail, nous donnons des exemples de modèles faiblement dépendants dans la partie I tels que les haînes à mémoire innie dans le hapitre 2 et les s hémas de Bernoulli dans le hapitre 3. De nouvelles propriétés de moments et de dépendan e sont données pour es modèles. La dépendan e faible permetd'atteindre desrésultatsasymptotiques optimaux,identiques au as indépendant, sur une lasse restreinte de modèles.Plus on étendle domaine d'étude etmoins lesrésultats sont bons. Dansle asde modèles ausaux, lesrésultats obtenus sont meilleurs quepour desmodèles non au-saux,plus généraux.

Grâ e à ses outils, nous généralisons desrésultats asymptotiques lassiques. Nous donnons des ver-sionsfaiblement dépendantesduprin ipe d'invarian e faibledansle hapitres3etde onvergen ede l'estimateurdeladensité(adaptatifounon)danslapartie II.Despertesdanslesvitessesde onver-gen esont onstatées dans le hapitre 4 .Ellessont en partie duesà ladépendan edes modèles,qui ajoutedestermes perturbateurs, eten partieauxinégalitésobtenuesdansle adredeladépendan e faible qui ne sont pas aussi nes que elles du as indépendant. Nous dis utons de l'origine de es pertes envitesseà partirde simulationsfourniesdans le hapitre 5.

Enn, lanormalité asymptotique de l'estimateur du Quasi Maximum de Vraisemblan e dansle as multivarié est donné pour la première fois dans la partie III. Ce problème restreint la lasse des modèles à onsidérer à elle de modèles dé orrélés. D'autres outils plus spé iques et plus e a es queladépendan e faibleexistent pour es modèles très parti uliersprésentés dansle hapitre 6.

(9)
(10)

Abstra t

Times series are main topi s in modern statisti almathemati s. They are essential for appli ations whererandomness playsanimportantrole.Indeed,physi al onstraintsentail thatseriousmodelling annot be done using independent sequen es. Thisrepresentsa real problem be ause properties are notalwaysknowninthat ase.Inorderto generalizethemain statisti softheindependent ase,one needsto useweaklydependent notions.

The present work, summarized in hapter 1, is devoted to provide a frame for the ommonly used time series in part I. These notions aremainly divided in two dierent lasses. The rst one is the lass of ausal dependen e. In this ase the weak dependen e ts thedependen e stru ture of time series where other notions, as mixing, fail. We study in hapter 2 moment and weakly dependent properties of hains with innite memory that are not Markovian but ausally weakly dependent models.These ondoneisthe lassofnon ausalpro esses.Weakdependen einthis ontextisvery generaland onditionsofweakdependen earepreferredtomodelization.Weintrodu etheBernoulli shiftswithdependent inputsin hapter 3.Workingwiththese notions,we balan e theoptimalityof theresultwiththesizeofthe lassofmodelsinvolved.Inthemorerestri tive ausal ase, theresults arebetter thaninthe non ausal one.

Withthese tools,weestablishdierent asymptoti alresults.We givea Donskerprin iple in hapter 3 and the onvergen e of the density estimates (adaptive or not) in part II. Losses in the rates of onvergen e are observed in hapter 4. They are due to the weak dependen e that puts additional termsandthenperturbsthe statisti s.Theyarealsodue tote hniquesthatarenot ase ient asin theindependent ase. We dis uss onsimulations the origin of theselosses in hapter 5.

Finally,the asymptoti normalityofthe QuasiMaximumLikelihood Estimatorfor multidimensional pro esses is given for the rst time in part III. We use moment properties of hains with innite memories but not their weak dependen e properties. The parametri ontext redu es the lass of models to be onsidered to the one of de orrelated pro esses. Spe i tools aremore e ient than weak dependen e inthe settingof hapter6.

(11)
(12)

1 Synthèse des travaux 1

1.1 Lesnotions de dépendan efaible . . . 2

1.1.1 Cas ausal . . . 3

1.1.2 Cas non ausal . . . 3

1.1.3 Comparaisonentre les oe ients . . . 4

1.2 Lesmodèles ausaux . . . 4

1.2.1 Systèmesdynamiques . . . 4

1.2.2 Chaînesde Markov . . . 6

1.2.3 Chaînesà mémoire innie . . . 8

1.3 Lesmodèles non ausaux. . . 10

1.3.1 Lesmodèles asso iés etgaussiens . . . 11

1.3.2 Less hémas de Bernoulliave entrées indépendantes. . . 11

1.3.3 Less hémas de Bernoullilips hitziens ave entrées faiblement dépendantes. . . 12

1.3.4 Less hémas de Bernoulliave entrées faiblement dépendantes. . . 14

1.3.5 Con lusionsurles modèles. . . 15

1.4 Le prin iped'invarian e faible . . . 15

1.4.1 Le prin ipe d'invarian e faible . . . 15

1.4.2 Vitessesde onvergen e dansleTLC . . . 17

1.5 L'estimationde ladensiténon adaptative . . . 17

1.5.1 L'estimateur

f

ˆ

n

. . . 18

1.5.2 La dépendan e faible desmodèles . . . 20

1.5.3 Résultats de onvergen e. . . 20

1.6 L'estimationde ladensitéadaptative . . . 22

1.6.1 Estimateurpar seuillagedur . . . 22

1.6.2 Quasioptimalité dansle asi.i.d. . . 24

1.6.3 Seuillage dur dansle asdépendant. . . 25

(13)

1.7.1 Pro édurede validation roisée . . . 27

1.7.2 Simulations . . . 27

1.7.3 Comportement del'estimateur par validation roisée . . . 28

1.7.4 L'estimateur

f

ˆ

ˆ

γ

n

n

. . . 30 1.8 L'estimationparamétrique . . . 30 1.8.1 L'estimateur duQMLE . . . 32 1.8.2 Résultats . . . 33 I The models 39 2 Weakly dependent hains with innite memory 41 2.1 Introdu tion . . . 42

2.2 Mainresults . . . 43

2.2.1 Denitions . . . 43

2.2.2 Themodel. . . 44

2.3 Examples . . . 47

2.4 Proofsof the main results . . . 50

2.4.1 Analgebrai preliminary. . . 51

2.4.2 Markovstationaryapproximation . . . 51

2.4.3 Proofof existen einTheorem 2.1. . . 53

2.4.4 Proofof weakdependen e inTheorem2.1 . . . 53

2.4.5 Proofof Corollary 2.1 . . . 54

2.4.6 Proofof Corollary 2.1 . . . 54

3 An invarian e prin iple for weakly dependent stationary general models 57 3.1 Introdu tion . . . 58

3.2 Denitionsandmain results . . . 59

3.2.1 Weakdependen e assumptions . . . 59

3.2.2 Mainresults. . . 60

3.3 Examples . . . 62

3.3.1 Lips hitz pro esseswithdependent inputs . . . 63

3.3.2 TheBernoullishiftswith dependent inputs . . . 66

3.4 Proofsof themain results . . . 69

3.4.1 Varian es . . . 70

3.4.2 A

-order moment bound . . . 70

(14)

3.4.4 Ratesof onvergen e . . . 77

3.4.5 Proofof Lemma 3.1 . . . 79

3.4.6 Proofof Lemma 3.2 . . . 81

II The Density Estimation 85 4 Convergen e rates for density estimators of weakly dependent time series 87 4.1 Introdu tion . . . 88

4.2 Mainresults . . . 90

4.2.1 Weak dependen e. . . 90

4.2.2 Notations anddenitions . . . 91

4.2.3 Results . . . 92

4.3 Models,appli ations and extensions. . . 94

4.3.1 Examples of

η

-dependent timeseries. . . 94

4.3.2 Examples of

ϕ

-dependent timeseries.. . . 95

4.3.3 Sampled pro ess . . . 96

4.3.4 Densityestimators and bias . . . 96

4.4 Proofof theTheorems . . . 99

5 Adaptive density estimation underdependen e 111 5.1 Estimationframework . . . .114 5.2 Dependent models . . . .117 5.2.1 Expanding maps . . . .117 5.2.2

η

-weakly dependen e . . . .117 5.2.3 Bernoullishifts . . . .118 5.3 Mainresults . . . .119 5.3.1 Probabilityinequalities. . . .119

5.3.2 Near-minimaxityof theestimation s heme . . . .121

5.4 Numeri alresults . . . .122

5.4.1 Cross-validation pro edure. . . .122

5.4.2 Theestimator

ˆ

γ

n

. . . .123

5.4.3 Numeri alstudy ofthe onvergen e rates . . . .127

5.5 Proofs . . . .129

5.5.1 Proofof the Theorem 5.3 . . . .129

5.5.2 Somete hni al tools . . . .130

(15)

5.5.4 Biasofs ale estimation . . . .131

5.5.5 Detailsterm. . . .131

5.5.6 Proofof inequality(5.14 ) . . . .138

III The Parametri Estimation 141 6 Asymptoti normality of the QMLE for multivariate pro esses 143 6.1 Introdu tion . . . .144

6.2 Properties of the model . . . .146

6.3 Asymptoti behavioroftheQMLE . . . .151

6.4 Examples . . . .153 6.4.1 ARCH(

) pro esses . . . .154 6.4.2 GARCH(

q, q

)models . . . .155 6.4.3 TARCH(

) models . . . .156

6.4.4 Multivariate ARCH(

) pro esses . . . .157

6.4.5 MultivariateGARCH(

q, q

)models . . . .158

6.4.6 Multivariate LARCH(

) and NLARCH(

) models . . . .159

6.4.7 MultivariateNonlinearAR(

) models . . . .160

6.4.8 Multivariate ARMA-GARCHmodels . . . .161

6.5 Proofs . . . .162

6.5.1 Proofof Theorem 6.1. . . .162

6.5.2 Proofof Corollary 6.1 . . . .165

6.5.3 Proofof Theorem6.2. . . .165

(16)

Synthèse des travaux

Ce hapitre reprend les prin ipaux résultats obtenus dans les travaux [Wint1 ℄, [Wint2 ℄, [Wint3 ℄, [Wint4℄et[Wint5 ℄etdétaillésdansles hapitres2,3,4 ,5et6.Aprèsavoirdénilesnotionsdefaible dépendan e utilisées dans e travail, nous dressons une liste desprin ipaux modèles faiblement dé-pendants. Nousintroduisonsen parti ulier les haînesà mémoire innieetles s hémas deBernoulli, ave leurs propriétés de moments et de dépendan e faible. Nous généralisons grâ e à es notions des résultatsasymptotiques lassiquesdu as de référen e où les données sont indépendantes. Nous donnons des versions faiblement dépendantes du prin ipe d'invarian e faible et de onvergen e de l'estimateurdeladensité(adaptatifounon).Despertes danslesvitessesde onvergen e sontparfois onstatées.Enn, dansle adrede l'estimation paramétrique,lanormalitéasymptotiqueestpour la première fois donnée dans le as multivarié. Ce résultat utilise les propriétés de moments obtenues surles haînes à mémoire innie.

Voi i quelquesnotationstrès utiles pour lasuite de ettesynthèse : 

(Ω,

A, P)

estun espa eprobabilisé,



(E,

k · k)

estun espa e deBana h, 

Λ

(k)

est l'espa e des fon tions lips hitziennes

f

de

E

k

→ R

telles que pour tout

(x

1

, . . . , x

k

)

et

(y

1

, . . . , y

k

)

de

E

k

,

|f(x

1

, . . . , x

k

)

− f(y

1

, . . . , y

k

)

| 6

Lip

f

k

X

i=1

kx

i

− y

i

k,

ave Lip

f <



Λ

(k)

ρ

estl'ensembledesfon tions de

Λ

(k)

tellesque Lip

f 6 ρ

,



BV

est l'espa edesfon tions de

[0, 1]

dans

[0, 1]

tellesque

khk

BV

<

khk

BV

=

|h(0)| + sup

n∈N

sup

a

0

=0<a

1

<···<a

n

=1

n

X

i=1

(17)



BV

1

est l'ensembledesfon tions de

BV

telles que

khk

BV

6

1

, 

L

m

(E)

est l'espa e des variables aléatoires à valeurs dans

E

telles que

kXk

m

<

, ave , par dénition

kXk

m

= (E

kXk

m

)

1/m

, 

L

(E)

estl'espa edesvariablesaléatoiresàvaleursdans

E

tellesque

kXk

<

,où,pardénition

kXk

= inf

A>0

{P(kXk < A) = 1}

.

 Le passé au temps

t

d'unpro essus

(X

t

)

t∈Z

est la tribu

P

t

= σ(X

s

; s 6 t)

, le futur est la tribu

F

t

= σ(X

s

; s > t)

.

1.1 Notions de dépendan e faible [Wint1, Wint2, Wint3, Wint4℄

Nousétudionslespropriétésdedépendan edepro essusàtempsdis ret

(X

t

)

t∈Z

supposésstri tement stationnaires.

Dénition 1.1 Une suite

(X

t

)

t∈Z

est stationnaire ausens stri t si

(X

1

, . . . , X

n

)

et

(X

h

, . . . , X

n+h

)

ontla même loi pourtout

n > 0

et

h

∈ Z

.

De plus, les séries temporelles sont supposées à "mémoire ourte", 'est à dire telles que la série desauto- ovarian es

(

Cov

(X

0

, X

k

))

k∈Z

soit sommable. Ave ette hypothèse, ilest raisonnable d'es- ompter obtenir des résultats asymptotiques similaires à eux du as de référen e des pro essus indépendantsetidentiquement distribués (i.i.d.).Dans e but,nousintroduisonsdes oe ientsqui quantie ladépendan e de espro essus.

Denombreuses notions ont étéintroduites pour fa iliterl'étude des pro essusdépendants. Chrono-logiquement, les notions de mélange sont les premièresà être apparues. Lestrois prin ipalessont le mélange fort (

α

-mélange), le

β

-mélange et lemélange uniforme (ou

φ

-mélange) introduits respe ti-vement par Rosenblatt [103℄,Rozanov etVolkonskii [104 ℄ et Ibragimov [70 ℄.Ces notions présentent unin onvénient majeur.En pratique,le al ulde es oe ientsest déli at(voirDoukhan,[38℄. De plus, ertainspro essus nesont pasmélangeants. Le plus élèbreest elui d'Andrews [1℄ :

Exemple 1.1 Soit

t

)

t∈Z

une suite devariable i.i.d. telleque

P

1

= 1) = P(ξ

1

= 0) = 1/2

alors la solutionstationnaire

(X

t

)

t∈Z

de l'équation

X

t

=

1

2

(X

t−1

+ ξ

t

),

∀t ∈ Z,

(1.1)

n'est pas mélangeante au sens deRosenblatt.

De là est venue l'idée d'introduire des notions de dépendan e moins restri tives, ouvrant plus de modèles,pourlesquellesnouspouvons al ulerdesbornessurles oe ientsetdévelopperunethéorie asymptotiqueintéressante.Nousprésentons i-dessouslesprin ipalesnotionsquiserontutiliséesdans lasuite.

(18)

1.1.1 Cas ausal

Nousappellons ausaux les oe ients de dépendan e faible pour lesquelslepassé

P

t

etlefutur

F

t

ne jouent pas un rle symétrique. Un modèle est dit ausal lorqu'on ontrle au moins un de ses oe ients ausaux.

Dénition 1.2 (La

ϕ

-dépendan e, Dede ker et Prieur [29℄) Soit

M

unesoustribude

A

.Pour tout

X

∈ L

(E

l

)

ave

l > 1

on dénit

ϕ(

M, X) = sup

n

kE(g(X)|M) − E(g(X))k

, g

∈ Λ

(l)

1

o

.

La suite

ϕ

k

(r)

est dénie pour tout

k > 1

par

ϕ

k

(r) = max

l6k

1

l

i+r6j

1

sup

<j

2

<···<j

l

ϕ(

P

i

, (X

j

1

, . . . , X

j

l

)) .

Le pro essus est

ϕ

-dépendant si

ϕ(r) = sup

k>0

ϕ

k

(r)

tend vers

0

lorsque

r

→ ∞

.

Un oe ient moins restri tif que

ϕ

et valable pour des pro essus non bornés est le oe ient de ouplage

τ

.

Dénition 1.3 (La

τ

-dépendan e, Dede ker et Prieur [28℄) Soit

M

unesoustribude

A

.Pour tout

X

∈ L

1

(E

l

)

ave

l > 1

on dénit

τ (

M, X) =

sup

n

|E(f(X) | M) − E(f(X))| , f ∈ Λ

(l)

1

o

1

.

La suite

τ

k

(r)

est dénie pourtout

k > 1

par

τ

k

(r) = max

l6k

1

l

i+r6j

1

sup

<j

2

<···<j

l

τ (

P

i

, (X

j

1

, . . . , X

j

l

)) .

Le pro essus est

τ

-dépendant si

τ (r) = sup

k>0

τ

k

(r)

tend vers

0

lorsque

r

→ ∞

.

Danstoute lasuite,noussupposonsquel'espa e

(E,

A)

est susamment ri he pour qu'ilexiste une version

X

distribuée omme

X

etindépendantede

M

telleque

τ (

M, X) = kX − X

k

1

.Cerésultat

de ouplagedénitle oe ient

τ

ommeleminimum

τ (

M, X) = min kX − X

k

1

pour touteversion

X

distribuée omme

X

etindépendantede

M

(voir Dede ker etPrieur [28 ℄pour plusde détails).

1.1.2 Cas non ausal

Le asnon ausalrenvoieaux oe ientspourlesquelspassé etfuturjouent unrlesymétrique. Les modèles orrespondants, appelés modèles non ausaux,sont très généraux.

(19)

Dénition 1.4 (La

η

-dépendan e, Doukhan et Louhi hi [41℄) Lepro essus

(X

t

)

t∈Z

estditêtre

(ε, ψ)

-faiblement dépendant si il existe une suite

ε(r)

↓ 0

(lorque

r

↑ ∞

) et une fon tion

ψ :

N

2

× (R

+

)

2

→ R

+

telle que

|

Cov

(f (X

s

1

, . . . , X

s

u

), g(X

t

1

, . . . , X

t

v

))

| 6 ψ(u, v,

Lip

f,

Lip

g)ε(r),

pourtout

r > 0

ettout

(u+v)

-upletstelsque

s

1

6

· · · 6 s

u

6

s

u

+r 6 t

1

6

· · · 6 t

v

et

f, g

∈ Λ

(u)

×Λ

(v)

ave

sup

x

|f(x)| 6 1

et

sup

x

|g(x)| 6 1

. La

η

-faible dépendan e orrespond à

ψ(u, v, a, b) = ua + vb

, dans e as on é rit

ε(r) = η(r)

.

L'étudedespropriétés destabilitédessuitesfaiblement dépendantes partransformation nonlinéaire nousaamenés à introduire le oe ient

λ

.

Dénition 1.5 (La

λ

-dépendan e, [Wint2 ℄) La

λ

-faible dépendan e orrespond à

ψ(u, v, a, b) =

uvab + ua + vb

. Oné ritalors

ε(r) = λ(r)

.

Remarque 1.1 D'autres oe ients(

κ

,

κ

,

θ

,

. . .

)dé oulent de hoix de

ψ

diérents,voir hapitre 3 pour plus dedétails.

1.1.3 Comparaison entre les oe ients

Remarquons la relation suivante entre les oe ients :

λ(r) 6 η(r) 6 τ (r) 6 ϕ(r)

. Un pro essus

ϕ

-faiblement dépendant est aussi

τ

−, η−, λ−

faiblement dépendant ar

ϕ(r)

↓ 0

ave

r

↑ ∞

entraîne que

τ (r), η(r), λ(r)

↓ 0

. Un arbitrage est possible entre l'optimalité des résultats asymptotiques et le hoix d'un oe ient plus restri tif. Ainsi dans le as ausal, plus restri tif que le non ausal, les résultats obtenus sont meilleurs arplus pro hes de eux du adre de référen e, l'indépendan e. Dansla suite,pour un modèle xé, nousne parlerons quede la notion de dépendan e faible laplus restri tive, 'estàdire elle orrespondant àlaplusgrandesuite de oe ientstendant vers

0

.Cette démar he assured'obtenir les meilleursrésultats asymptotiques pour unmodèledonné.

1.2 Les modèles ausaux [Wint1, Wint3 , Wint4℄

1.2.1 Systèmes dynamiques

Nous avons déjà vu à l'exemple 1.1 un pro essus non mélangeant. Nous généralisons i i e ontre-exemple en suivant la démar he de Dede ker et Prieur [29 ℄. La solution stationnaire de l'équation (1.1 ) s'é rit souslaforme

X

t

=

X

j=0



1

2



j+1

ξ

t−j

.

Onen déduitque :

(20)



X

t

estun réeldans

[0; 1]

dont ledéveloppement dyadique est

0, ξ

t

ξ

t−1

· · ·

,  laloi marginale de

X

t

estlaloi uniformesur

[0; 1]

,



X

t−1

= T (X

t

)

ave

T (x) = 2x

modulo

1

.

(X

t

)

t∈Z

n'est pas mélangeant ar

X

t−1

est fon tion de

X

t

dans la dernière relation. La notion de mélangefortintroduitepar Rosenblatt[103 ℄ est déniepar :

α

r

=

sup

P ∈ P

0

,F ∈ F

r

|P(P ∩ F ) − P(P )P(F )|.

Choisissons

P =

{X

0

∈ [0; 1/2]} ∈ P

0

, un événement du passé de probabilité

1/2

. Alors on a

P =

{T

r

(X

r

)

∈ [0; 1/2]} = {X

r

∈ T

r−1

([0; 1/2])

}

, un événement du futur

F

r

. Choisissant

F = P

dansladénitionde

α

,onobtient

α

r

>

|1/2−1/4| = 1/2

.Lasuite

α

r

ne onvergepasvers

0

,

(X

t

)

t∈Z

n'est pasmélangeant au sensde Rosenblatt.

De même, les systèmes dynamiques

X

t

= T (X

t−1

)

pour

t > 0

,

T : [0; 1]

→ [0; 1]

X

0

est une variable sur

[0; 1]

ne sont pas mélangeants. Les transformations

T

doivent avoir un omportement haotiquepour entretenirl'aléadu pro essusdû à

X

0

.Ainsi,si

T

est ontra tante, ilexisteunpoint xe

a

etle omportement asymptotiquede

(X

t

)

t>0

est déterministe.Lestransformations

T

étudiées sont de typeLasota-Yorke [82 ℄.

Dénition 1.6 (Transformations de type Lasota-Yorke)

T

est une transformation de type Lasota-Yorke si

 (Régularité) Il existe une partition

0 = a

0

6

a

1

· · · 6 a

n

= 1

telle que

T

∈ C

1

et

|T

(x)

| > 0

sur

]a

i−1

, a

i

[

pourtout

i = 1, . . . , n

.

 (Expansivité) Soit

I

n

un intervalle tel que

(T

n

)

y soit déni. Il existe

A > 0

et

s > 1

tels que

inf

x∈I

n

|(T

n

)

| > As

n

.

 (Mélangetopologique) Pourtousensembles nonvides

U

,

V

,ilexiste

n

0

>

1

telque

T

−n

(U )

∩V 6= ∅

pour tout

n > n

0

.

Cette lasse detransformations ade nombreusespropriétés remarquables :

 il existe uneunique mesure

T

-invariante

µ

,



µ

admetune densité

f

∈ BV

(voir Viana[110℄ pourplus de détails).

Lesystèmedynamique(stationnaire)detypeLasota-Yorkeasso iéàunetransformation

T

orrespond à

X

t

= T (X

t−1

)

et

X

0

µ

,samesure

T

-invariante. Alors  pour toutefon tion

f

∈ Λ

(l)

,

E

(f (X

1

, . . . , X

l

)

| X

l

) = g(X

l

),

(1.2)

(21)

 il existe

0 6 ρ < 1

etune onstante

C > 0

tels que(Dede keretPrieur [29 ℄)

sup

g∈BV

1

|E(g(X

0

)

| X

r

, X

r+1

, . . .)

− Eg(X

0

)

| 6 Cρ

r

.



(X

t

)

t>0

est

ϕ

-faiblement dépendantave

ϕ(r) 6 Cρ

r

,

0 6 ρ < 1

et

C > 0

,voirDede ker et Prieur [29 ℄ pour plus dedétails.

Remarque 1.2 En fait il existe deux autres onstantes

C

et

C

telles que, pour toutes fon tions

f

1

, . . . , f

l

∈ BV

1

on ait

|E(f

1

(X

i

1

)

· · · f

l

(X

i

l

)

|σ(X

t

, t > r + i

l

))

− E(f

1

(X

i

1

)

· · · f

l

(X

i

l

))

| 6 C



1 + C +

· · · + C

l−1



ρ

r

.

Cettepropriétédefaible dépendan e estplusneque elleinduite par le ontrlede

ϕ

,voirDede ker et al. [27℄.

1.2.2 Chaînes de Markov

Une sériestationnaire

(X

t

)

t∈Z

vérie lapropriété de Markov(forte)àl'ordre

p

lorsque

L(X

t

| X

t−1

, . . .) =

L(X

t

| X

t−1

, . . . , X

t−p

).

De manière équivalente, il existe un ouple

(F, (ξ

t

)

t∈Z

)

tel que

X

t

= F (X

t−1

, . . . , X

t−p

; ξ

t

)

F : E

p

× E

→ E

et

t

)

t∈Z

est un pro essus i.i.d. à valeur dans

E

. On peut se restreindre au as où

ξ

t

suit la loi uniforme sur

E

= [0; 1]

. Remarquons qu'une haîne de Markov à l'ordre

p

à valeurdans

E

esten faitaussiune haîne de Markovd'ordre

1

à valeurdans

E

p

.

Les premiers exemples de haînes de Markov non mélangeants viennent naturellement dans le as

E = [0; 1]

. Tout omme pour l'exemple 1.1qui est une haîne de Markov, ilest toujours possible de faire orrespondreàunsystèmedynamiqueune haînedeMarkovasso iée.Barbouretal.[6℄ontmis enéviden el'existen ed'une haînedeMarkovd'ordre 1

(X

t

)

t∈Z

telleque

(X

0

, . . . , X

n

)

aitmêmeloi que

(Y

n

, . . . , Y

0

)

,où

(Y

t

)

t>0

estun systèmedynamique de typeLasota-Yorke. Remarquons qu'il ya alors uneinversiondesindi esqui s'opère, 'està dire uneinversion entre lepassé etlefutur.

Exemple 1.2 (Chaîne de Markov asso iée à un système dynamique) Soit

(X

t

)

t∈Z

une haîne de Markov asso iée à un système dynamique detype Lasota-Yorke. Alors ette haîne n'est pas mé-langeante maisbien faiblement dépendante : il existe

0 < ρ < 1

et

C > 0

telsque

ϕ(r) 6 Cρ

r

.

Danslasuitenousnedistingueronspastoujours es haînesdeMarkovdeleurssystèmesdynamiques asso iés.

(22)

Pour les modèles plus généraux suivants (

E

6= [0; 1]

), des ontrles sur les oe ients de mélange existent sous des onditions d'absolue ontinuité sur la distribution de

ξ

0

(voir Doukhan [38 ℄). La dépendan efaible permetde lever eshypothèses(voirle hapitre 2 pour plus dedétails).

Exemple 1.3 (Chaînes de Markov d'ordre

p

[Wint4℄) Soit l'équation

X

t

= F (X

t−1

, . . . , X

t−p

; ξ

t

),

∀t ∈ Z,

(1.3)

ave

F

vériant, pour un indi e

m > 1

,

kF (x

t−1

, . . . , x

t−p

; ξ

0

)

k

m

<

∞,

kF (x

t−1

, . . . , x

t−p

; ξ

0

)

− F (y

t−1

, . . . , y

t−p

; ξ

0

)

k

m

6

p

X

i=1

a

j

kx

t−i

− y

t−i

k,

p

X

i=1

a

j

6

a < 1.

L'existen e d'une solution stationnaire

(X

t

)

t∈Z

de l'équation (1.3) dans

L

m

est démontrée dans le hapitre 2. De plus, ettesolution est

τ

-faiblement dépendante ave

τ (r) 6 Ca

r/p

ave

C > 0

.

Remarque 1.3 Bougerol[17℄prouvel'existen epresque sûredetelsmodèlessousdes onditionsplus faibles. Maisl'existen e dumoment d'ordre 1 n'est pasassurée par ses résultats.

Remarque 1.4 Duo [51℄et Dede ker et Prieur [28℄ont montré l'existen e de

0 < ρ < 1

et

C > 0

telsque

τ (r) 6 Cρ

r

.Nous anons e résultat dans [Wint4℄ enétablissant que

ρ 6 a < 1

.

Naturellement plusieurs formespour

F

sont possibles.Nous enrappelons quelquesunes lassiques:  Modèles AutoRégressifs d'ordre

p

(

AR(p)

)

I i

E

= E

et

F (x

1

, . . . , x

p

; s) =

p

X

i=1

A

i

x

i

+ s.

Dans le as

E = R

d

,les

A

i

sont des matri esde taille

d

× d

eton a

P

p

i=1

kA

i

k = a

ave

k · k

une norme matri ielle.

 Modèles autorégressifs non linéaires I i

E

= E

et

F (x

1

, . . . , x

p

; s) = R(x

1

, . . . , x

p

) + s.

Si

R

vérie

kR(x

1

, . . . , x

p

)

− R(y

1

, . . . , y

p

)

k 6

P

p

i=1

Lip

R

i

kx

i

− y

i

k

alors

P

p

i=1

Lip

R

i

= a

.  Modèles

AR(1)

à oe ients aléatoires

I i on onsidère l'équation

X

t

= A

t

X

t−1

+ ζ

t

, où

(A

t

)

(23)

d

× d

et

t

)

t∈Z

unpro essus i.i.d.à valeur dans

E

.L'équation peutse mettresous laforme (1.3) ave

F (x

1

; (a, ζ)) = ax

1

+ ζ

où l'innovation

ξ

t

= (A

t

, ζ

t

)

est double. Le modèle satisfait alors

kA

0

k

m

= a

.Cemodèlea de nombreusespropriétés remarquables etappli ations, voir Dia onis et Friedman [31 ℄.

1.2.3 Chaînes à mémoire innie

Cettefois- i noussupposonsque lasérie

(X

t

)

t∈Z

satisfaitune équationnon markovienne dutype

X

t

= F (X

t−1

, . . . ; ξ

t

),

∀t ∈ Z,

presquepartout (p.p.), (1.4) ave , pour un

m > 1

,

kF (0, . . . ; ξ

0

)

k

m

<

∞,

(1.5)

kF (x

1

, . . . ; ξ

0

)

− F (y

1

, . . . ; ξ

0

)

k

m

6

X

j=1

a

j

kx

i

− y

j

k,

(1.6)

X

j=1

a

j

6

a < 1.

Demanderla ondition(1.6)pourn'importequellessuites

(x

t

)

t∈N

et

(y

t

)

t∈N

estinadapté aronpeut toujours prendre

kx

j

− y

j

k = a

−1

j

etletermededroite n'est alors pasdéni. Nousnousrestreignons

don àl'ensemble

R

(N)

dessuites

(x

t

)

t∈N

de

E

pour lesquellesilexiste

N

∈ N

telque

∀t > N

onait

x

t

= 0

.

La di ulté du problème réside dans le fait que tout le passé

(X

t−1

, . . .)

apparaît dans (1.4 ), alors que

F

n'est déniequesur lessuitesnullesàpartir d'un ertain rang.L'idée estd'abordde prouver l'existen e du pro essus

(X

t

)

t∈Z

omme étant la limite en

p

dans

L

m

(E)

des haînes de Markov

(X

t

(p)

)

t∈Z

d'ordre

p

vériant

X

t

(p)

= F (X

t−1

(p)

, . . . , X

t−p

(p)

, 0, . . . ; ξ

t

),

∀t ∈ Z.

D'après l'exemple 1.3 ,

(X

(p)

t

)

t∈Z

est une suite stationnaire de pro essus de

L

m

(E)

. On en déduit l'existen e dans

L

m

de la limite

(X

t

)

t∈Z

en

p

et sa stationnarité. Puis, en utilisant (1.5 ) et (1.6) on obtient l'existen e de la quantité

F (X

t−1

, . . . ; ξ

t

)

omme limite dans

L

m

(E)

lorsque

p

→ ∞

de

F (X

t−1

(p)

, . . . , X

t−p

(p)

, 0, . . . ; ξ

t

)

pour tout

t

∈ Z

. On a don

E

kF (X

t−1

, . . . ; ξ

t

)

k < ∞

et la quantité

F (X

t−1

, . . . ; ξ

t

)

estbiendéniepresquepartout.Finalement l'équation(1.4 )estvériée presque par-toutpar

(X

t

)

t∈Z

.

Nous pouvons don énon er le théorème suivant, qui donne à la fois l'existen e de telles haînes à mémoiresinniesetleurs propriétés de dépendan efaible :

(24)

Théorème 1.1 ([Wint4℄) Si les hypothèses (1.5) et (1.6) sont vériées pour

m > 1

alors il existe un pro essus stationnaire

τ

-faiblement dépendant

(X

t

)

t∈Z

solutionde l'équation 1.4tel que : 

E

kX

t

k

m

<

et 

τ (r) 6 C



a

r/p

+

P

k=p

a

k



pour tout

p

∈ N

C

nedépend pas de

p

.

Cette solutionest la seule telle que

(X

j

)

j<t

et

ξ

t

soient indépendants pour tout

t

.

La preuve de e théorèmeest donnéedansle hapitre 2.

Remarque 1.5 Dans des as parti uliers dedé roissan e des oe ients

(a

j

)

j>1

, nous obtenons  si

a

j

6

ce

−βj

ave

0 < c

alors il existe

α, C > 0

tel que

τ (r) 6 Ce

αβr

,  si

a

j

6

cj

−β

ave

β > 1

et

0 < c

alors

τ (r) 6 C (log r/r)

β−1

.

Remarque 1.6 Onmontre que

(X

t

)

t∈Z

est

τ

-faiblement dépendante ar limite en

p

des haînes de Markov

(X

(p)

t

)

t∈Z

d'ordre

p

elles-mêmes

τ

-faiblement dépendantes (voir exemple 1.3).

Nous donnons maintenant des exemples de fon tions

F

vériant les onditions (1.5 ) et (1.6 ). Les modèles ainsi obtenus sont lassiques et utiles pour les appli ations en é onométrie. Le premier modèle orrespondau asréel

E = E

= R

.

Exemple 1.4 (Modèles anes réels [Wint4℄) Le modèle ane

(X

t

)

t∈Z

est l'équation (1.4) où

F (x

1

, . . . ; u) = ug(x

1

, . . .) + f (x

1

, . . .).

(1.7)

Les onditions (1.5)et (1.6) sontvériées dès que

g

et

f

sontlips hitziennes.

Dansles hapitres4et5 surl'estimation deladensité, lesdensités marginalesetjointes des ouples

(X

0

, X

k

)

k>0

doiventêtrebornées.Ces onditionssontsatisfaitespour emodèled'aprèslaproposition

suivante:

Proposition 1.1 ([Wint4℄) Si il existe

ε > 0

tel que

g > ε

et si les innovations

t

)

t∈Z

admettent une densitémarginale bornée

f

ξ

alors les densitésmarginales

f

X

1

,...,X

n

de

(X

1

, . . . , X

n

)

existentpour tout

n > 0

et satisfont pour une onstante

c > 0

kf

X

1

,...,X

n

k

6

c

kf

ξ

k

n

.

Deux généralisations multivariées des modèles anes réels sont possibles. Le produit

ug

dans (1.7 ) estrempla é soit par

u

· g

u

est unematri e et

g

un ve teur fon tion dupassé, soit par

M

· u

M

estunematri e fon tiondupassé et

u

unve teur.Lespropriétésde esdeuxgénéralisationssont diérentes.

(25)

Exemple 1.5 (Modèles anes [Wint4 ℄) Le modèle ane

(X

t

)

t∈Z

est l'équation (1.4)où

F (x

1

, . . . ; u) = u

· g(x

1

, . . .) + f (x

1

, . . .).

(1.8)

I i

E = R

d

,

u

∈ E

=

M

d,m

l'ensemble des matri es de taille

d

× m

, les fon tions

g : R

d(

N

)

→ R

m

et

f : R

d(

N

)

→ R

d

.

Ce asenglobe denombreux modèles lassiques.

1. Modèles AR(

), orrespondau as

d = m

,

g = Id

d

et

f (x

1

, . . .) = a

0

+

P

i=1

a

i

x

i

. 2. Modèlesbilinéairesve torielsave

g(x

1

, . . .) = b

0

+

P

i=1

b

i

x

i

et

f (x

1

, . . .) = a

0

+

P

i=1

a

i

x

i

. 3. Modèlesbilinéairesrobustesave

g(x

1

, . . .) = b

0

+

P

i=1

b

i

(x

i

)

et

f (x

1

, . . .) = a

0

+

P

i=1

a

i

(x

i

)

oùles

a

i

et

b

i

sontdes fon tionslips hitziennes à valeurs dans

R

d

et

R

m

respe tivement.

4. Modèles ARCH(

) dansle asréel

d = m = 1

ave

f = 0

et

g =

p

a

0

+ a

1

x

2

1

+

· · ·

.

5. Modèle LARCH(

) ve torielsave

f = 0

et

g = a

0

+ a

1

x

1

+

· · ·

.Cemodèleestlargement développé dansGiraitis et al. [58 ℄.

6. Modèle NLARCH(

) ve toriels ave

f = 0

et

g = a

0

+ a

1

(x

1

) +

· · ·

où les

a

i

sont des fon tionslips hitziennes à valeurs dans

R

m

.

Toutefois,l'appli ation enstatistiqueparamétrique (voirle hapitre 6)estdéli atedans e ontexte: Les onditionsd'identiabilitén'ysontpasvériées.Dansle ontexteparamétrique,nouspréférerons l'extension suivante:

Exemple 1.6 (Pro essus autorégressifave des erreurs hétéros édastiques [Wint5℄)

Ce pro essus

(X

t

)

t∈Z

est la solutionstationnaire de l'équation (1.4) ave

F (x

1

, . . . ; u) = M (x

1

, . . .)

· u + f(x

1

, . . .).

I i

E = R

d

,

E

= R

m

etles fon tons

g : R

d(

N

)

→ M

d,m

et

f : R

d(

N

)

→ R

d

.

Lesmodèles GARCHmultidimensionnels ensont des asparti uliers, voirle hapitre 6 pour plusde détails.

1.3 Les modèles non ausaux [Wint1, Wint2, Wint3℄

Nousétudionslespropriétésde

η

et

λ

-faibledépendan edemodèlesnon ausaux.Nousnousplaçons dansle asréel

E = E

= R

(26)

1.3.1 Les modèles asso iés et gaussiens

Un pro essus

(X

t

)

t∈Z

est asso ié lorsque Cov

(f (X

1

, . . . , X

n

), g(X

1

, . . . , X

n

)) > 0

pour toutes fon -tions roissantes

f, g : R

n

→ R

telles que la ovarian e existe. Un pro essus

(X

t

)

t∈Z

est gaussien lorsque

(X

t

1

, . . . , X

t

n

)

suit une loi normale ve torielle pour tout ensemble d'indi es

(t

1

, . . . , t

n

)

.La

λ

-dépendan efaible estadaptée à esdeux aspuisque l'ona alors

λ(r) 6 sup

j>r

|

Cov

(X

0

, X

j

)

|.

1.3.2 Les s hémas de Bernoulli ave entrées indépendantes.

Doukhan et Louhi hi [41 ℄ ont donné les propriétés de dépendan e faible des s hémas de Bernoulli à entrées (ou innovations)indépendantes. Une entrée est un pro essusstationnaire

t

)

t∈Z

que nous supposonsdans ettepartie i.i.d.Si

H : R

Z

→ R

est telleque

sup

t∈Z

H (ξ

t−j

, j

∈ Z) − H ξ

t−j

1

|j|6r

, j

∈ Z



1

6

δ

r

,

(1.9)

alors les héma deBernoulli

(X

t

)

t∈Z

déni par l'équation

X

t

= H(ξ

t−j

, j

∈ Z)

t

∈ Z

(1.10)

est un pro essus stationnaire tel que

kX

0

k

1

<

dès que la suite

r

)

r∈N

onverge vers 0 lorsque

r

→ ∞

.Deplus, e pro essus est

η

-faiblement dépendant ave

η(r) 6 2δ

[r/2]

.

Exemple 1.7 (Les moyennes mobilesinnies) Le as leplus simple des héma de Bernoulli est

X

t

=

X

i∈Z

a

i

ξ

t−i

.

(1.11) Si

E

0

k

2

6

1

alors es moyennes sont

η

-faiblement dépendantes ave

η(r) 6

s X

|j|>[r/2]

ka

j

k

2

.

Exemple 1.8 (LARCH(

) Non Causaux) On onsidère i i l'équation

X

t

= ξ

t

a +

X

j6=0

a

j

X

t−j

 .

(27)

Doukhan et al. [47℄ont montré l'existen e d'unesolution stationnaire à ette équation dela forme

X

t

= ξ

t

a +

X

k=1

X

j

1

,...,j

k

6=0

a

j

1

ξ

t−j

1

· · · a

j

k

ξ

t−j

k

 .

Étant donné les produits innis d'innovations dans ette expression, les

t

)

t∈Z

doivent être bornés pour que

X

0

admette un moment. Sous une hypothèse de ontra tion

0

k

P

j6=0

ka

j

k = a < 1

, il existe un pro essus stationnaire solution de l'équation et vériant

kX

0

k

<

. Il est

η

-faiblement dépendantave

η(r) 6 C

a

r/p

+

X

|j|>p

a

j

pour tout

p

∈ N

etoù

C

nedépend pas de

p.

Remarque 1.7 On voit distin tement i i que le oe ient non ausal de faible dépendan e

η

se omporte omme

τ

dans le as ausal de haîneà mémoire innie.De manière générale Doukhan et Truquet [48℄ montrent l'existen e et la

η

faible dépendan e de solutions d'équations du type

X

t

= F (X

t−j

, j

6= 0; ξ

t

).

1.3.3 Less hémasdeBernoullilips hitziensave entréesfaiblementdépendantes.

Soitdésormais

(Y

t

)

t∈Z

lepro essusdesentrées dus héma(1.10 )supposé

η

ou

λ

-faiblement dépen-dant. Alorslepro essus

(X

t

)

t∈Z

est luimême

η

ou

λ

-faiblement dépendant dèsque

H : R

Z

→ R

est unefon tion tellequepourtoutes suites

(x

t

)

t∈Z

, (y

t

)

t∈Z

∈ R

Z

oïn idant surtouslesindi essaufun, noté

s

∈ Z

,

|H(x) − H(y)| 6 b

s

|x

s

− y

s

|.

(1.12)

Onaalors le lemmesuivant

Lemme 1.1 ([Wint2 ℄) Si

(Y

t

)

t∈Z

estunpro essusstationnaireave unmoment

m > 1

etsilasuite

(b

s

)

s∈Z

est telle que

L =

P

j

b

j

<

, alors  le pro essus

X

t

= H(Y

t−j

, j

∈ Z) = lim

I→∞

H Y

t−j

1l

{j6I}

, j

∈ Z



est un pro essus stationnaire tel que

kX

0

k

m

<

.

 Si le pro essus d'entrée

(Y

t

)

t∈Z

est

λ

-faiblement dépendant (ave des oe ients

λ

Y

(r)

), alors

(X

t

)

t∈Z

est

λ

-faiblement dépendantave

λ(r) 6 inf

2k6r

2

X

|i|>k

b

i

kY

0

k

1

+ (2k + 1)

2

L

2

λ

Y

(r

− 2k)

 .

(28)

 Si le pro essus d'entrée

(Y

t

)

t∈Z

est

η

-faiblement dépendant (ave des oe ients

η

Y

(r)

) alors

(X

t

)

t∈Z

est

η

-faiblement dépendant et

η(r) 6 inf

2k6r

2

X

|i|>k

b

i

kY

0

k

1

+ (2k + 1)L η

Y

(r

− 2k)

 .

Remarque 1.8 Lesnotionsdedépendan efaible

η

et

λ

satisfontdespropriétésd'héréditéparrapport à la lasse des transformations

H

lips hitziennes vériant (1.12). Une telle propriété permet de dé liner une innité d'exemples de pro essus

η

ou

λ

-faiblement dépendants enprenant des s hémas de Bernoulli d'innovationsdépendantes qui peuvent elles-mêmes être des s hémas de Bernoulli... Le as d'innovations gaussiennes ou asso iées est parti ulièrement intéressant : il donne des exemples de modèles que seule la

λ

-dépendan e faible permet detraiter.

Nous allons présenter quelques modèles pour montrer la généralité des notions non ausales de dé-pendan e faible.

Exemple 1.9 (Les moyennes mobilesinnies à entrées dépendantes) Dans e as

(X

t

)

t∈Z

est de la forme linéaire (1.11) et les entrées sont soit

η

-dépendantes, omme par exemple

ξ

t

=

H(ζ

t−j

; j

∈ Z)

ave

(ζ)

t∈Z

i.i.d., soit

λ

-dépendantes, omme par exemple

t

)

t∈Z

gaussien ou as-so ié.

La stru ture spé iquedes pro essus linéaires permet d'obtenir des résultats propres à e as (voir parexemplePeligradetUtev[92 ℄).Nousdonnons i-dessousdesmodèlesnonlinéairesvériantaussi l'hypothèse(1.12 ) maispour lesquelsles résultatsde [92℄) ne s'appliquent pas.

Exemple 1.10 (Moyenne mobile absolue) Un exemple simple de s héma non-linéaire à entrées dépendantes est

X

t

=

X

j∈Z

a

j

ξ

t−j

.

Dans e as

b

s

6

|a

s

|

.

Exemple 1.11 (Pro essus multiples) Un autre exemple est lepro essus solution del'équation

X

t

= ξ

t

a +

X

j6=0

a

j

ξ

t−j

 ,

(29)

1.3.4 Les s hémas de Bernoulliave entrées faiblement dépendantes.

Dans ette se tionl'hypothèse de Lips hitziannité estaaiblie pour l'hypothèse

|H(x) − H(y)| 6 b

s

(

kzk

∨ 1)|x

s

− y

s

|,

ℓ > 0,

(1.13) où

z

∈ R

Z

estdénipar

z

s

= 0

et

z

i

= x

i

= y

i

lorsque

i

6= s

.I i

kxk

= sup

i∈Z

|x

i

|

.

Théorème 1.2 (S hémas de Bernoulli à entrées dépendantes, [Wint2℄) Soit

(Y

t

)

t∈Z

un pro- essus stationnaire et

H : R

Z

→ R

vériant (1.13) pour

ℓ > 0

et pour une suite de

(b

j

)

j∈Z

telle que

P

j

|j|b

j

<

. Supposons qu'il existe un ouple de réels

(m, m

)

ave

kY

0

k

m

<

,

m > 1

,

m

>

(ℓ + 1)m

et

m

> ℓ + 1

si

m = 1

.Alors,  le pro essus

X

t

= H(Y

t−j

, j

∈ Z)

est bien déni dans

L

m

et est stationnaire;

 si le pro essus d'entrée

(Y

t

)

t∈Z

est

λ

-faiblement dépendant (ave des oe ients

λ

Y

(r)

), alors

(X

t

)

t∈Z

est

λ

-faiblement dépendantet il existe une onstante

c > 0

telle que

λ(r) = c inf

k6[r/2]

X

|j|>k

|j|b

j

+ (2k + 1)

2

λ

Y

(r

− 2k)

m

1−ℓ

m′ −1+ℓ

 ;

 silepro essusd'entrée

(Y

t

)

t∈Z

est

η

-faiblementdépendant(ave des oe ients

η

Y

(r)

)alors

(X

t

)

t∈Z

est

η

-faiblement dépendant et il existe une onstante

c > 0

telle que

η(r) = c inf

k6[r/2]

X

|j|>k

|j|b

j

+ (2k + 1)

1+

m′ −1

η

Y

(r

− 2k)

m

1−ℓ

m′ −1

 .

Remarque 1.9 Dans le tableau suivant, le al ul expli ite des oe ients est donné d'après les bornes obtenues dans le théorème 1.2 :

Coe ients de

H

Dépendan e des innovations Dépendan e du s héma de Bernoulli

b

j

6

C(

|j| + 1)

−b

λ

Y

(r) 6 Dr

−λ

λ(r) 6 cr

−λ

(

1−

2

b

)

m

1−ℓ

m′ −1+ℓ

b

j

6

C(

|j| + 1)

−b

η

Y

(r) 6 Dr

−η

η(r) 6 cr

−η

(b−2)(m

1−ℓ)

(b−1)(m′ −1)−ℓ

b

j

6

C(

|j| + 1)

−b

λ

Y

(r) 6 De

−rλ

λ(r) 6 cr

2−b

b

j

6

C(

|j| + 1)

−b

η

Y

(r) 6 De

−rη

η(k) 6 cr

2−b

b

j

6

Ce

−|j|b

λ

Y

(r) 6 Dr

−λ

λ(r) 6 cr

−λ

m

1−ℓ

m′ −1+ℓ

log

2

r

b

j

6

Ce

−|j|b

η

Y

(r) 6 Dr

−η

η(r) 6 cr

−η

m

1−ℓ

m′ −1

log

1+

m′ −1

r

b

j

6

Ce

−|j|b

λ

Y

(r) 6 De

−rλ

λ(r) 6 cr

2

e

−λr

b(m

1−ℓ)

b(m′ −1+ℓ)+2η(m′−1−ℓ)

b

j

6

Ce

−|j|b

η

Y

(r) 6 De

−rη

η(r) 6 cr

m

1−ℓ

m′ −1

e

−ηr

b(m

1−ℓ)

b(m′ −1)+2η(m′−1−ℓ)

(30)

Exemple 1.12 (Chaos de Volterra ave entrées dépendantes) Les s hémas

H

dela forme

H(x) =

K

X

k=0

X

j

1

,...,j

k

a

(k)

j

1

,...,j

k

x

j

1

· · · x

j

k

sontfaiblement dépendants. Ces modèles sontsolutions d'équations du type

X

t

= F (X

t−j

, j

6= 0; ξ

t

).

Si, par exemple,

|a

(k)

j

1

,...,j

k

| 6 C (j

1

∨ · · · ∨ j

k

)

−α

ou

|a

(k)

j

1

,...,j

k

| 6 C exp (−α(j

1

∨ · · · ∨ j

k

))

alors on a respe tivement

b

s

6

C

s

d−1−α

ou

b

s

6

C

e

−αs

pour tout

C

> 0

.

1.3.5 Con lusion sur les modèles

Au travers de es exemples de modèles, nous avons pu onstater que ladépendan e faible est plus performante que les notions de mélange dans le as ausal. Dans le as non ausal, la dépendan e faible estun outil moins ontraignant quele hoix d'unmodèle.

Dansle as ausal, ladépendan efaible est unoutil performant pour étudierles ara téristiquesde dépendan e desmodèles.Notamment, elle permet d'étudier les systèmes dynamiques etles haînes à mémoireinnie alors que lesnotions lassiquesde mélangen'ensont pas apables.

Les exemplesde modèles faiblement dépendants dans le as non ausal sont innis.Grâ e aux pro-priétés d'hérédité,des modèles très omplexessont faiblement dépendants. Partant de e onstat,il estmoinsrestri tifdetravailleràpartir d'hypothèsessurlesnotionsdedépendan efaiblequesurdes modèles, e qui orrespond en fait à une hypothèse plus forte. L'utilisation de ladépendan e faible estmoins ontraignante quelamodélisation.

1.4 Le prin ipe d'invarian e faible [Wint2℄

Nousprésentonsunepremièreextensiond'unrésultatasymptotique lassiquedansle asindépendant, maisnouveau dansle as faiblement dépendant.Dans toute ette se tion

E = R

.

1.4.1 Le prin ipe d'invarian e faible

Leprin ipe d'invarian e faibleestunrésultat de onvergen eenloi.Une suitede variablesaléatoires

(X

n

)

n>0

onverge en loi vers la variable

X

dès que, pour toute fon tion

g

ontinue bornée de

R

dans

R

, ona

E

(g(X

n

))

→ E(g(X))

lorsque

n

→ ∞

.Nous noterons dans lasuite

X

n

⇒ X

.Pour un pro essusstationnaire réel entré

(X

t

)

t∈Z

,lepro essusdes sommespartielles asso iéestdéni par

W

n

: t

∈ [0; 1] 7→

1

n

[nt]

X

i=1

X

i

.

(31)

I i

[nt]

est la partie entière de

nt

. Pour

t = 1

, on retrouve la somme des

(X

i

)

16i6n

renormalisée par

1/

n

. Pour des pro essus à mémoire ourte, la limite

lim

n→∞

Var

(

P

n

i=1

X

i

) /n

existe et on la note

σ

2

. Dans le as indépendant

σ

2

=

Var

(X

0

)

alors que dans le as de la dépendan e faible,

σ

2

=

P

k>0

Cov

(X

0

, X

k

) > 0

( ar 'est la limite d'une suite de varian es positives). On se pla era

dansle asnon dégénéré àsavoir

σ

2

6= 0

sans levérier; e sera une hypothèse supplémentaire.

Soit

W (t)

le mouvement brownien standard. Par dénition, pour tout

ω

∈ Ω

les traje toires

t

[0; 1]

7→ W

ω

(t)

sont des fon tions ontinues. De plus,

W (0) = 0

presque sûrement et pour tous

0 6 t < t

6

1

,

W (t

)

− W (t)

suit une loi normale

N (0, t

− t)

indépendante de lavariable aléatoire

W (t)

.

Pour tout

n > 1

,lavariablealéatoire

W

n

(t)

estàvaleurdansl'espa e desfon tions adlag, ontinue à droite etayant une limite à gau he. Cet espa e fon tionnel est noté

D(0, 1)

, il est métrisable par ladistan ede Skorohod notée

d

(voir par exemple Billingsley [12 ℄ pour plus dedétails). Le prin ipe d'invarian e faible est la onvergen e en loi du pro essus

W

n

vers le mouvement brownien

W

dans l'espa e deSkorohod

D(0, 1)

. Quelquesoit lafon tion

g

ontinue bornée,

d(E(g(W

n

)), E(g(σW )))

n→∞

0.

Par omposition, on vérie que

t

7→ E(g(W

n

(t)))

et

t

7→ E(g(W (t)))

sont bien des fon tions de

[0; 1]

dans

R

adlag.Le prin ipe d'invarian e faible, appelé aussithéorème de Donsker, s'é rit plus simplement

W

n

(t)

⇒ σ

2

W (t)

dans

D(0, 1).

Sous une ondition de dé roissan e du oe ient de dépendan e faible

λ

, le prin ipe d'invarian e faible estassuré(lapreuve estprésentéedansle hapitre 3) :

Théorème 1.3 (

λ

-dépendan e) Si

(X

t

)

t∈Z

admetun moment d'ordre

m > 2

et si

λ(r) =

O(r

−λ

)

(quand

r

↑ ∞

)ave

λ > 4 +

2

m−2

alors

σ

2

est ni et

W

n

(t)

⇒ σW (t),

dans l'espa e de Skorohod

D(0, 1).

Remarque 1.10 Dans le as de

η

-faible dépendan e le prin ipe d'invarian e faible a lieu dès que

η(r) =

O(r

−η

)

ave

η > 3 +

3

m−2

. Dans le as de

τ

-faible dépendan e ( as ausal) le prin ipe d'invarian e faible a lieu ave

τ (r) =

O(r

−τ

)

ave

τ > 1 +

1

m−2

. Plus la dépendan e faible est restri tive etplus les onditions sur les oe ientssont faibles.

(32)

1.4.2 Vitesses de onvergen e dans le TLC

Le théorème entral limite (TLC) estle résultatde onvergen e en loi lassique

W

n

(1) =

1

n

n

X

i=1

X

i

⇒ σW (1) σN (0, 1)

lorsque

n

→ ∞.

Ilestéquivalent àla onvergen edesfon tions ara téristiques

φ

W

n

(1)

(t)

→ φ

W (1)

(t)

pourtout

t

∈ R

ave

φ

X

(t) = E exp(itX)

.Onobtient dansle hapitre 3une bornesur lavitessede onvergen e

φ

W

n

(1)

(t)

− φ

W (1)

(t)

= o n

−c



,

pour tout

t

∈ R

etpour

0 < c < c

.

La taux

c

ne dépend que des paramètres

m

et

λ

. Il vérie

c

<

1

4

et plus exa tement

c

<

(m

− 2)/(2m − 2)

lorsque

m < 3

.Une perteest observée ardansle asi.i.d.lavitesse

c

= 1/2

est atteinte.

Une autre vitesse de onvergen e dans le TLC est al ulée. Elle orrespond au hoix de la norme uniformesurlesfon tionsderépartitionsde

W

n

(1)

et

W (1)

.Elles'appellel'inégalité deBerryEssen dansle asindépendant. Onmontre que:

sup

x∈R

|P (W

n

(1) 6 x)

− P (W (1) 6 x)| = o n

−c



,

pour

c < c

.

Dans le as indépendant, ette inégalité est valable pour

c =

1

2

,dans le as du mélange fort

c =

1

3

(voir [101 ℄). Dansnotre as,elle n'est valable quepour

c

plus petit que

1

12

.

1.5 L'estimation de la densité non adaptative [Wint1℄

Nousnousplaçonsi idansle as

E = R

d

pour

d > 1

.Lessériesétantstationnaires,ellesadmettentla même distributionmarginale, i.e.les

X

t

ont même loi deprobabilité

P

pour tout

t

∈ Z

.Onsuppose dans la suite que ette loi est absolument ontinue par rapport à la mesure de Lebesgue et admet don une densité

f

.Nous souhaitons estimer

f

grâ e à un estimateur

ˆ

f

n

à partir des observations

X

1

, . . . , X

n

. Ce problème est très lassique dans le as i.i.d., voir par exemple le livre de Tsybakov [108 ℄.

Nous présentons i i une large lassed'estimateurs

f

ˆ

n

onvergeants tousvers

f

. Nousdonnons aussi desvitesses de onvergen es ommunesà tous es estimateurs.Dans le asde vitessesasso iéesà la onvergen e uniforme, une perte apparaît par rapport au as de référen e de dépendan e. De plus, ettepertedépend despropriétésde dépendan efaibledumodèle. Danstoutelasuite

⌈x⌉

estleplus petit entier majorant

x

.

Figure

Fig. 1.1  Cette gure présente l'évolution du ritère de v alidation roisée en fontion de γ pour n = 2 10 observations
Fig. 1.2  Évolution du MISE en fontion de la taille de l'éhantillon dans le as η -faiblement dépendant
Fig. 1.3  Boxplots (la roix gure la moyenne) pour la distribution empirique de ˆ γ n obtenues pour 100 simulations pour n = 2 7 , 2 8 , 2 9 , 2 10
Fig. 5.1  Cross validation riterion's evolution with respet to γ for n = 2 10 observations
+3

Références

Documents relatifs

1.1 Quelques énergies primaires utlisées pour les moyens de transports.. Energie hydraulique Energie nucléaire Energie fossile Energie éolienne

Nous introduisons ici un autre mode de convergence, appel´ee convergence faible* dans le dual E 0 d’un espace de Banach (E, k·k E )... Le r´esultat suivant montre que la

Ann´ ee 2020-2021 Analyse, Math´ ematiques G´ en´ erales II.. TD6: convergences faible*

Le secteur tertiaire recouvre un vaste champ d'activités qui va du commerce à l'administration, en passant par les transports, les activités financières et immobilières, les

[r]

Nous définissons dans la partie IV une autre notion d’indice appelée indice de rotation d’une courbe fermée orientée.. La valeur de cet indice est donnée par le théorème de

Cette définition nous parait trop étendue, le rôle de la statistique devant se borner, selon nous, à représenter les faits par des termes numériques qu'on com- parera, suivant le

Maxwell adopte pour chaque vecteur quatre lettres, ses trois composantes, puis le vecteur lui-même, désigné par une lettre gothique} je désignerai le vecteur par la même lettre qui