HAL Id: tel-00160702
https://tel.archives-ouvertes.fr/tel-00160702v2
Submitted on 30 Aug 2007
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of
sci-entific research documents, whether they are
pub-lished or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est
destinée au dépôt et à la diffusion de documents
scientifiques de niveau recherche, publiés ou non,
émanant des établissements d’enseignement et de
recherche français ou étrangers, des laboratoires
publics ou privés.
Utilisation des notions de dépendance faible en
statistique
Olivier Wintenberger
To cite this version:
Olivier Wintenberger. Utilisation des notions de dépendance faible en statistique. Mathématiques
[math]. Université Panthéon-Sorbonne - Paris I, 2007. Français. �tel-00160702v2�
U.F.R. MATHÉMATIQUES
N
o
attribuépar labibliothèque
2
0
0
7
P A0
1
0
0
1
5
THÈSE
pour obtenir legrade de DOCTEUR ÈS-SCIENCES
SPÉCIALITÉMATHÉMATIQUES APPLIQUÉES
présentéeetsoutenue publiquement par
Olivier WINTENBERGER
11 juin2007
sousle titre
UTILISATION DES NOTIONS DE DÉPENDANCE FAIBLE EN
STATISTIQUE
Dire teurs de Thèse
M. PaulDOUKHAN,Professeur hargé de missionàl'ENSAE,
M. Jean-Mar BARDET, Professeur àl'Université Paris 1 Panthéon-Sorbonne.
Jury
Rapporteurs : M. EmmanuelRIO, Professeurà l'Université deVersailles St-Quentin-en-Yvelines, M. Qi-ManSHAO, Professeur àl'Université deHong Kong etde l'Oregon.
Examinateurs: M. IstvánBERKES,Professeur à l'Université de Graz,
M. Gérard GREGOIRE,Professeurà l'Universitéde Grenoble 1, Mme. Dominique PICARD,Professeur àl'UniversitéParis 7, M. Jean-Mi hel ZAKOIAN, Professeurà l'UniversitéLille 3.
Remer iements
Je dois le bon a omplissement de ette thèse à plusieurs personnes : ha une, dans son rle, m'a littéralement portéjusqu'àsonterme.
Enpremier lieuà mesdire teurs, dansunstyle trèsdiérent. APaulquim'a montrépar sa motiva-tion, sonenthousiasme, sondynamismequelemétierde her heur pouvaitêtre passionnant.A Jean Mar qui a été pour moi un modèle d'équilibre, de alme etde patien e, qui sont desvaleurs aussi indispensables pour e métier exigeant. A Marie Cottrell pour m'avoir a ueilliau sein du SAMOS dansla gaieté et labonne humeur. A toute l'équipe de e laboratoire qui réussit à on ilier rigueur intelle tuelle etdétente. A mesaînés dans e domaine s ientique, Patri eBertail, OdileBrandière, JérmeDede ker,Sana Louhi hi, Floren e Merlevède,ClémentinePrieur etPhilippe Soulierquiont toujours été de bon onseil. Mer i aussi à Emmanuel Rio et Qi Man Shao qui m'ont fait proter de leur expertise dans le domaine en rapportant sur ma thèse. A István Berkes, Gérard Grégoire, DominiquePi ardetJeanMi helZakoïanqui ont trèsgentimenta epté d'êtrelesmembresde mon jury. Leurjugement é lairé m'en ourage àaller plusloin.
D'autres personnes m'ont beau oup apporté, que e soit sur le plan s ientique ou non. A mes o-auteurs Irène Gannaz et Ni olas Raga he qui, étant do torants ommemoi, ont partagé les mêmes sentiments.Ad'autresdo torants,enparti uliersduSAMOS ommeCatherine,Hatem,Imen,Lionel, Madalina,Omaret euxduséminairedeChevaleret ommeChristophe,Claire,Guillaume,Mathieu, Pierre,Sebastien,Stéphane,ThanhMai,ThomasetTuave quij'aipartagédenombreuxmomentsde détenteaussi.Ades ollèguesquisontdevenusdesamis ommeCé ile,Gilles,GabrieletJeanMi hel.
Enn, il y a eux qui ont rendu tout ela possible et qui y donnent un sens. A ma famille qui a joué un rle très important, en parti ulier à mes parents qui m'ont toujours soutenu. A mesgrands parentspourleurgentillesse.EtbiensûràNathaliequi abienvoulupartager savie ave moidurant estroisannées eten fairedesannées de bonheur.
Résumé
La dépendan e faible est un outil très performant pour obtenir des résultatsasymptotiques en sta-tistique des séries hronologiques. Son atout majeur est de résumer les propriétés de dépendan e de très nombreux modèles via le omportement d'une suite de oe ients. Dans un problème où le modèlen'est pas lairement identiable,deshypothèsessurles oe ientsdedépendan efaiblesont parfois moins ontraignantes que le hoix d'un modèle. De plus, pour ertains modèles ausaux, la dépendan efaible permetd'étudier les propriétés de dépendan e làoù toutes les autres notions (de mélange par exemple) é houent. Les oe ients permettent d'élargir aux séries hronologiques des résultatsasymptotiques lassiquesdu as deréféren e, elui d'observations indépendantes.
Le hapitre 1 estunesynthèsedestravaux;il reprendles prin ipauxrésultatsdes hapitressuivants qui peuvent être lus séparément. Après avoir déni les notions de faible dépendan e utilisées dans e travail, nous donnons des exemples de modèles faiblement dépendants dans la partie I tels que les haînes à mémoire innie dans le hapitre 2 et les s hémas de Bernoulli dans le hapitre 3. De nouvelles propriétés de moments et de dépendan e sont données pour es modèles. La dépendan e faible permetd'atteindre desrésultatsasymptotiques optimaux,identiques au as indépendant, sur une lasse restreinte de modèles.Plus on étendle domaine d'étude etmoins lesrésultats sont bons. Dansle asde modèles ausaux, lesrésultats obtenus sont meilleurs quepour desmodèles non au-saux,plus généraux.
Grâ e à ses outils, nous généralisons desrésultats asymptotiques lassiques. Nous donnons des ver-sionsfaiblement dépendantesduprin ipe d'invarian e faibledansle hapitres3etde onvergen ede l'estimateurdeladensité(adaptatifounon)danslapartie II.Despertesdanslesvitessesde onver-gen esont onstatées dans le hapitre 4 .Ellessont en partie duesà ladépendan edes modèles,qui ajoutedestermes perturbateurs, eten partieauxinégalitésobtenuesdansle adredeladépendan e faible qui ne sont pas aussi nes que elles du as indépendant. Nous dis utons de l'origine de es pertes envitesseà partirde simulationsfourniesdans le hapitre 5.
Enn, lanormalité asymptotique de l'estimateur du Quasi Maximum de Vraisemblan e dansle as multivarié est donné pour la première fois dans la partie III. Ce problème restreint la lasse des modèles à onsidérer à elle de modèles dé orrélés. D'autres outils plus spé iques et plus e a es queladépendan e faibleexistent pour es modèles très parti uliersprésentés dansle hapitre 6.
Abstra t
Times series are main topi s in modern statisti almathemati s. They are essential for appli ations whererandomness playsanimportantrole.Indeed,physi al onstraintsentail thatseriousmodelling annot be done using independent sequen es. Thisrepresentsa real problem be ause properties are notalwaysknowninthat ase.Inorderto generalizethemain statisti softheindependent ase,one needsto useweaklydependent notions.
The present work, summarized in hapter 1, is devoted to provide a frame for the ommonly used time series in part I. These notions aremainly divided in two dierent lasses. The rst one is the lass of ausal dependen e. In this ase the weak dependen e ts thedependen e stru ture of time series where other notions, as mixing, fail. We study in hapter 2 moment and weakly dependent properties of hains with innite memory that are not Markovian but ausally weakly dependent models.These ondoneisthe lassofnon ausalpro esses.Weakdependen einthis ontextisvery generaland onditionsofweakdependen earepreferredtomodelization.Weintrodu etheBernoulli shiftswithdependent inputsin hapter 3.Workingwiththese notions,we balan e theoptimalityof theresultwiththesizeofthe lassofmodelsinvolved.Inthemorerestri tive ausal ase, theresults arebetter thaninthe non ausal one.
Withthese tools,weestablishdierent asymptoti alresults.We givea Donskerprin iple in hapter 3 and the onvergen e of the density estimates (adaptive or not) in part II. Losses in the rates of onvergen e are observed in hapter 4. They are due to the weak dependen e that puts additional termsandthenperturbsthe statisti s.Theyarealsodue tote hniquesthatarenot ase ient asin theindependent ase. We dis uss onsimulations the origin of theselosses in hapter 5.
Finally,the asymptoti normalityofthe QuasiMaximumLikelihood Estimatorfor multidimensional pro esses is given for the rst time in part III. We use moment properties of hains with innite memories but not their weak dependen e properties. The parametri ontext redu es the lass of models to be onsidered to the one of de orrelated pro esses. Spe i tools aremore e ient than weak dependen e inthe settingof hapter6.
1 Synthèse des travaux 1
1.1 Lesnotions de dépendan efaible . . . 2
1.1.1 Cas ausal . . . 3
1.1.2 Cas non ausal . . . 3
1.1.3 Comparaisonentre les oe ients . . . 4
1.2 Lesmodèles ausaux . . . 4
1.2.1 Systèmesdynamiques . . . 4
1.2.2 Chaînesde Markov . . . 6
1.2.3 Chaînesà mémoire innie . . . 8
1.3 Lesmodèles non ausaux. . . 10
1.3.1 Lesmodèles asso iés etgaussiens . . . 11
1.3.2 Less hémas de Bernoulliave entrées indépendantes. . . 11
1.3.3 Less hémas de Bernoullilips hitziens ave entrées faiblement dépendantes. . . 12
1.3.4 Less hémas de Bernoulliave entrées faiblement dépendantes. . . 14
1.3.5 Con lusionsurles modèles. . . 15
1.4 Le prin iped'invarian e faible . . . 15
1.4.1 Le prin ipe d'invarian e faible . . . 15
1.4.2 Vitessesde onvergen e dansleTLC . . . 17
1.5 L'estimationde ladensiténon adaptative . . . 17
1.5.1 L'estimateur
f
ˆ
n
. . . 181.5.2 La dépendan e faible desmodèles . . . 20
1.5.3 Résultats de onvergen e. . . 20
1.6 L'estimationde ladensitéadaptative . . . 22
1.6.1 Estimateurpar seuillagedur . . . 22
1.6.2 Quasioptimalité dansle asi.i.d. . . 24
1.6.3 Seuillage dur dansle asdépendant. . . 25
1.7.1 Pro édurede validation roisée . . . 27
1.7.2 Simulations . . . 27
1.7.3 Comportement del'estimateur par validation roisée . . . 28
1.7.4 L'estimateur
f
ˆ
ˆ
γ
n
n
. . . 30 1.8 L'estimationparamétrique . . . 30 1.8.1 L'estimateur duQMLE . . . 32 1.8.2 Résultats . . . 33 I The models 39 2 Weakly dependent hains with innite memory 41 2.1 Introdu tion . . . 422.2 Mainresults . . . 43
2.2.1 Denitions . . . 43
2.2.2 Themodel. . . 44
2.3 Examples . . . 47
2.4 Proofsof the main results . . . 50
2.4.1 Analgebrai preliminary. . . 51
2.4.2 Markovstationaryapproximation . . . 51
2.4.3 Proofof existen einTheorem 2.1. . . 53
2.4.4 Proofof weakdependen e inTheorem2.1 . . . 53
2.4.5 Proofof Corollary 2.1 . . . 54
2.4.6 Proofof Corollary 2.1 . . . 54
3 An invarian e prin iple for weakly dependent stationary general models 57 3.1 Introdu tion . . . 58
3.2 Denitionsandmain results . . . 59
3.2.1 Weakdependen e assumptions . . . 59
3.2.2 Mainresults. . . 60
3.3 Examples . . . 62
3.3.1 Lips hitz pro esseswithdependent inputs . . . 63
3.3.2 TheBernoullishiftswith dependent inputs . . . 66
3.4 Proofsof themain results . . . 69
3.4.1 Varian es . . . 70
3.4.2 A
∆
-order moment bound . . . 703.4.4 Ratesof onvergen e . . . 77
3.4.5 Proofof Lemma 3.1 . . . 79
3.4.6 Proofof Lemma 3.2 . . . 81
II The Density Estimation 85 4 Convergen e rates for density estimators of weakly dependent time series 87 4.1 Introdu tion . . . 88
4.2 Mainresults . . . 90
4.2.1 Weak dependen e. . . 90
4.2.2 Notations anddenitions . . . 91
4.2.3 Results . . . 92
4.3 Models,appli ations and extensions. . . 94
4.3.1 Examples of
η
-dependent timeseries. . . 944.3.2 Examples of
ϕ
-dependent timeseries.. . . 954.3.3 Sampled pro ess . . . 96
4.3.4 Densityestimators and bias . . . 96
4.4 Proofof theTheorems . . . 99
5 Adaptive density estimation underdependen e 111 5.1 Estimationframework . . . .114 5.2 Dependent models . . . .117 5.2.1 Expanding maps . . . .117 5.2.2
η
-weakly dependen e . . . .117 5.2.3 Bernoullishifts . . . .118 5.3 Mainresults . . . .119 5.3.1 Probabilityinequalities. . . .1195.3.2 Near-minimaxityof theestimation s heme . . . .121
5.4 Numeri alresults . . . .122
5.4.1 Cross-validation pro edure. . . .122
5.4.2 Theestimator
ˆ
γ
n
. . . .1235.4.3 Numeri alstudy ofthe onvergen e rates . . . .127
5.5 Proofs . . . .129
5.5.1 Proofof the Theorem 5.3 . . . .129
5.5.2 Somete hni al tools . . . .130
5.5.4 Biasofs ale estimation . . . .131
5.5.5 Detailsterm. . . .131
5.5.6 Proofof inequality(5.14 ) . . . .138
III The Parametri Estimation 141 6 Asymptoti normality of the QMLE for multivariate pro esses 143 6.1 Introdu tion . . . .144
6.2 Properties of the model . . . .146
6.3 Asymptoti behavioroftheQMLE . . . .151
6.4 Examples . . . .153 6.4.1 ARCH(
∞
) pro esses . . . .154 6.4.2 GARCH(q, q
′
)models . . . .155 6.4.3 TARCH(∞
) models . . . .1566.4.4 Multivariate ARCH(
∞
) pro esses . . . .1576.4.5 MultivariateGARCH(
q, q
′
)models . . . .1586.4.6 Multivariate LARCH(
∞
) and NLARCH(∞
) models . . . .1596.4.7 MultivariateNonlinearAR(
∞
) models . . . .1606.4.8 Multivariate ARMA-GARCHmodels . . . .161
6.5 Proofs . . . .162
6.5.1 Proofof Theorem 6.1. . . .162
6.5.2 Proofof Corollary 6.1 . . . .165
6.5.3 Proofof Theorem6.2. . . .165
Synthèse des travaux
Ce hapitre reprend les prin ipaux résultats obtenus dans les travaux [Wint1 ℄, [Wint2 ℄, [Wint3 ℄, [Wint4℄et[Wint5 ℄etdétaillésdansles hapitres2,3,4 ,5et6.Aprèsavoirdénilesnotionsdefaible dépendan e utilisées dans e travail, nous dressons une liste desprin ipaux modèles faiblement dé-pendants. Nousintroduisonsen parti ulier les haînesà mémoire innieetles s hémas deBernoulli, ave leurs propriétés de moments et de dépendan e faible. Nous généralisons grâ e à es notions des résultatsasymptotiques lassiquesdu as de référen e où les données sont indépendantes. Nous donnons des versions faiblement dépendantes du prin ipe d'invarian e faible et de onvergen e de l'estimateurdeladensité(adaptatifounon).Despertes danslesvitessesde onvergen e sontparfois onstatées.Enn, dansle adrede l'estimation paramétrique,lanormalitéasymptotiqueestpour la première fois donnée dans le as multivarié. Ce résultat utilise les propriétés de moments obtenues surles haînes à mémoire innie.
Voi i quelquesnotationstrès utiles pour lasuite de ettesynthèse :
(Ω,
A, P)
estun espa eprobabilisé,
(E,
k · k)
estun espa e deBana h,Λ
(k)
est l'espa e des fon tions lips hitziennes
f
deE
k
→ R
telles que pour tout
(x
1
, . . . , x
k
)
et(y
1
, . . . , y
k
)
deE
k
,|f(x
1
, . . . , x
k
)
− f(y
1
, . . . , y
k
)
| 6
Lipf
k
X
i=1
kx
i
− y
i
k,
ave Lipf <
∞
Λ
(k)
ρ
estl'ensembledesfon tions deΛ
(k)
tellesque Lip
f 6 ρ
,
BV
est l'espa edesfon tions de[0, 1]
dans[0, 1]
tellesquekhk
BV
<
∞
oùkhk
BV
=
|h(0)| + sup
n∈N
sup
a
0
=0<a
1
<···<a
n
=1
n
X
i=1
BV
1
est l'ensembledesfon tions deBV
telles quekhk
BV
6
1
,L
m
(E)
est l'espa e des variables aléatoires à valeurs dans
E
telles quekXk
m
<
∞
, ave , par dénitionkXk
m
= (E
kXk
m
)
1/m
,
L
∞
(E)
estl'espa edesvariablesaléatoiresàvaleursdans
E
tellesquekXk
∞
<
∞
,où,pardénitionkXk
∞
= inf
A>0
{P(kXk < A) = 1}
.Le passé au temps
t
d'unpro essus(X
t
)
t∈Z
est la tribuP
t
= σ(X
s
; s 6 t)
, le futur est la tribuF
t
= σ(X
s
; s > t)
.1.1 Notions de dépendan e faible [Wint1, Wint2, Wint3, Wint4℄
Nousétudionslespropriétésdedépendan edepro essusàtempsdis ret
(X
t
)
t∈Z
supposésstri tement stationnaires.Dénition 1.1 Une suite
(X
t
)
t∈Z
est stationnaire ausens stri t si(X
1
, . . . , X
n
)
et(X
h
, . . . , X
n+h
)
ontla même loi pourtoutn > 0
eth
∈ Z
.De plus, les séries temporelles sont supposées à "mémoire ourte", 'est à dire telles que la série desauto- ovarian es
(
Cov(X
0
, X
k
))
k∈Z
soit sommable. Ave ette hypothèse, ilest raisonnable d'es- ompter obtenir des résultats asymptotiques similaires à eux du as de référen e des pro essus indépendantsetidentiquement distribués (i.i.d.).Dans e but,nousintroduisonsdes oe ientsqui quantie ladépendan e de espro essus.Denombreuses notions ont étéintroduites pour fa iliterl'étude des pro essusdépendants. Chrono-logiquement, les notions de mélange sont les premièresà être apparues. Lestrois prin ipalessont le mélange fort (
α
-mélange), leβ
-mélange et lemélange uniforme (ouφ
-mélange) introduits respe ti-vement par Rosenblatt [103℄,Rozanov etVolkonskii [104 ℄ et Ibragimov [70 ℄.Ces notions présentent unin onvénient majeur.En pratique,le al ulde es oe ientsest déli at(voirDoukhan,[38℄. De plus, ertainspro essus nesont pasmélangeants. Le plus élèbreest elui d'Andrews [1℄ :Exemple 1.1 Soit
(ξ
t
)
t∈Z
une suite devariable i.i.d. tellequeP
(ξ
1
= 1) = P(ξ
1
= 0) = 1/2
alors la solutionstationnaire(X
t
)
t∈Z
de l'équationX
t
=
1
2
(X
t−1
+ ξ
t
),
∀t ∈ Z,
(1.1)n'est pas mélangeante au sens deRosenblatt.
De là est venue l'idée d'introduire des notions de dépendan e moins restri tives, ouvrant plus de modèles,pourlesquellesnouspouvons al ulerdesbornessurles oe ientsetdévelopperunethéorie asymptotiqueintéressante.Nousprésentons i-dessouslesprin ipalesnotionsquiserontutiliséesdans lasuite.
1.1.1 Cas ausal
Nousappellons ausaux les oe ients de dépendan e faible pour lesquelslepassé
P
t
etlefuturF
t
ne jouent pas un rle symétrique. Un modèle est dit ausal lorqu'on ontrle au moins un de ses oe ients ausaux.Dénition 1.2 (La
ϕ
-dépendan e, Dede ker et Prieur [29℄) SoitM
unesoustribudeA
.Pour toutX
∈ L
∞
(E
l
)
ave
l > 1
on dénitϕ(
M, X) = sup
n
kE(g(X)|M) − E(g(X))k
∞
, g
∈ Λ
(l)
1
o
.
La suite
ϕ
k
(r)
est dénie pour toutk > 1
parϕ
k
(r) = max
l6k
1
l
i+r6j
1
sup
<j
2
<···<j
l
ϕ(
P
i
, (X
j
1
, . . . , X
j
l
)) .
Le pro essus est
ϕ
-dépendant siϕ(r) = sup
k>0
ϕ
k
(r)
tend vers0
lorsquer
→ ∞
.Un oe ient moins restri tif que
ϕ
et valable pour des pro essus non bornés est le oe ient de ouplageτ
.Dénition 1.3 (La
τ
-dépendan e, Dede ker et Prieur [28℄) SoitM
unesoustribudeA
.Pour toutX
∈ L
1
(E
l
)
ave
l > 1
on dénitτ (
M, X) =
sup
n
|E(f(X) | M) − E(f(X))| , f ∈ Λ
(l)
1
o
1
.
La suite
τ
k
(r)
est dénie pourtoutk > 1
parτ
k
(r) = max
l6k
1
l
i+r6j
1
sup
<j
2
<···<j
l
τ (
P
i
, (X
j
1
, . . . , X
j
l
)) .
Le pro essus est
τ
-dépendant siτ (r) = sup
k>0
τ
k
(r)
tend vers0
lorsquer
→ ∞
.Danstoute lasuite,noussupposonsquel'espa e
(E,
A)
est susamment ri he pour qu'ilexiste une versionX
∗
distribuée omme
X
etindépendantedeM
tellequeτ (
M, X) = kX − X
∗
k
1
.Cerésultatde ouplagedénitle oe ient
τ
ommeleminimumτ (
M, X) = min kX − X
′
k
1
pour touteversionX
′
distribuée ommeX
etindépendantedeM
(voir Dede ker etPrieur [28 ℄pour plusde détails).1.1.2 Cas non ausal
Le asnon ausalrenvoieaux oe ientspourlesquelspassé etfuturjouent unrlesymétrique. Les modèles orrespondants, appelés modèles non ausaux,sont très généraux.
Dénition 1.4 (La
η
-dépendan e, Doukhan et Louhi hi [41℄) Lepro essus(X
t
)
t∈Z
estditêtre(ε, ψ)
-faiblement dépendant si il existe une suiteε(r)
↓ 0
(lorquer
↑ ∞
) et une fon tionψ :
N
2
× (R
+
)
2
→ R
+
telle que|
Cov(f (X
s
1
, . . . , X
s
u
), g(X
t
1
, . . . , X
t
v
))
| 6 ψ(u, v,
Lipf,
Lipg)ε(r),
pourtout
r > 0
ettout(u+v)
-upletstelsques
1
6
· · · 6 s
u
6
s
u
+r 6 t
1
6
· · · 6 t
v
etf, g
∈ Λ
(u)
×Λ
(v)
ave
sup
x
|f(x)| 6 1
etsup
x
|g(x)| 6 1
. Laη
-faible dépendan e orrespond àψ(u, v, a, b) = ua + vb
, dans e as on é ritε(r) = η(r)
.L'étudedespropriétés destabilitédessuitesfaiblement dépendantes partransformation nonlinéaire nousaamenés à introduire le oe ient
λ
.Dénition 1.5 (La
λ
-dépendan e, [Wint2 ℄) Laλ
-faible dépendan e orrespond àψ(u, v, a, b) =
uvab + ua + vb
. Oné ritalorsε(r) = λ(r)
.Remarque 1.1 D'autres oe ients(
κ
,κ
′
,
θ
,. . .
)dé oulent de hoix deψ
diérents,voir hapitre 3 pour plus dedétails.1.1.3 Comparaison entre les oe ients
Remarquons la relation suivante entre les oe ients :
λ(r) 6 η(r) 6 τ (r) 6 ϕ(r)
. Un pro essusϕ
-faiblement dépendant est aussiτ
−, η−, λ−
faiblement dépendant arϕ(r)
↓ 0
aver
↑ ∞
entraîne queτ (r), η(r), λ(r)
↓ 0
. Un arbitrage est possible entre l'optimalité des résultats asymptotiques et le hoix d'un oe ient plus restri tif. Ainsi dans le as ausal, plus restri tif que le non ausal, les résultats obtenus sont meilleurs arplus pro hes de eux du adre de référen e, l'indépendan e. Dansla suite,pour un modèle xé, nousne parlerons quede la notion de dépendan e faible laplus restri tive, 'estàdire elle orrespondant àlaplusgrandesuite de oe ientstendant vers0
.Cette démar he assured'obtenir les meilleursrésultats asymptotiques pour unmodèledonné.1.2 Les modèles ausaux [Wint1, Wint3 , Wint4℄
1.2.1 Systèmes dynamiques
Nous avons déjà vu à l'exemple 1.1 un pro essus non mélangeant. Nous généralisons i i e ontre-exemple en suivant la démar he de Dede ker et Prieur [29 ℄. La solution stationnaire de l'équation (1.1 ) s'é rit souslaforme
X
t
=
∞
X
j=0
1
2
j+1
ξ
t−j
.
Onen déduitque :
X
t
estun réeldans[0; 1]
dont ledéveloppement dyadique est0, ξ
t
ξ
t−1
· · ·
, laloi marginale deX
t
estlaloi uniformesur[0; 1]
,
X
t−1
= T (X
t
)
aveT (x) = 2x
modulo1
.(X
t
)
t∈Z
n'est pas mélangeant arX
t−1
est fon tion deX
t
dans la dernière relation. La notion de mélangefortintroduitepar Rosenblatt[103 ℄ est déniepar :α
r
=
sup
P ∈ P
0
,F ∈ F
r
|P(P ∩ F ) − P(P )P(F )|.
Choisissons
P =
{X
0
∈ [0; 1/2]} ∈ P
0
, un événement du passé de probabilité1/2
. Alors on aP =
{T
r
(X
r
)
∈ [0; 1/2]} = {X
r
∈ T
r−1
([0; 1/2])
}
, un événement du futurF
r
. ChoisissantF = P
dansladénitiondeα
,onobtientα
r
>
|1/2−1/4| = 1/2
.Lasuiteα
r
ne onvergepasvers0
,(X
t
)
t∈Z
n'est pasmélangeant au sensde Rosenblatt.
De même, les systèmes dynamiques
X
t
= T (X
t−1
)
pourt > 0
,T : [0; 1]
→ [0; 1]
oùX
0
est une variable sur[0; 1]
ne sont pas mélangeants. Les transformationsT
doivent avoir un omportement haotiquepour entretenirl'aléadu pro essusdû àX
0
.Ainsi,siT
est ontra tante, ilexisteunpoint xea
etle omportement asymptotiquede(X
t
)
t>0
est déterministe.LestransformationsT
étudiées sont de typeLasota-Yorke [82 ℄.Dénition 1.6 (Transformations de type Lasota-Yorke)
T
est une transformation de type Lasota-Yorke si(Régularité) Il existe une partition
0 = a
0
6
a
1
· · · 6 a
n
= 1
telle queT
∈ C
1
et|T
′
(x)
| > 0
sur]a
i−1
, a
i
[
pourtouti = 1, . . . , n
.(Expansivité) Soit
I
n
un intervalle tel que(T
n
)
′
y soit déni. Il existe
A > 0
ets > 1
tels queinf
x∈I
n
|(T
n
)
′
| > As
n
.(Mélangetopologique) Pourtousensembles nonvides
U
,V
,ilexisten
0
>
1
telqueT
−n
(U )
∩V 6= ∅
pour tout
n > n
0
.Cette lasse detransformations ade nombreusespropriétés remarquables :
il existe uneunique mesure
T
-invarianteµ
,
µ
admetune densitéf
∈ BV
(voir Viana[110℄ pourplus de détails).Lesystèmedynamique(stationnaire)detypeLasota-Yorkeasso iéàunetransformation
T
orrespond àX
t
= T (X
t−1
)
etX
0
µ
,samesureT
-invariante. Alors pour toutefon tionf
∈ Λ
(l)
,
E
(f (X
1
, . . . , X
l
)
| X
l
) = g(X
l
),
(1.2)il existe
0 6 ρ < 1
etune onstanteC > 0
tels que(Dede keretPrieur [29 ℄)sup
g∈BV
1
|E(g(X
0
)
| X
r
, X
r+1
, . . .)
− Eg(X
0
)
| 6 Cρ
r
.
(X
t
)
t>0
estϕ
-faiblement dépendantaveϕ(r) 6 Cρ
r
,
0 6 ρ < 1
etC > 0
,voirDede ker et Prieur [29 ℄ pour plus dedétails.Remarque 1.2 En fait il existe deux autres onstantes
C
etC
′
telles que, pour toutes fon tionsf
1
, . . . , f
l
∈ BV
1
on ait|E(f
1
(X
i
1
)
· · · f
l
(X
i
l
)
|σ(X
t
, t > r + i
l
))
− E(f
1
(X
i
1
)
· · · f
l
(X
i
l
))
| 6 C
′
1 + C +
· · · + C
l−1
ρ
r
.
Cettepropriétédefaible dépendan e estplusneque elleinduite par le ontrlede
ϕ
,voirDede ker et al. [27℄.1.2.2 Chaînes de Markov
Une sériestationnaire
(X
t
)
t∈Z
vérie lapropriété de Markov(forte)àl'ordrep
lorsqueL(X
t
| X
t−1
, . . .) =
L(X
t
| X
t−1
, . . . , X
t−p
).
De manière équivalente, il existe un ouple
(F, (ξ
t
)
t∈Z
)
tel queX
t
= F (X
t−1
, . . . , X
t−p
; ξ
t
)
oùF : E
p
× E
′
→ E
et
(ξ
t
)
t∈Z
est un pro essus i.i.d. à valeur dansE
′
. On peut se restreindre au as où
ξ
t
suit la loi uniforme surE
′
= [0; 1]
. Remarquons qu'une haîne de Markov à l'ordre
p
à valeurdansE
esten faitaussiune haîne de Markovd'ordre1
à valeurdansE
p
.
Les premiers exemples de haînes de Markov non mélangeants viennent naturellement dans le as
E = [0; 1]
. Tout omme pour l'exemple 1.1qui est une haîne de Markov, ilest toujours possible de faire orrespondreàunsystèmedynamiqueune haînedeMarkovasso iée.Barbouretal.[6℄ontmis enéviden el'existen ed'une haînedeMarkovd'ordre 1(X
t
)
t∈Z
telleque(X
0
, . . . , X
n
)
aitmêmeloi que(Y
n
, . . . , Y
0
)
,où(Y
t
)
t>0
estun systèmedynamique de typeLasota-Yorke. Remarquons qu'il ya alors uneinversiondesindi esqui s'opère, 'està dire uneinversion entre lepassé etlefutur.Exemple 1.2 (Chaîne de Markov asso iée à un système dynamique) Soit
(X
t
)
t∈Z
une haîne de Markov asso iée à un système dynamique detype Lasota-Yorke. Alors ette haîne n'est pas mé-langeante maisbien faiblement dépendante : il existe0 < ρ < 1
etC > 0
telsqueϕ(r) 6 Cρ
r
.
Danslasuitenousnedistingueronspastoujours es haînesdeMarkovdeleurssystèmesdynamiques asso iés.
Pour les modèles plus généraux suivants (
E
6= [0; 1]
), des ontrles sur les oe ients de mélange existent sous des onditions d'absolue ontinuité sur la distribution deξ
0
(voir Doukhan [38 ℄). La dépendan efaible permetde lever eshypothèses(voirle hapitre 2 pour plus dedétails).Exemple 1.3 (Chaînes de Markov d'ordre
p
[Wint4℄) Soit l'équationX
t
= F (X
t−1
, . . . , X
t−p
; ξ
t
),
∀t ∈ Z,
(1.3)ave
F
vériant, pour un indi em > 1
,kF (x
t−1
, . . . , x
t−p
; ξ
0
)
k
m
<
∞,
kF (x
t−1
, . . . , x
t−p
; ξ
0
)
− F (y
t−1
, . . . , y
t−p
; ξ
0
)
k
m
6
p
X
i=1
a
j
kx
t−i
− y
t−i
k,
p
X
i=1
a
j
6
a < 1.
L'existen e d'une solution stationnaire
(X
t
)
t∈Z
de l'équation (1.3) dansL
m
est démontrée dans le hapitre 2. De plus, ettesolution est
τ
-faiblement dépendante aveτ (r) 6 Ca
r/p
ave
C > 0
.Remarque 1.3 Bougerol[17℄prouvel'existen epresque sûredetelsmodèlessousdes onditionsplus faibles. Maisl'existen e dumoment d'ordre 1 n'est pasassurée par ses résultats.
Remarque 1.4 Duo [51℄et Dede ker et Prieur [28℄ont montré l'existen e de
0 < ρ < 1
etC > 0
telsqueτ (r) 6 Cρ
r
.Nous anons e résultat dans [Wint4℄ enétablissant que
ρ 6 a < 1
.Naturellement plusieurs formespour
F
sont possibles.Nous enrappelons quelquesunes lassiques: Modèles AutoRégressifs d'ordrep
(AR(p)
)I i
E
′
= E
etF (x
1
, . . . , x
p
; s) =
p
X
i=1
A
i
x
i
+ s.
Dans le asE = R
d
,les
A
i
sont des matri esde tailled
× d
eton aP
p
i=1
kA
i
k = a
avek · k
une norme matri ielle.Modèles autorégressifs non linéaires I i
E
′
= E
etF (x
1
, . . . , x
p
; s) = R(x
1
, . . . , x
p
) + s.
Si
R
vériekR(x
1
, . . . , x
p
)
− R(y
1
, . . . , y
p
)
k 6
P
p
i=1
LipR
i
kx
i
− y
i
k
alorsP
p
i=1
LipR
i
= a
. ModèlesAR(1)
à oe ients aléatoiresI i on onsidère l'équation
X
t
= A
t
X
t−1
+ ζ
t
, où(A
t
)
d
× d
et(ζ
t
)
t∈Z
unpro essus i.i.d.à valeur dansE
.L'équation peutse mettresous laforme (1.3) aveF (x
1
; (a, ζ)) = ax
1
+ ζ
où l'innovationξ
t
= (A
t
, ζ
t
)
est double. Le modèle satisfait alorskA
0
k
m
= a
.Cemodèlea de nombreusespropriétés remarquables etappli ations, voir Dia onis et Friedman [31 ℄.1.2.3 Chaînes à mémoire innie
Cettefois- i noussupposonsque lasérie
(X
t
)
t∈Z
satisfaitune équationnon markovienne dutypeX
t
= F (X
t−1
, . . . ; ξ
t
),
∀t ∈ Z,
presquepartout (p.p.), (1.4) ave , pour unm > 1
,kF (0, . . . ; ξ
0
)
k
m
<
∞,
(1.5)kF (x
1
, . . . ; ξ
0
)
− F (y
1
, . . . ; ξ
0
)
k
m
6
∞
X
j=1
a
j
kx
i
− y
j
k,
(1.6)∞
X
j=1
a
j
6
a < 1.
Demanderla ondition(1.6)pourn'importequellessuites
(x
t
)
t∈N
et(y
t
)
t∈N
estinadapté aronpeut toujours prendrekx
j
− y
j
k = a
−1
j
etletermededroite n'est alors pasdéni. Nousnousrestreignonsdon àl'ensemble
R
(N)
dessuites
(x
t
)
t∈N
deE
pour lesquellesilexisteN
∈ N
telque∀t > N
onaitx
t
= 0
.La di ulté du problème réside dans le fait que tout le passé
(X
t−1
, . . .)
apparaît dans (1.4 ), alors queF
n'est déniequesur lessuitesnullesàpartir d'un ertain rang.L'idée estd'abordde prouver l'existen e du pro essus(X
t
)
t∈Z
omme étant la limite enp
dansL
m
(E)
des haînes de Markov
(X
t
(p)
)
t∈Z
d'ordrep
vériantX
t
(p)
= F (X
t−1
(p)
, . . . , X
t−p
(p)
, 0, . . . ; ξ
t
),
∀t ∈ Z.
D'après l'exemple 1.3 ,
(X
(p)
t
)
t∈Z
est une suite stationnaire de pro essus deL
m
(E)
. On en déduit l'existen e dans
L
m
de la limite
(X
t
)
t∈Z
enp
et sa stationnarité. Puis, en utilisant (1.5 ) et (1.6) on obtient l'existen e de la quantitéF (X
t−1
, . . . ; ξ
t
)
omme limite dansL
m
(E)
lorsque
p
→ ∞
deF (X
t−1
(p)
, . . . , X
t−p
(p)
, 0, . . . ; ξ
t
)
pour toutt
∈ Z
. On a donE
kF (X
t−1
, . . . ; ξ
t
)
k < ∞
et la quantitéF (X
t−1
, . . . ; ξ
t
)
estbiendéniepresquepartout.Finalement l'équation(1.4 )estvériée presque par-toutpar(X
t
)
t∈Z
.Nous pouvons don énon er le théorème suivant, qui donne à la fois l'existen e de telles haînes à mémoiresinniesetleurs propriétés de dépendan efaible :
Théorème 1.1 ([Wint4℄) Si les hypothèses (1.5) et (1.6) sont vériées pour
m > 1
alors il existe un pro essus stationnaireτ
-faiblement dépendant(X
t
)
t∈Z
solutionde l'équation 1.4tel que :E
kX
t
k
m
<
∞
etτ (r) 6 C
a
r/p
+
P
∞
k=p
a
k
pour toutp
∈ N
∗
où
C
nedépend pas dep
.Cette solutionest la seule telle que
(X
j
)
j<t
etξ
t
soient indépendants pour toutt
.La preuve de e théorèmeest donnéedansle hapitre 2.
Remarque 1.5 Dans des as parti uliers dedé roissan e des oe ients
(a
j
)
j>1
, nous obtenons sia
j
6
ce
−βj
ave
0 < c
alors il existeα, C > 0
tel queτ (r) 6 Ce
−
√
αβr
, si
a
j
6
cj
−β
aveβ > 1
et0 < c
alorsτ (r) 6 C (log r/r)
β−1
.
Remarque 1.6 Onmontre que
(X
t
)
t∈Z
estτ
-faiblement dépendante ar limite enp
des haînes de Markov(X
(p)
t
)
t∈Z
d'ordrep
elles-mêmesτ
-faiblement dépendantes (voir exemple 1.3).Nous donnons maintenant des exemples de fon tions
F
vériant les onditions (1.5 ) et (1.6 ). Les modèles ainsi obtenus sont lassiques et utiles pour les appli ations en é onométrie. Le premier modèle orrespondau asréelE = E
′
= R
.
Exemple 1.4 (Modèles anes réels [Wint4℄) Le modèle ane
(X
t
)
t∈Z
est l'équation (1.4) oùF (x
1
, . . . ; u) = ug(x
1
, . . .) + f (x
1
, . . .).
(1.7)Les onditions (1.5)et (1.6) sontvériées dès que
g
etf
sontlips hitziennes.Dansles hapitres4et5 surl'estimation deladensité, lesdensités marginalesetjointes des ouples
(X
0
, X
k
)
k>0
doiventêtrebornées.Ces onditionssontsatisfaitespour emodèled'aprèslapropositionsuivante:
Proposition 1.1 ([Wint4℄) Si il existe
ε > 0
tel queg > ε
et si les innovations(ξ
t
)
t∈Z
admettent une densitémarginale bornéef
ξ
alors les densitésmarginalesf
X
1
,...,X
n
de(X
1
, . . . , X
n
)
existentpour toutn > 0
et satisfont pour une onstantec > 0
kf
X
1
,...,X
n
k
∞
6
c
kf
ξ
k
n
∞
.
Deux généralisations multivariées des modèles anes réels sont possibles. Le produit
ug
dans (1.7 ) estrempla é soit paru
· g
oùu
est unematri e etg
un ve teur fon tion dupassé, soit parM
· u
oùM
estunematri e fon tiondupassé etu
unve teur.Lespropriétésde esdeuxgénéralisationssont diérentes.Exemple 1.5 (Modèles anes [Wint4 ℄) Le modèle ane
(X
t
)
t∈Z
est l'équation (1.4)oùF (x
1
, . . . ; u) = u
· g(x
1
, . . .) + f (x
1
, . . .).
(1.8)I i
E = R
d
,
u
∈ E
′
=
M
d,m
l'ensemble des matri es de tailled
× m
, les fon tionsg : R
d(
N
)
→ R
m
et
f : R
d(
N
)
→ R
d
.
Ce asenglobe denombreux modèles lassiques.
1. Modèles AR(
∞
), orrespondau asd = m
,g = Id
d
etf (x
1
, . . .) = a
0
+
P
∞
i=1
a
i
x
i
. 2. Modèlesbilinéairesve torielsaveg(x
1
, . . .) = b
0
+
P
∞
i=1
b
i
x
i
etf (x
1
, . . .) = a
0
+
P
∞
i=1
a
i
x
i
. 3. Modèlesbilinéairesrobustesaveg(x
1
, . . .) = b
0
+
P
∞
i=1
b
i
(x
i
)
etf (x
1
, . . .) = a
0
+
P
∞
i=1
a
i
(x
i
)
oùles
a
i
etb
i
sontdes fon tionslips hitziennes à valeurs dansR
d
et
R
m
respe tivement.
4. Modèles ARCH(
∞
) dansle asréeld = m = 1
avef = 0
etg =
p
a
0
+ a
1
x
2
1
+
· · ·
.5. Modèle LARCH(
∞
) ve torielsavef = 0
etg = a
0
+ a
1
x
1
+
· · ·
.Cemodèleestlargement développé dansGiraitis et al. [58 ℄.6. Modèle NLARCH(
∞
) ve toriels avef = 0
etg = a
0
+ a
1
(x
1
) +
· · ·
où lesa
i
sont des fon tionslips hitziennes à valeurs dansR
m
.
Toutefois,l'appli ation enstatistiqueparamétrique (voirle hapitre 6)estdéli atedans e ontexte: Les onditionsd'identiabilitén'ysontpasvériées.Dansle ontexteparamétrique,nouspréférerons l'extension suivante:
Exemple 1.6 (Pro essus autorégressifave des erreurs hétéros édastiques [Wint5℄)
Ce pro essus
(X
t
)
t∈Z
est la solutionstationnaire de l'équation (1.4) aveF (x
1
, . . . ; u) = M (x
1
, . . .)
· u + f(x
1
, . . .).
I iE = R
d
,E
′
= R
m
etles fon tonsg : R
d(
N
)
→ M
d,m
etf : R
d(
N
)
→ R
d
.Lesmodèles GARCHmultidimensionnels ensont des asparti uliers, voirle hapitre 6 pour plusde détails.
1.3 Les modèles non ausaux [Wint1, Wint2, Wint3℄
Nousétudionslespropriétésde
η
etλ
-faibledépendan edemodèlesnon ausaux.Nousnousplaçons dansle asréelE = E
′
= R
1.3.1 Les modèles asso iés et gaussiens
Un pro essus
(X
t
)
t∈Z
est asso ié lorsque Cov(f (X
1
, . . . , X
n
), g(X
1
, . . . , X
n
)) > 0
pour toutes fon -tions roissantesf, g : R
n
→ R
telles que la ovarian e existe. Un pro essus
(X
t
)
t∈Z
est gaussien lorsque(X
t
1
, . . . , X
t
n
)
′
suit une loi normale ve torielle pour tout ensemble d'indi es(t
1
, . . . , t
n
)
.Laλ
-dépendan efaible estadaptée à esdeux aspuisque l'ona alorsλ(r) 6 sup
j>r
|
Cov
(X
0
, X
j
)
|.
1.3.2 Les s hémas de Bernoulli ave entrées indépendantes.
Doukhan et Louhi hi [41 ℄ ont donné les propriétés de dépendan e faible des s hémas de Bernoulli à entrées (ou innovations)indépendantes. Une entrée est un pro essusstationnaire
(ξ
t
)
t∈Z
que nous supposonsdans ettepartie i.i.d.SiH : R
Z
→ R
est tellequesup
t∈Z
H (ξ
t−j
, j
∈ Z) − H ξ
t−j
1
|j|6r
, j
∈ Z
1
6
δ
r
,
(1.9)alors les héma deBernoulli
(X
t
)
t∈Z
déni par l'équationX
t
= H(ξ
t−j
, j
∈ Z)
t
∈ Z
(1.10)est un pro essus stationnaire tel que
kX
0
k
1
<
∞
dès que la suite(δ
r
)
r∈N
onverge vers 0 lorsquer
→ ∞
.Deplus, e pro essus estη
-faiblement dépendant aveη(r) 6 2δ
[r/2]
.
Exemple 1.7 (Les moyennes mobilesinnies) Le as leplus simple des héma de Bernoulli est
X
t
=
X
i∈Z
a
i
ξ
t−i
.
(1.11) SiE
kξ
0
k
2
6
1
alors es moyennes sont
η
-faiblement dépendantes aveη(r) 6
s X
|j|>[r/2]
ka
j
k
2
.
Exemple 1.8 (LARCH(
∞
) Non Causaux) On onsidère i i l'équationX
t
= ξ
t
a +
X
j6=0
a
j
X
t−j
.
Doukhan et al. [47℄ont montré l'existen e d'unesolution stationnaire à ette équation dela forme
X
t
= ξ
t
a +
X
∞
k=1
X
j
1
,...,j
k
6=0
a
j
1
ξ
t−j
1
· · · a
j
k
ξ
t−j
k
.
Étant donné les produits innis d'innovations dans ette expression, les
(ξ
t
)
t∈Z
doivent être bornés pour queX
0
admette un moment. Sous une hypothèse de ontra tionkξ
0
k
∞
P
j6=0
ka
j
k = a < 1
, il existe un pro essus stationnaire solution de l'équation et vériantkX
0
k
∞
<
∞
. Il estη
-faiblement dépendantaveη(r) 6 C
a
r/p
+
X
|j|>p
a
j
pour toutp
∈ N
∗
etoù
C
nedépend pas dep.
Remarque 1.7 On voit distin tement i i que le oe ient non ausal de faible dépendan e
η
se omporte ommeτ
dans le as ausal de haîneà mémoire innie.De manière générale Doukhan et Truquet [48℄ montrent l'existen e et laη
faible dépendan e de solutions d'équations du typeX
t
= F (X
t−j
, j
6= 0; ξ
t
).
1.3.3 Less hémasdeBernoullilips hitziensave entréesfaiblementdépendantes.
Soitdésormais
(Y
t
)
t∈Z
lepro essusdesentrées dus héma(1.10 )supposéη
−
ouλ
-faiblement dépen-dant. Alorslepro essus(X
t
)
t∈Z
est luimêmeη
ouλ
-faiblement dépendant dèsqueH : R
Z
→ R
est unefon tion tellequepourtoutes suites(x
t
)
t∈Z
, (y
t
)
t∈Z
∈ R
Z
oïn idant surtouslesindi essaufun, notés
∈ Z
,|H(x) − H(y)| 6 b
s
|x
s
− y
s
|.
(1.12)Onaalors le lemmesuivant
Lemme 1.1 ([Wint2 ℄) Si
(Y
t
)
t∈Z
estunpro essusstationnaireave unmomentm > 1
etsilasuite(b
s
)
s∈Z
est telle queL =
P
j
b
j
<
∞
, alors le pro essusX
t
= H(Y
t−j
, j
∈ Z) = lim
I→∞
H Y
t−j
1l{j6I}
, j
∈ Z
est un pro essus stationnaire tel que
kX
0
k
m
<
∞
.Si le pro essus d'entrée
(Y
t
)
t∈Z
estλ
-faiblement dépendant (ave des oe ientsλ
Y
(r)
), alors(X
t
)
t∈Z
estλ
-faiblement dépendantaveλ(r) 6 inf
2k6r
2
X
|i|>k
b
i
kY
0
k
1
+ (2k + 1)
2
L
2
λ
Y
(r
− 2k)
.
Si le pro essus d'entrée
(Y
t
)
t∈Z
estη
-faiblement dépendant (ave des oe ientsη
Y
(r)
) alors(X
t
)
t∈Z
estη
-faiblement dépendant etη(r) 6 inf
2k6r
2
X
|i|>k
b
i
kY
0
k
1
+ (2k + 1)L η
Y
(r
− 2k)
.
Remarque 1.8 Lesnotionsdedépendan efaible
η
etλ
satisfontdespropriétésd'héréditéparrapport à la lasse des transformationsH
lips hitziennes vériant (1.12). Une telle propriété permet de dé liner une innité d'exemples de pro essusη
ouλ
-faiblement dépendants enprenant des s hémas de Bernoulli d'innovationsdépendantes qui peuvent elles-mêmes être des s hémas de Bernoulli... Le as d'innovations gaussiennes ou asso iées est parti ulièrement intéressant : il donne des exemples de modèles que seule laλ
-dépendan e faible permet detraiter.Nous allons présenter quelques modèles pour montrer la généralité des notions non ausales de dé-pendan e faible.
Exemple 1.9 (Les moyennes mobilesinnies à entrées dépendantes) Dans e as
(X
t
)
t∈Z
est de la forme linéaire (1.11) et les entrées sont soit
η
-dépendantes, omme par exempleξ
t
=
H(ζ
t−j
; j
∈ Z)
ave(ζ)
t∈Z
i.i.d., soitλ
-dépendantes, omme par exemple(ξ
t
)
t∈Z
gaussien ou as-so ié.La stru ture spé iquedes pro essus linéaires permet d'obtenir des résultats propres à e as (voir parexemplePeligradetUtev[92 ℄).Nousdonnons i-dessousdesmodèlesnonlinéairesvériantaussi l'hypothèse(1.12 ) maispour lesquelsles résultatsde [92℄) ne s'appliquent pas.
Exemple 1.10 (Moyenne mobile absolue) Un exemple simple de s héma non-linéaire à entrées dépendantes est
X
t
=
X
j∈Z
a
j
ξ
t−j
.
Dans e asb
s
6
|a
s
|
.Exemple 1.11 (Pro essus multiples) Un autre exemple est lepro essus solution del'équation
X
t
= ξ
t
a +
X
j6=0
a
j
ξ
t−j
,
1.3.4 Les s hémas de Bernoulliave entrées faiblement dépendantes.
Dans ette se tionl'hypothèse de Lips hitziannité estaaiblie pour l'hypothèse
|H(x) − H(y)| 6 b
s
(
kzk
ℓ
∞
∨ 1)|x
s
− y
s
|,
ℓ > 0,
(1.13) oùz
∈ R
Z
estdénipar
z
s
= 0
etz
i
= x
i
= y
i
lorsquei
6= s
.I ikxk
∞
= sup
i∈Z
|x
i
|
.Théorème 1.2 (S hémas de Bernoulli à entrées dépendantes, [Wint2℄) Soit
(Y
t
)
t∈Z
un pro- essus stationnaire etH : R
Z
→ R
vériant (1.13) pourℓ > 0
et pour une suite de(b
j
)
j∈Z
telle queP
j
|j|b
j
<
∞
. Supposons qu'il existe un ouple de réels(m, m
′
)
avekY
0
k
m
′
<
∞
,m > 1
,m
′
>
(ℓ + 1)m
etm
′
> ℓ + 1
si
m = 1
.Alors, le pro essusX
t
= H(Y
t−j
, j
∈ Z)
est bien déni dansL
m
et est stationnaire;
si le pro essus d'entrée
(Y
t
)
t∈Z
estλ
-faiblement dépendant (ave des oe ientsλ
Y
(r)
), alors(X
t
)
t∈Z
estλ
-faiblement dépendantet il existe une onstantec > 0
telle queλ(r) = c inf
k6[r/2]
X
|j|>k
|j|b
j
+ (2k + 1)
2
λ
Y
(r
− 2k)
m
′
−
1−ℓ
m′ −1+ℓ
;
silepro essusd'entrée(Y
t
)
t∈Z
estη
-faiblementdépendant(ave des oe ientsη
Y
(r)
)alors(X
t
)
t∈Z
est
η
-faiblement dépendant et il existe une onstantec > 0
telle queη(r) = c inf
k6[r/2]
X
|j|>k
|j|b
j
+ (2k + 1)
1+
ℓ
m′ −1
η
Y
(r
− 2k)
m
′
−
1−ℓ
m′ −1
.
Remarque 1.9 Dans le tableau suivant, le al ul expli ite des oe ients est donné d'après les bornes obtenues dans le théorème 1.2 :
Coe ients de
H
Dépendan e des innovations Dépendan e du s héma de Bernoullib
j
6
C(
|j| + 1)
−b
λ
Y
(r) 6 Dr
−λ
λ(r) 6 cr
−λ
(
1−
2
b
)
m
′
−
1−ℓ
m′ −1+ℓ
b
j
6
C(
|j| + 1)
−b
η
Y
(r) 6 Dr
−η
η(r) 6 cr
−η
(b−2)(m
′
−
1−ℓ)
(b−1)(m′ −1)−ℓ
b
j
6
C(
|j| + 1)
−b
λ
Y
(r) 6 De
−rλ
λ(r) 6 cr
2−b
b
j
6
C(
|j| + 1)
−b
η
Y
(r) 6 De
−rη
η(k) 6 cr
2−b
b
j
6
Ce
−|j|b
λ
Y
(r) 6 Dr
−λ
λ(r) 6 cr
−λ
m
′
−
1−ℓ
m′ −1+ℓ
log
2
r
b
j
6
Ce
−|j|b
η
Y
(r) 6 Dr
−η
η(r) 6 cr
−η
m
′
−
1−ℓ
m′ −1
log
1+
m′ −1
ℓ
r
b
j
6
Ce
−|j|b
λ
Y
(r) 6 De
−rλ
λ(r) 6 cr
2
e
−λr
b(m
′
−
1−ℓ)
b(m′ −1+ℓ)+2η(m′−1−ℓ)
b
j
6
Ce
−|j|b
η
Y
(r) 6 De
−rη
η(r) 6 cr
m
′
−
1−ℓ
m′ −1
e
−ηr
b(m
′
−
1−ℓ)
b(m′ −1)+2η(m′−1−ℓ)
Exemple 1.12 (Chaos de Volterra ave entrées dépendantes) Les s hémas
H
dela formeH(x) =
K
X
k=0
X
j
1
,...,j
k
a
(k)
j
1
,...,j
k
x
j
1
· · · x
j
k
sontfaiblement dépendants. Ces modèles sontsolutions d'équations du type
X
t
= F (X
t−j
, j
6= 0; ξ
t
).
Si, par exemple,|a
(k)
j
1
,...,j
k
| 6 C (j
1
∨ · · · ∨ j
k
)
−α
ou|a
(k)
j
1
,...,j
k
| 6 C exp (−α(j
1
∨ · · · ∨ j
k
))
alors on a respe tivementb
s
6
C
′
s
d−1−α
oub
s
6
C
′
e
−αs
pour toutC
′
> 0
.1.3.5 Con lusion sur les modèles
Au travers de es exemples de modèles, nous avons pu onstater que ladépendan e faible est plus performante que les notions de mélange dans le as ausal. Dans le as non ausal, la dépendan e faible estun outil moins ontraignant quele hoix d'unmodèle.
Dansle as ausal, ladépendan efaible est unoutil performant pour étudierles ara téristiquesde dépendan e desmodèles.Notamment, elle permet d'étudier les systèmes dynamiques etles haînes à mémoireinnie alors que lesnotions lassiquesde mélangen'ensont pas apables.
Les exemplesde modèles faiblement dépendants dans le as non ausal sont innis.Grâ e aux pro-priétés d'hérédité,des modèles très omplexessont faiblement dépendants. Partant de e onstat,il estmoinsrestri tifdetravailleràpartir d'hypothèsessurlesnotionsdedépendan efaiblequesurdes modèles, e qui orrespond en fait à une hypothèse plus forte. L'utilisation de ladépendan e faible estmoins ontraignante quelamodélisation.
1.4 Le prin ipe d'invarian e faible [Wint2℄
Nousprésentonsunepremièreextensiond'unrésultatasymptotique lassiquedansle asindépendant, maisnouveau dansle as faiblement dépendant.Dans toute ette se tion
E = R
.1.4.1 Le prin ipe d'invarian e faible
Leprin ipe d'invarian e faibleestunrésultat de onvergen eenloi.Une suitede variablesaléatoires
(X
n
)
n>0
onverge en loi vers la variableX
dès que, pour toute fon tiong
ontinue bornée deR
dans
R
, onaE
(g(X
n
))
→ E(g(X))
lorsquen
→ ∞
.Nous noterons dans lasuiteX
n
⇒ X
.Pour un pro essusstationnaire réel entré(X
t
)
t∈Z
,lepro essusdes sommespartielles asso iéestdéni parW
n
: t
∈ [0; 1] 7→
√
1
n
[nt]
X
i=1
X
i
.
I i
[nt]
est la partie entière dent
. Pourt = 1
, on retrouve la somme des(X
i
)
16i6n
renormalisée par1/
√
n
. Pour des pro essus à mémoire ourte, la limitelim
n→∞
Var(
P
n
i=1
X
i
) /n
existe et on la noteσ
2
. Dans le as indépendant
σ
2
=
Var
(X
0
)
alors que dans le as de la dépendan e faible,σ
2
=
P
k>0
Cov(X
0
, X
k
) > 0
( ar 'est la limite d'une suite de varian es positives). On se pla eradansle asnon dégénéré àsavoir
σ
2
6= 0
sans levérier; e sera une hypothèse supplémentaire.
Soit
W (t)
le mouvement brownien standard. Par dénition, pour toutω
∈ Ω
les traje toirest
∈
[0; 1]
7→ W
ω
(t)
sont des fon tions ontinues. De plus,W (0) = 0
presque sûrement et pour tous0 6 t < t
′
6
1
,W (t
′
)
− W (t)
suit une loi normale
N (0, t
′
− t)
indépendante de lavariable aléatoire
W (t)
.Pour tout
n > 1
,lavariablealéatoireW
n
(t)
estàvaleurdansl'espa e desfon tions adlag, ontinue à droite etayant une limite à gau he. Cet espa e fon tionnel est notéD(0, 1)
, il est métrisable par ladistan ede Skorohod notéed
(voir par exemple Billingsley [12 ℄ pour plus dedétails). Le prin ipe d'invarian e faible est la onvergen e en loi du pro essusW
n
vers le mouvement brownienW
dans l'espa e deSkorohodD(0, 1)
. Quelquesoit lafon tiong
ontinue bornée,d(E(g(W
n
)), E(g(σW )))
→
n→∞
0.
Par omposition, on vérie que
t
7→ E(g(W
n
(t)))
ett
7→ E(g(W (t)))
sont bien des fon tions de[0; 1]
dansR
adlag.Le prin ipe d'invarian e faible, appelé aussithéorème de Donsker, s'é rit plus simplementW
n
(t)
⇒ σ
2
W (t)
dansD(0, 1).
Sous une ondition de dé roissan e du oe ient de dépendan e faible
λ
, le prin ipe d'invarian e faible estassuré(lapreuve estprésentéedansle hapitre 3) :Théorème 1.3 (
λ
-dépendan e) Si(X
t
)
t∈Z
admetun moment d'ordrem > 2
et siλ(r) =
O(r
−λ
)
(quandr
↑ ∞
)aveλ > 4 +
2
m−2
alorsσ
2
est ni etW
n
(t)
⇒ σW (t),
dans l'espa e de SkorohodD(0, 1).
Remarque 1.10 Dans le as de
η
-faible dépendan e le prin ipe d'invarian e faible a lieu dès queη(r) =
O(r
−η
)
ave
η > 3 +
3
m−2
. Dans le as deτ
-faible dépendan e ( as ausal) le prin ipe d'invarian e faible a lieu aveτ (r) =
O(r
−τ
)
aveτ > 1 +
1
m−2
. Plus la dépendan e faible est restri tive etplus les onditions sur les oe ientssont faibles.1.4.2 Vitesses de onvergen e dans le TLC
Le théorème entral limite (TLC) estle résultatde onvergen e en loi lassique
W
n
(1) =
1
√
n
n
X
i=1
X
i
⇒ σW (1) σN (0, 1)
lorsquen
→ ∞.
Ilestéquivalent àla onvergen edesfon tions ara téristiques
φ
W
n
(1)
(t)
→ φ
W (1)
(t)
pourtoutt
∈ R
ave
φ
X
(t) = E exp(itX)
.Onobtient dansle hapitre 3une bornesur lavitessede onvergen eφ
W
n
(1)
(t)
− φ
W (1)
(t)
= o n
−c
,
pour toutt
∈ R
etpour0 < c < c
∗
.
La taux
c
∗
ne dépend que des paramètres
m
etλ
. Il vériec
∗
<
1
4
et plus exa tementc
∗
<
(m
− 2)/(2m − 2)
lorsquem < 3
.Une perteest observée ardansle asi.i.d.lavitessec
∗
= 1/2
est atteinte.
Une autre vitesse de onvergen e dans le TLC est al ulée. Elle orrespond au hoix de la norme uniformesurlesfon tionsderépartitionsde
W
n
(1)
etW (1)
.Elles'appellel'inégalité deBerryEssen dansle asindépendant. Onmontre que:sup
x∈R
|P (W
n
(1) 6 x)
− P (W (1) 6 x)| = o n
−c
,
pourc < c
′
.
Dans le as indépendant, ette inégalité est valable pour
c =
1
2
,dans le as du mélange fortc =
1
3
(voir [101 ℄). Dansnotre as,elle n'est valable quepour
c
′
plus petit que
1
12
.1.5 L'estimation de la densité non adaptative [Wint1℄
Nousnousplaçonsi idansle as
E = R
d
pour
d > 1
.Lessériesétantstationnaires,ellesadmettentla même distributionmarginale, i.e.lesX
t
ont même loi deprobabilitéP
pour toutt
∈ Z
.Onsuppose dans la suite que ette loi est absolument ontinue par rapport à la mesure de Lebesgue et admet don une densitéf
.Nous souhaitons estimerf
grâ e à un estimateurˆ
f
n
à partir des observationsX
1
, . . . , X
n
. Ce problème est très lassique dans le as i.i.d., voir par exemple le livre de Tsybakov [108 ℄.Nous présentons i i une large lassed'estimateurs