HAL Id: tel-00006736
https://tel.archives-ouvertes.fr/tel-00006736
Submitted on 24 Aug 2004
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of
sci-entific research documents, whether they are
pub-lished or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est
destinée au dépôt et à la diffusion de documents
scientifiques de niveau recherche, publiés ou non,
émanant des établissements d’enseignement et de
recherche français ou étrangers, des laboratoires
publics ou privés.
Inférence statistique pour les mouvements browniens
fractionnaires et multifractionnaires
Jean-François Coeurjolly
To cite this version:
Jean-François Coeurjolly. Inférence statistique pour les mouvements browniens fractionnaires et
mul-tifractionnaires. Modélisation et simulation. Université Joseph-Fourier - Grenoble I, 2000. Français.
�tel-00006736�
presentee par
Jean-Francois Coeurjolly
p our obtenirlegrade de
Docteur de l'Universit
e Joseph Fourier
(Arr^etes ministeriels du 5 juillet 1984 et du 30 Mars 1992)
Specialite: Ma th
ematiques
Appliqu ees
Inference statistique pour les mouvements browniens fractionnaires et multifractionnaires
Soutenue le 19Decembre 2000devant lacommissiond'examen
Alain Le Breton President,Grenoble I. Jean-Marc Azas Rapp orteur, ToulouseI I I.
Peter Robinson Rapp orteur, London Scho ol of Economics. Jacques Istas Examinateur,Grenoble I I.
Monique Pontier Examinateur,ToulouseI I I. Georges Oppenheim Examinateur,Paris-Sud. Philippe Soulier Examinateur,Evry. Anestis Antoniadis Directeur,Grenoble I.
Mes premiers remerciements vont a Alain Le Breton, professeur a l'Universite de Gre-noble I, qui m'afaitl'honneur de presiderlejury.
Je tiens a exprimer mes vifs remerciements a Peter Robinson, professeur a la London Scho olof Economics, p ouravoiracceptelalourde t^ache delire mondo cumenten francaiset de l'avoir rapp orte.Son in uence dansle domaineetses questions m'ont p ermisde prendre un recul signicatif parrapp orta montravail.
JesouhaitetemoignermaprofondegratitudeenversJean-Marc Azas, professeura l'Uni-versite de Toulouse I I I, p our la lecture tres attentive qu'il a faite de mon manuscrit et les nombreuses et interessantes remarques qui ont p ermis l'achevement d'une nouvelle version. Je regretteprofondementqu'il n'ait puassister a lasoutenance de ce projetp our lequel il a montreun investissement imp ortant.
Jeremercie egalement Philipp e Soulier, ma^tre de conferencesal'Universited'Evry, Mo-nique Pontier, professeura l'Universite de ToulouseI I I etGeorgesOpp enheim, professeur a l'Universite de Paris-Sud,p our avoir devoile un inter^etparticulier etun esprit critique a la lecture de mathese dont jesuis reellement atte.
J'ai ete ravi de voir Jacques Istas, professeur a l'Universite de Grenoble I I, parmi les membres de mon jury. Nos nombreuses discussions ontete p our moi tresformatrices.Je le remercie d'avoir initie letravaileectuedansle Chapitre3.Le Theoreme3.2,fruit de notre collab oration,alongtempsclamesurlaplacepublique\Quel'onmesupprimejesuisfaux",et m'adevoileles deuxqualitesnecessaires al'elab orationd'untravailde recherche lapatience etl'acharnement.
Enn, je tiens a remercier plus chaleureusement Anestis Antoniadis, professeur a l'Uni-versitede GrenobleI,qui estal'origine decetravail.Ilm'estdiÆcile de resumerenquelques mots tout ce qu'il m'aapp orte par son implication tout au long de cette these,tant sur le planscientique rep ondantavecb eaucoup degentillesseamesinterrogationsmathematiques souventstupidesetsuivant laprogressiondemontravailavec b eaucoupdecuriosite,quesur leplan relationnelen m'invitanta travailleravec d'autresgens,exterieursaulab oratoire. Je lui suis reconnaissant d'avoir cru en moi et de m'avoir transmis sa passionde la recherche. Parailleurs,m^emesij'aitoujoursfaitsemblantderireatoutessesblagues,sab onnehumeur, ses encouragements et sadisp onibili te sans faille ont ete p our moi un soutien considerable. Je suis er comme Artaban (et non pas comme un bar-tabac comme le disait Coluche) de p ouvoir clamerque c'estsous sadirection quej'ai eectue montravail.
Quetousceuxquionteuneserait-cequ'unjourl'ideequefonctionnairerimaitavecemploi ctif visitent leservice administratif etleservice de lareprographie de notrelab oratoire. Je les remerciep our leur eÆcacite etleur b onne humeur.
Je remercie enn la Stella Artois qui m'ap ermis a ma maniered'exprimer toute ma re-connaissance envers ceuxvenus assister ala soutenance qu'ils soient eleves,professeurs d'ici etd'ailleurs, exp ertsen geographiedesbars,specialistes enp ot dethese(i.e. lesthesardsdu LMC),compagnond'uncertainperiplemaro cainetplusparticulierementex-colo cataires, pa-rents[29],reinedudessin fractionnaire(maso euretnonpaslavachequirit),etlaspecialiste en citation.Qu'ils sachent queparleurpresence,leuramitieetleur sinceritetoutau longde ce travail,cejour restera,p our moi,un souvenirinoubliable.
EtaDavid,aquijedoislaresolutiond'unegrandepartiedemesproblemesinformatiques, je n'aurai qu'un conseil en vue de sa tres pro chaine brillante soutenance: ne remonte pas l'ecran ala nde tonexp ose.
Table des matieres
Notations 13
1 Intro duction 15
2 Identicationdumouvementbrownienfractionnaireparvariationsdiscretes 23
2.1 Proprietesgeneralesdu mbf . . . 23
2.2 Intro ductionau probleme d'identication . . . 24
2.3 k -variations dumbf. . . 26
2.4 Applications desresultatsa l'identication dumbf . . . 28
2.4.1 Cas dumbf standard. . . 28
2.4.2 Cas dumbf generalise . . . 31
2.5 Simulations etcalculs numeriques . . . 35
2.5.1 Variances asymptotiques desestimateurs. . . 35
2.5.2 Qualitesdesestimateurs parsimulations . . . 37
2.6 Performancesdes estimateursvis-a-vis de l'estimateurde Whittle . . . 43
2.6.1 Variances asymptotiques . . . 43
2.6.2 Temps CPU despro cedures d'estimation. . . 43
2.6.3 Performances desestimateurs p ourdes seriescourtes . . . 45
2.7 Conclusion . . . 45
2.8 Preuvesdes resultats . . . 45
2.8.1 Developp ement en p olyn^omes d'Hermitede H k (t)=jtj k =E k 1 . . . . 45 2.8.2 k -variations du mbf . . . 47 2.8.3 Identication dumbfstandard . . . 50
2.8.4 Identication dumbfnon standard . . . 51
3 Bornes de Cramer-Rao p our le mouvement brownien fractionnaire 55 3.1 Intro duction. . . 55
3.2 Inverse de matriceslo calisees . . . 56
3.2.1 Matricesa decroissance hyp erb olique . . . 57
3.2.2 Matricesa decroissance exp onentielle . . . 62
3.3 Applications au calcul des Bornesde Cramer-Raodumbf . . . 63
3.3.1 PreuvesdesTheoremes3.5et3.6 . . . 65
4 Problemes statistiques induits par le mbf 71
4.1 Surquelques testslies aumbf . . . 71
4.1.1 Intro duction . . . 71
4.1.2 Quelques tests existants . . . 71
4.1.3 Une nouvelle classede statistiques . . . 74
4.1.4 Etudeparsimulations dunouveau test. . . 76
4.1.5 Preuvesdesresultats . . . 77
4.2 Debruitage d'unsignal mo delise parun mbf . . . 80
4.2.1 Intro duction . . . 80
4.2.2 Variationsquadratiquesbruitees . . . 81
4.2.3 Identication du mbfbruite . . . 82
4.2.4 Test de presenced'un bruitgaussien additif . . . 84
4.2.5 Etudeparsimulations desestimateursetdu test . . . 86
4.2.6 Preuve desresultats . . . 86
4.3 Conclusion . . . 94
5 Inference statistique p ourle mouvement brownien multifractionnaire 95 5.1 Intro duction. . . 95
5.2 Variations quadratiqueslo cales:denitions etcomp ortementsasymptotiques 97 5.3 Applications desresultatsa l'identication dumbm . . . 99
5.3.1 Mouvement brownien multifractionnaire standard. . . 99
5.3.2 Mouvement brownien multifractionnaire generalise . . . 101
5.4 Quelques simulations . . . 103
5.4.1 Selection de voisinage optimal. . . 104
5.4.2 Estimateursfonctionnels . . . 104
5.5 Surquelques testsp our lembm . . . 105
5.5.1 Kurtosisempiriquelo cal p ourlemouvement brownien multifractionnaire105 5.5.2 Testsparametriquessur lafonctionde Hurst . . . 111
5.6 Conclusionetp ersp ectives . . . 114
5.7 Preuvesdesresultats . . . 114
5.7.1 Test de multifractionnarite . . . 126
A Simulation du mouvement brownien fractionnaire 127 A.1 Intro duction etp ositiondu probleme . . . 127
A.2 Representationsto chastiquedu mouvement brownien fractionnaire . . . 128
A.3 Metho dede Sellan,MeyeretAbry . . . 128
A.4 Metho dede Choleski . . . 130
A.5 Metho dede Levinson. . . 131
A.6 Metho dede Wo o d etChan . . . 132
A.7 Approximation d'unmbf viales sommescumuleesd'un bgf . . . 133
A.8 Qualitedes generateursdu mbf . . . 133
B Quelques estimateurs du parametre de Hurst 137 B.1 Intro duction etp ositiondu probleme . . . 137
B.2 Metho dessp ectrales . . . 137
B.2.1 Log-perio dogramme . . . 137
B.4 Metho detemps-echelle:decomp ositionen ondelettes . . . 139
B.5 Metho destemp orelles . . . 140
B.5.1 Nombrede franchissementsde zerodubgf . . . 140
B.5.2 Variations discretes dumbf . . . 140
B.6 Quelques simulations . . . 140
B.7 Scripts S-plus . . . 141
B.8 AdressesWEB . . . 141
C Simulation d'un mouvement brownien multifractionnaire 147 C.1 Intro ductionetp osition duprobleme . . . 147
C.2 Metho dede Choleski . . . 148
C.3 Approximationde Peltier etLevy-Vehel . . . 148
C.4 Approximationde Wo o det Chan . . . 149
C.5 Qualitedes approximations . . . 150
C.6 Conclusions . . . 150
R k ; N k ; Z k
: Ensembledesk-uplets reels, d'entiers,d'entiersrelatifs.
P; E; Var; Cov : Probabilite, esperance,variance, covariance.
v.a. : variable aleatoire.
v.a.i.i.d. : variables aleatoiresindep endantes, identiquement distribuees.
[x] : Partieentiere d'unreelx:
Æ i;j = 1; si i=j et 0sinon. () : FonctionGamma. jjvjj; v2R k
: Norme euclidienn e sur R k
:
1I E
() : Fonctionindicatrice surun ensemble E:
M K
(R) : Ensembledesmatrices carreesde taille K aco eÆcients reels.
A t ; A 1 ; p our A2M K
(R) : Matrice transp oseede A; inverse de A:
jAj; Tr(A); p our A2M K (R) : Determinantde A; tracede A: ` p (Z) = n (u n ) n2Z ; P n2Z ju n j p 1=p <+1 o ; p1: u n v n si lim n!+1 un vn =1: u n =O (v n ) si 9c>0; ju n jcjv n j: u n =o(v n ) si lim n!+1 un v n =0: u n v n si 9c 1 ;c 2 >0; c 1 jv n jju n jc 2 jv n j: P ! : Convergenceen probabilite. p:s:
! : Convergencepresque s ^ure.
L
! : Convergenceen loi.
L
1
Introduction
Les pro cessus autosimilaires, c'est-a-dire les pro cessus invariants en loi par changement d'echelle, ont connu un veritable essor cette deuxieme moitie de siecle tant sur l'asp ect theorique avec le developp ement de nombreux mo deles sto chastiques, que sur le p oint pra-tiqueavecdesdomainesd'applicationnombreuxetvaries.Etp ourtant,enobservantlescrues etlessecheressessuccessivesduNil, cesphenomenesd'invarianceetaientconnus depuis bien longtempscomme lesouligne cettecitation de laBible (Genese,41-29.30):
\Voici, il y aura sept annees degrande abondancedanstout le pays d'Egypte. Sept annees de famine viendrontapres elles;etl'on oubliera toute cette abondanceau pays d'Egypte, et
lafamine consumerale pays."
Ce phenomene fut app ele Eet Joseph par Mandelbrot [70], et traduit un phenomene de cycles, de p ersistance d'un systeme dans un etat (secheresse ou crue dans le cas du Nil). Lespremieres donneesraisonnables sontbaseessurlesmesuresdesminima duniveau duNil durant les annees 622-1284,et ont etemises sur le devant de la scene par Tousson en 1925 [92];laFigureFig.1.1representeles cumulsdesminima duniveau duNilrecentressurcette perio de de 663 annees. Cette serie chronologique a suscite une recherche imp ortante et le travail leplusprobantest celuide l'hydrologisteH.Hurst[52]. En1951,il amis enevidence un comp ortement particulier de la statistique R=S (rescaled adjusted range), constamment utilisee en hydrologie, qui implique, entre autres, que la variance de la moyenne empirique (calculee sur une serie de longueur N), converge vers zero avec une vitesse plus faible que la vitesse N
1
. Ce resultat decouvert empiriquement fut en totale contradiction avec les resultatsclassiquesdel'ep o quep ourlespro cessusdeMarkovoulespro cessusmelangeants.Ce comp ortementfutapp eleparlasuite EetdeHurstparMandelbrotetal.[69],quijustement furent les premiers a tenter de mo deliser ce nouveau phenomene, en intro duisant p our cela un pro cessus sto chastique app ele mouvement brownien fractionnaire (note mbf), pro cessus deja etudie dans un contexte theorique sans l'avoir nomme ainsi par Kolmogorov [62], en 1940.Le mbf est l'unique pro cessus gaussien,parametrepar (H ;C)2]0;1[R
+
, centre,nul
a l'origine, a accroissements stationnaires et autosimilaires de parametre H. Dans la suite de do cument,nousnousrefereronstoujoursacettedenitionlorsque nousparleronsdembf. Nouslaisserons dec^otelesdenitionsalternativesdiscuteesparMarinuccietal.[71], quiont conduit a certaines confusions dansla litteratureeconometrique. La notion d'autosimilarite d'un pro cessus est tres liee a la notion de fractale, objet mathematique intro duit au debut du siecle parJulia,Cantorou encore Haussdor.Demanieresimpliee,une fractale est une gure geometrique ou un ensemble de p oints au trace fractionne et irregulier, invariant par changement d'echelle. Ceci se traduit d'un p oint de vue probabiliste: un pro cessus X = fX(t);t0gestditautosimilaire de parametreH si 8t
1 ;:::;t d 2R + et8Æ >0 (X(t );:::;X(t )) L = Æ H X(Æt );:::;Æ H X(Æt ) :
Le mbfconstitue une extension notabledu mouvementbrownien,en ce sens que les accrois-sements du mbf ne sont plus indep endants. Leur structure de covariance decro^t hyp erb oli-quementavecle temps.Le mbfest unmo dele tresparticuliercar leparametre Hegalement app eleparametre deHurst ouparametrefractionnaire, estlie adierentes notions.Outrela notion d'autosimilarite que nous avons deja signalee, le parametre H gere la regularite des trajectoiresdupro cessus.Eneet,ladimension fractaledumbfvautpresques ^urement2 H. Cette derniere proprieteest interessantecar elle traduit le fait que le mbf p ermet d'obtenir des trajectoiresplus irregulieres que cellesdu mouvement brownien lorsque H <1=2,et in-versement plus regulieres lorsque H > 1=2. Enn, et nous le verrons un p eu plus en detail dans le Chapitre 2, le parametre H gere la decroissance hyp erb olique de la fonction d'au-to covariance du mbf (notee ()par la suite). On montre,en eet, que (k )= O (jk j
2H 2 ). Le pro cessusdes accroissements, denisur R
+
,denit alorsun pro cessusa longue memoire lorsque H >1=2car ()n'est passommablep our cettevaleur duparametre.
Depuis le travail pionnier de Mandelbrot, le mouvement brownien fractionnaire a ete utilise comme outil de mo delisation dans de nombreuses situations: en hydrologie [68], en turbulence [87], [43], en climatologie, e.g. [20], eneconomie [47], [37], en imagerie medicale [63], [56], [58], en reseaux de telecommunications, e.g. Willinger et al. [96], ou encore p our mo deliser descourb es dechargeelectrique [72],[9].
Occultons p our un court moment les problemes statistiques que p eut soulever une telle mo delisation(identication, prediction, validation du mo dele::: ) p our mettreen avant un des asp ects limites du mouvement brownien fractionnaire. Considerons toujours les donnees duNil,etfo calisons-nousplusparticulierementsurlescentpremieresobservations.Apremiere vue,cespremieres observationssemblent uctuer de maniere plusindep endante queles cinq centssuivantes,autrementditlephenomenedep ersistancenettementvisibleapreslesannees 720, est absent p our les premieres donnees. Cette impression est conrmee par Beran qui, dans [21], a montre sous la forme d'un teststatistique, que la variabilite de l'estimation de l'exp osant fractionnaire sur les deux sous-seriesetait signicative. Il montre ainsi que cette uctuation des premieres donnees n'estpas due au hasard maisa un reel changement de la structurededep endance.Ainsi, l'exp osantfractionnaireasso cieauxdonneesduNiln'estpas constant mais semble bien evoluer au cours du temps, ce qui nous amene a nous p oser la question suivante:unmo delecontr^olant\lo calement"lastructurededep endance neserait-il pasplus adequat?
Ce comp ortement ne constitue pas un phenomene isole. D'autres situations semblent necessiterl'evolutionde l'exp osant fractionnaire,comme l'illustre l'exemple ci-apres, issu de la biomecanique. Le probleme en question consiste en l'etude du systeme de contr^ole de la p osture d'un individu deb out au rep os, en utilisant des plates-formes qui mesurent la trajectoire du centre de p oussee (CP) ou du centre de gravite (CG), et a p our objectif de juger de la qualite des re exes. Collins et De Luca [31], d'une part, et Rougier [83], [84], d'autrepart,ontanalyselaprojectionsurl'undesdeuxaxes(dusystemeorthonormecentre surles piedsde l'individu ) delatrajectoireduCPaucours dutemps,etontainsi pumettre enevidencedeux phases:unepremieretresrapide (enmoyenne <0:4seconde)o u l'individu estenretardparrapp ortasesp erceptionssensorielles, contr^olemalsap ositionetatendance
a s'ecarter davantage de sonetat d'equilibre, et une seconde au cours de laquelle il integre rapidement les informations sensorielles et corrige presque instantanement sa p osition p our la ramener a unetat d'equilibre. Collins et DeLuca [31]ont prop osede mo deliser cesdeux phasesdelatrajectoireduCPparunmbf,dufaitdel'apparenceautosimilairedestrajectoires
unmbfdeparametre H>1=2etalaseconde phaseplus irreguliereunphenomene mo delise parun mbf deparametre H<1=2.
L'exempledes donneesdu Nil ainsi quecelui issu de labiomecanique montrent quedans certaines situations, il p eut ^etre interessant d'autoriser un systeme a changer de regime, de p ermettrealastructurededep endanced'evoluerdansletemps.Frisch[43]exp oseegalement quelques situationsidentiques. Il sembledonc naturel dedevelopp er unmo delesto chastique susceptiblededecriredetellesevolutions.Ceciaeteentreprisparallelement parPeltieretal. [77], etBenassi et al.[16]: ils intro duisent le mouvement brownien multifractionnaire (note mbm), extension du mouvement brownien fractionnaire au sens o u les parametres regissant le mbf (en particulier le parametre d'autosimilarite H) deviennent des fonctions du temps. L'inter^etd'untelmo delereside,commelemontrentlesauteursprecites,danslefaitquel'on p eutcontr^olerlo calementlaregularitedestrajectoires.Autrementdit,lembmp ermetd'^etre enadequationavecdesphenomenesqui,parexemple,seraientdeplusen plusp ersistants,de plusenplusantip ersistantsouencoredesphenomenesquipasseraientd'unetatantip ersistant
a unetat p ersistant.
Traiterd'un p oint de vuestatistique ce genre de phenomene,aetel'objectif initial dece travailderecherche.Neanmoins,cetravailanecessitedesconnaissancestheoriquesconstituees par un traitement approfondi et p ertinent du mbf, tant sur la comprehension des resultats obtenusjusqu'alorsquesurleursextensions.Cememoiresedecomp osedoncendeuxgrandes parties. Les Chapitres 2 a 4 traitent de l'inference statistique p our le mouvement brownien fractionnaire, etle Chapitre5 de l'inference statistique p our lemouvement brownien multi-fractionnaire.
Partie 1: Inference statistique p ourle mouvement brownien fractionnaire:
Precisonsavant toutechose,que noustravaillons sur unespace probabilise (;A;P).
Cesecondchapitredevelopp edesmetho desp ouridentierlembf.L'appro checonsideree consiste a ltrer une seule trajectoirediscretisee d'unmbf observee surun compact,et d'es-timerles parametresparune metho dedemoments.Nous verronsqueleltragedelatra jec-toirediscretisee ap oureetdedetruirelalonguedep endance.Ainsi, unltreadaptep ermet d'eviter la dichotomie des comp ortements asymptotiques des estimateurs lorsque H < 3=4 et H > 3=4 (e.g. Poggi et al. [80], Peltier et al. [76], Beran [20]), provenant du fait que la fonction de covariance des accroissements du mbf met en defaut le theoreme central limite de Breuer etMajor[22]valable p our les fonctionnelles non lineaires de pro cessus gaussiens. Nous verrons dans quel sens nousuniformisons et generalisons, p our le mbf, les travaux de Poggi et al. [80], d'Higuchi [50], d'Istas et al. [55], de Kent et al. [60] et de Peltier et al. [76],enetudiantlek -eme(k2R
+
) moment absoluempirique desvariations discretesd'une trajectoire discretisee d'un mbf. Nous distinguons le cas mbf standard, pro cessus p our le-quel C = 1, du cas non standard, H et C inconnus. En supp osant le pro cessus discretise en i=N;i=0;:::;N 1, nousmontrons, entreautres,que les estimateurs developpesde H convergent en loi vers une loi gaussienne avec la vitesse de convergence1=
p
Nlog (N),dans p
Pourl'ensembledesestimateursdeveloppes,nousobtenonsuneexpressionanalytiquedes constantes asymptotiques des variances, ce qui p ermet une comparaison eÆcace, vis-a-vis du choix du ltre et du reel k , entre autres. Une etude par simulation est ensuite menee, illustrant ainsi les p erformances des pro cedures. Enn, une comparaison approfondie avec l'estimateurdumaximumdevraisemblance(EMV)estentreprise.Cetteetudemontre,entre autres,queles estimateursdeveloppesontl'avantaged'^etretresrapidement calculablesetde secomp ortertoutaussibienquel'EMVp ourdesseriescourtes.Ceciesttresinteressantcar, rapp elons-le,notresoucin'estpasdedevelopp erdesestimateursp ourlemo deleparametrique queconstituelembf,etp ourlequelilestbienevidentquel'EMVestleplusp erformant,mais deselectionnerune metho dequi p ermettrad'estimerlo calement l'exp osantfractionnaire.Ce chapitres'inscritdansuncadreparametrique,carnousdevelopp onsdesestimateursp ourles parametresd'unmbf.Le cadresemi-parametrique,treslargementevo quedanslalitterature, e.g. Beran [20], Istas et Lang [55], Robinson [82], Moulines et Soulier [73], n'est pas traite ici. Cep endant, les resultatsobtenus dansce chapitrep euvent certainement^etreetendus.
Une partie des resultats du Chapitre 2 constitue un article actuellement en cours de revision,[25].
Nous nous interessons, dans le Chapitre 3, a l'obtention d'une b orne minimale \uni-verselle" de la variance des estimateurs de H et C basessur une trajectoire discretisee du mbf aux instants i=
N
;i =0;:::;N 1 (avec N
! +1 lorsque N ! +1). C'est-a-dire
a l'evaluation des b ornes de Cramer-Rao des parametres H et C. Dans le cas du mbf non standard(parametresHetC inconnus),cetravailadejaeteentreprisparDahlhaus,[34],qui montre,entre autres, que tout estimateur, disons
b H N
,du parametre d'autosimilarite verie
a partird'un certainrang
Var b H N 2 N ; etexplicite laconstante 2 .
Notrecontribution a ce travail estdouble: premierement nous considerons les deux ver-sionsdu mbf,standardetnonstandard,etdeuxiemement,nousdonnons unedemonstration alternative, unique etoriginale. Notrepreuve s'appuie surun resultatd'algebrelineaire fon-damentalconcernantlesinversesdesuitesdematrices\lo calisees"presdeleurdiagonale,que nous prouvons. Plusprecisement, nousconsiderons \certaines" suitesde matrices p ossedant la propriete de decroissance hyp erb olique ou exp onentielle de ses co eÆcients en s'eloignant de la diagonale, et montrons que leurs inverses p ossedent la m^eme propriete.Ces resultats d'algebrelineaire adaptentetetendentceuxobtenus parJaard[57],danslecasdematrices innies.
Tout ce formalisme nous a, entre autres,p ermis de montrer que tout estimateurdu pa-rametred'autosimilarite veriea partir d'uncertainrang
Var b H N ( 1 2Nlog 2 ( N )
dansle casstandard, c
2 N
p our unc>0; dansle casnon standard.
IlfauticinoterqueletravaildeDahlhaus,[34],estremarquable,cardanslecasnonstandard, ilexplicitelaconstantedelab orneminimaledelavariance,alorsquenotreappro chenenous p ermet de donner quesoncomp ortementasymptotique.
b ornesdeCramer-RaodeHetC,etparconsequentoptimales.LesresultatsdeceChapitre3 onteteobtenusen collab orationavec J.Istas,etconstituent unarticle acceptedanslarevue Statistics and ProbabilityLetters[27].
LeChapitre4traitededeuxproblemesstatistiquesinduitsparlembf:lavalidation du mo dele,et l'identication du mbf enpresence d'unbruit gaussien additif.
Dansune premiere partie, nousdiscutons de divers testslies au mbf.Certains sont deja
etablisdanslalitterature:testd'adequationaladistributionmarginale,e.g. Beranetal.[17], testd'adequation a ladensite sp ectrale de Beran [18], testde longue memoire de Kokoszka et al.[61], test d'autosimilarite de Bardet [9].En outre, nousprop osons une statistique qui generalise le kurtosis empirique des accroissements du mbf etudie par Peltier et al. [76]. Nous prouvonsun theoreme central limite p our cette statistique, sous l'hyp othese que l'on disp osed'unetrajectoirediscretiseed'unmbf,puisd'unetrajectoirediscretiseed'unpro cessus gaussien a accroissements stationnaires, et lo calement autosimilaire en 0 au sens d'Istas et Lang [55]. Nous envisageons de tester la moyenne de cette statistique et illustrons les tres b onnes p erformancesde ce testa l'aidede simulations.
Dansla seconde partie de ce chapitre, nous considerons leproblemestatistique d'identi-cationrobuste suivant:nous supp osons observerlemo dele
Z(i= N ) = B H;C (i= N ) + (i); i=0;:::;N 1; o u B H;C = fB H;C (i= N
);i=0;:::;N 1g est une trajectoire discretisee d'un mbf de pa-rametresHetC,eto u=f(i);i=0;:::;N 1gestunechantillonde N v.a.i.gaussiennes centrees et de variance E((i)
2 ) =
2
. Nous supp osons que N
! +1, lorsque N ! +1 et qu'en outre B
H;C
et sont indep endants. Notre objectif est d'estimer les parametres H et C. Dans [20], Beran discute de divers typ es de robustesse p our les pro cessus a longue memoire, tels que la stationnarite des accroissements, la gaussiannite, une p erturbation de la structure au second ordre. La prise en compte d'un bruit gaussien additif dansune serie chronologiqueformeed'unmbfdiscretiseconstitueunproblemeparticulierderobustesse,qui,
anotreconnaissance, n'avaiteteregardeauparavantqueparWornell[100].Cep endant,nous amelioronssontravailennousaranchissantd'unehyp othesededemonstrationfondamentale faite parWornell.
Lametho ded'identication developpeeutilise lesideesduChapitre2,concernant l'iden-tication du mbf sans bruit additif: metho de des moments et ltrage. Elle est basee sur la dierence de moments d'ordre 2 du vecteur Z ltre par deux ltres, dont l'un est le dilate double de l'autre. Nous montrons que H et C p euvent ^etre estimes par une regression log-lineaire,demanieretressimpleetrapide.Nousprouvonslesconvergencesenprobabiliteeten loidesestimateurs,moyennantquelqueshyp othesessurlepasdediscretisation
N .Ensupp o-sant que N =N
,avec0<<1=4H,nousobtenonsdesresultatsdetyp etheoremecentral limite p our les estimateursavec la vitessede convergenceN
2H 1=2
(resp. N
2H 1=2
log (N)) p our l'estimateur de H (resp. C). Nous etudions egalement le cas particulier = 0, p our lequel lavitessede convergencede l'estimateurde H devient 1=
p N.
Nous avons ensuite developpe un test statistique consistant, p ermettant de detecter la presence eventuelle d'un bruit gaussien additif. La statistique consideree est une mesure de l'ecart entre deux estimateurs du parametre d'autosimilarite: l'un prenant en compte la presence eventuelle d'un bruit, l'autre supp osant la serie non bruitee. Quel que soit le pas de discretisation =N
statistique, avec lavitesse de convergence1= p
N. Lesp erformancesdes estimateursetde la pro cedurede testsont validees paruneetudede simulation.
Partie 2: Inference statistique p our le mouvement brownien multifractionnaire:
Le Chapitre 5 quitte le cadre parametrique,parfois contraignant en mo delisation sto-chastique,ets'inscritdansuncadresemi-parametrique.Nousintro duisonsunegeneralisation naturelle du mbf,lemouvement brownien multifractionnaire, prop oseparallelement par Pel-tieretal.[77]etBenassietal.[16].Cetteextensionestobtenueensubstituantlesparametres H etC pardeuxfonctionsdutemps,danslesintegralessto chastiquesrepresentantlembf.Si lafonctionH (resp. C) appartient al'ensembledesfonctions holderiennes d'ordre 0<1 sur ]0;1[ (resp. sur R
+
), les auteurs montrent que cette extension se comp orte \asymp-totiquement lo calement" commele mbf,ce qui suggered'identier lembmen adaptant une metho ded'identicationdumbf.Nousavonschoisid'adapterlesestimateursdeveloppesdans le Chapitre2car,d'unepart,leur vitessede convergenceest optimaleet,d'autre part,ils se comp ortent de maniere tresp erformantevis-a-vis de l'estimateurdu maximumde vraisem-blance.
Dansunepremierepartiedonc,nousdevelopp onsdesestimateursdelafonctionHapartir d'une seule trajectoire discretisee aux instants i=N;i = 0;:::;N 1 d'un mbm veriant les hyp otheses precitees. Par analogie avec le Chapitre 2, nous dierencions le cas o u le mbm est standard (C 1), du cas plus general (H et C inconnues). L'estimateur de la fonction H en t2 [0;1]est estime a partir des observations du mbm au voisinage V
N; (t)= fj=N;j 2 Ztelque j
j N
tj g, o u est un parametre destine a tendre vers 0 lorsque N !+1. Nousmontronsque les estimateurs convergent p onctuellement presque s ^urement verslavraievaleurdelafonction,etenloisur]0;1[(aveclavitessedeconvergence
1 p
2Nlog(N) p our lecasstandard,et
1 p
2N
p our lecasnonstandard) versdespro cessus gaussienscentres de fonction de covariance explicite. Dans les deux versions du mbm, nous montrons qu'il existe un choixasymptotique optimalp our leparametre. Parailleurs,nouspresentonsune pro cedure de Monte-Carlo p our choisir a taille d'echantillon xee. Cette pro cedure ainsi que lesestimateurs sont etudiespar simulation. Precisonsquecettepremiere partieetend le travail de Benassi et al., qui dans [16]considerent le cas =1, etprop osent un estimateur consistant p our lafonctionH,d'unmbmnon standard(sansobtenir laconvergenceen loi). Dans la seconde partie de ce chapitre, nous presentons quelques tests p our le mbm. Premierement,nous denissons une version lo cale du kurtosis empirique des accroissements du mbf,etudiee dans le Chapitre4. Nous app elons naturellement cette nouvelle statistique kurtosis empirique lo cal p our le mbm et prouvonsqu'elle converge en loi sur ]0;1[ vers un pro cessus gaussiencentre,defonctiondecovarianceexplicite. Dans uneseconde partie, nous developp ons des tests parametriquesp our la fonction de Hurst. Plus precisement, nous tes-tons l'hyp othese que la fonction de Hurst est issue d'un mo dele lineaire. Pour cela, nous intro duisons une statistique qui est une distance L
2
entre un estimateur fonctionnel de la fonctionH etlemo delelineaire estime.Nousmontronsqu'elle convergeenloiaveclavitesse 1=
p
2Nversunevariable aleatoiredontlaloiestexplicite. Cesstatistiquesgeneralisentcelle intro duite par Beran, [21], p our tester la variabilite du parametre de Hurst dans une serie
Annexes:
LesAnnexesAetBfournissentdesoutilsp oursimulerunetrajectoirediscretiseedumbf etp our estimer leparametrede Hursta partir d'uneseule trajectoire.Elles constituent une
etudebibliographiquenonexhaustivemaissuÆsammentlargep ourcomprendrelesdierentes manieres entreprises jusqu'alors, p our resoudreces deux problemes. Une etude comparative desmetho desdesimulationaetemenee,cequiap ermisd'extraireunemetho deexacte(p our simuler une trajectoirediscretisee des accroissementsdu mbf) ettresrapide m^eme p ourdes taillesd'echantillonelevees;ils'agitdelametho dedeveloppeeparWo o detChan[97],app elee metho de de la matrice circulante. Ces deux annexes ont fait l'objet d'une publication dans larevueJournal of StatisticalSoftware,[28].
Enn dans l'Annexe C, nous presentons trois metho desde simulation du mbm. Deux d'entreellesetantdes approximations,uneetudecomparativeaetemenee danslebut d'ex-plorer leur qualite. Les scripts de ces metho des,implementees sous Matlab, sont egalement disp onibles.
Persp ectives:
De par la diversite des themes ab ordes dans ce memoire, les p ersp ectives sont nom-breuses.Elles sontp ourlaplupartdiscuteesenndechaquechapitre.Enparticulier,un tra-vailrestea menerp ouretablir demanierepreciseles liensentreles metho desd'identication baseessurleltrage,quenousdevelopp ons,etcellesbaseessurlatransformeeenondelettes, e.g.Flandrin[42],Wornell[100],Abryetal.[1]::: Denotrep ointdevue,cesmetho dessont conceptuellement semblablesmaisilestprimordial decomprendrelesdierentesconnexions. En ce sens, les travaux bases sur les metho des d'ondelettes ne sont pas discutes dans les chapitres avenir.
De maniere plus generale,l'objectif de cettetheseetaitletraitement statistique d'une alternative particuliere du mbf, a savoir le mbm. Tel qu'il a ete intro duit, le mbm est un pro cessus continu.Il ne p ermet donc pasde considererdes phenomenesdontlastructure de dep endance varieraitdemanierebrutaleavecletemps.Ceciaeteentrepris d'unp ointdevue probabiliste parAyache etal.[6],etBenassietal.[15].Le traitementstatistiqueest,p ourle moment, partiel.
Parailleurs, notretravails'inscrit dansun cadregaussien.Celui-ci estparticulierement agreable,carlesoutilsdedemonstrationssontbienetablis.Quitterlecadregaussienetfairele lien avecl'analyse multifractale,quiconna^tun veritablesuccesces dernieresannees, consti-tueune p ersp ective attrayante.
600
700
800
900
1000
1100
1200
1300
−10000
−8000
−6000
−4000
−2000
0
2000
Date
Cumul des minima recentres du niveau du Nil
Fig.1.1{SommescumuleesdesminimaduniveauduNilrecentresparlamoyenneempirique durant les annees622-1284 (voirTousson [92 ]).
2
Identication du
mou-vement brownien
frac-tionnaire par variations
discretes
Ce chapitre contient quelques rapp els des principales proprietes statistiques du mbf, et developp e desestimateursconsistantsdes parametresdu mouvementbrownienfractionnaire basessurlek -ememomentabsolu desvariationsdiscretesd'uneseule trajectoiredumbf.Les p erformances de ces estimateurs sont illustrees et une etude comparative avec l'estimateur du maximumde vraisemblance yestmenee.
2.1 Proprietes generales du mbf
Avant de s'attaquer au probleme d'identication du mbf, nous souhaitons enumerer quelques proprietes de ce pro cessus qui indiquent, entre autres, que l'estimation des pa-rametresn'est pastriviale.
Commenconsparrapp elerquelemouvementbrownienfractionnaire(mbf)deparametres (H ;C)2]0;1[R
+
,estle pro cessus,note fB H;C
(t);t0gissu de l'integrationfractionnaire d'unbruit blanc gaussien,ou de maniereequivalente parl'integralesto chastique:
B H;C (t) = C V 1=2 H Z R f t (s)dB(s) (2.1) avec f t (s) = 1 (H+1=2) n jt sj H 1 2 1I ] 1;t] (s) jsj H 1=2 1I ] 1;0] (s) o ; avecB H;C (0)=0etV H
= (2H+1)sin (H); designelafonctionGammaetB estun mou-vementbrownienstandard.Ouencoreplussimplement,lembfestdenicommeetantl'unique pro cessusgaussiencentre,nulal'origine,aaccroissementsstationnairesetautosimilaires,tel que E fB H;C (t) B H;C (s)g 2 = C 2 jt sj 2H ; 8s;t2R + :
Dans toute la suite, nousapp ellerons mbf standardle pro cessus p our lequel C =1. La pro-prieted'autosimilaritenousp ermet d'obtenir lafonctiondecovariancedumbf(notee (;))
notee ())resp ectivement donneespar: (t;s) = Cov B H;C (t);B H;C (s) = C 2 2 jtj 2H + jsj 2H jt sj 2H (2.2) (t s) = Cov B H;C (t+1) B H;C (t);B H;C (s+1) B H;C (s) = C 2 2 jt s 1j 2H 2jt sj 2H + jt s+1j 2H : (2.3)
Dans le cas particulier H = 1=2, le mbf s'identie au mouvement brownien, avec dans ce cas (k ) = 0; p ourjk j 1 (les accroissements sont indep endants). Lorsque H 6= 1=2, un developp ement limite en l'inni exhib e la decroissance hyp erb olique suivante: (k ) C
2
H(2H 1)jk j 2H 2
; lorsque jk j! +1: Le pro cessus desaccroissements du mbf,app ele bruit gaussien fractionnaire (bgf), constitue une serie chronologique stationnaire, et admet une densite sp ectrale (denie par la transformee de Fourier de ()) explicitement donnee par: f()=f(;H ;C) = 2c (1 cos) X j2Z j2j+j 1 2H ; 82[0;2]; (2.4) avec c = C 2 2
sin (H) (2H+1). Un developp ement de Taylorde f dans un voisinage de 0 montrequelasignaturesp ectrale dubgf estjj
1 2H
,ce quiindique lapresence d'unp^oleen zerolorsque H>1=2,fait caracteristique despro cessusa longue memoire.
En ce qui concerne la regularite des trajectoires, a l'instar du mouvement brownien, le mbfest atrajectoirescontinues etpresques ^urement non dierentiables.L'appro che fractale raÆnecettedierence.En eet,ladimension de Hausdord'un mbfde parametreH 2]0;1[ est presque s ^urementegale a 2 H,ce qui implique que p our H <1=2les trajectoires sont plus irregulieres que celles du mouvement brownien, et inversement plus regulieres lorsque H >1=2.LaFigure Fig.2.1illustre cetteremarque.
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
−1.5
−1
−0.5
0
0.5
1
Time
mbf
H=0.3
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
−0.2
0
0.2
0.4
0.6
0.8
1
1.2
Time
mbf
H=0.5
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
−0.2
−0.1
0
0.1
0.2
0.3
0.4
0.5
Time
mbf
H=0.8
Fig. 2.1 { Trajectoires sur [0;1] de mbfs respectivement de parametres H = 0:3;0:5;0:8 si-muleespar lamethodede Wood et Chan(voirAnnexe A).
2.2 Introduction au probleme d'identication
sus-pluscourantsestpresenteeparBeran[20]:metho deR/S,variogramme,correlogramme,log -perio dogramme,maximumdevraisemblance (estimateurde Whittle).Nous renvoyonsle lec-teur a l'Annexe B p our un tour d'horizon plus complet des metho des d'identication. Ces dernieresanneesontvul'emergencedenouvellesappro ches:uneappro chepardecomp osition en ondelettes et une appro che par variations discretes, consistant toutes deux en le ltrage de l'observation d'une seule trajectoire, qui a p our eetd'accelerer la decorrelationdes ob-servations.Cesmetho desne sontpasrestreintes aumo delebrownien fractionnaireetrestent adapteesauneclassedepro cessusb eaucouppluslargequeconstituentlespro cessusgaussiens lo calement autosimilairesen0.Unpro cessusgaussien,fX(t); t0gcentre,aaccroissements stationnaires est dit lo calement autosimilaire en 0, note glas (voir Istas et Lang [55]) si sa fonctiondemi-variancev(t)= 1 2 E (X(s+t) X(s)) 2
verie laproprietesuivante, lorsque t!0: v 2D (t) = v 2D (0) + ( 1) D Cjtj 2H + o(jtj 2H ); (2.5)
o u D est leplus grand entier tel que v soit2D -fois dierentiable, et0 <H <1. La notion de pro cessus lo calement autosimilaire est developpee entre autres par Benassi etal. [13], et signie que le pro cessus tangent converge en loi vers un pro cessus autosimilaire. Dans le cadre des pro cessus gaussiens, cette notion est equivalente a (2.5). Par ailleurs, nous nous sommesrestreintsaucaso ulepro cessusXestcentremaisprecisonsqueIstasetLang[55]ont
etudie lecas de pro cessus non centresdont la fonction moyenne verie certaines conditions de regularite.Pourdecrire les metho des d'estimation du parametre H designons par (X) le vecteurobtenu parladiscretisation de fX(t); t0gaux instantsi=N; i=0;:::;N 1,et par(V
a
)levecteur(X)ltreparunltrea.Denissonsenoutrelesvariationsd'unecertaine fonctionF, app eleesF-variations,par lastatistique,
V N (F;a) = 1 N ` N 1 X i=` F V a (i=N) :
Denombreux travauxsontbasessurcetteappro che,aveclechoixparticulier F(t)=H k (t)= jtj k E(jV a (0)j k )
1: En eet, avec un mo dele simplie, Bardet [9], Poggi et Viano [80] dans le cas o u F = H
2
et Higuchi [50], empiriquement lorsque F = H 1
, exhib ent des estimateurs convergents en 1=
p
N,p our H <3=4,basessur une metho dede regressiondes F-variations de plusieurs ltres d'ordre 1. Sous lemo dele general,Istas et Lang[55] d'une part,Kent et Wo o d [60]d'autrepart,etudientlecomp ortementde variationsquadratiquesp ourdesltres d'ordre p 2, et exhib ent des estimateurs convergents en 1=
p
N, p our tout H. Enn, en se restreignant au mo dele du mouvement brownien fractionnaire standard (C =1), Peltier et Levy-Vehel [76], par une appro che fractale du probleme d'identication, explicitent une classed'estimateursdeH convergentsen 1=
p
Nlog (N);p our H<3=4,enestimantlek -eme moment absolu des accroissementsdu mbf (F=H
k
,p our k2N
).
L'objectif de ce travail est d'uniformiser et de generaliser ces resultats en etudiant les H
k
variations (p our k 2 R +
) du mbf standard et non standard, p our un ltre d'ordre quelconque. Notre principale contribution est d'exhib er p our chaque mo dele lek optimal et d'obtenir une convergence gaussienne p ourtout H2]0;1[.
Dans la Section 2.3, nous intro duisons un certain nombre de notations et denissons une statistique app elee k -variations, consistant en le k -eme moment absolu empirique des variations discretes normalisees du mbf. En s'appuyant sur les travaux de Do ob [40] et de
central limite. La Section 2.4 seprop ose d'identier le mbf standard (C =1)et le mbf non standard(C6=1).Pourcesdeuxmo deles,nousexhib onsuneclassed'estimateursconsistants etasymptotiquementgaussiens.Silepro cessusestobserveauxinstantsi=N (resp.i=
N avec
N
! +1 lorsque N ! +1) p our i=0;:::;N 1, lavitesse de convergencede laclasse d'estimateurs de H lorsque le mbf est standard est 1=
p Nlog (N) (resp. 1= p Nlog ( N )), et 1= p
N (quelquesoitlepasdediscretisation)lorsquelembfestgeneralise.Enn,ajoutonsque p our l'ensemble des estimateurs prop oses, la variance est minimale p our k= 2. La Section 2.5 prop ose d'illustrer les p erformances des estimateurs intro duits dans la Section 2.4 via une etude de simulation. La Section 2.6,enn, assure la coherence et les p ersp ectives de ce travail carnous nous attachonsa comparer les estimateurs intro duits p our identier le mbf nonstandardavecl'estimateurdeWhittle(issudumaximumdevraisemblance).Lespreuves des dierentsresultatsenoncessontrassemblesdanslaSection 2.8.
2.3 k-variations du mbf
L'objectif de cette premiere partie est d'intro duire un certain nombre de notations et de presenterles resultats de convergencedu k -eme moment absolu empirique des variations discretes normalisees du mbf, de maniere a rendre plus lisible la Section 2.4. Notre mo dele statistique sera constitue d'une trajectoire, notee B
H;C
, d'un mbf de parametres (H ;C) 2 ]0;1[R
+
,discretiseeauxinstantsi=N;i=0;:::;N 1.Nousnotonsaunltre delongueur `+1 etd'ordrep1,i.e. unvecteuracomp osantesreellesveriant
` X q =0 a q q i =0 p our i=0;:::;p 1 et ` X q =0 a q q p 6=0: Soit V a
laserieissue dultrage de latrajectoirediscretisee B H;C para: V a j N = ` X q =0 a q B H;C j q N ; p our j=`;:::;N 1: A titre d'exemple, V a
represente les accroissements du mbf dans le cas o u a = (1; 1), et les dierences secondeslorsque a=(1; 2;1).Nousnoterons E
k
lek -ememomentabsolu de la loi normale centree reduite,explicitement donnepar E
k =2
k =2
(k+1=2)= (1=2);k>0. Denissons lavariablealeatoire V
N
(k ;a),app elee k -variations par
V N (k ;a) = 1 N ` N 1 X i=` 8 < : jV a (i=N)j k E jV a (i=N)j k 1 9 = ; : (2.6) La quantite E jV a (i=N)j k
dep end explicitement des parametres H et C. Il p eut donc para^tresansinter^etd'etudierlecomp ortementasymptotiquedelavariablealeatoireV
N (k ;a). Cep endant,comme nousleverronsparlasuite les comp ortementsdes estimateursque nous denissonssont intimementlies acelui deV
N
(k ;a).Avanttout,designonspar a H
lafonction de covariancede V
a
.Il est clairque laserieV a
est stationnaire(ceci provient dufait quela somme des comp osantes du ltre est nulle). L'autosimilarite du mbf entra^neque p our tout j2Z: a H (j) = E(V a (i=N)V a ((i+j)=N)) = C 2 2 ` X a q a r jq r+jj 2H : (2.7)
L'inter^etde l'appro che, c'est-a-direl'utilisation desltres discrets, est donne par le Lemme suivant, d ^u aIstas etLang[55].
Lemme 2.1 Aveclesnotationsprecedentes,nousavons a H (j)j 2H 2p ;lorsquej!+1, o u = 1 2 P ` q ;r =0 2p;H (q r ) 2p (2p)! avec 2p;H =2H(2H 1):::(2H 2p+1).
LaFigureFig.2.2illustre ladecroissance hyp erb olique de a H
.Parlasuite,nousnoterons p our j2Z a H (j)= a H (j) a H (0) : (2.8)
0
0.5
1
1.5
2
2.5
−4
−2
0
2
4
6
8
10
Temps
Fonction de covariance
H=0.1
a=(1,−1)
a=(1,−2,1)
a=Db4
a=(1,−3,3,−1)
0
0.5
1
1.5
2
2.5
3
3.5
4
−1
−0.5
0
0.5
1
1.5
Temps
Fonction de covariance
H=0.9
a=(1,−1)
a=(1,−2,1)
a=Db4
a=(1,−3,3,−1)
Fig. 2.2 { Traces de la fonction a H
pour dierents ltres (D b4 designant le ltre d'une ondelettede Daubechies d'ordre 4) etpour deux valeurs du parametre de Hurst.
EnutilisantlestravauxdeDo ob[40],deBreueretMajor[22]etd'apresledevelopp ement en p olyn^omes d'Hermite de la fonction H
k
(t) = jtj k
=E k
1, dont les co eÆcients notes c k 2j sont explicitesdanslaSection 2.8.1,nousobtenonsleresultatsuivant quant alaconvergence de V
N (k ;a):
Prop osition 2.1 Soit a un ltre d'ordre p 1 et soit k un reel strictement positif, alors lorsque N !+1 ona (i) V N (k ;a) p:s: ! 0: (2.9) (ii)Si p>H+1=4, p N V N (k ;a) L ! N(0;A 1 (H ;k ;a)); (2.10) o u A 1 (H ;k ;a) = X j1 (c k 2j ) 2 (2j)! X a H (i) 2j et c k 2j = 1 (2j)! j 1 Y q =0 (k 2q ): (2.11)
La condition p >H+1=4de (ii) resulte de lacondition de sommabilite au carre de a H decoulantelle-m^emeduTheoreme1deBreueretMajor[22].Ainsi,sip=1laconvergenceen loi n'est valable que sur l'intervalle H 2]0;3=4[,alors qu'elle est valable p our tout H 2]0;1[ desquep2.
Remarque: l'autosimilarite globale du pro cessus n'est pas une condition necessaire p our obtenir la convergence en loi des k -variations. Moyennant des hyp otheses supplementaires sur lesparametresd'unpro cessus gaussienlo calement autosimilaire en 0 (i.e. surlerestedu developp ement en 0 de v
2D
(), sur le pas de discretisation et sur l'ordre du ltre), Istas et Lang[55], Theoremes2et4,montrent,lorsque k=2,que lalimite restegaussienne.
Le Corollaire 2.1 rep ond a la question suivante: que se passe-t-il si l'on fait varier k en fonction de N?Cette question est motivee parle fait qu'enchoisissant >0 et k =N
, on a lorsque N !+1, c k 2j N 2j avec 2j =( 1) j 1 2 j 1 (j 1)! (2j)! :
Nous nous sommes alors interesses a comprendre comment cela in uait sur la vitesse de convergencede V
N (N
;a).
Corollaire 2.1 Soit a un ltre d'ordre p > H +1=4 et soit un reel strictement positif, alors N + 1 2 V N N ;a) L ! N 0;A 1 (H ;a) ; avec A 1 (H ;a) = X j1 ( 2j ) 2 (2j)! X i2Z a H (i) 2j et 2j = ( 1) j 1 2 j 1 (j 1)! (2j)! :
Ainsi, plus k tend rapidement vers zero,plus la vitesse de convergence des k -variations est elevee. Ces resultats etant etablis, nous nous prop osons d'identier les parametres du mbf par une metho dede moments en distinguant lescas o u le co eÆcient d'echelle, C,est connu ou non.
2.4 Applications des resultats a l'identication du mbf
2.4.1 Cas du mbf standard
Denissons le k -eme moment absolu empirique des variations discretes du mbf par la statistique suivante S N (k ;a) = 1 N ` N 1 X i=` jV a (i=N)j k : (2.12) La stationnaritede la serie(V a
) etles notationsintro duitesimpliquent que
E(S N (k ;a)) = 1 N Hk f a H (0)g k =2 E k :
Certainsdesauteurscitesprecedemment,e.g.IstasetLang[55],KentetWo o d[60],prop osent un estimateurbasesur une metho dede regressiona partir dela statistiqueS
N
E(V a
(i=N) 2
). De ce fait, l'hyp othese d'autosimilarite lo cale en 0, p eut suÆre p our l'iden-tication. L'avantage du mo dele mbf est que l'autosimilarite est globale, E(S
N
(k ;a)) est explicite:enutilisant unseulltretoutel'informationestconservee;enestimantE(S
N (k ;a)) parS
N
(k ;a),on deduit une premiereclasse d'estimateurs:
b H N (k ;a) = g 1 k ;a;N (S N (k ;a)); (2.13)
o u nous denissons p our un entier N 1, un ltre a quelconque et un reel k strictement p ositif, lafonctiong k ;a;N sur ]0;1[par g k ;a;N (t) = 1 N tk f a t (0)g k =2 E k :
En supp osant que lataille de l'echantillonverie
N > max t2]0;1[ exp P jq r j>2 a q a r log (jq r j)jq r j 2t P q ;r a q a r jq r j 2t ; (H)
conditionrealiseep ourl'ensembledesltresutilisesenpratique(accroissementsd'ordre quel-conque,ltres deDaub echies,coi ets), lamonotonie(et donc l'inversibilite) de g
k ;a;N
est as-suree. En particulier, l'hyp othese(H) assurel'existence de laclasse d'estimateurs
b H N (k ;a). Le cas p = 1, o u la serie V a
n'est autre que le bruit gaussien fractionnaire standard, a ete
etudie par Peltier et Levy-Vehel [76]. Ils obtiennent une expression analytique des estima-teurs, ce qui est imp ossible deslorsque p2.En eet, lorsque p =1, lafonction
a t
(0) est constanteetegale a 1 8t2]0;1[,alors qu'elle dep endde t lorsque p2.Precisonsd'ailleurs que numeriquement
b H N
(k ;a)est obtenuparminimisation de g k ;a;N
(t) S N
(k ;a) sur]0;1[. Parlasuite, adesigneraunltre veriantimplicitement l'hyp othese(H).LaProp osition 2.1p ermet d'obtenir le resultat suivant relatif a laconvergencede
b H N
(k ;a).
Prop osition 2.2 Soit a un ltre d'ordre p 1 et soit k un reel strictement positif, alors lorsque N !+1 ona (i) b H N (k ;a) p:s: ! H : (2.14) (ii)Si p>H+1=4, p Nlog (N) b H N (k ;a) H L ! N 0; A 1 (H ;k ;a) k 2 ; (2.15) o u A 1
(H ;k ;a)est donnee par (2.11).
La connaissance de la discretisation et du co eÆcient d'echelle, C, se rep ercute dans la vitessedeconvergencedel'estimateuren1=
p
Nlog (N),vitesse pluseleveequelavitesse pa-rametrique\classique" (en1=
p
N).Ace stade,connaissant explicitement lavariance asymp-totiquedesestimateurs,onp eutsedemanders'ilexisteunevaleuroptimaledekquiminimise lavariancede
b H N
(k ;a).Ona:
Corollaire 2.2 Pour tout ltrea d'ordre p1, la variance de b H N
Preuve:Notons(c k 2j ) 0 = 1 k 2 (c k 2j ) 2 (2j)!,o uc k 2j
designele2j-emeco eÆcientdudevelopp ement enp olyn^omesd'Hermite delafonctionH
k
(t)=jtj k
=E k
1.LaSection 2.8explicite cecalcul etmontreque c k 2j = 1 (2j)! Q j 1 q =0 (k 2q). 1 k 2 A 1 (H ;k ;a)= X j1 (c k 2j ) 0 X i2Z a H (i) 2j (c k 2 ) 0 X i2Z a H (i) 2 = 1 2 X i2Z a H (i) 2 :
Il suÆtalorsde remarquer que(c 2 2j
) 0
=0 p our j>1,i.e.que 1 4 A 1 (H ;2;a)= 1 2 P j2Z a H (j) 2 . 2 Le Corollaire 2.2 implique en particulier qu'il est inutile de faire varier k en fonction de N p our estimer le parametre H. Lorsque k = 2, nous obtenons le theoreme limite suivant lorsque N !+1: p Nlog (N) b H N (2;a) H L ! N 0; 1 2 X i2Z a H (i) 2 ! : (2.16) Laclassed'estimateurs b H N
(k ;a)quenousvenonsdedeniretd'etudiern'estpassansinter^et. Certes,elle supp oselaconnaissancedeladiscretisationetduco eÆcient d'echelleC maiselle nous p ermet de construire un test asymptotique, base sur (2.16), utilise p our juger de la qualitede diversesmetho desde simulationdumbf.Nousrenvoyonslelecteur al'Annexe A.
Pour expliciter les estimateurs b H N
(k ;a), nous avions supp ose la trajectoire discretisee aux instants i=N;i = 0;:::;N 1. Si la discretisation devient i=
N
; i = 0;:::;N 1, avec
N
! +1 lorsque N ! +1, nous obtenons un resultat fort interessant. De maniere analoguea (2.13),denissons b H N = g 1 k ;a; N (S N (k ;a)); (2.17) avec S N (k ;a)= 1 N ` N 1 X i=` V a (i= N ) k et g k ;a; N (t)= 1 ( N ) tk f a t (0)g k =2 E k :
Le resultatsuivant montrel'ameliorationapp orteep our une tellediscretisation.
Corollaire 2.3 Soit a un ltre d'ordre p > H+1=4 et soit k un reel strictement positif, alors lorsqueN !+1 ona (i) b H N (k ;a) p:s: ! H: (ii)Si p>H+1=4, p Nlog ( N ) b H N (k ;a) H L ! N(0;A 1 (H ;k ;a)): Exemples: N = N ; >0; vitesse de convergence: 1= p Nlog (N) N
= exp (N), vitesse de convergence: 1=N 3 2
La preuveresultedu fait queles preuvesdes Prop ositions2.1et 2.2sontencore valables en remplacant ladiscretisation uniformepar ladiscretisation f0;:::;
N 1
2.4.2 Cas du mbf generalise
Supp osonsde nouveau la trajectoirediscretiseeaux instantsi=N;i=0;:::;N 1.Nous avons a present deux parametres a estimer,H et C.Il devient donc imp ossible d'utiliser la metho deprecedentebaseesur laregressionnonlineaire avecunseul ltre, etil estindisp en-sable d'employer plusieurs ltres. Et parmi l'ensemble des ltres, il en existe une collection interessante(egalementemployee parKentetWo o d[60]danslecask=2)constitueeparla suite (a
m )
m1
deniep our m1 par
a m i = a j si i=jm 0 sinon p our i=0;:::;m`+1; Le ltre a m
n'est autre que le ltre a dilate m fois. L'inter^etde cette famille reside dans le calcul suivant E(S N (k ;a m )) = 1 N Hk a m H (0) k =2 E k = m Hk E(S N (k ;a));
qui indique lalog-lineariteen H de E(S N
(k ;a m
)).La pro cedure d'estimationdevient simple etnaturelle:on se donne M ltres (M 2) eton eectue une regression lineaire simple de L N = logS N (k ;a m ) 1mM surX M
,matriceM2du pland'experience deniepar
X M = 0 klog (2) ::: klog (M) 1 1 ::: 1 t ; (2.18)
cequip ermetd'obteniruneclassed'estimateursde=(H ; ) t
,quel'onnotera e ols N (k ;a;M)= e H ols N (k ;a;M); e ols N (k ;a;M) t
,avec le parametredenipar
= log E(S N
(k ;a))= klog (C) Hklog (N)+log a H (0) k 2 =E k :
Avecles notationsadopteesprecedemment,cetteclasses'ecrit
e ols N (k ;a;M)= (X t M X M ) 1 X t M L N :
Nous p ouvons alorsetablir le resultat suivant, enoncant la convergence des k -variations en dimension M,etlanormaliteasymptotique duresidudelaregressionlineaire deL
N surX
M .
Prop osition 2.3 Soient a un ltre d'ordre p 1, k un reel strictement positif, et M un entier superieur ou egala 2, alors,lorsque N !+1, on a
(i) V N (k ;a 1 );:::;V N (k ;a M ) p:s: ! (0;:::;0): (2.19) Si p>H+1=4, (ii) p N V N (k ;a 1 );:::;V N (k ;a M ) t L ! N( 0;G k ): (2.20) (iii) p N L X L ! N(0;G ): (2.21)
G k
etant lamatrice MM denie par
g mn = X j1 (c k 2j ) 2 (2j)! X i2Z a m ;a n H (i) 2j avec a m ;a n H (i)= P ` q ;r =0 a q a r jmq nr+ij 2H m H n H P ` q ;r =0 a q a r jq r j 2H : (2.22)
La denitionde p ermetd'obtenir explicitement uneclassed'estimateursp our leco eÆcient d'echelle C: e C ols N (k ;a;M) = N e H ols a e H ols (0) 1 2 E 1 k k 1 exp e ols N (k ;a;M)=k ; (2.23) o u e H ols = e H ols N
(k ;a;M).Ilendecoulealorslaprop ositionsuivante,exprimantlaconvergence des estimateursdesparametresH etC:
Prop osition 2.4 Soient a un ltre d'ordre p 1, k un reel strictement positif, et M un entier superieur ou egal a 2, alorslorsque N !+1on a
(i) e H ols N (k ;a;M); e C ols N (k ;a;M) p:s: ! (H ;C); (2.24) (ii)Si p>H+1=4, p N e H ols N (k ;a;M) H L ! N 0; 2 ols (k ) ; (2.25) p N log (N) e C ols N (k ;a;M) C Æ C L ! N 0; 2 ols (k ) ; (2.26) o u la variance asymptotique 2 ols
(k ), est denie par 2 ols (k ) = A t G 0 k A kAk 4 ; A etant le vecteur M-dimensionneldecomposantesA m = log (m) 1 M P M m=1
log (m),jj:jjlanormeeuclidienne de R
M et G
0 k
lamatriceMM dont lestermesgeneriquessont denis g 0 mn =g mn =k 2 .
Paranalogie avec leCorollaire 2.2,nousp ouvonsmontrerle resultatsuivant:
Corollaire 2.4 Pour tout ltrea d'ordrep1, laconstante asymptotique 2 ols
(k )est mini-male pour k=2.
Preuve:Il suÆtderemarquer que 8m;n=1;:::;M et8k>0,ona
G 0 k m;n = X j1 c k 2j 0 X i2Z a m ;a n H (i) 2j c k 2 0 X i2Z a m ;a n H (i) 2 = 1 2 X i2Z a m ;a n H (i) 2 = G 0 2 m;n ; d'o u leresultat. 2 Dansnotrepro cedured'identication,nousavonsevitel'estimationdeHparuneregression non lineaire de fS
N (k ;a m )g 1mM sur fE(S N (k ;a m ))g 1mM
en remarquant le fait que logE(S
N (k ;a
m
)) est lineaire en H. On p ourrait alors p enser que la non linearite app ortee parlatransformationlogarithmiqueentra^neraitparsacourbureunbiaisnon negligeablesur les parametres.Ceci n'estmanifestement pasle cas,commele montrent les calculssuivants. Dans lecasparticulier k=2,notons levecteurL X . Enremarquantque ( ) =
logY N;m
log (N m`); o u Y N;m
est deniepar Y N;m = P N 1 i=m` V a m (i=N) 2 =E(V a m (i=N) 2 ); eten appro chant,E(l og(Y
N;m
))parE(l og(Y)),o uY ; 2 N m` ,on obtient E( ( N ) m ) ' N m` 2 log N m` 2 ; o u (t)= 0 (t)= (t): (2.27)
Un developp ement limite montre alors que E(( N ) m ) = O 1 N m`
: le biais est donc negligeable. Pour en ^etre convaincu, le tableau ci-dessous donne une approximation de la partapp orteeparlanon-linearitedu logarithme,dansl'estimationnalede H:celle-ci vaut
A t E( N ) 2kAk 2 (avec E( N ) donnee par(2.27)). Taille de l'echantillon 128 256 512 1024 2048 4096 M=2 4.5310 5 1.11 10 5 2.77 10 6 6.9110 7 1.73 10 7 4.3110 8 M=5 7.77 10 5 1.8910 5 4.6710 6 1.1610 6 2.8910 7 7.2310 8 M=10 1.3110 4 3.1310 5 7.6610 6 1.8910 6 4.7110 7 1.1710 7
EnsuivantuneideedeBardet[9],nousp ouvonsenvisageruneregressionlineairep onderee, enestimantlamatricedecovarianceG
k par b G k =G k ( e H ols N
(k ;a;M)).Aveclesnotationsprises precedemment l'estimateurdenipar laregressionlineaire de L
N surX
M
p ondereepar b G k
, est denipar
e g ls N (k ;a;M)= X t M ( b G k ) 1 X M 1 X t M L N :
Cecideterminelesestimateurs e H g ls N (k ;a;M)et e g ls N
(k ;a;M),etdemaniereidentiquea(2.23), nousobtenonsune nouvelle classe d'estimateursp ourle co eÆcient d'echelle,
e C g ls N (k ;a;M) = N e H g ls a e H g ls (0) 1 2 E 1 k k 1 exp 1 k e g ls N (k ;a;M) ; o u e H g ls = e H g ls N
(k ;a;M). Nous obtenons alors le resultat analogue a la Prop osition 2.4, concernant les convergences du parametred'autosimilarite etdu co eÆcient d'echelle.
Prop osition 2.5 Soient a un ltre d'ordre p 1, k un reel strictement positif, et M un entier superieur ou egala 2, alorslorsque N !+1 on a
(i) e H g ls N (k ;a;M); e C g ls N (k ;a;M) p:s: ! (H ;C); (2.28) (ii)Si p>H+1=4, p N e H g ls N (k ;a;M) H L ! N 0; 2 g ls (k ) ; (2.29) p N log (N) e C g ls N (k ;a;M) C Æ C L ! N 0; 2 g ls (k ) ; (2.30) o u lavarianceasymptotique 2 g ls
(k ), estdenie par
2 g ls (k )= 1 kB k k 2 G 0 k avec jjB k jj 2 G 0 k =B t k (G 0 k ) 1 B k ; et B k levecteur B k = ( I M 1 t M 1 M (G 0 k ) 1 1 t M (G 0 ) 1 1 M ) log(m) 1mM ; o u 1 M = (1;:::;1) t :
Demaniereidentique alaProp osition 2.2,sip=1(resp.p2),l'ensembledesresultats est valable p ourH <3=4(resp. p our toutH ; 0<H<1).
Vientalorslaquestiondelavaleurduparametrekminimisantlaconstanteasymptotique
2 g ls
(). La Figure Fig. 2.3 represente p our deux ltres a=(1; 1) et a=D b4 (ltre d'une ondelette deDaub echies d'ordre 4), p ourle parametre M =5 etp our dierentesvaleurs de k ,letracede lafonction 2 g ls (k )= 2 g ls
(2)enfonctiondeH (Hvariant sur]0;3=4[p ourleltre d'ordre1,etsur]0;3=4[p ourleltreD b4).Ellenouslaisseconjecturerqu'unresultatanalogue au Corollaire 2.4 p eut ^etre prouve p our
2 g ls
(k ). Ce resultat n'a pas b eaucoup d'inter^et en soi car, comme le montrent les simulations eectuees dans la Section 2.5, la pro cedure de regression lineaire p onderee n'amene pas un gain notable par rapp ort a la pro cedure de regressionlineaire simple.
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
1
1.5
2
2.5
3
3.5
H
σ
gls
2
(k) /
σ
gls
2
(2)
a=(1,−1), M=5
k=0.01
k=0.1
k=1
k=5
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
1
1.2
1.4
1.6
1.8
2
2.2
2.4
2.6
2.8
H
σ
gls
2
(k) /
σ
gls
2
(2)
a=Db4, M=5
k=0.01
k=0.1
k=1
k=5
Fig.2.3{Rapportdesvariancesasymptotiques 2 g ls (k )= 2 g ls (2)enfonctiondeH,pourM =5, pour lesltres a=(1; 1)et a=D b4, etpour dierentesvaleurs de k .
Remarquonsqueseulslesestimateursduco eÆcientd'echelledep endentdeladiscretisation de l'echantillon. Si l'on considere maintenant une discretisation f0;
1 N ;:::; N 1 N g, telleque lorsque N !+1 onait N !+1 et log( N ) p N
!0;ceci assurequelog ( N )( e H H) (avec e H = e H ols N (k ;a;M) ou e H g ls N
(k ;a;M))converge en probabilite vers 0. Nous obtenons alors, en suivant les demonstrations desProp ositions 2.4et2.5,leresultat suivant,
soit e C ols N (k ;a;M) = ( N ) e H ols a e H ols (0) 1 2 E 1 k k 1 exp 1 k e ols N (k ;a;M) ; alors, e C ols N (k ;a;M) P ! C ; et p N log( N ) e C ols N (k ;a;M) C Æ C L ! N 0; 2 ols (k ) :
Des resultatsidentiques sont valables p our e C g ls N (k ;a;M).
Par ailleurs, la premiere classe d'estimateurs du parametre d'autosimilarite, b H N (k ;a) deniepar(2.17),supp osaitlaconnaissanceduco eÆcient d'echelle C.Cettehyp otheseforte nous a p ermis d'expliciter une classe d'estimateurs ayant une vitesse de convergence tres rapide,en1=
p
Nlog ( N
).Est-ilp ossibledeconserverlam^emevitessedeconvergence,lorsque le mouvement brownien fractionnaire n'est plus standard? Une fois le co eÆcient d'echelle estime, la trajectoire discretisee renormalisee par le co eÆcient d'echelle estime, il s'agit de
decrire lecomp ortement de l'estimateur b b H N (k ;a)denipar b b H N (k ;a)= g 1 k ;a; N S 0 N (k ;a) ; o u g k ;a; N
est lafonctiondeniesur ]0,1[par
g k ;a; N (t)= e C k 1 ( N ) tk f a t (0)g k =2 E k avec e C = e C ols N (k ;a;M) ou e C g ls N (k ;a;M); eto u S 0 N (k ;a)= 1 N ` N 1 X i=` 1 e C k jV a (i= N )j k : La loilimite de b b H N
(k ;a)passe parl'etudede laloi limite de V 0 N (k ;a)=S 0 N (k ;a)=E (S 0 N (k ;a)) 1. Or, V 0 N (k ;a)= V N (k ;a) + e C C C k C e C k V N (k ;a): (2.31) La convergencede e
C et l'equation (2.31) montrent que V 0 N
(k ;a)converge vers une loi gaus-sienne centree,aveclavitessede convergencelog(
N )=
p
N,etparunraisonnementsimilaire
a laProp osition 2.15,lavitessede convergence de b b H N (k ;a)devient 1= p N.En conclusion, lavitessedeconvergencede e
C,entra^nelap erted'unfacteurlog( N
)dansl'estimationnale de H.
Enn,nous renvoyons lelecteur au Theoreme3 de Istas etLang[55], qui sous certaines hyp othesesderegularitedudevelopp ementdev(t)en0,etdupasdediscretisation,montrent, lorsque k=2, que ces metho desde regressionrestent adapteesa l'estimationde l'exp osant de Holder d'unpro cessus gaussienlo calement autosimilaire en0.Dans cecadre detravail,le cask2R
+
n'apasete considere.
2.5 Simulations et calculs numeriques
2.5.1 Variances asymptotiquesdes estimateurs
Variance asymptotique de p Nlog(N) b H N (2;a)
Intro duisons les quelques notationssuivantes:
Di. i : ltre desdierences d'ordrei(i momentsnuls).
Di. 2dil : ltre desdierences d'ordre2,dilate une fois (i.e.(1,0,-2,0,1)). Dbi : ltre d'une ondelette deDaub echies d'ordrei, (i=2momentsnuls). Coi ets1 : ltre d'une Coi etd'ordre 1(2momentsnuls).
d'on-de p N b H N (2;a), i.e. 1 2 P i2Z a H (i) 2
, p our dierents ltres en fonction de H. Precisons tout d'ab ord, que la denition de
a H
assure que la constante asymptotique est indep endante de la normalisation du ltre. Nousretrouvons, tout d'ab ord,lefait que lorsque p=1,
a H
n'est pas de carre sommable p our H 3=4. En outre, lorsque p 2, les calculs montrent que la variance asymptotique augmente avec l'ordre, quel que soitH 2]0;1[.Ensuite, parmi les ltres d'ordre2,le ltre D b4,dont nousrapp elons ladenition:
a'(0:4829629; 0:8365163; 0:22414386; 0:12940952)
est optimal, et dilater ce dernier ltre n'amene pas d'ameliorations. Nous avons calcule la valeurnumeriqueH
c
,apartirdelaquelle,leltre a=(1; 1),devient moinsb onqueD b4,ce qui p ermet de degagerlemeilleur ltre parmiles ltresetudiesp our l'estimateur
b H N (2;a): a opt = (1; 1) si HH c D b4 si HH c avec, H c ' 0:641:
Il est clairque a opt
dep end de H. D'un p oint de vue pratique, une connaissance a priori de H estdonc necessaire.
H
Asymptotic Constant
0.0
0.2
0.4
0.6
0.8
1.0
0.6
0.8
1.0
1.2
1.4
Diff. 3
Diff. 4
Diff. 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Hc =0.641
Db 4
Coiflets 1
Db 6
Db 4 dil.
Db 8
Diff. 2
Diff. 2 dil.
Fig. 2.4{ Constanteasymptotique 1 2 P i2Z a H (i) 2
pour dierents ltres, enfonction de H
Variance asymptotique de p N e H ols N (2;a;2)
La FigureFig.2.5evaluelavariance asymptotiquede p N e H ols N (2;a;2)(k=2)a savoir 2 ols (2) = 1 2log 2 (2) X n a 1 ;a 1 H (j) 2 + a 2 ;a 2 H (j) 2 2 a 1 ;a 2 H (j) 2 o ;
p our dierents ltres en fonction de H. Pour cette valeur du parametre M (egal a 2), il appara^t clairement que le ltre a = (1; 1) minimise
2 ols
(2) sur ]0;3=4[ et que le ltre a= D b4est le meilleur parmi les ltres d'ordre 2. Nous avons ensuite souhaite p our ces deux derniers ltresanalyserl'evolutionen fonctionde H de
2 ols
(2)p our dierentesvaleurs de M. La Figure Fig.2.6 semble indiquer que la constante asymptotique
2 ols
(2) diminue lorsque M augmente, Nous verrons cep endant dans la Section 2.5.2.2 que choisir M trop grand diminue certes la variance empirique des estimateurs mais a tendance a biaiser la moyenne.
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
0
0.5
1
1.5
2
2.5
3
3.5
4
H
Variance asymptotique
Constante asymptotique
σ
ols
2
a=(1,−1)
a=Db4
a=(1,−2,1)
a=Db6
a=(1,−3,3,−1)
Fig.2.5{Varianceasymptotiquede p N e H ols N
(2;a;2)pourdierents ltresenfonctiondeH.
Comparaison des variances asymptotiques de 2 ols (2) et 2 g ls (2)
Noussouhaitons,ici,comparerlesvariancesasymptotiques 2 ols
et 2 g ls
,p ourleparametre k = 2 qui a montre ses p erformances au travers du Corollaire 2.4 et de la Figure Fig. 2.3. La Figure Fig. 2.7 tracele rapp ort
2 ols
(2)= 2 g ls
(2) p our deux ltres etdierentes valeurs de M, en fonction de H. On retrouve le resultat de Gauss-Markov, a savoir que ce rapp ort est constamment superieura 1. Cep endant, il ressortde cette gure que,d'un p oint de vue theorique,legainapp orteparuneregressionlineaire p ondereen'estpasimp ortant(lerapp ort n'excede pas1.5).
2.5.2 Qualites des estimateurspar simulations
Nouspresentonsdanscettepartiedesresultatsdesimulationsp ourlestroisclasses d'esti-mateursduparametred'autosimilarite,ainsiquep ourlesestimateursduco eÆcientd'echelle. Poursimuler une trajectoire d'un mbfdiscretisee sur[0,1],nous avonsconsiderela metho de
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0
0.2
0.4
0.6
0.8
1
1.2
1.4
H
σ
ols
2
(2)
a=(1,−1)
M=2
M=3
M=4
M=5
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
0
0.2
0.4
0.6
0.8
1
1.2
1.4
H
σ
ols
2
(2)
a=Db4
M=2
M=3
M=4
M=5
Fig.2.6{Varianceasymptotiquede p N e H ols N
(2;a;M)pourlesltresa=(1; 1)et a=D b4 en fonction de H et de M.
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
1.1
1.2
1.3
1.4
1.5
1.6
H
σ
ols
2
/
σ
gls
2
a=(1,−1)
M=3
M=4
M=5
M=6
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
0.9
1
1.1
1.2
1.3
1.4
1.5
1.6
H
σ
ols
2
/
σ
gls
2
a=Db4
M=3
M=4
M=5
M=6
Fig. 2.7{ Rapport desvariances asymptotiques 2 ols
(2)= 2 g ls
(2)pour lesltres a=(1; 1)et a=D b4enfonction deH et deM.