• Aucun résultat trouvé

Inférence statistique pour les mouvements browniens fractionnaires et multifractionnaires

N/A
N/A
Protected

Academic year: 2021

Partager "Inférence statistique pour les mouvements browniens fractionnaires et multifractionnaires"

Copied!
163
0
0

Texte intégral

(1)

HAL Id: tel-00006736

https://tel.archives-ouvertes.fr/tel-00006736

Submitted on 24 Aug 2004

HAL is a multi-disciplinary open access

archive for the deposit and dissemination of

sci-entific research documents, whether they are

pub-lished or not. The documents may come from

teaching and research institutions in France or

abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est

destinée au dépôt et à la diffusion de documents

scientifiques de niveau recherche, publiés ou non,

émanant des établissements d’enseignement et de

recherche français ou étrangers, des laboratoires

publics ou privés.

Inférence statistique pour les mouvements browniens

fractionnaires et multifractionnaires

Jean-François Coeurjolly

To cite this version:

Jean-François Coeurjolly. Inférence statistique pour les mouvements browniens fractionnaires et

mul-tifractionnaires. Modélisation et simulation. Université Joseph-Fourier - Grenoble I, 2000. Français.

�tel-00006736�

(2)

presentee par

Jean-Francois Coeurjolly

p our obtenirlegrade de

Docteur de l'Universit 

e Joseph Fourier

(Arr^etes ministeriels du 5 juillet 1984 et du 30 Mars 1992)

Specialite: Ma th

ematiques

Appliqu ees

Inference statistique pour les mouvements browniens fractionnaires et multifractionnaires

Soutenue le 19Decembre 2000devant lacommissiond'examen

Alain Le Breton President,Grenoble I. Jean-Marc Azas Rapp orteur, ToulouseI I I.

Peter Robinson Rapp orteur, London Scho ol of Economics. Jacques Istas Examinateur,Grenoble I I.

Monique Pontier Examinateur,ToulouseI I I. Georges Oppenheim Examinateur,Paris-Sud. Philippe Soulier Examinateur,Evry. Anestis Antoniadis Directeur,Grenoble I.

(3)
(4)

Mes premiers remerciements vont a Alain Le Breton, professeur a l'Universite de Gre-noble I, qui m'afaitl'honneur de presiderlejury.

Je tiens a exprimer mes vifs remerciements a Peter Robinson, professeur a la London Scho olof Economics, p ouravoiracceptelalourde t^ache delire mondo cumenten francaiset de l'avoir rapp orte.Son in uence dansle domaineetses questions m'ont p ermisde prendre un recul signi catif parrapp orta montravail.

JesouhaitetemoignermaprofondegratitudeenversJean-Marc Azas, professeura l'Uni-versite de Toulouse I I I, p our la lecture tres attentive qu'il a faite de mon manuscrit et les nombreuses et interessantes remarques qui ont p ermis l'achevement d'une nouvelle version. Je regretteprofondementqu'il n'ait puassister a lasoutenance de ce projetp our lequel il a montreun investissement imp ortant.

Jeremercie egalement Philipp e Soulier, ma^tre de conferencesal'Universited'Evry, Mo-nique Pontier, professeura l'Universite de ToulouseI I I etGeorgesOpp enheim, professeur a l'Universite de Paris-Sud,p our avoir devoile un inter^etparticulier etun esprit critique a la lecture de mathese dont jesuis reellement atte.

J'ai ete ravi de voir Jacques Istas, professeur a l'Universite de Grenoble I I, parmi les membres de mon jury. Nos nombreuses discussions ontete p our moi tresformatrices.Je le remercie d'avoir initie letravaile ectuedansle Chapitre3.Le Theoreme3.2,fruit de notre collab oration,alongtempsclamesurlaplacepublique\Quel'onmesupprimejesuisfaux",et m'adevoileles deuxqualitesnecessaires al'elab orationd'untravailde recherche lapatience etl'acharnement.

En n, je tiens a remercier plus chaleureusement Anestis Antoniadis, professeur a l'Uni-versitede GrenobleI,qui estal'origine decetravail.Ilm'estdiÆcile de resumerenquelques mots tout ce qu'il m'aapp orte par son implication tout au long de cette these,tant sur le planscienti que rep ondantavecb eaucoup degentillesseamesinterrogationsmathematiques souventstupidesetsuivant laprogressiondemontravailavec b eaucoupdecuriosite,quesur leplan relationnelen m'invitanta travailleravec d'autresgens,exterieursaulab oratoire. Je lui suis reconnaissant d'avoir cru en moi et de m'avoir transmis sa passionde la recherche. Parailleurs,m^emesij'aitoujoursfaitsemblantderireatoutessesblagues,sab onnehumeur, ses encouragements et sadisp onibili te sans faille ont ete p our moi un soutien considerable. Je suis er comme Artaban (et non pas comme un bar-tabac comme le disait Coluche) de p ouvoir clamerque c'estsous sadirection quej'ai e ectue montravail.

Quetousceuxquionteuneserait-cequ'unjourl'ideequefonctionnairerimaitavecemploi ctif visitent leservice administratif etleservice de lareprographie de notrelab oratoire. Je les remerciep our leur eÆcacite etleur b onne humeur.

Je remercie en n la Stella Artois qui m'ap ermis a ma maniered'exprimer toute ma re-connaissance envers ceuxvenus assister ala soutenance qu'ils soient eleves,professeurs d'ici etd'ailleurs, exp ertsen geographiedesbars,specialistes enp ot dethese(i.e. lesthesardsdu LMC),compagnond'uncertainperiplemaro cainetplusparticulierementex-colo cataires, pa-rents[29],reinedudessin fractionnaire(maso euretnonpaslavachequirit),etlaspecialiste en citation.Qu'ils sachent queparleurpresence,leuramitieetleur sinceritetoutau longde ce travail,cejour restera,p our moi,un souvenirinoubliable.

EtaDavid,aquijedoislaresolutiond'unegrandepartiedemesproblemesinformatiques, je n'aurai qu'un conseil en vue de sa tres pro chaine brillante soutenance: ne remonte pas l'ecran ala nde tonexp ose.

(5)
(6)
(7)
(8)
(9)
(10)

Table des matieres

Notations 13

1 Intro duction 15

2 Identi cationdumouvementbrownienfractionnaireparvariationsdiscretes 23

2.1 Proprietesgeneralesdu mbf . . . 23

2.2 Intro ductionau probleme d'identi cation . . . 24

2.3 k -variations dumbf. . . 26

2.4 Applications desresultatsa l'identi cation dumbf . . . 28

2.4.1 Cas dumbf standard. . . 28

2.4.2 Cas dumbf generalise . . . 31

2.5 Simulations etcalculs numeriques . . . 35

2.5.1 Variances asymptotiques desestimateurs. . . 35

2.5.2 Qualitesdesestimateurs parsimulations . . . 37

2.6 Performancesdes estimateursvis-a-vis de l'estimateurde Whittle . . . 43

2.6.1 Variances asymptotiques . . . 43

2.6.2 Temps CPU despro cedures d'estimation. . . 43

2.6.3 Performances desestimateurs p ourdes seriescourtes . . . 45

2.7 Conclusion . . . 45

2.8 Preuvesdes resultats . . . 45

2.8.1 Developp ement en p olyn^omes d'Hermitede H k (t)=jtj k =E k 1 . . . . 45 2.8.2 k -variations du mbf . . . 47 2.8.3 Identi cation dumbfstandard . . . 50

2.8.4 Identi cation dumbfnon standard . . . 51

3 Bornes de Cramer-Rao p our le mouvement brownien fractionnaire 55 3.1 Intro duction. . . 55

3.2 Inverse de matriceslo calisees . . . 56

3.2.1 Matricesa decroissance hyp erb olique . . . 57

3.2.2 Matricesa decroissance exp onentielle . . . 62

3.3 Applications au calcul des Bornesde Cramer-Raodumbf . . . 63

3.3.1 PreuvesdesTheoremes3.5et3.6 . . . 65

(11)

4 Problemes statistiques induits par le mbf 71

4.1 Surquelques testslies aumbf . . . 71

4.1.1 Intro duction . . . 71

4.1.2 Quelques tests existants . . . 71

4.1.3 Une nouvelle classede statistiques . . . 74

4.1.4 Etudeparsimulations dunouveau test. . . 76

4.1.5 Preuvesdesresultats . . . 77

4.2 Debruitage d'unsignal mo delise parun mbf . . . 80

4.2.1 Intro duction . . . 80

4.2.2 Variationsquadratiquesbruitees . . . 81

4.2.3 Identi cation du mbfbruite . . . 82

4.2.4 Test de presenced'un bruitgaussien additif . . . 84

4.2.5 Etudeparsimulations desestimateursetdu test . . . 86

4.2.6 Preuve desresultats . . . 86

4.3 Conclusion . . . 94

5 Inference statistique p ourle mouvement brownien multifractionnaire 95 5.1 Intro duction. . . 95

5.2 Variations quadratiqueslo cales:de nitions etcomp ortementsasymptotiques 97 5.3 Applications desresultatsa l'identi cation dumbm . . . 99

5.3.1 Mouvement brownien multifractionnaire standard. . . 99

5.3.2 Mouvement brownien multifractionnaire generalise . . . 101

5.4 Quelques simulations . . . 103

5.4.1 Selection de voisinage optimal. . . 104

5.4.2 Estimateursfonctionnels . . . 104

5.5 Surquelques testsp our lembm . . . 105

5.5.1 Kurtosisempiriquelo cal p ourlemouvement brownien multifractionnaire105 5.5.2 Testsparametriquessur lafonctionde Hurst . . . 111

5.6 Conclusionetp ersp ectives . . . 114

5.7 Preuvesdesresultats . . . 114

5.7.1 Test de multifractionnarite . . . 126

A Simulation du mouvement brownien fractionnaire 127 A.1 Intro duction etp ositiondu probleme . . . 127

A.2 Representationsto chastiquedu mouvement brownien fractionnaire . . . 128

A.3 Metho dede Sellan,MeyeretAbry . . . 128

A.4 Metho dede Choleski . . . 130

A.5 Metho dede Levinson. . . 131

A.6 Metho dede Wo o d etChan . . . 132

A.7 Approximation d'unmbf viales sommescumuleesd'un bgf . . . 133

A.8 Qualitedes generateursdu mbf . . . 133

B Quelques estimateurs du parametre de Hurst 137 B.1 Intro duction etp ositiondu probleme . . . 137

B.2 Metho dessp ectrales . . . 137

B.2.1 Log-perio dogramme . . . 137

(12)

B.4 Metho detemps-echelle:decomp ositionen ondelettes . . . 139

B.5 Metho destemp orelles . . . 140

B.5.1 Nombrede franchissementsde zerodubgf . . . 140

B.5.2 Variations discretes dumbf . . . 140

B.6 Quelques simulations . . . 140

B.7 Scripts S-plus . . . 141

B.8 AdressesWEB . . . 141

C Simulation d'un mouvement brownien multifractionnaire 147 C.1 Intro ductionetp osition duprobleme . . . 147

C.2 Metho dede Choleski . . . 148

C.3 Approximationde Peltier etLevy-Vehel . . . 148

C.4 Approximationde Wo o det Chan . . . 149

C.5 Qualitedes approximations . . . 150

C.6 Conclusions . . . 150

(13)
(14)

R k ; N k ; Z k

: Ensembledesk-uplets reels, d'entiers,d'entiersrelatifs.

P; E; Var; Cov : Probabilite, esperance,variance, covariance.

v.a. : variable aleatoire.

v.a.i.i.d. : variables aleatoiresindep endantes, identiquement distribuees.

[x] : Partieentiere d'unreelx:

Æ i;j = 1; si i=j et 0sinon. () : FonctionGamma. jjvjj; v2R k

: Norme euclidienn e sur R k

:

1I E

() : Fonctionindicatrice surun ensemble E:

M K

(R) : Ensembledesmatrices carreesde taille K aco eÆcients reels.

A t ; A 1 ; p our A2M K

(R) : Matrice transp oseede A; inverse de A:

jAj; Tr(A); p our A2M K (R) : Determinantde A; tracede A: ` p (Z) = n (u n ) n2Z ; P n2Z ju n j p 1=p <+1 o ; p1: u n v n si lim n!+1 un vn =1: u n =O (v n ) si 9c>0; ju n jcjv n j: u n =o(v n ) si lim n!+1 un v n =0: u n v n si 9c 1 ;c 2 >0; c 1 jv n jju n jc 2 jv n j: P ! : Convergenceen probabilite. p:s:

! : Convergencepresque s ^ure.

L

! : Convergenceen loi.

L

(15)
(16)

1

Introduction

Les pro cessus autosimilaires, c'est-a-dire les pro cessus invariants en loi par changement d'echelle, ont connu un veritable essor cette deuxieme moitie de siecle tant sur l'asp ect theorique avec le developp ement de nombreux mo deles sto chastiques, que sur le p oint pra-tiqueavecdesdomainesd'applicationnombreuxetvaries.Etp ourtant,enobservantlescrues etlessecheressessuccessivesduNil, cesphenomenesd'invarianceetaientconnus depuis bien longtempscomme lesouligne cettecitation de laBible (Genese,41-29.30):

\Voici, il y aura sept annees degrande abondancedanstout le pays d'Egypte. Sept annees de famine viendrontapres elles;etl'on oubliera toute cette abondanceau pays d'Egypte, et

lafamine consumerale pays."

Ce phenomene fut app ele E et Joseph par Mandelbrot [70], et traduit un phenomene de cycles, de p ersistance d'un systeme dans un etat (secheresse ou crue dans le cas du Nil). Lespremieres donneesraisonnables sontbaseessurlesmesuresdesminima duniveau duNil durant les annees 622-1284,et ont etemises sur le devant de la scene par Tousson en 1925 [92];laFigureFig.1.1representeles cumulsdesminima duniveau duNilrecentressurcette perio de de 663 annees. Cette serie chronologique a suscite une recherche imp ortante et le travail leplusprobantest celuide l'hydrologisteH.Hurst[52]. En1951,il amis enevidence un comp ortement particulier de la statistique R=S (rescaled adjusted range), constamment utilisee en hydrologie, qui implique, entre autres, que la variance de la moyenne empirique (calculee sur une serie de longueur N), converge vers zero avec une vitesse plus faible que la vitesse N

1

. Ce resultat decouvert empiriquement fut en totale contradiction avec les resultatsclassiquesdel'ep o quep ourlespro cessusdeMarkovoulespro cessusmelangeants.Ce comp ortementfutapp eleparlasuite E etdeHurstparMandelbrotetal.[69],quijustement furent les premiers a tenter de mo deliser ce nouveau phenomene, en intro duisant p our cela un pro cessus sto chastique app ele mouvement brownien fractionnaire (note mbf), pro cessus deja etudie dans un contexte theorique sans l'avoir nomme ainsi par Kolmogorov [62], en 1940.Le mbf est l'unique pro cessus gaussien,parametrepar (H ;C)2]0;1[R

+

, centre,nul 

a l'origine, a accroissements stationnaires et autosimilaires de parametre H. Dans la suite de do cument,nousnousrefereronstoujoursacettede nitionlorsque nousparleronsdembf. Nouslaisserons dec^otelesde nitionsalternativesdiscuteesparMarinuccietal.[71], quiont conduit a certaines confusions dansla litteratureeconometrique. La notion d'autosimilarite d'un pro cessus est tres liee a la notion de fractale, objet mathematique intro duit au debut du siecle parJulia,Cantorou encore Haussdor .Demanieresimpli ee,une fractale est une gure geometrique ou un ensemble de p oints au trace fractionne et irregulier, invariant par changement d'echelle. Ceci se traduit d'un p oint de vue probabiliste: un pro cessus X = fX(t);t0gestditautosimilaire de parametreH si 8t

1 ;:::;t d 2R + et8Æ >0 (X(t );:::;X(t )) L = Æ H X(Æt );:::;Æ H X(Æt )  :

(17)

Le mbfconstitue une extension notabledu mouvementbrownien,en ce sens que les accrois-sements du mbf ne sont plus indep endants. Leur structure de covariance decro^t hyp erb oli-quementavecle temps.Le mbfest unmo dele tresparticuliercar leparametre Hegalement app eleparametre deHurst ouparametrefractionnaire, estlie adi erentes notions.Outrela notion d'autosimilarite que nous avons deja signalee, le parametre H gere la regularite des trajectoiresdupro cessus.Ene et,ladimension fractaledumbfvautpresques ^urement2 H. Cette derniere proprieteest interessantecar elle traduit le fait que le mbf p ermet d'obtenir des trajectoiresplus irregulieres que cellesdu mouvement brownien lorsque H <1=2,et in-versement plus regulieres lorsque H > 1=2. En n, et nous le verrons un p eu plus en detail dans le Chapitre 2, le parametre H gere la decroissance hyp erb olique de la fonction d'au-to covariance du mbf (notee ()par la suite). On montre,en e et, que (k )= O (jk j

2H 2 ). Le pro cessusdes accroissements, de nisur R

+

,de nit alorsun pro cessusa longue memoire lorsque H >1=2car ()n'est passommablep our cettevaleur duparametre.

Depuis le travail pionnier de Mandelbrot, le mouvement brownien fractionnaire a ete utilise comme outil de mo delisation dans de nombreuses situations: en hydrologie [68], en turbulence [87], [43], en climatologie, e.g. [20], eneconomie [47], [37], en imagerie medicale [63], [56], [58], en reseaux de telecommunications, e.g. Willinger et al. [96], ou encore p our mo deliser descourb es dechargeelectrique [72],[9].

Occultons p our un court moment les problemes statistiques que p eut soulever une telle mo delisation(identi cation, prediction, validation du mo dele::: ) p our mettreen avant un des asp ects limites du mouvement brownien fractionnaire. Considerons toujours les donnees duNil,etfo calisons-nousplusparticulierementsurlescentpremieresobservations.Apremiere vue,cespremieres observationssemblent uctuer de maniere plusindep endante queles cinq centssuivantes,autrementditlephenomenedep ersistancenettementvisibleapreslesannees 720, est absent p our les premieres donnees. Cette impression est con rmee par Beran qui, dans [21], a montre sous la forme d'un teststatistique, que la variabilite de l'estimation de l'exp osant fractionnaire sur les deux sous-seriesetait signi cative. Il montre ainsi que cette uctuation des premieres donnees n'estpas due au hasard maisa un reel changement de la structurededep endance.Ainsi, l'exp osantfractionnaireasso cieauxdonneesduNiln'estpas constant mais semble bien evoluer au cours du temps, ce qui nous amene a nous p oser la question suivante:unmo delecontr^olant\lo calement"lastructurededep endance neserait-il pasplus adequat?

Ce comp ortement ne constitue pas un phenomene isole. D'autres situations semblent necessiterl'evolutionde l'exp osant fractionnaire,comme l'illustre l'exemple ci-apres, issu de la biomecanique. Le probleme en question consiste en l'etude du systeme de contr^ole de la p osture d'un individu deb out au rep os, en utilisant des plates-formes qui mesurent la trajectoire du centre de p oussee (CP) ou du centre de gravite (CG), et a p our objectif de juger de la qualite des re exes. Collins et De Luca [31], d'une part, et Rougier [83], [84], d'autrepart,ontanalyselaprojectionsurl'undesdeuxaxes(dusystemeorthonormecentre surles piedsde l'individu ) delatrajectoireduCPaucours dutemps,etontainsi pumettre enevidencedeux phases:unepremieretresrapide (enmoyenne <0:4seconde)o u l'individu estenretardparrapp ortasesp erceptionssensorielles, contr^olemalsap ositionetatendance 

a s'ecarter davantage de sonetat d'equilibre, et une seconde au cours de laquelle il integre rapidement les informations sensorielles et corrige presque instantanement sa p osition p our la ramener a unetat d'equilibre. Collins et DeLuca [31]ont prop osede mo deliser cesdeux phasesdelatrajectoireduCPparunmbf,dufaitdel'apparenceautosimilairedestrajectoires

(18)

unmbfdeparametre H>1=2etalaseconde phaseplus irreguliereunphenomene mo delise parun mbf deparametre H<1=2.

L'exempledes donneesdu Nil ainsi quecelui issu de labiomecanique montrent quedans certaines situations, il p eut ^etre interessant d'autoriser un systeme a changer de regime, de p ermettrealastructurededep endanced'evoluerdansletemps.Frisch[43]exp oseegalement quelques situationsidentiques. Il sembledonc naturel dedevelopp er unmo delesto chastique susceptiblededecriredetellesevolutions.Ceciaeteentreprisparallelement parPeltieretal. [77], etBenassi et al.[16]: ils intro duisent le mouvement brownien multifractionnaire (note mbm), extension du mouvement brownien fractionnaire au sens o u les parametres regissant le mbf (en particulier le parametre d'autosimilarite H) deviennent des fonctions du temps. L'inter^etd'untelmo delereside,commelemontrentlesauteursprecites,danslefaitquel'on p eutcontr^olerlo calementlaregularitedestrajectoires.Autrementdit,lembmp ermetd'^etre enadequationavecdesphenomenesqui,parexemple,seraientdeplusen plusp ersistants,de plusenplusantip ersistantsouencoredesphenomenesquipasseraientd'unetatantip ersistant 

a unetat p ersistant.

Traiterd'un p oint de vuestatistique ce genre de phenomene,aetel'objectif initial dece travailderecherche.Neanmoins,cetravailanecessitedesconnaissancestheoriquesconstituees par un traitement approfondi et p ertinent du mbf, tant sur la comprehension des resultats obtenusjusqu'alorsquesurleursextensions.Cememoiresedecomp osedoncendeuxgrandes parties. Les Chapitres 2 a 4 traitent de l'inference statistique p our le mouvement brownien fractionnaire, etle Chapitre5 de l'inference statistique p our lemouvement brownien multi-fractionnaire.

Partie 1: Inference statistique p ourle mouvement brownien fractionnaire:

Precisonsavant toutechose,que noustravaillons sur unespace probabilise (;A;P).

Cesecondchapitredevelopp edesmetho desp ouridenti erlembf.L'appro checonsideree consiste a ltrer une seule trajectoirediscretisee d'unmbf observee surun compact,et d'es-timerles parametresparune metho dedemoments.Nous verronsquele ltragedelatra jec-toirediscretisee ap oure etdedetruirelalonguedep endance.Ainsi, un ltreadaptep ermet d'eviter la dichotomie des comp ortements asymptotiques des estimateurs lorsque H < 3=4 et H > 3=4 (e.g. Poggi et al. [80], Peltier et al. [76], Beran [20]), provenant du fait que la fonction de covariance des accroissements du mbf met en defaut le theoreme central limite de Breuer etMajor[22]valable p our les fonctionnelles non lineaires de pro cessus gaussiens. Nous verrons dans quel sens nousuniformisons et generalisons, p our le mbf, les travaux de Poggi et al. [80], d'Higuchi [50], d'Istas et al. [55], de Kent et al. [60] et de Peltier et al. [76],enetudiantlek -eme(k2R

+

) moment absoluempirique desvariations discretesd'une trajectoire discretisee d'un mbf. Nous distinguons le cas mbf standard, pro cessus p our le-quel C = 1, du cas non standard, H et C inconnus. En supp osant le pro cessus discretise en i=N;i=0;:::;N 1, nousmontrons, entreautres,que les estimateurs developpesde H convergent en loi vers une loi gaussienne avec la vitesse de convergence1=

p

Nlog (N),dans p

(19)

Pourl'ensembledesestimateursdeveloppes,nousobtenonsuneexpressionanalytiquedes constantes asymptotiques des variances, ce qui p ermet une comparaison eÆcace, vis-a-vis du choix du ltre et du reel k , entre autres. Une etude par simulation est ensuite menee, illustrant ainsi les p erformances des pro cedures. En n, une comparaison approfondie avec l'estimateurdumaximumdevraisemblance(EMV)estentreprise.Cetteetudemontre,entre autres,queles estimateursdeveloppesontl'avantaged'^etretresrapidement calculablesetde secomp ortertoutaussibienquel'EMVp ourdesseriescourtes.Ceciesttresinteressantcar, rapp elons-le,notresoucin'estpasdedevelopp erdesestimateursp ourlemo deleparametrique queconstituelembf,etp ourlequelilestbienevidentquel'EMVestleplusp erformant,mais deselectionnerune metho dequi p ermettrad'estimerlo calement l'exp osantfractionnaire.Ce chapitres'inscritdansuncadreparametrique,carnousdevelopp onsdesestimateursp ourles parametresd'unmbf.Le cadresemi-parametrique,treslargementevo quedanslalitterature, e.g. Beran [20], Istas et Lang [55], Robinson [82], Moulines et Soulier [73], n'est pas traite ici. Cep endant, les resultatsobtenus dansce chapitrep euvent certainement^etreetendus.

Une partie des resultats du Chapitre 2 constitue un article actuellement en cours de revision,[25].

 Nous nous interessons, dans le Chapitre 3, a l'obtention d'une b orne minimale \uni-verselle" de la variance des estimateurs de H et C basessur une trajectoire discretisee du mbf aux instants i=

N

;i =0;:::;N 1 (avec  N

! +1 lorsque N ! +1). C'est-a-dire 

a l'evaluation des b ornes de Cramer-Rao des parametres H et C. Dans le cas du mbf non standard(parametresHetC inconnus),cetravailadejaeteentreprisparDahlhaus,[34],qui montre,entre autres, que tout estimateur, disons

b H N

,du parametre d'autosimilarite veri e 

a partird'un certainrang

Var b H N    2 N ; etexplicite laconstante 2 .

Notrecontribution a ce travail estdouble: premierement nous considerons les deux ver-sionsdu mbf,standardetnonstandard,etdeuxiemement,nousdonnons unedemonstration alternative, unique etoriginale. Notrepreuve s'appuie surun resultatd'algebrelineaire fon-damentalconcernantlesinversesdesuitesdematrices\lo calisees"presdeleurdiagonale,que nous prouvons. Plusprecisement, nousconsiderons \certaines" suitesde matrices p ossedant la propriete de decroissance hyp erb olique ou exp onentielle de ses co eÆcients en s'eloignant de la diagonale, et montrons que leurs inverses p ossedent la m^eme propriete.Ces resultats d'algebrelineaire adaptentetetendentceuxobtenus parJa ard[57],danslecasdematrices in nies.

Tout ce formalisme nous a, entre autres,p ermis de montrer que tout estimateurdu pa-rametred'autosimilarite veri ea partir d'uncertainrang

Var b H N   ( 1 2Nlog 2 ( N )

dansle casstandard, c

2 N

p our unc>0; dansle casnon standard.

IlfauticinoterqueletravaildeDahlhaus,[34],estremarquable,cardanslecasnonstandard, ilexplicitelaconstantedelab orneminimaledelavariance,alorsquenotreappro chenenous p ermet de donner quesoncomp ortementasymptotique.

(20)

b ornesdeCramer-RaodeHetC,etparconsequentoptimales.LesresultatsdeceChapitre3 onteteobtenusen collab orationavec J.Istas,etconstituent unarticle acceptedanslarevue Statistics and ProbabilityLetters[27].

LeChapitre4traitededeuxproblemesstatistiquesinduitsparlembf:lavalidation du mo dele,et l'identi cation du mbf enpresence d'unbruit gaussien additif.

Dansune premiere partie, nousdiscutons de divers testslies au mbf.Certains sont deja 

etablisdanslalitterature:testd'adequationaladistributionmarginale,e.g. Beranetal.[17], testd'adequation a ladensite sp ectrale de Beran [18], testde longue memoire de Kokoszka et al.[61], test d'autosimilarite de Bardet [9].En outre, nousprop osons une statistique qui generalise le kurtosis empirique des accroissements du mbf etudie par Peltier et al. [76]. Nous prouvonsun theoreme central limite p our cette statistique, sous l'hyp othese que l'on disp osed'unetrajectoirediscretiseed'unmbf,puisd'unetrajectoirediscretiseed'unpro cessus gaussien a accroissements stationnaires, et lo calement autosimilaire en 0 au sens d'Istas et Lang [55]. Nous envisageons de tester la moyenne de cette statistique et illustrons les tres b onnes p erformancesde ce testa l'aidede simulations.

Dansla seconde partie de ce chapitre, nous considerons leproblemestatistique d'identi- cationrobuste suivant:nous supp osons observerlemo dele

Z(i= N ) = B H;C (i= N ) + (i); i=0;:::;N 1; o u B H;C = fB H;C (i= N

);i=0;:::;N 1g est une trajectoire discretisee d'un mbf de pa-rametresHetC,eto u=f(i);i=0;:::;N 1gestunechantillonde N v.a.i.gaussiennes centrees et de variance E((i)

2 ) = 

2

. Nous supp osons que  N

! +1, lorsque N ! +1 et qu'en outre B

H;C

et  sont indep endants. Notre objectif est d'estimer les parametres H et C. Dans [20], Beran discute de divers typ es de robustesse p our les pro cessus a longue memoire, tels que la stationnarite des accroissements, la gaussiannite, une p erturbation de la structure au second ordre. La prise en compte d'un bruit gaussien additif dansune serie chronologiqueformeed'unmbfdiscretiseconstitueunproblemeparticulierderobustesse,qui, 

anotreconnaissance, n'avaiteteregardeauparavantqueparWornell[100].Cep endant,nous amelioronssontravailennousa ranchissantd'unehyp othesededemonstrationfondamentale faite parWornell.

Lametho ded'identi cation developpeeutilise lesideesduChapitre2,concernant l'iden-ti cation du mbf sans bruit additif: metho de des moments et ltrage. Elle est basee sur la di erence de moments d'ordre 2 du vecteur Z ltre par deux ltres, dont l'un est le dilate double de l'autre. Nous montrons que H et C p euvent ^etre estimes par une regression log-lineaire,demanieretressimpleetrapide.Nousprouvonslesconvergencesenprobabiliteeten loidesestimateurs,moyennantquelqueshyp othesessurlepasdediscretisation

N .Ensupp o-sant que N =N 

,avec0<<1=4H,nousobtenonsdesresultatsdetyp etheoremecentral limite p our les estimateursavec la vitessede convergenceN

2H 1=2

(resp. N

2H 1=2

log (N)) p our l'estimateur de H (resp. C). Nous etudions egalement le cas particulier  = 0, p our lequel lavitessede convergencede l'estimateurde H devient 1=

p N.

Nous avons ensuite developpe un test statistique consistant, p ermettant de detecter la presence eventuelle d'un bruit gaussien additif. La statistique consideree est une mesure de l'ecart entre deux estimateurs du parametre d'autosimilarite: l'un prenant en compte la presence eventuelle d'un bruit, l'autre supp osant la serie non bruitee. Quel que soit le pas de discretisation =N



(21)

statistique, avec lavitesse de convergence1= p

N. Lesp erformancesdes estimateursetde la pro cedurede testsont validees paruneetudede simulation.

Partie 2: Inference statistique p our le mouvement brownien multifractionnaire:

 Le Chapitre 5 quitte le cadre parametrique,parfois contraignant en mo delisation sto-chastique,ets'inscritdansuncadresemi-parametrique.Nousintro duisonsunegeneralisation naturelle du mbf,lemouvement brownien multifractionnaire, prop oseparallelement par Pel-tieretal.[77]etBenassietal.[16].Cetteextensionestobtenueensubstituantlesparametres H etC pardeuxfonctionsdutemps,danslesintegralessto chastiquesrepresentantlembf.Si lafonctionH (resp. C) appartient al'ensembledesfonctions holderiennes d'ordre 0<1 sur ]0;1[ (resp. sur R

+

), les auteurs montrent que cette extension se comp orte \asymp-totiquement lo calement" commele mbf,ce qui suggered'identi er lembmen adaptant une metho ded'identi cationdumbf.Nousavonschoisid'adapterlesestimateursdeveloppesdans le Chapitre2car,d'unepart,leur vitessede convergenceest optimaleet,d'autre part,ils se comp ortent de maniere tresp erformantevis-a-vis de l'estimateurdu maximumde vraisem-blance.

Dansunepremierepartiedonc,nousdevelopp onsdesestimateursdelafonctionHapartir d'une seule trajectoire discretisee aux instants i=N;i = 0;:::;N 1 d'un mbm veri ant les hyp otheses precitees. Par analogie avec le Chapitre 2, nous di erencions le cas o u le mbm est standard (C  1), du cas plus general (H et C inconnues). L'estimateur de la fonction H en t2 [0;1]est estime a partir des observations du mbm au voisinage V

N; (t)= fj=N;j 2 Ztelque j

j N

tj  g, o u  est un parametre destine a tendre vers 0 lorsque N !+1. Nousmontronsque les estimateurs convergent p onctuellement presque s ^urement verslavraievaleurdelafonction,etenloisur]0;1[(aveclavitessedeconvergence

1 p

2Nlog(N) p our lecasstandard,et

1 p

2N

p our lecasnonstandard) versdespro cessus gaussienscentres de fonction de covariance explicite. Dans les deux versions du mbm, nous montrons qu'il existe un choixasymptotique optimalp our leparametre. Parailleurs,nouspresentonsune pro cedure de Monte-Carlo p our choisir  a taille d'echantillon xee. Cette pro cedure ainsi que lesestimateurs sont etudiespar simulation. Precisonsquecettepremiere partieetend le travail de Benassi et al., qui dans [16]considerent le cas =1, etprop osent un estimateur consistant p our lafonctionH,d'unmbmnon standard(sansobtenir laconvergenceen loi). Dans la seconde partie de ce chapitre, nous presentons quelques tests p our le mbm. Premierement,nous de nissons une version lo cale du kurtosis empirique des accroissements du mbf,etudiee dans le Chapitre4. Nous app elons naturellement cette nouvelle statistique kurtosis empirique lo cal p our le mbm et prouvonsqu'elle converge en loi sur ]0;1[ vers un pro cessus gaussiencentre,defonctiondecovarianceexplicite. Dans uneseconde partie, nous developp ons des tests parametriquesp our la fonction de Hurst. Plus precisement, nous tes-tons l'hyp othese que la fonction de Hurst est issue d'un mo dele lineaire. Pour cela, nous intro duisons une statistique qui est une distance L

2

entre un estimateur fonctionnel de la fonctionH etlemo delelineaire estime.Nousmontronsqu'elle convergeenloiaveclavitesse 1=

p

2Nversunevariable aleatoiredontlaloiestexplicite. Cesstatistiquesgeneralisentcelle intro duite par Beran, [21], p our tester la variabilite du parametre de Hurst dans une serie

(22)

Annexes:

LesAnnexesAetBfournissentdesoutilsp oursimulerunetrajectoirediscretiseedumbf etp our estimer leparametrede Hursta partir d'uneseule trajectoire.Elles constituent une 

etudebibliographiquenonexhaustivemaissuÆsammentlargep ourcomprendrelesdi erentes manieres entreprises jusqu'alors, p our resoudreces deux problemes. Une etude comparative desmetho desdesimulationaetemenee,cequiap ermisd'extraireunemetho deexacte(p our simuler une trajectoirediscretisee des accroissementsdu mbf) ettresrapide m^eme p ourdes taillesd'echantillonelevees;ils'agitdelametho dedeveloppeeparWo o detChan[97],app elee metho de de la matrice circulante. Ces deux annexes ont fait l'objet d'une publication dans larevueJournal of StatisticalSoftware,[28].

 En n dans l'Annexe C, nous presentons trois metho desde simulation du mbm. Deux d'entreellesetantdes approximations,uneetudecomparativeaetemenee danslebut d'ex-plorer leur qualite. Les scripts de ces metho des,implementees sous Matlab, sont egalement disp onibles.

Persp ectives:

 De par la diversite des themes ab ordes dans ce memoire, les p ersp ectives sont nom-breuses.Elles sontp ourlaplupartdiscuteesen ndechaquechapitre.Enparticulier,un tra-vailrestea menerp ouretablir demanierepreciseles liensentreles metho desd'identi cation baseessurle ltrage,quenousdevelopp ons,etcellesbaseessurlatransformeeenondelettes, e.g.Flandrin[42],Wornell[100],Abryetal.[1]::: Denotrep ointdevue,cesmetho dessont conceptuellement semblablesmaisilestprimordial decomprendrelesdi erentesconnexions. En ce sens, les travaux bases sur les metho des d'ondelettes ne sont pas discutes dans les chapitres avenir.

De maniere plus generale,l'objectif de cettetheseetaitletraitement statistique d'une alternative particuliere du mbf, a savoir le mbm. Tel qu'il a ete intro duit, le mbm est un pro cessus continu.Il ne p ermet donc pasde considererdes phenomenesdontlastructure de dep endance varieraitdemanierebrutaleavecletemps.Ceciaeteentrepris d'unp ointdevue probabiliste parAyache etal.[6],etBenassietal.[15].Le traitementstatistiqueest,p ourle moment, partiel.

Parailleurs, notretravails'inscrit dansun cadregaussien.Celui-ci estparticulierement agreable,carlesoutilsdedemonstrationssontbienetablis.Quitterlecadregaussienetfairele lien avecl'analyse multifractale,quiconna^tun veritablesuccesces dernieresannees, consti-tueune p ersp ective attrayante.

(23)

600

700

800

900

1000

1100

1200

1300

−10000

−8000

−6000

−4000

−2000

0

2000

Date

Cumul des minima recentres du niveau du Nil

Fig.1.1{SommescumuleesdesminimaduniveauduNilrecentresparlamoyenneempirique durant les annees622-1284 (voirTousson [92 ]).

(24)

2

Identi cation du

mou-vement brownien

frac-tionnaire par variations

discretes

Ce chapitre contient quelques rapp els des principales proprietes statistiques du mbf, et developp e desestimateursconsistantsdes parametresdu mouvementbrownienfractionnaire basessurlek -ememomentabsolu desvariationsdiscretesd'uneseule trajectoiredumbf.Les p erformances de ces estimateurs sont illustrees et une etude comparative avec l'estimateur du maximumde vraisemblance yestmenee.

2.1 Proprietes generales du mbf

Avant de s'attaquer au probleme d'identi cation du mbf, nous souhaitons enumerer quelques proprietes de ce pro cessus qui indiquent, entre autres, que l'estimation des pa-rametresn'est pastriviale.

Commenconsparrapp elerquelemouvementbrownienfractionnaire(mbf)deparametres (H ;C)2]0;1[R

+

,estle pro cessus,note fB H;C

(t);t0gissu de l'integrationfractionnaire d'unbruit blanc gaussien,ou de maniereequivalente parl'integralesto chastique:

B H;C (t) = C V 1=2 H Z R f t (s)dB(s) (2.1) avec f t (s) = 1 (H+1=2) n jt sj H 1 2 1I ] 1;t] (s) jsj H 1=2 1I ] 1;0] (s) o ; avecB H;C (0)=0etV H

= (2H+1)sin (H); designelafonctionGammaetB estun mou-vementbrownienstandard.Ouencoreplussimplement,lembfestde nicommeetantl'unique pro cessusgaussiencentre,nulal'origine,aaccroissementsstationnairesetautosimilaires,tel que E  fB H;C (t) B H;C (s)g 2  = C 2 jt sj 2H ; 8s;t2R + :

Dans toute la suite, nousapp ellerons mbf standardle pro cessus p our lequel C =1. La pro-prieted'autosimilaritenousp ermet d'obtenir lafonctiondecovariancedumbf(notee (;))

(25)

notee ())resp ectivement donneespar: (t;s) = Cov B H;C (t);B H;C (s)  = C 2 2 jtj 2H + jsj 2H jt sj 2H  (2.2) (t s) = Cov B H;C (t+1) B H;C (t);B H;C (s+1) B H;C (s)  = C 2 2 jt s 1j 2H 2jt sj 2H + jt s+1j 2H  : (2.3)

Dans le cas particulier H = 1=2, le mbf s'identi e au mouvement brownien, avec dans ce cas (k ) = 0; p ourjk j  1 (les accroissements sont indep endants). Lorsque H 6= 1=2, un developp ement limite en l'in ni exhib e la decroissance hyp erb olique suivante: (k )  C

2

H(2H 1)jk j 2H 2

; lorsque jk j! +1: Le pro cessus desaccroissements du mbf,app ele bruit gaussien fractionnaire (bgf), constitue une serie chronologique stationnaire, et admet une densite sp ectrale (de nie par la transformee de Fourier de ()) explicitement donnee par: f()=f(;H ;C) = 2c  (1 cos) X j2Z j2j+j 1 2H ; 82[0;2]; (2.4) avec c  = C 2 2

sin (H) (2H+1). Un developp ement de Taylorde f dans un voisinage de 0 montrequelasignaturesp ectrale dubgf estjj

1 2H

,ce quiindique lapresence d'unp^oleen zerolorsque H>1=2,fait caracteristique despro cessusa longue memoire.

En ce qui concerne la regularite des trajectoires, a l'instar du mouvement brownien, le mbfest atrajectoirescontinues etpresques ^urement non di erentiables.L'appro che fractale raÆnecettedi erence.En e et,ladimension de Hausdor d'un mbfde parametreH 2]0;1[ est presque s ^urementegale a 2 H,ce qui implique que p our H <1=2les trajectoires sont plus irregulieres que celles du mouvement brownien, et inversement plus regulieres lorsque H >1=2.LaFigure Fig.2.1illustre cetteremarque.

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

−1.5

−1

−0.5

0

0.5

1

Time

mbf

H=0.3

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

−0.2

0

0.2

0.4

0.6

0.8

1

1.2

Time

mbf

H=0.5

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

−0.2

−0.1

0

0.1

0.2

0.3

0.4

0.5

Time

mbf

H=0.8

Fig. 2.1 { Trajectoires sur [0;1] de mbfs respectivement de parametres H = 0:3;0:5;0:8 si-muleespar lamethodede Wood et Chan(voirAnnexe A).

2.2 Introduction au probleme d'identi cation

(26)

sus-pluscourantsestpresenteeparBeran[20]:metho deR/S,variogramme,correlogramme,log -perio dogramme,maximumdevraisemblance (estimateurde Whittle).Nous renvoyonsle lec-teur a l'Annexe B p our un tour d'horizon plus complet des metho des d'identi cation. Ces dernieresanneesontvul'emergencedenouvellesappro ches:uneappro chepardecomp osition en ondelettes et une appro che par variations discretes, consistant toutes deux en le ltrage de l'observation d'une seule trajectoire, qui a p our e etd'accelerer la decorrelationdes ob-servations.Cesmetho desne sontpasrestreintes aumo delebrownien fractionnaireetrestent adapteesauneclassedepro cessusb eaucouppluslargequeconstituentlespro cessusgaussiens lo calement autosimilairesen0.Unpro cessusgaussien,fX(t); t0gcentre,aaccroissements stationnaires est dit lo calement autosimilaire en 0, note glas (voir Istas et Lang [55]) si sa fonctiondemi-variancev(t)= 1 2 E (X(s+t) X(s)) 2 

veri e laproprietesuivante, lorsque t!0: v 2D (t) = v 2D (0) + ( 1) D Cjtj 2H + o(jtj 2H ); (2.5)

o u D est leplus grand entier tel que v soit2D -fois di erentiable, et0 <H <1. La notion de pro cessus lo calement autosimilaire est developpee entre autres par Benassi etal. [13], et signi e que le pro cessus tangent converge en loi vers un pro cessus autosimilaire. Dans le cadre des pro cessus gaussiens, cette notion est equivalente a (2.5). Par ailleurs, nous nous sommesrestreintsaucaso ulepro cessusXestcentremaisprecisonsqueIstasetLang[55]ont 

etudie lecas de pro cessus non centresdont la fonction moyenne veri e certaines conditions de regularite.Pourdecrire les metho des d'estimation du parametre H designons par (X) le vecteurobtenu parladiscretisation de fX(t); t0gaux instantsi=N; i=0;:::;N 1,et par(V

a

)levecteur(X) ltreparun ltrea.De nissonsenoutrelesvariationsd'unecertaine fonctionF, app eleesF-variations,par lastatistique,

V N (F;a) = 1 N ` N 1 X i=` F V a (i=N)  :

Denombreux travauxsontbasessurcetteappro che,aveclechoixparticulier F(t)=H k (t)= jtj k E(jV a (0)j k )

1: En e et, avec un mo dele simpli e, Bardet [9], Poggi et Viano [80] dans le cas o u F = H

2

et Higuchi [50], empiriquement lorsque F = H 1

, exhib ent des estimateurs convergents en 1=

p

N,p our H <3=4,basessur une metho dede regressiondes F-variations de plusieurs ltres d'ordre 1. Sous lemo dele general,Istas et Lang[55] d'une part,Kent et Wo o d [60]d'autrepart,etudientlecomp ortementde variationsquadratiquesp ourdes ltres d'ordre p  2, et exhib ent des estimateurs convergents en 1=

p

N, p our tout H. En n, en se restreignant au mo dele du mouvement brownien fractionnaire standard (C =1), Peltier et Levy-Vehel [76], par une appro che fractale du probleme d'identi cation, explicitent une classed'estimateursdeH convergentsen 1=

p

Nlog (N);p our H<3=4,enestimantlek -eme moment absolu des accroissementsdu mbf (F=H

k

,p our k2N 

).

L'objectif de ce travail est d'uniformiser et de generaliser ces resultats en etudiant les H

k

variations (p our k 2 R +

) du mbf standard et non standard, p our un ltre d'ordre quelconque. Notre principale contribution est d'exhib er p our chaque mo dele lek optimal et d'obtenir une convergence gaussienne p ourtout H2]0;1[.

Dans la Section 2.3, nous intro duisons un certain nombre de notations et de nissons une statistique app elee k -variations, consistant en le k -eme moment absolu empirique des variations discretes normalisees du mbf. En s'appuyant sur les travaux de Do ob [40] et de

(27)

central limite. La Section 2.4 seprop ose d'identi er le mbf standard (C =1)et le mbf non standard(C6=1).Pourcesdeuxmo deles,nousexhib onsuneclassed'estimateursconsistants etasymptotiquementgaussiens.Silepro cessusestobserveauxinstantsi=N (resp.i=

N avec 

N

! +1 lorsque N ! +1) p our i=0;:::;N 1, lavitesse de convergencede laclasse d'estimateurs de H lorsque le mbf est standard est 1=

p Nlog (N) (resp. 1= p Nlog ( N )), et 1= p

N (quelquesoitlepasdediscretisation)lorsquelembfestgeneralise.En n,ajoutonsque p our l'ensemble des estimateurs prop oses, la variance est minimale p our k= 2. La Section 2.5 prop ose d'illustrer les p erformances des estimateurs intro duits dans la Section 2.4 via une etude de simulation. La Section 2.6,en n, assure la coherence et les p ersp ectives de ce travail carnous nous attachonsa comparer les estimateurs intro duits p our identi er le mbf nonstandardavecl'estimateurdeWhittle(issudumaximumdevraisemblance).Lespreuves des di erentsresultatsenoncessontrassemblesdanslaSection 2.8.

2.3 k-variations du mbf

L'objectif de cette premiere partie est d'intro duire un certain nombre de notations et de presenterles resultats de convergencedu k -eme moment absolu empirique des variations discretes normalisees du mbf, de maniere a rendre plus lisible la Section 2.4. Notre mo dele statistique sera constitue d'une trajectoire, notee B

H;C

, d'un mbf de parametres (H ;C) 2 ]0;1[R

+

,discretiseeauxinstantsi=N;i=0;:::;N 1.Nousnotonsaun ltre delongueur `+1 etd'ordrep1,i.e. unvecteuracomp osantesreellesveri ant

` X q =0 a q q i =0 p our i=0;:::;p 1 et ` X q =0 a q q p 6=0: Soit V a

laserieissue du ltrage de latrajectoirediscretisee B H;C para: V a  j N  = ` X q =0 a q B H;C  j q N  ; p our j=`;:::;N 1: A titre d'exemple, V a

represente les accroissements du mbf dans le cas o u a = (1; 1), et les di erences secondeslorsque a=(1; 2;1).Nousnoterons E

k

lek -ememomentabsolu de la loi normale centree reduite,explicitement donnepar E

k =2

k =2

(k+1=2)= (1=2);k>0. De nissons lavariablealeatoire V

N

(k ;a),app elee k -variations par

V N (k ;a) = 1 N ` N 1 X i=` 8 < : jV a (i=N)j k E  jV a (i=N)j k  1 9 = ; : (2.6) La quantite E  jV a (i=N)j k 

dep end explicitement des parametres H et C. Il p eut donc para^tresansinter^etd'etudierlecomp ortementasymptotiquedelavariablealeatoireV

N (k ;a). Cep endant,comme nousleverronsparlasuite les comp ortementsdes estimateursque nous de nissonssont intimementlies acelui deV

N

(k ;a).Avanttout,designonspar a H

lafonction de covariancede V

a

.Il est clairque laserieV a

est stationnaire(ceci provient dufait quela somme des comp osantes du ltre est nulle). L'autosimilarite du mbf entra^neque p our tout j2Z:  a H (j) = E(V a (i=N)V a ((i+j)=N)) = C 2 2 ` X a q a r jq r+jj 2H : (2.7)

(28)

L'inter^etde l'appro che, c'est-a-direl'utilisation des ltres discrets, est donne par le Lemme suivant, d ^u aIstas etLang[55].

Lemme 2.1 Aveclesnotationsprecedentes,nousavons a H (j)j 2H 2p ;lorsquej!+1, o u = 1 2 P ` q ;r =0 2p;H (q r ) 2p (2p)! avec 2p;H =2H(2H 1):::(2H 2p+1).

LaFigureFig.2.2illustre ladecroissance hyp erb olique de a H

.Parlasuite,nousnoterons p our j2Z  a H (j)=  a H (j)  a H (0) : (2.8)

0

0.5

1

1.5

2

2.5

−4

−2

0

2

4

6

8

10

Temps

Fonction de covariance

H=0.1

a=(1,−1)

a=(1,−2,1)

a=Db4

a=(1,−3,3,−1)

0

0.5

1

1.5

2

2.5

3

3.5

4

−1

−0.5

0

0.5

1

1.5

Temps

Fonction de covariance

H=0.9

a=(1,−1)

a=(1,−2,1)

a=Db4

a=(1,−3,3,−1)

Fig. 2.2 { Traces de la fonction  a H

pour di erents ltres (D b4 designant le ltre d'une ondelettede Daubechies d'ordre 4) etpour deux valeurs du parametre de Hurst.

EnutilisantlestravauxdeDo ob[40],deBreueretMajor[22]etd'apresledevelopp ement en p olyn^omes d'Hermite de la fonction H

k

(t) = jtj k

=E k

1, dont les co eÆcients notes c k 2j sont explicitesdanslaSection 2.8.1,nousobtenonsleresultatsuivant quant alaconvergence de V

N (k ;a):

Prop osition 2.1 Soit a un ltre d'ordre p  1 et soit k un reel strictement positif, alors lorsque N !+1 ona (i) V N (k ;a) p:s: ! 0: (2.9) (ii)Si p>H+1=4, p N V N (k ;a) L ! N(0;A 1 (H ;k ;a)); (2.10) o u A 1 (H ;k ;a) = X j1 (c k 2j ) 2 (2j)! X  a H (i) 2j et c k 2j = 1 (2j)! j 1 Y q =0 (k 2q ): (2.11)

(29)

La condition p >H+1=4de (ii) resulte de lacondition de sommabilite au carre de  a H decoulantelle-m^emeduTheoreme1deBreueretMajor[22].Ainsi,sip=1laconvergenceen loi n'est valable que sur l'intervalle H 2]0;3=4[,alors qu'elle est valable p our tout H 2]0;1[ desquep2.

Remarque: l'autosimilarite globale du pro cessus n'est pas une condition necessaire p our obtenir la convergence en loi des k -variations. Moyennant des hyp otheses supplementaires sur lesparametresd'unpro cessus gaussienlo calement autosimilaire en 0 (i.e. surlerestedu developp ement en 0 de v

2D

(), sur le pas de discretisation et sur l'ordre du ltre), Istas et Lang[55], Theoremes2et4,montrent,lorsque k=2,que lalimite restegaussienne.

Le Corollaire 2.1 rep ond a la question suivante: que se passe-t-il si l'on fait varier k en fonction de N?Cette question est motivee parle fait qu'enchoisissant >0 et k =N

, on a lorsque N !+1, c k 2j N  2j avec  2j =( 1) j 1 2 j 1 (j 1)! (2j)! :

Nous nous sommes alors interesses a comprendre comment cela in uait sur la vitesse de convergencede V

N (N

;a).

Corollaire 2.1 Soit a un ltre d'ordre p > H +1=4 et soit un reel strictement positif, alors N + 1 2 V N N ;a) L ! N 0;A 1 (H ;a)  ; avec A 1 (H ;a) = X j1 ( 2j ) 2 (2j)! X i2Z  a H (i) 2j et  2j = ( 1) j 1 2 j 1 (j 1)! (2j)! :

Ainsi, plus k tend rapidement vers zero,plus la vitesse de convergence des k -variations est elevee. Ces resultats etant etablis, nous nous prop osons d'identi er les parametres du mbf par une metho dede moments en distinguant lescas o u le co eÆcient d'echelle, C,est connu ou non.

2.4 Applications des resultats a l'identi cation du mbf

2.4.1 Cas du mbf standard

De nissons le k -eme moment absolu empirique des variations discretes du mbf par la statistique suivante S N (k ;a) = 1 N ` N 1 X i=` jV a (i=N)j k : (2.12) La stationnaritede la serie(V a

) etles notationsintro duitesimpliquent que

E(S N (k ;a)) = 1 N Hk f a H (0)g k =2 E k :

Certainsdesauteurscitesprecedemment,e.g.IstasetLang[55],KentetWo o d[60],prop osent un estimateurbasesur une metho dede regressiona partir dela statistiqueS

N

(30)

E(V a

(i=N) 2

). De ce fait, l'hyp othese d'autosimilarite lo cale en 0, p eut suÆre p our l'iden-ti cation. L'avantage du mo dele mbf est que l'autosimilarite est globale, E(S

N

(k ;a)) est explicite:enutilisant unseul ltretoutel'informationestconservee;enestimantE(S

N (k ;a)) parS

N

(k ;a),on deduit une premiereclasse d'estimateurs:

b H N (k ;a) = g 1 k ;a;N (S N (k ;a)); (2.13)

o u nous de nissons p our un entier N  1, un ltre a quelconque et un reel k strictement p ositif, lafonctiong k ;a;N sur ]0;1[par g k ;a;N (t) = 1 N tk f a t (0)g k =2 E k :

En supp osant que lataille de l'echantillonveri e

N > max t2]0;1[ exp  P jq r j>2 a q a r log (jq r j)jq r j 2t P q ;r a q a r jq r j 2t  ; (H)

conditionrealiseep ourl'ensembledes ltresutilisesenpratique(accroissementsd'ordre quel-conque, ltres deDaub echies,coi ets), lamonotonie(et donc l'inversibilite) de g

k ;a;N

est as-suree. En particulier, l'hyp othese(H) assurel'existence de laclasse d'estimateurs

b H N (k ;a). Le cas p = 1, o u la serie V a

n'est autre que le bruit gaussien fractionnaire standard, a ete 

etudie par Peltier et Levy-Vehel [76]. Ils obtiennent une expression analytique des estima-teurs, ce qui est imp ossible deslorsque p2.En e et, lorsque p =1, lafonction 

a t

(0) est constanteetegale a 1 8t2]0;1[,alors qu'elle dep endde t lorsque p2.Precisonsd'ailleurs que numeriquement

b H N

(k ;a)est obtenuparminimisation de g k ;a;N

(t) S N

(k ;a) sur]0;1[. Parlasuite, adesigneraun ltre veri antimplicitement l'hyp othese(H).LaProp osition 2.1p ermet d'obtenir le resultat suivant relatif a laconvergencede

b H N

(k ;a).

Prop osition 2.2 Soit a un ltre d'ordre p  1 et soit k un reel strictement positif, alors lorsque N !+1 ona (i) b H N (k ;a) p:s: ! H : (2.14) (ii)Si p>H+1=4, p Nlog (N)  b H N (k ;a) H  L ! N  0; A 1 (H ;k ;a) k 2  ; (2.15) o u A 1

(H ;k ;a)est donnee par (2.11).

La connaissance de la discretisation et du co eÆcient d'echelle, C, se rep ercute dans la vitessedeconvergencedel'estimateuren1=

p

Nlog (N),vitesse pluseleveequelavitesse pa-rametrique\classique" (en1=

p

N).Ace stade,connaissant explicitement lavariance asymp-totiquedesestimateurs,onp eutsedemanders'ilexisteunevaleuroptimaledekquiminimise lavariancede

b H N

(k ;a).Ona:

Corollaire 2.2 Pour tout ltrea d'ordre p1, la variance de b H N

(31)

Preuve:Notons(c k 2j ) 0 = 1 k 2 (c k 2j ) 2 (2j)!,o uc k 2j

designele2j-emeco eÆcientdudevelopp ement enp olyn^omesd'Hermite delafonctionH

k

(t)=jtj k

=E k

1.LaSection 2.8explicite cecalcul etmontreque c k 2j = 1 (2j)! Q j 1 q =0 (k 2q). 1 k 2 A 1 (H ;k ;a)= X j1 (c k 2j ) 0 X i2Z  a H (i) 2j  (c k 2 ) 0 X i2Z  a H (i) 2 = 1 2 X i2Z  a H (i) 2 :

Il suÆtalorsde remarquer que(c 2 2j

) 0

=0 p our j>1,i.e.que 1 4 A 1 (H ;2;a)= 1 2 P j2Z  a H (j) 2 . 2 Le Corollaire 2.2 implique en particulier qu'il est inutile de faire varier k en fonction de N p our estimer le parametre H. Lorsque k = 2, nous obtenons le theoreme limite suivant lorsque N !+1: p Nlog (N)  b H N (2;a) H  L ! N 0; 1 2 X i2Z  a H (i) 2 ! : (2.16) Laclassed'estimateurs b H N

(k ;a)quenousvenonsdede niretd'etudiern'estpassansinter^et. Certes,elle supp oselaconnaissancedeladiscretisationetduco eÆcient d'echelleC maiselle nous p ermet de construire un test asymptotique, base sur (2.16), utilise p our juger de la qualitede diversesmetho desde simulationdumbf.Nousrenvoyonslelecteur al'Annexe A.

Pour expliciter les estimateurs b H N

(k ;a), nous avions supp ose la trajectoire discretisee aux instants i=N;i = 0;:::;N 1. Si la discretisation devient i=

N

; i = 0;:::;N 1, avec 

N

! +1 lorsque N ! +1, nous obtenons un resultat fort interessant. De maniere analoguea (2.13),de nissons b H  N = g 1 k ;a; N (S N (k ;a)); (2.17) avec S N (k ;a)= 1 N ` N 1 X i=` V a (i= N ) k et g k ;a; N (t)= 1 ( N ) tk f a t (0)g k =2 E k :

Le resultatsuivant montrel'ameliorationapp orteep our une tellediscretisation.

Corollaire 2.3 Soit a un ltre d'ordre p > H+1=4 et soit k un reel strictement positif, alors lorsqueN !+1 ona (i) b H  N (k ;a) p:s: ! H: (ii)Si p>H+1=4, p Nlog ( N ) b H N (k ;a) H  L ! N(0;A 1 (H ;k ;a)): Exemples:  N = N ; >0; vitesse de convergence: 1= p Nlog (N)  N

= exp (N), vitesse de convergence: 1=N 3 2

La preuveresultedu fait queles preuvesdes Prop ositions2.1et 2.2sontencore valables en remplacant ladiscretisation uniformepar ladiscretisation f0;:::;

N 1 

(32)

2.4.2 Cas du mbf generalise

Supp osonsde nouveau la trajectoirediscretiseeaux instantsi=N;i=0;:::;N 1.Nous avons a present deux parametres a estimer,H et C.Il devient donc imp ossible d'utiliser la metho deprecedentebaseesur laregressionnonlineaire avecunseul ltre, etil estindisp en-sable d'employer plusieurs ltres. Et parmi l'ensemble des ltres, il en existe une collection interessante(egalementemployee parKentetWo o d[60]danslecask=2)constitueeparla suite (a

m )

m1

de niep our m1 par

a m i =  a j si i=jm 0 sinon p our i=0;:::;m`+1; Le ltre a m

n'est autre que le ltre a dilate m fois. L'inter^etde cette famille reside dans le calcul suivant E(S N (k ;a m )) = 1 N Hk   a m H (0) k =2 E k = m Hk E(S N (k ;a));

qui indique lalog-lineariteen H de E(S N

(k ;a m

)).La pro cedure d'estimationdevient simple etnaturelle:on se donne M ltres (M 2) eton e ectue une regression lineaire simple de L N =  logS N (k ;a m ) 1mM surX M

,matriceM2du pland'experience de niepar

X M =  0 klog (2) ::: klog (M) 1 1 ::: 1  t ; (2.18)

cequip ermetd'obteniruneclassed'estimateursde =(H ; ) t

,quel'onnotera e ols N (k ;a;M)=  e H ols N (k ;a;M); e  ols N (k ;a;M)  t

,avec le parametrede nipar

= log E(S N

(k ;a))= klog (C) Hklog (N)+log  a H (0) k 2 =E k  :

Avecles notationsadopteesprecedemment,cetteclasses'ecrit

e ols N (k ;a;M)= (X t M X M ) 1 X t M L N :

Nous p ouvons alorsetablir le resultat suivant, enoncant la convergence des k -variations en dimension M,etlanormaliteasymptotique duresidudelaregressionlineaire deL

N surX

M .

Prop osition 2.3 Soient a un ltre d'ordre p  1, k un reel strictement positif, et M un entier superieur ou egala 2, alors,lorsque N !+1, on a

(i) V N (k ;a 1 );:::;V N (k ;a M )  p:s: ! (0;:::;0): (2.19) Si p>H+1=4, (ii) p N V N (k ;a 1 );:::;V N (k ;a M )  t L ! N( 0;G k ): (2.20) (iii) p N L X  L ! N(0;G ): (2.21)

(33)

G k



etant lamatrice MM de nie par

g mn = X j1 (c k 2j ) 2 (2j)! X i2Z  a m ;a n H (i) 2j avec  a m ;a n H (i)= P ` q ;r =0 a q a r jmq nr+ij 2H m H n H P ` q ;r =0 a q a r jq r j 2H : (2.22)

La de nitionde p ermetd'obtenir explicitement uneclassed'estimateursp our leco eÆcient d'echelle C: e C ols N (k ;a;M) = N e H ols  a e H ols (0) 1 2 E 1 k k  1 exp  e  ols N (k ;a;M)=k  ; (2.23) o u e H ols = e H ols N

(k ;a;M).Ilendecoulealorslaprop ositionsuivante,exprimantlaconvergence des estimateursdesparametresH etC:

Prop osition 2.4 Soient a un ltre d'ordre p  1, k un reel strictement positif, et M un entier superieur ou egal a 2, alorslorsque N !+1on a

(i)  e H ols N (k ;a;M); e C ols N (k ;a;M)  p:s: ! (H ;C); (2.24) (ii)Si p>H+1=4, p N  e H ols N (k ;a;M) H  L ! N 0; 2 ols (k )  ; (2.25) p N log (N) e C ols N (k ;a;M) C Æ C L ! N 0; 2 ols (k )  ; (2.26) o u la variance asymptotique  2 ols

(k ), est de nie par  2 ols (k ) = A t G 0 k A kAk 4 ; A etant le vecteur M-dimensionneldecomposantesA m = log (m) 1 M P M m=1

log (m),jj:jjlanormeeuclidienne de R

M et G

0 k

lamatriceMM dont lestermesgeneriquessont de nis g 0 mn =g mn =k 2 .

Paranalogie avec leCorollaire 2.2,nousp ouvonsmontrerle resultatsuivant:

Corollaire 2.4 Pour tout ltrea d'ordrep1, laconstante asymptotique  2 ols

(k )est mini-male pour k=2.

Preuve:Il suÆtderemarquer que 8m;n=1;:::;M et8k>0,ona

G 0 k  m;n = X j1  c k 2j  0 X i2Z  a m ;a n H (i) 2j   c k 2  0 X i2Z  a m ;a n H (i) 2 = 1 2 X i2Z  a m ;a n H (i) 2 = G 0 2  m;n ; d'o u leresultat. 2 Dansnotrepro cedured'identi cation,nousavonsevitel'estimationdeHparuneregression non lineaire de fS

N (k ;a m )g 1mM sur fE(S N (k ;a m ))g 1mM

en remarquant le fait que logE(S

N (k ;a

m

)) est lineaire en H. On p ourrait alors p enser que la non linearite app ortee parlatransformationlogarithmiqueentra^neraitparsacourbureunbiaisnon negligeablesur les parametres.Ceci n'estmanifestement pasle cas,commele montrent les calculssuivants. Dans lecasparticulier k=2,notons levecteurL X . Enremarquantque ( ) =

(34)

logY N;m

log (N m`); o u Y N;m

est de niepar Y N;m = P N 1 i=m` V a m (i=N) 2 =E(V a m (i=N) 2 ); eten appro chant,E(l og(Y

N;m

))parE(l og(Y)),o uY ; 2 N m` ,on obtient E( ( N ) m ) '  N m` 2  log  N m` 2  ; o u (t)= 0 (t)= (t): (2.27)

Un developp ement limite montre alors que E(( N ) m ) = O 1 N m` 

: le biais est donc negligeable. Pour en ^etre convaincu, le tableau ci-dessous donne une approximation de la partapp orteeparlanon-linearitedu logarithme,dansl'estimation nalede H:celle-ci vaut

A t E( N ) 2kAk 2 (avec E( N ) donnee par(2.27)). Taille de l'echantillon 128 256 512 1024 2048 4096 M=2 4.5310 5 1.11 10 5 2.77 10 6 6.9110 7 1.73 10 7 4.3110 8 M=5 7.77 10 5 1.8910 5 4.6710 6 1.1610 6 2.8910 7 7.2310 8 M=10 1.3110 4 3.1310 5 7.6610 6 1.8910 6 4.7110 7 1.1710 7

EnsuivantuneideedeBardet[9],nousp ouvonsenvisageruneregressionlineairep onderee, enestimantlamatricedecovarianceG

k par b G k =G k ( e H ols N

(k ;a;M)).Aveclesnotationsprises precedemment l'estimateurde nipar laregressionlineaire de L

N surX

M

p ondereepar b G k

, est de nipar

e g ls N (k ;a;M)= X t M ( b G k ) 1 X M  1 X t M L N :

Cecideterminelesestimateurs e H g ls N (k ;a;M)et e  g ls N

(k ;a;M),etdemaniereidentiquea(2.23), nousobtenonsune nouvelle classe d'estimateursp ourle co eÆcient d'echelle,

e C g ls N (k ;a;M) = N e H g ls  a e H g ls (0) 1 2 E 1 k k  1 exp 1 k e  g ls N (k ;a;M)  ; o u e H g ls = e H g ls N

(k ;a;M). Nous obtenons alors le resultat analogue a la Prop osition 2.4, concernant les convergences du parametred'autosimilarite etdu co eÆcient d'echelle.

Prop osition 2.5 Soient a un ltre d'ordre p  1, k un reel strictement positif, et M un entier superieur ou egala 2, alorslorsque N !+1 on a

(i)  e H g ls N (k ;a;M); e C g ls N (k ;a;M)  p:s: ! (H ;C); (2.28) (ii)Si p>H+1=4, p N  e H g ls N (k ;a;M) H  L ! N 0; 2 g ls (k )  ; (2.29) p N log (N) e C g ls N (k ;a;M) C Æ C L ! N 0; 2 g ls (k )  ; (2.30) o u lavarianceasymptotique  2 g ls

(k ), estde nie par

 2 g ls (k )= 1 kB k k 2 G 0 k avec jjB k jj 2 G 0 k =B t k (G 0 k ) 1 B k ; et B k levecteur B k = ( I M 1 t M 1 M (G 0 k ) 1 1 t M (G 0 ) 1 1 M )  log(m) 1mM ; o u 1 M = (1;:::;1) t :

(35)

Demaniereidentique alaProp osition 2.2,sip=1(resp.p2),l'ensembledesresultats est valable p ourH <3=4(resp. p our toutH ; 0<H<1).

Vientalorslaquestiondelavaleurduparametrekminimisantlaconstanteasymptotique 

2 g ls

(). La Figure Fig. 2.3 represente p our deux ltres a=(1; 1) et a=D b4 ( ltre d'une ondelette deDaub echies d'ordre 4), p ourle parametre M =5 etp our di erentesvaleurs de k ,letracede lafonction 2 g ls (k )= 2 g ls

(2)enfonctiondeH (Hvariant sur]0;3=4[p ourle ltre d'ordre1,etsur]0;3=4[p ourle ltreD b4).Ellenouslaisseconjecturerqu'unresultatanalogue au Corollaire 2.4 p eut ^etre prouve p our 

2 g ls

(k ). Ce resultat n'a pas b eaucoup d'inter^et en soi car, comme le montrent les simulations e ectuees dans la Section 2.5, la pro cedure de regression lineaire p onderee n'amene pas un gain notable par rapp ort a la pro cedure de regressionlineaire simple.

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

1

1.5

2

2.5

3

3.5

H

σ

gls

2

(k) /

σ

gls

2

(2)

a=(1,−1), M=5

k=0.01

k=0.1

k=1

k=5

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

1

1.2

1.4

1.6

1.8

2

2.2

2.4

2.6

2.8

H

σ

gls

2

(k) /

σ

gls

2

(2)

a=Db4, M=5

k=0.01

k=0.1

k=1

k=5

Fig.2.3{Rapportdesvariancesasymptotiques 2 g ls (k )= 2 g ls (2)enfonctiondeH,pourM =5, pour les ltres a=(1; 1)et a=D b4, etpour di erentesvaleurs de k .

Remarquonsqueseulslesestimateursduco eÆcientd'echelledep endentdeladiscretisation de l'echantillon. Si l'on considere maintenant une discretisation f0;

1  N ;:::; N 1  N g, telleque lorsque N !+1 onait N !+1 et log( N ) p N

!0;ceci assurequelog ( N )( e H H) (avec e H = e H ols N (k ;a;M) ou e H g ls N

(k ;a;M))converge en probabilite vers 0. Nous obtenons alors, en suivant les demonstrations desProp ositions 2.4et2.5,leresultat suivant,

soit e C ols  N (k ;a;M) = ( N ) e H ols  a e H ols (0) 1 2 E 1 k k  1 exp 1 k e  ols  N (k ;a;M)  ; alors, e C ols  N (k ;a;M) P ! C ; et p N log( N ) e C ols  N (k ;a;M) C Æ C L ! N 0; 2 ols (k )  :

Des resultatsidentiques sont valables p our e C g ls  N (k ;a;M).

(36)

Par ailleurs, la premiere classe d'estimateurs du parametre d'autosimilarite, b H  N (k ;a) de niepar(2.17),supp osaitlaconnaissanceduco eÆcient d'echelle C.Cettehyp otheseforte nous a p ermis d'expliciter une classe d'estimateurs ayant une vitesse de convergence tres rapide,en1=

p

Nlog ( N

).Est-ilp ossibledeconserverlam^emevitessedeconvergence,lorsque le mouvement brownien fractionnaire n'est plus standard? Une fois le co eÆcient d'echelle estime, la trajectoire discretisee renormalisee par le co eÆcient d'echelle estime, il s'agit de

decrire lecomp ortement de l'estimateur b b H  N (k ;a)de nipar b b H  N (k ;a)= g 1 k ;a; N S 0 N (k ;a)  ; o u g k ;a; N

est lafonctionde niesur ]0,1[par

g k ;a; N (t)= e C k 1 ( N ) tk f a t (0)g k =2 E k avec e C = e C ols  N (k ;a;M) ou e C g ls  N (k ;a;M); eto u S 0 N (k ;a)= 1 N ` N 1 X i=` 1 e C k jV a (i= N )j k : La loilimite de b b H  N

(k ;a)passe parl'etudede laloi limite de V 0 N (k ;a)=S 0 N (k ;a)=E (S 0 N (k ;a)) 1. Or, V 0 N (k ;a)= V N (k ;a) + e C C C k C e C k V N (k ;a): (2.31) La convergencede e

C et l'equation (2.31) montrent que V 0 N

(k ;a)converge vers une loi gaus-sienne centree,aveclavitessede convergencelog(

N )=

p

N,etparunraisonnementsimilaire



a laProp osition 2.15,lavitessede convergence de b b H  N (k ;a)devient 1= p N.En conclusion, lavitessedeconvergencede e

C,entra^nelap erted'unfacteurlog( N

)dansl'estimation nale de H.

En n,nous renvoyons lelecteur au Theoreme3 de Istas etLang[55], qui sous certaines hyp othesesderegularitedudevelopp ementdev(t)en0,etdupasdediscretisation,montrent, lorsque k=2, que ces metho desde regressionrestent adapteesa l'estimationde l'exp osant de Holder d'unpro cessus gaussienlo calement autosimilaire en0.Dans cecadre detravail,le cask2R

+

n'apasete considere.

2.5 Simulations et calculs numeriques

2.5.1 Variances asymptotiquesdes estimateurs

Variance asymptotique de p Nlog(N) b H N (2;a)

Intro duisons les quelques notationssuivantes:

Di . i : ltre desdi erences d'ordrei(i momentsnuls).

Di . 2dil : ltre desdi erences d'ordre2,dilate une fois (i.e.(1,0,-2,0,1)). Dbi : ltre d'une ondelette deDaub echies d'ordrei, (i=2momentsnuls). Coi ets1 : ltre d'une Coi etd'ordre 1(2momentsnuls).

(37)

d'on-de p N b H N (2;a), i.e. 1 2 P i2Z  a H (i) 2

, p our di erents ltres en fonction de H. Precisons tout d'ab ord, que la de nition de 

a H

assure que la constante asymptotique est indep endante de la normalisation du ltre. Nousretrouvons, tout d'ab ord,lefait que lorsque p=1,

a H

n'est pas de carre sommable p our H  3=4. En outre, lorsque p  2, les calculs montrent que la variance asymptotique augmente avec l'ordre, quel que soitH 2]0;1[.Ensuite, parmi les ltres d'ordre2,le ltre D b4,dont nousrapp elons lade nition:

a'(0:4829629; 0:8365163; 0:22414386; 0:12940952)

est optimal, et dilater ce dernier ltre n'amene pas d'ameliorations. Nous avons calcule la valeurnumeriqueH

c

,apartirdelaquelle,le ltre a=(1; 1),devient moinsb onqueD b4,ce qui p ermet de degagerlemeilleur ltre parmiles ltresetudiesp our l'estimateur

b H N (2;a): a opt =  (1; 1) si HH c D b4 si HH c avec, H c ' 0:641:

Il est clairque a opt

dep end de H. D'un p oint de vue pratique, une connaissance a priori de H estdonc necessaire.

H

Asymptotic Constant

0.0

0.2

0.4

0.6

0.8

1.0

0.6

0.8

1.0

1.2

1.4

Diff. 3

Diff. 4

Diff. 1

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

Hc =0.641

Db 4

Coiflets 1

Db 6

Db 4 dil.

Db 8

Diff. 2

Diff. 2 dil.

Fig. 2.4{ Constanteasymptotique 1 2 P i2Z  a H (i) 2

pour di erents ltres, enfonction de H

Variance asymptotique de p N e H ols N (2;a;2)

La FigureFig.2.5evaluelavariance asymptotiquede p N e H ols N (2;a;2)(k=2)a savoir  2 ols (2) = 1 2log 2 (2) X n  a 1 ;a 1 H (j) 2 + a 2 ;a 2 H (j) 2 2 a 1 ;a 2 H (j) 2 o ;

(38)

p our di erents ltres en fonction de H. Pour cette valeur du parametre M (egal a 2), il appara^t clairement que le ltre a = (1; 1) minimise 

2 ols

(2) sur ]0;3=4[ et que le ltre a= D b4est le meilleur parmi les ltres d'ordre 2. Nous avons ensuite souhaite p our ces deux derniers ltresanalyserl'evolutionen fonctionde H de 

2 ols

(2)p our di erentesvaleurs de M. La Figure Fig.2.6 semble indiquer que la constante asymptotique 

2 ols

(2) diminue lorsque M augmente, Nous verrons cep endant dans la Section 2.5.2.2 que choisir M trop grand diminue certes la variance empirique des estimateurs mais a tendance a biaiser la moyenne.

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

0

0.5

1

1.5

2

2.5

3

3.5

4

H

Variance asymptotique

Constante asymptotique

σ

ols

2

a=(1,−1)

a=Db4

a=(1,−2,1)

a=Db6

a=(1,−3,3,−1)

Fig.2.5{Varianceasymptotiquede p N e H ols N

(2;a;2)pourdi erents ltresenfonctiondeH.

Comparaison des variances asymptotiques de  2 ols (2) et  2 g ls (2)

Noussouhaitons,ici,comparerlesvariancesasymptotiques 2 ols

et 2 g ls

,p ourleparametre k = 2 qui a montre ses p erformances au travers du Corollaire 2.4 et de la Figure Fig. 2.3. La Figure Fig. 2.7 tracele rapp ort 

2 ols

(2)= 2 g ls

(2) p our deux ltres etdi erentes valeurs de M, en fonction de H. On retrouve le resultat de Gauss-Markov, a savoir que ce rapp ort est constamment superieura 1. Cep endant, il ressortde cette gure que,d'un p oint de vue theorique,legainapp orteparuneregressionlineaire p ondereen'estpasimp ortant(lerapp ort n'excede pas1.5).

2.5.2 Qualites des estimateurspar simulations

Nouspresentonsdanscettepartiedesresultatsdesimulationsp ourlestroisclasses d'esti-mateursduparametred'autosimilarite,ainsiquep ourlesestimateursduco eÆcientd'echelle. Poursimuler une trajectoire d'un mbfdiscretisee sur[0,1],nous avonsconsiderela metho de

(39)

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0

0.2

0.4

0.6

0.8

1

1.2

1.4

H

σ

ols

2

(2)

a=(1,−1)

M=2

M=3

M=4

M=5

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

0

0.2

0.4

0.6

0.8

1

1.2

1.4

H

σ

ols

2

(2)

a=Db4

M=2

M=3

M=4

M=5

Fig.2.6{Varianceasymptotiquede p N e H ols N

(2;a;M)pourles ltresa=(1; 1)et a=D b4 en fonction de H et de M.

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

1.1

1.2

1.3

1.4

1.5

1.6

H

σ

ols

2

/

σ

gls

2

a=(1,−1)

M=3

M=4

M=5

M=6

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

0.9

1

1.1

1.2

1.3

1.4

1.5

1.6

H

σ

ols

2

/

σ

gls

2

a=Db4

M=3

M=4

M=5

M=6

Fig. 2.7{ Rapport desvariances asymptotiques  2 ols

(2)= 2 g ls

(2)pour les ltres a=(1; 1)et a=D b4enfonction deH et deM.

Références

Documents relatifs

Comme la sph`ere unit´e S(0, 1) en dimension finie est compacte on peut en extraire une suite convergente dans S(0, 1) que l’on note encore (u

C’est une application du th´eor`eme de continuit´e sous le

Toute application lin´eaire continue et bijective d’un espace de Banach dans un autre est inversible, d’inverse lin´eaire et continu.. Quatri` eme

On raisonne alors sur les dimensions comme ci-dessus et on utilise le 2.a... En utilisant

En quelle ann´ ee le nombre de plaintes pour blessures non mortelles est-il le plus faible.. En quelle ann´ ee le nombre de plaintes pour blessures non mortelles est-il relativement

Rappelons que 2 matrices semblables ont le mˆ eme polynˆ ome caract´ eristique, et que le polynˆ ome caract´ eristique d’une matrice et de sa transpos´ ee sont identiques.. Un

Dans la deuxi` eme, on construit effectivement une suite de polynˆ omes qui converge uniform´ ement vers toute fonction continue.. Le m´ elange entre les parties analyse et les

Commentaires : C’est un sujet tr` es classique, o` u il est question d’´ equations diff´ erentielles, de s´ eries enti` eres, d’int´ egrales d´ ependant d’un param` etre,