• Aucun résultat trouvé

Estimation non paramétrique pénalisée de la dérivée de la densité d'un processus de diffusion

N/A
N/A
Protected

Academic year: 2021

Partager "Estimation non paramétrique pénalisée de la dérivée de la densité d'un processus de diffusion"

Copied!
7
0
0

Texte intégral

(1)

HAL Id: inria-00494685

https://hal.inria.fr/inria-00494685

Submitted on 24 Jun 2010

HAL is a multi-disciplinary open access

archive for the deposit and dissemination of

sci-entific research documents, whether they are

pub-lished or not. The documents may come from

teaching and research institutions in France or

L’archive ouverte pluridisciplinaire HAL, est

destinée au dépôt et à la diffusion de documents

scientifiques de niveau recherche, publiés ou non,

émanant des établissements d’enseignement et de

recherche français ou étrangers, des laboratoires

Estimation non paramétrique pénalisée de la dérivée de

la densité d’un processus de diffusion

Emeline Schmisser

To cite this version:

Emeline Schmisser. Estimation non paramétrique pénalisée de la dérivée de la densité d’un processus

de diffusion. 42èmes Journées de Statistique, 2010, Marseille, France, France. �inria-00494685�

(2)

de la dérivée de la densité d'un pro essus de diffusion

EmelineS hmisser

Laboratoire MAP5 Université Paris Des artes 45, rue des Saints-Pères 75006 Paris

Abstra t Nous onsidérons unpro essusdediusion

(X

t

)

t≥0

defon tion dedérive

b

et de oe ient de diusion

σ

. Nous supposons quele pro essusest stri tement station-naireet

β

-mélangeant. Cepro essusestobservéàdesinstantsdis rets

t

k

= k∆

pour

k

variant de 0 à

n

+ 1

. Nous al ulons deux estimateurs non paramétriques de la dérivée

f

de ladensité

f

de e pro essus. Pour ela,nous onsidérons une familles de sous-espa es ve toriels et, sur ha un de es sous-espa es, nous al ulons deux estimateurs de

f

,

f

ˆ

′(d)

m

et

f

ˆ

′(b)

m

. Nous hoisissons ensuiteles deux meilleurs estima-teurspossibles,

f

ˆ

(d)

ˆ

m

et

f

ˆ

(b)

ˆ

m

enintroduisant deuxfon tionsdepénalité

pen

(d)

(m)

et

pen

(b)

(m)

. Le premier estimateur,

ˆ

f

′(d)

m

,estobtenu endérivant un estimateurde

f

. Cetestimateur minimiseune fon tion de ontraste. L'estimateur adaptatif

f

ˆ

(d)

ˆ

m

est

onvergent si

n

∆ → ∞

(que le pas

soit xé ouqu'il tende vers0). Pour al uler le se ond estimateur, nous supposons que le oe ient de diusion

σ

est onstant égalà1. Dans e as,lafon tion

f

vérie l'égalité

f

(x) = 2b(x)f (x)

. L'estimateur

ˆ

f

′(b)

m

minimiseune fon tionde ontrastebasésur etteégalité. Lorsquelepas

est petit, le risquede l'estimateur

f

ˆ

(b)

ˆ

m

est plus petit quele risque de

f

ˆ

′d

ˆ

m

. Cependant, l'estimateur

ˆ

f

m

(b)

ˆ

ne onverge quesi

∆ → 0

et

n

∆ → ∞

.

Let us onsider a diusion pro ess

(X

t

)

t≥0

of drift fun tion

b

and diusion oef- ient

σ

. This pro ess is assumed to be stri tly stationary and

β

-mixing. It is observed atdis rete times

t

k

= k∆

for

k

from 0to

n

+ 1

. Twonon parametri esti-matorsofthe derivative

f

ofthedensityfun tion

f

are omputed. Forthispurpose, we onsider a family of ve torial subspa es and ompute a olle tion of estimators of

f

oneverysubspa e,

f

ˆ

(d)

m

and

f

ˆ

(b)

m

. Then,the bestestimators

f

ˆ

(d)

ˆ

m

and

f

ˆ

(b)

ˆ

m

are

sele ted by introdu ing two penalty fun tions,

pen

(d)

(m)

and

pen

(b)

(m)

. The rst estimator,

f

ˆ

′(d)

m

, is the derivative of an estimator of

f

. This estimator minimises a ontrast fun tion. The adaptive estimator

f

ˆ

(d)

ˆ

m

onverges if

n

∆ → ∞

. In order to omputethese ondestimator, weassumethatthediusion oe ient

σ

is onstant (

σ

= 1

). Inthat ase, thefun tion

f

satisesthe equality

f

(x) = 2b(x)f (x)

. The estimator

ˆ

f

′(b)

m

minimises a ontrast fun tion based on this equality. If

issmall, theriskof the estimatorof

f

ˆ

(b)

ˆ

m

issmaller than therisk of

f

ˆ

(d)

ˆ

(3)

1 Notations

Considéronsl'équation diérentielle sto hastique

dX

t

= b(X

t

)dt + dW

t

,

X

0

= η

Lepro essus

(X

t

)

t≥0

est supposé stri tementstationnaireet

β

mélangeantde oe ient de

β

-mélange

β

X

(t) ≤ ce

−θt

. Notons

f

ladensitéstationnairede

(X

t

)

. Nousobservons e pro essus à des instants dis rets

t

= 0, ∆, . . . , n∆

. Nous voulons estimer la dérive de la fon tion de densité

f

sur l'intervalle

[0, π]

.

2 Estimation par dérivée d'un estimateur

Dans ette partie, nous onstruisons un estimateur

f

ˆ

(d)

m

de

f

en dérivant un estimateur de

f

. Considérons le ontraste

γ

n

(t) = ktk

2

L

2

2

n

n

X

i=1

t(X

i

)

etdénissons l'estimateur

ˆ

f

m

= inf

t∈S

m

n

(t)}

S

m

est un sous-espa eve toriel engendré par les polynmestrigonométriques:

S

m

=

Ve t

cos(kx)1

[0,π]

(x), 0 ≤ k ≤ m

 .

Notons

f

m

la proje tion de

f

sur

S

m

. Notons

V

m

=

Ve t

sin(kx)1

[0,π]

(x), 1 ≤ k ≤ m

 .

Laproje tion

f

(d)

m

de

f

sur

V

m

=

Ve t

sin(kx)1

[0,π]

(x), 1 ≤ k ≤ m



vérie

f

m

(b)

= (f

m

)

.

Notons

f

ˆ

(d)

m

= ( ˆ

f

m

)

. Cet estimateur minimise,pour

t

∈ V

m

,le ontraste

γ

(d)

n

(t) = ktk

2

L

2

+

2

n

n

X

i=1

t

(X

i

).

(4)

2.1 Risque de l'estimateur à

m

xé.

Notons

M

n

= {m, D

m

≤ D

n

}

. La dimension maximale

D

n

sera pré isée plus loin. Pour tout

m

∈ M

n

, nous al ulons l'estimateur

f

ˆ

(d)

m

de

f

. D'après Pythagore,

k ˆ

f

(d)

m

− f

1

[0,π]

k

2

L

2

= kf

(d)

m

− f

1

[0,π]

k

2

L

2

+ k ˆ

f

(d)

m

− f

(d)

m

k

2

L

2

.

De plus, nous avons que

k ˆ

f

(d)

m

− f

(d)

m

k

2

L

2

≤ D

2

m

k ˆ

f

m

− f

m

k

2

L

2

.

Pour majorer ette quantité, nous utilisons des propriétés de

β

-mélange (voir Viennet (1997)).

Si lepas

est xe, alors lerisque de l'estimateur vérie

E



f

ˆ

(d)

m

− f

1

[0,π]

2

L

2



f

(d)

m

− f

1

[0,π]

2

l

2

+ c

D

3

m

n

.

Si

∆ → 0

et

n

∆ → ∞

, nous avons que

E



f

ˆ

′(d)

m

− f

A

2

L

2



f

(d)

m

− f

A

2

L

2

+ c

D

m

3

.

2.2 Optimisation du hoix de

m

Supposons que

f

appartienne à un espa e de Besov

B

α

2,∞

et que

kf

k

2

B

α

2,∞

≤ 1.

Dans e as, nous avons que

f

− f

(d)

m

2

L

2

≤ C(α)D

m

,

don

f

1

[0,π]

− f

(d)

m

2

L

2

≤ D

2

m

f

− f

m

(d)

2

L

2

≤ C(α)D

2(α−1)

m

.

Pour que le ompromis biais-varian e sois minimal, nous devons hoisir, si le pas

est xe,

D

m

∼ n

1/(1+2α)

etdans e as, lerisque de l'estimateur vérie

E



ˆ

f

(d)

m

− f

1

[0,π]

2

L

2



≤ n

−2(α−1)/(1+2α)

.

Si

∆ → 0

et

n

∆ → ∞

, nous devons prendre

D

m

∼ (nθ∆)

1/(1+2α)

pour minimiserle ompromis biais-varian e. Dans e as, l'estimateurvérie

E



ˆ

f

(d)

m

− f

1

[0,π]

2

L

2



≤ (nθ∆)

2(α−1)/(1+2α)

.

(5)

Introduisons une fon tion de pénalité

pen

(d)

(m)

dépendant de

D

m

et de

n

. Choisissons

ˆ

m

telque

ˆ

m

= arg min

m∈M

n

h

γ

n

(d)

 ˆ

f

(d)

m



+ pen

(d)

(m)

i

etnotons

f

ˆ

ˆ

m

l'estimateur résultant. Si lepas est xé,que

pen

(d)

(m) ≥ c

D

3

m

n

et

D

4

n

≤ c ln

2

(n)n exp



c

n

ln(n)



alors

E



ˆ

f

(d)

ˆ

m

− f

1

[0,π]

2

L

2



≤ C inf

m∈M

n



f

(d)

m

− f

1

[0,π]

2

L

2

+ pen

(d)

(m) + c

ln

4

(n)

n



.

Si

∆ → 0

et

n

∆ → ∞

, que

pen

(d)

(m) ≥ c

D

3

m

et

D

4

n

≤ cn∆ ln

2

(n) exp

c

n∆

ln(n)

!

,

alors

E



f

ˆ

(d)

ˆ

m

− ˆ

f

1

[0,π]

2

L

2



≤ C inf

m∈M

n



f

(d)

m

− f

1

[0,π]

2

L

2

+ pen

(d)

(m) +

c

ln

4

(n)

n∆

+

1

n



.

3 Si le oe ient de diusion est onstant

3.1 Modèle et hypothèses

Supposons que

σ

= 1

. Dans e as, la densitéstationnaire vérie

f

(x) ∝ exp



2

Z

x

0

b

(x)dx



et

f

(x) = 2b(x)f (x)

. Dans ettepartie,noussupposonsquelafon tion

b

estlips hitzienne etqu'il existe des onstantes

r >

0

et

α

≥ 1

telles que

(6)

3.2 Risque de l'estimateur à

m

xé

Considérons les espa es ve toriels

S

m

=

Ve t

1, (cos(kx))

1≤k≤m



. Pour tout

m

∈ M

n

, ave

M

n

= {m, D

m

≤ D

n

}

, nous allons al ulerun estimateur

f

ˆ

(b)

m

de

f

. La dimension maximale

D

n

sera pré isée plus loin. Notons

f

(b)

m

laproje tionorthogonale de

f

sur

S

m

. Considéronsle ontraste

γ

n

(b)

(t) = ktk

2

L

2

4

n

n

X

k=1

X

(k+1)∆

− X

k∆

 t (X

k∆

)

etl'estimateur

ˆ

f

(b)

m

= arg min

t∈S

m

γ

n

(b)

(t).

Noussavons que

1

X

(k+1)∆

− X

k∆

 = I

k∆

+ Z

k∆

+ b(X

k∆

)

ave

I

k∆

=

1

Z

(k+1)∆

k∆

(b(X

s

) − b(X

k∆

)) ds

et

Z

k∆

=

1

Z

(k+1)∆

k∆

dW

s

.

Don

γ

n

(t) − γ

n

(s) = ktk

2

L

2

− ksk

2

L

2

4

n

n

X

k=1

(I

k∆

+ Z

k∆

+ b(X

k∆

)) (t(X

k∆

) − s(X

k∆

)) .

De plus, nous avons que

kt − f

k

2

L

2

= ktk

2

L

2

+ kf

k

2

L

2

− 2

Z

t(x)f

(x)dx = ktk

2

L

2

+ kf

k

2

L

2

− 4

Z

t(x)b(x)f (x)dx.

Notons

ν

n

(t) =

1

n

n

X

k=1

Z

k∆

t

(X

k∆

)

ρ

n

(t) =

1

n

n

X

k=1

E (I

k∆

t(X

k∆

))

ξ

n

(t) =

1

n

n

X

k=1

(I

k∆

+ b(X

k∆

)) t(X

k∆

) − E ((I

k∆

+ b(X

k∆

)) t(X

k∆

))

Nousavons que

f

ˆ

(b)

m

− f

1

[0,π]

2

= kt − f

k

2

L

2

f

ˆ

(b)

m

− f

2

+ 2 (ν

n

+ ρ

n

+ ξ

n

)

 ˆ

f

(b)

m

− f

(b)

m



(7)

Lamajoration des termes

ν

n

et

ρ

n

utilise lespropriétésde ladiusion etest réaliséedans Comteetal(2007). Lamajorationdudernierterme,

ξ

n

,utilisele

β

-mélangeetestréalisée dans Viennet(1997).

E



ˆ

f

(b)

m

− f

1

[0,π]

2

L

2



f

(b)

m

− f

1

[0,π]

2

L

2

+ c∆ + c

D

m

n∆

3.3 Optimisation du hoix de

m

Supposons que

f

appartienne à la boule unité de l'espa e de Besov

B

α

2,∞

. Dans e as, noussavons que

f

− f

m

(b)

2

L

2

≤ D

−2α

m

. Pourminimiserle ompromisbiais-varian e,nous devons hoisir

D

m

∼ (n∆)

1/(1+2α)

etdans e as le risque de l'estimateur vérie:

E



ˆ

f

(b)

m

− f

2

L

2



≤ C (n∆)

−2α/(1+2α)

+ c∆.

Dalayan et Kutoyants (2003) estiment la dérivée de la densité d'une diusion dans le as où on a des données ontinues. La borne minimax du risque qu'ils trouvent est

c(n∆)

−2α/(1+2α)

.

3.4 Risque de l'estimateur adaptatif Posons

pen

(b)

(m) = c

D

m

n∆

etnotons

ˆ

m

= inf

m∈M

n

n

γ

n

 ˆ

f

(b)

m



+ pen

(b)

(m)

o

etnotons

f

ˆ

m

ˆ

l'estimateur résultant. Si

D

2

n

≤ nθ∆

, alors

E



ˆ

f

(b)

ˆ

m

− f

2

L

2



≤ C inf

m∈M

n



f

(b)

m

− f

2

L

2

+ pen(m)



+ ∆ + c

ln

2

(n)

n∆

Bibliographie

[1℄ Comte, F. genon-Catalot, V. et Rozenhol , Y. (2007) Penalized noparametri mean square estimation of the oe ients of diusion pro esses, Berbouilli,13(2) 514543. [2℄Viennet,G.(1997)Inequalitiesforabsolutelyregularsequen es: appli ationtodensity estimation. Probab. Theory Related Fiels,107(4), 467492.

[3℄ Dalayan, A.S. et Kutoyants, A.Y. (2003) Asymptoti ally E ient Estimation of the Derivative of the Invariant Density Statisti al Inferen e for Sto hasti Pro esses, 6(1), 89107

Références

Documents relatifs

Le fait qu’on utilise une estimation paramétrique d’une loi Gamma n’intervient pas dans l’étude des modifications aux extrémités du

à temps continu. Ce processus est solution d’une équation différentielle stochastique avec une dérive dépendant du passé du processus. A partir.. des résultats

DENSITÉ : ESTIMATION ET TESTS - MÉTHODE COMBINATOIRE PÉNALISÉE la présente procédure de test et la procédure de sélection développée dans la Section 2.. Hormis la définition

Nous proposons dans ce travail deux estimateurs non-param´ etriques de la densit´ e f β des effets al´ eatoires β j lorsque la densit´ e du bruit est connue et que sa fonction

⊲ les estimées ne sont pas des densités de probabilité car leur intégrale sur l’ensemble des observations diverge.. Estimation non-paramétrique

L’estimation de densité de probabilité par méthode à noyau peut être utilisée pour l’élaboration d’un classificateur de Bayes.. Écrire la règle de décision de Bayes à

Dans la seconde partie du manuscrit Estimation d’une transition, j’ai regroupé deux sujets de recherche assez différents : l’application d’une méthode d’approximation

En s’int´eressant `a l’estimation d’une fonction de r´egression H¨old´erienne de r´egularit´e β ∈]1; 2[ avec le risque li´e `a la fonction de perte absolue, Galtchouk