• Aucun résultat trouvé

Estimation des param`etres et de l’´etat cach´e des mod`eles d’espace d’´etats: application au mod`ele d’Heston

N/A
N/A
Protected

Academic year: 2022

Partager "Estimation des param`etres et de l’´etat cach´e des mod`eles d’espace d’´etats: application au mod`ele d’Heston"

Copied!
23
0
0

Texte intégral

(1)

Estimation des param` etres et de l’´ etat cach´ e des mod` eles d’espace d’´ etats: application au mod` ele

d’Heston

El Kolei Salima sous la direction de F. Patras et P. Reynaud Bouret

Universit´e de Nice Sophia Antipolis

CIRM 16-20 Avril 2012

(2)

Mod` ele espace d’´ etats

yt =hθ(xt, εt), Observable xt =fθ(xt−1, ηt) Inobservable

t) et (ηt) sont des s´equences de variables al´eatoires ind´ependantes et identiquement distribu´ees.

hθ andfθ sont des fonctions dont la forme est connue et d´ependent d’un vecteur de param`etreθ∈Θ.

Hypoth`eses

(H1) : Le signal{xt,t∈N} est mod´elis´e par une chaine de Markovde distribution initiale pθ(x0) et de densit´e de transition pθ(xt|xt−1).

(H2) : Les observations{yt,t ∈N} sont suppos´ees ind´ependantes conditionnellement au signal{xt,t ∈N}, ie : pθ(yt|y1:t−1,x1:t) =pθ(yt|xt).

(3)

Un mod`ele espace d’´etat est d´ecrit par les quantit´es suivantes : La distribution initiale :pθ(x1).

La densit´e de transition :pθ(xt|xt−1).

La vraisemblance :pθ(yt|xt).

Supposons θ connu : on veut estimerpθ(xt|y1:t), ∀t ∈[1,T]: filtrage optimal

=⇒ Le filtrage apparaˆıt comme un outil “naturel” :

m´ecanisme qui consiste `a retirer l’information d’un processus non observable xt (variable d’´etat) contenue dans des processus observablesy1:t= (y1,· · · ,yt) (variables de mesure).

(4)

Principe : “Bayes Recursion”

Le th´eor`eme de Bayes nous permet d’estimer r´ecursivement la loi cible.

pθ(xt|y1:t)

| {z }

distribution a posteriori

= pθ(yt|xt)pθ(xt|y1:t−1) pθ(yt|y1:t−1)

∝ pθ(yt|xt)pθ(xt|y1:t−1) (1) o`u

pθ(xt|y1:t−1)

| {z }

distribution a priori

= Z

pθ(xt|xt−1)pθ(xt−1|y1:t−1)dxt−1 (2)

(5)

Mod` ele lin´ eaire et gaussien : Filtre de Kalman

Supposons :

(A1) : fθ (resp.hθ) lin´eaire enxt−1 etηt (resp.xt et εt).

(A2) : εt ∼ N(0,R) etηt ∼ N(0,Q) avec R et Q connus.

Le mod`ele espace d’´etats peut s’´ecrire sous forme matricielle : yt=Cθxt+Mθεt t ≥1,

xt=Aθxt−1+Gθηt,

=⇒ On a une solution exacte pour l’estimation de pθ(xt|y1:t) qui est donn´ee par le filtre de Kalman.

Notation :

bxt=Eθ[xt|y1:t−1] etbxt =Eθ[xt|y1:t].

Pt=Varθ[(xt−bxt)(xt−bxt)0|y1:t−1].

Pt=Varθ[(xt−bxt)(xt−bxt)0|y1:t].

(6)

Filtre de Kalman

Algorithme :

Etape de pr´´ ediction :

bxt=Aθbxt−1

Pt=AθPt−1A0θ+GθQGθ0 Etape de Mise `´ a jour :





bxt =bxt+Kt

yt−Cθbxt Pt= (I−KtCθ)Pt Kt=PtCθ0

CθPtCθ0 +MθRMθ0−1

Kt : matrice de Kalman : matrice qui minimise la variance a posterioriPt.

(7)

Mod` ele non lin´ eaire et non Gaussien : M´ ethodes de Monte Carlo s´ equentielle pour le filtrage

M´ethode de Monte Carlo bas´ee sur une simulation importante de points not´es (xti)i=1,···,M pond´er´es par des poids wti. “M”

repr´esente le nombre points simul´es.

Un filtre particulaire est une collection de ces points pond´er´es appel´es particules.

Contexte

Supposons que nous sommes int´eress´e parpθ(xt|y1:t).

On veut obtenir (wti,xti) qui suit la loipθ(xt|y1:t).

(8)

Principe

Distribution d’importance : qθ(xt|x1:t−1,y1:t) Si xti est de loi qθ(xt|x1:t−1,y1:t) alorsPM

i=1wt−1i δxi

t converge vers la loi qθ(xt|x1:t−1,y1:t)pθ(xt−1|y1:t−1).

On calcule les poids

wti ∝wt−1i pθ(yt|xt)pθ(xt|xt−1)/qθ(xt|x1:t−1,y1:t).

Finalement on aPM i=1wtiδxi

t converge verspθ(xt|y1:t) (Del Moral, Doucet...).

Pour ´eviter le probl`eme de d´eg´en´erescence des poids : on ajoute une ´etape de r´e´echantillonnage.

(9)

SISR

Algorithme :

Pour t= 1 et i = 1· · ·M :

Simulerx1i qθ(x1) et calculerw1i =pqθ(x1)

θ(x1). Normaliser les poids ˜w1i =PwθM(x1i)

j=1w1j. Pour t= 2· · ·T et i = 1· · ·M :

1 Simulerxti qθ(xt|x1:t−1i ,y1:t) et poserx1:ti = (x1:t−1i ,xti).

2 Mise `a jour :

wti =pθ(yt|xti)pθ(xti|xt−1i ) qθ(xti|x1:t−1i ,y1:t) .

3 Normaliser les poids : ˜wti.

4 eechantillonnage : On tire :

xti,w˜ti .

5 Poser ˜wti= 1/M.

En pratique, on choisitqθ(xt|x1:t−1i ,y1:t) =pθ(xt|xt−1i ).

(10)

Filtre APF

Algorithme :

Pour t= 1 et i = 1· · ·M :

Simulerx1i pθ(x1) et calculer ˜w1i =M1. Pour t= 1· · ·n et i = 1· · ·M :

1 Calculerµit =Eθ(xt|xt−1i ) et poserwt−1i = ˜wt−1i pθ(ytit).

2 eechantillonner : On r´eechantillonne

xt−1i ,wt−1i

On obtient

˜

xt−1i ,1/M et un ´echantillon d’indices ji (correspond aux particules r´echantillonn´ees).

3 Propager :

Poserxt−1i = ˜xt−1i . Simulerxti pθ(xt|xt−1i ).

Calculerwti = pθ(yt|xti)

pθ(ytj it) et normaliser ˜wti.

(11)

filtrage pour l’estimation de l’´ etat et du param` etre

On veut estimer simultan´ement et s´equentiellement θ et xt au vu des observations.

Approche de Kitagawa, augmenter le vecteur d’´etat : xt = (xt, θt), θtt−1, θ0 ∼p(θ0) ...coupl´ee avec l’id´ee de Gordon :

θtt−1+Gt, Gt ∼ N(0,Wt) et θt−1 ind´ependant deGt.

Avantage :La m´ethode marche mieux en pratique que de consid´ererxt = (xt, θt) avecθtt−1.

(12)

Filtre APF

Param`etre dynamique : θtt−1+N(0,Wt)

1 Prediction :

Calculerµit =E(xt|xt−1i , θit−1) etmit−1=Ett−1] =θit−1 Poserwt−1i = ˜wt−1i p(ytit,mit−1).

2 R´eechantillonnage :

3 Propager :

Poserxt−1i = ˜xt−1i etθit−1=θjt−1i . Simulerθit∼ N(mt−1i ,Wt) Simulerxti p(xt|xt−1i , θit).

Calculer les poids :wt=p(yt|xti, θti)/p(ytjti,mt−1i ) et normaliser ˜wt .

(13)

Filtre APF

Param`etre dynamique : θtt−1+N(0,Wt)

1 Prediction :

Calculerµit =E(xt|xt−1i , θit−1) etmit−1=Ett−1] =θit−1 Poserwt−1i = ˜wt−1i p(ytit,mit−1).

2 R´eechantillonnage :

3 Propager :

Poserxt−1i = ˜xt−1i etθit−1=θjt−1i . Simulerθit∼ N(mt−1i ,Wt) Simulerxti p(xt|xt−1i , θit).

Calculer les poids :wt=p(yt|xti, θti)/p(ytjti,mt−1i ) et normaliser ˜wt .

Id´ee : Propager de mani`ere `a avoir une variance constante.

Probl`eme :Var(θt) =Var(θt−1) +Wt :Les variances s’accumulent ! Perte d’information !

(14)

Filtre APF

Param`etre dynamique : θtt−1+N(0,Wt)

1 Prediction :

Calculerµit =E(xt|xt−1i , θit−1) etmit−1=Ett−1] =θit−1 Poserwt−1i = ˜wt−1i p(ytit,mit−1).

2 R´eechantillonnage :

3 Propager :

Poserxt−1i = ˜xt−1i etθit−1=θjt−1i . Simulerθit∼ N(mt−1i ,Wt) Simulerxti p(xt|xt−1i , θit).

Calculer les poids :wt=p(yt|xti, θti)/p(ytjti,mt−1i ) et normaliser ˜wt .

Id´ee : Propager de mani`ere `a avoir une variance constante.

Probl`eme :Var(θt) =Var(θt−1) +Wt :Les variances s’accumulent ! Perte d’information !

(15)

KSAPF

Algorithme :

Pour t= 1 et for i = 1· · ·M : Simulerθi1p(θ1) etx1i p(x11i) Calculer ˜w1i =M1.

Pour t= 1,· · ·,n

1 Pour i= 1,· · ·M :

Calculerµit =E(xt|xt−1i , θit−1) etmit−1=it−1+ (1a)θt−1. Poserwt−1i = ˜wt−1i p(ytit,mit−1).

2 echantillonner : echantillonner

xt−1i ,wt−1i

On obtient

˜

xt−1i ,1/M et un ´echantillon d’indices ji .

3 Propager :

Poserxt−1i = ˜xt−1i etθt−1i =θt−1ji . Simulerθit ∼ N(mit−1,(1a2)Vt−1).

Simulerxti p(xt|xt−1i , θit).

Calculer les poids :wt= p(yt|xitit)

p(ytj it,mit−1) et normaliser ˜wt .

(16)

Application : Le mod` ele d’Heston

Mod`ele :

dSt=rStdt+√

VtStdWt1 dVt=κ(β−Vt)dt+σ√

VtdWt2 dWt1,dWt2

=ρdt St : actif etr le taux sans risque.

Wt1 et Wt2 sont deux mouvements browniens.

κ : param`etre de vitesse de retour `a la moyenne.

β : moyenne `a long terme du processus.

σ : param`etre de “Vol de Vol”’.

ρ : param`etre de corr´elation.

θ= (κ, β, σ, ρ)

Mod`ele populaire utilis´e en finance :

1 repr´esente les faits observ´es empiriquement : volatilit´e clustering, effet de levier...

formule semi ferm´ee des prix d’options not´esC (v,S , θ).

(17)

Application : Mod` ele espace d’´ etats

Mod`ele :

yt=Ct(vt,St, θ) +εt,

vt= Ψ(vt−1, θ,∆) + Φ1/2(vt−1, θ,∆)ηt. avec :

Ψ(vt, θ,∆) =β(1−exp−κ∆) +exp−κ∆vt,

Φ(vt, θ,∆) =βσ2(1−e−κ∆)2+σκ2e−κ∆(1−e−κ∆)vt.

∆ : pas de temps.

εt ∼ N(0,R) o`u R est connu.

(18)

Observations

Notation : Ct(St,vt, θ) repr´esente le vecteur contenant les prix d’options `a la datet :

Ct(St,vt, θ) =

CtK1,T1(St,vt, θ) CtK1,T2(St,vt, θ)

...

CtK3,T3(St,vt, θ)

But :Estimer s´equentiellement et simultan´ement les param`etres et la variance.

(19)

Param`etres des Filtres :

p(θ0) =U(κa, κb)⊗ U(βa, βb)⊗ U(σa, σb)⊗ U(ρa, ρb) p(v00) = Γ(α1, α2) avec α1 = σ02β0

0

et α2 = σ20

0. p(vt|vt−1, θt−1) = 2cχ2(2d + 2,2w) avec :

c = 2κ

σ2(1−exp−κ∆), w =cvt−1exp−κ∆ andd = 2κβ σ2 −1 p(yt|vt, θt) =N(Ct(St,vt, θt),R).

(20)

R´ esultat num´ erique : θ = (4, 0.03, 0.4, −0.5)

Table: Estimation des param`etres par EKF, APF, APFS et KSAPF. Le nombre de particulesM pour les filtres particulaires est 1000 et le nombre d’observationT = 100.

κmean βmean σmean ρmean

APF 4.15 0.031 0.46 -0.43 KSAPF 4.05 0.0296 0.41 -0.59 APFS 4.55 0.028 0.43 -0.52 EKF 4.21 0.0296 0.345 -0.61

:MSE pour l’estimation deθ. De gauche `a droite : KSAPF,

(21)

Figure:Estimation de la variance : de gauche `a droite : EKF, APFS, APF, KSAPF. Bleu : vraie variance, Rouge : variance estim´ee

(22)

R´ esultat num´ erique :

Figure:MSE pour l’estimation devt. De gauche `a droite : KSAPF, APF, APFS, EKF

(23)

R´ esum´ e

Mauvaise performance du filtre de Kalman Etendu (prix du call fortement non-lineaire) et du filtre APFS (d´eg´en´erescence des particules).

KSAPF performe les autre filtres dans tous les cas

Param`etre “tun´e” pour l’APF : la variance des bruits pour la dynamique artificielle des param`etres.

Références

Documents relatifs

F., A Robbins-Monro procedure for estimation in semiparametric regression models, Annals of

(2003) apply the same model to unemployment rate estimation for the Canadian Labour Force Survey using shorter time series data and do not consider seasonal adjustments.. In this

hi´ erarchique R´ eponse Normale Introduit les Mod` eles de Markov Latents en SAE Enquˆ ete LFS: donn´ ees trimestrielles 2004-2014.. Meilleure Pr´ ediction Empirique SAE avec donn´

Cepen- dant, si on ajoute une variable explicative dans un mod` ele, le R 2 ne peut qu’augmenter, le R 2 n’est donc pas adapt´ e pour comparer entre eux des mod` eles avec un

Th´ eor` eme quantile : besoin d’un terme suppl´

En r ´ealit ´e le m ´ecanisme est plus complexe, c’est une r ´eaction d’autocatalyse dans laquelle interviennent plusieurs r ´eactions avec des vitesses de diff ´erents ordres

boxcox (MASS) transformation de Box-Cox dans le cas d’un LNM bcPower (car) transformation de Box-Cox, Yeo-Johnson ou puissance lm (stats) ajuste un mod` ele de r´ egression lin´

On suppose que l’on observe seulement le nombre de particules dans le r´ecipient A au cours du temps, et que l’on d´esire estimer le nombre total de particules. Et construire