• Aucun résultat trouvé

Contrôle stochastique et méthodes numériques en finance mathématique

N/A
N/A
Protected

Academic year: 2021

Partager "Contrôle stochastique et méthodes numériques en finance mathématique"

Copied!
138
0
0

Texte intégral

(1)

HAL Id: tel-00122883

https://pastel.archives-ouvertes.fr/tel-00122883

Submitted on 5 Jan 2007

HAL is a multi-disciplinary open access

archive for the deposit and dissemination of

sci-entific research documents, whether they are

pub-lished or not. The documents may come from

teaching and research institutions in France or

abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est

destinée au dépôt et à la diffusion de documents

scientifiques de niveau recherche, publiés ou non,

émanant des établissements d’enseignement et de

recherche français ou étrangers, des laboratoires

publics ou privés.

Contrôle stochastique et méthodes numériques en

finance mathématique

Romuald Elie

To cite this version:

Romuald Elie. Contrôle stochastique et méthodes numériques en finance mathématique.

Mathéma-tiques [math]. ENSAE ParisTech, 2006. Français. �tel-00122883�

(2)

Contrôle optimal stochastique

et méthodes numériques

en finance mathématique

Romuald ELIE

(3)

Plan

Méthodes numériques probabilistes

(4)

Plan

Méthodes numériques probabilistes

Calcul des Grecques par estimateurs à noyaux

(5)

Plan

Méthodes numériques probabilistes

Calcul des Grecques par estimateurs à noyaux

Résolution d’EDSPR découplée avec sauts

(6)

Plan

Méthodes numériques probabilistes

Calcul des Grecques par estimateurs à noyaux

Résolution d’EDSPR découplée avec sauts

Gestion de portefeuille et contrainte drawdown

(7)

Plan

Méthodes numériques probabilistes

Calcul des Grecques par estimateurs à noyaux

Résolution d’EDSPR découplée avec sauts

Gestion de portefeuille et contrainte drawdown

Solution explicite en horizon infini

(8)

Plan

Méthodes numériques probabilistes

Calcul des Grecques par estimateurs à noyaux

Résolution d’EDSPR découplée avec sauts

Gestion de portefeuille et contrainte drawdown

Solution explicite en horizon infini

(9)

Problème

&

Littérature

Z

λ

v. a. de densité

f (λ, .)

dépendant d’un paramètre

λ

∈ R

d

.

(10)

Problème

&

Littérature

Z

λ

v. a. de densité

f (λ, .)

dépendant d’un paramètre

λ

∈ R

d

.

Option de payoff actualisé

φ

(Z

λ

0

)

(11)

Problème

&

Littérature

Z

λ

v. a. de densité

f (λ, .)

dépendant d’un paramètre

λ

∈ R

d

.

Option de payoff actualisé

φ

(Z

λ

0

)

(12)

Problème

&

Littérature

Z

λ

v. a. de densité

f (λ, .)

dépendant d’un paramètre

λ

∈ R

d

.

Option de payoff actualisé

φ

(Z

λ

0

)

Prix:

P (λ

0

) := E [φ (Z

λ

0

)]

Sensibilité:

β

0

:=

λ

E [φ (Z

λ

0

)]

(13)

Problème

&

Littérature

Z

λ

v. a. de densité

f (λ, .)

dépendant d’un paramètre

λ

∈ R

d

.

Option de payoff actualisé

φ

(Z

λ

0

)

Prix:

P (λ

0

) := E [φ (Z

λ

0

)]

Sensibilité:

β

0

:=

λ

E [φ (Z

λ

0

)]

Comment calculer

β

0

?

[LP94]

(14)

Problème

&

Littérature

Z

λ

v. a. de densité

f (λ, .)

dépendant d’un paramètre

λ

∈ R

d

.

Option de payoff actualisé

φ

(Z

λ

0

)

Prix:

P (λ

0

) := E [φ (Z

λ

0

)]

Sensibilité:

β

0

:=

λ

E [φ (Z

λ

0

)]

Comment calculer

β

0

?

[LP94]

Différences finies

β

0

1

ǫ

P (λ

0

+ ǫ)

− P (λ

0

)

[BG96]

Pathwise

β

0

= E[φ

(Z

λ

0

)

λ

Z

λ

0

]

(15)

Problème

&

Littérature

Z

λ

v. a. de densité

f (λ, .)

dépendant d’un paramètre

λ

∈ R

d

.

Option de payoff actualisé

φ

(Z

λ

0

)

Prix:

P (λ

0

) := E [φ (Z

λ

0

)]

Sensibilité:

β

0

:=

λ

E [φ (Z

λ

0

)]

Comment calculer

β

0

?

[LP94]

Différences finies

β

0

1

ǫ

P (λ

0

+ ǫ)

− P (λ

0

)

[BG96]

Pathwise

β

0

= E[φ

(Z

λ

0

)

λ

Z

λ

0

]

[BGP6]

Vraisemblance

β

0

= E

h

φ(Z

λ

0

)

λ

f

f

0

, Z

λ

0

)

i

(16)

Problème

&

Littérature

Z

λ

v. a. de densité

f (λ, .)

dépendant d’un paramètre

λ

∈ R

d

.

Option de payoff actualisé

φ

(Z

λ

0

)

Prix:

P (λ

0

) := E [φ (Z

λ

0

)]

Sensibilité:

β

0

:=

λ

E [φ (Z

λ

0

)]

Comment calculer

β

0

?

[LP94]

Différences finies

β

0

1

ǫ

P (λ

0

+ ǫ)

− P (λ

0

)

[BG96]

Pathwise

β

0

= E[φ

(Z

λ

0

)

λ

Z

λ

0

]

[BGP6]

Vraisemblance

β

0

= E

h

φ(Z

λ

0

)

λ

f

f

0

, Z

λ

0

)

i

(17)

Problème

&

Littérature

Z

λ

v. a. de densité

f (λ, .)

dépendant d’un paramètre

λ

∈ R

d

.

Option de payoff actualisé

φ

(Z

λ

0

)

Prix:

P (λ

0

) := E [φ (Z

λ

0

)]

Sensibilité:

β

0

:=

λ

E [φ (Z

λ

0

)]

Comment calculer

β

0

?

[LP94]

Différences finies

β

0

1

ǫ

P (λ

0

+ ǫ)

− P (λ

0

)

[BG96]

Pathwise

β

0

= E[φ

(Z

λ

0

)

λ

Z

λ

0

]

[BGP6]

Vraisemblance

β

0

= E

h

φ(Z

λ

0

)

λ

f

f

0

, Z

λ

0

)

i

[FLLLT99]

Malliavin

β

0

= E [φ(Z

λ

0

)

π

]

(18)

Paramètre aléatoire

Prix

Sensibilité

β

0

E [φ (Z

λ

0

)]

E

h

φ(Z

λ

0

)

λ

f

f

0

, Z

λ

0

)

i

(19)

Paramètre aléatoire

Prix

Sensibilité

β

0

E [φ (Z

λ

0

)]

E

h

φ(Z

λ

0

)

λ

f

f

0

, Z

λ

0

)

i

v.a.

Λ

de densité

donnée

et

Z

Λ

tq

Z

Λ

| Λ

de densité

f

E

φ(Z

Λ

)

| Λ = λ

0



E

h

φ(Z

Λ

)

λ

f

f

(Λ, Z

Λ

)

| Λ = λ

0

i

(20)

Paramètre aléatoire

Prix

Sensibilité

β

0

E [φ (Z

λ

0

)]

E

h

φ(Z

λ

0

)

λ

f

f

0

, Z

λ

0

)

i

v.a.

Λ

de densité

donnée

et

Z

Λ

tq

Z

Λ

| Λ

de densité

f

E

φ(Z

Λ

)

| Λ = λ

0



E

h

φ(Z

Λ

)

λ

f

f

(Λ, Z

Λ

)

| Λ = λ

0

i

Simulation de

N

réalisations i.i.d. de

(Λ, Z

Λ

)

Estimation non paramétrique: Noyau

K

, fenêtre

h

(21)

Estimateurs

Prix

Sensibilité

β

0

h

−d

N ℓ(λ

0

)

P

N

i=1

φ(Z

i

)K



λ

0

Λ

i

h



h

−d

N ℓ(λ

0

)

P

N

i=1

φ(Z

i

)

λ

f

f

i

, Z

i

)

K



λ

0

Λ

i

h



(22)

Estimateurs

Prix

Sensibilité

β

0

h

−d

N ℓ(λ

0

)

P

N

i=1

φ(Z

i

)K



λ

0

Λ

i

h



h

−d

N ℓ(λ

0

)

P

N

i=1

φ(Z

i

)

λ

f

f

i

, Z

i

)

K



λ

0

Λ

i

h



Trois estimateurs non paramétriques

On estime

λ

f

(23)

Estimateurs

Prix

Sensibilité

β

0

h

−d

N ℓ(λ

0

)

P

N

i=1

φ(Z

i

)K



λ

0

Λ

i

h



h

−d

N ℓ(λ

0

)

P

N

i=1

φ(Z

i

)

λ

f

f

i

, Z

i

)

K



λ

0

Λ

i

h



Trois estimateurs non paramétriques

On estime

λ

f

f

à l’aide d’un estimateur à noyau de

f

On laisse

N

→ ∞

à

h

fixe

E

h

φ(Z)

λ

f

f

(Λ, Z)K



λ

0

Λ

h

i

(24)

Estimateurs

Prix

Sensibilité

β

0

h

−d

N ℓ(λ

0

)

P

N

i=1

φ(Z

i

)K



λ

0

Λ

i

h



h

−d

N ℓ(λ

0

)

P

N

i=1

φ(Z

i

)

λ

f

f

i

, Z

i

)

K



λ

0

Λ

i

h



Trois estimateurs non paramétriques

On estime

λ

f

f

à l’aide d’un estimateur à noyau de

f

On laisse

N

→ ∞

à

h

fixe

E

h

φ(Z)

λ

f

f

(Λ, Z)K



λ

0

Λ

h

i

Par une intégration par parties, ce terme est la limite de

ˆ

β

N

:=

h

−d−1

ℓ(λ

0

)N

N

X

i=1

φ(Z

i

)



∇K

 λ

0

− Λ

i

h



− hK

 λ

0

− Λ

i

h



∇ℓ

i

)



(25)

Estimateurs

Prix

Sensibilité

β

0

h

−d

N ℓ(λ

0

)

P

N

i=1

φ(Z

i

)K



λ

0

Λ

i

h



h

−d

N ℓ(λ

0

)

P

N

i=1

φ(Z

i

)

λ

f

f

i

, Z

i

)

K



λ

0

Λ

i

h



Trois estimateurs non paramétriques

On estime

λ

f

f

à l’aide d’un estimateur à noyau de

f

On laisse

N

→ ∞

à

h

fixe

E

h

φ(Z)

λ

f

f

(Λ, Z)K



λ

0

Λ

h

i

Par une intégration par parties, ce terme est la limite de

ˆ

β

N

:=

h

−d−1

ℓ(λ

0

)N

N

X

i=1

φ(Z

i

)



∇K

 λ

0

− Λ

i

h



− hK

 λ

0

− Λ

i

h



∇ℓ

i

)



(26)

Convergence

ˆ

β

N

:=

h

−d−1

ℓ(λ

0

)N

N

X

i=1

φ(Z

i

)



∇K

 λ

0

− Λ

i

h



− hK

 λ

0

− Λ

i

h



∇ℓ

i

)



Hypothèse:

Régularité de

et

f

et

N h

d+2

→ 0

Biais

∼ Ch

p

Variance

N h

Σ1

d+2

N h

d+2

 ˆ

β

N

− β

0



−→

loi

N →∞

N (0, Σ)

(27)

Convergence

ˆ

β

N

:=

h

−d−1

ℓ(λ

0

)N

N

X

i=1

φ(Z

i

)



∇K

 λ

0

− Λ

i

h



− hK

 λ

0

− Λ

i

h



∇ℓ

i

)



Hypothèse:

Régularité de

et

f

et

N h

d+2

→ 0

Biais

∼ Ch

p

Variance

N h

Σ1

d+2

N h

d+2

 ˆ

β

N

− β

0



−→

loi

N →∞

N (0, Σ)

Equilibre

N

et

h

h

∼ CN

Vitesse en

N

d+2p+2

p

1

d+2p+2

(28)

Convergence

ˆ

β

N

:=

h

−d−1

ℓ(λ

0

)N

N

X

i=1

φ(Z

i

)



∇K

 λ

0

− Λ

i

h



− hK

 λ

0

− Λ

i

h



∇ℓ

i

)



Hypothèse:

Régularité de

et

f

et

N h

d+2

→ 0

Biais

∼ Ch

p

Variance

N h

Σ1

d+2

N h

d+2

 ˆ

β

N

− β

0



−→

loi

N →∞

N (0, Σ)

Equilibre

N

et

h

h

∼ CN

Vitesse en

N

d+2p+2

p

1

d+2p+2

(29)

Convergence

ˆ

β

N

:=

h

−d−1

ℓ(λ

0

)N

N

X

i=1

φ(Z

i

)



∇K

 λ

0

− Λ

i

h



− hK

 λ

0

− Λ

i

h



∇ℓ

i

)



Hypothèse:

Régularité de

et

f

et

N h

d+2

→ 0

Biais

∼ Ch

p

Variance

N h

Σ1

d+2

N h

d+2

 ˆ

β

N

− β

0



−→

loi

N →∞

N (0, Σ)

Equilibre

N

et

h

h

∼ CN

Vitesse en

N

d+2p+2

p

1

d+2p+2

Densité

de largeur

h

Vitesse en

N

2

p+2

p

(30)

Convergence

ˆ

β

N

:=

h

−d−1

ℓ(λ

0

)N

N

X

i=1

φ(Z

i

)



∇K

 λ

0

− Λ

i

h



− hK

 λ

0

− Λ

i

h



∇ℓ

i

)



Hypothèse:

Régularité de

et

f

et

N h

d+2

→ 0

Biais

∼ Ch

p

Variance

N h

Σ1

d+2

N h

d+2

 ˆ

β

N

− β

0



−→

loi

N →∞

N (0, Σ)

Equilibre

N

et

h

h

∼ CN

Vitesse en

N

d+2p+2

p

1

d+2p+2

Densité

de largeur

h

Vitesse en

N

2

p+2

p

(31)

Call Digital Asiatique,

N=1 Million

0,0277

0,0282

0,0287

0,0292

0,0297

(32)

Call Digital Européen,

N=1 Milliard

0,016525

0,016529

0,016533

0,016537

0,016541

(33)

Plan

Méthodes numériques probabilistes

Calcul des Grecques par estimateurs à noyaux

Résolution d’EDSPR découplée avec sauts

Gestion de portefeuille et contrainte drawdown

Solution explicite en horizon infini

(34)

Problème et littérature

X

t

= x +

R

t

0

µ(s, X

s

)ds +

R

t

0

σ(s, X

s

)dW

s

+

R

t

0

R

E

β(s, X

s−

, e)¯

µ(de, ds) ,

Y

t

= g(X

1

) +

R

1

t

h(s, X

s

, Y

s

, Z

s

,

Γ

s

) ds

R

1

t

Z

s

dW

s

R

1

t

R

E

U

s

(e)¯

µ(de, ds)

avec

Γ

s

:=

R

E

U

s

(e)γ(e)λ(de)

Hypothèses

W

MB et

µ

¯

mes. de Poisson indépendante compensée par

(35)

Problème et littérature

X

t

= x +

R

t

0

µ(s, X

s

)ds +

R

t

0

σ(s, X

s

)dW

s

+

R

t

0

R

E

β(s, X

s−

, e)¯

µ(de, ds) ,

Y

t

= g(X

1

) +

R

1

t

h(s, X

s

, Y

s

, Z

s

,

Γ

s

) ds

R

1

t

Z

s

dW

s

R

1

t

R

E

U

s

(e)¯

µ(de, ds)

avec

Γ

s

:=

R

E

U

s

(e)γ(e)λ(de)

Hypothèses

W

MB et

µ

¯

mes. de Poisson indépendante compensée par

ν(de, dt) = λ(de)dt

, avec

λ(E) <

(36)

Problème et littérature

X

t

= x +

R

t

0

µ(s, X

s

)ds +

R

t

0

σ(s, X

s

)dW

s

+

R

t

0

R

E

β(s, X

s−

, e)¯

µ(de, ds) ,

Y

t

= g(X

1

) +

R

1

t

h(s, X

s

, Y

s

, Z

s

,

Γ

s

) ds

R

1

t

Z

s

dW

s

R

1

t

R

E

U

s

(e)¯

µ(de, ds)

avec

Γ

s

:=

R

E

U

s

(e)γ(e)λ(de)

Hypothèses

W

MB et

µ

¯

mes. de Poisson indépendante compensée par

ν(de, dt) = λ(de)dt

, avec

λ(E) <

Tous les coefficients sont Lipschitz et

γ

est bornée

Littérature

(37)

Problème et littérature

X

t

= x +

R

t

0

µ(s, X

s

)ds +

R

t

0

σ(s, X

s

)dW

s

+

R

t

0

R

E

β(s, X

s−

, e)¯

µ(de, ds) ,

Y

t

= g(X

1

) +

R

1

t

h(s, X

s

, Y

s

, Z

s

,

Γ

s

) ds

R

1

t

Z

s

dW

s

R

1

t

R

E

U

s

(e)¯

µ(de, ds)

avec

Γ

s

:=

R

E

U

s

(e)γ(e)λ(de)

Hypothèses

W

MB et

µ

¯

mes. de Poisson indépendante compensée par

ν(de, dt) = λ(de)dt

, avec

λ(E) <

Tous les coefficients sont Lipschitz et

γ

est bornée

Littérature

Existence, unicité et lien avec EID

[TL94] [BBP97]

(38)

Algorithme

X

t

= x +

R

t

0

µ(s, X

s

)ds +

R

t

0

σ(s, X

s

)dW

s

+

R

t

0

R

E

β(s, X

s−

, e)¯

µ(de, ds) ,

Y

t

= g(X

1

) +

R

1

t

h(s, X

s

, Y

s

, Z

s

,

Γ

s

) ds

R

1

t

Z

s

dW

s

R

1

t

R

E

U

s

(e)¯

µ(de, ds)

avec

Γ

s

:=

R

E

U

s

(e)γ(e)λ(de)

(39)

Algorithme

X

t

= x +

R

t

0

µ(s, X

s

)ds +

R

t

0

σ(s, X

s

)dW

s

+

R

t

0

R

E

β(s, X

s−

, e)¯

µ(de, ds) ,

Y

t

= g(X

1

) +

R

1

t

h(s, X

s

, Y

s

, Z

s

,

Γ

s

) ds

R

1

t

Z

s

dW

s

R

1

t

R

E

U

s

(e)¯

µ(de, ds)

avec

Γ

s

:=

R

E

U

s

(e)γ(e)λ(de)

Approximation

Progressive

X

π

de

X

(40)

Algorithme

X

t

= x +

R

t

0

µ(s, X

s

)ds +

R

t

0

σ(s, X

s

)dW

s

+

R

t

0

R

E

β(s, X

s−

, e)¯

µ(de, ds) ,

Y

t

= g(X

1

) +

R

1

t

h(s, X

s

, Y

s

, Z

s

,

Γ

s

) ds

R

1

t

Z

s

dW

s

R

1

t

R

E

U

s

(e)¯

µ(de, ds)

avec

Γ

s

:=

R

E

U

s

(e)γ(e)λ(de)

Approximation

Progressive

X

π

de

X

X

t

π

i

+1

:= X

ti

π

+

n

1

µ(t

i

, X

ti

π

)+σ(t

i

, X

ti

π

)∆W

t

i

+

R

E

β(t

i

, X

ti

π

, e)¯

µ(de, (t

i

, t

i+1

])

Approximation

Rétrograde

( ¯

Y

π

, ¯

Z

π

,

Γ

¯

π

)

de

(Y, Z,

Γ

)

¯

Y

1

π

:= g(X

1

π

)

et

¯

Z

ti

π

:= n E

h

Y

¯

t

π

i+1

∆W

ti

| F

ti

i

¯

Γ

π

t

i

:= n E

h

Y

¯

t

π

i+1

R

E

γ(e)¯

µ(de, (t

i

, t

i+1

])

| F

t

i

(41)

Algorithme: de

Y

¯

t

π

i+1

à

Y

¯

π

t

i

Y

t

i

= Y

t

i+1

+

R

t

i+1

t

i

h (r, X

r

, Y

r

, Z

r

, Γ

r

) dr

R

t

i+1

t

i

Z

r

dW

r

R

t

i+1

t

i

R

E

U

r

(e)¯

µ(de, dr)

(42)

Algorithme: de

Y

¯

t

π

i+1

à

Y

¯

π

t

i

Y

t

i

= Y

t

i+1

+

R

t

i+1

t

i

h (r, X

r

, Y

r

, Z

r

, Γ

r

) dr

R

t

i+1

t

i

Z

r

dW

r

R

t

i+1

t

i

R

E

U

r

(e)¯

µ(de, dr)

Générateur constant,

(Z

π

, U

π

)

donné par représentation de

Y

¯

t

π

i+1

¯

Y

t

π

i

=

Y

¯

t

π

i+1

+

n

1

h t

i

, X

t

π

i

, ¯

Y

t

π

i

, ¯

Z

t

π

i

, ¯

Γ

π

t

i

 − R

t

i+1

t

i

Z

π

r

dW

r

R

t

i+1

t

i

R

E

U

π

r

(e)

µ(de, dr)

¯

(43)

Algorithme: de

Y

¯

t

π

i+1

à

Y

¯

π

t

i

Y

t

i

= Y

t

i+1

+

R

t

i+1

t

i

h (r, X

r

, Y

r

, Z

r

, Γ

r

) dr

R

t

i+1

t

i

Z

r

dW

r

R

t

i+1

t

i

R

E

U

r

(e)¯

µ(de, dr)

Générateur constant,

(Z

π

, U

π

)

donné par représentation de

Y

¯

t

π

i+1

¯

Y

t

π

i

=

Y

¯

t

π

i+1

+

n

1

h t

i

, X

t

π

i

, ¯

Y

t

π

i

, ¯

Z

t

π

i

, ¯

Γ

π

t

i

 − R

t

i+1

t

i

Z

π

r

dW

r

R

t

i+1

t

i

R

E

U

π

r

(e)

µ(de, dr)

¯

Approximation dans

L

2

(Ω

× [t

i

, t

i+1

])

de

Z

π

et

Γ

π

=

R

E

U

π

(e)

γ(e)λ(de)

par des v.a.

F

t

i

-mesurables

¯

Z

t

π

i

:= n E

h

R

t

i+1

t

i

Z

π

r

dr

| F

t

i

i

=

n E

h ¯

Y

t

π

i+1

∆W

t

i

| F

t

i

i

¯

Γ

π

t

i

:= n E

h

R

t

i+1

t

i

Γ

π

s

ds

| F

t

i

i

=

n E

h ¯

Y

t

π

i+1

R

E

γ(e)¯

µ(de, (t

i

, t

i+1

])

| F

t

i

(44)

Algorithme: de

Y

¯

t

π

i+1

à

Y

¯

π

t

i

Y

t

i

= Y

t

i+1

+

R

t

i+1

t

i

h (r, X

r

, Y

r

, Z

r

, Γ

r

) dr

R

t

i+1

t

i

Z

r

dW

r

R

t

i+1

t

i

R

E

U

r

(e)¯

µ(de, dr)

Générateur constant,

(Z

π

, U

π

)

donné par représentation de

Y

¯

t

π

i+1

¯

Y

t

π

i

=

Y

¯

t

π

i+1

+

n

1

h t

i

, X

t

π

i

, ¯

Y

t

π

i

, ¯

Z

t

π

i

, ¯

Γ

π

t

i

 − R

t

i+1

t

i

Z

π

r

dW

r

R

t

i+1

t

i

R

E

U

π

r

(e)

µ(de, dr)

¯

Approximation dans

L

2

(Ω

× [t

i

, t

i+1

])

de

Z

π

et

Γ

π

=

R

E

U

π

(e)

γ(e)λ(de)

par des v.a.

F

t

i

-mesurables

¯

Z

t

π

i

:= n E

h

R

t

i+1

t

i

Z

π

r

dr

| F

t

i

i

=

n E

h

Y

¯

t

π

i+1

∆W

t

i

| F

t

i

i

¯

Γ

π

t

i

:= n E

h

R

t

i+1

t

i

Γ

π

s

ds

| F

t

i

i

=

n E

h

Y

¯

t

π

i+1

R

E

γ(e)¯

µ(de, (t

i

, t

i+1

])

| F

t

i

(45)

Algorithme: de

Y

¯

t

π

i+1

à

Y

¯

π

t

i

Y

t

i

= Y

t

i+1

+

R

t

i+1

t

i

h (r, X

r

, Y

r

, Z

r

, Γ

r

) dr

R

t

i+1

t

i

Z

r

dW

r

R

t

i+1

t

i

R

E

U

r

(e)¯

µ(de, dr)

Générateur constant,

(Z

π

, U

π

)

donné par représentation de

Y

¯

t

π

i+1

¯

Y

t

π

i

=

Y

¯

t

π

i+1

+

n

1

h t

i

, X

t

π

i

, ¯

Y

t

π

i

, ¯

Z

t

π

i

, ¯

Γ

π

t

i

 − R

t

i+1

t

i

Z

π

r

dW

r

R

t

i+1

t

i

R

E

U

π

r

(e)

µ(de, dr)

¯

Approximation dans

L

2

(Ω

× [t

i

, t

i+1

])

de

Z

π

et

Γ

π

=

R

E

U

π

(e)

γ(e)λ(de)

par des v.a.

F

t

i

-mesurables

¯

Z

t

π

i

:= n E

h

R

t

i+1

t

i

Z

π

r

dr

| F

t

i

i

=

n E

h

Y

¯

t

π

i+1

∆W

t

i

| F

t

i

i

¯

Γ

π

t

i

:= n E

h

R

t

i+1

t

i

Γ

π

s

ds

| F

t

i

i

=

n E

h

Y

¯

t

π

i+1

R

E

γ(e)¯

µ(de, (t

i

, t

i+1

])

| F

t

i

i

Conditionnant la première expression

(46)

Algorithme

X

t

= x +

R

t

0

µ(s, X

s

)ds +

R

t

0

σ(s, X

s

)dW

s

+

R

t

0

R

E

β(s, X

s−

, e)¯

µ(de, ds) ,

Y

t

= g(X

1

) +

R

1

t

h(s, X

s

, Y

s

, Z

s

,

Γ

s

) ds

R

1

t

Z

s

dW

s

R

1

t

R

E

U

s

(e)¯

µ(de, ds)

Approximation

Progressive

X

π

de

X

Approximation

Rétrograde

( ¯

Y

π

, ¯

Z

π

,

Γ

¯

π

)

de

(Y, Z,

Γ

)

¯

Y

1

π

:= g(X

1

π

)

et

¯

Z

t

π

i

:= n E

h ¯

Y

t

π

i+1

∆W

ti

| F

ti

i

¯

Γ

π

t

i

:= n E

h ¯

Y

ti+1

π

R

E

γ(e)¯

µ(de, (t

i

, t

i+1

])

| F

ti

i

¯

Y

ti

π

:= E

h ¯

Y

ti+1

π

| F

t

i

i

(47)

Algorithme

X

t

= x +

R

t

0

µ(s, X

s

)ds +

R

t

0

σ(s, X

s

)dW

s

+

R

t

0

R

E

β(s, X

s−

, e)¯

µ(de, ds) ,

Y

t

= g(X

1

) +

R

1

t

h(s, X

s

, Y

s

, Z

s

,

Γ

s

) ds

R

1

t

Z

s

dW

s

R

1

t

R

E

U

s

(e)¯

µ(de, ds)

Approximation

Progressive

X

π

de

X

Approximation

Rétrograde

( ¯

Y

π

, ¯

Z

π

,

Γ

¯

π

)

de

(Y, Z,

Γ

)

¯

Y

1

π

:= g(X

1

π

)

et

¯

Z

t

π

i

:= n E

h ¯

Y

t

π

i+1

∆W

ti

| F

ti

i

¯

Γ

π

t

i

:= n E

h ¯

Y

ti+1

π

R

E

γ(e)¯

µ(de, (t

i

, t

i+1

])

| F

ti

i

¯

Y

ti

π

:= E

h ¯

Y

ti+1

π

| F

t

i

i

+

n

1

h t

i

, X

ti

π

, ¯

Y

ti

π

, ¯

Z

ti

π

,

Γ

¯

π

t

i



(48)

Algorithme

X

t

= x +

R

t

0

µ(s, X

s

)ds +

R

t

0

σ(s, X

s

)dW

s

+

R

t

0

R

E

β(s, X

s−

, e)¯

µ(de, ds) ,

Y

t

= g(X

1

) +

R

1

t

h(s, X

s

, Y

s

, Z

s

,

Γ

s

) ds

R

1

t

Z

s

dW

s

R

1

t

R

E

U

s

(e)¯

µ(de, ds)

Approximation

Progressive

X

π

de

X

Approximation

Rétrograde

( ¯

Y

π

, ¯

Z

π

,

Γ

¯

π

)

de

(Y, Z,

Γ

)

¯

Y

1

π

:= g(X

1

π

)

et

¯

Z

t

π

i

:= n E

h ¯

Y

t

π

i+1

∆W

ti

| F

ti

i

¯

Γ

π

t

i

:= n E

h ¯

Y

ti+1

π

R

E

γ(e)¯

µ(de, (t

i

, t

i+1

])

| F

ti

i

¯

Y

ti

π

:= E

h ¯

Y

ti+1

π

| F

t

i

i

+

n

1

h t

i

, X

ti

π

, ¯

Y

ti

π

, ¯

Z

ti

π

,

Γ

¯

π

t

i



(49)

Convergence

Erreur d’approximation

Err

n

:=



sup

t

i

E

|Y

t

i

− ¯

Y

ti

π

|

2

 + P

n

i=1

R

ti

ti+1

|Z

s

− ¯

Z

ti

π

|

2

ds +

s

− ¯Γ

π

ti

|

2

ds



1

2

(50)

Convergence

Erreur d’approximation

Err

n

:=



sup

t

i

E

|Y

t

i

− ¯

Y

ti

π

|

2

 + P

n

i=1

R

ti

ti+1

|Z

s

− ¯

Z

ti

π

|

2

ds +

s

− ¯Γ

π

ti

|

2

ds



1

2

Représentation et régularité

(51)

Convergence

Erreur d’approximation

Err

n

:=



sup

t

i

E

|Y

t

i

− ¯

Y

ti

π

|

2

 + P

n

i=1

R

ti

ti+1

|Z

s

− ¯

Z

ti

π

|

2

ds +

s

− ¯Γ

π

ti

|

2

ds



1

2

Représentation et régularité

Y

t

s’écrit

y(t, X

t

)

avec

y

lipschitz

(52)

Convergence

Erreur d’approximation

Err

n

:=



sup

t

i

E

|Y

t

i

− ¯

Y

ti

π

|

2

 + P

n

i=1

R

ti

ti+1

|Z

s

− ¯

Z

ti

π

|

2

ds +

s

− ¯Γ

π

ti

|

2

ds



1

2

Représentation et régularité

Y

t

s’écrit

y(t, X

t

)

avec

y

lipschitz

U

partie saut de

Y

U

t

(e) = y(t, X

t−

+ β(t, X

t−

, e))

− y(t, X

t−

)

(53)

Convergence

Erreur d’approximation

Err

n

:=



sup

t

i

E

|Y

t

i

− ¯

Y

ti

π

|

2

 + P

n

i=1

R

ti

ti+1

|Z

s

− ¯

Z

ti

π

|

2

ds +

s

− ¯Γ

π

ti

|

2

ds



1

2

Représentation et régularité

Y

t

s’écrit

y(t, X

t

)

avec

y

lipschitz

U

partie saut de

Y

U

t

(e) = y(t, X

t−

+ β(t, X

t−

, e))

− y(t, X

t−

)

Z

, dérivée de Malliavin de

Y

, solution d’une EDSR linéaire

Vitesse

Coefficients Lipschitz

Err

n

≤ C

ε

n

1/2+ε

(54)

Convergence

Erreur d’approximation

Err

n

:=



sup

t

i

E

|Y

t

i

− ¯

Y

ti

π

|

2

 + P

n

i=1

R

ti

ti+1

|Z

s

− ¯

Z

ti

π

|

2

ds +

s

− ¯Γ

π

ti

|

2

ds



1

2

Représentation et régularité

Y

t

s’écrit

y(t, X

t

)

avec

y

lipschitz

U

partie saut de

Y

U

t

(e) = y(t, X

t−

+ β(t, X

t−

, e))

− y(t, X

t−

)

Z

, dérivée de Malliavin de

Y

, solution d’une EDSR linéaire

Vitesse

Coefficients Lipschitz

Err

n

≤ C

ε

n

1/2+ε

(55)

Put avec risque de défaut du vendeur

Temps de défaut

τ

∼ E(c)

0 1 2 3 4 0 1 2 3 4 5 6 7 8 True U1 (c = 0,1) Estimated U1 (c = 0,1) True U1 (c = 0,5) Estimated U1 (c = 0,5)

0

1

2

3

4

0

1

2

3

4

5

6

7

8

True U1 (c = 0,1)

Estimated U1 (c = 0,1)

True U1 (c = 0,5)

Estimated U1 (c = 0,5)

(56)

Put avec risque de défaut du vendeur

Temps de défaut

τ

∼ E(c)

τ >

T

g

1

(X

T

) = [5

− X

T

]

+

0 1 2 3 4 0 1 2 3 4 5 6 7 8 True U1 (c = 0,1) Estimated U1 (c = 0,1) True U1 (c = 0,5) Estimated U1 (c = 0,5)

0

1

2

3

4

0

1

2

3

4

5

6

7

8

True U1 (c = 0,1)

Estimated U1 (c = 0,1)

True U1 (c = 0,5)

Estimated U1 (c = 0,5)

(57)

Put avec risque de défaut du vendeur

Temps de défaut

τ

∼ E(c)

τ >

T

g

1

(X

T

) = [5

− X

T

]

+

τ < T

g

0

(X

T

) = g

1

(X

T

)

∧ 0.5

0 1 2 3 4 0 1 2 3 4 5 6 7 8 True U1 (c = 0,1) Estimated U1 (c = 0,1) True U1 (c = 0,5) Estimated U1 (c = 0,5)

0

1

2

3

4

0

1

2

3

4

5

6

7

8

True U1 (c = 0,1)

Estimated U1 (c = 0,1)

True U1 (c = 0,5)

Estimated U1 (c = 0,5)

(58)

Put avec risque de défaut du vendeur

Temps de défaut

τ

∼ E(c)

τ >

T

g

1

(X

T

) = [5

− X

T

]

+

τ < T

g

0

(X

T

) = g

1

(X

T

)

∧ 0.5

Prix:

u

0

(t, x) := E [g

0

(X

T

) /X

t

= x]

u

1

(0, x) := E

h

g

1

(X

T

)e

cT

+

R

0

T

u

0

(s, X

s

)ce

cs

ds /X

0

= x

i

0 1 2 3 4 0 1 2 3 4 5 6 7 8 True U1 (c = 0,1) Estimated U1 (c = 0,1) True U1 (c = 0,5) Estimated U1 (c = 0,5)

0

1

2

3

4

0

1

2

3

4

5

6

7

8

True U1 (c = 0,1)

Estimated U1 (c = 0,1)

True U1 (c = 0,5)

Estimated U1 (c = 0,5)

(59)

Put avec risque de défaut du vendeur

Temps de défaut

τ

∼ E(c)

τ >

T

g

1

(X

T

) = [5

− X

T

]

+

τ < T

g

0

(X

T

) = g

1

(X

T

)

∧ 0.5

Prix:

u

0

(t, x) := E [g

0

(X

T

) /X

t

= x]

u

1

(0, x) := E

h

g

1

(X

T

)e

cT

+

R

0

T

u

0

(s, X

s

)ce

cs

ds /X

0

= x

i

EDP:

L u

0

= 0 , u

0

(T,

·) = g

0

L u

1

+ c(u

0

− u

1

) = 0 , u

1

(T,

·) = g

1

0 1 2 3 4 0 1 2 3 4 5 6 7 8 True U1 (c = 0,1) Estimated U1 (c = 0,1) True U1 (c = 0,5) Estimated U1 (c = 0,5)

0

1

2

3

4

0

1

2

3

4

5

6

7

8

True U1 (c = 0,1)

Estimated U1 (c = 0,1)

True U1 (c = 0,5)

Estimated U1 (c = 0,5)

(60)

Put avec risque de défaut du vendeur

Temps de défaut

τ

∼ E(c)

τ >

T

g

1

(X

T

) = [5

− X

T

]

+

τ < T

g

0

(X

T

) = g

1

(X

T

)

∧ 0.5

Prix:

u

0

(t, x) := E [g

0

(X

T

) /X

t

= x]

u

1

(0, x) := E

h

g

1

(X

T

)e

cT

+

R

0

T

u

0

(s, X

s

)ce

cs

ds /X

0

= x

i

EDP:

L u

0

= 0 , u

0

(T,

·) = g

0

L u

1

+ c(u

0

− u

1

) = 0 , u

1

(T,

·) = g

1

1 2 3 4

0

1

2

3

4

0

1

2

3

4

5

6

7

8

True U1 (c = 0,1)

Estimated U1 (c = 0,1)

True U1 (c = 0,5)

Estimated U1 (c = 0,5)

(61)

Plan

Méthodes numériques probabilistes

Calcul des Grecques par estimateurs à noyaux

Résolution d’EDSPR découplée avec sauts

Gestion de portefeuille et contrainte drawdown

Solution explicite en horizon infini

(62)

Problème

Un gestionnaire de fond dispose d’un capital initial

x

et peut

investir

θ

dans un actif risqué:

dS

t

= σS

t

(dW

t

+ λdt)

(63)

Problème

Un gestionnaire de fond dispose d’un capital initial

x

et peut

investir

θ

dans un actif risqué:

dS

t

= σS

t

(dW

t

+ λdt)

consommer

C

: verser des dividendes aux investisseurs

(64)

Problème

Un gestionnaire de fond dispose d’un capital initial

x

et peut

investir

θ

dans un actif risqué:

dS

t

= σS

t

(dW

t

+ λdt)

consommer

C

: verser des dividendes aux investisseurs

Richesse:

X

t

x,C,θ

=

x

R

0

t

C

r

dr +

R

0

t

σ

θ

r

(dW

r

+ λdr)

Pour rassurer ses investisseurs, il s’impose une

(65)

Problème

Un gestionnaire de fond dispose d’un capital initial

x

et peut

investir

θ

dans un actif risqué:

dS

t

= σS

t

(dW

t

+ λdt)

consommer

C

: verser des dividendes aux investisseurs

Richesse:

X

t

x,C,θ

=

x

R

0

t

C

r

dr +

R

0

t

σ

θ

r

(dW

r

+ λdr)

Pour rassurer ses investisseurs, il s’impose une

Contrainte drawdown :

X

t

x,C,θ

≥ α X

x,C,θ



t

(66)

Littérature

Richesse:

X

t

x,C,θ

= x

R

0

t

C

r

dr +

R

0

t

σθ

r

(dW

r

+ λdr)

Références

Documents relatifs

Dans la même vitrine que l’amphore avec Héraclès et le lion de Némée, on peut également: - repérer l’hydrie, le vase à eau : il a deux anses pour le porter et une pour

ـقر ؿكدجلا تاجرخم فم اقلبطنا ( 14 ) يى طابترلاا ؿماعم ةميق فأ ظحلبن 0.538 ةللادلا لكتسم فأك ( Sig=0.000 ) دكجك ىمع ؿدي امم ، ةقلبع ةللاد لكتسم دنع ةيئاصحإ ةللاد

Imitant les méthodes numériques décrites précédemment dans le cas des diffusions continues, nous allons établir un calcul du type Malliavin basé sur le bruit

On se reportera aux éditions fortran 77 (plus ancienne) ou C++ (plus récente) pour les explications des algorithmes : cette édition présente seulement les codes en fortran 90 et

[r]

Nous avons défini une notion de taille pertinente pour les stratégies dans ces jeux, qui est le point important qui nous a ensuite permis de définir une notion de

In chapter 3, we …rst study a class of backward stochastic di¤erential equation driven by Teugels martingales associated with some Lévy processes having moment of all orders and

Le deuxième chapitre est consacré à l’étude du contact avec adhésion entre un matériau élastique non-linéaire et une fondation ri- gide dans le processus quasi-statique et