• Aucun résultat trouvé

Contrôle Optimal Stochastique avec Saut Application à la Finance : Problème d'investissement à volatilité stochastique

N/A
N/A
Protected

Academic year: 2021

Partager "Contrôle Optimal Stochastique avec Saut Application à la Finance : Problème d'investissement à volatilité stochastique"

Copied!
54
0
0

Texte intégral

(1)

ﻲﻤﻠﻌﻟﺍ ﺚﺤﺒﻟﺍﻭ ﱄﺎﻌﻟﺍ ﻢﻴﻠﻌﺘﻟﺍ ﺓﺭﺍﺯﻭ

ﺭﺎـﺘﳐ ﻲـﺟﺎﺑ ﺔـﻌﻣﺎﺟ

ﺔـﺑﺎـﻨﻋ

Université Badji Mokhtar

Annaba

Badji Mokhtar University -

Annaba

Faculté des Sciences

Département de Mathématiques

THESE

Présenté en vue de l’obtention du diplôme de

Doctorat en Mathématiques

Option : Calcul Stochastique et Approximation

Contrôle Optimal Stochastique avec Saut

Application à la Finance :

Problème d'investissement à volatilité stochastique

Par

Benchaabane Abbes

Sous la direction de

Prof. Benchettah Azzedine

Devant le jury

PRESIDENT : Haiour Mohammed Prof U. Annaba

EXAMINATEUR 1 : Aissaoui Med Zine M. C. A U. Guelma

EXAMINATEUR 2 : Boushaba Mahmoud Prof U. Constantine

EXAMINATEUR 3 : Rahmani Fouad Lazhar Prof U. Constantine

(2)

Table des matières

Page Abstract . . . iii Abstract . . . iv Abstract . . . v Introduction . . . . vi

I. Problème de contrôle stochastique . . . . 1

1.1 Forme standard d’un problème de contrôle stochastique 1 1.2 Principe de la programmation dynamique . . . 4

1.3 Equation d’Hamilton-Jacobi-Bellman . . . 5

1.4 Théorème de vérification . . . 7

1.5 Formule de Feynman-Kac . . . 8

II. Solutions de viscosité . . . . 11

2.1 Rappel d’analyse convexe . . . 11

2.2 Présentation et définitions . . . 12

2.3 Solutions de viscosité et dérivées généralisées . . . . 13

2.4 Existence d’une solution par la méthode de Perron . . 14

2.4.1 La méthode de Perron . . . 15

2.4.2 Existence d’une solution de viscosité continue 15 2.5 Principe de comparaison . . . 17

III. Problèmes d’investissement optimal . . . . 19

3.1 Classe des modèles à volatilité constantes . . . 21

(3)

Page

IV. Analyse asymptotique . . . . 28

4.1 Equation de Poisson . . . 28 4.2 Processus d’Ornstein-Uhlenbeck . . . 30 4.2.1 Propriété de décorrélation, théorème ergodique 31 4.3 Fonction valeur corrigée . . . 31 4.4 Validation asymptotique . . . 36 Bibliographie . . . 40

(4)

صخلم

لا هذه يف

ةلاسر

تارامثتسلاا ةيلاكشإ سردنس

يذلا يئاوشعلا رياغتلا تاذ ةيلاملا قاوسلأا يف ةيلاثملا

طسوتملا ىلإ عيرسلا عوجرلا ةيصاخب عتمتي

.

لصحتن

نهربنو ىلثملا ةميقلل ىلولأا ةجردلا نم بيرقتلا ىلع

يئاوشعلا رياغتلا تاذ تارامثتسلال ىلثملا ةميقلا نأ

رياغتب تارامثتسلاا سفنل ىلثملا ةميقلا نم برتقت

ةبولطملا تابيرقتلا ىلع لصحنو تباث

.

(5)

Abstract

Dans cette thèse nous étudions un problème d’investissement optimal dans les marchés …nanciers avec une volatilité stochastique qui possède la propriété de retour rapide à la moyenne. La première correction de la fonction valeur du problème d’in-vestissement optimal avec une volatilité stochastique étant obtenue, nous montrons qu’elle converge vers la fonction valeur du même problème à volatilité constante, ayant obtenu une erreur convenable.

(6)

Abstract

In this thesis we study a problem of optimal investment in …nancial markets based on the fast-mean reverting stochastic volatility, The …rst correction of value function is obtained. We show that the value function for optimal investment problem with stochastic volatility converges to the value function for the some problem with constant volatility and obtains the desired error.

(7)

Remerciements

Je remercie, vivement, Monsieur le Professeur Benchettah

Azzedine et Monsieur le Professeur Paul Raynaud de Fitte

pour avoir dirigé ce travail, pour leur disponibilité et pour

leurs qualités humaines et scientifiques.

Je remercie, également, Messieurs les membres du Jury :

Monsieur le Président, Haiour Mohammed, Professeur à

l’université d’Annaba

Monsieur Aissaoui Mohamed Zine, M. C. A. à

l’université de Guelma

Monsieur Boushaba Mahmoud, Professeur à l’université

de Constantine

Monsieur Rahmani Raouf, Professeur à l’université de

Constantine

Monsieur Remita Riad, M. C. A. à l’université d’Annaba,

qui ont accepté de juger mon travail.

Enfin, je veux remercier mes parents et toute ma famille qui

m'a toujours encouragé et une pensée spéciale pour G-W.

(8)

Introduction

Dans cette thèse, nous nous proposons d’étudier un modèle d’investisse-ment optimal à volatilité stochastique. Le modèle est le suivant

8 > > > > < > > > > : dXt= Xt[(r + ( r)ut)dt + tutdBtx] ; t= f (Yt);

V (t; x; y) = supuV (t; x; y; u); où V (t; x; y; u) = E (X u T)

p

p j Xt= x; Yt= y :

Ici :

- X représente le processus de la richesse, Xt sa valeur à la date t,

- r et représentent respectivement le taux d’intérêt et le rendement instantané, supposés constants,

- t est la valeur à la date t de la volatilité ; elle mesure l’intensité du bruit tutXtdBsx;

- Bx

t est un mouvement brownien standard, - ut est le processus de contrôle,

- V (t; x; y) est la fonction valeur et V (t; x; y; u) la fonction de coût.

Il y a une bonne raison a priori de considérer la volatilité comme une quan-tité aléatoire : des études empiriques sur les rendements du cours du sous-jacent permettent d’estimer la volatilité et celle-ci semble présenter un comportement sto-chastique. Mais modéliser la volatilité par un processus stochastique, c’est en fait reconnaître que quanti…er le risque à travers un paramètre de volatilité constant est aujourd’hui insu¢ sant pour expliquer certains phénomènes de marché.

(9)

Nous supposons que la volatilité t soit une quantité Ft-mesurable et stricte-ment positive. Aussi nous nous proposons de l’écrire sous la forme t = f (Yt), où f : R ! R+ est une fonction déterministe et Y est un processus aléatoire à valeurs réelles Ft-adapté, et B

y

t est un mouvement brownien standard indépendant de Bxt: Nous considérons la di¤usion markovienne de type

dYt= Y(t; Yt)dt + Y(t; Yt)dB y t;

et nous nous limiterons à celle qui possède la propriété de retour à la moyenne, i.e.,

Y(t; y) = (m y):

Le paramètre s’appelle le taux de retour à la moyenne et le paramètre m la moyenne à long terme. On peut voir Ytcomme la position à la date t d’une particule soumise à une force de rappel d’intensité qui a tendance à la ramener à sa position d’équilibre (déterministe) m et à une force aléatoire - par exemple des chocs- modélisée par le bruit Y(t; Yt)dBty:

L’idée principale est celle considérée par J-P Fouque (FPS00) pour un modèle de Black-sholes à volatilité stochastique qui consiste :

1. D’une part à ce que la volatilité possède la propriété de retour à la moyenne, qu’on modélise par la force de rappel déterministe (m Yt)dt,

2. D’autre part que ce retour à la moyenne soit rapide. On suppose donc que l’intensité de la force de rappel est grande. Grande devant quoi ? est l’in-verse d’un temps. Il s’agit donc de comparer = 1= - temps caractéristique de retour à la moyenne- à l’échelle de temps du problème : T t. Aussi, on considère que T t où, de manière équivalente, que (T t) 1 : L’idée est de proposer un développement limité enp de la fonction valeur V (t; x; y):

(10)

- Nous commençons par formuler au chapitre 1 de façon générale la struc-ture d’un problème de contrôle stochastique. On va essentiellement exposer l’approche du contrôle stochastique d’un processus de di¤usion en appliquant le principe de la programmation dynamique de Bellman qui conduit à des équations aux dérivées partielles non linéaires appelées équations de Hamilton-Jacobi-Bellman (HJB) dont la résolution s’appuie sur un résultat dit le théo-rème de véri…cation.

- Le chapitre 2 reprend le principe de la programmation dynamique mais en adoptant une démarche plus récente, basée sur la théorie des solutions de vis-cosité. Ce concept permet de résoudre des problèmes de contrôle lorsque la fonction valeur n’est pas régulière comme supposée au chapitre précédent, voir (Lio83), (ePL92) et (FS06).

- Le chapitre 3 consiste à dé…nir et à étudier un problème d’investissement optimal aussi bien sous une volatilité constante que sous une volatilité sto-chastique. Nous avons ainsi obtenu l’existence et l’unicité de la fonction valeur donnée explicitement dans le cas où la volatilité est constante, aussi pour le cas où la volatilité est stochastique, en utilisant la notion de solutions de vis-cosité introduite dans le chapitre 2, nous avons réussi à démontrer l’existence et l’unicité de la fonction valeur.

- Dans le chapitre 4 on commence par rappeler la technique d’approximation basée sur l’analyse asymptotique. Ensuite on utilise la méthode de moyennisa-tion de Bogoliubov pour :

1- Mettre en évidence l’existence d’une stratégie optimale pour le problème d’investissement optimal pour les marchés …nanciers à volatilité stochastique avec petit paramètre.

2- Obtenir un développement limité pour les stratégies optimales quand le petit paramètre du modèle tend vers zéro ainsi que la limite de la stratégie optimale, et on démontre la convergence de ces stratégies optimales, résultat ayant fait

(11)

l’objet d’une publication international, voir (BB11). Ceci nous a permis de dé-montrer dans le Théorème 4.3 la convergence de la fonction valeur V (t; x; y) vers la valeur corrigée d’ordre 1 : V0+p V1 par l’utilisation des propriétés de l’équation de Poisson et l’application de quelques estimations concernant les équations de Hamilton-Jacobi-Bellman.

(12)

I.

Problème de contrôle stochastique

Les problèmes de contrôle optimal stochastique ont un grand nombre d’appli-cations dans les domaines de l’économie et à la …nance et reposent sur la méthode de la programmation dynamique. L’idée principale de cette méthode consiste à considé-rer une famille de contrôles à di¤érents états initiaux et d’établir des relations entre les fonctions valeurs associées. L’équation de la programmation dynamique conduit à une équation aux dérivées partielles (EDP) non linéaire appelée équation d’Ha-milton -Jacobi-Bellman (HJB). Lorsque cette EDP peut être résolue par l’obtention explicite ou théorique d’une solution régulière, le théorème de véri…cation valide l’op-timalité de ce candidat, solution d’HJB, et permet aussi de caractériser un contrôle optimal, voir (Pha07).

1.1 Forme standard d’un problème de contrôle stochastique

Le concept d’équation di¤érentielle stochastique généralise celui d’équation dif-férentielle ordinaire aux processus stochastiques. La formalisation théorique de ce problème à elle seule a posé problème aux mathématiciens, et il a fallu attendre les années 40 et les travaux du mathématicien japonais Itô Kiyoshi pour la dé…nition de l’intégrale stochastique. Il s’agit d’étendre la notion d’intégrale de Lebesgue aux pro-cessus stochastiques selon un mouvement brownien, ainsi on peut donner un sens à l’expressionRstf (u; !)dBu, où f (u; :) est un processus stochastique muni de proprié-tés de régulariproprié-tés su¢ santes. On rappelle dans cette section quelques résultats sur

(13)

les équations di¤érentielles stochastiques (EDS) à coe¢ cient aléatoires par rapport à un mouvement brownien.

Soit ( ; F; F = (Ft)t 0; P )un espace de probabilité …ltré satisfaisant les condi-tions habituelles1, et soit (B

t)t un Ft-mouvement brownien à valeurs dans Rd. On se donne un sous ensemble U de Rk, on note par U0 l’ensemble de tous les processus progressivement mesurables v = fvt; t 0g à valeurs dans U. Les éléments de U0 sont appelés les processus de contrôles. Soit

b : (t; x; u)2 R+ Rn U ! b(t; x; u) 2 Rn (1.1)

et

: (t; x; u)2 R+ Rn U ! (t; x; u) 2 Rn d; (1.2) deux fonctions satisfaisant la condition uniforme de Lipschitz

jb(t; x; u) b(t; y; u)j + j (t; x; u) (t; y; u)j Kjx yj; (1.3) pour une certaine constante …nie K indépendante de (t; x; y; u). Pour tout processus de contrôle v 2 U, on considère alors l’EDS :

dXt= b(t; Xt; vt)dt + (t; Xt; vt)dBt: (1.4)

Si l’équation (1.4) admet une solution unique X, pour des données initiales, alors on dit que X est un processus contrôlé par le processus de contrôle v:

Soit T > 0 un horizon du temps donné. On note par U le sous ensemble de tous les processus de contrôles v 2 U0 satisfaisant la condition

E Z T

0 jb(t; x; v

tj + j (t; Xt; vt)j2 dt <1: (1.5)

1c-à-d que la …ltration F = (F

(14)

Les éléments de U sont appelés les processus de contrôles admissibles. Cette condition assure l’existence d’un processus contrôlé pour des données initiales, sous la condition uniforme de Lipschitz sur b et . C’est une conséquence d’un théorème d’existence plus général des EDS à coe¢ cients aléatoires, voir (Pro05).

Théorème I.1 Supposons que v 2 U. Alors sous la conditions (1.3) et pour toute variable aléatoire 2 L2( );F0 mesurale, il existe un unique processus X F adapté véri…ant (1.4) avec la condition initiale X0 = : De plus, on a

E( sup 0 s tjX

sj2) < 1: (1.6)

Soient f : [0; T ] Rn

U ! R et g : Rn

! R deux fonctions mesurables. On suppose que f et g sont à croissance quadratique en x, i.e. il existe une constante positive C indépendante de (t; u) telle que

jf(t; x; u)j + jg(x)j C(1 +jxj2); 8x 2 Rn: (1.7) On peut alors dé…nir la fonction de coût J sur [0; T ] Rn

U par J (t; x; v) = E Z T t f (s; Xst;x; vs)ds + g(X t;x T ) ; (1.8)

où X est la solution de EDS (1.4) avec le contrôle v et la condition initiale Xt= x: Observons que les conditions de croissances quadratiques de f et g assurent que J (t; x; v) est bien dé…nie pour tout contrôle admissible v 2 U, comme une consé-quence du Théorème I.1. L’objectif étant de minimiser cette fonction de coût, on introduit la fonction valeur :

V (t; x) = inf

v2UJ (t; x; v); pour (t; x) 2 [0; T [ R

(15)

Soit (t; x) 2 [0; T [ Rn

, on dit que v 2 U est un contrôle optimal si

V (t; x) = J (t; x; v ): (1.10)

1.2 Principe de la programmation dynamique

Le principe de la programmation dynamique (PPD)2 est un principe fonda-mental pour la théorie du contrôle stochastique (Kry80), (FS06). Dans le contexte de contrôle de processus de di¤usion décrit au paragraphe précédent, et même plus généralement pour des contrôles de processus de Markov3, il s’énonce ainsi :

Théorème I.2 Soit (t; x) 2 [0; T ] Rn. Alors on a (i) Pour tout v 2 U et 2 Tt;T :

V (t; x) E Z

t

f (s; Xst;x; vs)ds + V ( ; Xt;x) : (1.11)

(ii) Pour tout > 0, il existe v2 U tel que pour tout 2 Tt;T :

V (t; x) + E Z

t

f (s; Xst;x; vs)ds + V ( ; Xt;x) : (1.12)

C’est une version plus forte que la version traditionnelle du principe de la program-mation dynamique : V (t; x) = inf v2UE Z t f (s; Xst;x; vs)ds + V ( ; Xt;x) ; (1.13)

pour tout temps d’arrêt 2 Tt;T.

2Ce principe est initié dans les année 50 par Bellman.

3Un processus de Markov est un processus stochastique jouissant de la propriété de Markov,

c-à-d : “ce qui se passe dans le futur dépend seulement de l’état présent et ne dépend pas du parcours de passé”.

(16)

1.3 Equation d’Hamilton-Jacobi-Bellman

L’équation d’Hamilton-Jacobi-Bellman HJB est la version in…nitésimale du principe de la programmation dynamique : elle décrit le comportement local de la fonction valeur V (t; x) lorsqu’on fait tendre le temps d’arrêt dans (1.13) vers t.

Dans cette section, nous dérivons formellement l’équation d’HJB en supposant que la fonction valeur V est su¢ samment régulière (Yon00), (Pha07).

Considérons le temps = t+het un contrôle constant s = a, avec a arbitraire dans U, on a, d’après la relation de la programmation dynamique,

V (t; x) E

Z t+h t

f (s; Xst;x; a)ds + V (t + h; Xt+ht;x ) : (1.14)

En supposant que V est su¢ samment régulière, on a par la formule d’Itô4 entre t et t + h : V (t + h; Xt+ht;x ) = V (t; x) + Z t+h t (@V @t +L aV )(s; Xt;x s )ds + Z t+h t @V @x(s; X t;x s )dBs;

où La est l’opérateur associé à la di¤usion (1.4) pour le contrôle constant a et est dé…ni par : LaV = b(x; a)DxV + 1 2tr( (x; a) 0(x; a)D2 xV ): En substituant dans (1.14), on obtient alors :

0 E Z t+h t (@V @t +L aV )(s; Xt;x s ) + f (s; Xst;x; a)ds :

En divisant par h et en faisant tendre h vers 0, on a :

0 @V

@t(t; x) +L a

V (t; x) + f (t; x; a):

4Pour appliquer la formule d’Itô, il faut que v soit une fois dérivable par rapport à t et deux fois

(17)

Ceci étant valable pour tout a 2 U, on obtient alors l’inégalité : @V

@t(t; x) + supa2U[ L a

V (t; x) f (t; x; a)] 0: (1.15)

D’autre part, supposons que est un contrôle optimal. Alors on a :

V (t; x) = E

Z t+h t

f (s; Xs; s)ds + V (t + h; Xt+h) ;

où X est l’état du système solution de (1.4) partant de x en t avec le contrôle . Par un argument similaire et avec des conditions de régularités sur V , on obtient :

@V

@t(t; x) L

tV (t; x) f (t; x;

t) = 0;

ce qui, combiné avec (1.15), suggère que V doit satisfaire : @V

@t (t; x) + supa2U[ L a

V (t; x) f (t; x; a)] = 0; 8(t; x) 2 [0; T [ Rn;

si le supremum ci-dessus en a est …ni. On réécrit souvent cette EDP sous la forme : @V @t + H(t; x; V (t; x); DxV (t; x); D 2 xV (t; x)) = 0; 8(t; x) 2 [0; T [ R n; (1.16) où pour (t; x; p; M ) 2 [0; T ] Rn Rn Rn n : H(t; x; p; M ) = sup a2U [ b(x; a):p 1 2tr( 0(x; a)M ) f (t; x; a)]: (1.17)

Cette fonction H est appelée le hamiltonien du problème de contrôle considéré. A cette équation aux dérivées partielles, il faut ajouter la condition terminale

(18)

1.4 Théorème de vérification

L’étape la plus importante dans la programmation dynamique consiste à mon-trer, étant donnée une solution régulière à l’équation d’HJB, sous des conditions su¢ santes, coïncide avec la fonction valeur. Ce résultat est appelé théorème de véri-…cation et permet aussi d’obtenir un contrôle optimal. Il repose essentiellement sur la formule d’Itô (Yon00).

Théorème I.3 Soit w 2 C1;2([0; T [ Rn)\ C0([0; T ] Rn) à croissance quadratique, i.e., il existe une constante C telle que :

jw(t; x)j C(1 +jxj2); 8(t; x) 2 [0; T ] Rn: (1.19)

(i) Supposons que : @w @t + supa2U[ L aw(t; x) f (t; x; a)] 0; (t; x) 2 [0; T [ Rn; (1.20) w(T; x) g(x); x2 Rn: (1.21) Alors w v sur [0; T ] Rn.

(ii) De plus supposons que w(T:) = g, et pour tout (t; x) 2 [0; T [ Rn, il existe ^(t; x) mesurable à valeurs dans U tel que :

@w @t(t; x)+supa2U[ L aw(t; x) f (t; x; a)] = @w @t(t; x) L ^(t;x)w(t; x) f (t; x; ^(t; x)) = 0: (1.22) l’EDS : dXs= b(Xs; ^(s; Xs))ds + (Xs; ^(s; Xs))dBs; (1.23)

(19)

admette une solution, notée ^Xt;x

s , étant donnée une condition initiale Xt= x, et f^(s; ^Xst;x); t s Tg 2 U. Alors

w = v sur [0; T ] Rn; (1.24)

et ^ est un contrôle optimal markovien.

1.5 Formule de Feynman-Kac

On considère l’EDS avec des coe¢ cients déterministes b(t; x) et (t; x) à valeur dans Rn

dXt = b(t; Xt)dt + (t; Xt)dBt: (1.25) Pour tout t 2 [0; T ], on introduit l’opérateur (déterministe) di¤érentiel du second-ordre : (Lt')(x) = b(t; x):Dx'(x) + 1 2tr( (t; x) 0 (t; x)Dx2'(x)); '2 C2(Rn): (1.26)

Ltest appelé générateur in…nitésimal de la di¤usion (1.25). Si X est une solution de l’EDS (1.25), v(t; x) une fonction (réelle) de classe C1;2

sur [0; T ] Rn et r(t; x) une fonction continue sur [0; T ] Rd, on a d’après la formule d’Itô :

Mt : = e Rt 0r(s;Xs)dsv(t; X t) + (1.27) Z t 0 e R0sr(u;Xu)du @v @t +Lsv rv (s; Xs)ds = v(0; X0) + Z t 0 e R0sr(u;Xu)duD xv(s; Xs) 0 (s; Xs)dBs:

(20)

On considère le problème d’équation aux dérivées partielles EDP linéaire pa-rabolique de Cauchy : rv @v @t Ltv = f; sur [0; T ] R n; (1.28) v(T; :) = g; sur Rn: (1.29)

où f (resp. g) est une fonction continue de sur [0; T ] Rn

(resp. sur Rn

) dans R. On suppose aussi que la fonction r est positive. On donne ici une version simple du théorème de représentation de Feynman-Kac.

Théorème I.4 (Représentation de Feynman-Kac) Soit v une fonction C1;2

([0; T [ Rn) \ C0([0; T ] Rn) à dérivée en x bornée et solution du problème de Cauchy (1.28)-(1.29).

Alors v admet la représentation

v(t; x) = E Z T t e Rtsr(u;X t;x u )duf (s; Xt;x s )ds + e RT t r(u;X t;x u )dug(Xt;x T ) ; (1.30) pour (t; x) 2 [0; T ] Rn.

L’application du théorème précédent requiert l’existence d’une solution régu-lière v au problème de Cauchy (1.28)-(1.29). Ce genre de résultats s’obtient typique-ment sous une hypothèse d’uniforme ellipticité de l’opérateur Lt :

9 > 0; 8(t; x) 2 [0; T ] Rn; 8y 2 Rn; y0 0(t; x)y jyj2; (1.31) et des hypothèses de bornitude sur b, et de croissance polynomiale sur f et g. Il existe aussi d’autres types de conditions su¢ santes qui omettent l’hypothèse d’uni-forme ellipticité (1.31) mais imposent des conditions de régularité plus fortes sur les coe¢ cients (voir Krylov (Kry80) p. 118).

Dans le cas général où il n’y a pas forcément de solution régulière au problème de Cauchy (1.28)-(1.29), on peut donner un sens à cette EDP avec un concept de solution faible appelée solution de viscosité.

(21)

Remarque I.5 Lorsque l’ensemble des contrôles est réduit à un singleton fa0g, c’est à dire qu’il n’y pas de contrôle sur l’état du système, l’équation HJB se réduit au problème d’EDP linéaire de Cauchy et donc le théorème de véri…cation se réduit à la formule de Feynman-Kac.

(22)

II.

Solutions de viscosité

La méthode de la programmation dynamique suppose a priori que la fonction valeur soit régulière, ce qui n’est pas toujours le cas même dans les cas très simples. Pour surmonter cette di¢ culté, Crandall et Lions (Lio83) ont introduit dans les an-nées 80 la notion de solution de viscosité pour les équations du premier ordre. Cette théorie a été ensuite généralisée aux équations du second ordre, voir (ePL92) et (FS06). Ce concept fournit un moyen très puissant pour étudier en toute généralité les problèmes de contrôle stochastique et permet de donner une formulation rigou-reuse à l’équation d’HJB pour des fonctions supposées seulement localement bornées. En combinant avec des résultats de comparaison pour les solutions de viscosité, on obtient ainsi une caractérisation de la fonction valeur comme l’unique solution de viscosité de l’équation de la programmation dynamique associée.

2.1 Rappel d’analyse convexe

Etant donnée une fonction u de ouvert de Rn

dans R, on dé…nit les fonctions u et u : ! R par :

u (x) =flim

y!xinf u(y) := lim!0inf f (y) : y2 ; jy xj g; (2.1)

u (x) =flim

y!xsup u(y) := lim!0sup u(y) : y2 ; jy xj g: (2.2) Dé…nition II.1 (Fonctions semi-continues) Soit u une fonction de ouvert de Rn

dans R. On dit que u est semi-continue inférieurement (s.c.i) si l’une des condi-tions équivalentes suivantes est satisfaite :

(23)

(i) 8x 2 ; u(x) limn!+1inf u(xn), pour toute suite (xn)n 1 convergent vers x: (iii) 8x 2 ; u(x) = u (x):

(iii) fx 2 : u(x) g est fermé pour tout 2 R:

On dit que f est semi-continue supérieurement (s.c.s) si f est semi-continue inférieurement.

Notons que u est continue sur si et seulement si u est semi-continue infé-rieurement et supéinfé-rieurement. La fonction u est appelée enveloppe semi-continue inférieure de u : c’est la plus grande fonction s.c.i. minorant u.

La fonction u est appelée enveloppe semi-continue supérieure de u : c’est la plus petite fonction s.c.s. majorant u.

Théorème II.2 Une fonction s.c.i. (resp. s.c.s.) attient son minimum (resp. maxi-mum) sur tout compact.

2.2 Présentation et définitions

On s’intéresse ici à une équation elliptique, c’est-à-dire à une équation de la forme

H(x; u(x); Du(x); D2u(x)) = 0 x2 (2.3) où est un ouvert de Rn donné et H : R Rn Sn ! R. Dans toute la suite on supposera que H est “elliptique”, c’est-à-dire que H est décroissant par rapport à la dernière variable :

H(x; s; p; X) H(x; s; p; Y ) si X Y 8(x; s; p; X; Y ) 2 R Rn Sn Sn (2.4) (L’inégalité X Y étant comprise au sens des matrices symétriques).

Dé…nition II.3 (Solution de viscosité-dé…nition par les fonctions-test) On dit qu’une fonction u : ! R est sous-solution de viscosité de (2.3) si u est

(24)

semi-continue supérieurement (s.c.s) dans et si, pour toute fonction-test 2 C2( ) telle que u a un maximum local en un point x0 2 , on a

H(x0; u(x0); D (x0); D2 (x0)) 0: (2.5)

Symétriquement, on dit qu’une fonction u : ! R est sursolution de viscosité de (2.3) si u est semi-continue inférieurement (s.c.i) dans et si, pour toute fonction test 2 C2( ) telle que u a un minimum local en un point x

0 2 , on a

H(x0; u(x0); D (x0); D2 (x0)) 0: (2.6)

En…n, u : ! R est solution de viscosité1 de (2.3) si u est sous- et sursolution de (2.3).

2.3 Solutions de viscosité et dérivées généralisées

Nous allons donner dans ce paragraphe une dé…nition équivalente de la notion de solution de viscosité qui s’appuie sur la notion de sur- et sous-di¤érentiels d’ordre 2 d’une fonction. L’intérêt de cette dé…nition équivalente est très limité pour les équations du premier ordre mais elle joue au contraire un rôle fondamental pour les équations du deuxième ordre.

Dé…nition II.4 (Sous-di¤érentiel d’ordre 2) Soit u : ! R (s.c.i). Le sous-di¤érentiel D2; u(x

0) d’ordre 2 de u en x0 2 est l’ensemble des couples (p; X) 2 Rn Sn tels que, pour tout x 2 ,

u(x) u(x0)+ < p; x x0 > + 1

2 < X(x x0); x x0 > +o(jx x0j

2): (2.7)

Remarque II.5 i) Trouver un sous-di¤érentiel d’ordre 2 consiste donc à mettre, à une erreur d’ordre supérieur près, une parabole sous le graphe de u, parabole qui colle

(25)

au graphe en x0.

ii) De la même manière, pour une fonction (s.c.s), on dé…nit le surdi¤érentiel d’ordre 2, noté D2;+u(x

0), en inversant l’inégalité.

iii) Si u est régulière alors D2; u(x0) =f(ru(x0); X); X 2 Sn telle que X D2u(x0)g. On a alors une nouvelle dé…nition des solutions de viscosité, équivalente à la précé-dente.

Dé…nition II.6 Soit un ouvert de Rn, et soit u :

! R,

i) On dit que u est une sous-solution de viscosité de (2.3) si u est (s.c.s) et si, pour tout x0 2 et tout (p; X) 2 D2;+u(x0), on a H(x0; u(x0); p; X) 0.

ii) De même, u est une sursolution de viscosité de (2.3) si u est (s.c.i) et si, pour tout x0 2 et tout (p; X) 2 D2; u(x0), on a H(x0; u(x0); p; X) 0.

iii) u est une solution de viscosité de (2.3) si elle est une sur et sous-solution de viscosité de (2.3).

2.4 Existence d’une solution par la méthode de Perron

Nous expliquons dans cette partie comment construire une solution de viscosité d’une équation lorsque l’on en connait une sous- et une sursolution et que l’on sait que l’équation possède un “principe de comparaison”. Cette méthode est connue sous le nom de méthode de Perron.

En fait, le procédé très général décrit ici permet, pratiquement sans hypothèse, de construire des solutions “très faible” : des solutions dites discontinues.

On s’intéresse à nouveau à l’équation

H(x; u(x); Du(x); D2u(x)) = 0 x2 ; (2.8)

où, dans toute cette partie, un ouvert de Rn et H : R Rn Sn ! R est supposée elliptique et continue.

(26)

Dé…nition II.7 On dit qu’une fonction u : ! R est une solution de viscosité discontinue de (2.8) si u est une sous-solution de (2.8) tandis que u est sursolution de cette équation.

Remarque II.8 Il ne manque donc à une solution discontinue que la continuité pour être une solution continue.

2.4.1 La méthode de Perron. Nous décrivons maintenant la méthode de Per-ron bien plus que le résultat-qui est assez formel-, il convient de retenir de cette partie la technique de construction d’une solution.

Théorème II.9 On suppose que u : ! R est une sous-solution de (2.8) tandis que v : ! R est une sursolution de cette équation. On suppose de plus u v dans . Alors il existe une solution de viscosité discontinue w : ! R telle que u w v.

2.4.2 Existence d’une solution de viscosité continue. A…n de récupérer la continuité de la solution, nous allons supposer que l’équation véri…e un principe de comparaison :

Dé…nition II.10 On dit que l’équation (2.8) véri…e un principe de comparaison dans si, pour toute sous-solution u et pour toute sursolution v de (2.8), si u v dans @ , alors u v dans .

Remarque II.11 Dans toute la suite, l’inégalité u v dans @ signi…e par abus de notation :

lim sup x0!x;x02

u(x0) lim inf x0!x;x02 v(x

0) 8x 2 @ :

Nous étudions maintenant le problème de Dirichlet pour l’équation (2.8). Soit g : @ ! R une fonction continue.

(27)

Corollaire II.12 Supposons que l’équation (2.8) véri…e un principe de comparaison dans . Supposons également qu’il existe deux applications u et v telles que

I u est une sous-solution de (2.8) et lim

x0!x;x02 u(x

0) = g(x)

8x 2 @ I v est une sursolution de (2.8) et

lim x0!x;x02 v(x

0) = g(x) 8x 2 @

Alors il existe une unique solution de viscosité w de l’équation (2.8) telle que w = g dans @ .

Autrement dit, le problème de Dirichlet 8

< :

H(x; u(x); Du(x); D2u(x)) = 0 x 2

u = g x2 @

(2.9)

possède une unique solution de viscosité.

Preuve. Par la méthode de Perron, on construit une solution discontinue w telle que u w v. Montrons d’abord que w = w = g sur le bord de . En e¤et, pour tout x 2 @ , on a

g(x) = lim x0!x;x02

u(x0) lim inf x0!x;x02 w(x0) w (x0) w (x) lim sup x0!x;x02 w(x0) lim x0!x;x02 v(x0) = g(x): D’ou w = w = g sur @ :

Comme w est une sursolution tandis que w est une sous-solution, et comme w = w sur @ , le principe de comparaison a¢ rme que w w ..L’inégalité inverse

(28)

étant toujours vraie, cela prouve que w = w , et donc que w est en fait une solution de viscosité continue.

L’unicité est une conséquence directe du principe de comparaison car, si w1 et w2 sont deux solutions du problème de Dirichlet, alors w1 = w2 sur le bord de , et comme w1 est une sous-solution et w2 est une sursolution, on a w1 w2. L’inégalité inverse est obtenue en intervertissant les rôles de w1 et w2.

2.5 Principe de comparaison

On dit que l’on a un principe de comparaison fort (pour les solutions discon-tinues) pour l’EDP (2.3) dans le cas d’un ouvert borné si l’énoncé suivant est vrai :

Si u est une sous-solution de viscosité de (2.3) et v est une sursolution de viscosité de (2.3) tel que u v sur @ alors

u v sur : (2.10)

Remarque II.13 Le principe de comparaison se formule aussi de manière équiva-lente : Si u est une sous-solution (s.c.s) de viscosité de (2.3) et v est une sursolution (s.c.i) de viscosité de (2.3) tel que u v sur @ alors

u v sur : (2.11)

On donne ci-dessous quelques exemples de fonctions H pour lesquels il y a un principe de comparaison fort. Des résultats généraux avec leurs preuves peuvent être trouvées dans Crandall, Ishii et P.L.Lions (ePL92) ou (Bar95).

On considère d’abord le cas où est un ouvert borné de Rn.

1. H(x; s; p; X) = r + F (x; p) 12tr( 0(x)X) avec > 0, : ! Rn d Lip-schitziennne et F : Rn

(29)

(A1) jF (x; p) F (y; p)j m(jx yj(1 + jpj)), où m(z) tend vers zéro quand z tend vers zéro.

2. H(x; s; p; X) = F (x; p) avec F : Rn

! R véri…ant (A1) et les hypothèses supplémentaires :

(A2) F (x; p) est convexe en p, pour tout x 2

(A3) Il existe une fonction ' 2 C1( ), continue sur , et > 0 telle que F (x; D'(x)) sur .

(30)

III.

Problèmes d’investissement optimal

Dans ce chapitre, nous exposons la structure de base d’un problème de contrôle optimale issu des mathématiques …nancières. De façon générale, un problème de contrôle se formule selon les caractéristiques suivantes :

Etat du système: On considère un système dynamique caractérisé par son état à tout instant. Le temps peut être discret ou continu. Nous considérons ici qu’il varie de façon continue et dans des conditions d’incertitude. L’état du système repré-sente l’ensemble des variables quantitatives constituant une description ‘exhaustive’ du système. Les variables sont supposées en nombre …ni à valeurs réelles. On no-tera Xt(!) l’état du système à l’instant t dans un scénario du monde ! 2 espace mesurable muni d’une probabilité P .

Une fois dé…ni l’état, il s’agit de décrire les lois d’évolution de cet état en fonc-tion du temps. L’applicafonc-tion t ! Xt décrit l’évolution du système. Cette évolution est fournie par un modèle probabiliste.

Contrôle : La dynamique Xt de l’état du système est in‡uencée par un contrôle que nous modélisons comme un processus (ut)t dont la valeur peut être décidée à tout instant t en fonction des informations disponibles à cet instant, c’est à dire que u est adapté par rapport une certaine …ltration, et prend ses valeurs dans un espace de contrôle U.

Critère de coût/performance: L’objectif est de minimiser (ou maximiser) sur les contrôles une fonctionnelle J (X; u). Dans cette thèse, on considérera des fonctionnelles de la forme

E Z T

(31)

La fonction f est la fonction de coût intégral, g est le coût …nal. On dé…nit alors la fonction valeur

v = inf

u J: (3.2)

Les objectifs seront de déterminer d’une part la fonction valeur, et d’autre part les in…ma pour ces critères et les contrôles optimaux, s’ils existent, qui les réalisent. Deux modélisations sont couramment utilisées : le critère d’espérance d’utilité et le critère moyenne-variance. Dans le premier critère reposant sur une théorie du choix en univers incertain, l’individu compare des revenus aléatoires dont il connait les lois de probabilité. Sous certaines conditions sur ses préférences, Von Neumann et Morgenstern montrent qu’elles peuvent se représenter par l’espérance d’une fonc-tion, dite d’utilité. En notant U la fonction d’utilité de l’individu, cela signi…e qu’un revenu aléatoire X sera préféré à un revenu aléatoire X0si E[U (X)] E[U (X0)]: Cette fonction d’utilité est croissante, ce qui exprime l’amour de la richesse de l’indi-vidu. Elle est aussi supposée usuellement concave pour formaliser l’aversion pour le risque de l’individu. En e¤et, si l’individu n’aime pas le risque, à un revenu aléatoire X, il préfère obtenir avec certitude l’espérance E[X] de ce revenu. Autrement dit, sa fonction d’utilité U véri…e

U (E[X]) E[U (X)]: (3.3)

En particulier, si le revenu X vaut x avec probabilité et x0 avec probabilité 1 , 2 [0; 1], on a

U ( x + (1 )x0) U (x) + (1 )U (x0); (3.4) ce qui traduit la propriété de concavité de U . Dans notre contexte, ce critère éco-nomique consiste à maximiser l’espérance de l’utilité de la richesse terminale à un horizon …ni

sup u

(32)

où U (x) est une fonction croissante et concave de R dans [ 1; +1[.

Le critère moyenne-variance, initié par Markowitz (Mar52), repose sur l’hy-pothèse que les préférences de l’individu ne dépendent que de la moyenne et de la variance de ses revenus aléatoires. Pour exprimer le fait que l’individu aime la richesse et a une aversion au risque, le critère moyenne-variance s’intéressera aux portefeuilles MV-e¢ caces, c’est à dire minimisant la variance à espérance donnée. Dans notre contexte, le problème d’optimisation s’écrit :

inf

u fV ar(XT) : E(XT) = mg; (3.6) qu’on peut ramener à la résolution d’un problème de la forme (3.5) pour une fonction d’utilité de la forme :

U (x) = x2; 2 R: (3.7)

3.1 Classe des modèles à volatilité constantes

On considère un marché …nancier avec un actif sans risque de processus de prix St0 strictement positif qui représente le compte d’épargne véri…ant, pour 0 t

s T; 8 < : dS0 s = rSs0ds; S0 t = C > 0; (3.8)

avec r > 0 représentant le taux d’intérêt. L’actif risqué représente une action, son prix Ss, pour 0 t s T est modélisé par la di¤usion solution de l’équation di¤érentielle stochastique suivante

8 < : dSs = Ssds + SsdBs; St= S > 0: (3.9)

Les paramètres de marché et sont respectivement le taux moyen de retour et la volatilité, il est supposé que r > 0 et > 0. Le processus stochastique Bs est un

(33)

Brownien standard dé…ni sur un espace probabilisé ( ; F; P ). Soit un investisseur qui investit à toute date s 2 [t; T ] dans ces actifs, soit Xs sa richesse à la date s composé de as unités d’actif risqué et bs unités d’actif sans risque,

Xs= asSs+ bsers: (3.10)

Soit us la fraction de sa richesse investie dans les actifs risqué et 1 us la fraction de sa richesse investie dans les actifs sans risque, on a as = usSXs

s et bs =

(1 us)Xs ers ; alors son processus de richesse auto…nançant évolue selon

dXs= (1 us)Xs ers d(e rs) + usXs Ss dSs: (3.11)

En utilisant les deux équations de prix (3.8, 3.9), on obtient

dXs = Xs[(r + ( r)us)ds + usdBs] : (3.12)

Le processus de la richesse doit satisfaire la contrainte

Xs 0; t s T: (3.13)

Remarque III.1 Lorsque us > 1, le terme (1 us)Xs dans (3.11) est négatif. Ce terme représente l’argent emprunté par l’investisseur ; et il a été supposé implicite-ment que l’argent est emprunté au même taux r:

Le processus de contrôle (us)t s T à valeurs dans U =] 1; +1[ est dit ad-missible s’il est Ft-progressivement mesurable, avec Fs = (Bv; t v s). On suppose que

E Z T

t

u2sdt < +1; (3.14)

et la contrainte (3.13) est satisfaite. On note par U la classe de tous les contrôles admissibles.

(34)

Pour u 2 U, on dé…nit la fonction de coût V (t; x; u) = E (X u T) p p j X u t = x : (3.15)

Le but de l’investisseur est de choisir la stratégie qui maximise la fonction de coût à un temps terminal …ni donné T . Nous dé…nissons

V (t; x) = sup u2U

V (t; x; u): (3.16)

L’argument d’optimalité de la programmation dynamique suggère que V (t; x) satis-fait l’HJB suivante @V @t + supu 1 2 2u2x2@2V @x2 + (r + ( r)u)x @V @x = 0; (3.17) avec la condition terminale suivante

V (T; x) = x p

p : (3.18)

On peut résoudre explicitement ce problème. En e¤et, on va chercher une solution de la forme V (t; x) = x p p c(t): On obtient alors @c @t + cp supu 1 2 2u2(p 1) + r + ( r)u = 0; (3.19)

avec c(T ) = 1: Le supremum est atteint en

ut = 2 r

(35)

Ainsi, la fonction valeur est donnée par V (t; x) = V (t; x; u ) = x p p exp " (T t)p r + ( r) 2 2 2(1 p) !# : (3.21)

Le résultat suivant a été prouvé dans Karatzas et al.(KLSS86).

Théorème III.2 La fonction valeur V 2 C1;2([0; T ]; ]0; +

1[) est l’unique solution croissante et concave de l’équation de Hamilton-Jacobi-Bellman

8 < : @V @t + supu n 1 2 2u2x2 @2V @x2 + (r + ( r)u)x @V @x o = 0; V (T; x) = xpp et V (t; 0) = 0; t2 [0; T ]: (3.22)

Le contrôle optimal us; t s T est donné sous la forme feedback us = bu(s; Xs) où bu : [0; T ] R+! R+ et

bu(t; x) = 2 r

(1 p); (3.23)

et Xs est la solution de(3.12) avec le contrôle us:

3.2 Classe des modèles à volatilité stochastique

On considère un modèle d’investissement optimal à volatilité stochastique. Le prix d’actif sans risque satisfait

8 < : dS0 s = rSs0ds; S00 = C 0 (3.24)

avec r > 0. Le prix d’actif risqué Ssest modélisé par la di¤usion qui résoud l’équation di¤érentielle stochastique suivante

8 < : dSs= Ssds + f (Ys)SsdBsx; S0 = S 0 (3.25)

(36)

avec r > 0; la volatilité f (:) est conduit par un autre processus stochastique Ys donné par 8 < : dYs = Ysdt + dBsy; Y0 = y 2 R: (3.26) Les processus Bx

s et Bsy sont deux mouvements Browniens indépendants dé…nis sur un espace probabilisé ( ; F; P ).

1.

Hypothèse i) La fonction de la volatilité f : R ! R+ satisfait la condition globale de Lipschitz et la condition de croissance polynomiale, i.e., pour tout y; y 2 R et K une constante positive

jf(y) f (y)j Kjy yj ; (3.27)

f (y) K(1 + y2): (3.28)

ii) Uniformément en y 2 R, la fonction f(y) satisfait, pour certaine constante `;

f (y) ` > 0: (3.29)

Les conditions (3.27) et (3.28) sont standards pour l’existence et l’unicité de la solution de l’équation (3.25), la condition (3.29) est nécessaire pour démontrer la croissance de la fonction valeur.

Soit un investisseur qui investit à toute date s 2 [t; T ], sa richesse à la date s est donnée par Xs. Soit us la fraction de sa richesse investie dans l’actif risqué.et 1 us la fraction de sa richesse investie dans l’actif sans risque. Alors le processus de la richesse évolue d’après le système suivant

8 < : dXs = Xs[(r + ( r)us)ds + f (Ys)usdBsx] ; Xt= x 0; 0 t s T: (3.30)

(37)

Le contrôle (us)t s T est dite admissible s’il est Ft-progressivement mesurable, avec Fs=f (Bxv; Byv); t v sg et satisfait la condition d’intégrabilité

E Z T

t

f2(Ys)u2sds < +1: (3.31)

On note par U la classe de tous les contrôles admissibles.

Le problème d’investissement optimal consiste à choisir une stratégie qui maxi-mise la fonction de coût à un temps terminal …ni donné T . En particulier le problème peut être décrit en terme de la fonction valeur par

V (t; x; y) = sup u2U V (t; x; y; u); (3.32) où V (t; x; y; u) = E (X u T) p p j Xt= x; Yt= y : (3.33) Par le principe de Bellman V (t; x; y) satisfait l’EDP non linéaire de Hamilton-Jacobi-Bellman suivante @V @t + supu n 1 2f 2(y)u2x2 @2V @x2 + (r + ( r)u)x @V @x o + +12 2 @@y2V2 y @V @y = 0; (3.34)

avec la condition terminale

V (T; x; y) = x p

p : (3.35)

Cherchons une solution de la forme

V (t; x) = x p p c(t; y): (3.36) Donc @c @t + pc supu 12(p 1)f 2(y)u2+ (r + ( r)u) + +12 2 @@y2c2 y @c @y = 0: (3.37)

(38)

avec c(T; y) = 1: Le supremum est atteint en

ut = r

f2(y)(1 p): (3.38)

Pour la preuve du résultat suivant, voir (Zar01).

Proposition III.3 La fonction valeur V est donnée par

V (t; x; y) = x p

p c(t; y);

où c : [0; T ] R ! R+ est l’unique solution de viscosité du problème 8 < : @c @t + 1 2 2 @2c @y2 y @c @y + pc r + ( r)2 2f2(y)(1 p) = 0; c(T; y) = 1: (3.39)

(39)

IV.

Analyse asymptotique

4.1 Equation de Poisson

Considérons l’opérateur donné par

L = n X i;j=1 aij(y) @2 @yi@yj + n X i=1 bi(y) @ @yi : (4.1)

Supposons que l’opérateur L est elliptique, i.e., n

X i;j=1

aij(y) i j > 0; (4.2)

pour tout y 2 Rn avec

6= 0:

Commençons d’abord par les lemmes suivants qui ont été prouvé dans (Kha04).

Corollaire IV.1 . Soit L l’opérateur adjoint de L. Alors le problème suivant

L = 0; Z

(y)dy = 1; (4.3)

possède une solution unique qui est la densité stationnaire du processus de la di¤u-sion.

Corollaire IV.2 Considérons l’équation de Poisson

(40)

L’équation (4.4) possède une solution unique si et seulement si Z

(y) (y)dy = 0:

Toute solution de (4.4) peut s’écrire sous la forme

= 0+ C; (4.5)

où 0 est la solution unique du problème

L = (y); Z

(y) (y)dy = 0; (4.6)

et C est une constante arbitraire.

Une propriété importante de la solution de l’équation (4.4) est la suivante : si on a pour une certaine constante C1 et un nombre entier n 6= 0

h i = 0 et j (y)j C1(1 +jyjn); alors on a

j (y)j C2(1 +jyjn); (4.7) pour une autre constante C2

Si n = 0, on a

j (y)j C2(1 + log(1 +jyj)): (4.8) Pour plus de détails voir (FPS00).

(41)

4.2 Processus d’Ornstein-Uhlenbeck

On se propose ici d’étudier le processus d’Ornstein-Uhlenbeck Y de dynamique 8 < : dYt = (m Yt)dt + dBt; Y0 = y: (4.9)

On a une expression explicite pour Yt:

Yt= m + (y m)e t+ Z t

0

e (t s)dBs; (4.10)

qui prouve que Yt suit la loi gaussienne de moyenne m + (y m)e t et de variance 2(1 e 2 t), où 2 = 2

2 ; Yt converge en loi lorsque t ! +1 vers la loi gaussienne de moyenne m et de variance 2:

Cette loi limite est aussi la loi stationnaire du processus Y : si Y0 suit la loi N (m; 2), alors, à toute date t 0;la variable aléatoire Y

tsuit la loi N (m; 2). Sa densité est donnée par

(u) = p1 2 exp

(u m)2

2 2 ; (4.11)

et, d’après le Corollaire IV.1, c’est l’unique solution de l’équation

LOU = 0; (4.12) où LOU = @ @y((m y):) + 1 2 2 @2 @y2; (4.13)

est l’adjoint de l’opérateur

LOU = 1 2 2 @2 @y2 + (m y) @ @y; (4.14)

(42)

4.2.1 Propriété de décorrélation, théorème ergodique. L’inverse de l’inten-sité de la force de rappel s’interprète aussi comme le temps caractéristique de décorrélation du processus d’Ornstein-Uhlenbeck, puisque si s t

cov(Ys; Yt) = 2 e (t s) e (t+s) : (4.15)

Par conséquent, si s et t tendent vers +1 de sorte que 4 = jt sj reste constant, la covariance limite de Yset Yt vaut 2e 4. Notons que c’est exactement la covariance de Yset Ytsous la loi stationnaire. A la limite, lorsque ce temps typique de déccoréla-tion est in…niment petit, i.e. est in…niment grand, les valeurs Yset Yt;même pour des temps voisin s et t, sont indépendantes (leur covariance est nulle et le processus Y est gaussien). C’est pour cette raison qu’on va utiliser des théorèmes ergodiques de type loi forte de grands nombres. Plus précisément, pour toute fonction g intégrable par rapport à la mesure stationnaire N (m; 2);on a

lim !+1 1 T t Z T t g(Ys)ds = Z +1 1 g(y) (y)dy: (4.16) En pratique, l’approximation 1 T t Z T t g(Ys)ds Z +1 1 g(y) (y)dy; (4.17)

ne sera valable que si T1t.

Dans le contexte des marchés …nanciers, cela signi…e que nous pourrons faire cette approximation que si nous sommes su¢ samment loin de l’échéance T .

4.3 Fonction valeur corrigée

Reprenons la classe du modèle à volatilité stochastique. On se place ici sous l’hypothèse T t. Sous cette hypothèse, Yt atteint sa loi limite N (m; 2) en

(43)

temps …ni. On se placera donc dans l’asymptotique

! 0; 2 = cte: Comme 2 = 2

2 ; cela signi…e que = v p

2 = vpp2 tend vers +1. Alors en faisant apparaître le paramètre in…niment petit , on peut traiter les processus Xset Ys dé…-nis respectivement dans (3.30) et (3.26) comme "variable lente" et "variable rapide". Nous considérons un problème de contrôle stochastique singulièrement perturbé sur un intervalle de temps …ni [0; T ] pour un système décrit par les variables (Xs; Ys), où le processus de la richesse Xs satisfait

dXs = Xs[(r + ( r)us)ds + f (Ys)usdBsx] ; X0 = x; (4.18) et dYs = Ysds + v p 2 p dBy s; Y0 = y: (4.19)

La fonction valeur est dé…nie par

V (t; x; y) = sup u2U V (t; x; y; u); (4.20) où V (t; x; y; u) = E (XT) p p j Xt = x; Yt = y : (4.21) La distribution de Ys est la distribution gaussienne N (0;

2

2 ). L’opérateur L0 est le générateur in…nitésimal du processus Ornestrin-Uhlenbeck Ys avec L0 dé…ni par

L0 = v2 @2 @y2 y

@

(44)

Le processus Ys a une distribution invariante N (0; v2) qui admet la densité (y) obtenu en résolvant l’équation adjointe

L0 = 0; (4.23)

où L0 est l’adjoint de L0. La densité est donnée explicitement par (y) = p 1

2 v2 exp

y2 2v2 :

Notons par h:i la moyennisation par rapport à cette distribution invariante hgi =

Z +1 1

g(y) (y)dy: (4.24)

Soit g une fonction bornée, d’après le théorème ergodique, on a

lim t!1 1 t Z t 0 g(Ys)ds =hgi : (4.25)

Notons que la volatilité possède la propriété de retour rapide à la moyenne, la constante > 0 est petite pour représenter le retour rapide à la moyenne. Main-tenant 1= est la mesure de la vitesse locale du processus et nous nous intéressons aux développements asymptotiques lorsque # 0. L’équation (3.39) devient

8 < : 1 L0c +L2c = 0; c (T; y) = 1; (4.26) où L2c = @c @t + p r + ( r)2 2f2(y)(1 p) c : (4.27) On se place dans les conditions où, pour tout > 0, l’EDP (4.26) a une unique solution. On va voir que cette solution c a une limite quand tend vers 0 et on va s’intéresser à la correction d’ordre 1 : c c0+p c1. Pour ce faire, on suppose

(45)

l’existence d’un développement en série de la forme c = c0+ p c1+ c2 + p c3+ ::: (4.28)

Substituant (4.28) dans (4.26), on trouve

0 = 1L0c0+ (L2c0+L0c2) + 1

p L0c1 (4.29)

+p (L2c1+L0c3) + :::

On obtient les expressions de cn; n 0, en égalant tous les termes dans (4.29) à zéro, ainsi on a 8 > > > < > > > : L0c0 = 0; L0c1 = 0; L0cn+L2cn 2= 0; 8n 2: (4.30)

Supposons que les fonctions c0; c1;; c2; ;répondant au problème ci-dessus, existent. Cherchons maintenant à calculer c0 et c1:

- On considère la première équation

L0c0 = 0: (4.31)

L’opérateur L0 est le générateur d’un processus de Markov ergodique et ne fait intervenir que la variable y, alors, d’après le Corollaire IV.2, toute fonction indépendante de y résoud cette équation. Par conséquent, nous cherchons des solutions qui sont indépendantes de y : c0 = c0(t), avec la condition terminale c0(T ) = 1.

- Ensuite, on considère

(46)

L2 ne fait pas intervenir de dérivée par rapport à y ; cependant, la variable y est présente à travers f (y); nous avons une équation de Poisson (en y) pour c2: La condition de moyennisation dans le Corollaire IV.2 est que L2c0 doit être centré par rapport à la distribution invariante du processus Yt, i.e.,

hL2c0i (t; y) = 0: Alors on a hL2c0i (t; y) = Z +1 1 (L2c0)(t; u) (u)du = Z +1 1 @c0 @t (t) + p r + ( r)2 2f2(u)(1 p) c0(t) (u)du = @c0 @t(t) + pc0 r + ( r)2 2(1 p) Z +1 1 1 f2(u) (u)du = @c0 @t(t) + pc0 r + ( r)2 2(1 p) 1 f2 : On dé…nit = p 1 h1=f2i; (4.34) alors c0 = exp " (T t)p r + ( r) 2 2 ( )2(1 p) !# :

- On calcule c1 de la même façon que c0

L0c1 = 0; (4.35) L2c1+L0c3 = 0; (4.36) on trouve c1 = exp " (T t)p r + ( r) 2 2 ( )2(1 p) !# : (4.37)

(47)

Alors la valeur corrigée d’ordre 1 de la fonction valeur est V (t; x) = x p p exp " (T t)p r + ( r) 2 2 ( )2(1 p) !# (4,38) +p x p p exp " (T t)p r + ( r) 2 2 ( )2(1 p) !# : 4.4 Validation asymptotique

Théorème IV.3 Soit le point (t; x; y) …xé où t < T . Supposons que la fonction de la volatilité f est bornée. Alors on a

jV (t; x; y) V (t; x)j = o( 1 ); (4,39) pour tout > 0.

Preuve. Nous introduisons quelque notation supplémentaire en premier. On dé…nit l’erreur Z dans l’approximation de c dans (4.28) par

Z = c0(t; y) + p

c1(t; y) + c2(t; y) + p

c3(t; y) c (t; y) (4.40)

où c (t; y) est la solution de (4.26), et

c0(t; y) = c0(t) et c1(t; y) = c1(t):

Posons

(48)

On peut écrire L Z = L c0+ p c1+ c2+ p c3 c (4.42) = 1L0c0+ 1 p L0c1 +(L0c2+L2c0) +p (L0c3 +L2c1) +( L2c2+ p L2c3) + L c : En utilisant (4.30), on obtient L Z = (L2c2+p L2c3)) = ( + p )L2c2 = : G (t; y): D’autre part, on a L2c0 = L2c0 hL2c0i = 1 2 p( r)2 (1 p) 1=f 2(y) 1= ( )2 c0; (4.43)

En utilisant (4.32) , nous pouvons choisir

c2(t; y) = 1 2

p( r)2

(1 p) c0(t) (y); (4.44) où (y) est la solution de l’équation de Poisson

L0 (y) = 1=f2(y) 1= ( ) 2 : (4.45) Alors on obtient : L2c2 = 1 4 p( r)2 (1 p) 2 c0(t) (y) 1=f2(y) 1= ( )2 : (4.46)

(49)

Comme f est supposée bornée. Alors en utilisant le changement t = t dans (4.19), on trouve que l’estimation des moments du processus Yt sont uniformes en , ainsi il existe une constante C qui peut dépendre de y telle que, pour t s T;

Et;y(j (Ys)j) C < 1: (4.47)

Au temps terminal T , nous avons

Z (T; y) = c2(T; y) + p c3(T; y) (4.48) = ( + p )c2(T; y) = (y)( + p )p( r)2 2(1 p) = H (y);

où nous avons utilisé la condition …nale c0(T ) = 1:

À cause de la régularité de G , H , et, utilisant la représentation probabiliste de la solution de l’équation (4.42), L Z = G avec la condition …nale H , on obtient

Z (t; y) = Et;y H (YT) exp Z T t p r + ( r) 2 2f2(Y s)(1 p) ds (4.49) Z T t G (s; Ys) exp Z s t p r + ( r) 2 2f2(Y v)(1 p) dv ds :

Alors, d’après (4.47), il existe une constante C telle que

jZ (t; y)j CEt;y j (Ys)j + Z T

t j (Y

s)j ds (4.50) C( + p ):

(50)

Par conséquent, pour (t; y) …xé avec t < T c0+ p c1 c = ( + p )c2(t; y) Z (t; y) (4.51) C( + p ):

Ce qui implique, pour un point …xé (t; x; y) avec t < T

jV (t; x; y) V (t; x)j C( + p ); (5.52) alors lim !0 jV (t; x; y) V (t; x)j 1 = 0; (5.53) pour tous > 0:

(51)

Bibliographie

Bar95. G. Barles. Solutions de viscosité des équations d’Hamilton-Jacobi. Mathé-matiques et applications. Springer-Verlag, 1995.

BB11. Abbes Benchaabane and Azzedine Benchettah. Optimal investment un-der stochastic volatility and power type utility function. Serdica Math.J., 37(3) :237–250, 2011.

BS73. F. Black and M. Scholes. The pricing of options and corporate liabilities. Journal of Political Economy, 81(3) :637–654, 1973.

EKQ95. Nicole El Karoui and Marie-Claire Quenez. Dynamic programming and pri-cing of contingent claims in an incomplete market. SIAM J. Control Optim., 33(1) :29–66, 1995.

ePL92. Crandall M. Ischii. H et P.L. Lions. User’s Guide to Viscosity Solutions of Second Order Partial Di¤erential Equations. Bull. Amer. Math. Soc. 1992. FPS00. Jean-Pierre Fouque, George Papanicolaou, and K. Ronnie Sircar. Derivatives

in …nancial markets with stochastic volatility. Cambridge University Press, Cambridge, 2000.

FPSS03. J.-P. Fouque, G. Papanicolaou, R. Sircar, and K. Solna. Singular perturba-tions in option pricing. SIAM J. Appl. Math., 63(5) :1648–1665 (electronic), 2003.

FPSS04. Jean-Pierre Fouque, George Papanicolaou, Ronnie Sircar, and Knut Solna. Maturity cycles in implied volatility. Finance Stoch., 8(4) :451–477, 2004. Fre97. Rüdiger Frey. Derivative asset analysis in models with level-dependent and

stochastic volatility. CWI Quarterly, 10(1) :1–34, 1997. Mathematics of …-nance, Part II.

FS06. Wendell H. Fleming and H. Mete Soner. Controlled Markov processes and viscosity solutions, volume 25 of Stochastic Modelling and Applied Probability. Springer, New York, second edition, 2006.

Hul90. A Hull, J. White. Pricing interest-rate-derivative securities. 3(4) :573–592., 1990.

Kha04. R. Z. Khasminskii. On averaging principle : an asymptotic expansion ap-proach. Math.Anal, 35, 2004.

KLSS86. Ioannis Karatzas, John P. Lehoczky, Suresh P. Sethi, and Steven E. Shreve. Explicit solution of a general consumption/investment problem. Math. Oper. Res., 11(2) :261–294, 1986.

Kry80. N. V. Krylov. Controlled di¤usion processes, volume 14 of Applications of Mathematics. Springer-Verlag, New York, 1980. Translated from the Russian by A. B. Aries.

(52)

Lio83. P.L. Lions. Optimal Control of Di¤usion Processes and Hamilton-Jacobi-Bellman Equations : Viscosity Solutions and Uniqueness. Communications in partial di¤erential equations. M. Dekker, Berlin, …rst edition, 1983. An introduction with applications.

LSD02. J. Liu, J. Sochacki, and P. Dostert. Singular perturbations and approxima-tions for integrodi¤erential equaapproxima-tions. In Di¤erential equaapproxima-tions and control theory (Athens, OH, 2000), volume 225 of Lecture Notes in Pure and Appl. Math., pages 233–244. Dekker, New York, 2002.

Mar52. H Markowitz. Portfolio selection. J. of Finance, (7) :77–91, 1952.

Mer71. Robert C. Merton. Optimum consumption and portfolio rules in a continuous-time model. J. Econom. Theory, 3(4) :373–413, 1971.

ØS05. Bernt Øksendal and Agnès Sulem. Applied stochastic control of jump di¤u-sions. Universitext. Springer-Verlag, Berlin, 2005.

Pha07. Huyên Pham. Optimisation et contrôle stochastique appliqués à la …nance, volume 61 of Mathématiques & Applications (Berlin) [Mathematics & Appli-cations]. Springer, Berlin, 2007.

Pro05. Philip E. Protter. Stochastic integration and di¤erential equations, volume 21 of Stochastic Modelling and Applied Probability. Springer-Verlag, Berlin, 2005. Second edition. Version 2.1, Corrected third printing.

Yon00. Zhou.X.Y Yong.J. Stochastic controls, Hamiltonian systems and HJB equa-tions. Springer-Verlag, 2000.

Zar01. Thaleia Zariphopoulou. A solution approach to valuation with unhedgeable risks. Finance Stoch., 5(1) :61–82, 2001.

(53)

Previous Up Next Article

Citations From References: 0 From Reviews: 0

MR2951411

37Lxx

(91B24 91B25 91B70)

Benchaabane, Abbes (F-ROUEN-RS)

;

Benchettah, Azzedine (DZ-ANNA-ANO)

Optimal investment under stochastic volatility and power type utility function. (English

summary)

Serdica Math. J.

37 (2011),

no. 3,

237–250.

{A review for this item is in process.}

c

(54)

Serdica Mathematical Journal

ISSN 1310-6600

S e rdica M athe matical J ournal is a q uarte rly publication of the Institute of M athe matics and Informatics at the B ulgarian A cade my of S cie nce s. It publishe s original re se arch pape rs and invite d surve y article s in all are as of M athe matics, pre fe rably acce ssible to a broad public. The submitte d manuscripts should not have be e n publishe d pre viously and should not be curre ntly unde r conside ration for publication e lse whe re . The y should be pre pare d in accordance with the Instructions for A uthors. Pape rs are publishe d afte r the re comme ndation of a me mbe r of the E ditorial B oard.

Serdica Bulgariacae Mathematicae Publicationes

Volumes 1-20 (1975-1994) Free access

V olume 21, 1995 Free access

V olume 22, 1996 Free access

V olume 23, 1997 Free access

V olume 24, 1998 Free access

V olume 25 , 1999 Free access

V olume 26, 2000 Free access

V olume 27, 2001 Free access

V olume 28, 2002 Free access

V olume 29, 2003 Free access

V olume 30, 2004 Free access

V olume 31, 2005 Free access

V olume 32, 2006 V olume 33, 2007 V olume 34, 2008 V olume 35 , 2009 V olume 36, 2010 V olume 37, 2011

V olume 38, 2012 Partially free access

Subscription:

S ubscription rate pe r volume (4 issue s) for 2012 (mail fre e ): 80 E UR . C he cks, mone y orde rs e tc. should be made out to the Institute of M athe matics and Informatics, B ulgarian A cade my of S cie nce s and should be se nt to the addre ss of the E ditorial O ffice .

Library exchange:

A ll inq uirie s about library e xchange should be addre sse d to the E ditorial O ffice .

Digital Repository at IMI-BAS

Editorial Office:

Serdica Mathematical Journal

Institute of Mathematics and Informatics

Acad. G. Bonchev Str., Bl. 8, 1113 Sofia, Bulgaria

E -mail: serdica@math.bas.bg

This page is maintaine d by Tatiana Parkhomenko e -mail: tania@math.bas.bg

C re ate d: 29 F e b 1996 by E mil K e le ve dz hie v, e -mail: keleved@math.bas.bg

Références

Documents relatifs