• Aucun résultat trouvé

PRINCIPE DU MAXIMUM POUR LES PROBLEMES DE CONTROLE STOCHASTIQUE: APPROCHE PAR LES PROBABILITES EQUIVALENTES

N/A
N/A
Protected

Academic year: 2022

Partager "PRINCIPE DU MAXIMUM POUR LES PROBLEMES DE CONTROLE STOCHASTIQUE: APPROCHE PAR LES PROBABILITES EQUIVALENTES"

Copied!
68
0
0

Texte intégral

(1)

MINISTERE DE L’ENSEIGNEMENT SUPERIEUR ET DE LA RECHERCHE SCIENTIFIQUE

UNIVERSITE MOHAMED KHIDER BISKRA

FACULTE DES SCIENCES ET DES SCIENCES DE L’INGENIEUR DEPARTEMENT DE MATHEMATIQUES

MEMOIRE

présenté par

Saliha BOUGHERARA

pour l’Obtention du Grade deMagister en Mathématiques Option: Analyse et Modèles aléatoires

PRINCIPE DU MAXIMUM POUR LES PROBLEMES DE CONTROLE STOCHASTIQUE:

APPROCHE PAR LES PROBABILITES EQUIVALENTES

Soutenu le :17/05/2005

devant le jury composé de :

AbdelhakimNECIR MC Univ. Batna Président

BrahimMEZERDI Pr Univ. Biskra Rapporteur

KhaledMELKEMI MC Univ. Biskra Examinateur

SeïdBAHLALI Dr CC Univ. Biskra Examinateur

(2)

Résumé

Dans ce mémoire, notre intérêt s'est focalisé sur les problèmes de contrôle

stochastiques où la dynamique vérifie une équation différentielle stochastique de type Itô. Au premier chapitre, nous avons introduit les différents problèmes de contrôle stochastique et donné quelques exemples. Au deuxième chapitre, nous avons étudié en détails le principe de Bellmann qui donne lieu à l'équation de Hamiton Bellmann Jacobi. Cette équation ne possède pas en général des solutions régulières. Nous nous sommes donc intéressés à la notion de solutions de viscosité introduite par Grandall et Lions. On montre en particulier que la fonction de valeur est l'unique solution de viscosité de l'équation d' HJB. Au troisième chapitre, nous nous sommes intéressés aux conditions nécessaires d'optimalité de type Pontriagin par des approches de Haussmann et Kushner.

Mots clés. Equation différentiel stochastique, contrôle stochastique, principe du maximum, programmation dynamique.

Processus stochastiques et de Contrôle optimal

AMS Subject Classification. Primary 93E20, 60H30. Secondary, 60G44, 49N10.

(3)

ﺺﺨﻠﻣ

ﻲﻓ

ﻞﻤﻌﻟا اﺬه ﻞﺋﺎﺴﻤﺑ ﻢﺘﻬﻧ

رﺎﺒﺘﺧﻻا

ﺔﻴﺋاﻮﺸﻌﻟا

ﻦﻳأ ﺔﻟدﺎﻌﻤﻟا ﻖﻘﺤﺗ ﺔﻴﻜﻴﻣﺎﻨﻳﺪﻟا ﺔﻴﻠﺿﺎﻔﺘﻟا

ﺔﻴﺋاﻮﺸﻌﻟا ﻮﺘﻳا ﻞﻜﺷ ﻦﻣ

.

ﻞﺼﻔﻟا وﻷا

ل : ﺎﻨﻓﺮﻋ عاﻮﻧأ

و رﺎﺒﺘﺧﻻا ﻞﺋﺎﺴﻣ ﺎﻨﻴﻄﻋأ

ﺾﻌﺑ ﺔﻠﺜﻣﻷا

ﺎﻬﻴﻠﻋ .

ﻲﻓ

ﻲﻧﺎﺜﻟا ﻞﺼﻔﻟا :

ﺎﻨﺳرد

سﺎﺳأ ﺢﻤﺴﻳ يﺬﻟا نﺎﻤﻠﺑ

ءﺎﻄﻋﺈﺑ ﻦﺘﻠﻴﻣﺎه ﺔﻟدﺎﻌﻣ

– نﺎﻤﻠﺑ –

ﻲﺑﻮآﺎﺟ

و ه ﻩ ﺬ ﻢﻈﺘﻨﻣ ﻞﺣ ﻞﺒﻘﺗ ﻻ ﺔﻟدﺎﻌﻣ

ﺎﻣﻮﻤﻋ . ﻦهﺮﺒﻧ و ا

ن ﺪﻴﺣﻮﻟا ﻞﺤﻟا ﻲه ﺔﻤﻴﻘﻟا ﺔﻟاﺪﻟا

ﻲﺟوﺰﻠﻟأ

ﺔﻟدﺎﻌﻤﻟ ﺔﻘﺑﺎﺴﻟا

.

ﻞﺼﻔﻟا ﺮﻴﺧﻷا

: ﻢﺘﻬﻧ طوﺮﺸﻟﺎﺑ ﻟا

ﺞﻨﻳﺮﺘﻧﻮﺑ ﻞﻜﺸﻟا ﻦﻣ ﺔﻴﻟﺎﺜﻤﻠﻟ ﺔﻣزﻼ نﺎﻤﺳﻮه تﺎﺒﻳﺮﻘﺗ ﺔﻄﺳاﻮﺑ

ﺮﻨﺷﻮآ و .

(4)

Abstract

In this work, our interest was focalized on stochastic control problems where the dynamic satisfies a stochastic differential equation of the Ito type. In the first chapter, we have introduced various control problèms and gave some exemples. In the second one, we studied in some detail the Bellmann principe which gives the well known Hamiton Bellmann Jacobi equation. This equation does not have in general regular solutions. We have been interested in viscosity solutions introduced by Grandall and Lions. We show in particular that the value funtion is the unique viscosity solution of the HJB equation. In the last chapter, we studied the necessary conditions for

optimality of the pontriagin type both by Haussmann and Kushnner approachs.

Key words. Stochastic differential equation, stochastic control, maximum princple, dynamic programming.

Stochastic Processuss and control problèms

AMS Subject Classification. Primary 93E20, 60H30. Secondary 60G44, 49N10.

(5)

Table des matières

0.1 Introduction . . . 2

1 Introduction aux problèmes de contrôle stochastique 5 1.1 Propriété de la fonction valeur . . . 5

1.1.1 Introduction . . . 5

1.1.2 Position du problème . . . 6

1.1.3 Principe d’optimalité de la programmation dynamique 7 1.1.4 Continuité et propriété de Lipschitz de la fonction valeur 7 1.1.5 Exemples . . . 15

1.2 Programmation dynamique et solutions de viscosité . . . 16

1.2.1 Equation d’Hamilton-Jacobi -Bellman . . . 17

1.2.2 Application : Problème de Merton en horizon …ni . . . 28

1.3 Solution de viscosité . . . 31

1.3.1 Notion de solutions de viscosité . . . 31

2 Principe du maximum : approche par les probabilités équi- valentes 35 2.1 Introduction . . . 35

2.2 Théorème de Guirsanov et notion de solution faible . . . 35

2.3 Position du problème et hypothèses . . . 38

2.4 Principe du maximum . . . 42

2.5 Processus adjoint . . . 45

3 Principe du maximum stochastique : Approche par les solu- tions fortes 47 3.1 Introduction . . . 47

3.2 Position du problème et Hypothèses . . . 48

3.3 Perturbation et estimation des solutions . . . 50

3.4 Principe du maximum . . . 57

3.5 Equation adjointe . . . 60

(6)

0.1 Introduction

On considère des systèmes dynamiques évoluant sur un intervalle …ni [0; T], dirigés par un mouvement Brownien dé…ni sur un espace de probabilité ( ;F; P) muni d’une …ltration(Ft)0 t T.

On appelle contrôle admissible tout processus = ( t)t2R

+ mesurable et (Ft)t2R

+-adapté à valeurs dans A: On note U l’ensemble de tous contrôles admissibles :

U=n

: [0; T] !A, = ( t)t2R

+mesurable et (Ft)t2R

+ adaptéo :

L’état du système est gouverné par une equation di¤érentielle stochastique d’Itô, de la forme :

dXs =b(s; Xs; s)ds+ (s; Xs; s)dWs; s2]0; T]

X0 =x; x2Rn (1)

où b et sont deux fonctions boréliennes.

Le problème de contrôle stochastique consiste à optimiser un critère de performance.

Pour tout contrôle admissible ;on introduit une fonction de coût J( ).

(a)Horizon …ni :

J(t; x; ) =Ex Z T

t

f(s; Xs; s)ds+g(XT) ;

pour t T <1 etX est la solution de equation di¤érentielle stochastique (1).

(b)Horizon in…ni :

J(x; ) = Ex 2 4

Z1 0

e sf(s; Xs; s)ds 3 5:

Ex : l’espérance par rapport à la loi de probabilité Px du processus (Xs) solution de (1).

L’objet du contrôle optimal est de minimiser la fonction de coût J (ou de le maximiser s’il s’agit d’un gain ) sur l’ensemble de tous les contrôle admissibles.

(7)

La fonction de valeur associèe à ce problème de contrôle est dé…nie par : (s; x) = inf

2AJ(s; x; ):

La solution X = (Xt; s t T) de l’équation (1) est appelée réponse au contrôle .

Le couple(X ; ) est dit optimal si :

(s; x) = J(s; x; ):

Dans ce mémoire nous nous intéressons à deux approches pour aborder la résolution des problèmes de contrôle, la première approche est le principe de la programmation dynamique qui est basée sur le fameux principe de Bellman. L’idée de cette approche est la suivante : si on considère le contrôle :

es = (

s; t s t+h

s; t+h s T;

le principe d’optimalité de Bellman dit que si l’on choit s sur [t; t+h] de façon à minimiser l’expression J(t; x;e), on obtient ainsi le contrôle s op- timal. En appliquant formellement ce principe, on trouve deux équations praboliques et elliptiques non linéaire, de la forme :

L’équation de Bellman parabolique dans le cas où l’horizon est …ni :

@

@t (t; x) + sup

a2A

[ a (t; x) f(a; x)] = 0; (t; x)2[0; T[ Rn: L’équation de Bellman elliptique dans le cas où l’horizon est in…ni :

(x) + sup

2A

[ a (x) f(x; a)] = 0; x2Rn;

a désigne l’opérateur di¤érentiel du second odre associée à la di¤usion X :

aw=b(x; a)rxw+ 12tr (x; a) 0(x; a)D2xw :

La deuxième approche majeure pour aborder les problèmes de contrôle est le principe du maximum de Pontriagin, connu aussi sous le nom de conditions nécessaires d’optimalité. L’idée de cette approche consiste à dire que si un contrôle est optimal parmi tous les contrôles admissibles, alors en utilisant l’approche de Lagrange en calcul des variations la dérivée de la fonctionnelle J( )par rapport à un certain paramètre de perturbation doit être négative.

(8)

En gros, ce principe consiste à introduire un processus adjoint solution d’une certaine équation di¤érentielle rétrograde et d’une inégalité variationnelle. La première contribution importante dans cette direction a été e¤ectuée par Ku- shner, Bismut; Bensoussan, pour des problèmes où l’ensemble des contrôles admissibles est constitué de processus adaptés à une …ltration …xée à l’avance et l’utilisation des solutions trajectorielles de l’équation d’état. La deuxième avance notable dans cette théorie est celle développée par Haussmann; où il considère la classe des contrôles feed-back (processus mesurables par rapport à la …ltration naturelle de l’état du système) et emploie les techniques pro- babilistes telles que la transformation de Guirsanov et les techniques de la théorie des martingales.

Ce mémoire est constitué de troix chapitres :

Le premier chapitre consiste en une introduction aux problème de contrôle.

On dé…nit la notion de fonction valeur et ses propriétés. Aussi, nous décri- vons de manière formelle comment le principe de la programmation dyna- mique permet d’obtenir les relations que doit satisfaire la fonction valeur. En utilisant le principe de la programmation dynamique, on trouve la forme de l’équation de Hamilton- Jacobi- Belman. On montre que la fonction valeur satisfait l’équation de HJB. En particulier, nous étudions les solutions de viscosité.

Dans le deuxième chapitre qui constitue l’essentiel de notre travail, nous nous sommes intéressés au principe du maximum pour établir des conditions nécessaires d’optimalité. L’accent sera mis sur l’approche des probabilités équivalentes et le théorème de Guirsanov.

Le troisième chapitre est consacré à l’étude du principe du maximum dans le cas où les coe¢ cients sont assez réguliers et les contrôles admissibles sont adaptés à une …ltration …xée à l’avance. En particulier, on trouve une forme explicite du processus adjoint.

(9)

Chapitre 1

Introduction aux problèmes de contrôle stochastique

1.1 Propriété de la fonction valeur

1.1.1 Introduction

Le problème de contrôle stochastique consiste à optimiser un critère de performance d’un système dynamique véri…ant une équation di¤érentielle stochastique d’Itô (E.D.S) :

dXt=b(Xt; t)dt+ (Xt; t)dWt. (1.1) L’objectif d’un problème de contrôle est de minimiser un critère et de trouver un contrôle optimal sur l’ensemble de touts les contrôles admissibles.

Le coût est donné sous la forme : J(s; x; ) =E

Z T s

f(t; Xt; t)dt+g(XT) ; où g est une fonction du coût …nal,X est une solution de (1.1).

On appelle contrôle admissible tout processus = ( t)t2R

+ mesurable et (Ft)t2R

+-adapté à valeurs dans A: On note U l’ensemble de tous contrôles admissibles :

U=n

: [0; T] !A, = ( t)t2R

+mesurable et (Ft)t2R

+ adaptéo : Aussi est une application mesurable :

: ! F([0; T]; A);

(10)

où F([0; T];A) désigne l’ensemble des fonctions de[0; T]vers A: Pour chaque x2Rn; s’il existe un contrôle qui véri…e :

(x) = inf

2AJ(x; ) = J(x; );

il est appelé contrôle optimal et est appelée le coût optimal, la fonction valeur ou performance optimale.

Ces systèmes modélisent les problèmes de la vie courante, particulière- ment dans des problèmes d’économie et de …nance.

Les problèmes de contrôles stochastiques optimaux ont été étudiée par plusieurs auteurs, entre autres, Haussmann[9;10;11;12;13], Bensoussan[3;4], Kushner [14;15;16] et Bismut.[5;6]:

1.1.2 Position du problème

Soient ; F; (Ft)t 0; P espace de probabilité …ltré et A un Borélien de Rk:On considère :

L’état du système est décrit par l’équation di¤erentielle stochastique contrô- lée c’est à dire l’état du système est in‡uencè par un contrôle :

8<

:

dXs=b(Xs; s)ds+ (Xs; s)dW s; s2]0; T]:

X0 =x, x2Rn;

(1.2) où W un mouvement brownien d-dimentionnel, où :

Le coùt à minimiser est dé…ni par :

E 2 4 ZT

0

f(Xs)ds+g(XT) 3 5;

dans le cas d’un horizon …ni et E

Z 1

0

e sf(Xs)ds ;

dans le cas où l’horizon est in…ni.

où >0est un facteur d’actualisation, f etg sont des fonctions dansR.

(11)

On dé…nit la fonction de valeur comme suit : Horizon …ni :

(t; x) = inf

2AE Z T

0

f(Xs; s)ds+g(XT) : Horizon in…ni :

(x) = inf

2AE Z 1

0

e Bsf(Xs; s)ds :

1.1.3 Principe d’optimalité de la programmation dy- namique

En appliquant formellement le principe de Bellmann on obtient les équa- tions de la programmation dynamique.

Théorème 1-1 : 1) Horizon …ni :

Soit (t; x) 2 [0; T] Rn: Pour tout temps d’arrêt à valeur dans [t; T], on a :

(t; x) = inf

2AE Z

0

f(Xst;x; s)ds+ ; Xt;x : 2)Horizon in…ni :

Soit x2Rn: Pour tout temps d’arrêt à valeur dans [0;+1[, on a : (x) = inf

2AE Z

0

e sf(Xsx; s)ds+e (Xx) :

1.1.4 Continuité et propriété de Lipschitz de la fonc- tion valeur

Lemme 1-1 : (Gronwall)

Soit g une fonction continue telle que pour toutt 0, on a : g(t) +

Z t 0

g(s)ds; avec 0, 0 Alors :

g(t) exp ( t):

(12)

Supposons que les fonctions b et sont Lipschitz en x, uniformément en a 2A. Dé…nissons alors la constante …nie positive 0 :

0 = sup

x6=y;a2A h

(b(x;a) b(y;a))0(x y)i +12trh

( (x;a) (y;a))( (x;a) (x;a)0 i

jx yj2 :

Lemme 1-2:

1)Il existe C 0( dépendant de T )telle que pour tout t2[0; T]; s2[t; T]; x2Rn; 2A:

E Xst;x x 2 C(s t): 2)Pour tout t 0; s t; x; y 2Rn; 2A:

E Xst;x Xst;y e 0(s t)jx yj: Preuve : 1) On a :

dXs=b(Xs; s)ds+ (Xs; s)dWs; où sous forme intégrale :

Xst;x =x+ Z s

t

b(Xut;x; u)du+ Z s

t

(Xut;x; u)dWu; d’où :

Xst;x x= Z s

t

b(Xut;x; u)du+ Z s

t

(Xut;x; u)dWu: Appliquant l’inégalité (a+b)2 2a2 + 2b2, on a :

Xst;x x 2 2 Z s

t

b(Xut; x; u)2du

2

+ 2 Z s

t

(Xut; x; u)dWu

2

: Par passage à l’espérance et puisque b et sont bornées, on obtient :

E Xst;x x 2 2E 2 4 Zs

t

b(Xut;x; u 2du+E Zs

t

(Xut;x; u)dWu

23 5 2C(s t);

où E (Ws Wt)2 = 2 (s t) ( voir B.Øksendal [18])

(13)

Donc

E Xst;x x 2 2C(s t):

2)Posons Zs =Xst;x Xst;y; s t:

On a :

dXs=b(Xst;x; s)ds+ (Xst;x; s)dWs: dXs=b(Xst;y; s)ds+ (Xst;y; s)dWs: On utilise les formules dXst;x et dXst;y; on obtient :

8<

:

dZs = (b(Xst;x; s) b(Xst;y; s))ds+ ( (Xst;x; s) (Xst;y; s))dWs Zt=x y:

Par la formule d’Itô, on obtient : Zs =Zt+

Z s t

[ (Xut;x; u) (Xut;y; u)(Xut;x Xut;y) ]dWu

+ Z s

t

[(b(Xut;x; u) b(Xut;y; u)(Xut;x Xut;y) ]du

+1

2tr ( (Xut;s; u) (Xut;y; u)) ( (Xut;x; u) (Xut;y; u))0du : En passant aux éspérances et en appliquant l’inégalité (a+b)2 2a2+ 2b2; on obtient :

EjZsj2 2jx yj2+E( 2 Z s

t

(b(Xut;x; u) b(Xut;y; u))Zudu+

tr( (Xut;x; u) (Xut;y; u)) ( (Xut;x; u) (Xut;y; u))0)dui ):

On a : E

2 4 Zs

t

( (Xut;x; u) (Xut;y; u)(Xut;x Xut;y))dWu 3 5= 0;

car c’est une intègrale d’Itô donc une martingale:

(14)

Par dé…nition de 0, on trouve : (b(x; a) b(y; a))0(x y) + 1

2tr ( (x; a) (y; a)) ( (x; a) (y; a))0

0jx y j2; d’où :

2h

b(x; a b(y; a))0(x y) +tr( (x; a) (y; a) ( (x; a) (y; a)0)i 2 0jx yj2:

Donc :

EjZsj2 2jx yj2+E Z s

t

2 0jZuj2du:

On pose 4(s) = EjZsj2; on a :

4(s) jx yj2+ 2 0 Z s

t 4( )d :

D’après le lemme de Gronwall avec 0 et 0; où et sont des constantes. Ceci implique que :

4(s) e2 0(s t)jx yj2; c’est à dire :

EjZsj2 e2 0(s t)jx yj2; donc par Cauchy-Schwarz :

E Xst;x Xst;y e 0(s t)jx yj:

On a le résultat de continuité de la fonction valeur par rapport aux va- riables de temps et d’espace.

Proposition 1-1 1) Horizon …ni :

Il existe une constante C 0( dépendant de T ),

(15)

telle que pour tout s, t 2[0; T] etx, y2Rn : j (t; x) (s; y)j Ch

jt sj12 +jx yj i : 2)Horizon in…ni :

Il existe une constante C 0telle que pour tout x; y 2Rn :

j (x) (y)j 8<

:

Cjx yj 0 si 0< < 0:: Cjx yj si 0: Preuve :

1) a)Lipschitz enx : En notant que jinfiai infibij supijai bij; on a :

j (t; x) (t; y)j= inf 2AE Z T

t

f(Xst;x; s)ds+g(XTt;x)

inf 2AE Z T

t

f(Xst;y; s)ds+g(XTt;y) ; obtient :

j (t; x) (t; y)j sup 2AE

Z T t

jf(Xst;x; s) f(Xst;y; s) jds+E g(XTt;x) g(XTt;y) :

Puisque f etg sont Lipschitzs, on a : j (t; x) (t; y)j sup

2A

E Z T

t

Xst;x Xst;y ds+E XTt;x XTt;y ; et d’après le lemme 1-2, on trouve :

j (t; x) (t; y)j Cjx yj Z T

t

e 0(s t)ds+e 0(T t) ; donc :

j (t; x) (t; y)j Cjx yj:

b) Hölder 1 2ent : Soit0 t < s T: D’après le principe de la program-

(16)

mation dynamique avec =s; on a : (t; x) = inf

2AE 2 4 Zs

t

f Xut;x; u du+ (s; Xst;x) 3 5

En ajoutant et en retranchant le terme (s; x);on trouve : j (t; x) (s; x)j= inf

2AE Z s

t

f(Xut;x; u)du+ (s; Xst;x) (s; x) : Par suite, on a :

j (t; x) (s; x)j sup 2AE

Z s

tjf(Xut;x; u) jdu+ sup 2AEj( (s; Xst;x) (s; x)j: Comme f est borné et d’après l’inégalité du 1) a), on obtient :

j (t; x) (s; x)j C(s t) + sup

2A

E Xst;x x ; et d’après le lemme 1-2, on a :

j (t; x) (s; x)j C(s t) +C(s t)12 ; donc pour tout s; t2[0; T]; x; y 2Rn; on a :

j (t; x) (s; x)j C(s t)12 : 2) Puisque :

(x) = inf

2AE

Z +1 0

e sf(Xsx; s)ds ; et

(y) = inf

2AE

Z +1 0

e sf(Xsy; s)ds : On a pour tout T >0 :

j (x) (y)j sup

2A

E Z +1

0

e sjf(Xsx; s) f(Xsy; s)jds;

(17)

donc :

j (x) (y)j sup 2AE Z T

0

e sjf(Xsx; s) f(Xsy; s)jds

+ sup 2AE Z +1

T

e s[f(Xsx; s) f(Xsy; s) ]ds:

Comme f est Lipschitz et bornée, on en déduit d’après le lemme 1-2. : j (x) (y)j Cjx yj

Z T 0

e( 0 )sds+Ce T:

* 1ère cas : > 0( >0): Alors :

j (x) (y)j C 1 e ( 0)T

0

jx y j+Ce T; et faisant tendre T vers l’in…ni, on obtient :

j (x) (y)j Cjx yj:

* 2ème cas : 0< 0: Alors :

j (x) (y)j Cjx yj e( 0)T 1

0

+Ce T; 8T > 0:

avec la convention que le terme entre crochet est égale à 1 lorsque = 0: On minimise par rapport à T à :

Cjx yj e( 0)T 1

0

+Ce T; le minimun étant atteint pour:

e 0T =

jx yj; en prenant le signe logaritme, on aura :

lne 0T = ln

jx yj; puis on a :

0T = ln

jx yj;

(18)

donc :

T = 1

0

lnjx yj: On a aussi :

e( 0 )T 1

( 0 ) = e 0Te T 1 ( 0 ) ; substituant T par 1

0

lnjx yj;on a : e( 0 )T 1

( 0 ) = jx yj e 0lnjx yj 1

( 0 ) ;

puis on a :

e( 0 )T 1

( 0 ) = jx yj jx yj

0 1

( 0 ) ;

donc :

e( 0 )T 1

( 0 ) = jx yj

0 0

1

( 0 ) :

Alors pour :

(1) T = 1

0

ln jx yj

(2) e( 0)T 1

0

= jx yj

0

0 1

0

; on a :

j (x) (y)j C (

jx yj

"

(jx yj) 00 1

0

#

+ jx yj 0 )

; donc :

j (x) (y)j Cjx yj 0 :

Si jx yj> , alors comme est bornée, il existeC >0 tel que : j (x) (y)j C 0;

donc :

j (x) (y)j Cjx yj 0 ;

(19)

1.1.5 Exemples

Exemple 1-1 : quand vendre un actif ?

Soit une personne possédant un actif ou une ressourse ( maison, ac- tion,etc...) qu’elle déside vendre. Le prix de cet actif évolue selon :

dXt=rXtdt+ XtdWt:

Supposons qu’à la vente de l’actif, il y a un coût …xe de transaction a >0:

Ainsi, si la personne décide de vendre l’actif à la date t, le béné…ce net de cette vente sera :

e t(Xt a);

où >0 est le facteur d’in‡ation.

Le problème est alors de trouver un temps d’arrêt qui maximise le béné…ce net espéré :

sup e r(Xr a) ; et de calculer le pro…t espéré.

Exemple 1-2 : Problème du choix de portefeuille de Merton (Horizon

…ni ).

On considère un marché …nancier à deux actifs, l’un sans risque repré- sentant le compte d’épargne et l’un risqué, typiquement représenté par une action. Le processus de prix de l’actif sans risque évolue selon :

dSt0 =rSt0dt;

et celui de l’actif risqué :

dSt= Stdt+ StdWt:

Ici , et sont des constantes avec > 0. Soit un investisseur ou agent qui investit dans ces deux actifs, avec une proportion de sa richesse t dans l’actif risqué et donc1 tdans l’actif sans risque à la date t: Son processus de richesse évolue selon :

dXt= (1 t)Xt

St0dSt0+ tXt

StdSt: En substituant dSt0 parrSt0dt; on trouve :

dXt = ( tXt + (1 t)Xtr)dt+ tXt dWt:

(20)

Le contrôle est le processsus à valeur dansR:Le critère économique consiste à maximiser l’espérance de l’utilité de la richesse terminale à un horizon …ni T < +1:

supE[U(XT)];

où U(x) est une fonction d’utilité, par exemple U(x) = xp p, 0< p <1:

1.2 Programmation dynamique et solutions de viscosité

Dans ce paragraphe, en appliquant formellement le principe de la pro- gramation dynamique aussi appelè le principe de Bellman, on peut montrer que la fonction de valeur associée à un problème de contrôle stochastique à temps continu satisfait à une EDP non linéaire appelé équation de Hamilton- Jacobi-Bellman.

L’état du système dynamique est une solution d’une équation di¤érentielle stochastique du type Itô, de la forme :

( dXs=b(s; Xs; s)ds+ (s; Xs; s)dWs; s2]0; T]

X0 =x; x2Rn:

où Ws désigne un mouvement brownien dé…ni sur un espace de probabilité ( ;F; P) muni d’une …ltration (Ft)0 t T. L’ensemble de tous les contrôle admissibles est noté U.

On dé…nit la fonction de coût : (a) Horizon …ni :

J(t; x; ) =Ex Z T

t

f(s; Xs; s)ds+g(XT) ; où x la condition initail ett T <1:

(b) Horizon in…ni :

J(x; ) =Ex Z 1

0

e sf(s; Xs; s)ds :

(21)

1.2.1 Equation d’Hamilton-Jacobi -Bellman

1)Horizon …ni :

Soit (t; x) 2 [0; T] Rn et un contrôle = ( t)t à valeur dans A; on considère l’évolution de l’état du système :

dXs=b(Xs; s)ds+ (Xs; s)dWs; t s T: (1.3) Soit la fonction de coût :

J(t; x; ) = E Z T

t

f(Xst;x; s)ds+g(XTt;x) : On pose :

(t; x) = infJ(t; x; ; ):

2) Horizon in…ni :

Soit x2Rn; et un contrôle = ( t)t 0 à valeur dansA; on a la fonction de coût :

J(t; x; ) = E

Z +1 0

e sf(Xsx; s)ds : On pose :

(x) = infJ(t; x; ; );

le principe de la programmatrion dynamique appelé aussi principe de Bellmann est basé sur l’observation fondamentale suivante : Si une trajec- toire est optimal alors elle est optimal à chaque instant, c’est à dire si on commence par un autre point on ne peut faire mieux que de suivre la trajec- toire optimale.

Considérons le contrôle es =

(

s; t s t+h

s; t+h s T; (1.4)

le principe d’optimalité de Bellman dit que si l’on choit s sur [t; t+h] de façon à minimiser l’expression J(t; x;e), on obtient ainsi le contrôle s op- timal.

Proposition 1-2 : 1)Horizon …ni :

(22)

La fonction de valeur dé…nie par : (t; x) = inf E

Z T t

f(Xst;x; s)ds+g(XTt;x) (t; x)2[0; T] Rn; véri…e :

@

@t(t; x) + sup

a2A

[ a (t; x) f(x; a)] = 0; 8(t; x)2[0; T[ Rn:

(T; x) =g(x); x2Rn:

Cette équation est appelée équation de la programmation dynamique ou l’équation de Hamillton-Jacobi-Bellman (H.J.B).

2)Horizon in…ni

La fonction de valeur dé…nie par (x) = infE

Z +1 0

e sf(Xsx; s)ds ; véri…e :

(x) + sup

a2A

E[ a (x) f(x; a)] = 0; 8x2Rn:

Cette équation est appelée équation de la programmation dynamique ou l’équation de Hamillton-Jacobi-Bellman (H.J.B).

Preuve: 1) Horizon …ni :

*) En premier, on montre que : (t; x) E

Z t+h t

f(Xst;x; a)ds+ (t+h; Xt+ht;x ) : Soit la fonction de coût :

J(t; x; ) = E Z T

t

f(Xst;x; s)ds+g(XTt;x) : On pose :

(t; x) = infJ(t; x; ; ):

Pour connu le contrôl s, pours 2[t+h; T], on obtient :

(t+h; x(h)) = J(t+h; x(h); ) (1.5)

= E

Z T t+h

f(Xst+h;x(h); s)ds+g(XTt+h;x(h))nXt+ht;x =x(h) ;

(23)

où a l’instant t+h, l’état du système devient x(h) =Xt+ht;x : Par unicité du ‡ot de l’EDS, Xst;x =Xt+h;X

t;x

s t+h pour s > t+h et d’après (1.4), on trouve :

J(t; x;e) = E

Z t+h t

f(Xst:x; s)ds+ Z T

t+h

f(Xt+h;X

t+x

s t+h; s)ds) +g(Xt+h;X

t;x t+h

T ) :

D’après (1.3), on a : J(t; x;e) = E

Z t+h t

f(Xst:x; s)ds+ (t+h; Xt+ht;x ) ; on obtient :

(t; x) = infE

Z t+h t

f(Xst;x; s)ds+ (t+h; Xt+ht;x ) ; donc :

(t; x) E

Z t+h t

f(Xst;x; s)ds+ (t+h; Xt+ht;x ) : Considèrons le contrôle constant s =a2A sur[t; t+h], on a :

(t; x) E

Z t+h t

f(Xst;x; a)ds+ (t+h; Xs+ht;h ) : (1.6)

**) On suppose que 2C1;2([0; T[ Rn); en appliquant la formule d’Itô à : (t; x) = J(t; x; );

et en intégrant entre t ett+h, on obtient : (t+h; Xt+ht;x ) = (t; x) +

Z t+h t

@

@t + a (s; Xst;x)ds +

Z t+h t

rx (s; Xst;x)0 (Xst;x; a)dWs; où a est l’opérateur dé…ni par :

(24)

aw=b(x; a)rxw+ 1

2tr (x; a) 0(x; a)D2xw : Par passage à l’espérance, on a :

E ( t+h; Xt+ht;x = (t; x) +E

Z t+h t

@

@t + a s; Xst;x ds ; d’où :

(t; x) = E t+h; Xt+ht;x E

Z t+h t

@

@t + a s; Xst;x ds : D’après (1.6), on a :

(t; x) E

Z t+h t

f(Xst;x; a)ds+ t+h; Xt+ht;x ; donc :

E t+h; Xt+ht;x E

Z t+h t

@

@t + a (s; Xst;x)ds E

Z t+h t

f(Xst;x; a)ds+ t+h; Xt+ht;x ; par suite :

0 E

Z t+h t

f(Xst;x; a)ds+ Z t+h

t

@

@t + a s; Xst;x ds : Divisant par h:

0 E 1

h Z t+h

t

@

@t + a s; Xst;x ds+ 1 h

Z t+h t

f(Xst;x; a)ds : En faisant tendre h vers 0; on obtient :

0 : @

@t (t; x) + a (t; x) +f(x; a):

Ceci étant valable pour a2A, on a alors :

@

@t (t; x) + sup

a2A

[ a (t; x) f(x; a)] 0: (1.7)

(25)

D’autre part, on suppose que un contrôle optimal. Alors on a : (t; x) = E

Z t+h t

f(Xs; s)ds+ (t+h; Xt+h) ;

où X est l’état du système solution (1.3). Par même téchnique, on trouve :

@

@t (t; x) t (t; x) f(x; t) = 0;

ce qui combiné avec (1.7) prouve que satisfait à :

@

@t(t; x) + sup

a2A

[ a (t; x) f(x; a)] = 0; 8(t; x)2[0; T[ Rn: A cette équation aux dérivées partielles, il faut ajouter la condition termi- nale :

(T; x) =g(x); 8x2Rn: 2) Horizon in…ni :

*) Nous avons :

(x) = inf

2AE

Z +1 0

e sf(Xsx; s)ds : D’après le principe de la programmation dynamique, on a :

(x) = inf

2AE Z h

0

e sf(Xsx; s)ds+e h (Xhx) ; donc :

(x) E Z h

0

e sf(Xsx; s)ds+e h (Xhx) : Considèrons le contrôle constant s =a2A, on a :

(x) E Z h

0

e sf(Xsx; a)ds+e h (Xhx) : (1.8)

**) On suppose que 2C2(Rn); en appliquant la formule d’Itô à : e t (Xtx);

(26)

et en intégrant entre 0et h, on obtient : e h (Xhx) = (x) +

Z h 0

e s[ a (x) (Xsx) ]ds

+ Z h

0

h

e sr (Xsx)0 (Xsx; s) i dWs: Prenant l’espérance, on trouve :

E e h (Xhx) = (x) +E Z h

0

e s[ a (x) (Xsx)]ds : d’où :

(x) = E e h (Xhx) E Z h

0

e s[ a (x) (Xsx)]ds ; d’après (1.8), on a :

(x) E Z h

0

e sf(Xsx; a)ds+e h (Xhx) ; par suit :

E e h (Xhx) E Z h

0

e s[ a (x) (Xsx)]ds

E Z h

0

e sf(Xsx; a)ds+e h (Xhx) ; donc :

0 E

Z h 0

e sf(Xsx; a)ds+ Z h

0

e s[ a (x) (Xsx; a)]ds : En divisant parh et en faisant tendre h vers 0, on obtient :

0 f(x; a) + a (x) (x): Ceci étant valable pour tout a2A; alors :

(x) + sup

a2A

[ a (x) f(x; a)] 0:

(27)

D’autre part, on suppose que est un contrôle optimal. Alors : (x) =E

Z h 0

e sf(Xsx; s)ds+e h (Xhx) : Par un argument similaire, on trouve :

(x) + sup

a2A

[ a (x) f(x; a) ] = 0; 8x2Rn: Finalement, on obtient le résultat demandé.

1) Horizon …ni : L’argument d’optimalité de la programmation dyna- mique suggère que si l’on peut trouve un contrôle (t; x), tel que :

sup

a2A

[ a (t; x) f(x; a) ] = (t;x) (t; x) f(x; (t; x); c’est à dire :

(t; x)2arg min [ a (t; x) +f(x; a)]

a2A

; alors :

@

@t

(t;x) (t; x) f(x; (t; x)) = 0;

et donc :

(t; x) = E Z T

t

f(Xs; (s; Xs))ds+g(XT) ; où X est une solution de l’équation di¤érentielle stochastique :

8<

:

dXs =b(Xs; (s; Xs))ds+ (Xs; (s; Xs))dWs; t s T

Xt =x; x2Rn:

et est un contrôle optimale feedback.

2)Horizon in…ni : Si pour toutx; (x)est un point de maximum surA de

sup

a2A

[ a (x) f(x; a)]; alors f t(Xt);0 t Tg est un contrôle opti- mal feedback, où :

( dXt =b(Xt; (Xt)) + (Xt; (Xt))dWt; 0 t T:

X0 =x; x2Rn:

(28)

Théorème 1.2 : 1)Horizon …ni :

Supposons que la fonction valeur 2 C1;2([0; T[ Rn): Alors satisfait l’équation de Hamilton -Jacobi-Bellman :

@

@t (t; x) + sup

a2A

[ a (t; x) f(x; a)] = 0; (t; x)2[0; T[ Rn; où :

a =b(x; a)rx +1

2tr (x; a) 0(x; a)Dx2 : 2) Horizon in…ni :

Supposons que la fonction valeur 2C2(Rn):Alors satisfait l’équation de Hamilton-Jacobi-Bellman :

(x) + sup

a2A

[ a (t; x) f(x; a)] = 0; x2Rn: Preuve :

On montre le résultat dans le cas d’un horizon in…ni :

Puisque 2 C2(Rn), on a par la formule de Taylor-Young appliqué à la fonction :

(t; y)7!e t (y); au voisinage de (t= 0; y =x), 8h >0:

On trouve :

e h (Xhx) = (x) h (x) + (Xhx x)rx (x) + 1

2D2x (x) (Xhx x) (Xhx x) +o(h) +o(jXhx xj2):

Posons :

0(y) = (x) + (y x)rx (x) + 1

2D2x (x) (y x) (y x); y 2Rn: 8h >0; on obtient :

e h (Xhx) = h (x) + 0(Xhx) +o(h) +o(jXhx xj2):

D’après le lemme 1-2, on a :

E e h (Xhx) ( h (x) + 0(Xhx) o(h); (1.8)

(29)

uniformément en 2A:

De plus, en ajoutant et en retranchant le termef(Xsx; s); on trouve : E

Z h 0

e sf(Xsx; s) f(x; s)ds =

E Z h

0

(e sf(Xsx; s) +f(Xsx; s) f(Xsx; s) f(x; s))ds ; on a :

E Z h

0

e sf(Xsx; s) f(x; s)ds

E Z h

0

e sf(Xsx; s) f(Xsx; s)ds +E Z h

0

jf(Xsx; s) f(x; s) jds;

puisque f est bornée et Lipschitzienne en x; uniformément en a 2 A; on obtient :

E Z h

0

e sf(Xsx; s) f(x; s)ds

CE Z h

0

e s 1 ds +CE Z h

0jXsx xj ds;

donc :

E Z h

0

e sf(Xsx; s) f(x; s)ds Ch2+Ch32: (1.9) C = Constante indépendante de 2A:

Or d’après le principe de la programmation dynamique et =h; on a:

(x) = inf

2AE Z h

0

e sf(Xsx; s)ds+e h (Xhs) : D’où, en utilisant (1.8) et (1.9), on trouve :

(x) = inf

2AE Z h

0

f(x; s)ds h (x) + 0(Xhx) +o(h):

Notant que (x) = 0(x);on a :

(30)

h (x) = inf

2AE Z h

0

f(x; s)ds+ 0(Xhx) 0(x) +o(h):

Puisque rx 0(y) = rx (x) +Dx2 (x) (y x) et D2x 0(y) = D2x (x); on appliquant la formule d’Itô à :

0(Xhx);

en intégrant entre 0 eth, on trouve : E[ 0(Xhx) 0(x) ] =E

Z h 0

b(Xsx; s)(rx (x) +Dx2 (x) (Xsx x))

+ 1

2tr D2x (x) (Xsx; s) 0(Xsx; s) ds ; d’où :

h (x) = inf

2AE Z h

0

f(x; s)ds+b(Xsx; s)(rx (x) +Dx2 (x) (Xsx x))

+ 1

2tr D2x (x) (Xsx; s) 0(Xsx; s) ds) +o(h):

Comme b et 0sont bornés et Lipschitz enx; uniformément ena, on a : E

Z h 0

b(x; s):rx (x) + 1

2tr Dx2 (x) (x; s) 0(x; s) ds Z h

0

b(Xsx; s) [rx (x) +D2x (x)(Xsx x) ]

+ 1

2tr( (Xsx; s) 0(Xsx; s)D2x (x))ds CEhRh

0 jXsx xjdsi

=Ch32; uniformèment en 2A.

On en déduit que :

h (x) = infE

2A

2 4 Zh

0

f(x; s)ds+b(x; s)rx (x):

+1

2tr(D2x (x) (x; s) 0(x; s))ds +o(h):

(31)

Divisant par h : (x) = inf

2AE 1 h

Z h 0

f(x; s)ds+b(x; s)rx (x)

+ 1

2tr Dx2 (x) (x; s) 0(x; s) ds +o(1):

(1.10)

Finalement, nous véri…ons que pour toute fonction ', on a :

S1 := inf

2AE 1 h

Z h 0

'( s)ds = inf

a2A'(a) :=S2: En e¤et, soit a2Aet s =a un contrôle constant. On a :

E 1 h

Z h 0

'( s)ds ='(a):

et donc S1 '(a);8a2A; d’où S1 S2: (*) Soit 2A un contrôle quelconque. Alors :

'( s) inf

a2A['(a)] =S2; d’où :

1 h

Z h 0

'( s)ds S2; et donc :

E 1 h

Z h 0

'( s)ds S2; 8 2A: on trouve : S1 S2: (**):

Finalement, d’après (*) et (**), on obtientS1 =S2: En faisant tendreh vers zéro dans (1:10), on obtient :

(x) = inf

a2A f(x; a) +b(x; a)rx (x) + 1

2tr Dx2 (x) (x; a) 0(x; a) ; ou de manière équivalente :

(x) + sup

a2A

[ a (x) f(x; a)] = 0:

(32)

1.2.2 Application : Problème de Merton en horizon …ni

Un agent investit une proportion t de sa richesse dans un actif risqué et 1 t dans un actif sans risque. Son processus de richesse évolue selon l’EDS :

dXt = Xt t

St dSt+Xt(1 t) St0 dSt0

= Xt( t + (1 t) )dt+Xt t dWt:

Partant d’une richesse initial Xt = x >0 au temps t l’agent veut maxi- miser l’espérance de l’utilité de sa richesse terminale à un horizon T > t.

Notons parXt;x le processus de richesse partant dexent. La fonction valeur du problème de maximisation est donc :

(t; x) = sup

2A

E U XTt;x ;(t; x)2[0; T] R+;

où A est l’ensemble des processus est F- adaptés et bornés. La fonction l’utilité U est croissante et concave. Véri…ons que (t; :) est croissante et concave en x. Soit 0 < x < y et un processus de contrôle. Notons Zs = Xst;x Xst;y. Alors :

dZs =Zs[( s + (1 s) )ds+ s dWs]; t2[0; T]

Zt=y; x 0

donc Zs 0ou encoreXst;y Xst;xpour tout s t:PuisqueU est croissante, on a :

U XTt;x U XTt;y ; d’où :

E U XTt;x E U XTt;y ; et donc (t; x) (t; y).Donc est croissante.

Soit 0 < x1; x2; 1; 2 deux processus de contrôle et 2 [0;1]: Posons x = x1+ (1 )x2; Xt;x1 le processus de richesse partant de x1et contrôlé par 1; Xt;x2 le processus de richesse partant dex2 et contrôlé par 2. Posons :

s = Xst;x1 1s+ (1 )Xst;x2 2s Xst;x1 + (1 )Xst;x2

;

(33)

alors d’après la structure linéaire de l’évolution de l’équation de la richesse, le processus :

X := Xt;x1 + (1 ) Xt;x2; est gouverné par :

8<

:

dXs =Xs s + 1 s ds+Xs s dWs Xt =x :

Ceci prouve que Xt;x1+ (1 )Xt;x2est un processus de richesse partant de x en t et contrôlé par .

D’après la concavité de la fonctionU, on a :

U XTt;x1 + (1 )XTt;x2 U XTt;x1 + (1 )U XTt;x2 ; d’où :

( x1+ (1 )x2) E U XTt;x1 + (1 )E U XTt;x2 ; et ceci pour tout 1; 2. On en déduit que :

( x1+ (1 )x2) (x1) + (1 ) (x2); donc est concave.

L’équation de Bellman associée à ce probléme de contrôle stochastique est :

@w

@t + sup

2R

[ w(t; x)] = 0; (1.11)

où :

w(t; x) =x( + (1 ) )@w

@x +1

2x2 2 2@2w

@x2:

Puisque ! est croissante et concave, on cherche une solution de (1:11) tel que :

@w

@x >0 et

@2w

@x2 <0:

Références

Documents relatifs

L’unicit´e est d´emontr´ee dans le corollaire 3.6... Il suffit de montrer l’existence

Déterminer la pression initiale, la température finale, la pression finale et le travail W reçu par le gaz. Déterminer la température finale, la pression finale et l'entropie

A (arbeit) ou F (free energy) =  énergie de  Helmholtz  ou  énergie libre G =  énergie de Gibbs  ou 

REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE MINISTERE DE L’ENSEIGNEMENT SUPERIEUR ET DE LA.

Évolution spontanée au relâchement d’une contrainte Transformations réversibles et irréversibles Travail maximal récupérable.. L’irréversibilité et

On peut définir pour tout système S fermé une fonction d’état additive non conservative, nommée entropie et notée S dont la variation élémentaire dS, au cours de

• les donn ´ees sont utilis ´ees pour raffiner la distribution a-priori des param `etres.. • Avantages de

Puis, en utilisant des propriétés maintenant classiques des solutions locales de Lu == 0, on montre qu'elles constituent un système de fonctions harmoniques satisfaisant à