• Aucun résultat trouvé

Equations di¤érentielles stochastiques

N/A
N/A
Protected

Academic year: 2022

Partager "Equations di¤érentielles stochastiques"

Copied!
44
0
0

Texte intégral

(1)

unde ned degreemonth unde ned degreeyear unde ned

(2)

Table des matières

0.1 Introduction . . . 3 1 Equations di¤érentielles stochastiques 7 1.1 Intégrales stochastiques . . . 8 1.2 Solutions d’équations di¤érentielles stochastiques . . . 13 2 Principe du maximum pour les problèmes de contrôle sto-

chastique optimal 21

2.1 Formulation du problème . . . 21 2.2 Résultats préliminaires . . . 25 2.3 Equation adjointe . . . 30 2.4 Conditions nécessaires et su¢ santes d’optimalité sous forme

faible . . . 31 2.5 Conditions nécessaires et su¢ santes d’optimalité sous forme

forte . . . 33

3 Application en …nance 34

3.1 Exemple 1. Consommation investissement . . . 34 3.2 Exemple 2. Moyenne-variance . . . 37 3.3 Exemple 3. Problème mixte . . . 40

(3)

0.1 Introduction

Dans la théorie du contrôle des systèmes aléatoires gouvernés par des équations di¤érentielles stochastiques de type Itô, l’état du système évolue dans l’espace Rn sur un intervalle …ni [0; T], avec une condition initiale x et sous l’in‡uence d’un mouvement brownien et d’une commande (appelée aussi contrôle) qui prend ses valeurs dans un Borélien de Rm. La dynamique est décrite par un processus de di¤usion.

Solution de l’équation di¤érentielle stochastique du type Itô de la forme suivante :

dXt=b(t; Xt; vt) dt+ (t; Xt; vt) dWt; s t T

X0 =x; x2Rn; (1)

où W = (Wt;0 t T) désigne un mouvement Brownien de dimen- sion d, dé…ni sur un espace de probabilité ( ;F;P) muni d’une …ltration (Ft)0 t T continue à droite et contenant tous les ensembles P-Négligeables de F; v = (vt)0 t T est un processus progressivement mesurable à valeurs dans un espace métrique compact A, appelé contrôle admissible:L’ensemble de tous les contrôles admissibles est noté U.

La solutionX = (Xt)0 t T est appelée réponse au contrôlev et le couple (v; X) est appelé un couple admissible.

L’objet du contrôle optimal est de minimiser sur l’ensemble des contrôles un coût de la forme :

J(t; x; v) =E g(XT) + Z T

0

h(t; Xt; vt) dt : (2) Un contrôleu est dit optimal, s’il véri…e :

J(u) = inf

v2UJ(v): (3)

Le couple(X; u)est dit couple optimal.

La théorie du contrôle optimal est utilisée pour modéliser beaucoup de situations en sciences de l’ingénieur, en sciences économiques et sociales et de façon plus générale dans tous les domaines utilisant les applications des mathématiques. La raison pour cela est évidente.

En e¤et, il est naturel de chercher pour un système d’évolution d’obtenir une régulation optimale. Il peut s’agir d’un réseau routier dans lesquels on veut avoir une circulation la plus ‡uide possible, de l’action sur un moteur a…n d’avoir une consommation minimale ou encore de l’action du prix d’un

(4)

produit …nancier a…n d’assurer de meilleurs dividendes, et beaucoup d’autres applications.

Il existe deux approches majeures pour aborder la résolution des pro- blèmes de contrôle, le principe de la programmation dynamique, appelé aussi principe de Bellmann et le principe du maximum de Pontriagin.

Dans ce mémoire on s’intéresse au principe du maximum de Pontriagin, connue aussi sous le nom de conditions nécessaires (et aussi su¢ sante) d’opti- malité. L’idée est de partir d’un contrôle optimal minimisant la fonction coût sur l’ensemble des contrôles et de donner des conditions nécessaires d’opti- malités véri…é par ce contrôle. Ceci nous emmène à introduire un processus adjoint solution d’une certaine équation di¤érentielle rétrograde et d’une in- égalité variationnelle véri…é par le contrôle optimal. Beaucoup d’auteurs se sont intéressé à ce problème, dans le cas du contrôle déterministe, la réponse a été donnée par Pontriagin & all[37]. En contrôle stochastique les problèmes de mesurabilité et la notion de solution pour l’équation d’état jouent un rôle central, ce qui a conduit à plusieurs formes de principe de Pontriagin. Le pre- mier résultats a été obtenu par Kushner [29] en utilisant les solutions fortes de l’équation d’état pour et en supposant que les contrôles sont processus adaptés à une …ltration …xée à l’avance. Hausmann [24;25] a développé le problème en considérant la classe des contrôles feed-back (processus mesu- rables par rapport à la …ltration naturelle de l’état du système) et emploie les techniques probabilistes telles que la transformation de Guirsanov et la théo- rie des martingales. D’autres versions du principe du maximum stochastique dans lesquelles le coe¢ cient de di¤usion dépend explicitement du contrôle ont été établies par Arkin-Saksonov[2];Bensoussan[13];Bismut[14;15;16], Elliott [20]; Elliott -Kohlmann [21]; Cadenillas-Karatzas[17] et Peng [36].

Tous ces travaux ont été généralisé par le travail de Bahlali [11] en établis- sant des conditions nécessaires et su¢ santes d’optimalité dans le cas général en utilisant seulement un seul processus adjoint.

Notre objectif dans ce travail consiste à étudier les problèmes de contrôle stochastique dans le cas linéaire et ses applications en …nance et spécialement pour les problèmes …nanciers de consommation et d’investissement.

Le système est gouverné par une équation di¤érentielle stochastique li- néaire du type :

dXt = (AtXt+Btvt+Ct)dt+ (DtXt+Etvt+Ft)dWt;

X0 =x : (4)

Où At; Bt; Ct; Dt; Et; Ft sont des fonctions déterministes données, x est la condition initiale, W = (Wt)t 0 est un mouvement Brownien standard d- dimensionnel dé…nit sur un espace probabilisé …ltré ;F;(Ft)t2[0;T];P sa-

(5)

tisfaisant les conditions habituelles.

La variable contrôlev = (vt)est un processus (Ft)-adapté à valeurs dans un espace convexe fermé de U de Rm. On note par U la classe de tous les contrôles.

Le fonctionnel coût à minimiser sur l’ensembleU est la forme : J(v) =E g(XT) +

Z T 0

h(t; Xt; vt)dt ; (5) où g et h sont des fonctions données et Xt est la trajectoire du système contrôlée par v:

Un contrôleu2 U est dit optimal s’il véri…e : J(u) = inf

v2UJ(v): (6)

Le principal outil pour établir des conditions nécessaires et su¢ santes d’optimalité est le principe de l’optimisation convexe, qui consiste à minimiser une fonctionnelle convexe, continue, Gâteaux di¤érentiable et de di¤érentielle continue sur un ensemble convexe fermé.

Ce résultat trouve des applications diverses en économie, …nance, assu- rance et beaucoup d’autres. Dans ce mémoire, on illustre ces résultats des conditions nécessaires et su¢ santes d’optimalité pour les appliquer au mo- dèle …nancier d’investissement et de consommation. Nous étudierons trois modèles. Le premier exemple est le classique problème d’investissement et de consommation de BLack et Scholes. Le deuxième exemple concerne le problème de minimisation de la variance (moyenne-variance) de la richesse

…nale dans un marché …nancier. Le troisième est une combinaison des deux premiers exemples.

Le plan de ce travail est comme suit :

Chapitres 1 (Equations di¤érentielles stochastiques)

Ce chapitre est consacré à l’introduction des résultats principaux des équations di¤érentielles stochastiques de type Itô. Un exposé est donné sur les résultats obtenus dans ce domaine et spécialement le théorème d’existence et d’unicité d’Itô.

Chapitre 2 (Principe du maximum en contrôle optimal stochastique) Dans ce chapitre, on établit des conditions nécessaires et su¢ santes d’op- timalité dans le cas où le système est gouverné par une équation di¤érentielle stochastique linéaire. Le principal outil, sera le principe de l’optimisation convexe.

(6)

Chapitre 3 (Application en …nance)

Ce chapitre est consacré à l’application du principe du maximum en ma- thématiques …nancières. Le problème d’investissement et de consommation dans un marché …nancier est étudié dans trois cas. Le premier cas concerne un coût dé…nit par des fonctions d’utilité de type HARA. le second concerne la minimisation de la moyenne de la variance (moyenne-variance). Le dernier modèle et c’est la principale contribution originale de ce magister, concerne un problème mixte d’d’optimisation des portefeuilles et minimisation de la variance.

Notations matricielles.

Tout au long de ce magister, on utilisera les notations suivantes.Cdésigne une constante positive, Mn d(R) l’espace des matrices n d à coe¢ cients réel et Mdn n(R) l’espace linéaire des vecteurs M = (M1; :::; Md), où Mi 2 Mn n(R). Pour tout M; N 2 Mdn n(R), L; S 2 Mn d(R), ; 2 Rn et

2Rd:

On utilise les notations suivantes :

= Xn

i=1

i i 2Rest le produit scalaire dans Rn, LS=

Xd i=1

LiSi 2R, où Li etSi sont les ieme colonnes deL et S;

M L= Xd

i=1

MiLi 2Rn,

M =

Pd i=1

(Mi ) i 2Rn, M N =

Xd i=1

MiNi 2 Mn n(R), M LN =

Xd i=1

MiLNi 2 Mn n(R), M L =

Xd i=1

MiL i 2 Mn n(R).

On note par L la transposée de la matrice L et M = (M1; :::; Md).

(7)

Chapitre 1

Equations di¤érentielles stochastiques

Les équations di¤érentielles stochastiques constituent une généralisation des équations di¤érentielles ordinaires. Celles-ci ont été introduites pour la première fois en 1946 par K.Itô pour étudier les trajectoires de processus de di¤usion. Cette notion a été traitée de manière profonde en relation avec la théorie des semi-martingales. Des applications dans tous les domaines des sciences de l’ingénieur (…ltrage des processus, contrôle optimal, mathéma- tiques …nancières, gestion des stocks etc...) ont été réalisées en utilisant ce genre d’équations. Il existe une multitude d’ouvrages et d’articles traitant ces équations. Les équations di¤érentielles stochastiques constituent un mo- dèle de di¤usion en milieu non homogène. SoitXt la position d’une particule assez petite en suspension dans un liquide à l’instant t. Si on néglige l’iner- tie de la particule, on peut admettre que le déplacement de la particule est la résultante de deux composantes, d’une part un déplacement centré dû à la vitesse macroscopique du liquide,d’autre part des ‡uctuations provoquées par l’agitation thermique des molécules du liquide.

Soit b(t; X) la vitesse macroscopique du liquide au point Xà l’instantt.

On supposera que la composante ‡uctuante dépend du temps, de la po- sition X et de la durée t pendant laquelle est envisagé le déplacement, alors :

Xt+ t Xt =b(t; Xt): t+ t;Xt; t; (1.1) avec ;

E t;Xt; t = 0: (1.2)

Si on suppose que :

t;Xt; t= (t; Xt): t; t;

(8)

où : (t; Xt) désigne les propriétés du milieu au pointXt et t; t l’accroisse- ment en milieu homogène, i.e :

t; t =Wt+ t Wt; avec Wt un mouvement Brownien, alors :

Xt+ t Xt =b(t; Xt): t+ (t; Xt):(Wt+ t Wt): (1.3) En passant aux di¤érentielles, on obtient :

dXt =b(t; Xt):dt+ (t; Xt):dWt: (1.4) La formulation intégrale, nous donne :

Xt =X0+ Zt

0

b(s; Xs):ds+ Zt

0

(s; Xs)dWs: (1.5) Comme W = (Wt; t2[0; T]) est un processus dont les trajectoires sont P: psà variation in…nies

Z t 0

(s; Xs):dWsne peut pas être considérée comme une intégrale de Lebesgue-Stieljes.

Par conséquent cette équation ne peut être interprétée comme une équa- tion di¤érentielle ordinaire. Avant de donner la dé…nition de solution à cette équation on doit justi…er son écriture et donner un sens aux quantités de la forme

Z t 0

(s; Xs):dWs appelées intégrales stochastiques d’Itô:

1.1 Intégrales stochastiques

Soient

( ;F,P)un espace probabilisé,

F= (Ft; t2[0; T]) une …ltration satisfaisant les conditions habituelles, W = (Wt;Ft)t2[0;T]un mouvement Brownien.

Dé…nition 1.1.

Un processus stochastique X = (Xt)t2[0;T] est dit simple, si il existe une subdivision :

0 = t0 < t1 < t2 < ::: < tn =T;

de l’intervalle [0; T]et une famille ( i)i 0 de variables aléatoires avec : sup

i 0

j ij c <1;

(9)

telle que i est Fti mesurable,8i 0 et, Xt= 0 1f0g(t) +

Xn-1 i=0

i 1]ti;ti+1](t): Où 1Adésigne l’indicatrice de l’ensemble A, c’est à dire :

1A(t) = 1 si t2A;

0 sinon.

L’ensemble des processus simples sera notéS[0;T]:

Dé…nition 1.2.

Un processus stochastique X = (Xt)t2[0;T] progressivement mesurable est dit de classe M[0;T];

si :

E Z T

0

Xs2ds <1:

M[0;T] = X = (Xt;Ft)t2[0;T] progressivement mesurable=E Z T

0

Xs2ds <1 : (1.6) C’est à dire : M[0;T] est l’ensemble des processus progressivement mesu- rables de carré intégrable.

Dé…nition 1.3.

Un processus stochastique X = (Xt)t2[0;T] progressivement mesurable est dit de classe P[0;T];

si :

P Z T

0

Xs2ds <1 = 1:

P[0;T] = X = (Xt;Ft)t2[0;T] progressivement mesurable ;=P Z T

0

Xs2ds <1 = 1 : (1.7)

C’est à dire : P[0;T] est l’ensemble des processus progressivement mesu- rables de carré presque sûrement intégrable.

Remarque 1.4.

(10)

S[0;T] M[0;T] P[0;T] (1.8) Dans ce qui suit, on va construire et donner les propriétés des intégrales stochastiques par rapport au mouvement brownien W = (Wt;Ft)t2[0;T] du type :

It(X) = Z t

0

XsdWs;

pour des processus appartenant successivement à S[0;T] ; M[0;T] et P[0;T]. Mais avant remarquons qu’on ne peut dé…nir les intégrales de ce type comme intégrales de Lebesgue-Stieltjes puisque les trajectoires du mouvement brow- nien sont à variation in…nie. Seulement les trajectoires du mouvement brow- nien contiennent toutes les propriétés qui en un certain sens sont l’analogue de la …nitude de la variation.

Soit X = (Xt)t2[0;T] un processus stochastique simple, on dé…nit formel- lement l’intégrale stochastique de X par rapport au mouvement Brownien W = (Wt)t2[0;T] comme suit :

It(X) = Xn-1

i=0

i(Wti+1 Wti) + n(Wt Wtn): (1.9) En e¤et ;

It(X) = Z t

0

XsdWs

= Z t

0

"

0 1f0g(s) + Xn-1

i=0

i 1]ti;ti+1](s)

# dWs

= 0 Z t

0

1f0g(s) dWs+ Xn-1

i=0 i

Z t 0

1]ti;ti+1](s) dWs

= 0 W0+ Xn-1

i=0

i(Wti+1 Wti) + n(Wt Wtn):

Puisque P[ 0 = 0] = 1; on conclut:

Proposition 1.5. Soient X = (Xt)t2[0;T] et Y = (Yt)t2[0;T] deux proces- sus simples. Alors, on a :

1) It( X+ Y) = It(X) + It(Y) ; 8 ; 2R; 2) E[It(X)] = 0;

3) Z t

0

XsdWs= Z r

0

XsdWs+ Z t

r

XsdWs;

(11)

4) It(X)est continue en t;

5) E[It(X) =Fs] =Is(X) ; 8s t Is(X) = Z s

0

XrdWr ; 6) E

Z t 0

XsdWs

Z t 0

YsdWs =E Z t

0

XsYsds;

en particulier, on a : 7) E

" Z t 0

XsdWs

2#

=E Z t

0

Xs2ds <1: Proposition 1.6.

Soit X = (Xt)t2[0;T] un processus simple, alors : It(X) =

Z t 0

XsdWs; est une martingale de carré intégrable.

Proposition 1.7.

L’ensemble S[0;T] des processus simples est dense dans M[0;T]

Soit X = (Xt)t2[0;T] un processus dans M[0;T]; alors il existe une suite de processus (Xtn)t2N dans S[0;T]; tel que :

nlim!1E 2 4 Zt

0

(Xsn Xs)2ds 3

5= 0: (1.10)

Proposition 1.8.

Soit X = (Xt)t2[0;T] un processus dans M[0;T]; alors : It(X) =

Z t 0

XsdWs; est une martingale de carré intégrable.

La construction des intégrales stochastiques pour des processus apparte- nant à P[0;T] se fait de la même manière que pour les processus appartenant à M[0;T]:

Proposition 1.9. M[0;T] est dense dans P[0;T]:

Soit X = (Xt)t2[0;T] un processus dans P[0;T]; alors il existe une suite de processus(Xtn)t2N dans M[0;T]; telles que :

nlim!1P 2 4 Zt

0

(Xsn Xs)2ds 3

5= 0: (1.11)

(12)

Ainsi on construit l’intégrale stochastique It(X) de la même façon que précédemment et on obtient les mêmes propriétés.

Remarque. La convergence de la suite (Xtn)t2N est une convergence en probabilité.

Proposition 1.10.

Soit X = (Xt)t2[0;T] un processus dans P[0;T]; alors : It(X) =

Z t 0

XsdWs; est une martingale locale de carré intégrable.

Preuve. On dé…nit une suite de temps d’arrêt ( n)n par :

n= 8>

><

>>

:

inf t 0= Z t

0

Xs2ds n ; +1 si

Z t 0

Xs2ds < n:

Si ; B =

8<

:X = (Xt)t2[0;T] progressivement mesurable / Zt

0

Xs2ds n 9=

;: (1.12) Alors n est l’instant d’entrée dans l’ensemble B, et on peut écrire n de la façon suivante :

n = +1 si ft 0= X 2Bg= ;

infft 0= X 2Bg sinon.

Puisque :

Zt 0

Xs2ds n;

alors :

Zt 0

Xs2ds < n+ 1:

Et par conséquent ; on a :

P[ n n+1] = 1:

(13)

Puisque :

P 2 4 Zt

0

Xs2ds <1 3 5= 1;

alors :

Ph

Limn n =1i

= 1

Donc( n)nest une suite croissante de temps d’arrêts telles que : lim

n n=

1 P ps:

Soit :

It^ n(X) = Z t^ n

0

XsdWs = Z t

0

Xs1ft ng(s)dWs: Pour queX soit intégrable, il faut que :

E Z t

0

Xs1ft ng(s) 2ds <1: En e¤et :

E Z t

0

Xs1ft ng(s) 2ds =E Z t

0

Xs212ft ng(s)ds =E

Z t^ n

0

Xs2ds n:

Donc le processus It^ n(X) dé…nit une martingale de carré intégrable.

Puisque ( n)n est une suite de temps d’arrêts croissant vers1;alors : It(X) =

Z t 0

XsdWs; est une martingale locale.

1.2 Solutions d’équations di¤érentielles sto- chastiques

Soient :

( ;F.(Ft)t2R

+,P)un espace probabilisé muni d’une …ltration.

X = (Xt)t2[0;T] un processus stochastique continu à valeurs dans Rn

W = (Wt)t2[0;T] un mouvement brownien d-dimensionnel.

(14)

L’équation di¤érentielle stochastique suivante : dXt =b(t; Xt)dt+ (t; Xt)dWt;

X0 =x: (1.13)

Où :

b : [0; T] Rn !Rn;

: [0; T] Rn !Mn d(R):

Sont deux fonctions Boréliennes et x une variable aléatoire F0 mesurable indépendante de W, telle que :

EjXjP <1 ;8p >1:

Soient les conditions suivantes : 1)P[X0 =x] = 1;

2)P Z t

0

(jb(s; Xs)j+ 2(s; Xs))ds <1 = 1:

3)Xt=x+ Z t

0

b(s; Xs)ds+ Z t

0

(s; Xs)dWs P:p:s:

Dé…nition 1.11. On dit que l’équation (1:13) admet une solution forte (ou trajectorielle), si pour chaque espace probabilisé …ltré ( ;F,(Ft)t2R

+,P), et pour tout mouvement brownien W = (Wt)t2[0;T]; il existe un processus X = (Xt)t2R

+ continu tel que les conditions 1),2),3) soient véri…ées.

Quand on parle de solution fort on sous-entend que sont déja donnés un espace probabilisé …ltré ( ;F,(Ft)t2R

+,P), et un mouvement brownienW = (Wt)t2R

+:

Si de plus Ft=FtX; alors le processusX est (Ft)-adapté, et on a : FtX FtW:

Dé…nition 1.12. On dit que l’équation (1:13) admet une solution faible (ou en loi) si on peut trouver un espace probabilisé …ltré ( ;F.(Ft)t2R

+,P), un mouvement brownien W = (Wt)t2R

+, un processus X = (Xt)t2R

+ continu tels que les conditions 1),2),3) soient réalisées.

Quand on parle de solution faible, on doit trouver un espace probabilisé

…ltré ( ;F,(Ft)t2R

+,P), un mouvement brownien W = (Wt)t2R

+ et un pro- cessus continu X = (Xt)t2R

+: Donc une solution faible est la collection des objets( ;F;(Ft)t2R

+;P;(Wt)t2R

+; Xt2R+).

Dans beaucoup de cas, où la solution faible existe, on a : Ft =FtX

(15)

et par conséquent(Wt)t2R

+ est un mouvement brownien relativement à FtX . C’est pourquoi dans le cas des solutions faibles, on a :

FtW FtX:

Remarque 1.13.Les solutions faibles ne sont pas mesurables par rapport à FtW t2R+ . Et c’est ce qui di¤érencie les solutions faibles des solutions fortes.

Dé…nition 1.14. On dit que l’équation (1:13) admet une solution forte unique si pour deux solutions fortes X = (Xt)t2R

+ et Y = (Yt)t2R

+; on a : P

( sup

t2[0;T]jXt Ytj>0 )

= 0;

c’est à dire :

P fXt=Yt;8t2R+g= 1:

Dé…nition 1.15.

On dit que l’équation (1:13) admet une solution faible unique si pour deux solutions faibles ( ;F:(Ft)t2R

+;P;(Wt)t2R

+;(Xt)t2R

+)et (e;Fe: Fet

t2R+

;P; Wft

t2R+

; Xet

t2R+);il y’a coincidence des distributions des processus X et Xe

Les théorèmes fondamentaux de Yamada-Watanabe nous donnent la re- lation entre les solutions faibles et fortes sont donnés par :

Théorème 1.16.(Yamada-Watanabe[38]).L’unicité forte implique l’uni- cité faible.

Théorème 1.17 (Yamada-Watanabe[38]). L’existence faible + l’unicité forte entraîne l’existence forte.

Les théorèmes de Yamada-Watanabe jouent un rôle clé dans la démons- tration de résultats d’existence et d’unicité pour les équations di¤érentielles stochastiques à coe¢ cients non Lipschitziens. Dans ce qui suit nous allons donner la démonstration du théorème d’Itô, mais avant cela on rappelle le lemme de Gronwall qui est souvent utilisé pour la démonstration de l’unicité.

Lemme 1.18 (Gronwall). Soit g une fonction continue telle que pour tout t 0

on a :

g(t) + Zt

0

g(s)ds; (1.14)

avec 0, 0:Alors :

g(t) exp( t):

(16)

Preuve. Supposons que :

g(t) + Zt

0

g(s)ds:

En multipliant parexp(- t) alors, on obtient : g(t) exp( t) exp( t) + exp( t)

Zt 0

g(s)ds:

Ce qui donne :

g(t) exp( t) exp( t) Zt

0

g(s)ds exp( t):

En dérivant par rapport àt les deux termes, on aura : d

dt 0

@exp( t) Zt

0

g(s)ds 1

A exp( t):

En intégrant les deux parties, on en déduit : Zt

0

d dt

0

@exp( t) Zt

0

g(s)ds 1 A

Zt 0

exp( t):

Ce qui donne : exp( t)

Zt 0

g(s)ds (1 exp( t)): Par un simple calcul, on aura :

+ Zt

0

g(s)ds exp( t):

Et …nalement, on obtient

g(t) exp( t):

Le lemme est prouvé.

(17)

Le principal théorème qui nous assure l’existence et l’unicité forte d’une solution de l’équation est le suivant

Théorème 1.19 (K. Itô). On suppose que les coe¢ cient b et sont mesurables et véri…ent, il existe une constante k >0; telle que 8x; y 2Rn, on a :

jb(t; x) b(t; y)j2+j (t; x) (t; y)j2 kjx yj2; (1.15) jb(t; x)j2+j (t; x)j2 k 1 +jxj2 : (1.16) Alors l’équation admet une solution forte unique X = (Xt)t2[0;T] ; (Ft)- adapté et continue avec condition initiale X0 =x:De plus cette solution est markovienne et véri…e :

E

"

sup

t2[0;T]jXtjp

#

< M ; 8p >1: (1.17) Où M est une constante qui dépend de k, p, T et x:

Preuve

i - Unicité . Soient X = (Xt)t2[0;T] etY = (Yt)t2[0;T] deux solutions de l’équation telles que X0 =Y0 =x:

En appliquant l’inégalité :

(a+b)2 2a2+ 2b2; et en utilisant les formules de Xtet Yt;on obtient : jXt Ytj2 2

Zt 0

[b(s; Xs) b(s; Ys)]ds

2

+2 Zt

0

[ (s; Xs) (s; Ys)]dWs

2

:

En passant à l’espérance mathématique, on obtient : E jXt Ytj2 2E

" Z t 0

[b(s; Xs) b(s; Ys)]ds

2#

+2E

" Z t 0

[ (s; Xs) (s; Ys)]dWs

2# :

Par les inégalités de Cauchy-Schwarz et Buckholders-Davis-Gundy, on a : E jXt Ytj2 2TE

Z t 0

jb(s; Xs) b(s; Ys)j2ds +2E

Z t 0

j (s; Xs) (s; Ys)j2ds :

(18)

En appliquant la condition de Lipschitz, on obtient :

E jXt Ytj2 C Zt

0

EjXs Ysj2ds:

Où : C = max(2T k;2k):

En appliquant le lemme de Gronwall, il résulte que : E jXt Ytj2 = 0:

En appliquant l’inégalité de Tchebychef, on obtient : 8" >0; P fjXt Ytj> "g E jXt Ytj2

"2

E supt2[0;T]jXt Ytj2

"2 = 0:

Donc pour tout ensemble D dénombrable partout dense dans [0; T]; on a :

0 P sup

t2DjXt Ytj>0 0:

En…n et puisque les processusX et Y sont continus, on conclut que : P

( sup

t2[0;T]jXt Ytj>0 )

= 0:

Ce qui prouve l’unicité forte de la solution.

ii - L’existence. On montre l’existence d’une solution forte en utilisant la méthode des approximations successives, et pour cela on pose :

Xtn=x+ Zt

0

b(s; Xsn-1)ds+ Zt

0

(s; Xsn-1)dWs; n 2N?

Xtn+1 Xtn = Zt

0

b(s; Xsn) b(s; Xsn 1) ds

+ Zt

0

(s; Xsn) (s; Xsn 1) dWs:

(19)

En utilisant la même technique que pour l’unicité, on obtient : Eh

Xtn+1 Xtn 2i C

Zt 0

Eh

Xsn Xsn-1 2i ds;

Où : C = max(2T k;2k)

Par récurrence sur n; il résulte que : Eh

Xtn+1 Xtn 2i (M T)n+1

(n+ 1)j ;où M = max C;E jxj2 : Si on prendsp > 1; on aura :

Eh

Xtn+p Xtn 2i Xn+p

k=n

(M T)k kj n !

!10:

Donc (Xtn) est une suite de Cauchy dans L2( ); et par conséquent elle est convergente, notons Xt sa limite.

En passant à la limite, on obtient : Xt=x+

Zt 0

b(s; Xs)ds+ Zt

0

(s; Xs)dWs: DoncXt est une solution de l’équation.

iii - Montrons que :

E

"

sup

t2[0;T]jXtjp

#

< M 8p > 1;

Xt=x+ Zt

0

b(s; Xs)ds+ Zt

0

(s; Xs)dWs: Par l’inégalité :

(a+b+c)2 3a2+ 3b2+ 3c2; et en passant aux espérances, on a :

E jXtj2 3E jxj2 + 3E 2 4

Zt 0

b(s; Xs)ds

23 5+ 3E

2 4

Zt 0

(s; Xs)dWs

23 5:

(20)

par les inégalités de Cauchy-Schwarz et Buckholders-Davis-Gundy, on a : E jXtj2 3E jxj2 + 3TE

2 4

Zt 0

b(s; Xs)

2

ds 3 5+ 3E

2 4

Zt 0

(s; Xs)

2

ds 3 5:

D’après la condition de croissance linéaire on a E jXtj2 3E jxj2 + 3T k

Zt 0

E 1 +jXsj2 ds+ 3k Zt

0

E 1 +jXsj2 ds:

En posant : m= max(3;3T k;3k); on a : E jXtj2 mE jxj2 + 2m

Zt 0

E 1 +jXsj2 ds:

En posant : c= max(m;2m); on obtient : E jXtj2 c 1 +E jxj2 +c Zt

0

E jXsj2 ds:

En appliquant le lemme de Gronwal, on obtient :

E jXtj2 c 1 +E jxj2 exp(ct); 8t 2[0; T]: Puisque E jxj2 <1; alors en posant :

M =c 1 +E jxj2 exp(cT);

on obtient :

E jXtj2 < M ; 8t2[0; T]:

En…n ; par l’inégalité de Buckholders-Davis-Gundy on a : E

"

sup

t2[0;T]jXtjp

#

< M; 8p >1:

Le théorème est prouvé.

Remarques

1) La condition de Lipschitz nous assure l’existence et l’unicité de la so- lution.

2) La condition de croissance linéaire nous assure la non explosion de la solution et si on n’a pas cette condition, l’équation admettra une solution unique mais seulement jusqu’au temps d’explosion.

(21)

Chapitre 2

Principe du maximum pour les problèmes de contrôle

stochastique optimal

2.1 Formulation du problème

Soit T un nombre réel strictement positif, ( ;F,(Ft)t2R

+,P) un espace probabilisé …ltré satisfaisant aux conditions habituelles, W = (Wt;t2[0; T]) un mouvement Brownien d-dimensionnel et U un sous ensemble deRd.

Dé…nition 2.1On appelle contrôle admissible tout processus v = (vt)t2[0;T]mesurable et (F)t-adapté à valeurs dans U tel que :

sup

0 t TEjvtj2 <1:

On note par U l’ensemble de tous les contrôles admissibles.

U =fv : [0; T] !A= v est mesurable et (F)t-adaptég L’équation di¤érentielle stochastique linéaire, de la forme :

dXt=b(t; Xt; vt)dt+ (t; Xt; vt)dWt; t2[0; T]

X0 =x; x2Rn; (2.1)

où :

b : [0; T] Rn U !Rn; (2.2)

: [0; T] Rn U ! Mn d(R); et x est une variable aléatoireFT mesurable, telle que :

Ejxj2 <1:

(22)

Soit la fonctionnelle suivante (appelée fonction coût) : J(v) = E

2

4g(XT) + ZT

0

h(t; Xt; vt)dt 3

5; (2.3)

où :

g : Rn !R; (2.4)

h : [0; T] Rn U !R:

L’objectif du contrôle optimal est de minimiser le coût J sur l’ensemble des contrôles admissibles U.

Un contrôleu2 U est dit optimal, s’il véri…e : J(u) = inf

v2UJ(v): (2.5)

Il existe deux axes principaux pour traiter ce genre de problème

1) Le principe du maximum de Pontriagin (les conditions nécessaires d’op- timalités)

2) Le principe de la programmation dynamique (l’équation de Hamilton- Jacobi-Bellman)

Dans ce magister, on s’intéresse au premier cas.Si un contrôle optimal existe, on établira des conditions nécessaires et aussi su¢ santes d’optimalité sous forme de principe du maximum de Pontryagin.

On distingue 3 cas dans ce genre de problème

1er cas :L’ensemble des contrôlesU est convexe et le système est linéaire.

2eme cas : L’ensemble des contrôles U est convexe et le système est non linéaire.

3eme cas : L’ensemble des contrôles U est non convexe et le système est non linéaire.

Dans le3eme cas, il y’a deux autres cas selon que le coe¢ cient dépend de la variable contrôle où non.

Dans ce travail, on étudiera le premier cas, c’est à dire établir des condi- tions nécessaires et aussi su¢ santes d’optimalité dans le cas où le système est linéaire et l’ensemble des contrôles est convexe.

On suppose que b et sont linéaires en leurs variable et sont données par :

b(t; X; v) = AtXt+Btvt+Ct; (2.6) (t; X; v) = DtXt+Etvt+Ft:

(23)

Avec :

A: [0; T] ! Mn n(R); B : [0; T] ! Mm n(R); C : [0; T] ! Rn; D: [0; T] ! Mnd n(R); E : [0; T] ! Mmd n(R); F : [0; T] ! Md n(R):

On suppose que A; B; C; D; E; F sont progressivement mesurables par rapport à la …ltrationFt, uniformément bornées en(t; !)2[0; T] :

Le système est gouverné dans ce cas par l’équation di¤érentielle stochas- tique linéaire suivante :

dXt= (AtXt+Btvt+Ct)dt+ (DtXt+Etvt+Ft)dWt;0 t T;

X0 =x:

Pour que cette équation ait un sens, on suppose que :

P 8<

: ZT

0

jBtvtjdt <1; ZT

0

jEtvtj2dt <1 9=

;= 1: (2.7)

L’équation d’état étant linéaire à coe¢ cients bornés, donc Lipchitziennes, alors elle admet une solution forte unique donnée par :

X =x+

Z t 0

(AsXs+Bsvs+Cs)ds+ Z t

0

(DsXs+Esvs+Fs)dWs;0 t T;

(2.8) De plus cette solution est continue ; et véri…e :

E sup

0 t TjXtj2 <1: (2.9) Les hypothèses sur les coe¢ cients du coût J sont les suivants :

gethsont convexes et dérivables en leurs variables et à dérivées continues et bornées. Sous ces hypothèses, le coût J est bien dé…ni de U dans R.

Maintenant, on donne un exemple où on calculera explicitement le contrôle optimal.

(24)

Exemple. En dimension 1, soit l’équation di¤érentielle stochastique li- néaire suivante :

dXt=vtdWt; X0 = 0:

L’ensemble des contrôles est donné par : U = [ 1;1]

La fonctionnelle à minimiser est donnée par : J(v) = E X12+

Z 1 0

Xt2 1

2v2t dt : Par la formule d’Itô, on a :

Xt2 = Z t

0

vs2ds+ 2 Z t

0

XsvvsdWs: Pourt = 1, on aura :

X12 = Z 1

0

vs2ds+ 2 Z 1

0

XsvvsdWs:

En remplaçantX1v par sa valeur dans la fonction coût, on obtient : J(v) =E

Z 1 0

Xs2+ 1

2vs2 ds:

Par analogie avec la dé…nition du coût, on aura : h(t; Xt; vt) = Xt2+ 1

2v2t; g(X1v) = 0:

Ce qui donne :

J(v) = E Z 1

0

Z t 0

vs2ds+1 2vt2 dt

= E Z 1

0

(3=2 t)v2tdt:

On remarque que J est une fonction convexe dev, donc elle atteint son minimum en ut = 0:

Par conséquent, le contrôle optimal qui minimiseJ sur U estu= 0 avec une trajectoire optimal Xtu = 0:

(25)

2.2 Résultats préliminaires

Le but du principe du maximum est d’établir des conditions nécessaires d’optimalités véri…ées par un contrôle optimal donné. Pour cela, on se donne un contrôle optimal u minimisant le coût J sur U et on désigne par X la trajectoire optimale associée à u, c’est à dire la solution de l’équation d’état associée à u:

Théorème 2.2 (Principe de l’optimisation convexe) : Soit G un espace de Banach ré‡exif et H un convexe fermé non vide de G: soit f une fonction de H dans R convexe et semi continue inférieurement (SCI), Gâteaux-di¤érentiable de di¤érentielle f0 continue. Alors, on a :

f(u) = inf

v2Hf(v)()D

f0(u); v uE

0 pour tout v 2H: (2.10) Preuve. Voir Ekeland-Temam[18].

Notre but est d’appliquer ce théorème pour établir des conditions néces- saires et su¢ santes d’optimalité pour notre problème de contrôle.

On a U convexe et J : U !R qui est convexe, continue. Alors pour ap- pliquer le principe de l’optimisation convexe, il nous reste à démontrer que J est Gâteaux di¤érentiable et de dérivée continue.

Lemme 2.3. Pour tout processus u; v et pour tout 2[0;1]; on a : Xtu+(1 )v = Xtu+ (1 )Xtv ; P ps: (2.11) Preuve. Avant tout, puisqueU est convexe u+ (1 )v est un élément de U.

La solution associée à u+ (1 )v est donnée par : Xtu+(1 )v = X0+

Z t 0

AsXsu+(1 )v+Bs( us+ (1 )vs) +Cs ds +

Z t 0

DsXsu+(1 )v+Es( us+ (1 )vs) +Fs dWs: D’une autre part,

Xtu+ (1 )Xtv

= X0+ Z t

0

( AsXsu+ Bsus+ Cs)ds+ Z t

0

( DsXsu + Esus+ Fs)dWs + (1 )X0+

Z t 0

((1 )AsXsv+ (1 )Bsvs+ (1 )Cs)ds +

Z t 0

((1 )DsXsv + (1 )Esvs+ (1 )Fs)dWs:

(26)

En combinant ces deux équations, on obtient : Xtu+(1 )v [ Xtu+ (1 )Xtv]

= Z t

0

( AsXsu + Bsus+ Cs)ds+ Z t

0

( DsXsu + Esus+ Fs)dWs

+ Z t

0

((1 )AsXsv + (1 )Bsvs+ (1 )Cs)ds +

Z t 0

((1 )DsXsv+ (1 )Esvs+ (1 )Fs)dWs: Z t

0

AsXsu+(1 )v+Bs( us+ (1 )vs) +Cs ds Z t

0

DsXsu+(1 )v+Es( us+ (1 )vs) +Fs dWs Par élimination, on aura :

[ Xtu + (1 )Xtv] Xtu+(1 )v

= Z t

0

As [ Xsu+ (1 )Xsv] Xsu+(1 )v ds +

Z t 0

Ds [ Xsu+ (1 )Xsv] Xsu+(1 )v dWs:

Qui est une équation di¤érentielle stochastique linéaire à coe¢ cient bor- nés. Donc, elle admet une solution forte unique. Puisque 0 est une solution de cette équation, alors 0 est l’unique solution et on obtient :

[ Xtu+ (1 )Xtv] Xtu+(1 )v = 0:

C’est à dire :

Xtu+(1 )v = Xtu+ (1 )Xtv: Le lemme est prouvé.

Lemme 2.4. Le coût J est convexe.

Preuve. Pour toutu; v 2U, 2[0;1]on a : J( u+ (1 )v)

= Eh

g XT( u+(1 )v) i +E

Z T 0

h t; Xt( u+(1 )v); u+ (1 )v dt :

(27)

Puisque h etg sont convexes et X est linéaires alors, on aura : J( u+ (1 )v)

E[ g(XTu) + (1 )g(XTv)]

+E Z T

0

h(t; Xtu; ut) + (1 )h(t; Xtv; vt)dt : Ce qui nous donnons :

J( u+ (1 )v) J(u) + (1 )J(v): D’où le résultat.

Lemme 2.5. Le coût J est Gâteaux-di¤érentiable et on a :

hJ0(u);v ui (2.12)

= E[gx(XT) (XTv XT)]

+E ZT

0

[(Xtv Xt):hx(t; Xt; ut) + (vt ut):hu(t; Xt; ut)]dt:

Preuve.On calcule la dérivée de Gâteaux deJ au pointuet de direction (v u), c’est à dire :

lim

!0

1[J(u+ (v u)) J(u)]: On a :

J(u) =E 2

4g(XT) + ZT

0

h(t; Xt; vt)dt 3 5;

J(u+ (v u)) J(u)

= Eh

g XTu+ (v u) g(XTu)i +E

ZT 0

h

h t; Xtu+ (v u); ut+ (vt ut) h(t; Xtu; ut)i dt:

Puisque,

Xtu+ (v u) =Xtu+ (Xtv Xtu);

(28)

Alors, on obtient :

J(u+ (v u)) J(u)

= E[g(XTu + (XTv XTu)) g(XTu)]

+E ZT

0

[h(t; Xtu+ (Xtv Xtu); ut+ (vt ut)) h(t; Xtu; ut)]dt:

En utilisant le développement avec reste intégrale et d’ordre 1, on aura : J(u+ (v u)) J(u)

=

Z 1

0 E[gx(XTu + (XTv XTu)) (XTv XTu)]d + E

ZT 0

Z 1 0

hx(t; Xtu+ (Xtv Xtu); ut+ (vt ut)) (Xtv Xtu)d dt

+ E ZT

0

Z 1 0

hx(t; Xtu+ (Xtv Xtu); ut+ (vt ut)) (vt ut)d dt:

En divisant par , on obtient : 1 [J(u+ (v u)) J(u)]

= Z 1

0 E[gx(XTu+ (XTv XTu)) (XTv XTu)]d +E

ZT 0

Z 1 0

hx(t; Xu + (Xtv Xtu); ut+ (vt ut)) (Xtv Xtu)d dt

+E ZT

0

Z 1 0

hv(t; Xtu+ (Xtv Xtu); u+ (vt ut)) (vt ut)d dt:

Puisquegx; hx ethv sont continues, alors en passant à la limite, on aura : lim

!0

1[J(u+ (v u)) J(u)]

= E[gx(XTu) (XTv XTu)]

+E ZT

0

hx(t; Xu; u) (Xtv Xtu)dt+E ZT

0

hv(t; Xu; ut) (vt ut)dt:

Références

Documents relatifs

•••• L’ébullition d’un corps pur (sous pression constante) se fait à température constante (appelée température d'ébullition notée T éb ,), elle est caractéristique

La première importante est la recherche fonda- mentale d’établir l’existence et l’unicité des solutions de l’EDSR sous des des formes plus complexes (par exemple, EDSR avec saut

REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE MINISTERE DE L’ENSEIGNEMENT SUPERIEURE ET DE LA.

Dans cette partie, on utilise un logiciel de géométrie dynamique pour construire un nuage de n + 1 points afin que lorsque n grandit, on approche de mieux en mieux la courbe

5- Les électrons libres des métaux se déplacent d’un atome à un autre dans toutes les directions.(hors circuit électrique) ……….?. 6- Dans un métal, les électrons

5- Les électrons libres des métaux se déplacent d’un atome à un autre dans toutes les directions.(hors circuit électrique) ……….?. 6- Dans un métal, les électrons

4.3.Profil spectral rectangulaire : facteur de visibilité (ou contraste) 4.4.Cohérence temporelle : durée et longueur de cohérence. 5.Interférences à N ondes

Bien que conçu pour être utilisé avec des sources étendues pour l'observation des franges circulaires d'égale inclinaison, localisées à l'infini, d'une lame d'air, ou des