(∆Vτ)11{t<τ≤T}+X11{T <τ}
Gt
.
8.5 March´ e complets, incomplets
Exercice 8.5.1 Soit
dSt=St−[µdt+φdMt]
andr= 0. Quelle est la condition pour que ce march´e soit sans arbitrage? Quelle est le m.m.e. Q?
Quelle est la dynamique deS sousQ?
Exercice 8.5.2 On ´etudie un mod`ele dans lequel il y a un actif sans risque de tauxr et un actif risqu´e
dSt=S(t−)(rdt+σdBt+φdMt) (8.2)
1. Montrer que ce march´e est incomplet, d´eterminer les m.m.e..
2. Quels sont les actifs duplicables?
3. On noteXx,π,C la valeur d’un portefeuilleπde richesse initiale x, avec processus de consom-mation cumul´eC. Montrer que
RtXt=x+ Z t
0
πsXsd(RS)− Z t
0
RsdCs
4. SoitQl’ensemble des probabilit´es risque neutre, et
Vt= esssupQEQ(RTB|Ft)
On admettra queV est une surmartingale pour toutQet que toute surmatingale s’´ecrit comme une martingale moins un processus croissant.
Montrer qu’il existeAQprocessus croissant,µ, ν tels queVt=v+ Z t
0
µsdBsQ+ Z t
0
dMsQ−AQt, o`u WQ etMQ sont desQ-martingales etBQ un MB.. Pr´eciser le lien entreAP et AQ. 5. Montrer queµtφ
σ−νt≥0 6. Montrer queAP−
Z t
0
λ(µsφ
σ−νs) est un processus croissant.
7. En d´eduire queV est la valeur d’un portefeuilleX dont on explicitera le processus de consom-mation.
Exercice 8.5.3 On consid`ere un actif de prix
dSt=St−(rdt+ϕdMt)
o`uM est la martingale compos ´ee associ´e `a un processus de Poisson d’intensit´e constanteλ.
1. V´erifier queSte−rt est une martingale.
2. SoitX le valeur d’un portefeuille autofinancant comportantθ parts d’actif risqu´e, soit dXt=rXtdt+θt(dSt−rStdt)
V´erifier que ˜Xt=ertXt est une martingale. Ecrire la dynamique de ˜X en fonction de ˜S.
3. Ecrire l’EDS v´erifi´ee parX/S.
4. On posedQ=Ste−rt/S0dP. V´erifier queX/S est une martingale sousQ.
s
CORRIGES
Chapter 1
Rappels, Corrig´ es
1.1 Tribu
Exercice 1.1.1: L’ensemble B−As’´ecrit B∩Ac. SiF est une tribu, elle est stable par passage au compl´ementaire et par intersection, d’o`u le r´esultat.
Exercice 1.1.2 : 1) La tribu engendr´ee parAest constitu´ee des quatre ensemblesA, Ac,∅,Ω.
2) Cette tribu doit contenirA etB, l’ensemble vide et Ω. Puis les compl´ementaires, soit Ac etBc (les compl´ementaires de Ω et de l’ensemble vide ´egaux `a l’ensemble vide et `a Ω sont d´ej`a dans la liste). Puis les unions d’ensembles soitA∪B, les autres unions A∪Ω = Ω, A∪Bc =Bc ,... sont d´eja dans la liste. Puis les intersectionsAc∩Bc. On a termin´e car les autres ensembles form´es `a partir d’op´erations de passage au compl´ementaire, d’intersection et d’union sont dans la liste par exemple (Ac∩Bc)∪Bc=Bc.
Exercice 1.1.4 : SoitG=F1∩ F2 la famille compos´ee des ensembles qui appartiennent `aF1 et `a F2. La familleG est une tribu si
(i) Ω⊂ G, ce qui est le cas car Ω⊂ F1,Ω⊂ F2 donc Ω⊂ F1∩ F2.
(ii) la famille G est stable par passage au compl´ementaire: si A⊂ G, la stabilit´e des tribusF1et F2 par passage au compl´ementaire impliqueAc ⊂ F1, Ac⊂ F2doncAc⊂ F1∩ F2.
(iii) la familleG est stable par intersection d´enombrable: si Ai ⊂ G, la stabilit´e des tribusF1et F2 par intersection d´enombrable implique ∩iAi⊂ F1, Ac⊂ F2donc∩iAc⊂ F1∩ F2. Les autres propri´et´es r´esultent des pr´ec´edentes: L’ensemble vide appartient `aGcar c’est le compl´ementaire de Ω ( utiliser (i) et (ii)), la familleGest stable par union d´enombrable: en passant au compl´ementaire l’identit´e (∩Ai)c∪(Aci) on obtient∩Ai= (∪iAi)c. Il reste `a utiliser (ii) et (iii).
L’union de tribus n’est pas une tribu: consid`erer le casF1=σ(A),F2=σ(B). la familleF1∪ F2 ne contient pasAc∩Bc. Ne pas confondre sous ensembles et ´el´ements. Par exemple, un intervalle est un sous ensemble deR, et n’est pas un ´el´ement deR.
Exercice 1.1.6 : On utilise que X−1(B) = {ω :X(ω)∈B}. La famille C est une tribu: la sta-bilit´e requise provient des ´egalit´es suivantes: X−1(Bc) = (X−1(B))c,X−1(∩Bn) =∩X−1(Bn). On trouvera une d´emonstration de la r´eciproque dans tout ouvrage de proba, cette d´emonstration est bas´ee sur le th´eor`eme qui pr´ecise que si une tribu contient une classe stable par intersection finie, elle contient la plus petite tribu engendr´ee par cette classe.
Exercice 1.1.7 : Les diverses quantit´es que l’on veut comparer sont ´egales. Les esp´erancesE(f(X)) et E(f(Z)) sont ´egales parce queX et Z ont mˆeme loi, et E(f(X, Y)) =E(f(Z, T)) car le couple (X, Y) a mˆeme loi que le couple (Z, T). Si l’hypoth`ese (Z, T) sont ind´ependantes n’´etait pas faite,
91
l’´egalit´e en loi des variables X etZ et celle des variablesY et T ne suffirait pas. Par exemple, on
2σ2 dx. Cette derni`ere int´egrale se calcule par int´egrations par parties successives et on obtient E(X4) = 3σ4.
SoitU une variable gaussienne d’esp´erancemet de varianceσ2. Pour calculerE(exp{λU2+µU}), on doit calculer
Par propri´et´e de l’esp´erance conditionelleE(eaXY) =E(Φ(X)) avec Φ(x) =eaxY.
Exercice 1.2.2 : Si X et Y sont gaussiennes ind´ependantes de loiN(m1, σ21) et N(m2, σ22), la sommeX+Y est gaussienne: ceci se voit tr`es facilement avec les fonctions caract´eristiques:
E(eit(X+Y)) =E(eitX)E(eitY) =eitm1−t
On peut le voir aussi en se souvenant que siX etY sont ind´ependantes, de densit´ef etg, la somme X+Y a pour densit´eh(x) =R∞
−∞f(x−y)g(y)dy et en effectuant le calcul. Attention, ce r´esultat n’est pas n´ecessairement vrai si on n’a pas l’ind´ependance deX etY (la somme de deux gaussiennes est une gaussienne si le vecteur est gaussien).
On peut aussi calculer la transform´ee de Laplace de la somme E exp(λ(X+Y))
1. Si X est N(m, σ2), sa densit´e est f(x) = 1 σ√
2πexp−(x−m)2
2σ2 et la v.a. Y = X−m σ est N(0,1). On peut le v´erifier de plusieurs fa¸cons.
• En calculant la fonction de r´epartition deY: SoitFY la fonction de r´epartition deY. On aFY(y) =P(Y ≤y) =P(X ≤m+yσ) =FX(m+yσ). Il reste `a d´eriver par rapport `ay pour obtenir la densit´e deY qui estσf(m+yσ) = 1
√2πexp−y2 2 .
• On peut utiliser les fonctions caract´eristiques. Soitφ(t) = E(eitX) =eitm−t22σ2 la fonc-tion caract´eristique deX; la fontion caract´eristique deY est
E(eitY) =E(eitX−mσ ) =e−itmσ φ(t
σ) =e−t22
Cette remarque permet de ramener des calculs surN(m, σ2) `a des calculs surN(0,1).
La variableX−mest gaussienne centr´ee. D’o`u en utilisant l’exercice 1.2.1,E(|X−m|) = √2σ2π. 2. On aE(eλX) = 1
σ√ 2π
Z ∞
−∞
eλxexp−(x−m)2 2σ2 dx.
On montre queeλxexp−(x−m)2σ2 2 = exp(λm+12σ2λ2) exp[−2σ12(x−(m+λσ2))2] et le r´esultat s’obtient facilement.
3. SoitX une v.a. de loiN(0,1). On a E(11X<beλX) = 1
√2π Z b
−∞
eλxe−x22 dx= 1
√2πeλ22 Z b−λ
−∞
e−x22 dx=eλ22Φ(b−λ).
4. Il est facile, par changement de variable, d’obtenir
E(eθXf(X)) =emθ+σ2θ2/2E(f(X+θσ2) pourf continue born´ee.
5. Par d´erivation par rapport `aθ, on obtient pourf ”r´eguli`ere”
E(f(X)(X−m)) =σ2E(f0(X)) 6. En d´erivantE(eaGN(bG+c)) par rapport `ab, on obtient le r´esultat.
Exercice 1.2.4 : On rappele quelques r´esultats classiques:
(a) la convergenceL2implique la convergenceL1: ||Xn−X||2converge vers 0 implique||Xn−X||1
converge vers 0, avec||X||1=R
Ω|X|dP. Ce r´esultat est ´evident compte tenu de l’in´egalit´e||X||1≤
||X||2qui r´esulte de la positivit´e de la variance Var (|X|) =||X||22 − ||X||21.
(b) Si Xn converge vers X dansL2 (resp. L1), on a E(Xn2) converge vers E(X2) (resp E(Xn) converge versE(X)). (La r´eciproque est fausse)
SiXn converge dansL2 versX, on a en particuliermn converge versmet σn2 converge versσ. La suite de fonctions caract´eristiqueseitmn−t
2σ2
2n converge verseitm−t22σ2 et la loi deXest gaussienne.
Exercice 1.2.5 : Soit X un vecteur gaussien. Le vecteur Y = AX est un vecteur gaussien, car toutes les combinaisons lin´eaires de composantes deY sont des combinaisons lin´eaires de com-posantes deX, donc une variable gaussienne.
Que le vecteur X soit gaussien ou non, on a E(AX) = AE(X) et VarAX = At(VarX)A, o`u VarX d´esigne la matrice de variance covariance du vecteur X. On obtient dans le cas p= 1 que
At(VarX)A≥0, c’est-`a-dire que les matrices de variance covariance sont semi d´efinies positives.
Exercice 1.2.6 : La v.a. λX+µY est gaussienne d’esp´erance λE(X) +µE(Y) et de variance λ2σ2(X) +µ2σ2(Y). On en d´eduit
E(exp(λX+µY)) = exp
λE(X) +µE(Y) +1
2(λ2σ2(X) +µ2σ2(Y))
= exp
λE(X) +1
2λ2σ2(X)
exp
µE(Y) +1
2µ2σ2(Y)
=E(expλX)E(expµY) d’o`u l’ind´ependance.
Exercice 1.2.7 : Si (X, Y) est un vecteur gaussien, X et Y sont des vecteurs gaussiens.
Casd= 1. La projection deX sur (Y1, Y2, . . . , Yn) est de la formeP r X=Pn
i=1aiYi C’est une v.a.
gaussienne carY est gaussien. Le vecteur (X−P r X, Y) est gaussien. Les vecteursX−P r X etY sont ind´ependants car E((X−P r X)Yi) = 0 par d´efinition de la projection.
Exercice 1.2.8 : Toujours avec la transform´ee de Laplace.
On v´erifie dans un premier temps que
E(exp(λX)) = E[E(exp(λX)|Y)] =E[exp(λ(aY +b) +λ2 2 σ2)]
= exp[λaE(Y) +λ2a2
2 σ2(Y)] exp[λb+λ2 2 σ2]
donc, la v.a. X est gaussienne d’esp´eranceb+aE(Y) et de variance σ2+a2σ2(Y). On calcule de la mˆeme fa¸con E(Y eλX) =E(Y exp(λ(aY +b) + λ2
2 σ2)] et en d´erivant par rapport `aλ, on trouve E(XY) =aE(Y2) +bE(Y).
D’autre part
E(exp(λX+µY)) = E[exp(µY)E(exp(λX|Y)]
= E[exp(µY) exp(λ(aY +b) +λ2 2 σ2)]
= E[exp[(λa+µ)Y]] exp(λb+λ2σ2 2 )
= exp[(λa+µ)E(Y) +(λa+µ)2
2 σ2(Y)] exp(λb+λ2σ2 2 ) et on v´erifie que ceci est
exp(λE(X) +µE(Y)) +1
2Var(λX+µY))
1.3 Esp´ erance conditionnelle
Exercice 1.3.2 : Il suffit de calculerE([X−Y]2|G) qui vaut 0 (d´evelopper le carr´e) donc, en prenant l’esp´eranceE([X−Y]2) = 0.
Exercice 1.3.5 : Sous les hypoth`eses de l’exerciceE(X−Y |G) =E(X|G)−Y carY estG-mesurable et E(X −Y|G) = E(X −Y) =m par ind´ependance. D’o`u E(X|G) =m+Y. De la mˆeme fa¸con E((X−Y)2|G) =E(X2|G)−2YE(X|G) +Y2 d’o`uE(X2|G) =σ2+ (Y +m)2.
Exercice 1.3.6 : Par d´efinition de la projection E(XZ) =E((P r X)Z) pour tout Z combinaison lin´eaire desYi. Cela ne suffit pas `a dire queP r Xest l’esp´erance conditionnelle car il existe des v.a.
qui sontY-mesurable et qui ne sont pas combinaison lin´eaire desYi. Mais nous avons montr´e que X−P r XetY sont ind´ependantes, d’o`uE(X−P r X|Y) =E(X−P r X) = 0. D’o`uE(X|Y) =P r X.
Si n= 1, E(X|Y) = P r X appartient `a l’espace engendr´e par Y donc s’´ecritαY, et on d´eduit de E(X|Y) =αY , apr`es multiplication parY et int´egration α= E(XY)
E(Y2).
Exercice 1.3.7 : SoitX =X1+X2. On a E(X|G) = E(X1|G) +E(X2|G) =E(X1) +X2. Puis E(X2|G) =E(X12) +X22+ 2X2E(X1) et
Var (X|G) =E(X2|G)−(E(X|G))2= VarX1. E(eλX|G) =E(eλX1eλX2|G) =eλX2E(eλX1) =eλX2exp(λE(X1) +λ22Var (X1)) Exercice 1.3.8 : Il est facile de montrer la suite d’´egalit´es
Cov (Z1, Z2|G) = E(Z1Z2|G)−E(Z1|G)E(Z2|G)
= E(Z1Z2|G)−E(Z2(E(Z1|G))|G)
= E((Z1−E(Z1|G)Z2|G)
Exercice 1.3.9 : Le membre de droite, not´eK estHmesurable. Il suffit de v´erifier que E(X11H) =E(K11H)
pour toutH ∈ H, ce qui se r´eduit `a
E(X11C11A) =E(K11C11A, et E(X11C11Ac) =E(K11C11Ac) ce qui est routine.
Exercice 1.3.10 : Par lin´earit´e, E(aX +b|Z) = aE(X|Z) +b. La tribu engendr´ee par Z est compos´ee des sous-ensembles de Ω de la forme Z−1(A) o`u A est un bor´elien de R et Z−1(A) = {ω|Z(ω)∈A}={ω|αY(ω) +b ∈A} ={ω|Y(ω)∈B} o`u B est l’ensemble des nombres r´eels tels quex∈B⇐⇒ αx+b ∈A et est un bor´elien (La preuve parfaite exigerait la d´emonstration de ce point, qui tient au fait que B est l’image r´eciproque de A par l’application g : y → 1
αy−b, soit B=g−1(A) et queg est continue, donc bor´elienne)
Exercice 1.3.11 : La premiere question est directe en utilisant le r´esultat admis dans l’exercice 1.1.6. En utilisant cette question, on a queE(X|G)111≤τ est de la formeh(1∧τ)111≤τ =h(1)111≤τ. En prenant l’esp´erance des deux membres, on identifie la constanteh(1).
Exercice 1.3.12 : Trivial.
Exercice 1.3.13 : E(X|F) est G ∨ F mesurable. Soit F ∈ F et G ∈ G, on a alors, en utilisant l’ind´ependance
E(X11F11G) =E(X11F)E(11G) et
E(11F11GE(X|F)) =E(11FE(X|F))E(11G)
doncE(X11F11G) =E(11F11GE(X|F)). Nous avons donc montr´e queE(X11H) =E(11HE(X|F)) pour toutH ∈ G ∨ F de la formeH =F∩G. Ces ensembles engendrent la tribuG ∨ F et forment une famille stable par intersection. L’application qui `aH associeE(X11H) (resp. E(11HE(X|F))) d´efinit
une mesure positive sur cette tribu, les deux mesures, apr`es normalisation parE(X) sont des prob-abilit´es (c’est-`a-dire l’application qui `aH associeE(X11H)/E(X) est une probabilit´e) qui coincident sur les ensembles de la formeF∩G, donc, par th´eor`eme de classe monotone, elles coincident sur la tribu engendr´ee.
Exercice 1.3.14 : Seule la r´eciproque demande une d´emonstration. SiEQ(X|G) =EP(X|G) alors EP(LX|G) =EP(X|G)EP(L|G) =EP(XEP(L|G)|G) D’o`u EP(X(L−EP(L|G))|G) = 0 pour toutX. Il en r´esulte (prendreX =L−EP(L|G)) queL−EP(L|G) = 0.
Exercice 1.3.15 : SoitdQ= Ψ(X)dP. On aEP(φ(X)) = Z
φ(x)f(x)dx,EQ(φ(X)) =EP(Ψ(X)φ(X)) = Z
Ψ(x)φ(x)f(x)dx. Il suffit de choisir Ψ telle que Ψ(x)f(x) =g(x).
1.4 Martingales
Exercice 1.4.1 : Soits≥t etXt=E(X|Ft). On a, en utilisantFt⊂ Fs
E(Xs|Ft) =E(X|Fs|Ft) =E(X|Ft) =Xt.
Exercice 1.4.2 : Soit Xt = Mt−At. On a, pour t ≥s E(Xt|Fs) = Ms−E(At|Fs) et comme As≤Atou−At≤ −As,E(Xt|Fs)≤Ms−E(As|Fs) =Ms−As=Xs.
Exercice 1.4.3 : C’est le lemme de Fatou: de l’in´egalit´e E(Mt∧τn|Fs) =Ms∧τn
on en d´eduit l’in´egalit´e de surmartingale en utilisant que Ms∧τn converge versMset que limE(Mt∧τn|Fs)≤E(limMt∧τn|Fs) =E(Mt|Fs)
(le lemme de Fatou assure que limE(Xn|G)≤E(limXn|G) si les v.a. sont positives).
Soit F ∈ F et G ∈ G E(X11F11G) = E(11F11GE(X|F)) car E(X11F11G) = E(X11F)E(11G) et E(11F11GE(X|F)) =E(11FE(X|F))E(11G).
Exercice 1.4.4 : Par d´efinition de la propri´et´e de martingale,Xt=E(XT|Ft). Cette propri´et´e est
`a la base de tous les calculs d’´evaluation en finance. En effet, ces formules reposent sur le fait qu’un certain processus est une martingale et donc que sa valeur `a l’instanttest l’esp´erance conditionnelle de sa valeur terminale.
Exercice 1.4.7 : Soit G = (Gt, t ≥ 0) la filtration de M, c’est `a dire Gt = σ(Ms, s ≤ t). Par d´efinition,Gt⊂ Ft(La martingaleM estFadapt´ee, et la filtration deM est la plus petite filtration telle que la propri´et´e d’adaptation soit vraie. On a alorsE(Mt|Gs) =E(Mt|Fs|Gs) =E(Ms|Gs) =Ms
On peut aussi montrer que si que si M est une F-martingale et Ht ⊂ Ft, E(Mt|Ht) est une H-martingale.
Exercice 1.4.8 : Pours < t, on a (τ ≤s)⊂(τ < t), d’o`u Zt=E(τ≤t|Ft)≥E(τ≤s|Ft) et le r´esultat suit en prenant l’esp´erance conditionnelle par rapport `aFs.
Exercice 1.4.9 : Si X est un PAI, et Xt int´egrable, pour t > s, les propri´et´es de l’esp´erance conditionelle permettent d’´ecrire
E(Xt−Xs|Fs) =E(Xt−Xs) d’ø`uYt
def= Xt−E(Xt) est une martingale. En utilisant que le PAIY est une martingale E(Yt2−Ys2|Fs) =E((Yt−Ys)2|Fs) =E((Yt−Ys)2)
et il est facile d’en d´eduire queXt2−E(Xt2) est une martingale. De la mˆeme fa¸con E(Zt|Fs) = E(eλXt|Fs
E(eλXt) =E(eλ(Xt−Xs)|Fs
E(eλXt) eλXs = E(eλ(Xt−Xs))
E(eλ(Xt−Xs))E(eλXs)eλXs
= 1
E(eλXs)eλXs =Zs
1.5 Temps d’arrˆ et
Exercice 1.5.1 : La seule difficult´e est la stabilit´e par passage au compl´ementaire. SiA∈ Fτ on
´ecrit
Ac∩(τ≤t) = (τ≤t)−(A∩(τ≤t)∈ Ft
Exercice 1.5.2 :Par hypoth`ese sur X, pour touta, {X ≤a} ∈ FT Par d´efinition de la tribuFT, {X ≤a} ∩ {T ≤t} ∈ Ft. Par suite{X ≤a} ∩ {T ≤a} ∈ Fa. Le premier membre de cette inclusion est{X ≤a}.
Exercice 1.5.4 : Il suffit d’´ecrire
A∩(T ≤t) =A∩(S ≤t)∩(T ≤t) et donc, siA∈ FS on aA∩(T ≤t)∈ Ft.
Exercice 1.5.5: Il suffit d’´ecrire
(S≤a)∩(S≤t) = (S≤(a∧t))∈ Fa∧t
Exercice 1.5.6: Montrons queS ≤T ∈ FT. pour cela , on ´ecrit
(S≤T)∩(T ≤t) = (S∧t≤T∧t)∩(T ≤t)∩(S≤t)
et chacu des trois ensembles du membre de droite est dansFt (carS∧t est plus petit que t donc Ft mesurable.
On introduit R = S ∧T. C’est un temps d’arrˆet, FR mesurable avec FR ⊂ FT. Donc (R = T) ∈ FT, et (R < T) ∈ FT, par suite (S < T) ∈ FT et S = T ∈ FT, ainsi que T ≤ S etT < S.
Exercice 1.5.7 : Soit ω fix´e. La fonction t→Zt(ω) vaut 1 pourt ∈[S(ω), T(ω[ et 0 sinon. Elle est continue sur les trois intervalles [0, S(ω)[,]S(ω), T(ω)[, ]T(ω),∞[. Elle est continue `a droite en S(ω) car sit→S(ω) ”par la droite” (soit t > S(ω)),Zt(ω) = 1 tend versZS(ω)(ω) = 1.
Exercice 1.5.11 : Utiliser le th´eor`eme d’arrˆet et le temps d’arrˆetTy poury > a. On aE(MTy∧t) = a. On fait alors tendre t vers l’infini MTy∧t converge vers y sur Ty < ∞ et vers 0 sinon. (et est born´e). D’o`u P(Ty <∞) =a/y. Il reste `a remarquer que P(Ty <∞) =P(supMt≥y).