• Aucun résultat trouvé

Application de la r´egularisation de Tikhonov ` a la reconstruction de la SPD

6.5 R´egularisation du probl`eme de reconstruction de la courbe de taux d’int´erˆet

7.1.1 Application de la r´egularisation de Tikhonov ` a la reconstruction de la SPD

−0.1

−0.05 0 0.05 0.1 0.15 0.2 0.25 0.3

Figure 7.1: Formule de Breeden-Litzenberger avec interpolation par splines cubiques. Les erreurs dans les donn´ees sont amplifi´ees dans la solution.

5000 5500 6000 6500 7000 7500 8000

−1

−0.5 0 0.5 1 1.5 2 2.5 3 3.5x 10−3

α=0 α=100

Figure 7.2: Reconstruction deqT avec et sans r´egularisation

Soit

V(λ) = inf

q

(

−αkλk2+ 2

N

X

i=1

λi

Z

hbuti (x)q(x)dx−Cibut

+ Z

q2(x)dx )

. (7.2)

On peut d´emontrer que si V(λ) admet un minimum unique λ o`u elle est diff´erentiable, alors il n’y a pas de saut de dualit´e et on peut interchanger le inf et le sup dans (7.1). Le inf dans (7.2) est atteint par q(x) =

−PN

i=1λihbuti (x) d’o`u

V(λ) =−αkλk2−2

N

X

i=1

λiCibut

N

X

i,j=1

λiλj

Z

hbuti (x)hbutj (x)dx

=−αkλk2−2λCbut−λHλ.

o`uH est une matrice tridiagonale tr`es simple `a calculer:

Hi,i=e2rTKi+2−Ki

3 , Hi,i+1=Hi+1,i=e2rTKi+2−Ki+1

6 .

On voit queV(λ) est une forme quadratique avec une matrice strictement positive. Elle admet donc un minimum unique o`u elle est diff´erentiable ce qui implique que le minimum deJ(q) est atteint par

q(x) =−

N

X

i=1

λihbuti (x) avec λ=−(H+αI)1Cbut

Le r´esultat de l’application de cette formule aux donn´ees d’options est montr´e sur le graphique 7.2. Pour choisir le param`etre de r´egularisation αon utilise le principe de discr´epance qui consiste `a prendre α maximal pour lequel l’erreur peut encore ˆetre tol´er´ee. Si ce seuil d’erreur est fix´e `a 0.01 le tableau suivant montre que α optimal se trouve entre 1 et 10.

α 1 10 100

Err. 0.005 0.039 0.139

R´egularisation avec projection Un lecteur attentif remarquera que la fonction obtenu repr´esent´ee sur le graphique 7.2 prend des valeurs n´egatives et n’est pas forcement d’int´egrale ´egale `a 1 car nous avons r´egularis´e la formule de Breeden-Litzenberger sans imposer queqT soit une densit´e.

50000 5200 5400 5600 5800 6000 6200 6400 6600 6800 7000 0.5

1 1.5 2 2.5 3 3.5x 10−3

α=0α=100

Figure 7.3: R´egularisation de Tikhonov avec projection: r´esultats num´eriques.

Pour reconstruire la densit´e risque-neutre, il faut imposer les contraintesq≥0,R

q(x)dx= 1 eterTR

xq(x)dx= S0. SoitCl’ensemble convexe ferm´e d´ecrit par ces contraintes. Une m´ethode consiste `a projeter la r´egularis´ee de Tikhonovqα sur cet ensemble `a la fin du calcul.

qCα =PCqα= arg inf

pC

Z

(p(x)−qα(x))2dx, d’o`u on trouve, par la m´ethode de multiplicateurs de Lagrange:

qCα = max(0, qα(x)−λ−µerTx) avec

(λ, µ) = arg inf Z

((qα(x)−λ−µerTx)∨0)2dx+λ+µS0.

Ce deuxi`eme probl`eme de minimisation (en deux dimensions) doit ˆetre r´esolu num´eriquement. Le r´esultat de calcul (o`u on a impos´e seulement la contrainte de positivit´e et la contrainte d’int´egrale ´egale `a 1 mais non la contrainte de martingale) est montre sur le graphique 7.3.

R´egularisation entropique Une autre m´ethode pour imposer la positivit´e de la densit´e consiste `a choisir une r´egularisation adapt´ee. Pour r´egulariser une densit´e on utilise souvent l’entropie relative (distance de Kullback-Leibler) deqpar rapport `a une mesure `a prioripd´efinie par

I(q|p) = Z

log dq

dp dq

dpdp

La mesureprefl`ete notre connaissance `a priori sur la solution. La fonctionnelle `a minimiser s’´ecrit alors J(q) =α1

N

X

i=1

Z

hbuti q(x)dx−Cibut 2

+ Z

log dq

dp dq

dpdp

Nous ne sommes plus dans le cadre de r´egularisation de Tikhonov (l’entropie n’est pas une norme) mais on peut toujours d´emontrer la convergence de cette m´ethode sous certaines conditions — voir [29]. La minimisation de J(q) sous la contrainte de masseq(R) = 1 donne

q(dx) = exp −2P λihbuti Rdpexp −2P

λihbuti p(dx)

50000 5200 5400 5600 5800 6000 6200 6400 6600 6800 7000 0.2

0.4 0.6 0.8 1 1.2x 10−3

Densite a priori α=0 alpha=0.01

Figure 7.4: R´egularisation entropique: r´esultats num´eriques.

avec

λ= arg inf 2

N

X

i=1

λiCibut+αkλk2+ log Z

dpe2Pλihbuti

.

On doit donc r´esoudre un probl`eme de minimisation convexeN-dimensionnel (un multiplicateur de Lagrange par prix d’option). Le r´esultat de calcul (avec une mesure a priori gaussienne) est repr´esent´e sur le graphique 7.4. Pour plus de d´etails sur la r´egularisation entropique pour la reconstruction de la densit´e risque-neutre voir [1, 50].

R´ egularisation de probl` emes de

calibration II: probl` emes non-lin´ eaires

8.1 R´ egularisation de Tikhonov pour les probl` emes non-lin´ eaires

Dans le cas de probl`emes mal pos´es lin´eaires de typeT x=y, les ´etapes de r´esolution sont les suivantes:

1. Pour qu’une solution existe (au moins en dimension finie), on utilise la m´ethode de moindres carr´ees:

kT x−yk → min!

2. Pour que la solution soit unique, on passe `a la solution de norme minimale (SNM) qui minimisekxk sur l’ensemble des solutions au sens de moindres carr´ees.

3. Pour que la solution soit continue par rapport aux donn´ees, on applique la m´ethode de r´egularisation de Tikhonov:

kT x−yk2+αkxk2 → min!

La m´ethode de Tikhonov admet une solution explicite

xα= (TT+αI)1Ty,

qui converge vers la SNM lorsque le niveau d’erreur → 0, si le param`etre de r´egularisation α(δ) est choisi correctement.

Dans le cas d’un probl`eme non-lin´eairef(x) =ycertaines de ces conclusions ne seront plus vraies:

1. La solution au sens de moindres carr´ees d´efinie par

kf(x)−yk → min!

peut ne pas exister mˆeme en dimension finie (voir Fig. 8.1).

2. La solution de norme minimale doit ˆetre remplac´ee par x0-solution de norme minimale qui minimise kx0−xksur l’ensemble des solutions au sens de moindres carr´ees, o`ux0 est une valeur de r´ef´erence. Cette solution n’est pas, en g´en´eral, unique.

3. La r´egularisation de Tikhonov:

kf(x)−yk2+αkx−x0k2 → min!

assure l’existence, la continuit´e et, pour αgrand, l’unicit´e.

Cette fois, la m´ethode de Tikhonov n’admet pas de solution explicite, mais les solutions r´egularis´ees convergent toujours vers l’une des SNM lorsque le niveau d’erreur diminue vers z´ero, siα(δ) est choisi de fa¸con appropri´ee.

113

0.1

0.15

0.2 0

1 2 0

1 2 3

x 10

5

λ σ

0.1

0.15 0.2

0.25

0 5

10 0.5 1 1.5 2

x 105

κ σ

B

A

Figure 8.1: Mˆeme en dimension fini,kf(x)−yk2 peut ˆetre non-convexe. Les graphiques illustrent la forme de la fonctionnelle `a minimiser dans diff´erents probl`emes de calibration.

Rˆole de r´egularisation: existence Toutes les solutions de

inf{kf(x)−yk2+αkx−x0k2} appartiennent `a l’ensemble

kx−x0k ≤ 1

αkf(x0)−yk

En dimension finie cet ensemble est compact, et pour avoir une solution il suffit quefsoit continu. En dimension infinie les hypoth`eses plus fines sont n´ecessaires: il faut quef soit faiblement continu.

Rˆole de r´egularisation: continuit´e La d´efinition de continuit´e change en pr´esence de solutions multiples:

soient deux s´equences{xk}et{yk}avecyk→yδ etxk la solution du probl`eme r´egularis´e avec donn´eeyk. Alors

• Il existe une sous-suite convergente de {xk}.

• La limite de toute sous-suite convergente de{xk}est une solution du probl`eme r´egularis´e avec donn´eeyδ. Interpretation: si la donn´ee y est proche de y, alors chaque solution avec donn´ee y sera proche d’une des solutions avec donn´eey.

Rˆole de r´egularisation: unicit´e pour αgrand Dans le cas o`uf est une fonctionR→R,

2

∂x2{kf(x)−yk2+αkx−x0k2}= 2{f2(x) + (f(x)−y)f′′(x) +α}

Sif et ses d´eriv´ees sont born´ees,kf(x)−yk2+αkx−x0k2est convexe pour αsuffisamment grand.

En dimension grande ou infinie on rencontre aussi ce ph´enom`ene; le probl`eme r´egularis´e est plus facile `a r´esoudre par une m´ethode de gradient que le probl`eme initial.