• Aucun résultat trouvé

D’un point de vue théorique, la méthode de Quasi-Monte Carlo est plus e¢ cace que la méthode de Monte Carlo, car son taux de convergence est asymptotique-ment meilleur que le taux de convergence obtenu en réalisant un échantillonnage aléatoire du domaine d’intégration. Cependant, cette "supériorité" reste essen-tiellement théorique car, en pratique, on rencontre deux di¢ cultés lorsque l’on met en oeuvre la méthode de Quasi-Monte Carlo : (i) on ne dispose pas d’une méthode systématique et pertinente pour estimer l’erreur commise (voir la dis-cussion du paragraphe 2.2.2) et (ii) on est conduit à réaliser un nombre de simulations toujours plus grand pour que la quadrature reste précise quand la dimension augmente (voir paragraphe 2.2.3).

Dans cette dernière partie, nous discutons ces deux di¢ cultés et nous mon-trons comment résoudre les problèmes soulevés précédemment en combinant l’approche Monte Carlo avec l’approche Quasi-Monte Carlo. L’idée est d’in-troduire une perturbation aléatoire dans la suite à discrépance faible que l’on envisage d’utiliser, sans en changer les propriétés de haute uniformité (Tu¢ n 1996b, 2005). Cela permet de pro…ter de la convergence rapide de la méthode de Quasi-Monte Carlo (car la qualité de l’échantillonnage reste inchangée) et d’esti-mer l’erreur d’intégration comme dans la méthode de Monte Carlo (car les suites sont devenues aléatoires). Cette approche est appelée méthode de Quasi-Monte Carlo Randomisée (RQMC). Pour une discussion approfondie sur les techniques RQMC, on peut se reporter à Ökten (1997), Ökten et al. (2005) ou Lemieux (2008).

2.6.1 Randomisation des générateurs quasi-aléatoires

La randomisation d’une suite à discrépance faible est une tâche délicate : en e¤et il ne faut pas changer les propriétés de la suite en introduisant la pertur-bation aléatoire. Nous présentons ci-dessous deux méthodes de randomisation.

La première méthode, due à Cranley et Patterson (1976), s’applique à tous les générateurs quasi-aléatoires, tandis que la seconde est spéci…que aux suites de Halton (Wang et Hickernell 2000). Dans tous les cas, la technique de randomi-sation proposée est choisie de manière à ne pas dégrader les temps de calcul des générateurs.

Méthode du décalage aléatoire

Soit(un)n 1 une suite à discrépance faible dans le cube unité[0;1]s. L’idée est de considérer les suites(~un)dont le terme général est de la forme :

~

un =fun+Vg= (un+V) mod 12[0;1[s; (2.59) oùV est une variable aléatoire de loi uniforme sur le cube unité etfxg=xmod 1 désigne la partie fractionnaire du vecteur x 2 Rs. Ce procédé est appelé la méthode du décalage aléatoire (random shift en anglais). On peut démontrer que la méthode du décalage aléatoire possède les deux propriétés suivantes.

1. Pour chaque réalisationv du vecteur aléatoireV, la suite(fun+vg)n 1 est une suite à discrépance faible (voir Tu¢ n 1996b). Autrement dit, la méthode du décalage aléatoire permet de construire une in…nité de suites à discrépance faible à partir d’une suite à discrépance faible donnée.

2. Comme V U[0;1[s, chaque terme u~n de la suite randomisée suit la loi uniforme sur [0;1[s, soit u~n U[0;1[s (Lemieux 2008). Cette propriété ne signi…e pas que les termes successifs de la suite sont des réalisations mu-tuellement indépendantes de la loi uniforme sur le cube unité, elle signi…e simplement que chaque terme est une réalisation de la loi uniforme.

Dégradation des temps de calcul Considérons que le calcul de la fonction x ! fx+yg (x et y réels) se décompose en trois opérations élémentaires : l’additiona x+y, le calcul deb bacet la soustractionc a b. Alors, pour générer le termeu~nde la suite randomisée, il faut ajouter3sopérations au nombre d’opérations nécessaires pour générer le pointun de la suite originale.

En conséquence, siCN;sest la complexité de l’algorithme permettant de générer u1; : : : ; uN, alors la complexité de l’algorithme permettant de généreru~1; : : : ;u~N

est donnée par :

C~N;s=CN;s+ 3N s:

En pratique, cela se traduit par une dégradation des temps de calcul lorsque la dimension et le nombre de simulations augmentent : par exemple, simulerN = 105 termes de la suite randomisée en dimension s = 100, implique de réaliser 30millions d’opérations supplémentaires. La durée des calculs supplémentaires sera d’autant plus évidente que les temps de calcul des générateurs avec lesquels nous travaillons sont très faibles (i.e.CN;s<<3N s).

Suites de Weyl à départ aléatoire

Dans le cas des suites de Weyl, la méthode du décalage aléatoire est particu-lièrement facile à implémenter et elle n’entraîne aucun temps de calcul sup-plémentaire. Cela provient du fait que les suites de Weyl sont dé…nies par des congruences modulo 1. Considérons le lemme suivant, dont nous donnons la démonstration dans l’Annexe D.

Lemme 2.19 Pour toutx2Rs etV U[0;1[s on a (x+V) mod 1 U[0;1[s.

SoitV U[0;1[s et (un)n 1 une suite de Weyl dé…nie parun = (n + ) mod 1 avec( ; )2Rs. Alors, en appliquant la formule (2.31) il vient :

~

un = (un+V) mod 1

= ((n + ) mod 1 +V) mod 1

= (n + +V) mod 1

= (n + ( +V) mod 1) mod 1

= (n +Y) mod 1;

où l’on a poséY def= ( +V) mod 1. D’après le lemme précédent, Y suit une loi uniforme sur le cube unité. En conséquence, pour randomiser une suite de Weyl de paramètres( ; )2Rs, il su¢ t :

1. de remplacer l’incrément 2Rs par une variable aléatoireY de loi uni-forme sur[0;1[s,

2. de générer les termes successifs de la suite randomisée à l’aide de l’algo-rithme rapide 3.

On remarque que les suites ainsi obtenues sont des suites de Weyl à incrément aléatoire ou encore à départ aléatoire (par construction,u~0 =Y). Par ailleurs, nous avons obtenu le résultat annoncé en début de paragraphe : la méthode du décalage aléatoire n’induit aucun calcul supplémentaire dans le cas de ces suites.

Suites de Halton à départ aléatoire

Dans le cas des suites de Halton, il n’est pas possible d’implémenter la méthode du décalage aléatoire aussi e¢ cacement que pour les suites de Weyl. Si l’on souhaite réduire les temps de calcul au maximum, il faut envisager une autre approche. Wang et Hickernell (2000) proposent de choisir au hasard l’indice de départ de chaque coordonnée de la suite : ils obtiennent ainsi une famille de suites de Halton randomisées dont le terme général est de la forme :

~

un = ( b1(n+N1); : : : ; bs(n+Ns)); (2.60) oùN1; : : : ; Ns sont des entiers choisis au hasard. Les suites de Halton obtenues par ce procédé sont appelées suites de Halton à départ aléatoire. Cette méthode présente un double intérêt : (i) elle ne modi…e pas les propriétés intrinsèques de la suite originale (Bouleau et Lépingle 1993) et (ii) elle ne dégrade pas les temps de calcul, car on peut encore appliquer l’algorithme rapide 7 pour générer les termes de la suite de proche en proche. Un autre aspect positif est qu’elle se transpose facilement aux suites de Halton généralisées en considérant :

~

un= ( (b11)(n+N1); : : : ; (bss)(n+Ns)); (2.61) avecN1; : : : ; Nsaléatoires. Dans ce cas également, on peut continuer d’utiliser l’algorithme rapide 9 pour construire les points de la suite.

2.6.2 Méthode de Quasi-Monte Carlo Randomisée

Dans ce paragraphe, nous montrons comment utiliser les générateurs quasi-aléatoires randomisés pour déterminer l’erreur d’intégration dans l’approche Quasi-Monte Carlo.

Construction de l’estimateur

L’idée est de construire des réalisations aléatoires et indépendantes de l’esti-mateur Quasi-Monte Carlo. Plus précisément, on considère la variable aléatoire suivante :

Q^N(X)def= 1 N

XN n=1

f(~un(X)); (2.62) où(~un(X))désigne un générateur quasi-aléatoire randomisé par le vecteur X.

Dans le cas où le générateur est une suite de Weyl, les termesu~n(X)sont donnés par la formule (2.59) et X U[0;1[s. Dans le cas des suites de Halton, ils sont donnés par l’une ou l’autre des formules (2.60) ou (2.61) etX = (N1; : : : ; Ns)0 où lesNi sont des entiers aléatoires et indépendants. Dans tous les cas,

~

un(X) U[0;1[s; n= 1; : : : ; N: (2.63) La variableQ^N(X)est appelée estimateur Quasi-Monte Carlo Randomisé (RQMC) de l’intégrale def. Par construction, cet estimateur est sans biais :

E[ ^QN(X)] = 1 N

XN n=1

E[f(~un(X))] = Z

Cs

f(u)du=I:

L’avant-dernière égalité provient du fait que, d’après la relation (2.63), on a E[f(~un(X))] =R

Csf(u)du.

On peut alors former l’estimateur Monte Carlo de l’intégrale cherchée en posant : Q^L;N def

= 1 L

XL l=1

Q^N(Xl); (2.64)

oùX1; : : : ; XL sont des copies i.i.d. de la variable X. Par construction, Q^L;N

est un estimateur sans biais et fortement consistant deI.

Estimation de l’erreur d’intégration

Dans la pratique, on approche la variance de Q^N(X), qui est une quantité inconnue du problème, par son estimateur sans biais :

^2L[ ^QN(X)] = 1

L 1

XL l=1

( ^QN(Xl) Q^L;N)2: (2.65)

On peut alors construire un intervalle de con…ance de l’intégrale cherchée au niveau1 :

P (

Q^L;N I < q1 =2 ^2L[ ^QN(X)]

pL )

M=!11 ; (2.66) oùq1 =2désigne le quantile d’ordre1 =2de la loi normale standard. L’erreur d’intégration est donc majorée par la quantité :

^"M;N =q1 =2 ^2L[ ^QN(X)]

pL : (2.67)

Comme la suite(~un(X))possède les propriétés de haute uniformité de la suite (un), l’estimateur Q^N(X) prend des valeurs aléatoires très proches de l’inté-grale cherchée dès queN est su¢ samment grand. Cela signi…e que la variance deQ^N(X)doit être particulièrement faible. On peut donc espérer obtenir une réduction de variance signi…cative par rapport à l’estimateur Monte Carlo clas-sique basé surLN réalisations i.i.d. de la variablef(U), oùU U[0;1[s. E¢ cacité de l’estimateur

Nous pouvons déterminer l’e¢ cacité de l’estimateur RQMC de la même manière que nous l’avons fait pour l’estimateur Monte Carlo dans le Chapitre 1. L’indice d’e¢ cacité de l’estimateur est donné par :

E (X; N) = Var[ ^QN(X)] ~cN; (2.68) oùVar[ ^QN(X)]désigne la variance deQ^N(X)et~cN est le temps nécessaire pour calculerQ^N(X).

En pratique, pour déterminer le temps de calcul c~N, on peut procéder de la manière suivante. SoitT~LN le temps total nécessaire pour déterminerQ^L;N. En remarquant queT~LN correspond au temps qu’il faut pour construireL réalisa-tions i.i.d. de l’estimateurQ^N(X)on déduit :

~

cN =T~LN

L : (2.69)

En conséquence, pour estimer l’e¢ cacité de l’estimateur Quasi-Monte Carlo Randomisé sur un jeu de simulations, on applique la formule suivante :

E (X; Nc )'^2L[ ^QN(X)]T~LN

L : (2.70)

A titre de comparaison, l’e¢ cacité de l’estimateur Monte Carlo classique basé surLN réalisations i.i.d. de la variablef(U)est donnée par la formule :

EcMC'^2LN[f]TLN

LN ;

où^2LN[f]désigne la variance empirique def(U)etTLNest le temps nécessaire pour calculer l’estimation Monte Carlo de l’intégrale.

Les temps de calcul sont donc une composante à part entière de l’e¢ cacité des estimateurs. Cela justi…e à posteriori que nous ayons cherché à améliorer la vitesse d’exécution des générateurs quasi-aléatoires.

Dans le paragraphe suivant, nous mettons en oeuvre la méthode RQMC pour estimer le prix de l’option asiatique géométrique étudiée au Chapitre 1.

2.6.3 Evaluation d’un call asiatique géométrique

Les hypothèses sur la dynamique du sous-jacent et les caractéristiques de l’op-tion étudiée sont les mêmes que celles du Chapitre 1. Le problème est de déter-miner la quantité suivante :

C= E e rT TT = max ST K;0 ; (2.71) où r est le taux sans risque instantané, T et K désignent respectivement la date d’expiration et le prix d’exercice de l’option,ST = (Qm

k=1Stk)1=m est la moyenne géométrique des cours du sous-jacent aux dates d’observation0 t1<

< tm T.

Dans un premier temps, nous montrons comment construire un estimateur Quasi-Monte Carlo de la valeur de l’option. Dans un second temps, nous testons la méthode de Quasi-Monte Carlo Randomisée pour évaluer l’option considérée.

Ecriture du prix de l’option sous la forme d’une intégrale

On notehk =tk tk 1 et Sk le cours du sous-jacent à la datetk. D’après les résultats obtenus au Chapitre 1, on sait que les cours aux dates d’observation véri…ent le schéma récurrent suivant :

Sk=Sk 1exp((r 2=2)hk+ p

hkGk); k= 1; : : : ; m; (2.72) où les variablesG1; : : : ; Gm sont i.i.d. de loiN(0;1).

En appliquant cette formule de proche en proche à partir de S0 on obtient immédiatement :

Sk=S0exp (r 2=2)tk+ Xm k=1

phkGk

!

def= k(G1; : : : ; Gk): (2.73) En d’autres termes, le cours à la datetk est une fonction deG1; ; Gk. En utilisant la formule (2.73) on a :

T = T(S1; : : : ; Sm)

= T( 1(G1); : : : ; m(G1; : : : ; Gm))

= (G1; : : : ; Gm): (2.74)

Notons que la relation obtenue est indépendante de la formule mathématique du payo¤.

PosonsUk = (Gk)où est la fonction de répartition de la loi normale stan-dard. AlorsUk U(0;1). La formule (2.74) se réécrit :

T = 1(U1); : : : ; 1(Um) ; (2.75) oùU1; : : : ; Umsont i.i.d. de loiU(0;1).

En injectant la formule (2.75) dans (2.71) on obtient : C = E e rT 1(U1); : : : ; 1(Um)

= Z

Cm

e rT 1(u1); : : : ; 1(um) du1: : : dum: (2.76) Donc la valeur de l’option peut s’exprimer comme une intégrale sur le cube unité Cm que l’on peut approcher par la méthode de Quasi-Monte Carlo :

C' e rT N

XN n=1

1(un;1); : : : ; 1(un;m) ; (2.77)

où(un)est un générateur quasi-aléatoire.

Tests comparatifs

Les paramètres du modèle sont les mêmes que ceux utilisés au Chapitre 1 : r= 4%, = 20%,T = 10 et S0=K = 100. Les datest1; : : : ; tm sont dé…nies partk=kT =mavecm= 120, ce qui correspond à une fréquence d’observation mensuelle. La valeur théorique de l’option estC'17:8958.

Nous utilisons ci-dessous la méthode de Quasi-Monte Carlo Randomisée pour approcher la valeur de l’option avec les trois générateurs suivants :SQRT,HALT, HCMW. A…n de comparer l’e¢ cacité de l’approche RQMC avec celle de l’approche Monte Carlo, nous faisons …gurer les résultats obtenus avec les estimateurs Monte Carlo (MC), Monte Carlo Antithétique (MC-AV) et Monte Carlo Adap-tatif (MC-AD) étudiés au Chapitre 1. Le générateur pseudo-aléatoire est le Mersenne TwisterMT19937.

Pour l’ensemble des simulations réalisées, nous avons utilisé la fonction inverse gaussienne de Acklam.

Résultats obtenus Les valeurs de N (nombre de termes de l’estimateur RQMC) et deL (nombre de randomisations) sont les suivantes :

N= 5 104; L= 10:

Pour ces valeurs des paramètres, les di¤érents générateurs produisent N L = 5 105 nombres uniformes au total.

Dans les deux tableaux ci-dessous, la colonne intitulée Err% donne l’erreur rela-tive d’approximation, donnée par la formule Err%=jC=C^ 1j oùC^ est le prix

estimé par simulation. La colonne intitulée Variance donne la variance empi-rique de l’estimateur calculée sur les simulations. La colonne intitulée E¢ cacité fournit l’e¢ cacité de l’estimateur, calculée selon les règles du paragraphe 2.6.2.

En…n, la colonne intitulée Gain donne le ratio E¢ cacité M C

E¢ cacité X X où XX désigne l’une des autres méthodes envisagées. Ce ratio mesure le gain en terme d’e¢ cacité de la méthode XX par rapport à la méthode de Monte Carlo.

Monte Carlo (LN=500000)

Estimateur Prix Est. Int. Con…ance Err% Variance E¢ cacité Gain MC 17.8842 [17.8149,17.9534] 0.065% 624.27 6.64E-02 MC-AV 17.9268 [17.8922,17.9613] 0.173% 155.38 2.33E-02 2.86 MC-AD 17.9250 [17.8897,17.9602] 0.163% 161.53 2.53E-02 2.62

Quasi-Monte Carlo Randomisé (L=10, N=50000)

Générateur Prix Est. Int. Con…ance Err% Variance E¢ cacité Gain SQRT 17.8812 [17.8624,17.9000] 0.081% 9.225E-04 4.64E-03 14.32 HALT 17.8822 [17.8535,17.9108] 0.076% 2.140E-03 1.08E-02 6.18 HCMW 17.8937 [17.8862,17.9013] 0.011% 1.471E-04 7.46E-04 89.11

Les méthodes testées ont toutes un indice d’e¢ cacité plus faible que celui de la méthode de Monte Carlo classique. Le gain d’e¢ cacité apporté par les méthodes de réduction de variance classiques (MC-AV et MC-AD) se situe entre2:6et2:9.

En comparaison, le gain d’e¢ cacité apporté par la méthode RQMC est supérieur à 6:1, quel que soit le générateur quasi-aléatoire employé. La méthode RQMC est donc plus e¢ cace que les méthodes de réduction de variance classiques et le facteur d’amélioration est supérieur à2(' 6:182:86). Nous comparons ci-dessous les indices d’e¢ cacité des générateurs quasi-aléatoires.

Le générateur de Halton (HALT) s’avère le moins performant, puisque le gain d’e¢ cacité par rapport à la méthode MC est "seulement" de6:18.

Le générateurSQRTprend la seconde place du comparatif avec un gain de l’ordre de14:32par rapport à la méthode MC. Ce qui représente une amélioration de l’e¢ cacité de l’ordre de2:32(' 14:326:18) par rapport au générateurHALT.

En…n, le générateurHCMWest le plus performant, car le gain en e¢ cacité est de l’ordre de89:11par rapport à la méthode MC. Cela correspond à une multiplica-tion de l’e¢ cacité par un facteur égal à6:22(' 89:1114:32) par rapport au générateur SQRTet par un facteur égal à14:42('89:116:18) par rapport au générateur de Halton classique.

Par ailleurs, l’erreur relative est inférieure à 0:1% pour l’ensemble des généra-teurs quasi-aléatoires testés, alors qu’elle est supérieure à0:1%avec les méthodes de réduction de variance MC-AV et MC-AD. Cela prouve que la méthode RQMC est non seulement plus e¢ cace que l’approche Monte Carlo mais aussi plus pré-cise. L’erreur minimale est égale à 0:011%. Elle est atteinte avec le générateur HCMW, ce qui con…rme la grande qualité de ce générateur quasi-aléatoire.

Cette étude démontre que l’approche RQMC constitue une méthode d’intégra-tion numérique e¢ cace qui permet de déterminer la valeur d’une opd’intégra-tion avec une grande précision. Par ailleurs, les temps de calcul avec la méthode RQMC sont

légèrement inférieurs à ceux des méthodes MC-AV et MC-AD. La méthode de Quasi-Monte Carlo Randomisée constitue donc une alternative intéressante aux méthodes de réduction de variance classiques pour évaluer des produits dérivés complexes.

Choix optimal deL et N Dans la pratique, le nombre maximal de simula-tions réalisables, i.e. le produitL N, dépend exclusivement du temps de calcul total que l’on peut allouer à l’évaluation du produit. Ainsi, dans l’exemple pré-cédent, nous avons réalisé 5 105 simulations au total et nous avons choisi L= 10et N = 5 104. On peut toutefois se demander s’il existe une manière optimale de choisirL et N, pour obtenir une réduction de variance maximale, sachant le nombre total de simulations que l’on peut réaliser. Cette question est un problème ouvert et il n’existe pas de méthode systématique pour choisirL et N (Tu¢ n 2005). Les analyses suivantes permettent d’apporter un éclairage sur l’in‡uence exercée par chacun des paramètres.

LorsqueN augmente, on privilégie l’échantillonnage quasi-aléatoire ce qui per-met d’obtenir une estimation plus précise de l’intégrale à chaque randomisation.

En conséquence,L diminue, de sorte que l’intervalle de con…ance estimé n’est pas signi…catif. Pour cette raison, on recommande de choisirL 10.

Inversement, lorsqueL augmente, on privilégie la composante Monte Carlo de l’approche. L’estimation de l’intervalle de con…ance est plus pertinente, car elle repose sur un "grand" nombre de randomisations. En contrepartie, l’estimateur RQMC comporte moins de termes (N diminue), donc sa variance augmente et l’on perd en précision de calcul.

L’utilisateur doit donc procéder à di¤érents tests, jusqu’à ce qu’il trouve un couple (L; N) qui permette de minimiser l’intervalle de con…ance autour du prix cherché.