• Aucun résultat trouvé

avons par ailleurs étudié la technique des variables antithétiques et la technique adaptative. Ces deux méthodes de réduction de variance reposent sur des hypo-thèses très générales et peuvent être mises en oeuvre de manière systématique.

Cela est un atout considérable lorsqu’on envisage d’évaluer des produits dérivés aux payo¤s très di¤érents, car il n’est pas nécessaire de modi…er l’algorithme de simulation pour l’adapter aux caractéristiques de chaque produit.

L’application …nancière de la section 6 a permis de mettre en oeuvre les di¤érents algorithmes étudiés dans ce travail pour évaluer une option exotique en simulant l’évolution des cours boursiers dans le cadre du modèle de Black et Scholes.

Les tests réalisés ont montré comment les méthodes de réduction de variance permettent (i) de contrôler l’incertitude sur l’erreur commise, (ii) d’accélérer la convergence de l’algorithme vers la valeur cherchée. Soulignons en…n que la méthode adaptative, qui permet d’ajuster les caractéristiques de l’estimateur en fonction des simulations réalisées, est une technique avantageuse. En e¤et, elle repose sur des hypothèses moins contraignantes que la technique antithétique.

Ces résultats dans le cadre de notre étude se sont révélés très satisfaisants et prometteurs.

Les recherches dans le domaine de la simulation numérique sur ordinateur res-tent ouvertes, car l’accroissement de la puissance de calcul des machines permet d’envisager des solutions toujours plus performantes, comme la simulation en pa-rallèle. Une solution consiste à générer simultanément plusieurs trajectoires du sous-jacent sur di¤érents processeurs pour multiplier le nombre de réplications du payo¤ par le nombre de processeurs sur la grille de calcul (Pauletto 2001).

Une autre solution plus récente est de générer plusieurs nombres aléatoires si-multanément sur un seul processeur "multi-coeurs" avec la technologie SIMD (Single Instruction Multiple Data). En utilisant cette technologie, Saito (2007) a développé une version optimisée du Mersenne Twister, deux fois plus rapide que l’algorithme original,MT19937.

A Méthode de Schrage

L’ensemble des entiers représentables sur une machine à "! bits" estN2!. L’ob-jectif est de calculer axmodm pour a 2 N2!, m 2 N2! et x 2 N2!. Comme axmodm=a(xmodm) modm, on peut se limiter auxx2Nm.

Une implémentation directe de la fonction x ! axmodm sera très instable pour les couples (a; x) tels que ax > 2!. Certains compilateurs renvoient une erreur, tandis que d’autres évaluent la quantitéaxmod 2!. Dans le premier cas, il y a dépassement de capacité et le programme s’arrête. Dans le second cas, le calcul se poursuit et le résultat …nal est(axmod 2!) modm, à priori di¤érent de axmodm, sauf pourm= 2 avec < !. Tout semble fonctionner normalement, mais le résultat …nal est faux. Schrage (1979) démontre la proposition ci-dessous qui permet de contourner ce problème.

Proposition 1.6 Soientaet mdeux entiers tels que : 0< a2< met m=aq+ravec r2Na: Alors, pour toutx2Nm, on a :

axmodm= a(xmodq) rbx=qc si a(xmodq) rbx=qc a(xmodq) rbx=qc+m si a(xmodq)< rbx=qc : Proof.En utilisant l’identitéx=qbx=qc+ (xmodq), on a :

ax=aqbx=qc+a(xmodq) = (m r)bx=qc+a(xmodq): Regroupons les termes :

ax=mbx=qc+ (a(xmodq) rbx=qc); puis

axmodm= (a(xmodq) rbx=qc) modm: (1.47) Commexmodq < q, on a

0 a(xmodq)< aq m: (1.48)

De plus,0 x < met a2< m, donc

0 bx=qcr <bm=qcr=ar < a2< m: (1.49) En retranchant (1.48) et (1.49) membre à membre, il vient :

m < a(xmodq) rbx=qc< m: (1.50) Sia(xmodq) rbx=qc, l’inégalité (1.50) devient0 a(xmodq) rbx=qc< m, ce qui implique :

(a(xmodq) rbx=qc) modm=a(xmodq) rbx=qc:

Dans le cas contraire, on remarque que0< a(xmodq) rbx=qc+m < m, d’où l’on déduit :

(a(xmodq) rbx=qc) modm=a(xmodq) rbx=qc+m;

ce qui établit la formule annoncée.

B Méthode de Box-Muller

Soit(X; Y)un couple de variables aléatoires indépendantes, de loiN(0;1). On dé…nit un changement de variables en coordonnées polaires': (x; y) !(r; ) en posant :

r= x2+y2 1=2 et = 2 arctan y (x2+y2)1=2 x

! :

Par construction,'est unC1-di¤éomorphisme deR2nf(x;0) :x 0g versR+

]0;2 [(qui sont des ouverts) et, de plus,

PX;Y R2nf(x;0) :x 0g =PX;Y R2 = 1:

Alors, par le théorème de changement de variables, le couple(R; ) ='(X; Y) admet une densitéfR; par rapport à la mesure de Lebesgue surR2 :

fR; (r; ) =fX;Y(rcos ; rsin ) detJ' 1(r; ) 1]0;1[(r) 1]0;2 [( ); oùJ' 1(r; )est la matrice jacobienne de' 1(r; ) = (rcos ; rsin ). On a

J' 1(r; ) = cos rsin sin rcos ; ce qui impliquedetJ' 1(r; ) =r >0puis :

fR; (r; ) =re r2=21]0;1[(r) 1

2 1]0;2 [( ):

La densité du couple (R; ) s’écrit comme le produit d’une fonction de r et d’une fonction de , doncRet sont indépendantes (ce qui n’était pas évident à priori) et l’on peut voir que suit une loi uniforme sur]0;2 [et queR suit une loi de Rayleigh.

On dé…nit unC1-di¤éomorphisme , deR+ ]0;2 [dans]0;1[2, en posant : u= e r2=2; v= =2 :

Le couple (U; V) = (R; ) admet une densité par rapport à la mesure de Lebesgue surR2 dé…nie par :

fU;V(u; v) =fR;

p 2 lnu;2 v detJ 1(u; v) 1]0;1[2(u; v);

1(u; v) = p

2 lnu;2 v et J 1(u; v) = 1= up

2 lnu 0

0 2 :

Alors,detJ 1(u; v) = 2 = up

2 lnu >0 puis, après calcul, fU;V(u; v) =1]0;1[(u) 1]0;1[(v)

ce qui prouve que (U; V)est un couple de variables uniformes indépendantes.

On achève la démonstration en remarquant que : (X; Y) = ' 1(R; ) =' 1 1(U; V)

= p

2 lnUcos (2 V);p

2 lnUsin (2 V) :

C Factorisation de Cholesky

Théorème 1.7 (Cholesky) Soit une matrice carrée d’ordre s, symétrique dé…nie positive. Il existe une unique matrice , triangulaire inférieure à coe¢ -cients diagonaux strictement positifs, telle que = 0. La matrice est appelée racine carrée de Cholesky de .

Proof.L’unicité et l’existence se démontrent simultanément par récurrence sur la dimensions. Sis= 1alors, = [ 11]avec 11>0, car est dé…nie positive.

Alors la seule solution du problème est = p

11 . Supposons l’hypothèse vraie au rangs 1 et considérons , une matrice carrée symétrique dé…nie positive d’ordres+ 1qui s’écrit :

= s R0s

Rs ;

sest la sous-matrice principale d’ordre sde (elle aussi symétrique dé…-nie positive), Rs est un vecteur ligne de taille s et est le coe¢ cient d’ordre (s+ 1; s+ 1)de . Il faut montrer l’existence et l’unicité de , triangulaire in-férieure à coe¢ cients diagonaux strictement positifs, telle que = 0. On doit donc chercher sous la forme :

= s 0

Ts ;

s est la sous-matrice principale d’ordre s de ,Ts est un vecteur ligne de taille set est le coe¢ cient d’ordre (s+ 1; s+ 1) de . L’égalité = 0 est véri…ée si et seulement si :

s = s 0

s; (1.51)

Rs = Ts 0s; (1.52)

= TsTs0+ 2; (1.53)

En appliquant l’hypothèse de récurrence à la matrice s (symétrique dé…nie positive d’ordre s), on déduit qu’il existe une unique matrice s, triangulaire inférieure à diagonale strictement positive, solution de (1.51). En remarquant que s est inversible (le déterminant d’une matrice triangulaire est égal au produit des éléments diagonaux, tous strictement positifs dans le cas présent)

l’égalité (1.52) admet une unique solutionTs=Rs( 0s) 1. En…n, l’égalité (1.53) implique 2 = TsTs0 (Ts est à présent connu). Alors est nécessairement l’une des racines carrées du scalaire TsTs0 (on ne connaît pas le signe de TsTs0, donc est éventuellement complexe). La matrice ainsi construite véri…e bien = 0. Il ne reste qu’à prouver que peut être choisi strictement positif pour conclure. est triangulaire par blocs, donc

det = det 0= det s)det = det 0 = (det )2= 2(det s)2: Ordet >0( est dé…nie positive) etdet s>0( sest à diagonale strictement positive) donc 2= TsTs0 est strictement positif. On peut donc choisir >0 ce qui achève la récurrence.

Remarque C.1 La condition dé…nie positive est une condition su¢ sante (mais non nécessaire) pour garantir l’existence d’une racine carrée de Cholesky.

En e¤et, il existe des matrices non dé…nies positives admettant une factorisation de Cholesky. Par exemple la matrice de terme général ij = 1(1 i; j s) s’écrit 0 où est dé…nie par :

ij= 1 si j= 1 0 si j >1 :

Mais on observe, dans la pratique, que lorsque n’est pas dé…nie positive, la décomposition de Cholesky échoue presque toujours.

Références

Acklam P.J. (2000). “An algorithm for computing the inverse normal cumulative distribution function”, Technical Paper,http://home.online.no/~pjacklam/

notes/invnorm/.

Arouna B. (2004). “Adaptative Monte Carlo Method, A Variance Reduction Technique”,Monte Carlo Methods and Applications, Vol. 10, No. 1, pp. 1-24.

Beasley J.D., Springer S.G. (1977). “Algorithm AS 111. The percentage points of the normal distribution”,Applied Statistics, 26, pp. 118-121.

Björk T. (2004).Arbitrage Theory in Continuous Time, Second Edition, Oxford University Press.

Black F., Scholes M. (1973). “The Pricing of Options And Corporate Liabilities”, Journal of Political Economy, Vol. 81, pp. 36-72.

Bouchard-Denize B. (2006). Méthodes de Monte Carlo en Finance, Notes de cours, Université de Paris VI.

Boyle P.P. (1977). “Option : a Monte Carlo approach”, Journal of Financial Economics, Vol. 4, pp. 323-338.

Bruno M.G. (1991). “Calculation methods for evaluating asian options”, Wor-king Paper.

Devroye L. (1986).Non-Uniform Random Variate Generation, Springer-Verlag, New York.

Fishman G.S., Huang B.D. (1983). “Antithetic Variates Revisited”, Communi-cations of the ACM, 26, pp. 964-971.

Gentle J.E. (2003). Random Number Generation and Monte Carlo Methods, Second Edition, Springer-Verlag.

Glasserman P. (2004).Monte Carlo methods in …nancial engineering, Springer.

Haber S. (1966). “A Modi…ed Monte-Carlo Quadrature”,Mathematics of Com-putation, Vol. 20, No. 95, pp. 361-368.

Hammersley J. M., Handscomb D.C. (1964). Monte Carlo Methods, Methuen, London.

Hammersley J.M., Morton K.W. (1956). “A New Monte Carlo Technique : An-tithetic Variates”,Proceedings of the Cambridge Philosophical Society, 52, pp.

449-475.

Herring C., Palmore J.I. (1989). “Random Number Generators Are Chaotic”, Communications of the ACM, 38, pp. 121-127.

Jäckel P. (2002).Monte Carlo methods in …nance, John Wiley & Sons.

Jacod J., Protter P. (2003).L’essentiel en théorie des probabilités, Cassini.

Klimasauskas C. (2003a). “Not Knowing Your Random Number Generator Could Be Costly : Random Generators - Why Are They Important”, Information Article, Advanced Technology For Developers Group,http://www.klimasauskas.

com/pub_rng.php.

Klimasauskas C. (2003b). “Testing Your Random Number Generator”, Informa-tion Article, Advanced Technology For Developers Group,http://www.klimasauskas.

com/pub_rng.php.

Knuth D.E. (1998). The Art of Computer Programming, Volume 2 : Seminu-merical Algorithms, Third edition, Addison-Wesley.

Korn R., Korn E. (2001).Option Pricing and Portfolio Optimization : Modern Methods of Financial Mathematics, Graduate Studies in Mathematics, Vol. 31, American Mathematical Society.

Kuipers L., Niederreiter H. (1974). Uniform Distribution of Sequences, John Wiley & Sons.

Lachaud A., Leclanche G. (2003). “Génération de nombres aléatoires par numé-risation d’impulsions radiatives”, Rapport de …n d’études, Maîtrise d’Electro-nique, Université de Limoges.

Lamberton D., Lapeyre B. (1997).Introduction au calcul stochastique appliqué à la …nance, Ellipse.

Langlois M. (1999). “Cryptographie quantique - solution au problème de distri-bution de clefs secrètes”, Papier de recherche, Université d’Ottawa.

Lemieux C. (2008). Monte Carlo and Quasi-Monte Carlo Sampling, Springer (to appear).

L’Ecuyer P. (1988). “E¢ cient and Portable Combined Random Number Gene-rators”,Communications of the ACM, 31, pp. 742-749 and 774.

L’Ecuyer P. (1996). “Combined Multiple Recursive Generators”,Operations Re-search, Vol. 44, No. 5, pp. 816-822.

L’Ecuyer P. (1998a). “Random Number Generators and Empirical Tests”, Lec-ture Notes in Statistics 127, Springer-Verlag, pp. 124-138.

L’Ecuyer P. (1998b). “Uniform Random Number Generators”, Proceedings of the 1998 Winter Simulation Conference, IEEE Press, pp. 97-104.

L’Ecuyer P. (1999). “Good parameters and implementations for combined mul-tiple recursive random number generators”, Research Paper, Université de Mont-réal - DIRO.

L’Ecuyer P. (2001). “Software for uniform random number generation : distin-guishing the good and the bad”, Proceedings of the 2001 Winter Simulation Conference, IEEE Press, pp. 95-105.

L’Ecuyer P. (2004a). “Random Number Generation”, Chapter 2 of the Hand-book of Computational Statistics, (J.E. Gentle, W. Haerdle, and Y. Mori Eds.), Springer-Verlag, pp. 35-70.

L’Ecuyer P., Panneton F. (2000). “A New Class of Linear Feedback Shift Re-gister Generators”,Proceedings of the 2000 Winter Simulation Conference, pp.

690-696.

L’Ecuyer P., Simard R. (2005). “TestU01 - A software Library in ANSI C for Em-pirical Testing of Random Number Generators, User’s guide (compact version)”, Université de Montréal - DIRO,http://www.iro.umontreal.ca/~simardr/.

Marsaglia G. (1996). “DIEHARD, a battery of tests of randomness”, http:

//www.stat.fsu.edu/pub/DIEHARD/.

Marsaglia G. (2003). “Seeds for random number generators”,Communications of the ACM, 46, pp. 90-93.

Matsumoto M., Kurita Y. (1992). “Twisted GFSR generators”,ACM Transac-tions on Modeling and Computer Simulation, 2, pp. 179-194.

Matsumoto M., Kurita Y. (1994). “Twisted GFSR generators II”,ACM Tran-sactions on Modeling and Computer Simulation, 4, pp. 254-266.

Matsumoto M., Nishimura T. (1998). “Mersenne Twister : A 623-dimensionally equidistributed uniform pseudorandom number generator”,ACM Transactions on Modeling and Computer Simulation, 8, pp. 3-30.

Metropolis N., Ulam S.M. (1949). “The Monte Carlo method”,Journal of the American Statistical Association, Vol. 44, No. 247, pp. 335-341.

Microsoft (2004). “How Visual Basic Generates Pseudo-Random Numbers for the Rnd Function”, Knowledge Base Article 231847,http://support.microsoft.

com/default.aspx?scid=kb;en-us;231847.

Microsoft (2005). “Rnd and Randomize Alternatives for Generating Random Numbers”, Knowledge Base Article 28150, http://support.microsoft.com/

default.aspx?scid=kb;en-us;28150.

Microsoft (2006). “Description of the RAND function in Excel 2003”, Know-ledge Base Article 828795, http://support.microsoft.com/default.aspx?

scid=kb;en-us;828795.

Moro B. (1995). “The Full Monte”,Risk Magazine, Vol. 8, pp. 57-58.

Neave H.R. (1973). “On using the Box-Muller tranformation with multiplicative congruential pseudo-random number generators”,Applied Statistics, 22, pp. 92-97.

Niederreiter H. (1978). “Quasi-Monte Carlo methods and pseudo-random num-bers”,Bulletin of the American Mathematical Society, Vol. 84, No. 6, pp. 957-1041.

Niederreiter H. (1992). Random Number Generation and Quasi-Monte Carlo Methods, SIAM-CBMS Lecture Notes 63.

Panneton F. (2004). “Construction d’ensembles de points basée sur des récur-rences linéaires dans un corps …ni de caractéristique 2 pour la simulation Monte Carlo et l’intégration quasi-Monte Carlo”, Thèse de Doctorat, Université de Montréal.

Park S.K., Miller K.W. (1988). “Random Number Generators : Good Ones Are Hard To Find”,Communications of the ACM, 31, pp. 1192-1201.

Pauletto P. (2001). “Parallel Monte Carlo Methods for Derivative Security Pri-cing”, in Numerical Analysis and Its Applications (L. Vulkov, J. Wasnievski and P. Yalamov Eds.),Lecture Notes in Computer Science, Vol. 1988, Springer-Verlag, pp. 650-657.

Press W.H., Teukolsky S.A., Vetterling W.T., Flannery B.P. (2002).Numerical Recipes in C++, the art of scienti…c computing, Second Edition, Cambridge University Press.

Saito M. (2007). “An Application of Finite Field : Design and Implementation of 128-bit Instruction-Based Fast Pseudorandom Number Generator”, Research Paper, Department of Mathematics, Graduate School of Science, Hiroshima Uni-versity,http://www.math.sci.hiroshima-u.ac.jp/~m-mat/JSPS-CoreToCore/

index.html.

Sakamoto M., Morito S. (1995). “Combination of Multiplicative Congruential Random-Number Generators With Safe Prime Modulus”, Proceedings of the 1995 Winter Simulation Conference(C. Alexopoulos, K. Kang, W. R. Lilegdon, and D. Goldsman Eds.), pp. 309-315.

Schrage L. (1979). “A More Portable Fortran Random Number Generator”, ACM Transactions on Mathematical Software, 5, pp. 132-138.

Tezuka S. (1991). “Neave E¤ect Also Occurs With Tausworthe Sequences”, Pro-ceedings of the 1991 Winter Simulation Conference, pp. 1030-1034.

Tezuka S. (1995). Uniform Random Numbers : Theory and Practice, Kluwer Academics Publishers.

West G. (2005). “Better approximations to cumulative normal functions”, Wil-mott Magazine, pp. 70-76.

Wichmann B., Hill I. (1982). “Algorithm AS 183. An E¢ cient and Portable Pseudo-random Number Generator”,Applied Statistics, 31, pp. 188-190.

Chapitre 2

Intégration déterministe Quasi-Monte Carlo

2.1 Introduction

La méthode de Monte Carlo présentée dans le chapitre précédent permet d’es-timer la valeur d’une espérance en formant l’approximation :

I= E [h(X)] '

N!+1

1 N

XN n=1

h(Xn);

où les Xn sont des variables aléatoires i.i.d. de même loi que X. Pour échan-tillonner la loi deX, on utilise le fait que la plupart des lois de probabilités se déduisent de la loi uniforme par des transformations plus où moins complexes (voir Devroye 1986 et Niederreiter 1992). On note C le segment unité ouvert ]0;1[, de sorte queCs désigne le cube unité ouvert ]0;1[s. Si T est une trans-formation telle queX=T(U)avecU UCs, alors l’espéranceI peut être vue comme l’intégrale de la fonctionf def= h T sur le cube unité :

I= E [h(X)] = E [h T(U)] = E [f(U)] = Z

Cs

f(u)du et l’estimateur Monte Carlo se réécrit :

I^N = 1 N

XN n=1

f(Un); (2.1)

où lesUn sont des variables aléatoires mutuellement indépendantes de loi uni-formeUIs. A…n de simpli…er les raisonnements, nous ne considérerons doréna-vant que des espérances (ou des intégrales) dé…nies sur le cube unitéCs. La méthode de Monte Carlo est particulièrement simple à mettre en oeuvre dès que l’on s’est doté d’un bon générateur de variables uniformes. Elle s’applique

à une large classe de fonctions (l’ensemble des fonctions Lebesgue intégrables) et elle permet d’obtenir facilement une estimation probabiliste de l’erreur d’in-tégration lorsquef est de carré intégrable. La vitesse de convergence de l’algo-rithme, de l’ordre deN 1=2 oùN désigne le nombre de points de l’échantillon, est indépendante de la dimension, ce qui est un atout incontestable par rap-port aux quadratures déterministes dont la qualité d’approximation de l’ordre de O N 2=s se dégrade considérablement lorsque la dimension du problème augmente et qui deviennent impraticables1 pours 5.

2.1.1 Idée sous-jacente de l’approche Quasi-Monte Carlo

La vitesse de convergence enN 1=2 est une caractéristique intrinsèque des mé-thodes d’échantillonnage probabilistes du type Monte Carlo. Elle provient de la nature stochastique de l’échantillon utilisé. En e¤et, chaque point est construit indépendamment des points déjà générés, de sorte que l’on observe la forma-tion d’agrégats dans certaines régions du domaine d’intégraforma-tion (phénomène de sur-échantillonnage), tandis que d’autres régions restent entièrement vides (phénomène de sous-échantillonnage). En d’autres termes, les points aléatoires n’échantillonnent pas le domaine d’intégration de manière optimale et un grand nombre d’itérations est nécessaire avant d’obtenir une couverture "uniforme"

du domaine d’intégration. Cependant, on connaît des suites complètement dé-terministes, appelées suites équiréparties, dont les points se distribuent dans le cube unité avec une plus grande régularité que des points aléatoires. La …gure ci-dessous permet d’illustrer nos propos : nous avons représenté 5000 points bidimensionnels obtenus avec le générateur pseudo-aléatoire Mersenne Twister MT19937 (plan de gauche) et avec la suite équirépartie de Halton (…gure de droite) dont les propriétés seront étudiées en détail dans la suite du chapitre.

1Voir Annexe A pour une présentation succincte de tels algorithmes.

Une simple comparaison des deux jeux de points soulève la question suivante : quelle serait la nature de la convergence obtenue si l’on remplaçait les points aléatoires dans l’estimateur (2.1) par les points d’une suite équirépartie telle que la suite de Halton ? Cette démarche est envisageable dans la mesure où ce n’est pas le caractère imprédictible de la suite échantillonnante que l’on cherche à exploiter dans l’intégration Monte Carlo, mais sa capacité à recouvrir le domaine d’intégration de la fonction étudiée2. C’est précisément sur cette observation que repose la méthode d’intégration déterministe dite de Quasi-Monte Carlo.

2.1.2 Approximation Quasi-Monte Carlo

L’idée est de remplacer les points aléatoiresUndans la quadrature Monte Carlo (2.1) par les points d’une suite équirépartie déterministe. On obtient alors l’es-timateur Quasi-Monte Carlo de l’intégraleI :

Q^N = 1 N

XN n=1

f(un); (2.2)

oùu1; : : : ; uN désignent lesN premiers points d’une suite équirépartie. Etant donné que lesun réalisent un échantillonnage hautement uniforme du domaine d’intégration, on peut espérer que l’estimateur Quasi-Monte CarloQ^N conver-gera plus rapidement que l’estimateur Monte CarloI^N.

L’échantillon que nous envisageons d’utiliser ayant perdu toute caractéristique aléatoire, il n’est plus possible de justi…er l’approche Quasi-Monte Carlo à par-tir des théorèmes fondamentaux des probabilités comme c’est le cas dans l’ap-proche Monte Carlo. En conséquence, nous devrons introduire de nouveaux ou-tils mathématiques a…n d’apporter une réponse théorique solide aux questions suivantes.

1. Comment mesurer l’équirépartition d’une suite et comment identi…er les suites équiréparties candidates à l’intégration Quasi-Monte Carlo ? 2. Sous quelles hypothèses sur la fonctionf et sur la suite(un)l’estimateur

Q^N converge-t-il vers l’intégraleI?

3. Dispose-t-on encore d’un outil e¢ cace pour estimer l’erreur d’intégration

^

"N = ^QN I ?

4. Quelle est la vitesse de convergence de la quadrature Quasi-Monte Carlo ? En particulier, est-elle meilleure que la vitesse de convergence de l’inté-gration Monte Carlo ?

2Dans l’intégration Monte Carlo, la nature stochastique de l’échantillon ne nous intéresse que dans la mesure où elle conduit au remplissage asymptotique du domaine d’intégration et qu’elle permet d’appliquer les théorèmes de probabilité pour justi…er la convergence de l’estimateur et pour majorer l’erreur commise.

2.1.3 Origine et intérêt de la méthode Quasi-Monte Carlo

Les méthodes de Monte Carlo ont été développées puis utilisées pour des projets secrets de la défense américaine à partir du milieu du 20ieme siècle. Le terme

"Quasi-Monte Carlo" est apparu pour la première fois dans un rapport de Richt-myer (1951). A l’origine, les méthodes de Quasi-Monte Carlo devaient permettre d’accélérer les simulations numériques sur des ordinateurs dont la puissance de calcul était relativement limitée. Les fondements théoriques de cette approche, jugée très prometteuse, ont été développés à partir des années 1960 jusqu’à la …n des années 1980, notamment grâce aux travaux de Halton (1960), Hammersley et Handscomb (1964), Haber (1966, 1970), Niederreiter (1972, 1978), Kuipers et Niederreiter (1974), Cranley et Patterson (1976), Faure (1981, 1982) ou Zin-terhof (1987). Cette liste n’est pas exhaustive, mais elle donne les références majeures sur le sujet.

Le principal avantage de la méthode de Quasi-Monte Carlo est qu’elle converge plus rapidement que la méthode de Monte Carlo (cf. Finschi 1996, Pagès et Xiao 1997, Tu¢ n 1997). Par contre, elle comporte deux inconvénients qui n’existent pas avec la méthode de Monte Carlo : la vitesse de convergence dépend de la di-mension du problème (i.e. la méthode perd de son e¢ cacité lorsque la didi-mension augmente) et surtout il est di¢ cile, voire impossible, de produire e¢ cacement une estimation de l’erreur d’intégration (Thiémard 2000a, 2000b). La plupart des travaux menés depuis les années 1990 ont eu pour objectif de proposer des so-lutions a…n d’améliorer l’équidistribution des suites utilisées (Tu¢ n 1996a, Kocis et Whiten 1997, Wang et Hickernell 2000) ou de proposer une mesure e¢ cace de l’erreur commise (Moroko¤ et Ca‡isch 1994, Snyder 2000, Warnock 2001). De-puis le début des années 2000, la solution privilégiée par les spécialistes consiste à randomiser la méthode de Quasi-Monte Carlo a…n de pouvoir estimer l’er-reur d’intégration par des moyens probabilistes. A ce sujet, le lecteur pourra consulter Ökten (1997), Tu¢ n (1996b, 2005), L’Ecuyer (2004b), Ökten, Tu¢ n et Burago (2005) ou Lemieux (2008).

L’utilisation des méthodes de Quasi-Monte Carlo en …nance est relativement récente. En e¤et, les travaux de Paskov (1994), Boyle, Broadie et Glasserman (1995), Papageorgiou et Traub (1996, 1997), Galanti et Jung (1997) ou Boyle et Tan (1997), qui peuvent être considérés comme les premières publications sur le sujet, datent du milieu des années 1990. Les problèmes rencontrés en …nance quantitative sont extrêmement variés (calculs d’espérance, calculs de quantiles, simulation de processus stochastiques, etc.) et les modèles sous-jacents sont particulièrement complexes et de grande dimension (Da Silva et Barbe 2005).

Dans ce contexte, les méthodes de simulation numérique sont devenues aujour-d’hui un outil incontournable pour les spécialistes de la …nance quantitative (Jäckel 2002, Glasserman 2004).

2.1.4 Organisation du chapitre

L’objectif de ce chapitre est de montrer comment le praticien peut mettre en oeuvre la méthode de Quasi-Monte Carlo pour évaluer des produits dérivés com-plexes avec une précision accrue par rapport à la méthode de Monte Carlo. Dans la seconde section, nous introduisons les outils théoriques nécessaires à la bonne compréhension des mécanismes de l’intégration Quasi-Monte Carlo en insistant sur les di¤érences fondamentales avec la méthode de Monte Carlo, notamment la di¢ culté à mesurer l’erreur d’intégration. Dans les sections 3 et 4, nous étudions les suites de Weyl et les suites de Halton, deux familles de suites équiréparties performantes. Nous montrons comment améliorer les propriétés de ces suites en vue d’une intégration numérique en grande dimension et nous proposons des algorithmes extrêmement rapides pour les générer. Dans la cinquième section, nous discutons le problème des temps de calcul, qui sont un élément détermi-nant dans le choix d’une méthode numérique. Dans la sixième section, nous appliquons la méthode de Quasi-Monte Carlo pour évaluer des produits op-tionnels : nous commençons par véri…er que la méthode de Quasi-Monte Carlo converge plus rapidement que la méthode de Monte Carlo sur une intégrale test, puis nous montrons comment combiner l’approche Monte Carlo avec l’approche Quasi-Monte Carlo pour obtenir une estimation de l’erreur systématique et une réduction de variance importante. La conclusion du chapitre est donnée dans la section 7.