• Aucun résultat trouvé

Discrétisation d’équations différentielles stochastiques

L’erreur forte donne un contrôle trajectorielle, tandis que l’erreur faible est une évalua- tion à un temps donné. De plus, pour obtenir une petite erreur forte, il faut un couplage tel que la réalisation du schéma soit proche de la réalisation de la solution de l’EDS, tandis que l’erreur faible est une espérance, et ne dépend doncque des lois des deux processus. Lorsque l’erreur se comporte en ∆tα, on parle d’erreur d’ordre α. Pour une fonction f lipschitzienne, l’ordre de l’erreur forte est toujours plus petit que l’ordre de l’erreur faible. Dans cette thèse, je me suis essentiellement intéressé à deux algorithmes : le schéma d’Euler explicite, et l’algorithme de Metropolis-Hastings.

1.5.1 Erreur statistique pour le schéma d’Euler explicite

Le schéma d’Euler explicite associé à l’équation (1.17) est la chaîne de Markov (Xn∆t) construite itérativement de la manière suivante : si la variable aléatoire Xn∆ta pris la valeur

x ∈ Rd, on génère une variable aléatoire Un+1, qui suit une loi normale centrée réduite, indépendante de tout ce qui a été fait précédemment, et on pose

Xn+1∆t := Xn∆t− ∆t b(n∆t, Xn∆t) + √

∆t σ(n∆t, Xn∆t)Un+1.

Cet algorithme est connu sous le nom de schéma d’Euler explicite, ou encore schéma d’Euler-Maruyama. C’est la généralisation naturelle du schéma d’Euler classique utilisé pour discrétiser en temps les équations différentielles ordinaires.

Lorsque les coefficients b et σ sont lipschitziens, si l’on fait tendre le pas de discrétisation ∆t vers 0, la loi de ce schéma converge bien vers celle de l’EDS (1.17). Dans [TT90], il a été prouvé que l’erreur faible de discrétisation de ce schéma est d’ordre 1.

Pour l’erreur de discrétisation, dans le cas où σ est borné, il a été prouvé dans [FM12] que la loi de Xn∆t vérifie une inégalité de transport-entropie dont la constante ne dépend de n et ∆t qu’à travers t = n∆t (ce qui signifie qu’elle est stable par passage à la limite ∆t −→ 0). Cette inégalité implique un phénomène de concentration gaussienne, avec une constante explicite, qui nous permet de borner a priori l’erreur statistique, et donc de donner des intervalles de confiance pour la valeur de E[f (Xt)] obtenue en prenant la

moyenne sur des copies indépendantes de Xt, lorsque f est une fonction lipschitzienne.

Les résultats du chapitre 7 constituent une extension du résultat de [FM12] au cas où σ n’est plus borné. On ne peut plus s’attendre à obtenir de la concentration gaussienne, mais on peut obtenir des inégalités de transport-entropie plus faibles que T1, et qui permettent

encore d’obtenir des intervalles de confiance pour E[f (Xt)]. Le résultat principal est le

suivant :

Théorème 1.10. Supposons que les coefficients b et σ de l’équation différentielle stochas-

tique soient des fonctions Lipschitziennes en espace, uniformément en temps. Supposons de plus qu’il existe une fonction V : Rd−→ R∗

+ de classe C2, de hessienne bornée et telle qu’il existe une constante α ∈ [1/2, 1] et deux constantes positives Cb et Cσ telles que pour

tout x ∈ Rd et t ∈ [0, T ] on ait

|b(t, x)|2≤ CbV (x) Tr(σσ(t, x)) ≤ CσV1−α(x).

Alors, pour ∆t suffisamment petit, la loi du schéme d’Euler au temps T = n∆t vérifie une inégalité trannsport-entropie T1,Φ

α, avec Φ

α une fonction qui dépend explicitement

des paramètres et de T , mais pas de n et ∆t. La fonction Φ(r) se comporte de manière

quadratique pour r petit, et comme Cr2α pour r grand.

Dans ce résultat, on peut voir α comme un paramètre mesurant la croissance du coefficient de diffusion σ à l’infini. C’est ce paramètre qui donne le comportement à l’infini de la fonction Φ∗α impliquée dans l’inégalité transport-entropie.

44 Chapitre 1. Introduction générale

Une exemple de diffusions auxquelles ce résultat s’applique est celui des processus de la forme

dXt= λXtdt +



1 + |Xt|2(1−α)/2 dB

t.

Ce résultat implique les bornes de concentration suivantes :

Corollaire 1.33. Sous les hypothèses précédentes, si les XT∆t,k sont des variables aléatoires iid obtenues en utilisant le schéma d’Euler explicite, on a les bornes

Px " 1 M M X k=1 f (XT∆t,k) − E[f (XT∆t)] ≥ r # ≤ 2 exp(−M Φα(r));

où f est une fonction 1-lipschitzienne, et

Px " sup f 1−lip 1 M M X k=1 f (XT∆t,k) − E[f (XT∆t)] ! ≥ C(T, ∆t) M1/(d+2) + r # ≤ exp(−M Φα(r)).

Des résultats similaires sont également obtenus pour une famille d’algorithmes d’ap- proximation stochastiques, utilisés pour estimer numériquement les zéros d’une fonction continue sur Rd, dont les valeurs sont coûteuses à obtenir (en terme de nombre de calculs à réaliser). Ils n’ont pas été repris dans cette thèse, mais peuvent être trouvés dans l’article [FF13].

1.5.2 Erreur de discrétisation pour l’algorithme de Metropolis-Hastings

On considère maintenant le cadre plus restreint des équations différentielles stochas- tiques de la forme

dqt= −∇V (qt)dt +

2dBt. (1.18)

Comme on l’a déjà vu, les diffusions de cette forme sont des processus de Markov réver- sibles, et convergent vers une unique mesure de probabilité invariante

µ(dx) = 1

Z exp(−V (x))dx,

au moins lorsque V croît suffisemment vite vers +∞ à l’infini.

Dans le cas où V n’est pas globalement lipschitzienne, il s’avère que le schéma d’Euler explicite fonctionne mal. Au lieu d’être stable en temps long, ses moments partent à l’infini. L’une des sources de ce problème est que, contrairement au processus lui-même, cette approximation n’est pas une chaîne de Markov réversible. Pour pouvoir éviter ce phénomène d’explosion, il est donc naturel de chercher un moyen de modifier le schéma d’Euler explicite pour le rendre réversible. Une manière possible de faire ceci est d’utiliser l’algorithme de Metropolis-Hastings pour stabiliser le schéma.

L’algorithme de Metropolis-Hastings est une manière de construire une chaîne de Mar- kov réversible ayant une mesure de probabilité invariante spécifiée. Elle a été introduite pour la première fois dans [MRR+53]. Elle est souvent utilisée pour échantillonner la me- sure π, par exemple dans le cadre d’une méthode de Monte Carlo. On pourra consulter [DSC98] et les références qui y sont incluses pour plus d’information sur l’algorithme de Metropolis et ses applications.

La construction de la chaîne (Xn) se fait de la manière suivante : on suppose qu’on dispose d’une mesure de probabilité π sur un espace X, que l’on va pour l’instant sup- poser discret. On suppose aussi qu’on dispose d’un ensemble de mesures de probabilités

1.5. Discrétisation d’équations différentielles stochastiques 45

T (x, ·) sur X, de préférence faciles à simuler. A partir de là, on définit les probabilités

d’acceptation

R(x, y) := T (y, x)π(y)

T (x, y)π(x) (1.19)

Alors, conditionnellement à la valeur de Xn, on génére une proposition Yn+1, de loi

T (Xn, ·), et une variable aléatoire Un+1, de lui uniforme sur [0, 1]. On considère alors

deux possibilités :

– Si Un+1≤ R(Xn, Yn+1), on pose Xn+1:= Yn+1;

– Sinon, on pose Xn+1:= Xn.

Dans le cas où la chaîne de Markov est à valeurs dans un espace continu, on remplace juste

T et π par leurs densités par rapport à une mesure de référence (typiquement, la mesure

de Lebesgue si on se place sur Rd).

On remarque que, pour construire cette chaîne de Markov, on peut se contenter de connaître π à une constante multiplicative près. Ceci est très pratique lorsqu’on utilise cet algorithme pour simuler une mesure de la forme µ(dx) = Z1 exp(−V (x))dx lorsqu’on connaît le potentiel V , pour laquelle il peut parfois être très difficile de calculer efficacement la fonction de partition Z. C’est pour cette raison que cet algorithme est souvent utilisé en physique statistique.

On peut maintenant appliquer cette méthode au schéma d’Euler explicite. Le taux d’acceptation est donné par

R∆t(x, y) :=

e−V (y)T∆t(y, x) e−V (x)T∆t(x, y) ,

où T (x, y) est la probabilité de transition de x à y du schéma d’Euler explicite, donnée par T∆t(x, y) :=  1 d/2 exp  − 1 4∆t|y − x + ∆t∇V (x)| 2.

Ce schéma est connu dans la littérature sous le nom de SmartMC, ou Metropolis- adjusted Langevin algorithm (MALA). Comme la chaîne de Markov obtenue est réver- sible, la dynamique est stable, et converge vers la mesure invariante µ. Toutefois, comme cette modification est sans relation avec la dynamique, elle affecte en mal l’erreur de dis- crétisation. Par exemple, il a été montré dans [BRVE09] que l’erreur de discrétisation trajectorielle forte à l’équilibre, donnée par

Eµ  Ex[ X ∆t bt/∆tc− Xt 2 ] 1/2 ,

se comporte en C(t)∆t3/4. Ceci est à comparer à l’erreur en ∆t pour le schéma d’Euler explicite avec drift lipschitzien.

Dans le chapitre 8, je me suis intéressé à l’erreur de discrétisation dans le calcul du coefficient de transport, défini par

D := lim t→∞E X t− X0 tXt− X0 t  .

Ce coefficient est également donné par la formule D = 2  Id − Z +∞ 0 E[∇V (qt ) ⊗ ∇V (q0)]dt  .

46 Chapitre 1. Introduction générale

Les résultats du chapitre 8, obtenus en collaboration avec Ahmed-Amine Hommann et Gabriel Stoltz montrent que lorsqu’on utilise l’algorithme MALA pour simuler une dyna- mique de la forme (1.18) sur le tore, l’erreur sur l’évaluation du coefficient de transport faite en discrétisant l’une des deux formules précédentes est en ∆t D+ O(∆t3/2).

Dans le chapitre 9, qui présente un résultat obtenu en collaboration avec Ahmed- Amine Hommann et Gabriel Stoltz, on a cherché à modifier l’algorithme pour obtenir un schéma avec une meilleure erreur de discrétisation trajectorielle forte à l’équilibre. On a montré qu’en ajoutant des perturbations faibles au schéma d’Euler explicite, puis en utilisant l’algorithme de Metropolis-Hastings, on obtient un schéma avec une erreur forte en ∆t (plutôt que (∆t)3/4). A noter qu’il n’est pas possible de faire un schéma avec une

meilleure erreur forte (voir par exemple l’article de revue [MGR06]). Ce schéma est obtenu en appliquant l’algorithme de Metropolis à la chaîne de Markov donnée par

Xn+1∆t = Xn∆t− ∆t∇V (Xn∆t) +∆t 2 6  − Hess V (Xn∆t)∇V (Xn∆t) + ∇∆V (Xn∆t) + √ 2∆t  Id + ∆t 3 Hess V (X ∆t n ) −1/2 Un+1.

Pour tous ces résultats, l’élément important est l’étude du comportement du taux d’ac- ceptation R∆t lorsque ∆t tend vers 0. Pour l’algorithme MALA standard, il se comporte en 1 − c∆t3/2. Pour pouvoir obtenir des meilleures bornes d’erreur, il nous faut réussir à augmenter le taux d’acceptation, pour mieux coller à la dynamique continue. Le schéma du chapitre 9 a un taux d’acceptation en 1 − c∆t5/2, et c’est ce qui permet d’obtenir une erreur forte trajectorielle d’ordre 1.

Documents relatifs