• Aucun résultat trouvé

Modification des algorithmes de Monte Carlo par reformulation de l’intégrale

3.1 Méthodes de Monte Carlo

3.1.3 Modification des algorithmes de Monte Carlo par reformulation de l’intégrale

l’intégrale

Les manipulations d’une formulation intégrale donnée permettent de construire de nouveaux algorithmes potentiellement très différents de l’algorithme original qui en général correspond aux images de la physique statistique du transport (par exemple celui décrit à la section précédente).

3.1.3.1 Échantillonnage par importance

Dans ce qui précède, la physique (loi de Beer, fonction de phase, albédo de diffusion simple) donne directement (à un facteur de normaliastion près) les densités de probabilité, ce qui donne directement un algorithme de Monte Carlo pour l’estimateur de la luminance. Remar- quons que dans la formulation (3.4), les densités de probabilité utilisées pour échantillonner les variables aléatoires L, S et L auraient pû être choisies arbitrairement. En effet, l’équation (3.4) est parfaitement équivalente à (les dépendances spatiales, directionnelles et spectrales sont omises au bénéfice de la concision):

L= Z ∞ 0 dl ˜pL ×    ˜pSR 0˜Φ np L ˜ pL pS ˜ pS Φ ˜ ΦL o + (1 − ˜pS) np L ˜ pL 1−pS 1− ˜pSL eqo (3.5)

Les densités de probabilité utilisées ont été modifiées, mais l’équation est conservée en repor- tant dans les poids le rapport des probabilités originale et modifiée p/˜p. Ainsi, l’échantillonnage biaisé est corrigé par une pondération, rendant l’algorithme exact. Cette méthode, qualifiée d’échantillonnage par importance peut être utilisée pour plusieurs raisons : la densité de probabilité d’origine est difficile à échantillonner mais s’évalue aisément, ou l’échantillonnage suivant la densité d’origine donne des poids trop variables menant à une variance statistique trop importante.

3.1.3.2 Algorithmes à variance nulle

L’approche par variance nulle est une modification extrême qui permet d’annuler totalement la variance d’un estimateur. Reprenons l’équation (3.2) qui exprime la luminance locale comme l’espérance d’une variable aléatoire WS(L) distribuée selon pL(l). L’approche par

variance nulle est un cas particulier de l’échantillonnage par importance, où la densité de probabilité modifiée ˜pL(l) est telle que pour tout l échantillonné selon ˜pL(l), le poids WS(l) vaut exactement la luminance locale que l’on cherche à évaluer, c’est à dire

pL(l)WS(l) ˜pL(l) = L soit ˜pL(l) = pL(l)WS(l) L = pL(l)WS(l) R∞ 0 dl pL(l)WS(l)

Cette densité de probabilité ne peut pas être analytique puisqu’elle dépend précisément de la grandeur que l’on cherche à estimer, L. L’intérêt de cette méthode est qu’elle peut servir de guide dans le choix de la densité de probabilité à échantillonner : si pL(l)WS(l) peut être approché par une fonction analytique y(l) dont l’intégrale est connue, alors

˜˜pL(l) =

y(l) R∞

0 dl y(l)

est un bon candidat pour échantillonner L et produire une variance faible sur l’estimation de L.

3.1.3.3 Algorithmes directs et réciproques

Dans l’algorithme décrit ci-avant, les chemins démarrent à la position et dans la direction de la sonde fictive et remontent les chemins optiques jusqu’aux sources d’émission. Cet algorithme sera qualifié d’inverse, adjoint, reverse ou backward dans la littérature, nous le qualifierons de réciproque dans ce manuscrit. Lorsque les sources sont localisées en espace ou en direction, comme c’est le cas par exemple du soleil, et que l’observable au contraire est intégré, comme c’est le cas par exemple d’un flux moyenné horizontalement sur une surface, il peut être plus approprié d’implémenter un algorithme direct, où les chemins sont émis à la source et sont propagés dans le milieu le long des chemins optiques de diffusion.

3.1.3.4 Collisions nulles

La méthode des collisions nulles n’est pas une méthode de réduction de variance. Son principal bénéfice est qu’elle permet de décorréler l’algorithme Monte Carlo de suivi de chemins du milieu de propagation d’origine. Cette méthode a été développée dans différentes disciplines, sous différents noms (voir 4.2.A.2). En particulier dans le domaine du transfert radiatif atmosphérique, elle est connue sous le nom de Maximum Cross-Section [Marchuk et collab., 1980a]. Le principe est qu’un composant fictif, de coefficient d’extinction kn, est ajouté au

milieu de propagation, de façon à rendre son champ de coefficient d’extinction total ˆk = k+kn

uniforme. Ce composant n’ayant pas d’effet sur le rayonnement, il peut être assimilé à une espèce purement diffusante, dont la fonction de phase est une distribution de Dirac vers l’avant (ce qui revient à n’être pas diffusé du tout). Cette méthode n’introduit donc pas de biais ni d’approximation. Les épaisseurs optiques de libre parcous sont échantillonnées selon une loi exponentielle de paramètre 1. Comme ˆk est uniforme, l’intégrale de l’extinction le long du chemin (qui définit l’épaisseur optique) se réduit à un produit, et devient donc inversible, ce qui permet un accès rapide à la position physique d’interaction connaissant l’épaisseur optique de libre parcours échantillonné. Comme une espèce fictive a été ajoutée, l’espèce responsable de la collision doit alors être déterminée au lieu de l’interaction. Cela se fait classiquement selon un échantillonnage aléatoire de la variable aléatoire de Bernoulli de paramètre k

ˆ

k :

• avec une probabilité k

ˆ

k : l’espèce responsable de la collision est une espèce réellement

en présence dans le milieu. La fonction de phase correspondante est échantillonnée afin de déterminer la direction diffusée. Une nouvelle position de collision est échantillonnée selon ˆk.

• avec une probabilité kn

ˆ

k : l’espèce responsable de la collision est l’espèce fictive. Le

chemin continue tout droit. Une nouvelle position de collision est échantillonnée selon ˆk.

En écrivant la formulation intégrale associée à cet algorithme, Galtier et collab. [2013] montrent que le choix des probabilités utilisées pour déterminer la nature de la collision n’est pas obligatoirement celui présenté ici, mais peut être fait arbitrairement, par exemple pour relâcher la condition kn0, nécessaire ici pour que les probabilités soient bien dans [0, 1].

Dans la suite, nous utiliserons toujours les probabilités décrites ci-dessus, c’est à dire que ˆk sera toujours un majorant du champ de k. La formulation intégrale des collisions nulles est donnée par l’équation (3.6) :

L(x, ω) = Z ∞ 0 dl ˆpL(l; x, ω) ×                k(x−lω) ˆ k(x−lω) × ( pS(x − lω)R 0Φ(ω, ω0) {L(x − lω, ω0)} + (1 − pS(x − lω)) {Leq(x − lω, ω)}  1 −k(x−lω) ˆ k(x−lω)  {L(x − lω, ω)} (3.6) avec ˆpL(l; x, ω) = ˆk(x − lω) exp  −Rl 0 ds ˆk(x − sω) 

. Si ˆk est uniforme dans le milieu, alors ˆpL(l; x, ω) = ˆk exp



−ˆkls’échantillonne aisément par la méthode de la transformée inverse.

La méthode des collisions nulles est le point de départ des développements présentés au Chapitre 4.

3.1.3.5 Espace des chemins

Un aspect remarquable des méthodes de Monte Carlo est le faible surcoût lié à l’ajout de dimensions d’intégrations. Dans les étapes décrites ci-dessus, un chemin est construit à partir de segments échantillonnés dans l’espace infini de dimension 5, Dx× Dω : il existe une infinité

de positions et de directions pour chaque évènement de diffusion étant donné que l’espace et les directions sont échantillonnés continuement. À fortiori, il existe une infinité de possibilités de combiner ces positions et directions pour construire un chemin γ. La récursivité liée à la diffusion multiple ajoute une dimension d’intégration (par construction, une intégration est réalisée sur la variable “nombre de diffusions”). La luminance est ainsi la somme des contributions de chemins jamais diffusés, diffusés une fois, diffusés deux fois... diffusés une infinité de fois. Par la suite on appelle cet espace d’intégration spatio-directionnel, augmenté de la dimension liée à l’ordre de diffusion des chemins, l’espace des chemins DΓ. Lorsque l’on simule des trajectoires par Monte Carlo, on parle d’échantillonnage de l’espace des chemins. Lorsque l’on ajoutera l’intégration spectrale, l’espace des chemins sera augmenté de la dimension spectrale à support dans [λ0, λ1]. La modification de l’algorithme consistera en l’ajout d’une étape (par exemple, préliminaire à l’étape 1 du pseudo-algorithme présenté précédemment) : échantillonner une longueur d’onde dans le spectre, selon une densité de probabilité donnée. Le reste de l’algorithme se déroulera exactement de la même façon, en monochromatique ; seulement, à chaque chemin sera attribué aléatoirement une longueur d’onde différente. L’intégration sur une nouvelle dimension ne complexifie pas l’algorithme au sens informatique du terme : l’échantillonnage de la nouvelle variable aléatoire se fait dans la même boucle que le reste de l’algorithme.

Par contre, l’ajout d’une nouvelle dimension peut être source de variance pour le nouvel estimateur. En effet, rien ne garantit que la convergence sera la même lorsque la luminance sera intégrée sur le spectre, surtout que les propriétés optiques de l’atmosphère varient forte- ment avec la longueur d’onde, ce qui peut mener à des variations des poids de Monte Carlo d’une réalisation à l’autre de plus grande amplitude. D’autres types d’intégration, comme par exemple l’intégration temporelle, peut au contraire réduire la variance d’un estimateur. En effet, si l’on souhaite estimer une grandeur ponctuellement non nulle mais relativement faible, par exemple la puissance reçue par un concentrateur solaire à 18h un jour donné, la variance peut être très élevée car les chemins ont un poids nul la plupart du temps, et très rarement ont un poids très élevé : la moyenne est toujours proche de zéro mais la variance, qui est sensible aux écarts quadratiques à la moyenne, est élevée. Dès que l’estimation portera sur une grandeur intégrée dans le temps (par exemple, l’énergie reçue par le même concentrateur pendant 50 ans), cette variance diminue : l’intégration temporelle se fait en échantillonnant une variable aléatoire temps, à laquelle on peut donner une densité de probabilité (arbitraire, selon la méthode d’échantillonnage par importance) de manière à favoriser les chemins ayant un poids important, par exemple en échantillonnant plus souvent des temps autour de midi, l’heure où le système est optimisé pour recevoir une grande quantité d’énergie solaire. Dans ce cas, l’intégration permettra de diminuer l’amplitude des fluctuations de poids et donc la variance [Farges et collab.,2015].

3.2

Simulations des couches limites atmosphériques

La Simulation des Grandes Structures, plus couramment Large Eddy Simulation en anglais (LES dans la suite) est une méthode issue de la modélisation numérique appliquée à la mécanique des fluides. Elle a été conçue dans les années 1960 [Smagorinsky, 1963] et appliquée dans les années 1970 [Deardorff, 1970] pour résoudre les équations de Navier- Stokes. Elle reste très utilisée de nos jours dans divers champs scientifiques tels que la modélisation de la combustion, de la propagation des ondes acoustiques en milieux complexes [Wagner et collab.,2007] ou de la couche limite atmosphérique [Guichard et Couvreux, 2017]. Ces domaines ont en commun l’étude d’écoulements fluides turbulents, pour lesquels l’approche LES a été spécifiquement conçue. Etant donnée l’importance des nuages de couche limite et de leur simulation numérique dans cette thèse, cette section propose un bref résumé des concepts attachés à la notion de couche limite atmosphérique turbulente, des processus majeurs qui contrôlent son évolution, et de sa simulation numérique par LES. Ce texte est

inspiré de Stull [1988] pour la couche limite et de Lac et collab. [2018] et Guichard et Couvreux [2017] pour les simulations numériques.