• Aucun résultat trouvé

Transport de particules par Monte-Carlo

√ √ √ √ √ ⎷ 1 𝑁 − 1(𝑁1 𝑁𝑖=1 𝑌𝑖2− 𝑌2) (10)

Dans la majorité des codes de simulation Monte-Carlo, l’incertitude donnée sur le résultat vaut𝑘𝜎(𝑌) avec 𝑘 = 1, 2 ou 3.

3.2.3 Efficacité d’une simulation

Si la variance informe sur la fiabilité du résultat, en pratique, elle n’est pas suffisante pour juger de la rapidité d’une estimation par Monte-Carlo. Elle peut en effet être arbitrairement faible, pour peu que l’utilisateur investisse assez de temps pour tirer un nombre d’échantillons suffisamment grand. Puisque chaque échantillonnage de 𝑌 nécessite un certain temps de calcul, une diminution de la variance se fait au prix d’une augmentation du temps de simulation. Le critère de la variance seul n’est alors pas suffisant et il devient nécessaire de connaître le temps investi pour parvenir à cette variance. On introduit alors la notion d’efficacité𝜖 définie comme :

𝜖 = 1 𝜎2𝑡

(11)

où 𝑡 est le temps de calcul nécessaire pour atteindre une variance égale à 𝜎2 (où 𝜎 dénote ici l’estimation de l’écart-type, donnée ci-dessus en (10)). Contraitement à la variance, cette quantité peut être considérée comme constante pour une simulation donnée

[Bielajew and Rogers, 1988]. Si𝑁 est le nombre d’histoires simulées, la variance 𝜎2décroît en

fonction de1/𝑁 . Puisque le temps de simulation 𝑡 est, en moyenne, directement proportionnel à𝑁 , le produit de ces deux valeurs doit tendre vers une constante.

Si l’efficacité est multipliée par un facteur𝑛, alors soit le temps nécessaire pour arriver à une même variance est réduit d’un facteur𝑛, soit la variance est réduite d’un facteur 𝑛 pour un même temps de simulation. Pour optimiser une simulation, il est alors naturel de chercher à maximiser l’efficacité.

3.3 Transport de particules par Monte-Carlo

3.3.1 Constitution d’une histoire

Les différentes estimations effectuées par Monte-Carlo reposent sur la capacité à produire des échantillons de la variable aléatoire d’intérêt, qui respectent donc sa loi de probabilité. Lorsque l’on cherche à connaître une quantité physique telle qu’une dose déposée pendant un traitement, la simulation a généralement pour objectif d’estimer l’espérance de la variable aléatoire«Y = dose déposée au cours de l’histoire d’une particule émise par la source» (éventuellement dans une région limitée). Le processus d’estimation est illustré ci-dessous sur la figure25.

Figure 25 – Illustration de la méthode d’estimation de la dose déposée pour une particule source. La trajectoire des particules permet de visualiser les étapes d’obtention d’une réalisation de cette variable.

Une réalisation de cette variable consiste à simuler l’émission et l’histoire d’une particule dans une géométrie de calcul donnée, représentative du milieu physique réel, et de calculer la dose déposée au cours de cette histoire. Après l’échantillonnage d’un grand nombre d’histoires, une estimation de l’espérance de 𝑌 peut être faite. La connaissance de cette valeur permet ensuite de remonter à une estimation de la dose réelle grâce aux paramètres d’irradiation.

La trajectoire d’une particule débute par son émission par une source, puis est composée d’une série de déplacements entrecoupés d’interactions qui peuvent modifier son énergie et sa direction. La particule est suivie de sa création jusqu’à sa disparition par sortie du milieu de calcul ou par absorption dans un matériau, où elle dépose alors localement son énergie restante. Les interactions et les déplacements entre celles-ci sont échantillonnés un par un, dans l’ordre de leur survenue.

Les trajectoires des particules secondaires créées par les interactions de la particule primaire avec le milieu le long de son parcours font également partie de la variable d’intérêt. Elles sont aussi simulées, généralement après la fin de la trajectoire de la particule primaire. Le tirage de la variable d’intérêt se termine lorsque toutes les particules créées ont quitté le milieu de calcul ou ont été absorbées, et l’histoire d’une particule comprend ainsi à la fois la trajectoire de la particule primaire et celles des particules secondaires.

L’échantillonnage réalisé est une succession de nombreux échantillonnages de variables aléatoires intermédiaires représentant tous les processus physiques stochastiques rencontrés : choix des caractéristiques et du point d’émission, distance parcourue par la particule avant d’interagir, type d’interaction rencontrée, déviation de la particule due à l’interaction, perte d’énergie... Chacun de ces échantillonnages respecte la densité de probabilité du processus en question, connue ou approchée à partir des lois physiques qui lui sont relatives.

La loi de probabilité que suit un processus physique donné dépend uniquement de l’état actuel de la particule (caractérisé par son énergie, sa position et sa direction). La réalisation de ce processus, dont l’issue est déterminée par échantillonnage, modifie l’état de la particule. Ce nouvel état détermine alors la loi de probabilité du processus suivant, et ainsi de suite. Ce procédé, qui s’apparente ainsi à une chaîne de Markov, est illustré ci-dessous sur la figure26, dans un exemple où le nombre de réalisations est limité.

Figure 26 – Illustration dans un cas simplifié du processus markovien de transport d’une particule par échantillonnages successifs.

Dans le cas ci-dessus, un photon se déplace dans le milieu𝐼 et subit une diffusion Rayleigh en (1). Cette interaction modifie aléatoirement sa direction selon une loi qui dépend de son énergie, et donc de son état en (1). Parmi les directions possibles (2), la troisième possibilité est obtenue. Le second processus aléatoire est le choix du pas, dont la loi dépend de l’énergie, de la position, et de la direction du photon et donc du résultat de l’échantillonnage (2). En effet, selon la direction obtenue, il est possible que la particule soit dirigée vers les milieux𝐼 𝐼 ou 𝐼 𝐼 𝐼 , ou bien reste dans le milieu𝐼 . Dans cet exemple, le pas obtenu fait interagir le photon dans le milieu𝐼 𝐼 𝐼 . L’échantillonnage (4) correspond ensuite au choix de l’interaction à réaliser. La probabilité relative de chaque interaction dépend du milieu dans lequel le photon se trouve. À nouveau donc, la loi à échantillonner dépend du résultat obtenu en (3) puisque le photon aurait pu s’arrêter avant le milieu𝐼 𝐼 𝐼 ou bien le traverser et rester dans le milieu 𝐼 .

Si on remonte la chaîne d’évènements jusqu’à l’émission de la particule, on constate que la totalité de son histoire est déterminée uniquement par le modèle et les réalisations des différents processus aléatoires échantillonnés

6

. Chaque processus est en fait une variable aléatoire conditionnée par le résultat de la variable précédente, elle-même conditionnée par la précédente, et ainsi de suite jusqu’à la toute première variable échantillonnée. Si𝑋𝑖représente le i

ème

processus échantillonné, alors celui-ci est conditionné par les réalisations de l’ensemble des𝑖 − 1 variables précédentes. On peut noter sa densité de probabilité sous la forme d’une densité conditionnelle𝑓(𝑥𝑖∣𝑋𝑖−1 = 𝑥𝑖−1, … , 𝑋1 = 𝑥1)7

. De même, le processus 𝑖 − 1 suit une densité de probabilité𝑓(𝑥𝑖−1∣𝑋𝑖−2 =𝑥𝑖−2, … , 𝑋1=𝑥1), et ainsi de suite jusqu’à 𝑋1.

De manière générale, la densité de probabilité conditionnelle d’une variable 𝑋2 sachant que l’évènement𝑋1 =𝑥1est réalisé est définie par la relation :

𝑓(𝑥2∣𝑋1=𝑥1)𝑓 (𝑥1) = 𝑓 (𝑥1, 𝑥2) (12)

6. L’état initial de la particule peut lui-même être une variable aléatoire.

7. Le caractère markovien de ce processus implique par ailleurs que cette loi est simplement égale à 𝑓(𝑥𝑖∣𝑋𝑖−1=𝑥𝑖−1)

avec𝑓(𝑥1, 𝑥2) la densité jointe des variables 𝑋1et𝑋2et

𝑓(𝑥1) = ∫ 𝑓 (𝑥1, 𝑥2)𝑑𝑥2 (13)

L’échantillonnage de 𝑋1 selon𝑓(𝑥1) puis celui de 𝑋2∣𝑋1=𝑥1 selon𝑓(𝑥2∣𝑋1 = 𝑥1) permet ainsi d’obtenir un échantillon distribué selon𝑓(𝑥1, 𝑥2). Or, on a ici :

𝑓(𝑋𝑖∣𝑋𝑖−1 =𝑥𝑖−1, … , 𝑋1=𝑥1) … 𝑓 (𝑥2∣𝑋1=𝑥1)𝑓 (𝑥1) = 𝑓 (𝑥1, … , 𝑥𝑖) (14) En conséquence, les échantillonnages successifs réalisés pour le transport selon𝑓(𝑥1), puis 𝑓(𝑥2∣𝑋1 = 𝑥1) etc. fournissent un échantillon distribué selon la densité de probabilité jointe 𝑓(𝑥1, … , 𝑥𝑖) des variables 𝑋1à𝑋𝑖. Si on fait l’hypothèse que l’histoire d’une particule comprend 𝑛 processus aléatoires, alors la variable aléatoire 𝑌 , qui dépend de la totalité de l’histoire, est une fonction des variables𝑋1à𝑋𝑛: l’histoire est en effet entièrement décrite par les réalisations successives des processus aléatoires rencontrés. Elle peut alors s’écrire𝑌 = 𝑔(𝑋1, … , 𝑋𝑛) et son espérance est :

E(𝑌 ) = ∫ 𝑓 (𝑥1, … , 𝑥𝑛)𝑔(𝑥1, … , 𝑥𝑛)𝑑𝑥1… 𝑑𝑥𝑛 (15) Un unique échantillonnage de cette variable, liée à l’histoire complète d’une particule, requiert potentiellement l’échantillonnage d’un très grand nombre de variables aléatoires intermédiaires. De plus, l’incertitude sur l’estimation diminue en fonction de la racine du nombre d’échantillons obtenus. Dans de nombreux cas, la variance de la variable échantillonnée est importante et obtenir une incertitude statistique satisfaisante demande un temps considérable. Pour atténuer ce problème, des méthodes d’échantillonnage ont été développées avec pour objectif d’améliorer l’efficacité du calcul. La partie suivante présente de manière générale ces méthodes, dites de réduction de variance, avant d’analyser quelques exemples utiles.