• Aucun résultat trouvé

Chapitre II Les méthodes de calcul de dose : un état de l’art

3 Méthodes de convolution / superposition

43

Figure 26 (Mackie, 2010)(a) Fluence du photon primaire (b) Noyau de convolution (c) Distribution de dose Les méthodes de convolution / superposition, proposées au début des années 1980 (Boyer, et al., 1985) (Mohan, et al., 1986) (Ahnesjo, 1989) (Mackie, et al., 1985), séparent les processus de transport et de

dépôt de l’énergie en deux phases : le transport de l’énergie par les photons primaires, et son dépôt par

les particules secondaires (électrons et photons). En réalité, les électrons issus des interactions photoélectrique, Compton et création de paire déposent leur énergie dans les quelques millimètres voire centimètres autour, mais les interactions Compton libèrent aussi des photons secondaires qui peuvent parcourir de longue distance avant d’interagir de nouveau et de déposer toute ou partie de leur énergie (Childress, et al., 2012). Le dépôt d’énergie par ces particules secondaires est également

intégré dans l’expression des Kernels. La dose absorbée totale en un point donné résulte de la

somme des distributions de dose calculées à partir de tous les points où l'énergie est libérée (superposition), cette somme est réalisée par une convolution de ces deux phases, illustrée sur la Figure 26 .

L’équation générale du calcul de dose s’écrit :

est le terma au point , donne la part de l’énergie déposée au point .

3.1 Méthode point Kernel

Figure 27: Noyaux de convolution : (a) noyau représentant la répartition de l’énergie libérée par des interactions de

photons primaires ayant lieu en un point unique ; (b) un noyau de type pencil beam, représentant la dose déposée par un faisceau de section infinitésimale.

La méthode du point kernel consiste en deux phases successives. La première phase correspond à

44

en section 3 Chapitre I de la première partie du mémoire). La deuxième phase correspond à calculer un modèle de dépôt de cette énergie autour d’un site d’interaction primaire.

Puisque le déplacement des électrons et le dépôt d'énergie est aléatoire, le modèle de dépôt de cette énergie est évalué en utilisant des simulations Monte Carlo. Ce modèle est appelé noyau de convolution (kernel : point spread functions (Ahnesjo, et al., 1987)) qui décrit la distribution de

l’énergie déposée dans un milieu infini homogène autour d’un site d’interaction primaire. Il peut être

observé sur la Figure 27(a).

Il faut noter que les noyaux de convolution sont généralement calculés dans un fantôme d'eau, alors que les patients sont composés de milieux divers comme des tissus musculaires, de l’os, du poumon, etc. Dans la pratique, on considère que les photons de haute énergie interagissent d’une manière similaire dans le poumon, les tissus musculaires, les tissus adipeux et même l’os que dans l'eau. Cependant, les photons de basse énergie, grâce à l’effet photoélectrique, sont plus facilement absorbés

dans un milieu dense comme l’os par rapport à l’eau. Des matériaux avec un grand numéro atomique

(comme le titane dans une prothèse) peuvent avoir aussi des proportions d’interactions très différentes par rapport à celles calculées dans l'eau.

Pour corriger ce biais, l’adaptation aux cas hétérogènes a souvent été réalisée sur les deux phases du

calcul:

Tout d’abord, le terma qui est proportionnel à la fluence primaire doit être calculé en prenant en

compte les coefficients d'atténuation des différents matériaux traversés. Ensuite, le noyau de convolution doit être dilaté ou compressé en fonction de la variation de la densité électronique. Ces compressions et dilatations sont communément dénommées scaling (O’Connor, 1984). L’équation

générale du calcul de dose s’écrit :

Où est la densité électronique du milieu où le noyau a été généré, est la densité

électronique du milieu où le noyau doit être adapté.

La méthode de convolution est coûteuse en temps de calcul, puisqu'elle nécessite deux boucles imbriquées sur l'ensemble des voxels du fantôme. A titre d’exemple, pour 106 voxels (fantôme de 30×30×30 cm3 avec une résolution de 3 mm), il faut 1012 calculs, ces calculs durent donc plusieurs minutes pour un fantôme 3D. Pour accélérer le calcul, différents méthodes ont été envisagées. La première est le calcul de la convolution par transformation de Fourier (Mohan, et al., 1987). Mais cette méthode ne peut pas être adaptée à l’hétérogénéité du fantôme car elle utilise un noyau constant. La seconde approche accélératrice consiste à pré intégrer des noyaux dans certaines directions. Ces méthodes sont les plus efficaces et sont souvent implémentées dans les TPS commercialisés en clinique, la plus répandue étant la méthode Pencil Beam décrite à la section suivante.

3.2 Méthode Pencil Beam

Une pré-intégration de tous les noyaux dans le sens de la profondeur du faisceau de section

infinitésimale permet d’obtenir la dose absorbée due à ce dernier. Un tel noyau est montré sur la

Figure 27 (b). Cette approche dite pencil beam est utilisée pour les faisceaux d’électrons (Kooy, et al., 1989) et les faisceaux de photons (Ahnesjo, et al., 1992).

Pour calculer la dose déposée par un faisceau plus large, tous ces noyaux sont alors mis côte à côte. On réalise ainsi une convolution entre le noyau pencil beam et le terma du faisceau dans le fantôme.

45

hétérogènes a été réalisée en faisant un scaling sur le noyau dans un milieu de référence (souvent de

l’eau) selon la densité électronique du milieu courant. Cette adaptation est limitée par un scaling selon

la densité électronique le long de l’axe du faisceau, ce qui fait que les diffusions latérales sont généralement négligées. En outre, cette méthode ne permet pas de calculer les variations de dose aux interfaces issues du déséquilibre électronique local. Par conséquent, les résultats obtenus peuvent être très imprécis, des erreurs importantes ont été relevées (Knoos, et al., 1995).

Cependant, des améliorations ont récemment été apportées à la méthode du pencil beam (Ulmer, et al., 2005) (Tillikainen, et al., 2008). Le problème de diffusion latérale est résolu par un scaling latéral des noyaux, et des modèles complémentaires ont été ajoutés aux interfaces pour compenser les déséquilibres électroniques induits par celles-ci.

Grâce à ces deux améliorations, l'approche du pencil beam devient intéressante pour les applications cliniques avec un temps de calcul assez réduits. A titre exemple, le temps de calcul peut aller de dix secondes à une minute pour des tailles de champ allant de 4×4 cm² à 6×6 cm².

La précision a par ailleurs été fortement augmentée par les dernières améliorations (Tillikainen, et al., 2008) mais des erreurs importantes (jusqu'à 8% dans le cas de faisceaux étroits) peuvent toutefois être relevées sur des géométries complexes.

3.3 Méthode Collapsed cone convolution

La méthode dite ''Collapsed cone convolution'', introduite par (Ahnesjo, 1989) offre un des meilleurs compromis temps/précision.

Figure 28 Un voxel terma (cube bleu) émet un cône d'énergie. La dose est déposée seulement dans les voxels qui sont sur l’axe de ce cône (flèche)

Pour un voxel avec un terma donné, la méthode considère que le transport d’énergie se fait selon des cônes dans les différentes directions et partant du point central (le point où le terma a été préalablement calculé) (voir Figure 28). Ensuite, elle suppose que toute l’énergie qui est propagée dans un cône est transportée, atténuée et déposée selon une loi exponentielle sur l’axe de ce cône.

Cette hypothèse permet de simultanément distribuer la dose le long d’un ensemble de raies discrètes

qui émerge de chaque point terma et d’accumuler le terma au fur et à mesure que l’on avance dans la direction considérée (voir Figure 29). Cette simultanéité est à la base des performances en temps de

46

Figure 29 La propagation de l’énergie d'un voxel terma (cube) le long des cônes

La méthode qui en résulte est aujourd'hui l'une des plus efficaces, tant elle offre une précision acceptable (rarement plus de 5% d’erreur (Vanderstraeten, et al., 2006) (Fogliata, et al., 2007)), tout en

prenant un temps limité (de l’ordre de la minute). Mais ce temps est toutefois encore trop élevé pour envisager l’optimisation itérative des plans de traitement.