• Aucun résultat trouvé

Chapitre 1 Principes généraux de la tomographie par émission de positons

1.6 Conclusion

De nombreuses méthodes satisfaisantes existent pour ce qui est de la modélisation des effets d’at- ténuation, de la sensibilité variable des LOR, de la diffusion des photons d’annihilation, du temps- mort et des coïncidences fortuites affectant les données acquises par un scanner TEP. Pour tous les

effets présentés dans ce chapitre, il existe des méthodes d’estimation qui sont à la fois peu biaisées et peu bruitées. En effet, les facteurs d’atténuation peuvent être estimés de manière exacte (biais faible) et précise (variance faible) à partir de cartes tomodensitométriques acquises avec des scanners com- binés TEP-TDM aujourd’hui extrêmement courants. Les facteurs de normalisation corrigeant la sen- sibilité peuvent être estimés avec une très bonne précision en utilisant des méthodes de factorisa- tion ou en acquérant des fantômes de normalisation pendant une longue durée. De telles mesures ne dépendent pas du patient et doivent donc être faites une seule fois. La distribution spatiale des coïncidences fortuites est généralement mesurée par la méthode de la fenêtre retardée, qui est peu biaisée et peu bruitée grâce à l’utilisation de méthodes de réduction de variance prenant en compte la redondance de telles mesures. Le temps-mort peut être calculé précisément en utilisant des mo- dèles mathématiques du comportement du temps-mort dans les blocs de cristaux et dans le système électronique. L’estimation des paramètres de ces modèles est faite une fois pour toute et de manière peu bruitée en utilisant des acquisitions longues de distributions simples. Cependant, certaines cor- rections ne sont pas satisfaisantes ou présentent des limites avec les évolutions actuelles, de formats et de matériels. La correction de diffusion avec l’algorithme SSS présente comme inconvénient de ne pas modéliser les coïncidences diffusées multiples et de nécessiter une étape de mise à l’échelle avec les données mesurées, instable en cas de faible statistique des données détectées en dehors du patient (scanners avec faible rayon, patients obèses). Cependant, en exploitant la puissance de cal- cul des GPU, il est aujourd’hui possible de modéliser précisément cet effet avec des SMC dans des temps compatibles avec les applications en clinique, comme le propose la méthode multiple scatter simulation (MSS) de [Kim et al., 2014].

Depuis quelques années, le format list-mode s’impose face au mode sinogramme grâce à l’aug- mentation des capacités de stockage et à l’augmentation des puissances de calcul des ordinateurs, nécessaire pour une reconstruction list-mode rapide. Ce format, à la différence du mode sinogramme, permet de conserver sans dégradation des échantillonnages spatiaux et temporels fournis par le scanner, ce qui permet d’obtenir une meilleure résolution spatiale des images reconstruites [Rah- mim et al., 2005] et une meilleure correction des effets dynamiques, comme les mouvements respira- toires [Livieratos et al., 2005,Lamare et al., 2007]. Il permet également le stockage brut d’informations spécifiques à chaque coïncidence, comme le TOF, la DOI et l’énergie d’interaction. Cependant, ce format implique des temps de reconstruction plus importants que les méthodes basées sur le mode sinogramme, en particulier si on cherche à corriger l’ensemble des effets intervenant durant l’acqui- sition des données, ce qui est nécessaire pour une reconstruction qualitative et quantitative. L’utili- sation de clusters de calcul est indispensable si on souhaite conserver des temps de reconstruction acceptables en routine clinique. Depuis le milieu des années 2000, les GPU ont été rendus program- mables, ce qui a permis de les utiliser pour exécuter tout type de traitements, différents de celui de données graphiques pour lequel ils sont créés. Des GPU peuvent avoir une puissance de calcul équi- valente à celle d’un cluster de calcul composé de plusieurs dizaines de machines. Plusieurs implé- mentations GPU de la reconstruction en TEP list-mode ont déjà été proposées. Cependant, l’utilisa- tion d’un seul GPU n’est pas toujours suffisante. Néanmoins, il est possible d’intégrer plusieurs GPU dans un seul ordinateur. Nous proposons dans le chapitre2une méthode permettant de distribuer une reconstruction TEP list-mode sur une plate-forme multi-GPU permettant d’exploiter au mieux

de la puissance de calcul disponible.

Concernant la modélisation de la réponse du détecteur liée à sa physique et à sa géométrie, on trouve principalement des méthodes basées sur une préestimation et un stockage de sa matrice de réponse. Elles se basent sur des mesures empiriques, des SMC ou de modèles analytiques. Ces ap- proches présentent cependant comme lourd inconvénient de devoir stocker l’immense matrice de ré- ponse du détecteur, ce qui nécessite d’exploiter des méthodes de compression qui peuvent conduire à des pertes à cause des différentes approximations faites pour réduire la taille de la matrice. Malgré la compression, les matrices résultantes occupent généralement plusieurs dizaines de gigaoctets. Une reconstruction rapide avec ce type de matrices implique de disposer d’une plate-forme de recons- truction ayant des mémoires rapides et de grandes capacités. Une autre limite de cette approche est son manque de flexibilité, c’est-à-dire que, une fois la matrice estimée et stockée, les dimensions du champ de vue et des voxels ne peuvent plus être modifiées. Une autre approche repose sur des pro- jecteurs qui permettent de calculer à la volée la réponse du détecteur ce qui permet de s’affranchir des problèmes de stockage et de flexibilité. De plus, cette approche permet d’exploiter plus efficace- ment les GPU que les méthodes basées sur une matrice stockée, qui est caractérisée par une grande puissance de calcul, mais une faible quantité de mémoire. Le temps de calcul à la volée de la réponse du détecteur impacte directement le temps de reconstruction, il est donc important qu’il soit aussi rapide que possible. Dans ce contexte, seules des méthodes analytiques sont envisageables. Plusieurs projecteurs ont déjà été proposés pour répondre à ce problème. Actuellement, les méthodes les plus précises reposent sur l’utilisation de fonctions Gaussiennes pour modéliser la réponse du détecteur. Cependant, ce type de distribution ne permet pas une modélisation précise de l’ensemble des effets physiques et géométriques, particulièrement de la diffusion intercristaux. Dans le chapitre3nous proposons un nouveau projecteur permettant de répondre à la problématique qui est d’estimer rapi- dement une réponse du système qui modélise l’ensemble des effets associés au détecteur du scanner. Une étude comparative, de ce projecteur avec une reconstruction basée sur une SRM préestimée par SMC et stockée, est présentée dans le chapitre4.

Le parcours du positon est un effet souvent négligé, et généralement à juste titre puisque pour les isotopes comme le18F, il implique une perte de résolution inférieure à la résolution intrinsèque des

scanners cliniques. Les isotopes injectés aux patients doivent posséder une demi-vie suffisamment brève pour qu’ils se désintègrent principalement pendant l’examen TEP et pas après, ce qui implique qu’ils doivent pouvoir être produits à proximité du lieu d’examen et qu’ils ne peuvent pas être sto- ckés longtemps. Les isotopes communs sont produits par des accélérateurs de particules coûteux, qui se trouvent nécessairement proches des scanners pour la raison que nous venons d’évoquer. Ce- pendant, l’utilisation de radionucléides tels que le68Ga ou le82Rb, produit par séparation chimique

(chromatographie sur couche mince) de leur radionucléide père dont la demi-vie est compatible avec un stockage et un transport sur de longues distances, permet de se passer de cet accélérateur. Ce- pendant, ces radionucléides émettent des positons beaucoup plus énergétiques, ce qui entraîne une dégradation importante des images reconstruites, en particulier lorsque le milieu objet est très hété- rogène. Le chapitre5présente une méthode de simulation et de correction du parcours du positon basée sur une SMC simplifiée implémentée sur GPU, qui permet de tenir compte précisément des hétérogénéités de l’objet.