• Aucun résultat trouvé

Correction de la résolution spatiale limitée du scanner

CHAPITRE 2. QUANTIFICATION DES DONNEES TEP

2.6. Correction de la résolution spatiale limitée du scanner

2.6.1. Problème

Comme nous l’avons vu dans le Chapitre 1, la résolution spatiale d’un scanner TEP est fondamentalement limitée par la distance de vol du positon, la non-colinéarité des photons d’annihilation, la taille des cristaux scintillants et la géométrie des blocs. Comme l’indique la Figure 2.6, la résolution limitée d’un scanner TEP cause deux types d’erreur de quantification de la distribution d’activité : sous-estimation de la concentration du radiotraceur dans les structures de taille comparable à la résolution spatiale (effet de volume partiel) et débordement d’une région d’activité dans une autre (« spillover » en anglais). Il existe plusieurs méthodes permettant de corriger en partie ces effets, on note cependant que la résolution spatiale finie d’un scanner TEP est une limite technologique fondamentale ne pouvant pas être complètement compensée par des méthodes a posteriori.

Image de référence Image lissée 0 5 10 15 20 25 1 6 11 16 21 26 31 36 Volume partiel Débordement (image lissée) Profile Index du pixel V a le u r d e l ’im a g e (u . a .) Profile

Figure 2.6. Illustration des effets de volume partiel (dans les structures de taille comparable à la résolution spatiale) et de débordements (entre compartiments) dus à la résolution spatiale finie du scanner.

2.6.2. Déconvolution directe

L’approche la plus directe de correction de la résolution finie consiste à déconvoluer l’image reconstruite par la réponse impulsionnelle spatiale du détecteur. De manière générale, l’image mesurée par un système linéaire f rɶ

( )

est reliée à l’image réelle f r

( )

via sa réponse impulsionnelle spatiale h

(

r r, ′

)

:

( ) ( ) (

,

)

CV

fɶ r =

f rh r rdr, (2.23)

où CV signifie « champ de vue ». Dans le cas d’un système spatialement invariant,

(

,

) ( )

h r r′ =h rr′ et (2.23) est un produit de convolution auquel cas l’image réelle f r

( )

peut être simplement être estimée à partir de l’image mesurée f rɶ

( )

selon

( )

1

{ [ ] [ ]}( )

f r =Fυ Fr f F hr r , où Fr est l’opérateur de Fourier agissant sur r et Fr1 son inverse. En réalité, les scanners TEP ne sont pas spatialement invariants et l’image est discrétisée, l’équation (2.23) doit donc être remplacée par :

=

fɶ Hf, (2.24)

qui doit être inversée directement en utilisant des algorithmes itératifs [Van Cittert 1931, Richardson 1972, Lucy 1974, Teo 2007]. Cette technique est rarement utilisée en pratique – ou alors uniquement pour quantifier la concentration du radiotraceur de manière locale et pas dans toute l’image, car le problème (2.24) est mal conditionné (i.e., le rapport λmax λmin, où

i

λ est la ième valeur propre de H , est très grand), son inversion augmente donc le bruit dans l’image finale de manière non-acceptable1 [Rousset 2006].

A la place, l’image TEP peut supposée être composée de K classes de tissus homogènes, ce qui permet de réécrire (2.24) en une formule similaire dans laquelle la matrice H est cependant de dimension K×K plutôt que M×M , où M est le nombre de pixels dans l’image. Ceci permet d’améliorer le conditionnement du problème et donc de réduire le bruit dans l’image finale [Rousset 1998, Frouin 2002]. Les K compartiments peuvent être déterminés à partir du volume TEP ou d’une acquisition anatomique supplémentaire (IRM ou TDM). Une limitation importante de cette approche est qu’elle suppose que l’image TEP est constituée de compartiments homogènes – ce qui n’est pas exactement le cas en réalité et peut rendre l’identification de ces compartiments difficiles en pratique [Soret 2007].

Une autre stratégie de déconvolution ne nécessitent pas de segmenter l’image TEP en classes de tissus consiste à régulariser l’inversion itérative de (2.24). Plusieurs méthodes itératives ont été proposées utilisant par exemple un terme de régularisation quadratique [Uemoto 1999] ou un filtre médian [Kirov 2008] (cet algorithnme est en fait une adaptation au problème de déconvolution de l’algorithme proposé par Alenius et al [Alenius 1997] dans le cadre de la reconstruction Bayésienne des données TEP). Une autre stratégie de déconvolution régularisée proposée récemment consiste à débruiter le facteur de correction d’un algorithme de Lucy-Richardson (facteur multiplicatif) ou de Van Cittert (facteur additif) à chaque itération en utilisant sa décomposition en ondelettes [Boussion 2007, Boussion 2009].

1

Ceci peut aussi être vu dans (2.23) : l’amplitude de la transformée de Fourier de h

(

r r,

)

, i.e. fonction de transfert, décroît en effet rapidement aux hautes fréquence à cause de la résolution limitée du système, causant une divergence du rapport Fr

[ ] [ ]

f F hr et donc une augmentation rapide du bruit.

2.6.3. Modélisation de la résolution spatiale dans la reconstruction

Une méthode couramment utilisée consiste à mesurer la réponse impulsionnelle spatiale du scanner pour un grand nombre de positions dans le champ de vue et d’incorporer ces mesures dans le modèle de projection d’un algorithme de reconstruction itératif [Panin 2007]. Une approche similaire mais ne nécessitant pas autant de mesures consiste à factoriser la matrice système en contributions physiques indépendantes du type [Qi 1998]:

= × × × ×

A Sens Res Att Geo Pos. (2.25)

En notant K le nombre total de LDR du scanner et M le nombre de voxels dans l’image à reconstruire :

• Sens est une matrice diagonale K K× contenant les facteurs de correction de la sensibilité des détecteurs mesurés comme expliqué dans la section 2.3.

• Res est une matrice K K× contenant les réponses impulsionnelles spatiales du système pour chaque LDR du scanner. Les éléments rkk de cette matrice sont les éléments du noyau de lissage décrivant l’étalement des données mesurées dans la LDR k dans d’autres LDR 'k et permettant de modéliser les effets de non colinéarité et de l’interaction des photons gamma dans le bloc au niveau des projections. Ils ont typiquement estimés dans des simulations de Monte Carlo réalistes [Qi 1998].

• Att est la matrice diagonale K K× des facteurs de correction de l’atténuation calculés comme décrit dans la section 2.2.

• Geo est une matrice K M× dont les éléments gki sont les probabilités géométriques qu’une coïncidence émise du voxel i soit détectée dans la ligne de réponse indicée par k . Le calcul de ces éléments est un calcul d’angle solide prenant en compte la géométrie en blocs et cristaux du scanner.

• Pos est une matrice M M× décrivant la perte de résolution due à la distance de vol des positons. Les éléments de cette matrice sont les éléments d’un noyau de lissage appliqué à l’image et décrivant la distance de vol moyenne des positons dans les tissus biologiques. Les méthodes les plus couramment utilisées pour le calcul de cette matrice sont fondées sur la mesure expérimentale de la distribution spatiale des positons dans des milieux uniformes [Haber 1990], cependant cette approche ne permet pas de modéliser la propagation de positons dans des milieux hétérogènes. Celle-ci peut être calculée précisément grâce à des techniques de Monte Carlo, mais ces techniques sont trop lentes pour être utilisées dans le processus de reconstruction [Levin 1999]. Une dernière solution consiste à segmenter une carte IRM ou TDM en classes de tissus homogènes et à propager les positons dans chaque classe uniforme en utilisant une formule expérimentale [Bai 2004].

2.6.4. Utilisation d’information anatomique à priori

2.6.4.1. Incorporation d’information anatomique dans le processus de reconstruction Dans le cas où une image anatomique TDM ou IRM est disponible en plus des données TEP, celle-ci peut être incorporée comme information à priori sur la distribution à reconstruire dans un algorithme de reconstruction itératif. On note que cette stratégie peut être utilisée en plus de la modélisation de la perte de résolution dans le projecteur décrite dans la section 2.6.3. Dans ce type d’approche, une contrainte de lissage est imposée sur l’image à estimer qui dépend de la région dans laquelle un pixel se trouve, i.e. à l’intérieur d’un compartiment ou sur une frontière entre deux compartiments. La contrainte de lissage est généralement formulée dans le cadre de la reconstruction Bayésienne introduite dans le Chapitre 1. Ce type d’approche requiert de segmenter la carte anatomique en classes de tissus et permet de lisser la carte en émission TEP tout en préservant les frontières entre tissus [Leahy 1991, Ouyang 1994].

Une limitation fondamentale de cette approche est qu’elle suppose que les images TEP et TDM ou IRM reflètent des processus biologiques de distributions spatiales similaires. Cette hypothèse n’est en général pas vraie puisque les processus fonctionnels imagés en TEP sont spatialement moins bien définis que les compartiments anatomiques entre lesquels ils ont lieu. Un exemple typique de ce phénomène est l’imagerie de la perfusion myocardique : les artères coronaires et le myocarde sont des compartiments anatomiques distincts, cependant la diffusion de molécules marquées des artères dans le myocarde est lui-même un processus physique continu qui n’est pas défini par une transition brutale.

2.6.4.2. Incorporation d’information anatomique dans les images reconstruites

La plupart des méthodes de correction de l’effet de volume partiel utilisant une carte anatomique TDM ou IRM et agissant directement sur l’image TEP reconstruite sont en fait des méthodes de déconvolution itératives dans lesquelles les compartiments homogènes sont estimés par segmentation de l’image anatomique [Meltzer 1990, Meltzer 1999, Rousset 2000, Aston 2002, Baete 2004, Quarantelli 2004]. Comme expliqué dans la section 2.6.2, ces approches ne sont pas couramment utilisées en clinique cependant car l’étape de segmentation est difficile en pratique et l’hypothèse d’uniformité des compartiments est peu réaliste.

Plus récemment, des méthodes dites « multi-résolutions » ont été proposées basées sur l’incorporation directe de détails anatomiques contenus dans des images TDM ou IRM dans l’image TEP reconstruite. Ces approches utilisent une décomposition des images TEP et anatomique sur une base de fonctions permettant une analyse à plusieurs niveaux de résolution, e.g. des ondelettes, et consiste à incorporer des éléments de la décomposition de l’image anatomique dans celle de l’image TEP via un modèle [Boussion 2006]. Afin de

préserver l’information fonctionnelle contenue dans l’image TEP, uniquement les coefficients de sa décomposition correspondant aux niveaux de résolution élevés sont modifiés de cette manière. Une difficulté de cette approche est l’absence d’un modèle simple reliant les coefficients des décompositions des images TEP et anatomique. Boussion et al proposent d’utiliser un modèle linéaire TEP ana.

i i i

ω ←α ω pour i

[ ]

l h, , où l et h sont les index de la décomposition en ondelettes correspondant aux résolutions maximales des images TEP et anatomique, respectivement ; PET

i

ω et ana.

i

ω sont les coefficients des décompositions en ondelettes des images TEP et anatomique, respectivement ; et αi est une constante. Une avancée plus récente consiste à estimer ce modèle à partir des données elles-mêmes, en utilisant des méthodes d’analyse statistique, plutôt que de supposer sa forme à priori [Le Pogam 2008].

Documents relatifs