• Aucun résultat trouvé

f Résolution spatiale et bruit d’un système TEP

I. C Imagerie cérébrale

3.2. f Résolution spatiale et bruit d’un système TEP

Comme pour tout système d’imagerie, la performance d’un imageur TEP est caractérisée par le bruit et la résolution spatiale présents dans les données.

Caractérisation de la résolution spatiale en TEP

La résolution spatiale d’un instrument de mesure est définie par la distance minimale entre deux objets ponctuels qui est nécessaire pour les discerner avec l’instrument utilisé. En pratique, dans le cas d’un système d’acquisition linéaire comme on peut le supposer pour la TEP dans

taux. Les LOR limitant l’angle solide pour deux couples de cristaux sont représentées sur la fi- gure. Pour deux angles différents (trait pleins et traits pointillés), la probabilité de détection va être différente dû au parcours dans le cristal. Pour deux positions différentes (bleu en bord de détecteur, rouge au milieu), l’interférence des cristaux voisins va être différente.

une gamme raisonnable de taux de comptage, la résolution est caractérisée par les réponses impulsionnelles locales du système ou fonctions de réponse locales : la réponse du système à une impulsion (δ de Dirac) localisée en un point. Lorsque le système est invariant par translation, le système est alors entièrement caractérisé par une seule fonction, sa réponse impulsionnelle h (ou fonction de réponse FR), et l’on peut alors écrire que l’objet observé λ(x, y) est l’objet initial λ0(x, y) convolué avec h(x, y) :

λ(x, y) = [λ0∗ h] (x, y) (I.11)

Dans le cas de la TEP, la mesure de résolution spatiale est effectuée à l’aide d’une source quasi-ponctuelle placée dans l’air et dans le champ de vue. On peut alors caractériser le système d’acquisition TEP par la résolution spatiale intrinsèque du détecteur, ou la résolution spatiale de l’image reconstruite (celle-ci peut comprendre un lissage par exemple). La résolution spatiale intrinsèque du détecteur est mesurée généralement pour un couple de détecteur en coïncidence en déplaçant un point source ou une ligne source dans une direction perpendiculaire à la ligne de réponse. On obtient ainsi un profil de taux de comptage en fonction de la position de la source appelé fonction de dispersion de la ligne de réponse. Cette fonction est généralement caractérisée par deux paramètres : la LMH et la LDH pour tenir compte d’éventuelles queues de distributions pour une fonction de réponse non gaussienne (hypothèse généralement faite sur la forme de la FR). La résolution de l’image reconstruite correspond à la fonction de réponse globale d’un système acquisition-reconstruction. Elle est mesurée dans une image reconstruite du point source, et dépend donc de l’algorithme de reconstruction utilisé.

De nombreux phénomènes décrits précédemment affectent la résolution spatiale :

– le parcours du positron induit une incertitude sur le lieu d’émission comme nous l’avons

vu précédemment (§3.2.e, [Levin et Hoffman,1999], [Sanchez-Crespo et al.,2004]) avec une influence bi-exponentielle sur les projections ;

– l’acolinéarité induit une incertitude sur le lieu d’annihilation, L’incertitude sur l’angle

d’émission se traduisant par une incertitude sur la position de l’annihilation qui dépend du diamètre du scanner ;

– la taille, le matériau et la géométrie des détecteurs vont jouer sur la localisation de l’in-

teraction photon-détecteur. La taille du détecteur impose déjà une résolution minimale (critère de Shannon-Nyquist-Kotelnikov). Par ailleurs le matériau (via la fraction de pho- tofraction par exemple) et la géométrie par blocs (§3.2.e) vont jouer sur la probabilité de remonter à la première interaction photon-cristal qui définit la vraie LOR.

– les pré-traitements et reconstruction de données vont également jouer sur la résolution (en

particulier les étapes d’interpolation, de filtrage...).

Une formule expérimentale tenant compte de tous ces phénomènes a été proposée pour esti- mer la résolution spatiale de l’image reconstruite pour un objet proche du centre du champ de vue [Moses et Derenzo,1993] :

R = ap(d/2)2+ b2+ s2+ (0.0022D)2 (I.12)

avec :

R est la LMH de la résolution spatiale mesurée dans l’image (en mm) ;

a est un facteur d’ajustement, généralement entre 1.1 et 1.3, tenant compte des opérations de pré-traitements et reconstruction des données ;

d est la taille du cristal (en mm) ;

b est un facteur de bloc, lié à l’incertitude sur la position de la première interaction photon- détecteur (typiquement 1.5 mm) ;

s est la taille de la source (en mm) ; D est le diamètre du scanner (en mm).

Pour les scanners corps-entier en TEP, la résolution spatiale mesurée dans l’image est com- prise entre 4 mm et 10 mm.

En TEP, la résolution spatiale de l’image varie en fonction de la distance radiale, c’est-à- dire la distance (euclidienne) par rapport au centre du scanner. L’ampleur de cette variation va également dépendre de la géométrie du scanner. En effet, pour une distance radiale importante du lieu d’annihilation, les photons vont traverser plusieurs cristaux où ils peuvent être détectés. La LOR correspondant généralement à la ligne reliant les centres des cristaux, il en résulte une erreur de localisation ([Huesman et al.,1989], [Sánchez-Crespo et Larsson,2006]). Cette erreur, dépendant de l’angle entre la LOR et la surface du détecteur, est appelée erreur de parallaxe, et peut être atténuée en mesurant la profondeur d’interaction du photon dans le cristal (aussi appelée DOI pour Depth of Interaction) (voir par exemple [Moses et Derenzo,1990], [Bartzakos et Thompson,1991], [Rogers et al.,1996], [MacDonald et Dahlbom,1998]). Ce phénomène est illustré sur la FigureI.33, représentant un scanner hexagonal avec deux couches de cristaux.

Effets de volume partiel

La résolution spatiale non nulle a pour conséquence de biaiser la quantification en TEP. La Figure I.34 illustre en 2D l’effet d’étalement produit sur un objet circulaire et d’activité

d’interaction sur l’erreur de parallaxe. La LOR correspondant au trajet des photons est repré- sentée en rouge, les LOR correspondant à une erreur de localisation maximale sont représen- tées en pointillés respectivement bleu et ma- genta pour avec et sans mesure de DOI.

uniforme par une FR gaussienne. Pour un objet de taille très supérieure à la LMH, seules les mesures aux frontières de l’objet sont fausses et la quantification totale de la région est peu biaisée. Lorsque les deux quantités sont comparables, l’ensemble des mesures est fortement biaisée ([Hoffman et al.,1979]).

FIG. I.34 – Effet d’étalement d’un ob- jet convolué par un noyau gaussien de LMH variable. On note dans ce cas l’ef- fet d’étalement de l’activité en dehors de l’objet (spill-out), d’autant plus impor- tant que la LMH du noyau est supérieure aux dimensions de la source.

Lorsqu’on considère dans une image une région d’intérêt (ROI) avec un niveau d’activité constant, ce phénomène va se traduire par deux effets conjoints :

– l’activité à l’intérieur de la structure va s’"échapper" de la ROI, particulièrement au niveau des frontières comme illustré dans la figure précédente : c’est l’effet dit de spill-out ; – l’activité à l’extérieur de la structure va "rentrer" dans la ROI, particulièrement au niveau

Ces deux effets vont induire une réduction du contraste dans l’image (voir FigureI.34.

Une dégradation supplémentaire est également provoquée par l’échantillonnage de l’image. En effet, une image TEP est découpée en volumes élémentaires (voxels, pour volume element ou élément de volume) dans lesquels vont être estimés la concentration moyenne d’activité. En pra- tique, plusieurs structures fonctionnelles peuvent appartenir à un même voxel, particulièrement aux frontières des régions anatomiques. Cela conduit à mesurer à la frontière une combinaison linéaire des paramètres recherchés pour chaque structure comme illustré sur la FigureI.35, et pouvant conduire à un biais dans la quantification d’une ROI considérée homogène.

FIG. I.35 – Effet de l’échantillonnage sur la quantification. Deux régions homogènes, S1 et S2, sont représentées non échantillonnées sur la figure de gauche avec la grille d’échantillonnage. Après échantillonnage (figure de droite), les voxels aux frontières contiennent un mélange de régions, induisant une dégradation de la quantification et du contraste.

Ces phénomènes dûs à la résolution et à l’échantillonnage constituent l’effet de volume par- tiel (EVP). Ils affectent particulièrement la quantification des structures de petites tailles, avec de nombreuses frontières [Soret et al., 2007]. En général pour un système TEP (de résolution spatiale élevée par rapport aux modalités précédemment vues), l’EVP est principalement do- miné par les effets liés à la résolution. Il est donc crucial de limiter la dégradation de la résolu- tion spatiale pour obtenir des mesures non biaisées des petites structures, comme les structures corticales et sous-corticales qui vont nous intéresser.

Bruit en TEP

Le bruit correspond à la variabilité des mesures lorsqu’une même expérience est répétée, et est caractérisée par une distribution statistique. Dans le cas de la TEP, on observe dans les données un bruit important, lié à la nature des phénomènes en jeu qui engendrent des fluctua- tions statistiques : les données acquises (nombre de coïncidences mesurées entre deux instants donnés) peuvent être représentées comme des variables aléatoires indépendantes qui suivent une loi de Poisson. Ce résultat peut être retrouvé théoriquement en faisant un certain nombre d’hypothèses réalistes :

– le nombre total de radionucléides injectés suit une distribution de Poisson si l’étude est

– la détection d’un couple de photons est attribuée intégralement à une paire de détecteur

(pas de fraction de coïncidence) ;

– la détection d’une coïncidence dans un couple de détecteur donné à un instant donné ne

dépend que de la position du radiotraceur au moment de l’émission (en particulier pas des coïncidences précédentes, ni des coïncidences dans les détecteurs voisins ; c’est-à-dire pas de temps mort, ni d’interférence entre cristaux).

D’un point de vue statistique, les trois premiers points permettent de dire que le nombre d’émis- sions dans un volume donné (par exemple un voxel) pendant un intervalle de temps donné est un processus ponctuel de Poisson inhomogène (le taux d’émissions va dépendre du temps, dû à la décroissance du radioélément). Les deux derniers points permettent alors de dire que le nombre de coïncidences observées entre deux instants (données mesurées) l’est également. Nous verrons dans chapitreIIcomment les algorithmes de reconstruction statistiques utilisent cette information.

La nature poissonnienne des données TEP signifie que si N est le nombre de coïncidences détectées, l’incertitude relative sur ce nombre sera de 1

N. Par ailleurs, nous verrons dans le

chapitre II que la reconstruction est un problème mal-posé et qu’il est crucial de limiter le bruit dans les données. Par conséquent, le bruit important pour les faibles taux de comptage est généralement compensé en TEP par une acquisition pendant un temps suffisamment long et par un lissage des images reconstruites, ce qui vient cependant dégrader la résolution spatiale et par conséquent la quantification. On parle de compromis bruit-résolution.

Documents relatifs