• Aucun résultat trouvé

Reconstructions itératives

Dans le document en fr (Page 54-57)

1.2 Reconstruction d’image en IRM

1.2.2 Reconstruction à partir de l’espace de Fourier

1.2.2.2 Reconstructions itératives

La formulation matricielle du problème 1.30 permet de mettre en œuvre des techniques d’optimisation algébrique standard. Puisque le bruit de mesure par IRM est gaussien, une ap- proche naturelle est de minimiser une fonction coût au sens des moindres carrés. Reconstruire l’image revient alors à minimiser une fonctionnelle simple :

ˆ

I = argminfΨ(f ) avec Ψ(f ) =ky − Afk2. (1.31)

Pour une acquisition utilisant une antenne de réception unique, la norme euclidienne est utili- sée.

Si ce problème possède une solution numérique exacte, une résolution itérative est parfois préférée, telle que la méthode du gradient conjugué (Sutton et al., 2003). Il est intéressant de noter que le terme de fidélité aux données ky − Afk2 correspond à la log-vraisemblance né- gative en considérant une distribution gaussienne du bruit dans les données. Des techniques de résolution statistiques peuvent par conséquent également être utilisées, comme l’estimateur du maximum de vraisemblance (Miller et al.,1995). Les techniques itératives permettent égale- ment de considérer des modèles plus complexes de l’acquisition IRM, par exemple en incluant des effets "non Fourier" tels que les inhomogénéités de champ, et d’introduire facilement des a priori sur l’image (support, régularité, contraintes sur la phase...). Le système à résoudre peut alors devenir non linéaire et des méthodes de résolution plus sophistiquées doivent être uti- lisées. Par ailleurs, les méthodes itératives présentent généralement des comportements plus favorables vis-à-vis du bruit présent dans les données, notamment en prenant en compte la statistique du bruit. Des techniques de régularisation peuvent également être mises en œuvre pour "orienter" la reconstruction vers une solution répondant à certains critères souhaitables et ainsi résoudre un système mal conditionné.

Régularisation Si l’espace k est échantillonné suivant une grille régulière (échantillonnage

cartésien) avec un taux d’échantillonnage approprié (par rapport au champ de vue utilisé), si on ignore les inhomogénéités de champ et les phénomènes de relaxation T2⋆pendant la mesure, si on considère une antenne de réception unique de sensibilité uniforme, alors la matrice A est orthogonale. Dans ce cas simple, A−1= 1/N × A∗ et la solution de1.31est :

ˆ I = 1

N × A

· y (1.32)

qui peut être calculée en utilisant un transformée de Fourier inverse. Cependant, si une des hypothèses précédentes n’est pas vérifiée, le système est alors mal conditionné et la résolution au sens des moindres carrés risque d’amplifier le bruit présent dans les données lors de la reconstruction. Pour éviter cette amplification, on a recours à la régularisation :

ˆ

I = argminfΨ(f ) avec Ψ(f ) =ky − Afk2+ βR(f ). (1.33)

où R(f ) est le terme de régularisation qui permet de contrôler le bruit en pénalisant les transi- tions brutales. Le paramètre de régularisation β permet de gérer le compromis entre le terme de fidélité aux données et la régularisation. Notons que cette résolution est équivalente à une résolution bayésienne du type Maximum A Posteriori où l’a priori est e−R(f ). Le choix de la fonction de régularisation est bien sûr critique pour la reconstruction.

Le choix le plus courant est la régularisation de Tikhonov : R(f ) =kfk2ou R(f ) = f − ¯f

2

est que la reconstruction est fortement biaisée vers ¯f , et dans le cas où l’a priori est nul, le contraste peut être réduit.

La régularisation quadratique s’écrit dans le cas 1D : R(f ) =

N

X

2

|fj− fj−1|2. (1.34)

Cette régularisation produit des reconstructions lissées, où les pixels voisins ont des valeurs similaires. Ce choix présente l’avantage de conduire à une minimisation simple (Sutton et al.,

2003), mais a tendance à lisser excessivement les contours de l’image.

Plus récemment, des techniques utilisant la variation totale ont été utilisées pour la recons- truction d’image IRM (Block et al., 2007). En 1D, ces méthodes remplacent les différences au carré sur les pixels voisins (1.34) par des différences absolues :

R(f ) =

N

X

2

|fj− fj−1| . (1.35)

Dans le cas 2D continu, cette fonctionnelle devient : Z k∇fk d~r = Z Z s ∂ ∂xf (~r) 2 + ∂ ∂yf (~r) 2 dxdy. (1.36)

Cette régularisation présente l’avantage de produire des reconstructions "lisses par morceaux" au lieu de produire un lissage global, les contours étant par conséquent mieux préservés. Ce- pendant, la minimisation de1.33devient alors plus délicate (puisque non différentiable autour de 0) et peut donner une impression de "blocs" dans l’image reconstruite.

D’autres types de régularisation non quadratiques ont été proposées dans la littérature, sous la forme : R(f ) = N X 2 φ(fj− fj−1), (1.37)

avec différents choix de fonction potentiel φ. Ces fonctions potentiel ont, dans la majorité des cas, un comportement intermédiaire entre le cas quadratique (1.34) et le cas des différences absolues (1.35). Ainsi, l’hyperbole :

φ(t) = s 1 + t δ 2 − 1 (1.38)

est approximativement quadratique autour de 0, ce qui réduit le bruit, et tend vers un compor- tement linéaire pour des grandes valeurs, ce qui préserve les contours. La fonction potentiel linéaire tronquée a également été utilisée pour la reconstruction en imagerie parallèle (Raj et al.,

2007).

Une autre stratégie de régularisation non quadratique est celle employée par la méthode Compressed Sensing (CS) (Donoho,2006). Dans ce cas, l’a priori sur l’image s’exprime en terme de sparsité de l’objet. Si l’objet n’est pas sparse lui même, comme c’est le cas des images natu- relles, il faut alors trouver une transformation Γ telle que Γf soit sparse. Le terme de régulari- sation s’écrit alors :

R(f ) = kΓfk0= N X k=11{ [Γf ]k6=0}, (1.39) ou : R(f ) = kΓfk1= N X k=1 |[Γf]k| . (1.40)

Cette méthode a suscité un très fort engouement dans le domaine du traitement du signal et de l’image car elle présente l’avantage de pouvoir résoudre des problèmes très sous-échantillonnés.

Elle a été assez tôt appliquée à la reconstruction d’images IRM (Lustig et al., 2007) car elle permet de réduire drastiquement les temps d’acquisition, notamment pour l’angiographie par IRM (Lustig et al., 2007), dont les images sont sparses, ou les applications d’imagerie dyna- mique (Jung et al.,2007), dont les différences temporelles sont sparses.

Introduction d’un modèle de signal plus complexe Afin de mieux modéliser le processus

d’acquisition et de prendre en compte les imperfections du système, nous allons introduire un modèle de signal plus complexe :

S(t) = Z Ω σant(~r)I(~r)e−ω(~r)te−R ∗ 2(~r)te(−2π~k(t)·~r)d~r (1.41) avec :

– σant(~r) le profil de sensibilité de l’antenne,

– ω(~r) les effets dus aux fréquences hors résonance ( inhomogénéités de champ, suscepti- bilités magnétiques...),

– R2⋆(~r) les effets dus à la relaxation T2⋆.

D’autres effets peuvent également être modélisés, tels que les courants de Foucault (dans le terme ~k(t)), les gradients concomittants (gradients non linéaires aux extrémités de l’aimant), le déplacement chimique (dû à des fréquences de résonance différentes pour des protons liés à différentes molécules, par exemple la graisse et l’eau) ou encore le mouvement au cours de l’ac- quisition qui sera développé dans le chapitre suivant. Cette modélisation plus réaliste permet donc de corriger certaines imperfections des imageurs cliniques pour autant que l’on dispose de la cartographie des imperfections correspondante. Ainsi, entre autres, Sutton et al. (2003) proposent une reconstruction corrigeant les inhomogénéités de champ et Pruessmann et al.

(1999) une reconstruction prenant en compte les sensibilités d’antenne.

Par ailleurs, la reconstruction itérative permet également d’estimer la cartographie des im- perfections conjointement à la reconstruction d’image. Des stratégies de résolution alternée de deux problèmes couplés peuvent alors être adoptées. En prenant l’exemple de l’estimation conjointe des inhomogénéités de champ proposée parSutton et al.(2004), l’équation de mesure se simplifie en :

y(tn) = S(tn) + ǫn, S(t) =

Z

I(~r)e−ω(~r)te(−2π~k(t)·~r)d~r (1.42) d’où, après discrétisation :

y = A(ω)f + ǫ, avec anj(ω) = P ( ~kn)e−ωjtne(−2π ~kn· ~rj) (1.43)

L’estimation conjointe de f et ω, au sens des moindres carrés régularisés, revient donc à la minimisation de la fonctionnelle : ( ˆI, ˆω) = argminf,ω  ky − A(ω)fk2+ β1R1(f ) + β2R2(ω)  . (1.44)

Sutton et al.(2004) proposent alors une minimisation alternée :

– en considérant l’estimation courante des inhomogénéités de champ ˆω, mettre à jour ˆI selon un gradient conjugué,

– en considérant l’estimation courante de l’image ˆI, mettre à jour ˆω selon une descente de gradient.

Des stratégies similaires ont été utilisées pour estimer conjointement les cartes de sensibilité et l’image (Ying et Sheng,2007), le champ d’inhomogénéités et la relaxation T2⋆, une image de référence étant connue (Olafsson et al.,2008) ou encore l’image, le champ ω et la relaxation T2⋆,

Dans le document en fr (Page 54-57)

Documents relatifs