• Aucun résultat trouvé

CHAPITRE 4 : MÉTHODES DE RECONSTRUCTION : PROBLÈME INVERSE

4.3 Méthodes itératives stochastiques

4.3.2 Estimateurs au sens du maximum a posteriori (MAP)

Le critère au sens du MV se fie exclusivement aux mesures pour estimer la solution qui est considérée comme la plus probable. L’image obtenue est généralement bruitée et risque même d’être biaisée si les mesures sont incomplètes comme dans le cas des acquisitions TEP. Le critère d’estimation au sens du maximum a posteriori (MAP) considère que la solution est aussi pro- babiliste et essaie de régulariser la solution MV en imposant un a priori sur celle-ci. Le critère MAP est formulé par

fMAP= arg max

4.3. MÉTHODES ITÉRATIVES STOCHASTIQUES

fMAP est donc la distribution du traceur qui maximise la densité de probabilité de la variable

aléatoire F sachant que les mesures d de la variable aléatoire D ont été réalisées. La règle de Bayes permet d’écrire

PF|D=PD|FPF PD

. (4.34)

Donc :

fMAP= arg max f

PD|FPF

PD

= arg max

f PD|FPF. (4.35)

L’estimation de la solution se fait à partir de la combinaison de l’information fournie par les mesures PD|Fet l’information a priori PFdisponible sur la variable aléatoire F. En considérant le

logarithme de cette dernière équation, on obtient

fMAP = arg max

f (log(PD|F) + log(PF)),

= arg max

f (LD|F+ log(PF)). (4.36)

On note donc que le critère MAP est composé de deux termes ; le premier LD|F est tout sim-

plement le critère MV et le deuxième log(PF) est un terme régulateur qui permet de pénaliser

les solutions inappropriées. Le MAP est équivalent donc au MV régularisé. La plus grande dif- ficulté pour le critère MAP est la détermination de l’a priori PF . Des auteurs ont utilisé des

images anatomiques obtenues par tomodensitométrie ou par résonance magnétique comme a priori[10, 17, 42, 157, 206, 211]. Cependant, cette approche produit parfois des images biaisées, car la nature de l’information provenant de deux modalités d’imagerie est différente. Par exem- ple, des contours obtenus par résonance magnétique peuvent ne correspondre à aucun contour de l’imagerie fonctionnelle TEP. L’approche usuelle est l’utilisation des a priori génériques qui auront tendance à lisser les images pour pénaliser le bruit et réduire leur variance.

Pour chercher les propriétés locales des structures, plusieurs auteurs ont utilisé pour a priori les densités de Gibbs. En effet, les propriétés markoviennes de ces distributions et leur formali- sme mathématique simple font d’elles un outil attrayant pour décrire les propriétés locales des images. Si on note par S = 1, 2, · · · , J l’ensemble des indices des voxels de l’image f à estimer, un système de voisinage ν = (νs, s ∈ S) dans un champ markovien est formé des parties νsde S

4.3. MÉTHODES ITÉRATIVES STOCHASTIQUES

qui vérifient les propriétés suivantes :

s∈ ν/ s,

s∈ νt⇔ t ∈ νs. (4.37)

Autrement dit, chaque voxel s n’appartient pas à son voisinage νset un voxel s est un voisin du

voxel t si et seulement si t est un voisin de s. On appelle clique relative au système de voisinage ν , un sous ensemble q de S où deux voxels de q sont voisins au sens de ν . La forme générale des distributions de Gibbs est

PF=f=

1

Zexp(−βU(f)), (4.38)

où Z est la constante de normalisation de la probabilité, β est un paramètre de pondération qui module la tangente de la distribution autour des maxima et U (f) est la fonction de l’énergie de Gibbs. Cette fonction est la somme des fonctions potentielles sur l’ensemble des cliques :

U(f) =

q∈Q

Vq(f), (4.39)

où Q est l’ensemble des cliques. L’énergie U (f) est généralement définie sur des cliques d’ordre 2 comme suit : U(f) = i=J

i=1j>i, j∈q

j Vi, j(fi− fj). (4.40)

Les fonctions potentielles Vi, j(fi− fj) ont la propriété d’augmenter en fonction de la différence de

la densité de distribution entre les voxels voisins i et j. Par conséquent, l’énergie U (f) augmente pour les images présentant une grande variation d’intensité entre les voxels voisins ce qui diminue la probabilité de réalisation a priori de ces images. L’équation 4.36 devient donc

fMAP= arg max

f (LD|F− βU(f)). (4.41)

On note que le terme d’a priori βU (f) permet la régularisation de la solution au sens du maxi- mum de vraisemblance. C’est un terme important qui assure un compromis entre la résolution recherchée (degré de lissage) et le rapport signal-bruit accepté.

Plusieurs fonctions potentielles Vi, j(fi− fj) ont été utilisées dans la littérature pour permettre

4.3. MÉTHODES ITÉRATIVES STOCHASTIQUES

ayant les mêmes caractéristiques métaboliques toute en préservant les changements brusques de la distribution entre les frontières de ces différents tissus [10, 64, 68, 108, 140, 141]. La plupart de ces fonctions sont des fonctions croissantes de la variation d’intensité |fi− fj|. En prenant

Vi, j(fi− fj) = (fi− fj)2, on obtient l’ a priori de Gauss-Markov qui a tendance à pénaliser des

images ayant des contours avec des variations brusques. Pour augmenter la probabilité de détecter ces contours, Bouman et Sauer [28] ont proposé l’utilisation du modèle p-gaussien Vi, j(fi− fj) =

(fi− fj)poù 1 < p < 2.

Le superparamètre β est un facteur de pondération entre la fidélité de l’estimé aux mesures et la contrainte exprimée par la fonction d’énergie U (f). Un facteur β nul permet d’obtenir la solution au sens du maximum de vraisemblance qui est une solution non biaisée mais bruitée (variance élevée). En augmentant β , on donne plus de poids à la fonction énergie U (f). La détermination du paramètre β se fait, généralement, manuellement en se basant sur l’expéri- ence de l’utilisateur pour obtenir la solution voulue. Par ailleurs, des méthodes automatiques ont été étudiées dans la littérature pour calculer β [73, 140, 257].

4.3.2.2 Algorithmes de maximisation du critère MAP

Puisque les deux critères d’estimation MV et MAP sont similaires, la plupart des algorithmes de maximisation du critère MAP ont été obtenus en modifiant ceux qui sont développés pour le critère MV pour y inclure le terme d’a priori, entre autres : les algorithmes EM ont été notamment généralisés pour maximiser le critère MAP (GEM : Generalized Expectation Method).

L’algorithme MAP-EM qui est l’analogue de MLEM pour MAP a la forme suivante [64] :

ˆf k+1j = ˆf kj ∑i=Ii=1Ai, j+ β ∂U (f)

∂ (f)|f=ˆfk+1 I

i=1 Ai, j di ∑Jn=1Ai,nˆf kn . (4.42)

Cependant, le terme ∂U (f)

∂ (f)|f=ˆfk+1

au dénominateur cause un problème pratique d’évaluation puisque l’image ˆf k+1 estimée n’est pas disponible à l’instant k pour évaluer le prochain terme de la série d’itérations. Ainsi Green [64] a proposé un algorithme appelé MAP-EM OSL (OSL : One Step Late) qui utilise l’image antérieure ˆfkpour estimer cette dérivée :

ˆf k+1j = ˆf kj ∑i=Ii=1Ai, j+ β ∂U (f)

∂ (f)|f=ˆfk I

i=1 Ai, j di ∑Jn=1Ai,nˆf kn . (4.43)

4.3. MÉTHODES ITÉRATIVES STOCHASTIQUES

Lange [107] a démontré que l’algorithme MAP-EM OSL ne converge vers la solution MAP que pour certaines formes d’a priori et il a proposé une version améliorée de cet algorithme pour améliorer ses propriétés de convergence. Par ailleurs, d’autres types d’algorithmes ont été développés pour améliorer la convergence des algorithmes GEM vers la solution MAP. Entre autres : les algorithmes connus sous le nom SAGE (Space Alternating Generalized EM algo- rithm) [58, 129]. Ces derniers se basent sur une autre approche qui consiste à corriger les voxels séquentiellement, au lieu de simultanément comme dans le cas des algorithmes GEM pour con- trôler la convergence vers la solution MAP à chaque mise à jour d’un voxel.