1.3 Bilan
2.1.3 Classiation
Les méthodes par lassiation ont pour but d'obtenir une partition de l'image en un
ertainnombrede lasses.Lesprinipalesatégoriessontlesalgorithmesnonparamétriques
(supervisésounon),l'approhebayésienne,l'algorithmedes
K
-moyennesetl'algorithmedesC
-moyennes oues (FCM). L'algorithmeFCM est présenté plus en détailsà lasetion 2.3.2.1.3.1 Méthodes non paramétriques
Lesméthodes non paramétriques sont utiliséesdans leas oùauune onnaissane n'est
disponible sur la forme de la distribution des éléments à lassier. Plusieurs types
d'al-gorithmes existent, onsistant soit à estimer la fontion de densité à partir d'éhantillons
représentatifs de ette fontion, soit à estimer diretement la probabilité a posteriori de la
distribution.
Une première façon d'eetuer une lassiation est d'estimer lafontion de densité de
probabilitéselon laméthode des
k
plus prohesvoisins (kPPV).Soitun ensembled'appren-tissage
P
,onsistant enN
éhantillonsde dimensionD
dont larépartition enC
lassesestonnue. Un élément
y j
est lassé dans la lassec
si la majorité desk
plus proheséhan-tillons de l'ensemble d'apprentissage appartient à la lasse
c
. La distane entre les motifsest aluléeselon une normeadaptée à haque as. Cependant, ette méthode suppose que
l'ensembled'apprentissage est représentatifdes données traitéesetdoit être fournien
préa-lable omme entrée de l'algorithme. Cet ensemble peut être fourni soit par un expert, soit
être extrait de l'ensembledes motifsselon ertaines onditions.
L'artile[Wareld 2000℄ montre une approhe utilisantlekPPV ave un ensemble
d'ap-prentissage déni par un expert. Typiquement,
50
à100
voxels par lasse sont séletionnés (uniquement en fontion de l'intensité des voxels). Un modèle anatomique est égalementfournide manièreàontraindrelasegmentation and'obtenir desrésultatsplus pertinents.
Un autre exemple d'utilisationdes kPPV est donné dans [Cooso 2003℄.La prinipale
dif-férene ave les travaux préédents réside dans l'extration de l'ensemble d'apprentissage.
Plutt qu'une séletion manuelle, les auteurs ont déni une séletion automatique par
éla-gage d'unarbre ouvrant minimald'un ensemble de voxels à partir d'un atlas anatomique.
Une autre méthodologie non paramétrique renontrée en segmentation est la méthode
du Mean-Shift [Fukunaga1975, Cheng1995℄ quia l'avantage d'êtrenon-supervisée, évitant
ainsi l'étape de dénition de l'ensembled'apprentissage. Ce type d'algorithmereherhe les
modes (ou maxima loaux) de la distribution et regroupe les diérents éléments selon leur
proximitépar rapport à es modes. De manièregénérale, l'information prise en ompte est
l'intensité des voxels, mais également leurs oordonnées spatiales, onduisant à une
sur-segmentation de l'image.
Un exemplede l'utilisationdu Mean-Shift pour lasegmentationdes tissus érébraux est
donnédans [Jiménez-Alaniz 2006℄.La segmentationest également ontraintepar l'ajoutde
l'informationfournieparladétetiondesontoursdel'image.L'enjeuestensuitedefusionner
l'ensembledes régionsdétetéesparleMean-Shift pourobtenirlasegmentationnale.Cette
étape est faite par l'analyse des régions adjaentes an de fusionner lesrégions homogènes
d'intensité prohe, ainsi que par une étape de suppression des petites régions. Les régions
nalessontalors lasséesselonune méthode bayésienne aveun a priori fournipar unatlas
statistique. L'artile [Mayer2009℄ dénit une approhe reposant sur une première étape
toujours fondéesur un Mean-Shift ave la priseen ompte de l'intensitéetdes oordonnées
spatiales.Parlasuite,après uneétapede fusiondesmodesadjaents, lalassiation nale
esteetuéeselonun algorithmedes
k
-moyennespondéréparlenombrede voxels dehaquerégion.
2.1.3.2 Méthode bayésienne
Mélanges de gaussiennes Ces approhes introduisent un a priori sur la forme de la
distribution des éhantillons, en la modélisant omme un mélange de gaussiennes, le but
étant de aluler les paramètres optimauxpermettant de quantier e mélange.Soit
y j
unveteur de dimension
d
représentant les données issues du voxelj
à lasser. L'intensité de e voxel est onsidérée omme la réalisation d'une variable aléatoire régie par un mélangede gaussiennes :
f (y j , θ) = X C
k=1
α k (2π) d/2 |Σ k | 2 1 exp (− 1
2 (y j − u k ) t Σ −1 k (y j − u k )),
(2.3)où
C
est le nombre de lasses reherhées,θ = (α, u, Σ)
,u k
est le veteur moyenne de lak
ième distribution gaussienne etΣ k
est sa matrie de ovariane, etα
est la proportion dumélange.Les poids
α k
sontpositifset vérientla relation:X C
k=1
α k = 1.
(2.4)L'objetif est d'assigner une étiquette
x j
à haque voxelj
avex j ∈ {c 1 , c 2 , . . . , c k }
.L'outil privilégié pour estimer l'ensemble de es paramètres est l'algorithme
Expetation-Maximization (EM) [Dempster1977℄onsistant àestimer le maximumde vraisemblane.
Parmi le grand nombre d'artiles utilisant ette tehnique, nous pouvons iter tout
d'abord les artiles [VanLeemput 1999a℄ et [Ashburner 2000℄, qui ajoutent une
orre-dans [Dugas-Phoion 2004℄, et l'étape de maximisation de la vraisemblane est
rempla-ée par un estimateur de vraisemblane tamisé dans [Aït-Ali2005℄. Une approhe loale a
également été introduite dans [Kovaevi 2002℄ qui modélise l'histogramme du volume
in-trarânien par un mélangede quatre gaussiennes aussibien auniveau loal('est-à-diresur
une partie de l'image)que global('est-à-dire sur l'ensemblede l'image)pour apporter une
réponse au problème des inhomogénéitésen intensité. Enn, l'artile[Rihard 2004℄ dénit
une approhe multi-agents, haque agent étant dédié à une partie de l'image ou un tissu
partiulier, la segmentation globale étant reonstruite par un agent global à partir des
in-formations olletées auprès des agents loaux. L'algorithme EM étant sensibleau bruit, il
néessite l'introdutiond'apriori pour garantirl'homogénéitéspatialedesétiquettes. L'une
des méthodes les plus utilisées pour obtenir ette homogénéité est la régularisation par les
hampsde Markov.
RégularisationparhampsethaînesdeMarkov LeshampsdeMarkovpermettent
de modéliser l'interation spatiale entre les voxels. Soit
S
un ensemble de sitess
et desvariablesaléatoires
X s
assoiéesàessites.LehampX = (X s ) s∈S
estunhampdeMarkovpour un système de voisinage
V s
donnési etseulement si :P (X s |X t , t 6= s) = P (X s |X t , t ∈ V s ).
(2.5)Le théorème de Hammersley-Cliord établit une équivalene entre les hamps de Gibbs et
les hamps de Markov, dontla distribution peut alors être exprimée selon :
P (X = x) = 1
Z exp (−U(x)),
(2.6)ave
U (x) = P
c∈C V c (x s ), s ∈ c
et oùZ
est une onstante de normalisation.C
estl'en-semble des liques dénies par le système de voisinage et
V c
un potentiel dépendant de laonguration de lalique
c
[Geman 1984℄. L'algorithmeICM (Iterated Conditional Modes) issu de [Besag 1986℄,herhant leMAP de ladistribution, peut être utilisé ommealterna-tiveà l'algorithmeEM dans e adre,l'a priori étantapporté par lesrelationsde voisinage
modéliséespar les hamps de Markov.
Les hamps de Markov se sont révélés être partiulièrement bien adaptés à la
segmen-tation des tissus érébraux dans un environnement bruité,omme le montrent [Held1997℄,
[VanLeemput 1999b℄,[Zhang2001℄et[Shattuk 2001℄.L'artile[Marroquin2002℄ présente
uneapprohereherhantleMAPaveunerégularisationpardeshampsdeMarkovahés.
Un atlas anatomique est utilisé en omplément de manièreà obtenir des a priori spatiaux
et avoir une initialisationautomatique. L'artile [Briq 2008℄ utilise une régularisation par
haînesdeMarkov,oùlevoisinageest prisen omptegrâeàunparours frataldel'image.
Nous pouvons également iter[Sherrer 2009℄ quia déniun modèle de hamps de Markov
loaux oopératifs, permettant une segmentation onjointe des tissus (LCR, matière grise
et matière blanhe) et des strutures érébrales (par exemple le putamen ou le thalamus).
Enn, l'artile [Cardoso 2011℄ réalise un anement de la segmentation du ortex en
han-geantloalementl'aprioride l'atlasetenintroduisantunemodélisationexpliiteduvolume
2.1.3.3
K
-moyennesL'objetif de l'algorithme des
K
-moyennes est de regrouper l'ensemble des voxels del'imageen
K
lassesenfontionde leurintensité.Chaquelasseest dénieparun entroïde(en générallamoyenne de l'intensitédes voxelsappartenantàla lasse)ethaque voxel est
assignéàlalassedontleentroïdeestleplusprohe.Enonsidérantuneimageomposéede
N
voxels,lasegmentation par l'algorithmedesK
-moyennes revientàminimiserla fontiond'énergie suivante :
J K
-moyennes= X K
k=1
X
j∈S k
ky j − v k k 2 2 ,
(2.7)où
y j
représente l'intensité du voxelj
etv k
le entroïde de la lassek
etS k
l'ensembledesvoxels lassésomme éléments de lalasse
k
.L'algorithme est lané àpartir d'uneposition initiale et alterne une étape d'appariement des données aux lasses et une étape de miseà jour des entroïdes. La onvergene est atteinte lorsque la arte des étiquettes n'est plus
modiée àla n d'une itération.
Cet algorithme aété utiliséen segmentationdes tissus érébraux [Vemuri1995℄.
Cepen-dant,ilest sensibleàl'initialisationetne tientpas ompted'unenvironnement bruité,nide
l'eet de volume partielprésent dans les IRM. Eneet, l'appartenane binaire àune lasse
peut poser problème, l'eet de volume partiel se aratérisant par le mélange de plusieurs
tissus dans un voxel. L'algorithme des
C
-Moyennes oues (FCM), dérit en setion 2.3,répond à etteproblématique.