• Aucun résultat trouvé

3.4 Chaîne de traitement, EMA

3.4.2 Enchaînement des données

Résumé : Les IRM contiennent des inhomogénéités (spatiales, d'intensité, ...). Celles-ci doivent être corrigées par des prétraitements avant de commencer l'ana-lyse des images. Après ces corrections, un voxel d'une séquence IRM correspond physiquement à la même partie anatomique du cerveau que les voxels de mêmes co-ordonnées sur les autres séquences. Son intensité est proche de l'intensité des autres voxels représentant le même compartiment cérébral que lui. Le cerveau a été extrait de l'image (le crâne, les yeux et d'autres tissus ont été retirés).

Parmi diérentes méthodes de segmentation des compartiments cérébraux (i.e. substance blanche, substance grise, liquide céphalo-rachidien), l'algorithme d'espérance maximisée, EM, a été selectionné pour diverses raisons (garantie de sa convergence, prise en compte possible des volumes partiels, modèle statistique de la répartition des données permettant d'exclure des points aberrants, ...). Cet algorithme a aussi certaines limites (dépendance du résultat à l'initialisation, xation manuelle de paramètres, échec possible, ...) auxquelles nous avons proposé des réponses soit à l'aide de la littérature soit à l'aide de solutions originales (calcul d'une pseudo-inverse dans le cas d'une matrice de covariance singulière).

Des liens entre ces diérentes boîtes à outils de traitement d'images sont ensuite dénis. Ainsi, une chaîne de traitement complète, appelée EMA et permettant de segmenter à partir des images brutes les compartiments cérébraux, est obtenue. Mots clefs : Prétraitements, Segmentation, Algorithme d'espérance maximisée (EM).

Contributions :

 État de l'art des prétraitements IRM.  Améliorations de l'EM :

 Appel à une matrice pseudo-inverse lorsque la matrice de covariance est singulière.

 Étude de l'inuence du pourcentage de points considérés (PPC) pour calculer les paramètres des classes dans l'EM sur la segmentation de la SB. Organisation du chapitre : Après une dénition des notions basiques de traitement d'images (section 3.1), ce chapitre décrit les diérents prétraitements pouvant être appliqués sur les images (section 3.2). Puis, un bref état de l'art des algorithmes de segmentations d'images IRM cérébrales ainsi que les justications du choix de l'un de ces algorithmes, l'algorithme d'espérance maximisée (EM), sont donnés (section 3.3.1). L'EM est ensuite décrit dans la section3.3.2. Ses limites et les améliorations pouvant y être apportées sont données dans la section3.3.3. Pour nir, les liens entre ces outils (dénissant la chaîne de traitement) sont présentés dans la section 3.4.

Fig. 3.1  Exemple de l'eet de volume partiel : à gauche, l'image (maillage de 10 × 10 pixels) est binaire (pixels blanc ou noir) et la forme est bien dénie ; à droite, l'image (maillage de 5 × 5 pixels) possède 5 intensités diérentes : blanc, gris clair, gris moyen, gris foncé et noir. L'intensité de chaque voxel de l'image de droite est la moyenne des intensités des 4 voxels de l'image de gauche auxquels il correspond. Les détails ne sont plus visibles sur l'image de droite.

3.1 Notions de traitement d'images

Cette section vise à expliquer certains termes du traitement d'images qui sont couramment utilisés dans ce manuscrit.

3.1.1 Volume partiel

Les images correspondent à des maillages 2D ou 3D représentant un objet. Dans ces maillages, le plus petit élément est appelé un pixel s'il s'agit d'une image 2D ou un voxel dans le cas 3D. Il faut noter que l'on peut aussi parler d'image 4D dans le cas d'une succession temporelle d'images 3D. Dans la suite de ce manuscrit, nous utiliserons le terme de voxel.

Un voxel possède une dimension dépendante du système ou du protocole d'acqui-sition. Son intensité correspond à l'intégration sur son volume des signaux envoyés par les tissus qui le composent. Dans le cas où seul un tissu est présent dans le voxel, l'intensité est donc obtenue par l'addition du signal correspondant au tissu et du signal correspondant au bruit. Dans le cas où plusieurs tissus sont présents, l'intensité obtenue correspond à un mélange des diérents signaux correspondant aux divers tissus et au bruit. L'eet de volume partiel est illustré par la gure3.1: le contour d'une forme bien dénie devient dicile à délimiter lors d'une diminution de la résolution de l'image.

3.1.2 Segmentation

Supposons qu'une image soit composée de trois tissus, A, B et C. La segmen-tation du tissu B correspond à une image donnant l'appartenance de chaque voxel à cette classe B. Cette segmentation peut être binaire : un 1 indique que le voxel appartient à la classe sinon le voxel prend la valeur nulle. Elle peut aussi être pro-babiliste, le voxel prend alors une valeur comprise entre 0 et 1 (cas où les valeurs sont normalisées).

3.1.3 Atlas

Un atlas correspond à un ensemble ordonné de "cartes" servant à représenter et à décrire des données. Dans la suite de ce manuscrit, le terme atlas se dénit de la manière suivante : ensemble composé de deux images (cf. gure 3.2). La première correspond à une image IRM (pouvant être moyennée à partir de celles de plusieurs sujets). Ceci permet d'avoir une image le plus standard possible. La seconde image est une segmentation (binaire ou probabiliste). Dans notre cas, l'utilisation prin-cipale de cet atlas est de recaler (cf section 3.2.1) l'image moyenne sur l'image à traiter et d'appliquer la transformation obtenue sur l'image contenant la segmenta-tion. Cette segmentation se retrouve alors dans le repère de l'image et peut apporter des informations pour un traitement ultérieur.

(a) (b)

Fig. 3.2  Exemple de l'atlas du Montreal Neurological Institute (MNI) : (a) séquence T1 moyenne, (b) segmentation probabiliste de la substance blanche.

3.2 Prétraitements

3.2.1 Normalisation spatiale : recalage

L'exploitation des diérentes séquences IRM nécessite d'avoir une correspon-dance point à point entre les diérentes images. Par exemple, dans notre cas, nous avons pour chaque instant de l'étude plusieurs séquences IRM. Nous avons donc besoin que les voxels de coordonnées identiques sur ces diérentes images corres-pondent à la même partie anatomique du cerveau. Cette relation entre les voxels des images est intrinsèque pour les séquences double-écho, qui donnent les images T2 et DP, mais pas pour les autres séquences : un déplacement (ctif) du patient peut apparaître entre les diérentes images. Un tel déplacement existe aussi entre les séquences d'un même patient acquises à deux instants diérents. Il faut donc calcu-ler les transformations spatiales existant entre les images, c'est le but des méthodes dites de recalage. Pour reprendre la formulation proposée dans [Brown 1992] : une transformation ˆT maximisant un critère S de correspondance entre une image de référence, R, et une image ottante, F doit être calculée :

ˆ

T = arg max

T

S(R, F, T ) (3.1)

Le calcul de cette transformation peut se faire suivant diérents critères. Les mé-thodes de la première catégorie sont dites géométriques car elles cherchent une mise en correspondance entre des primitives géométriques (points, courbes, surfaces, ...), appelées aussi amers géométriques. Ces méthodes peuvent être découpées en trois étapes : extractions des primitives, appariements de celles-ci (chaque primitive de l'image ottante, F , est associée à la primitive correspondante sur l'image de réfé-rence, R), calcul de la transformation, T . Le critère S correspond ici à la distance entre ces primitives. Les méthodes de la seconde catégorie correspondent aux mé-thodes iconiques. Elles sont basées sur l'intensité des voxels et cherchent à optimiser un critère de ressemblance appelé mesure de similarité. De nombreuses mesures de similarité sont proposées dans la littérature [Hill 2001].

Les dicultés majeures des méthodes géométriques consistent en l'extraction (segmentation) et l'appariement des primitives géométriques. Les méthodes ico-niques permettent de s'aranchir de celles-ci mais le critère de similarité doit être adapté à la relation physique entre les images à recaler [Roche 2000]. Dans notre cas, on favorisera alors une troisième classe de méthodes, dites de recalage iconique local. Ces dernières appliquent le principe des méthodes iconiques globales indépen-damment sur plusieurs régions, blocs, de l'image et cherchent ensuite à optimiser la somme de ces critères locaux. Une variante consiste à apparier les blocs entre eux, puis à calculer une transformation entre ces appariements [Ourselin 2000]. Dans cette méthode, le calcul de la transformation se fait par la méthode des moindres carrés tamisés pondérés (LTSW) qui permet de rejeter les appariements aberrants. Suivant l'application, diérents types de transformations peuvent être calculés. Dans le cadre de notre travail nous nous limiterons aux transformations linéaires.

Ces dernières se décomposent principalement en trois sous-groupes :

 les transformations rigides, 6 degrés de liberté (une rotation et une transla-tion),

 les similitudes, 7 degrés de liberté (une rotation, une translation et un facteur d'échelle),

 les transformations anes, 12 degrés de liberté, (une rotation, une translation, des cisaillements et un facteur d'échelle diérent selon les trois dimensions de l'espace).

Les autres transformations sont dites non-linéaires (transformations paramé-triques ou transformations denses). Elles orent plus de degrés de liberté et per-mettent de déformer davantage l'image ottante. Toutefois, ces transformations orent trop de degrés de liberté dans notre cas. En eet, nos travaux recalent es-sentiellement des séquences IRM issues d'un même patient. Ceci ne nécessite donc pas une déformation importante de l'image.

Après le calcul de la transformation, l'image ottante est rééchantillonnée an de correspondre point à point à l'image de référence.

Le recalage permet donc de mettre en correspondance des images (cf. gure3.3). La littérature propose un grand nombre de méthodes pour réaliser cette tâche. Les articles [Brown 1992, Van den Elsen 1993, Maintz 1998, Lester 1999, Hajnal 2001,

Crum 2003,Zitova 2003] en dressent un état de l'art. L'utilité du recalage en routine clinique est de plus démontrée, notamment dans le cadre de la SEP [Lebrun 2004]. Aujourd'hui, le problème du recalage de séquences IRM conventionnelles cérébrales est globalement résolu. Les derniers travaux dans ce domaine s'appliquent aux nou-velles modalités IRM [Gholipour 2007,Yeo 2008].

Dans notre cas, la méthode de [Ourselin 2000] a été retenue pour recaler les images. Elle permet de réaliser des recalages rigides ou anes. Son calcul de trans-formation avec rejet des points aberrants est également un atout pour recaler des images de patients atteints de SEP. En eet, dans le cas de deux images acquises à des instants diérents, la charge lésionnelle n'est pas la même. Une lésion a pu apparaître ou disparaître entre les deux images. Le rejet des appariements aberrants permettra de calculer une transformation correcte malgré ces variations de signal. Pour ces raisons et pour sa vitesse d'exécution, cette méthode a donc été choisie dans notre étude. Elle servira à eectuer les deux types de recalages cités en début de cette section et dans le cas d'une troisème application dont nous aurons besoin : recalage d'un atlas sur nos données (cf. section3.3.2).

3.2.2 Normalisation en intensité

En IRM, deux voxels ayant la même composition biologique, i.e. tissulaire, dans la même séquence peuvent ne pas avoir la même intensité. Cette diérence en in-tensité est appelée biais et peut être classée en deux catégories :

 Les inhomogénéités intra image dues :

(a) (b)

(c) (d)

Fig. 3.3  Recalage d'une séquence T1 sur une séquence T2 : (a) 32ème coupe d'une séquence T2 (image de référence), (b) 32ème coupe d'une séquence T1 (image ottante de résolution diérente), (c) 32ème coupe de la séquence T2 et ses contours, (d) contours de la séquence T2 superposés sur la 32ème coupe de la séquence T1 après recalage.

 au biais tissulaire (l'intensité d'un même tissu biologique varie autour d'une valeur moyenne [Prima 2001]).

 Les inhomogénéités inter images dues à l'absence d'échelle d'intensité abso-lue en IRM [Prima 2003]. Ces inhomogénéités doivent être corrigées dans les études longitudinales ou de cohortes.

Les inhomogénéités intra image, ou biais spatial, sont souvent modélisées en fonction de l'intensité "réelle" du tissu [Prima 2001]. Pour un voxel i, son intensité, yi sur l'IRM est considérée comme étant son intensité réelle, xi multipliée par un facteur, bi (correspondant au biais, supposé multiplicatif [Sled 1998a]) plus un bruit de mesure (cf. équation 3.2).

yi = bixi+ εmes

i (3.2)

Pour tenir compte du biais tissulaire, on peut considérer que l'intensité "réelle", xi est la somme de la moyenne de la classe, µk et d'un bruit biologique, εbio

i (cf.

équation 3.3). La modélisation complète du biais de l'image est alors donnée par l'équation 3.4. xi = µk+ εbio i (3.3) yi = bik+ εbio i ) + εmes i . (3.4)

Les inhomogénéités inter images, ou biais temporel, sont dues à la sensibilité de l'IRM aux facteurs extérieurs (température, taux d'humidité, ...) et au manque d'échelle absolue d'intensité en IRM. Un même voxel représentant la même com-position biologique n'aura pas la même intensité sur deux acquisitions diérentes. Contrairement au biais spatial qui peut être considéré comme une fonction lente de l'espace, les variations induites par cet eet peuvent être plus rapides.

Ces deux catégories de biais ont des eets diérents. En conséquence, nous avons choisi de les traiter séparément. La littérature propose de nombreuses méthodes pour corriger le biais spatial [Sled 1998b,Van Leemput 1999a,Mangin 2000,Prima 2001,

Learned-Miller 2005, Milles 2007]. Dans la pratique, puisque les méthodes présen-tées dans les chapitres suivants sont basées sur l'algorithme d'espérance maximisée (EM), nous avons utilisé la méthode [Prima 2001]. Une première segmentation du cerveau est eectuée grâce à l'algorithme EM à partir de diérentes séquences IRM préalablement recalées. Puis, pour chaque séquence IRM, un polynôme à appliquer pour corriger le biais est calculé à partir des segmentations obtenues.

Les méthodes de correction du biais temporel sont principalement basées sur l'égalisation des histogrammes entre deux images [Styner 2000]. Dans ce cas, l'his-togramme de chaque image est modélisé. Puis, la transformation à appliquer pour égaliser les paramètres des deux modélisations obtenues est calculée. Ce principe peut aussi être appliqué aux corrections d'images de nature diérente [Wang 1998a,Molyneux 1998,Beyer 2008]. Dans notre cas, nous utiliserons la mé-thode décrite dans [Rey 2002a]. Deux séquences IRM de diérents instants sont

recalées entre elles. L'histogramme conjoint de ces deux images, I1 et I2, peut alors être tracé (cf. gure 3.4, a). En cas d'absence de biais temporel, les points de cet histogramme devraient être placés le long de la droite y = x. Ce n'est pas le cas ici. Pour redresser cette distribution, une fonction ane d'équation (y=ax+b) est appliquée sur les intensités de I2. Les valeurs a et b sont calculées par la méthode des moindres carrés utilisée avec une distance orthogonale (distance la plus courte entre un point et la droite de régression linéaire). L'histogramme conjoint de I1 et de I2 corrigée montre alors le redressement de la distribution le long de la droite y= x (cf. gure 3.4, b).

(a) (b)

Fig. 3.4  Histogrammes conjoints : (a) de deux images : I1 et I2, (b) de I1 et I2 corrigée.

3.2.3 Extraction du cerveau

La majorité des méthodes de classication (cf. section 3.3.1) ne considère que l'encéphale (cerveau). Elles requièrent donc de l'avoir précédemment isolé du reste de l'image. On exclut volontairement les autres tissus (peau, yeux, os, ...) qui peuvent perturber l'analyse. Plusieurs de ces méthodes, dénommées skull-stripping en anglais, sont disponibles [Sandor 1997,Ward 1999,Shattuck 2001,Smith 2002b,

Segonne 2004,Zhuang 2006].

Certaines d'entre elles sont disponibles sous forme de logiciels. Nous avons pu les tester sur nos données. Cependant, aucune n'a donné satisfaction sur toutes les images. Certaines échouant là où les autres donnaient un résultat acceptable et inversement. Nous avons cherché à utiliser les avantages de chacune grâce au cadre de l'algorithme STAPLE [Wareld 2004], permettant d'obtenir à partir de plusieurs segmentations, une segmentation "vraie" et probabiliste. Cette étude ainsi que la description de la méthode d'extraction du cerveau que nous avons sélectionnée sont présentées dans le chapitre 4.

3.3 Segmentation du cerveau en diérents

comparti-ments

La segmentation du cerveau en diérents compartiments (i.e. substance blanche (SB), substance grise (SG), liquide céphalo-rachidien (LCR)) est une étape clef de notre étude. Premièrement, la connaissance de ces segmentations permettra d'obte-nir des informations directement exploitables dans la détection et la réalisation du contour des lésions (cf. chapitre 5). Deuxièmement, la segmentation de ces tissus permettra d'obtenir le volume du cerveau et d'en déduire une mesure d'atrophie (cf. chapitre 6).

3.3.1 État de l'art

En imagerie médicale cérébrale, le but de la segmentation est de regrouper les voxels représentant la même composition biologique, les mêmes régions ana-tomiques : SB, SG, LCR mais aussi vaisseaux, os, yeux, ... (si l'étape d'extrac-tion du cerveau n'a pas été réalisée). De nombreux articles ou rapports de re-cherche dressent un état de l'art complet de ces méthodes [Pham 2000,Suri 2002a,

Suri 2002b, Zaidi 2006,Lecoeur 2007]. L'objet de cette section n'est donc pas d'en faire la synthèse mais de présenter les principes des diérentes approches sur les-quelles sont basés ces nombreux algorithmes.

Les méthodes du premier groupe cherchent à trouver et à découper un ou plu-sieurs éléments de l'image à traiter. Elles réalisent une segmentation.

Le seuillage est la méthode de segmentation la plus simple. Elle consiste à clas-ser les voxels d'intensité inférieure à une valeur, un seuil, dans une classe et ceux d'intensité supérieure dans une autre. Le choix de ce seuil peut se faire manuel-lement mais aussi automatiquement en se basant par exemple sur une analyse de l'histogramme de l'image. L'application de cette méthode à la segmentation du cer-veau ou aux lésions de SEP est possible [Grimaud 1996,Rovaris 1997]. Cependant, ce type de méthodes reste le plus souvent utilisé dans le cadre d'une segmentation semi-automatique réalisée sous le contrôle d'un expert.

Un algorithme de croissance de région est une autre méthode de segmentation. Celui-ci se décompose en trois étapes. La première consiste à choisir un voxel ou une région de départ. La seconde correspond au fait d'ajouter les voxels adjacents au(x) voxel(s) sélectionné(s) si ceux-ci respectent un ou des critères préalablement dénis. La dernière étape consiste à itérer la seconde tant que de nouveaux voxels sont inclus dans la région. Le ou les critères d'inclusion peuvent être basés par exemple sur l'intensité du voxel ou sur la distance avec le point d'initialisation. Ces critères peuvent aussi être mis à jour automatiquement au cours des itérations. Comme pour le seuillage, ces méthodes sont le plus souvent semi-automatiques (avec une initialisation réalisée manuellement) notamment sur des images de patients atteints d'une pathologie [Sandor 1991,Filippi 2001].

Le recalage d'un atlas sur une image peut permettre de segmenter des régions d'intérêts (ROI). Par exemple, le recalage d'un atlas composé d'une image

céré-brale moyenne et de la segmentation associée du cervelet se décompose en deux étapes. Premièrement, la transformation permettant le passage du repère de l'image moyenne à celui de l'image à segmenter est calculée. Deuxièmement, cette trans-formation est appliquée à la segmentation du cervelet, donnant la correspondance de cette segmentation sur l'image à segmenter. Cette méthode soure de la va-riabilité inter-sujets même si le recalage peut se faire suivant diérents degrés de liberté (cf. section 3.2.1). Ces méthodes peuvent être totalement automatisées [Bondiau 2005, Commowick 2008]. Cependant, dans le cas de patients atteints de SEP, la présence de lésions peut nuire au recalage. De plus, le caractère dius de la maladie empêche de construire un atlas précis des lésions.

Le principe des modèles déformables se décompose en deux étapes : choix et application sur l'image d'une forme (i.e. cercle, sphère), déplacement du modèle en fonction d'un ensemble de règles (i.e. minimisation d'une énergie) jusqu'à arrêt de cette évolution. Malgré la variabilité des replis du cortex, des méthodes de segmenta-tion de tissus cérébraux utilisent ce principe [Pitiot 2003,Rousson 2004,Hu 2007]. Toutefois, leur mise en ÷uvre est souvent complexe et nécessite des temps de calculs conséquents. Les modèles déformables nécessitent aussi le plus souvent un a priori sur la forme de l'objet à segmenter.

Le second groupe de méthodes suppose de connaître à l'avance le nombre de parties de l'image, de catégories dans lesquelles classer les voxels de l'image. Ces mé-thodes réalisent donc une classication. Elles nécessitent une connaissance a priori du contenu de l'image.

Les réseaux de neurones sont des outils de classication mimant les réseaux de neurones biologiques. Ils sont composés d'unités, appelées neurones, reliées entre elles. La diculté est de dénir les règles xant l'eet d'un neurone sur le neurone auquel il est relié. Ceci se fait principalement grâce à des données d'apprentissage, données pour lesquelles la réponse en sortie de la classication est connue. Dans le domaine médical, celles-ci sont le plus souvent obtenues par l'intervention d'un expert qui réalise manuellement la classication souhaitée sur ces données. Pour ces