D’une manière très générale, on peut dire que le recalage permet d’établir une
relation géométrique entre des objets représentés dans des images. Les usages du
recalage sont multiples en traitement de l’image [156, 157, 65, 134]. Le cadre de
notre étude pratique est cependant assez restreint. Les données de départ sont un
ensemble d’acquisitions multi-séquences pour plusieurs patients en des instants
différents.
Dans notre étude, l’enjeu le plus important est d’aligner deux images du même
patient, acquises au même instant mais avec des paramètres d’acquisition
diffé-rents, et ce afin de pouvoir les utiliser conjointement pour produire une
segmen-tation robuste et fiable. Les méthodes principales utilisées dans le chapitre 4 se
placent dans un espace multi-séquences, où chaque voxel de coordonnées fixées
représente le même volume dans les deux images. Il est donc indispensable d’avoir
une méthode la plus précise possible, puisqu’un écart de plus d’un voxel dans le
recalage va terriblement gêner l’analyse des images et la segmentation.
Pour les besoins de l’algorithme de segmentation, nous aurons également
be-soin d’une labélisation a priori des images, c’est-à-dire de la probabilité a priori
d’appartenir à certaines classes (matière blanche, matière grise, LCR). De telles
informations sont contenues dans un atlas statique, qu’il faut recaler sur les images
à traiter.
3.3.1 Présentation de la méthode utilisée
Du point de vue algorithmique, il existe une grande diversité de méthodes et de
mises en œuvre : il est difficile d’établir un état de l’art exhaustif dans ce domaine
tant il est étudié au niveau de la communauté internationale depuis plusieurs
an-nées. On peut citer [20, 90, 66, 101, 123] qui font un résumé de la plupart des
méthodes développées. Deux catégories de mise en œuvre conceptuellement très
différentes apparaissent : les méthodes géométriques et les méthodes iconiques.
Les méthodes géométriques consistent à rechercher une transformation entre
deux sous-ensembles de primitives – appelés aussi amers – extraits dans chaque
image : points [158, 157], courbes [154], surfaces [102], repères orientés, etc. Il est
possible d’utiliser un cadre stéréotaxique ou des marqueurs qui apparaissent dans
chaque image comme des amers géométriques évidents. L’extraction d’amers
in-trinsèques (appartenant à l’objet) peut être réalisée manuellement par un expert à
l’aide du logiciel approprié. On peut enfin chercher à automatiser cette extraction
d’amers intrinsèques, essentiellement pour des raisons de reproductibilité, mais le
problème majeur consiste alors à rendre cette segmentation suffisamment robuste.
Les méthodes iconiques, qui utilisent les images dans leur totalité, consistent
à optimiser un critère de ressemblance, appelé aussi mesure de similarité, fondé
sur des comparaisons locales de l’intensité des deux images. Si les algorithmes de
recalage géométrique cherchent à mettre en correspondance les objets représentés
dans les images, les algorithmes de recalage iconique ont pour but de trouver une
transformation entre les images des deux objets. Parmi les méthodes iconiques,
on peut encore distinguer deux classes d’approche : les méthodes iconiques pures
qui ne réalisent un recalage que par comparaison entre les intensités des points
de mêmes coordonnées [31, 156], et les méthodes iconiques mixtes qui cherchent
en chaque point quel est le point le plus proche dans l’autre image, au sens d’un
critère sur l’intensité, dans un voisinage donné [112]. Il existe également des
tech-niques intermédiaires entre les recalages icotech-niques et les recalages géométriques
[69, 22].
Pour des raisons de robustesse, et parce qu’aucun marqueur ou cadre
stéréo-taxique n’était présent dans nos images, les méthodes de recalage iconique ont
été préférées. La méthode dite de recalage par bloc (block-matching) présentée
dans [112] a ensuite été choisie, notamment sur un critère de rapidité – quelques
minutes par recalage – ainsi que pour sa capacité à gérer le multi-séquences et
les points aberrants, présents via les lésions de sclérose en plaques. L’utilisation
exhaustive sur une base de 43 patients n’a posé aucun problème, et le recalage a
toujours été suffisant pour pouvoir effectuer le processus de segmentation présenté
dans la chaîne de traitements.
3.3.2 Recalage et IRM multi-séquences
L’étude des IRM multi-séquences telle que la présentent les chapitres 4 et 5 de
cette thèse est basée sur l’analyse des intensités dans l’espace multi-séquences, où
chaque voxel de coordonnées identiques représente le même volume dans toutes
les images. Dans une situation pareille, on comprend bien que la qualité du
reca-lage entre les séquences est très importante, et peut avoir une grande influence sur
la qualité de la segmentation.
L’histogramme conjoint est un outil très pratique pour visualiser un espace
multi-séquences : il associe à chaque couple d’intensités possibles une valeur
une proportion de voxels qui peut être interprétée comme une densité de
pro-babilité discrète. Il sera utilisé dans toute la suite de ce manuscrit pour montrer
les résultats de l’algorithme EM. Si les images sont bien recalées, dans le cas de
deux séquences différentes acquises au même instant sur le même patient,
l’his-togramme conjoint pourra être interprété en fonction des intensités des différents
tissus dans les deux images représentées. Par contre, si les images ne sont pas
recalées ou incorrectement recalées, des artefacts vont survenir et rendre
l’histo-gramme conjoint totalement inutilisable (figure 3.5).
Les séquences utilisées sont les IRM T2 / densité de protons (DP), T1 et T2
FLAIR. Les IRM T2 et DP sont intrinsèquement recalées, puisque ce sont deux
échos différents de la même séquence. Par contre, l’image T1 n’a même pas la
même résolution : dans le protocole d’acquisition utilisé (section 3.2.3),
l’épais-seur des coupes est deux fois plus grande en T2/DP qu’en T1. Il faudra donc
regarder avec attention l’influence des problèmes de recalage sur le résultat, et
particulièrement sur la segmentation en tissus (section 8.1.1).
En outre, tout ceci suppose qu’il existe une transformation rigide entre les
différentes modalités, ce qui en pratique n’est pas toujours le cas. Un artefact
0 10 20 30 40 50 60 70 80 90 100 200 400 600 800 1000 1200 10 20 30 40 50 60 70 80 IRM T1 IRM T2 nombre de points 0 10 20 30 40 50 60 70 80 90 100 100 200 300 400 500 600 700 800 900 10001100 10 20 30 40 50 60 70 80 IRM T1 IRM T2 nombre de points
FIG. 3.5 – Histogrammes conjoints de deux séquences IRM (T2 FSE et T1) avant
(à gauche) et après (à droite) recalage. Un non-alignement est visible dans
l’his-togramme conjoint via des bandes horizontales rajoutées, ainsi qu’une perte de
contraste de la zone représentant le liquide céphalo-rachidien (LCR) en bas à
droite de l’histogramme.
de reconstruction, un mouvement oculaire ou une inclinaison de l’axe Z (voir
figure 3.3) dû à une mauvaise lecture des images crée un décalage entre certaines
modalités qui nuit beaucoup à tout système de segmentation basé sur un modèle
voxellique. C’est pour éviter ces problèmes que la segmentation en tissus sera
effectuée sur les deux images T2/DP, qui sont déjà recalées (chapitres 4 et 5).
Une extension à d’autres séquence est toujours possible, mais il convient alors de
mesurer précisément l’influence des artefacts de recalage sur chacune des étapes
du pipeline, ainsi que sur le résultat final. Les images T1 et T2 FLAIR doivent
bien sûr recalées sur les images T2/DP, car ces séquences seront très utiles pour la
segmentation des lésions (chapitre 6).
3.3.3 Recalage et atlas statistique
Comme nous allons le voir par la suite, le processus de segmentation est basé
sur une analyse statistique de l’intensité de chaque voxel des images dans l’espace
multi-séquences. Un atlas a priori est utilisé : il donne la probabilité a priori pour
chaque voxel d’appartenir à l’une des classes que l’on cherche à segmenter.
L’at-las, mis à disposition par le Montreal Neurological Institute [46, 48] et largement
utilisé via le package SPM
3, permet une segmentation a priori du parenchyme
cé-rébral en trois classes : matière blanche, matière grise et liquide céphalo-rachidien.
D’un point de vue pratique, il a été construit à partir de 305 IRM T1 [45], à partir
desquelles une segmentation semi-automatique a été effectuée, en trois classes.
Plusieurs images sont fournies : une image du patient moyen
4dans les modalités
T2 et T1, une image des a priori pour chaque classe, ainsi que pour le masque
du parenchyme cérébral. Pour utiliser correctement les informations fournies par
l’atlas statistique, il est nécessaire de placer dans le même repère les images de
l’atlas et du patient. Il est préférable de recaler l’image de l’atlas sur le patient,
afin de préserver la qualité des IRM originales.
Ce recalage présente des difficultés, par rapport à un recalage classique. D’abord,
il doit être de même type que celui qui a servi à la construction de l’atlas.
Idéale-ment, en prenant en compte le fait que tous les algorithmes de recalage ne sont pas
équivalents, il doit être exactement le même. Cependant, pour l’atlas statistique du
MNI, un recalage affine a été utilisé, ce qui limite le nombre de degrés de liberté
et réduit du même coup les différences entre les différents algorithmes possibles.
Pour cette raison, nous avons cherché à utiliser la méthode la plus robuste à notre
disposition.
Les recalages géométriques sont à exclure dans ce cas précis, car l’atlas
sta-tistique n’offre aucun amer géométrique, et il est impossible d’en détecter dans
l’image du patient moyen ; le recalage par blocs est une solution viable. Le contour
du parenchyme cérébral doit être bien contrasté, pour maximiser les chances de
succès du recalage : il est donc préférable de choisir le T2 pour ce recalage, de par
le contraste entre le LCR cortical – forte intensité en T2 – et la matière grise. De
plus, en T1, la présence d’une couche de gras entre le crâne et les méninges peut
altérer grandement le résultat du recalage. La figure 3.6 présente une des erreurs
qui a motivé le choix du T2 pour le recalage de l’atlas.
3
SPM est un package matlab, accessible via l’URL http ://www.fil.ion.ucl.ac.uk/spm/software/
4
La moyenne est ici la moyenne arithmétique des IRM. La construction des a priori suit le
FIG. 3.6 – L’utilisation du T2 est préférable lors du recalage de l’atlas (en bas) sur
le patient (en haut) par une méthode basée sur un recalage par blocs. En utilisant
le T1 (à gauche), le recalage donne de mauvais résultats environ une fois sur 10,
alors qu’en utilisant le T2 (à droite), nous n’avons noté aucun problème sur une
base de 83 instants.
Dans le document
Segmentation d'IRM cérébrales multi-séquences et application à la sclérose en plaques
(Page 35-40)