• Aucun résultat trouvé

Analyse d'images multi-modales TEP-TDM du thorax. Application à l'oncologie : segmentation de tumeurs, d'organes à risque et suivi longitudinal pour la radiothérapie

N/A
N/A
Protected

Academic year: 2021

Partager "Analyse d'images multi-modales TEP-TDM du thorax. Application à l'oncologie : segmentation de tumeurs, d'organes à risque et suivi longitudinal pour la radiothérapie"

Copied!
124
0
0

Texte intégral

(1)

HAL Id: pastel-00567100

https://pastel.archives-ouvertes.fr/pastel-00567100

Submitted on 18 Feb 2011

HAL is a multi-disciplinary open access

archive for the deposit and dissemination of sci-entific research documents, whether they are pub-lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.

Application à l’oncologie : segmentation de tumeurs,

d’organes à risque et suivi longitudinal pour la

radiothérapie

Julien Wojak

To cite this version:

Julien Wojak. Analyse d’images multi-modales TEP-TDM du thorax. Application à l’oncologie : segmentation de tumeurs, d’organes à risque et suivi longitudinal pour la radiothérapie. Traitement du signal et de l’image [eess.SP]. Télécom ParisTech, 2010. Français. �pastel-00567100�

(2)

Thèse

présentée pour obtenir le grade de docteur

de Télécom ParisTech

Spécialité : Signal et Images

Julien Wojak

Analyse d’images multi-modales

TEP-TDM du thorax. Application à

l’oncologie : segmentation de tumeurs,

d’organes à risque et suivi longitudinal

pour la radiothérapie

Soutenue le 17 décembre 2010 devant le jury composé de

Pierre Charbonnier Rapporteurs

Christophe Odet

Stéphanie Jehan-Besson Examinateurs

Grégoire Malandain Régine Trebossen

Elsa Angelini Directrices de thèse

Isabelle Bloch

(3)
(4)

3

Résumé

En oncologie du thorax, les modalités d’imagerie de tomodensitométrie (TDM) et d’imagerie d’émission de positons (TEP) sont fréquemment utilisées conjointement, pour le diagnostic et/ou pour l’élaboration de plans de traitement. En effet, le développement d’ap-pareils d’acquisition combinant ces deux modalités d’imagerie permet d’obtenir des couples d’images TEP-TDM dans un même repère, rendant leur utilisation conjointe possible en routine clinique sans une difficulté préalable de recalage. Une correspondance parfaite n’est toutefois pas garantie dans les régions thoraciques, à cause principalement des mouvements respiratoires. Ces deux modalités sont de natures très différentes. L’imagerie TDM fournit des informations anatomiques (ou structurelles) et l’imagerie TEP fournit des informations métaboliques (ou fonctionnelles). Ainsi l’imagerie TDM peut révéler précisément la posi-tion d’un nodule pulmonaire tandis que l’imagerie TEP renseigne sur son activité maligne ou non. De même l’imagerie TEP permet de mettre en lumière une activité tumorale dans une zone faiblement contrastée en TDM où une tumeur pourrait ne pas être détectée (par exemple dans les aires ganglionnaires du médiastin).

Dans le cadre de l’imagerie pour l’oncologie, le contourage manuel des tumeurs reste une étape indispensable à la quantification de l’activité tumorale. Cette tâche est fastidieuse et sujette à de fortes variabilités inter et intra-praticiens. La variabilité peut être réduite par l’utilisation d’outils logiciels d’aide au tracé. Pourtant, peu d’algorithmes de segmen-tation automatiques ou semi-automatiques tirant parti de ces images multimodales ont été développés. Aussi un objectif de cette thèse est de proposer des méthodes de segmenta-tion mettant à profit l’utilisasegmenta-tion conjointe des images TEP et TDM. La modalité TDM étant la modalité anatomiquement la plus précise et considérée par les praticiens comme celle devant faire référence pour l’élaboration de plans de traitement par radiothérapie, les méthodes mises en œuvre dans cette thèse s’attachent à réaliser des segmentations aussi précises que possible des images TDM en utilisant l’imagerie TEP comme guide pour la localisation de la tumeur. Le formalisme des méthodes variationnelles a été adopté pour l’élaboration de nos algorithmes et nous proposons de rajouter des contraintes déduites de la TEP.

En plus des structures cibles pour la radiothérapie (tumeurs, nodules), les organes à risque, devant être protégés des irradiations, nécessitent également d’être contourés. Un autre ob-jectif de cette thèse est de proposer des algorithmes permettant leur segmentation. Ils s’appuient sur une connaissance a priori forte des distributions non paramétriques d’inten-sités des différents types d’organes dans les images TDM et de connaissances a priori de formes des organes à segmenter fournies par un atlas. En particulier, les connaissances sur la forme sont prises en compte au travers de sa description générale (permettant d’autoriser une certaine variabilité anatomique) par ses p premiers moments de Legendre. Les connais-sances sur les distributions d’intensités sont mises à profit dans la construction d’un arbre d’inclusion hiérarchique des différentes structures anatomiques. Cet arbre est exploité pour réduire progressivement la recherche à des zones d’intérêt restreintes, contenant les organes à segmenter.

Un dernier objectif de la thèse est de proposer une méthodologie pour la segmentation de tumeurs dans le cadre du suivi longitudinal des patients dans des images préalablement recalées. Un formalisme proche de celui utilisé pour la segmentation multimodale est dé-veloppé, en remplaçant les informations issues de la TEP par des informations déduites d’une segmentation à une date t1 pour guider une segmentation à une date t2.

(5)

lorsque des segmentations manuelles expertes sont disponibles, des résultats quantitatifs sont présentés, montrant l’intérêt des approches proposées et la précision des résultats obtenus.

(6)

5

Abstract

In oncological thoracic imaging, computerized tomography (CT) and positron emission tomography (PET) are widely used jointly, for diagnosis and/or treatment planing. The development of combined scanners enables the acquisition of pairs of CT-PET volumes in a common spatial referential, allowing their joint exploitation in clinical routine, without the prerequisite for complex registration. Perfect correspondence of image information is nevertheless not guaranteed in the thoracic region, mainly due to breathing motions. In addition, these two imaging modalities are very different : CT imaging provides anatomi-cal (i.e. structural) information while PET imaging provides metabolic (i.e. functional) information. In particular, CT imaging provides detailed information on the position of a pulmonary nodule, while PET imaging provides information on its malignant or normal activity. PET imaging can also reveal tumoral activities for tumors with low-contrast on CT images (e.g. in the mediastinal ganglionar regions).

In the context of oncological imaging, manual delineation of the tumors remains a critical step for the quantification of tumoral activity. This task if tedious and subject to high inter and intra-expert variability, which can be decreased by the use of dedicated tracing software tools. Nevertheless, very few automated or semi-automated segmentation algorithms have been proposed, exploiting these multimodal images. One goal of this thesis work was to propose a segmentation method jointly exploiting PET and CT image information. The CT modality, being more precise for anatomical information, is considered by the clinicians as the reference for radiotherapy treatment planing. The proposed methodology therefore focuses on a detailed segmentation of the CT images, using PET information to guide the tumor segmentation. The framework of variational segmentation methods is used to design our algorithms and the specific constraints based on PET information.

In addition to target structures for radiotherapy (tumors, nodules), organs at risk which need to be preserved from radiations, must be segmented. An additional goal of this thesis is to provide segmentation methods for these organs. The methods rely on strong a priori knowledge on the non-parametric intensity distributions and on the shapes of the different organs. Shape information is formulated through general descriptors (enabling to handle certain anatomical variabilities) with the p first Legendre moments. Knowledge on intensity distribution is exploited in a hierarchical inclusion tree of the different anatomical structures to segment in the thoracic regions. The tree structure is exploited to iteratively focus the segmentation tasks by restricting the regions of interest.

A final goal of the thesis is to propose a methodological framework for the segmentation of tumors in the context of longitudinal follow up of patients with registered images. A formalism, similar to the multimodal segmentation, is proposed, replacing PET-based information by the segmentation of the tumor at time t1 to guide its segmentation at time

t2.

The proposed segmentation methods were tested on multiple data sets. When manual tracing is available, quantitive comparisons of the segmentations are presented, demons-trating the performance and accuracy of the proposed segmentation framework.

(7)
(8)

7

Remerciements

Je remercie en premier lieu mes directrices de thèse, Elsa Angelini et Isabelle Bloch. Elles ont su me laisser une grande autonomie dans mon travail tout en étant toujours présentes pour de riches conseils et me faire bénificier de leur grande expérience.

Merci à Christophe Odet et Pierre Charbonnier d’avoir accepté de rapporter mon mémoire de thèse. Leurs remarques pertinentes m’ont été très précieuses. Je tiens également à remercier l’ensemble du jury, Stephanie Jehan Besson, Regine Trebossen, Pacal Pineau ainsi que Grégoire Malandain qui a accepté de le présider.

Je remercie l’ensemble des partenaires du projet MINIARA, en particulier Pascal Pineau pour le suivi et l’intérêt qu’il a porté aux travaux de toutes les équipes, ainsi que Régine Trebossen, Renaud Maroy, Irène Buvat, Perrine Tilsky et Hatem Necib, qui m’ont beaucoup appris sur les subtilités de la modalité TEP au cours de nos réunions de projet. Mes remerciements s’adressent aussi aux équipes médicales partenaires, à Caroline Prunier, Yolande Petegnief et Antoine Leborgne.Enfin, je remercie la société Dosisoft et Hanna Kafrouni.

Moins impliqués dans les détails de mes travaux mais tout aussi indispensables à leurs conduites à terme, je sais gré à tous ceux qui ont fait le quotidien de mes journées de travail. Ainsi, je remercie chaleureusement l’ensemble des doctorants ou post-docs (ou successivement l’un et l’autre) en particulier Carolina, Nicolas, Juan Pablo, Pierre, Kevin, Jeremy, Emi, Geoffroy, Ana, David, Olivier et Camille. Merci aussi aux indispensables de TSI, Patricia dynamique et irremplaçable assistante sans qui les tracas administratifs seraient insurmontables et Sophie Charlotte grâce à qui jamais un problème informatique n’en est un plus de quelques minutes. Enfin je remercie tout ceux qui font de TII une équipe studieuse et chaleureuse où il est agréable de travailler.

(9)
(10)

9

Table des matières

Introduction 10

1 Segmentation d’images médicales : état de l’art sur les méthodes

varia-tionnelles et leurs applications en oncologie 15

1.1 Contexte médical . . . 16

1.1.1 Images de tomodensitométrie . . . 16

1.1.2 Images d’émission de positons . . . 18

1.1.3 « Scanners » combinés . . . 21

1.1.4 Contourages manuels . . . 21

1.2 Segmentation automatique d’images par des méthodes variationnelles . . . . 23

1.2.1 Méthodes variationnelles utilisant le gradient de l’image . . . 24

1.2.2 Méthodes variationnelles utilisant des informations de régions . . . . 26

1.3 Méthodes variationnelles pour la segmentation d’images médicales . . . 32

1.3.1 Diverses applications . . . 34

1.3.2 Segmentation d’images du thorax et de tumeurs pulmonaires . . . . 37

1.4 Conclusion . . . 39

2 Segmentation de tumeurs et lymphomes dans des images multi-modales TEP-TDM 41 2.1 État de l’art . . . 41

2.2 Un modèle variationnel pour la segmentation d’images multimodales . . . . 44

2.2.1 Formulation vectorielle : approche naïve . . . 44

2.2.2 Pondération de l’attache aux données variant spatialement . . . 45

2.3 Choix du terme d’attache aux données . . . 51

2.3.1 Utilisation de masques de structures ananomiques . . . 51

2.3.2 Utilisation de boîtes englobantes quelconques . . . 51

2.4 Tests et résultats . . . 52

2.5 Conclusion . . . 57

3 Segmentation et contraintes de forme 59 3.1 État de l’art . . . 59

3.2 Description d’une forme par ses moments . . . 61

3.2.1 Les moments géométriques . . . 61

3.2.2 Les moments de Legendre . . . 61

3.3 Introduction des moments de Legendre dans la fonctionnelle . . . 66

3.4 Discrimination de formes . . . 67

(11)

3.5.1 Segmentation du cœur : définition d’une région d’intérêt et

initiali-sation . . . 68

3.5.2 Tests pour la segmentation du cœur . . . 70

3.5.3 Application à d’autre organes : segmentation de l’aorte . . . 71

3.6 Conclusion . . . 72

4 Représentation du thorax et procédure hiérarchique de segmenta-tion 73 4.1 Distributions d’intensité dans les images TDM . . . 74

4.1.1 Analyse des histogrammes de structures thoraciques dans des images TDM . . . 74

4.1.2 Estimation de densités de probabilité d’intensité d’images . . . 76

4.1.3 Estimation des densités des organes du thorax : séparabilité et construction d’un arbre hiérarchique . . . 77

4.2 Segmentation du thorax . . . 79

4.2.1 Parcours de l’arbre . . . 79

4.2.2 Construction du terme d’attaches aux données . . . 79

4.2.3 Nœuds terminaux : limites des statistiques et ajout de connaissances a priori . . . 82

4.3 Tests et résultats . . . 82

4.4 Conclusion . . . 86

5 Segmentation pour le suivi longitudinal 89 5.1 État de l’art . . . 91

5.2 Recalage . . . 91

5.2.1 Méthode . . . 92

5.2.2 Exemple de résultat de recalage . . . 93

5.3 Adaptation de la méthode de segmentation dans le cadre du suivi . . . 95

5.3.1 Construction du coefficient de pondération λ(x) . . . 96

5.4 Tests et résultats . . . 98

5.4.1 Détails de la procédure de segmentation sur un cas particuliers . . . 98

5.4.2 Différents exemples tests : résultats et commentaires . . . 99

5.5 Conclusion . . . 105

Conclusion 105

(12)

11

Introduction

Le rôle de l’imagerie dans les applications médicales occupe une place croissante depuis plusieurs années. Les améliorations technologiques des appareils d’acquisition permettent de réaliser des images de plus en plus précises. Par exemple la résolution typique des appareils de tomodensitométrie (scanner à rayons X) est de 1, 17 × 1, 17 × 1, 5 mm3

ac-tuellement. De tels progrès permettent bien sûr d’améliorer les diagnostics par la détection de plus petites lésions et par des mesures de volumes (par exemple de tumeurs) beaucoup plus précises. Le revers de ces améliorations est que l’analyse de telles images, c’est-à-dire la détection de lésions ou la segmentation de structures, prend un temps croissant car elle demande une manipulation d’un volume de données de plus en plus important. C’est pourquoi, depuis plusieurs années déjà, de nombreuses recherches visent à proposer des algorithmes d’aide à l’analyse d’images par exemple en proposant des solutions de segmentation automatiques de structures anatomiques.

La construction d’une méthode automatique d’analyse ou d’aide à l’analyse d’images médicales est un problème complexe. Suivant le type d’images à traiter (TDM, IRM (ima-gerie par résonance magnétique), échographies...) ou les objectifs visés (amélioration de la qualité des images, détection ou segmentation des images ou interprétation automatique des images), les solutions proposées peuvent être de nature très différentes.

Dans cette thèse, nous nous intéressons à l’imagerie du thorax, plus particulièrement aux images utilisées pour la détection, la caractérisation et l’élaboration éventuelle de plans de traitement par radiothérapie de tumeurs pulmonaires ou de ganglions lymphatiques in-fectés (lymphomes). Les images utilisées en routine clinique dans ce contexte sont les images anatomiques de tomodensitométrie (TDM) et les images fonctionnelles d’émission de positons (TEP). Le premier objectif est de proposer des algorithmes de segmentation automatiques ou semi-automatiques de ces tumeurs ou lymphomes en utilisant ces deux modalités d’imagerie. Dans le cas ou un plan de traitement par radiothérapie est envi-sagé, en plus de la segmentation des tumeurs comme structures cibles (c’est-à-dire devant être irradiées), il est nécessaire de délimiter les organes à risque (c’est-à-dire les organes ne devant pas recevoir d’irradiations). La segmentation de tels organes, comme le cœur, consti-tue le second objectif de cette thèse. Enfin, de manière plus prospective, nous abordons la question du suivi temporel des pathologies.

D’un point de vue méthologique, cette thèse adopte le formalisme des méthodes varia-tionnelles pour la segmentation d’images. Il s’agit de formuler le problème de segmentation comme un problème d’optimisation dont le ou un minimum correspond à la segmentation recherchée. Généralement, les fonctionnelles mises en jeu dans ce contexte se décomposent en la somme d’un terme de régularité (qui contrôle la longueur du contour ou l’aire de la surface de l’objet segmenté) et un terme d’attache aux données. La construction du terme d’attache aux données est un point clé dans l’élaboration de la fonctionnelle. En effet, à travers ce terme, il est possible d’inclure des connaissances a priori sur les

(13)

statis-tiques des intensités observées dans les images (moyennes, variances, informations sur les histogrammes) des structures que l’on cherche à segmenter. De plus,d’autres informations a priori, comme des connaissances sur la forme des structures à segmenter, peuvent être ajoutées lors de l’écriture de la fonctionnelle.

La réalisation de cette thèse fait partie du projet MINIARA supporté par le pôle de compétitivité Medicen Paris Région et piloté par la société Dosisoft. Dans ce contexte une partie des algorithmes développés dans cette thèse ont été transférés à la société Dosisoft pour l’intégration dans leur console de traitement d’image.

Structure du document

Le premier chapitre décrit le contexte général dans lequel s’inscrit cette thèse. Il pré-sente tout d’abord précisément les modalités d’imagerie TDM et TEP mises en jeu pour l’oncologie du thorax en insistant sur les différences entre ces deux modalités et les artefacts que l’on peut rencontrer en particulier dans les images TEP. Ensuite, nous présentons le cadre de travail des méthodes variationnelles en différenciant celles qui, pour construire un terme d’attache aux données, utilisent des informations sur les contours dans les images (c’est-à-dire son gradient) et celles qui utilisent des informations directement liées aux in-tensités (moyennes, variances, analyse de l’histogramme) des régions à segmenter. Nous présentons également un formalisme récent, reposant sur la construction de fonctionnelles à solutions dans l’espace des fonctions à variations bornées et ayant pour terme de ré-gularité la variation totale, permettant une résolution plus rapide et plus stable que les fonctionnelles plus classiquement utilisées.

Dans le deuxième chapitre, nous nous intéressons à la segmentation de tumeurs et de lymphomes en utilisant conjointement les modalités TEP et TDM. Nous évoquons tout d’abord les travaux existants qui traitent de ce problème. Nous proposons ensuite une méthode originale qui vise à réaliser une segmentation précise dans l’image TDM en étant guidée par les informations de l’image TEP, dérivée des méthodes présentées dans le premier chapitre.

Dans le troisième chapitre, nous proposons de segmenter les organes à risque dans les images TDM. Les informations images ne sont en général pas suffisantes pour cette tâche (faible contraste, information issues de régions peu discriminante). C’est pourquoi nous proposons d’ajouter des informations a priori à l’aide de contraintes de formes. L’informa-tion de forme est représentée à l’aide des premiers moments de Legendre. Les formes de référence sont issues d’un atlas en cours d’élaboration par la société Dosisoft. Des valida-tions sont effectuées en segmentant le cœur dans des images TDM.

Dans le quatrième chapitre nous proposons un cadre général pour la segmentation du thorax. Deux aspects sont présentés et développés : le premier est la prise en compte d’un maximum d’information a priori sur les intensités par la construction d’un terme d’attache aux données spécifique à l’organe a segmenter. Le second vise a organiser globalement la procédure de segmentation d’une manière hiérarchique pour construire des domaines de recherche de solutions de plus en plus réduits contenant les structures d’intérêt pour réaliser une segmentation. Cette partie permet de garantir l’efficacité et la robustesse des algorithmes de segmentation proposés dans les autres chapitres.

Dans le cinquième chapitre, plus prospectif que les quatre précédents, nous proposons d’aborder le suivi longitudinal. Cela consiste à analyser les images de plusieurs examens d’un même patient réalisés à différentes dates, par exemple pour vérifier que des tumeurs régressent bien au cours d’un traitement. Nous abordons ce problème comme un problème

(14)

13 de segmentation d’un examen à une date t2 connaissant la segmentation dans l’image de

l’examen à une date t1. Nous proposons un cadre de travail proche de celui adopté au

chapitre 2, en cherchant une segmentation précise dans l’examen à t2 en étant guidé par

les informations fournies par l’examen à la date t1. Cette méthode est illustrée sur des

(15)
(16)

15

Chapitre 1

Segmentation d’images médicales :

état de l’art sur les méthodes

variationnelles et leurs applications

en oncologie

Les modalités d’imagerie médicale telles que la tomodensitométrie, l’imagerie par scin-tigraphie, l’imagerie par résonance magnétique, sont devenues un outil de diagnostic et d’aide au traitement très présent pour l’oncologie.

Dans des pathologies du thorax comme le cancer du poumon ou le lymphome de Hodg-kin, le diagnostic s’appuie le plus fréquemment sur des images volumiques à rayons X, combinées ou non avec des images fonctionnelles d’émission de positons. La réalisation de tels examens, devenue courante dans les hôpitaux, génère une grande quantité d’images volumiques, qui doivent être analysées coupe par coupe par les praticiens. Dans le cas de patients atteints de tumeurs, le diagnostic peut nécessiter un contourage de ces dernières (pour réaliser des mesures de volume et de surface par exemple). Lorsque l’utilisation de la radiothérapie a été décidée dans le plan de traitement, en plus des volumes cibles (c’est-à-dire des tumeurs à irradier), les organes à risques (devant être exclus des zones irradiées) nécessitent aussi d’être contourés. De tels contourages, le plus souvent effectués tout ou partie manuellement, sont fastidieux. De plus, des différences de tracés peuvent être ob-servées entre différents praticiens et également pour un même praticien réalisant un même contourage à deux moments différents. C’est pourquoi de nombreuses recherches visent à réaliser des algorithmes de segmentation automatique conduisant à des résultats fiables et reproductibles. Le problème de la segmentation étant par définition mal posé, les algo-rithmes s’attachent à réduire l’espace de recherche en se concentrant sur des segmentations particulières. Ainsi il existe des méthodes dédiées à la segmentation des poumons, d’autres à la segmentation des tumeurs, etc.

Dans ce chapitre, nous allons décrire les principales modalités d’imagerie utilisées pour le diagnostic et l’élaboration de plans de traitement en oncologie du thorax : l’imagerie de tomodensitométrie et l’imagerie par tomographie à émission de positons. Nous décrirons également les procédures de contourages manuels et les imprécisions qui y sont inhérentes. Enfin, après un bref aperçu de méthodes automatiques de segmentation utilisées dans ce domaine, nous décrirons leurs applications cliniques.

(17)

1.1

Contexte médical

1.1.1 Images de tomodensitométrie

Les images de tomodensitométrie (TDM) sont des images volumiques du corps humain représentant le coefficient d’absorption des rayons X, directement fonction de la densité des tissus traversés. Le principe de base de l’acquisition volumique est le suivant. Pour une coupe axiale donnée, en faisant tourner un émetteur et des capteurs de rayons X autour du patient (figure 1.1) des profils mesurés (suivant les directions successives du faisceau de rayons X) des coefficients d’absorption de rayons X sont mesurées. Des algorithmes d’inversion de la transformée de Radon permettent, à partir de ces profils, de reconstruire une image de coupe (donnant la mesure de l’absorbtion en chaque pixel). En déplaçant le couple émetteur-capteurs de coupe axiale en coupe axiale, une image volumique complète du patient peut être réalisée.

00000000000000 00000000000000 00000000000000 00000000000000 00000000000000 00000000000000 00000000000000 00000000000000 00000000000000 00000000000000 00000000000000 00000000000000 00000000000000 00000000000000 00000000000000 00000000000000 00000000000000 00000000000000 00000000000000 00000000000000 00000000000000 00000000000000 00000000000000 00000000000000 00000000000000 00000000000000 00000000000000 11111111111111 11111111111111 11111111111111 11111111111111 11111111111111 11111111111111 11111111111111 11111111111111 11111111111111 11111111111111 11111111111111 11111111111111 11111111111111 11111111111111 11111111111111 11111111111111 11111111111111 11111111111111 11111111111111 11111111111111 11111111111111 11111111111111 11111111111111 11111111111111 11111111111111 11111111111111 11111111111111 00000000000000000000000000000000000000 00000000000000000000000000000000000000 00000000000000000000000000000000000000 00000000000000000000000000000000000000 00000000000000000000000000000000000000 00000000000000000000000000000000000000 00000000000000000000000000000000000000 00000000000000000000000000000000000000 00000000000000000000000000000000000000 00000000000000000000000000000000000000 00000000000000000000000000000000000000 00000000000000000000000000000000000000 11111111111111111111111111111111111111 11111111111111111111111111111111111111 11111111111111111111111111111111111111 11111111111111111111111111111111111111 11111111111111111111111111111111111111 11111111111111111111111111111111111111 11111111111111111111111111111111111111 11111111111111111111111111111111111111 11111111111111111111111111111111111111 11111111111111111111111111111111111111 11111111111111111111111111111111111111 11111111111111111111111111111111111111 (tube) Faisceau de rayons X Coupe à imager Émetteur de rayons X

capteur autour du patient Rotation du couple émetteur

d’absorption Profile Capteurs Translation du couple émetteur capteur du patient le long du corps 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11

Fig. 1.1 – Principe d’acquisition des images TDM.

Des évolutions technologiques, en physique sur le couple émetteur-capteurs, en infor-matique pour le traitement de données de tailles plus importantes, et en mathéinfor-matiques pour l’élaboration d’algorithmes de reconstruction plus efficaces, ont permis de faire évo-luer la qualité des images TDM et leurs temps d’acquisition. Il est habituel de présenter ces évolutions en désignant des « générations » d’appareils de tomodensitométrie.

– Les appareils dits de première et deuxième générations fonctionnent sur le principe d’un mouvement de rotation et de translation du couple émetteur-capteurs (comme décrit figure 1.2 (a)). La largeur du faisceau de rayons X étant limitée, des transla-tions doivent être effectuées pour l’acquisition d’une coupe. La première génération ne comporte que deux capteurs ne permettant de réaliser que deux coupes simulta-nément. Le temps d’acquisition est de plusieurs minutes. Les derniers appareils de deuxième génération demandent un temps d’acquisition de 15 à 20 secondes. – Les appareils de troisième génération (figure 1.2(b)) possèdent une grille de capteurs

plus grande et le faisceau de rayons X est plus ouvert : le mouvement de translation est supprimé. Le couple émetteur-capteurs tourne autour du patient. Un gain d’un facteur 2 est réalisé pour le temps d’acquisition.

– Les appareils de quatrième génération (figure 1.2 (c)) possèdent un anneau de cap-teurs qui entoure le patient. Seul l’émetteur tourne.

– Enfin les appareils de cinquième génération ont l’émetteur placé à l’extérieur de l’anneau de capteurs (ces derniers s’écartant pour laisser passer les rayons incidents). Les mesures de coefficients d’absorption sont calibrées pour fournir des images aux

(18)

17 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000 1111 1111 1111 1111 1111 1111 1111 1111 1111 1111 1111 1111 1111 1111 1111 1111 1111 1111 1111 1111 1111 1111 1111 1111 Coupe à imager Capteurs Faisceau de rayons X Émetteur de rayons X (tube) translation rotation (a) 000000000000000 000000000000000 000000000000000 000000000000000 000000000000000 000000000000000 000000000000000 000000000000000 000000000000000 000000000000000 000000000000000 000000000000000 000000000000000 000000000000000 000000000000000 000000000000000 000000000000000 000000000000000 000000000000000 000000000000000 000000000000000 000000000000000 000000000000000 000000000000000 111111111111111 111111111111111 111111111111111 111111111111111 111111111111111 111111111111111 111111111111111 111111111111111 111111111111111 111111111111111 111111111111111 111111111111111 111111111111111 111111111111111 111111111111111 111111111111111 111111111111111 111111111111111 111111111111111 111111111111111 111111111111111 111111111111111 111111111111111 111111111111111 0000000000000000000000000000 0000000000000000000000000000 0000000000000000000000000000 1111111111111111111111111111 1111111111111111111111111111 1111111111111111111111111111 Coupe à imager Capteurs Faisceau de rayons X Émetteur de rayons X (tube) rotation (b) (c)

Fig. 1.2 – Évolution des technologies d’acquisition des images de tomodensitométrie. (a) Première et deuxième génération, (b) troisième génération, (c) quatrième génération. intensités connues pour les différents types de tissus. La calibration est réalisée grâce à l’échelle de Hounsfield (HU) reposant sur les valeurs particulières d’absorption fixées à µeau

= 0 pour l’eau et µair=−1000 pour l’air. Elle est donnée par la formule de normalisation

suivante :

HU(µtissus) =

µtissus− µeau

µeau− µair × 1000.

(1.1) Les images TDM ont ainsi des niveaux de gris allant de -1000HU pour l’air (fond de l’image ou trachée) à 1000HU (et parfois des valeurs supérieures) pour les os comme illustré sur la figure 1.3). La répartition des intensités en unité HU en fonction des types de tissus imagés est donnée figure 1.4.

Fig. 1.3 – Une image TDM et les intensités en HU de certains milieux caractéristiques : air (fond et trachée), graisse, os dense.

−1000 −500 0 500 1000 Air Poumons Eau Tissus mous Graisse os

Fig. 1.4 – Intensité des images TDM en fonction du type de tissu en unités HU. L’œil humain ne pouvant distinguer les plus de 2000 niveaux d’intensité d’une image TDM, les radiologues ont défini des « fenêtres » de visualisation consistant en une

(19)

quan-(a) (b) (c) (d)

(e) (f) (g) (h)

Fig.1.5 – Exemples d’images TDM avec différentes fenêtres de visualisation (et leur histo-grammes). (a,b,c) Coupes axiales, coronales et sagittales avec un fenêtrage dit parenchyme. (e,f,g) Fenêtrage médiastinal. (d,h) Histogrammes des fenêtres.

tification sur un nombre restreint de niveaux de gris de l’image dans un intervalle donné (avec une saturation des niveaux de gris en dehors de l’intervalle d’intérêt). Une fenêtre est définie par son niveau et sa largeur. Le niveau correspond au niveau de gris central de l’in-tervalle d’intérêt (en unité Hounsfield) et la largeur à l’étendue de l’inl’in-tervalle d’intérêt. Par exemple pour la visualisation du médiastin, il est habituel de choisir un niveau de fenêtre de 40 HU avec une largeur de 350, et pour la visualisation du parenchyme pulmonaire, un niveau de -600 avec une largeur de fenêtre de 1500 (figure 1.5). Ces fenêtres sont un outil de visualisation, le traitement numérique des images s’effectue, lui, sur toute la dynamique afin de ne pas perdre d’informations.

La résolution typique de ces images est de 1, 17 × 1, 17 × 1, 60 mm3.

1.1.2 Images d’émission de positons

En imagerie pour l’oncologie du thorax, en plus des images TDM, les images TEP (to-mographie à émission de positons) sont très utilisées pour le diagnostic et la caractérisation de l’activité des tissus tumoraux. A l’inverse des images TDM qui fournissent une infor-mation anatomique (ou structurelle) précise, les images TEP fournissent une inforinfor-mation fonctionnelle (c’est-à-dire de l’activité du corps humain). Le principe de l’imagerie TEP est de mesurer les concentrations locales, après injection dans l’organisme d’un patient de molécules marquées par un isotope radioactif émetteur de rayons gamma. Les propriétés physiques ou chimiques des molécules marquées leur permettent de s’accumuler dans

(20)

cer-19 tains tissus en fonction de leurs activités métaboliques. Par exemple, pour l’oncologie du thorax, le traceur le plus utilisé est le18F-fluorodésoxyglucose18F-FDG (isotope radioactif

du glucose) qui va préférentiellement se fixer dans les zones du corps consommant le plus de glucose, c’est-à-dire le foie, le cerveau et les tumeurs (les cellules des tissus tumoraux se multiplient plus vite que celles des tissus sains et consomment ainsi plus de glucose) (figure 1.6). En se désintégrant, l’isotope radioactif libère des positons (particules chargées positivement), qui vont s’annihiler avec des électrons (chargés négativement) en libérant deux photons gamma dans deux directions opposées à 180 degrés l’une de l’autre (figure 1.7) et à une énergie de 511 keV. Des caméras à photons, placées autour du patient, per-mettent de détecter les rayonnements gamma simultanés et de sens opposés, provenant d’une désintégration, permettant de définir une droite sur laquelle est situé le lieu de la désintégration du traceur. Des méthodes de reconstruction permettent ensuite de créer l’image TEP complète.

Foie Cerveau Tumeur du myocarde Muscle Vessie

Fig. 1.6 – Un exemple d’image TEP. Les traceurs s’accumulent dans le cerveau, les tu-meurs, le foie et la vessie.

L’intensité des pixels des images TEP n’est pas normalisable ni calibrable comme celle des images TDM. L’intensité observée dépend, bien sûr, de l’activité métabolique des diffé-rents tissus du patient, mais aussi de la quantité de traceur radioactif injectée au patient, du

(21)

e− e+ Désintégration Emission d’un positon e + Annihilation avec un électron Emissions de deux rayons gamma

Détection de rayons gamma simultanés et de sens opposés

Fig. 1.7 – Principe de l’imagerie TEP.

temps écoulé entre l’injection de la dose et l’examen d’imagerie, de la concentration du tra-ceur répartie dans les tissus du patient (c’est-à-dire du poids du patient). La quantification de l’activité tumorale via les informations révélées par l’image TEP est souvent effectuée à l’aide d’indicateurs permettant d’annuler les différences de mesure dues aux phénomènes qui ne sont pas spécifiquement liés à la répartition de la fixation. Par exemple, dans les services de médecine nucléaires, les médecins calculent fréquemment des mesures de SUV (standardized uptake values ou prise de constraste standardisée) de la manière suivante

SU V = c(t)

Concentration de traceur injecté /Poids du patient (1.2) où c(t) est la concentration du rayonnement, mesurée en Becquerel par millilitre qui dépend du temps t écoulé entre le moment d’injection du traceur et le moment de l’examen d’imagerie. Le SUV est une mesure sans dimension, il ne s’agit pas d’une normalisation de l’image TEP. En supposant que le traceur soit réparti uniformément dans le corps du patient, le SUV serait de 1 partout. Aussi les zones avec un SUV supérieur à 1 sont réputées être des zones d’hyperfixation et celles où il est inférieur à 1 d’hypofixation. Comme il est souligné dans [Buvat, 2007], la mesure de SUV n’est que semi-quantitative (en particulier à cause du terme c(t) qu’il est difficile de quantifier précisément). Les mesures du poids du patient et la dose initiale étant invariantes, la mesure de SUV est proportionnelle à l’intensité observée des images TEP. Cela signifie en particulier qu’il est équivalent de considérer des valeurs relatives des intensités TEP et des valeurs relatives des mesures de SUV.

Le protocole d’acquisition de ces images est plus lourd que celui des images TDM. En effet, après l’injection du traceur, le patient doit prendre un temps de repos pour le laisser se diffuser et se fixer dans l’organisme. La procédure d’imagerie elle-même est relativement longue (de 20 à 30 minutes). Les résolutions des images fournies par les appareils TEP actuels sont de l’ordre de 4×4×4mm3. Aussi pour des petites tumeurs, les images sont

altérées par un fort effet de volume partiel. De plus, du fait de la durée des examens en TEP, une apnée n’est pas possible, et les images du thorax sont entachées d’un « flou de respiration ».

(22)

21

1.1.3 « Scanners » combinés

Les images TDM sont des images purement anatomiques (ou structurelles) permettant d’étudier la position, la forme et la taille des tissus du corps humain. Cependant elles ne révèlent qu’une mesure de la densité des tissus : une image TDM ne permet pas de différencier un nodule pulmonaire bénin d’une tumeur (ces deux tissus ayant la même den-sité). A l’inverse, les images TEP sont des images fonctionnelles. Elles révèlent l’activité du corps humain en fonctionnement mais ne fournissent pas d’informations anatomiques précises. Aussi la complémentarité de ces deux modalités est naturelle et l’intérêt de les utiliser conjointement a été souligné par de nombreuses publications médicales [Giraud et al., 2002; Ashamalla et al., 2005; van Baardwijk et al., 2006; Faria et al., 2008]. Lorsque les images TDM et TEP sont acquises avec deux appareils différents, le recalage des deux modalités est un problème difficile et un obstacle à leur utilisation conjointe. Il existe ce-pendant actuellement des machines combinées permettant de réaliser des acquisitions TEP et TDM au cours d’un même examen. Des détails sur la conception des différents modèles d’appareils combinés TEP-TDM sont donnés dans [Townsend et al., 2004]. L’intérêt d’une telle amélioration technique est qu’il devient immédiat de placer les images TEP et TDM dans le même repère puisque le patient reste dans la même position et que les deux acqui-sitions sont très proches dans le temps (figure 1.8(a-b)). Cependant le recalage entre les deux images peut ne pas être parfait, des décalages peuvant provenir de :

– la différence de résolution entre les images TEP et les images TDM (typiquement 4× 4 × 4 mm3 pour l’image TEP et 1, 17 × 1, 17 × 1, 60mm3 pour l’image TDM) induisant un effet de volume partiel plus important pour les images TEP,

– la différence de temps d’acquisition entre les deux modalités : de l’ordre de la seconde pour les images TDM et plusieurs minutes (environ 20 min) pour les images TEP. Dans une zone comme le thorax, où les mouvements de respiration sont importants, cette différence de temps va se traduire par un « flou de mouvement » sur l’image TEP et d’éventuels décalages entre les modalités TEP et TDM. La figure 1.8(c) illustre la superposition d’images TEP-TDM issues d’un scanner combiné avec des décalage entre les frontières apparentes d’une tumeur dans les deux modalités. La figure 1.9 illustre l’amplitude du mouvement respiratoire (visualisée à partir d’images TDM 4D) pouvant conduire à de telles erreurs.

1.1.4 Contourages manuels

Pour la radiothérapie, comme souligné dans [Daisne, 2005], la modalité considérée comme la plus utile pour réaliser des contourages des tumeurs est la TDM. Aussi même si des recherches sont menées pour proposer des protocoles de segmentation en TEP et des indices de mesures d’activité, les praticiens considèrent toujours l’image TDM comme étant l’image de référence. La manière de délimiter les contours des volumes cibles de ra-diothérapie (en oncologie du thorax les tumeurs pulmonaires et les lymphomes à partir des images TDM) est définie par les rapports 50 et 62 de l’ICRU1 (International Commission

for Radiation Units) [ICRU, 1993a,b]. Les volumes cibles sont décomposés en 3 niveaux concentriques (du plus étroit au plus large) définissant le GTV, le CTV et le PTV.

– Le GTV (gross tumor volume) correspond au volume apparent de la tumeur (dit volume tumoral macroscopique).

(23)

(a) (b) (c)

Fig.1.8 – Superposition d’images TDM (en niveaux de gris) et TEP (en couleur) acquises avec un scanner combiné. (a) Exemple de coupe axiale. (b) Exemple de coupe coronale. (c) Exemple d’une mauvaise correspondance entre les deux modalités pour une tumeur pulmonaire : principalement à cause des mouvements de respiration la tumeur apparaît plus étendue sur les images TEP que sur les images TDM.

Fig. 1.9 – Amplitude du mouvement respiratoire. Deux images TDM d’un même patient prises à deux instants différents du cycle respiratoire. Les lignes rouges en pointillés illus-trent les décalages des poumons entre les différents instants du cycle respiratoire.

– Le CTV (clinical tumor volume), correspond au volume anatomo-clinique. Il fait référence aux extensions courantes de tumeurs observées par prélèvement chirurgical. – Le PTV (previsional target volume) est le volume cible prévisionnel. Il tient compte d’éventuels mouvements du patient pendant la séance d’évaluation et de l’imprécision des appareils de radiothérapie.

Plusieurs études cliniques sont consacrées à la quantification de la variabilité intra et inter-praticiens dans le tracé du GTV, par exemple [Giraud et al., 2002; Steenbakkers et al., 2006; van Baardwijk et al., 2007]. Plusieurs protocoles pour mesurer cette variabilité sont proposés. Certains ne s’appuient que sur les images TDM comme par exemple [Giraud et al., 2002]. D’autres mesurent la variabilité en utilisant conjointement les images. En particulier les travaux de [Steenbakkers et al., 2006] montrent que l’indice de concordance (c’est-à-dire le rapport entre l’intersection et l’union de deux segmentations différentes) entre différents experts est de l’ordre de 0,70. Cette valeur est certes bien supérieure à celle

(24)

23 observée en utilisant des images TDM seules mais elle reste trop faible pour être considérée comme reproductible.

Aussi le besoin d’algorithmes automatiques, ou semi-automatiques, de segmentation, a été souligné dans [Daisne, 2005], pour favoriser une meilleure repoductibilité dans les étapes de contourage, en limitant les tâches manuelles fastidieuses pour l’utilisateur.

1.2

Segmentation automatique d’images par des méthodes

variationnelles

Il existe de nombreuses méthodes de segmentation d’images. L’objectif ici n’est pas de constituer un vaste état de l’art des techniques de segmentation allant d’un simple seuillage à des algorithmes plus élaborés. Rappelons simplement que segmenter une image consiste à la partitionner en un certain nombre de régions définies par des critères d’homogénéité (par exemple des intensités proches entre les pixels ou les voxels appartenant à une même région). Segmenter une image peut également signifier la séparer en deux régions, l’une représentant un objet spécifique à détecter et l’autre le fond aux propriétés d’homogénéité pouvant être variables ou inconnues. Parmi toutes les méthodes de segmentation, on peut dégager deux grandes catégories : celles qui utilisent les informations de contours des images (i.e. du gradient) et celles qui utilisent des informations de régions (i.e. des informations directement liées aux distributions d’intensité de l’image). Traversant ces deux catégories de méthodes, un cadre de travail consistant à définir le problème de segmentation comme un problème d’optimisation, consistant en la recherche d’une partition optimale P∗de l’image,

est souvent adopté. Il présente l’avantage de fournir un cadre mathématique formel, aux propriétés souvent bien définies, modélisant des informations liées aux propriétés de l’image correspondant à l’intuition. La formulation générique suivante est utilisée :

P∗= arg min

P F (P, I). (1.3)

Il s’agit de minimiser une fonctionnelle F où P∗peut représenter soit la partition de l’image

I recherchée, soit les contours de l’objet à segmenter.

Selon la manière de considérer l’image, soit comme une fonction continue de Rn dans R

(n = 2 ou 3), soit comme un objet discret de Zn, la mise en œuvre de la minimisation

sera différente. Dans le premier cas, des outils de calcul des variations sont utilisés, dans le second ce sont des outils d’optimisation combinatoire qui sont utilisés. En particulier, dans ce second cas, il est fréquent de représenter l’image comme un graphe G = (N , A), N désignant ses nœuds (en général les pixels de l’image) et A ses arêtes (par exemple valuées avec la valeur du gradient entre les pixels de l’image). Les problèmes de segmentation peuvent alors être vus comme des problèmes de coupure de graphes comme dans les travaux de [Boykov et Jolly, 2001; Boykov et Funka-Lea, 2006]. D’autre travaux, initiés par l’article fondateur de [Geman et Geman, 1984] consistent à considérer le graphe de l’image comme un champ de Markov et à réaliser la segmentation dans un cadre bayésien.

Dans cette thèse nous avons porté notre attention sur les méthodes variationnelles. Ce sont donc surtout celles-ci que nous décrirons dans cette section. Nous les décomposons en deux catégories, la première regroupant les méthodes variationnelles permettant de réaliser une segmentation à l’aide des informations du gradient de l’image, et la seconde celles permettant de réaliser une segmentation à l’aide d’informations d’intensité de l’image, dites de « région ». Pour l’une ou l’autre de ces catégories, la représentation du contour de l’objet segmenté peut être implicite ou explicite.

(25)

1.2.1 Méthodes variationnelles utilisant le gradient de l’image

Historiquement les contours actifs sont considérés comme une méthode variationnelle pionnière de segmentation d’images. Introduits dans [Kass et al., 1988] ils consistent à chercher un contour représenté par la courbe paramétrée C(s) : [0, 1] → Ω, en minimisant une fonctionnelle EKW T de la forme :

arg min C EKW T(C(s)) = arg minC Z 1 0 −|∇I(C(s)| 2ds | {z }

attache aux données

+ λ1 Z 1 0 |C s(s)|2ds + λ2 Z 1 0 |C ss(s)|2ds | {z } régularité (1.4) où Cs(s) et Css(s) représentent les dérivées première et seconde de la courbeC par rapport

à s.

Le terme d’attache aux données de l’équation (1.4) favorise le passage de la courbe C par les points de fort gradient de l’image (c’est-à-dire les contours les plus apparents). Le terme de régularité met en jeu l’élasticité (Cs(s)) et la rigidité (Css(s)) de la courbe. Les facteurs

de pondération λ1 et λ2 permettent de choisir l’importance relative des différents termes

dans la fonctionnelle.

Une telle formulation n’est pas sans quelques inconvénients. Tout d’abord, la fonction-nelle (1.4) admet plusieurs minima : l’étape d’initialisation est alors primordiale. De plus la représentation explicite d’un contour par sa forme paramétrique n’autorise pas naturel-lement les changements de topologie (séparation en deux contours distincts ou repliement de la courbe sur elle-même). D’autre part cette formulation dépend explicitement de la manière de réaliser la paramétrisation de la courbe.

Une partie de ces problèmes trouvent réponse dans les contours actifs dit géodésiques. Développés par [Caselles et al., 1997] ils consistent à minimiser la fonctionnelle EGAC

arg min

C EGAC = arg minC

Z 1 0 g(|∇I(C(s)|2)ds + λ Z 1 0 |C s(s)|2ds (1.5)

où g est une fonction de potentiel de contour telle que g ≈ 0 dans les zones de l’image de fort gradient et g ≈ 1 dans les zones de l’image de faible gradient. Généralement, les fonctions g choisies sont g(x) = 1

1+|x| ou g(x) = exp(−x). La fonctionnelle est équivalente

à :

arg min

C EGAC = arg minC

Z 1 0

g(|∇I(C(s)|2)|Cs(s)|ds (1.6)

qui est indépendante de la paramétrisation choisie. La dénomination géodésique est due au fait que minimiser la fonctionnelle (1.6) revient à minimiser la longueur de la courbe |Cs(s)| dans un espace non euclidien où la métrique dépend de g(|∇I(C(s)|2).

La minimisation de cette fonctionnelle est réalisée par une descente de gradient en suivant l’équation d’évolution suivante:

∂C

∂t = βN, (1.7)

où N est la normale à la courbe et β = gκ − ∇g · N (κ désigne la courbure de la courbe C). Là encore l’initialisation est une étape primordiale pour éviter des minima locaux. 1.2.1.1 Représentation explicite du contour de l’objet à segmenter

Les fonctionnelles décrites précédement utilisent toutes une représentation explicite du contour qui doit les minimiser. Il est en effet représenté par une courbe paramétrée dans le

(26)

25 cas 2D ou par une surface paramétrée dans le cas 3D. D’autres représentations explicites représentent le contour à l’aide de courbes de Béziers (ou courbes splines) et expriment la fonctionnelle à l’aide des points de contrôle et des fonctions de base comme par exemple dans [Brigger et al., 2000].

1.2.1.2 Représentation implicite du contour de l’objet à segmenter par en-semble de niveaux

La méthode par ensembles de niveaux, introduite en traitement d’images par [Osher et Sethian, 1988], consiste à ne plus représenter une courbe explicitement comme une fonction de R dans R (pour une courbe sur une image 2D) mais comme l’ensemble de niveau 0 d’une fonction Φ de R2 dans R (figure 1.10). Les fonctionnelles de segmentation

doivent alors alors être redéfinies sur Φ. Cette représentation présente l’avantage de pouvoir naturellement autoriser des changements de topologie dans la forme à segmenter.

Suivant le problème et la fonctionnelle étudiés, Φ peut être restreinte à certaines classes de fonctions. Dans le cas d’une image 2D, nous pouvons fixer arbitrairement Φ comme étant une distance signée au contour :

Φ : R2 → R (x, y) 7→    Φ(x, y) < 0 à l’intérieur du contour C Φ(x, y) = 0 sur le contour C Φ(x, y) > 0 à l’extérieur du contour C (1.8)

Un avantage supplémentaire du formalisme par ensembles de niveaux est que l’extension en 3D est directe (et de manière générale en ND).

10 20 30 40 50 60 70 80 90 100 10 20 30 40 50 60 70 80 90 100 10 20 30 40 50 60 70 80 90 100 10 20 30 40 50 60 70 80 90 100 10 20 30 40 50 60 70 80 90 100 10 20 30 40 50 60 70 80 90 100

Fig.1.10 – Exemple de fonctions Φ et leurs ensembles de niveau 0 définissant un contour. Par exemple, la reformulation des contours actifs géodésiques en utilisant une repré-sentation par ensembles de niveaux conduit à l’équation d’évolution suivante :

∂Φ

∂t = g|∇Φ|κ + ∇g · ∇Φ (1.9)

où la courbure κ s’exprime en fonction de Φ ( κ = ∇Φ |∇Φ| )

(27)

1.2.2 Méthodes variationnelles utilisant des informations de régions

Dans beaucoup de cas pratiques, et en particulier en imagerie médicale, l’information de gradient n’est pas pertinente pour réaliser une bonne segmentation. En effet une structure à segmenter peut avoir un contour non nécessairement visible partout ou présenter des informations de fort gradient ne correspondant pas à son contour. La figure 1.11 illustre ce cas de figure sur l’exemple de la paroi intérieure du poumon dans une image TDM.

Zoom

Gradient

Fig. 1.11 – Image TDM et zoom sur une partie de son image de gradient : l’information de gradient n’est pas toujours pertinente, par exemple sur la paroi intérieure du poumon. C’est pourquoi des approches prenant en compte des informations d’intensité, à l’inté-rieur des partitions segmentées, ont été développées. Les informations d’intensité peuvent prendre plusieurs formes : suivre des distributions d’intensité connues a priori ou apprises sur des données [Anquez et al., 2008], suivre des distributions évaluées pendant le processus de segmentation [Paragios et Deriche, 2000; Lecellier et al., 2010], ou suivre des informa-tions d’homogénéité plus complexes caractérisant des textures [Paragios et Deriche, 2002; Lecellier et al., 2008a]. Le modèle le plus étudié pour la prise en compte des informations d’intensité est celui de [Mumford et Shah, 1988]. Il consiste à segmenter une image en re-groupant dans une même région les pixels (ou les voxels) ayant des intensités proches et en imposant une contrainte de regularité sur les frontières des régions (c’est-à-dire les contours de la segmentation). Cela se traduit, dans le cas simplifié de la recherche d’une partition de l’image correspondant à une modélisation des intensités par une fonction constante par morceaux, par la minimisation de la fonctionnelle E :

arg min

Icpm,Γ

E(Icpm, Γ) = arg min Icpm,Γ λ Z ΩkI cpm− Ik2dΩ | {z } homogénéité des régions + Z Γ dΓ, | {z } longueur des contours (1.10)

où Icpm est une approximation constante par morceaux recherchée de l’image I définie sur

(28)

27 des différents termes dans la fonctionnelle. La minimisation de cette fonctionnelle est un problème difficile. Les méthodes les plus courantes pour la réaliser sont soit l’écriture d’un modèle approché, soit des méthodes d’optimisation stochastique [Shen, 2005; Law et al., 2008]. Comme pour les formulations utilisant les informations de gradient de l’image, une représentation explicite du contour recherché (comme dans [Gastaud et al., 2004]) ou une représentation implicite par ensemble de niveaux peuvent être utilisées. Parmi les modèles approchés, le plus répandu est celui de [Chan et Vese, 2001] qui met en œuvre une segmentation en deux régions par le formalisme des ensembles de niveaux.

1.2.2.1 Le modèle de Chan et Vese

Le modèle de [Chan et Vese, 2001] utilise le formalisme de la représentation par en-sembles de niveaux pour proposer l’approximation du modèle de la fonctionnelle (1.10). Cette approximation est restreinte à la segmentation d’une image en deux phases (objet et fond). Elle consiste à résoudre le problème suivant :

arg min Φ,c1,c2 Z Ω|∇H(Φ)|dΩ + Z Ω H(Φ)(I− c1)2dΩ + Z Ω (1− H(Φ))(I − c2)2dΩ, (1.11)

où H est la fonction de Heaviside (H(x) = 1 si x est positif, 0 sinon), c1 et c2 sont les

niveaux moyens d’intensité de chacune des deux phases. 1.2.2.2 Minimisation

Descente de gradient [Chan et Vese, 2001] proposent d’écrire les conditions d’optima-lité de la fonctionnelle 1.11 en utilisant le modèle approché régularisé suivant :

arg min Φ,c1,c2 Z Ω|∇H ǫ(Φ)|dΩ + Z Ω Hǫ(Φ)(I− c1)2dΩ + Z Ω (1− Hǫ(Φ))(I − c2)2dΩ (1.12)

où Hǫ est une version régularisée (au moins continue et dérivable) de la fonction de

Hea-viside. Les auteurs, dans [Chan et Vese, 2001] proposent d’utiliser l’une ou l’autre des régularisations décrites dans le tableau suivant:

expression H1,ǫ(x)= 12 +π1arctan(xǫ) H2,ǫ(x)=    1 si x > ǫ 0 si x <−ǫ 1 2 1 + x ǫ + 1 π sin πx ǫ  si |x| < ǫ régularité C∞ C1 dérivée1 δ 1,ǫ(x) = π1 ǫ ǫ2+x2 δ2,ǫ(x)=  0 si|x| > ǫ 1 2ǫ 1 + cos πx ǫ  si |x| < ǫ

support de non borné borné restreint à

la dérivée l’intervalle [−ǫ, ǫ]

(29)

−2 −1.5 −1 −0.5 0 0.5 1 1.5 2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 ε = 0.01 ε = 0.1 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 0 5 10 15 20 25 30 35 ε = 0.01 ε = 0.1

Fig. 1.12 – Fonction de Heaviside régularisée et sa dérivée avec ǫ = 0, 01 (en bleu) et ǫ = 0, 1 (en rouge).

La figure 1.12 illustre deux exemples de graphes des fonctions H1,ǫavec ǫ = 0, 1 et ǫ = 0, 01.

Ces approximations dérivables de la fonction de Heaviside permettent d’écrire l’équa-tion d’Euler Lagrange par rapport à la foncl’équa-tion Φ de la foncl’équa-tionnelle (1.12). La condil’équa-tion d’optimalité suivante est alors obtenue :

λδǫ(Φ)(I− c1)2− λδǫ(Φ)(I− c2)2− δǫ(Φ)div ∇Φ

|∇Φ| 

= 0 (1.13)

Une solution stationnaire est obtenue par descente de gradient.

Cette méthode présente deux principaux inconvénients. Le premier, purement numé-rique, est que pour avoir un schéma numérique stable, on est obligé de choisir un pas τ suffisamment petit, ce qui implique une convergence assez lente. Le second provient directe-ment de la construction du modèle : il n’y a pas nécessairedirecte-ment unicité de la solution et rien n’empêche la méthode de converger vers un minimum local loin de la solution recherchée. La figure 1.13 illustre le problème de l’influence de l’initialisation sur la partition finale avec une approximation de la fonction de Dirac à support borné et étroit sur une coupe 2D d’une image de poumons. La régularisation, en particulier en élargissant le support de la fonction Dirac, permet une évolution de la fonction Φ au-delà de son seul ensemble de niveau 0, ce qui permet d’éviter un certain nombre de minima locaux.

Vers une formulation convexe et des algorithmes d’optimisation efficaces. S’ins-pirant de l’approche de [Chan et al., 2006], pour le débruitage, les auteurs de [Bresson et al., 2007] proposent une nouvelle formulation approchée de la fonctionnelle de Mumford et Shah, par le problème sous contrainte suivant :

  

arg minu,c1,c2ETV(u, c1, c2) = arg minu,c1,c2

R

Ω|∇u|dΩ

+Ru(I− c1)2+ (1− u)(I − c2)2dΩ,

s.c. u ∈ BV[0,1](Ω).

(1.14) La fonction d’ensemble de niveaux Φ et son indicatrice H(Φ) sont remplacées par une fonction d’appartenance u appartenant à l’ensemble des fonctions à variations bornées à valeurs dans [0, 1] (BV[0,1](Ω)). Ainsi, au lieu de chercher une segmentation dans l’espace des fonctions indicatrices (le résultat est une segmentation binaire mais il y a plusieurs

(30)

29

Fig.1.13 – Résultats de la minimisation de la fonctionnelle de Chan et Vese sur une image avec deux initialisations différentes (l’une incluant la trachée, l’autre l’excluant) conduisant à deux résultats différents. Les colonnes correspondent respectivement aux initialisations et aux évolutions du contour après 20, 100, 500, 700 et 1500 itérations.

solutions), les auteurs proposent de chercher une fonction u ∈ BV[0,1](Ω) pouvant prendre

toutes les valeurs intermédiaires entre 0 et 1. L’avantage d’une telle formulation est que, en fixant c1 et c2, la fonctionnelle (1.14) est convexe en u et l’espace de minimisation BV est

aussi convexe (contrairement à celui des fonctions indicatrices), ainsi il n’y a donc plus de minimum locaux. Cette propriété permet, comme illustré sur la figure 1.17, de s’affranchir du problème de l’initialisation.

Dans ce modèle, le terme de régularité est la variation totale de u. Il permet d’assurer que le minimum est atteint pour u binaire (figure 1.16). Aussi une segmentation est atteinte par simple seuillage de u (généralement à 0,5).

De même dans [Mory et Ardon, 2007; Mory et al., 2007] une forme plus générique de fonctionnelle est proposée :

 arg minu,αiET V2 = arg minu,αi

R Ω|∇u|dΩ + λ R Ωu(x)rαi(x)dΩ s.c. u ∈ BV[0,1](Ω) (1.15) où rαi(x) est un terme d’attache aux données quelconque ne dépendant pas de u et les

αi, i ∈ {1, 2} sont les paramètres du terme d’attache aux données. Le tableau 1.1 donne

quelques exemples de termes d’attache aux données utilisables.

r(x) = (I− c1)2− (I − c2)2 [Chan et Vese, 2001]

rαi(x) = log Pi(I|αi) [Paragios et Deriche, 2000]

rαi(x) = (I− sαi)

2+ ν|∇s αi|

2 [Vese et Chan, 2002]

Tab. 1.1 – Différents termes d’attaches aux données possibles pour l’équation 1.15. Les auteurs de [Bresson et al., 2007; Mory et Ardon, 2007] proposent également de pondérer la variation totale par un terme de potentiel fonction du gradient pour diminuer la valeur de l’énergie près des contours les plus apparents. Le terme de pondération le plus classiquement utilisé est :

g(x) = 1 |1 + ∇Iσ|

(31)

où Iσ est l’image I lissée par un noyau gaussien de largeur σ. La fonctionnelle se réécrit

alors

 arg minu,rαi ET V g = arg minu,rαiRg(x)|∇u|dΩ + λRu(x)rαi(x)dΩ

s.c. u ∈ BV[0,1](Ω)

(1.17) La figure 1.14 illustre le rôle du potentiel de gradient en soulignant les différences entre les résultats de la minimisation de la fonctionnelle (1.15) et de la fonctionnelle (1.17), en particulier pour les parties fines.

(a) (b) (c)

Fig.1.14 – Rôle de la pondération par le potentiel gradient : segmentation séparant le corps du fond de l’image près de l’aisselle. (a) Minimum de la fonctionnelle 1.15. (b) Minimum de la fonctionnelle 1.17.(c) Potentiel de gradient g(x).

Là encore, l’optimisation se fait alternativement sur les paramètre de rαi(x) (c1 et c2

dans le cas d’une fonctionnelle type [Chan et Vese, 2001]) et sur u.

Dans le cas où r(x) = ((I − c1)2 − (I − c2)2), la minimisation par rapport à c1 et c2 est

directe et conduit aux moyennes pondérées suivantes : c1= R ΩuIdx R Ωudx c2 = R Ω(1−u)Idx R Ω(1−u)dx (1.18) La minimisation par rapport à u peut se faire soit par descente de gradient, soit par l’algorithme de [Chambolle, 2004].

Minimisation par descente de gradient Pour minimiser la fonctionnelle (1.17), [Chan et al., 2006] proposent de transformer le problème avec contrainte (1.17) (où la contrainte est l’appartenance de u à l’ensemble BV[0,1](Ω)) en un problème sans contrainte par péna-lisation exacte de la manière suivante :

arg min u,rαi Z Ω g(x)|∇u|dΩ + λ Z Ω u(x)r(x)dΩ + Z Ω αν(u(x))dΩ (1.19) avec le terme de pénalisation, appliqué à u, défini par ν(t) = max(0, 2|t −1

2| − 1) (illustré

figure 1.15) et α > λ

2kr(x)kL∞(Ω).

La pénalisation est exacte au sens où tout minimum de la fonctionnelle (1.19) minimise aussi la fonctionnelle 1.17, une preuve étant donnée dans [Chan et al., 2006].

Les équations d’Euler-Lagrange conduisent à la condition d’optimalité suivante : div ∇u

|∇u|− λr(x) − αν

(32)

31 −1 −0.5 0 0.5 1 1.5 2 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

Fig. 1.15 – Pénalisation pour la minimisation de la fonctionnelle (1.19). En dehors de l’intervalle [0, 1], le terme de pénalisation empêche l’existence de mimima.

La solution stationnaire est obtenue par descente de gradient à l’aide du schéma expli-cite aux différences finies à l’ordre 1 suivant :

un+1= un+ τ  div ∇u |∇u| − λr(x) − αν ′(un(x))  (1.21) où τ doit être suffisamment petit pour assurer la stabilité numérique.

Minimisation par l’algorithme de Chambolle De même que pour la descente de gradient, le problème (1.17) est réécrit comme le problème sans contrainte (1.19). L’algo-rithme de [Bresson et al., 2007] fondé sur [Chambolle, 2004] consiste à ajouter une variable auxiliaire v et une contrainte u = v de la manière suivante :

arg min u,v Z Ω g|∇u|dx + 1 2θ Z Ω|u − v| 2dΩ +Z Ω vr + βν(v)dΩ (1.22) La minimisation doit alors à présent se faire alternativement pour les variables u et v. Le minimum pour u est donné par :

u = v− θdiv(p) (1.23)

avec p solution de :

g∇(θdivp − v) − |∇(θdivp − v)|p = 0 (1.24) déterminée par les itérations de point fixe suivantes (en initialisant p0= 0) :

pn+1= p n+ τ∇(div(pn)v θ) 1 +τ|∇(div(pn)− v θ)| g (1.25) où le pas τ ≤ 1/8 Le minimum pour v est donné par :

v = max(min(u− θλr, 1), 0) (1.26)

(33)

Algorithme 1 Minimisation de (1.19) [Chambolle, 2004]

Entrées : I, u, θ, τ, g repéter

calculer c1 and c2 selon l’eq. (1.18)

r := (I− c1)2− (I − c2)2 v := max(min(u− θλr, 1), 0) p0:= 0 repéter pn+1:= pn+τ ∇(div(pn)−vθ) 1+τ|∇(div(pn)− vθ)| g jusqu’àpn+1 ≈ pn u := v− θdiv(p) jusqu’à convergence Sortie : u

Fig.1.16 – Evolution de u pendant la minimisation. La première ligne représente l’ensemble de niveau 0,5, la seconde est une image de u. Les colonnes correspondent respectivement à l’initialisation et aux itérations 10, 20, 40, 60 et 100.

Une large palette de méthodes variationnelles pour la segmentation d’images a été développée aux cours des vingt dernières années. Elles ont été souvent utilisées en imagerie médicale comme nous le montrons dans la prochaine section. La dernière formulation de [Bresson et al., 2007], [Mory et Ardon, 2007] et [Mory et al., 2007] présente de nombreux avantages du fait de la convexité de la fonctionnelle par rapport à la variable u et de la recherche de la solution dans l’espace BV, l’étape d’initialisation n’est plus une étape aussi primordiale et des algorithmes rapides, issus des outils de l’optimisation convexe, pour minimiser la variation totale sont disponibles.

1.3

Méthodes variationnelles pour la segmentation d’images

médicales

Les méthodes variationnelles pour la segmentation, et particulièrement les méthodes par ensembles de niveaux, sont très utilisées en imagerie médicale pour des applications variées, utilisant la totalité des modalités d’imagerie usuelles. Un état de l’art dédié aux méthodes par ensemble de niveaux est proposé dans [Angelini et Jin, 2005]. Le compléter et dresser un nouvel état de l’art exhaustif et actuel de l’utilisation de méthodes variationnelles est une tâche très difficile face à la profusion de ces travaux. Dans cette partie, nous mettons

(34)

33

Fig.1.17 – La formulation convexe rend le résultat indépendant de l’initialisation. Chaque ligne représente les resultats pour des initialisations différentes de u (son ensemble de niveau 0,5 et sa valeur), les colonnes représentent respectivement l’initialisation et l’évolution de u aux itérations 10, 20, 40, 60 et 100.

tout d’abord en lumière un certain nombre d’applications de segmentation par méthodes variationnelles pour montrer l’étendue (en termes de variétés de structures à segmenter et de modalités utilisées) puis nous détaillons plus spécifiquement les travaux dédiés à la segmentation du thorax et/ou des tumeurs pulmonaires dans les modalité TEP et/ou TEP-TDM.

(35)
(36)

35

Modalité Références Approche Approche Ajout de Application

par régions par contours connaissances

IRM [Rifai et al., 2000] X segmentation du crâne

du cerveau [Baillard et al., 2000] X diverses applications

[Goldenberg et al., 2002] X segmentation du cortex

[Yang et Duncan, 2004] X diverses structures cérébrales

[Baillard et al., 2001] X segmentation du cortex

[Angelini et al., 2006] X segmentation multi-structures

[Nempont et al., 2008] X X segmentation multi-structures

[Ciofolo et Barillot, 2009] X segmentation multi-structures

[Albert Huang et al., 2009] X X segmentation matière blanche et matière grise

IRM [Paragios, 2003] X X X segmentation du ventricule gauche

[Ray et al., 2003] X segmentation des poumons

[Pluempitiwiriyawej et al., 2005] X X X segmentation cardiaque

[Israel-Jost et al., 2008a] X segmentation multi-phases de cerveau de souris

[Chen et al., 2009] X segmentation du foie

[Joshi et al., 2010] X segmentation de tumeurs du colon

Images [Lin et al., 2003] X segmentation du cœur

ultrasonores [Angelini et al., 2004] X segmentation des ventricules du cœur

[Dindoyal et al., 2005] X X X segmentation des chambres

cardiaques de fœtus

[Dydenko et al., 2006] X X application au suivi du cœur

[Tao et Tagare, 2007] X segmentation du cœur

Images [Yan et Kassim, 2006] X segmentation de vaisseaux sanguins

angiographiques [Manniesing et al., 2006] segmentation de vaisseaux sanguins cérébraux

[Scherl et al., 2007] X segmentation des artères carotides

[Hernandez et Frangi, 2007] X segmentation de vaisseaux sanguins cérébraux

Images [Tan et al., 2007] X segmentation de vertèbres

TDM [Kurugol et al., 2010] X X segmentation de l’œsophage

[Smeets et al., 2010] X segmentation de tumeurs du foie

Autres [Tsai et al., 2003] X X diverses applications, diverses modalités

modalités [Liang et al., 2006] X diverses applications, diverses modalités

[Ball et Bruce, 2007] X segmentation de mammographies

[Al-Diri et al., 2009] X segmentation des vaisseaux de la rétine

[Figueiredo et al., 2010] X images du colon

Figure

Fig. 1.2 – Évolution des technologies d’acquisition des images de tomodensitométrie. (a) Première et deuxième génération, (b) troisième génération, (c) quatrième génération
Fig. 1.5 – Exemples d’images TDM avec différentes fenêtres de visualisation (et leur histo- histo-grammes)
Fig. 1.6 – Un exemple d’image TEP. Les traceurs s’accumulent dans le cerveau, les tu- tu-meurs, le foie et la vessie.
Fig. 1.9 – Amplitude du mouvement respiratoire. Deux images TDM d’un même patient prises à deux instants différents du cycle respiratoire
+7

Références

Documents relatifs

Principe : Utilisation de critères multimodaux TEP/TDM par apprentissage supervisé (forêts aléatoires) pour automatiser la. détection des lésions dans

Pour déterminer si les AUC des différents index calculés étaient, dans l’ensemble, plus prédictifs en utilisant l’une ou l’autre des méthodes de

Une méthode basée sur l’algorithme de la ligne de partage des eaux a été présentée pour le rectum, la vessie et les vésicules séminales d’après des images

Enfin, nous aborderons les difficultés des étudiants avec ce système dans la mesure où cela nous permettra de distinguer les finalités de l’apprentissage d’une

Plus sp´ecifiquement, nombre de ces syst`emes sont des « petits-mondes », ce qui traduit le fait que la distance topologique moyenne dans le r´eseau (qui mesure le nombre moyen de

Based on a known background estimation and a fixed camera, the algorithm is able to detect moving objects and locates them at video rate, moreover this method is used for

Despite the use of AdaBoost, false detec- tions are too numerous (there are roughly 4 times more false detections than right detections) and most of them cannot be discarded

Ce papier présente une stratégie de segmentation multi-échelle, mettant en œuvre un modèle d’arbre de Markov caché appliqué sur les valeurs des coefficients en ondelettes, pour