• Aucun résultat trouvé

Implantation d'un algorithme de reconstruction itératif 4D en tomodensitométrie à faisceau conique

N/A
N/A
Protected

Academic year: 2021

Partager "Implantation d'un algorithme de reconstruction itératif 4D en tomodensitométrie à faisceau conique"

Copied!
72
0
0

Texte intégral

(1)

Implantation d’un algorithme de reconstruction

itératif 4D en tomodensitométrie à faisceau conique

Mémoire

Julia Mascolo-Fortin

Maîtrise en physique médicale

Maître ès sciences (M.Sc.)

Québec, Canada

(2)

Implantation d’un algorithme de reconstruction

itératif 4D en tomodensitométrie à faisceau conique

Mémoire

Julia Mascolo-Fortin

Sous la direction de:

(3)

Résumé

La tomodensitométrie avec faisceau conique (CBCT) est actuellement utilisée en radiothéra-pie externe pour visualiser le patient dans la salle de traitement. Le mouvement respiratoire des patients y est encore difficilement pris en compte et des avancées sur le sujet pourraient améliorer la précision des traitements. En ce sens, l’obtention d’une séquence imageant les mouvements dans la région d’intérêt serait souhaitable. Ce mémoire présente le développe-ment d’un algorithme de reconstruction 4D pour CBCT qui tente de répondre à certains besoins cliniques, soit l’obtention d’une qualité d’image suffisante, une facilité de mise en place clinique et une rapidité de calcul. L’algorithme 4D développé se base sur l’algorithme itératif convexe avec sous-ensembles ordonnés et régularisation de variation totale. Cette mé-thode a été choisie pour sa rapidité d’exécution, procurée par l’utilisation de sous-ensembles et la parallélisation des calculs sur carte graphique, et pour sa capacité à diminuer les artéfacts de rayons, communs en imagerie 4D, procurée par la régularisation de variation totale. La méthode développée pour obtenir une image 4D à partir d’acquisitions CBCT standards a fait appel à l’algorithme Amsterdam Shroud pour déduire le mouvement respiratoire de l’ensemble de projections CBCT. Elle a été validée sur un fantôme numérique et sur des acquisitions cli-niques. Les résultats obtenus démontrent le potentiel de l’algorithme, puisqu’une image de résolution spatiale et temporelle satisfaisante a été reconstruite en moins de 5 minutes. Un tel temps de calcul se compare avantageusement à d’autres méthodes disponibles et ouvre la porte à une visualisation rapide du mouvement respiratoire en salle de traitement.

(4)

Abstract

Cone beam computed tomography (CBCT) is currently used to visualize patients directly in the treatment room. However, the respiratory movement is still hardly taken into account and new developments could improve the precision of treatment. To this end, obtaining a film imaging movements in the region of interest would be beneficial. This master’s thesis presents the development of a reconstruction algorithm for 4D CBCT which seeks to respond to particular clinical needs, namely sufficient image quality, clinical implementation simplicity and high computational speed. The developed 4D algorithm is based on the ordered subsets convex iterative algorithm combined with the total variation minimization regularization tech-nique. This method was chosen for its fast execution time, enabled by the use of subsets and the parallelization on GPU, and for its capability to reduce streaking artifacts, common on 4D imaging, enabled by the total variation regularization. The method developed to reconstruct a 4D image from standard CBCT scans employed the Amsterdam Shroud algorithm to deduce respiratory movement of a CBCT projections’ set. Its validation was performed on a numer-ical phantom and on clinnumer-ical datasets. Results demonstrate the potential of the algorithm, since an image with sufficient spatial and temporal resolution was reconstructed in less than 5 minutes. Such computational times can be compared favorably with other available methods and could allow for online applications.

(5)

Table des matières

Résumé iii

Abstract iv

Table des matières v

Liste des tableaux vii

Liste des figures viii

Liste des acronymes et des unités utilisés x

Remerciements xii

Avant-propos xiii

1 Introduction 1

1.1 Tomodensitométrie . . . 2

1.1.1 Rétroprojection filtrée . . . 3

1.1.2 TDM dans le contexte de la radiothérapie externe . . . 4

1.2 Algorithme OSC-TV . . . 6

1.2.1 Principe général de la reconstruction itérative . . . 6

1.2.2 Algorithme d’espérance-maximisation . . . 7

1.2.3 Utilisation de l’algorithme EM en TDM . . . 9

1.2.4 Algorithme EM de type convexe . . . 11

1.2.5 Utilisation de sous-ensembles ordonnés . . . 11

1.2.6 Régularisation de variation totale . . . 12

1.3 Imagerie 4D . . . 14

1.3.1 Obtention du signal respiratoire. . . 14

1.3.2 Regroupement des sous-ensembles . . . 16

1.3.3 Reconstruction 4D . . . 16

1.4 Objectif du projet . . . 19

2 Étude du mouvement respiratoire 21 2.1 Algorithme Amsterdam Shroud . . . 21

2.2 Données d’essai . . . 22

2.3 Application de l’algorithme AS . . . 22

2.4 Traitement du signal respiratoire . . . 25

(6)

2.6 Temps de calcul. . . 29

2.7 Discussion . . . 29

3 A fast 4D cone beam CT reconstruction method based on the OSC-TV algorithm 31 3.1 Résumé . . . 31

3.2 Abstract . . . 31

3.3 Introduction. . . 32

3.4 Materials and methods . . . 34

3.4.1 OSC-TV algorithm . . . 34

3.4.2 Adaptation to 4D reconstruction . . . 35

3.4.3 GPU implementation and hardware . . . 36

3.4.4 Projection data . . . 37

3.4.5 Comparative evaluation . . . 38

3.5 Results and Discussion . . . 39

3.5.1 Simulated data . . . 39 3.5.2 Clinical data . . . 47 3.5.3 Reconstruction times. . . 49 3.6 Conclusion . . . 50 4 Conclusion 52 Bibliographie 54

(7)

Liste des tableaux

1.1 Résumé des temps de calcul et des caractéristiques l’influençant pour différents

algorithmes de reconstruction 4D . . . 19

2.1 Statistiques sur les différences entre les sous-ensembles obtenus par l’algorithme AS et par la méthode manuelle (pour les données cliniques) ou selon le signal

réel (pour le fantôme numérique). . . 29

3.1 Reconstruction times of the XCAT phantom by the different 4D algorithms (for

(8)

Liste des figures

1.1 Schéma d’un faisceau en éventail en TDM . . . 2

1.2 Filtres utilisés en rétroprojection filtrée. . . 4

1.3 Accélérateur linéaire Clinac iX de Varian avec système d’imagerie CBCT. . . . 5

1.4 Schéma de la reconstruction itérative . . . 6

1.5 Magnitude de gradient d’un fantôme numérique anthropomorphique . . . 13

1.6 Schéma de la reconstruction 4D. . . 15

1.7 Exemple d’un signal respiratoire regroupé selon la phase ou selon le déplacement absolu . . . 17

2.1 Image Amsterdam Shroud obtenue à partir du fantôme XCAT. . . 23

2.2 Signaux respiratoires directement extrait de l’image AS . . . 24

2.3 Signaux respiratoires après l’application d’un filtre passe-bande . . . 26

2.4 Signaux respiratoires avec juxtaposition des extrema détectés par la méthode de persistance . . . 27

2.5 Numéros des sous-ensembles obtenus pour chaque projection. . . 28

3.1 Flowchart of the different proposed methods to adapt the OSC-TV algorithm to 4D reconstruction.. . . 36

3.2 3D reconstruction of the XCAT phantom in movement using the FDK algorithm and the OSC-TV algorithm. Both reconstructions display notable motion blur-ring and artifacts. µ range of [0, 0.3] cm−1 shown. . . . . 40

3.3 NRMSD as a function of completed iterations for different iterative methods (3D OSC, 4D OSC, 3D OSC+4D OSC, FDK+4D OSC and ASD-POCS) for phase 0%. The four 4D methods yield a lower error than 3D OSC-TV, but the methods with a prior reconstruction yield the lowest error estimator and converged faster. . . 41

3.4 NRMSD as a function of the reconstructed phase for different methods (3D OSC, 4D OSC, 3D OSC+4D OSC, FDK+4D OSC, MKB and ASD-POCS). The NRMSD is measured for (a) the entire FOV and (b) a ROI of 30×30×30 voxels around the 1-cm lesion. The four iterative methods yield a lower estimation error than MKB, while FDK+4D OSC and 3D OSC+4D OSC yield the lowest NRMSD. 42 3.5 XCAT phantom and its 4D reconstructions for respiratory phase 0% (end-expiration). The use of a prior image initialization considerably improved image quality. µ range of [0, 0.3] cm−1 shown. For the phantom, colored lines indicate where the attenuation profiles of Fig. 3.7 (red) and Fig. 3.8 (blue and yellow) were measured. . . 43

(9)

3.6 XCAT phantom and its 4D reconstructions for respiratory phase 43% (central respiration phase). Iterative methods provide comparable results, while MKB reconstruction shows both important artifacts and motion blurring. µ range of

[0, 0.3] cm−1 shown. . . . . 44

3.7 Attenuation profiles for phase 0% (a) and 100% (b) as measured across the

diaphragm in the longitudinal axis for different 3D volumes. . . 45

3.8 Attenuation profiles for phase 0% (top row) and 100% (bottom row), as measu-red where the 1 cm diameter soft tissue sphere is located during phase 0% (left column) and phase 100% (right column). Profiles are plotted in the

anterior-posterior axis.. . . 46

3.9 Reconstruction of a clinical dataset (a) with the FDK algorithm (b) with various

(10)

Liste des acronymes et des unités

utilisés

Acronymes

AI Méthode d’analyse d’intensité

ART Technique de reconstruction algébrique AS Amsterdam Shroud

CBCT Cone beam computed tomography (tomodensitomètre avec faisceau co-nique en français)

CPU Central Processing Unit (processeur central en français) CUDA Compute Unified Device Architecture

EM Algorithme d’espérance-maximisation

FDK Algorithme développé par Feldkamp, David et Kress

GPU Graphics Processing Unit (processeur graphique en français) GRPM Groupe de recherche en physique médicale

IGRT Image-guided radiation therapy(radiothérapie guidée par image en français)

IMRT Intensity-modulated radiotherapy(radiothérapie par modulation d’in-tensité en français)

ITK Insight Toolkit

µ Coefficient d’atténuation MKB Algorithme McKinnon-Bates

NIST National Institute of Standards and Technology NRMSD Normalized root-mean-square deviation

NURBS Non-Uniform Rational Basis Splines (B-spline rationnelle non uni-forme en français)

OSC Ordered subsets convex algorithm (algorithme convexe avec sous-ensembles ordonnées en français)

PICCS prior image constrained compressed sensing RPM Real-time Position Management

(11)

RTK Reconstruction Toolkit TDM Tomodensitométrie TV Cariation totale

XCAT 4D extended cardiac-torso phantom

Unités

cm centimètre keV kilo électron-volt GiB gigabytes

m mètre mm millimètre min minute s seconde

(12)

Remerciements

Le travail ici présenté n’aurait été possible sans l’aide et le soutien de multiples personnes. J’ai-merais d’abord remercier mon directeur de thèse Philippe Després de m’avoir offert l’occasion de faire cette maîtrise en physique médicale. La liberté offerte m’aura permis de découvrir et d’explorer le merveilleux monde de la recherche. Je dois également remercier Dmitri Matenine, qui a pris le temps de répondre à mes nombreuses questions et dont les commentaires tout au long du processus ont été d’une grande aide. Les autres étudiants du groupe de recherche en physique médicale ont également apporté un soutien moral et scientifique très important. La présence des physiciens du département de radio-oncologie de l’Hôtel-Dieu de Québec m’a permis d’obtenir une formation complète en physique médicale qui sera très précieuse dans mes projets futurs. Sur une note plus personnelle, un remerciement s’impose à mes parents, grands-parents, soeurs et amis qui m’ont permis de me rendre jusqu’ici. Merci de m’avoir supportée et divertie durant les hauts et les bas de ces deux années. Merci à mon conjoint qui saura toujours me faire rire.

(13)

Avant-propos

Le présent mémoire inclut un article soumis le 1er octobre à la revue scientifique Medical Physics sous le titre «A fast 4D cone beam CT reconstruction method based on the OSC-TV algorithm». Julia Mascolo-Fortin y fait figure de premier auteur, ayant développé l’algorithme étudié, analysé les résultats obtenus et rédigé l’article. Le travail des coauteurs Dmitri Ma-tenine, Louis Archambault et Philippe Després est évidemment à souligner pour leurs com-mentaires et assistance tout au long du processus. Dmitri Matenine a également participé au développement de l’algorithme informatique évalué dans l’article.

(14)

Chapitre 1

Introduction

L’imagerie est un élément essentiel du processus de traitement du cancer. Les différentes moda-lités comme la tomodensitométrie (TDM) ou l’imagerie par résonance magnétique permettent à la fois le diagnostic, la planification et le suivi de tumeurs. Elles sont indispensables aux trai-tements de radiothérapie, ces derniers faisant appel à un faisceau de radiation qui doit cibler le mieux possible la région à traiter tout en épargnant les tissus sains avoisinants. L’augmen-tation de la dose administrée à la tumeur par rapport à celle donnée à l’ensemble du corps, et plus particulièrement aux organes à risque, motive le développement de nouveaux procédés en radiothérapie.

Dans les 10 dernières années, des avancées ont notamment été apportées au suivi des change-ments anatomiques durant un traitement de radiothérapie externe. Des appareils de tomodensi-tométrie avec faisceau conique (CBCT) sont maintenant fixés directement sur les accélérateurs linéaires pour permettre de visualiser l’anatomie du patient le jour du traitement. Contraire-ment aux TDM, les CBCT embarqués sur accélérateur sont limités à une vitesse de rotation d’un tour par minute pour des raisons de sécurité. Certains mouvements du patient sont donc inévitables durant le scan (principalement les mouvements cardiaques et respiratoires) et pro-voquent des artéfacts importants sur les images obtenues. Considérer ces mouvements par une méthode d’imagerie 4D permettrait non seulement de diminuer ces artéfacts, mais également de visualiser le déplacement des tissus. Ultimement, un cancer en mouvement pourrait ainsi être mieux suivi durant son déplacement et les marges d’incertitude réduites, entraînant une diminution de la radiation aux tissus avoisinants et un meilleur taux de succès du traitement. Dans ce contexte, le présent projet a porté sur le développement d’un algorithme de recons-truction 4D pour CBCT visant à répondre à certains besoins cliniques. La compréhension de la recherche effectuée demande toutefois une certaine mise en contexte, expliquant à la fois les enjeux cliniques et les bases physiques, mathématiques et informatiques nécessaires à l’appré-ciation du projet. Plus précisément, les thèmes de la tomodensitométrie, de la reconstruction itérative et de l’imagerie 4D seront abordés avant que l’objectif du projet puisse être détaillé.

(15)

1.1

Tomodensitométrie

La tomodensitométrie est une technique d’imagerie communément utilisée dans les hôpitaux à des fins de diagnostic et permettant d’obtenir une image tridimensionnelle de l’atténuation des rayons X à l’intérieur de l’élément étudié. Tel que montré sur la figure 1.1, un faisceau de rayons X est généré, traverse un patient ou un fantôme, puis est mesuré par une série de détecteurs. Pour obtenir une image tridimensionnelle, ces mesures d’atténuation doivent être reprises à différents angles, ce qui nécessite la rotation simultanée de la source et des détecteurs. L’ensemble des lectures de détecteurs effectuées à un angle donné est appelé projection.

Rayons Détecteurs Grille de reconstruction Source Patient

Figure 1.1 – Schéma d’un faisceau de rayons X en éventail traversant un patient et mesuré par une série de détecteurs (adapté de Bushberg et al. [1]).

La connaissance de la fluence de photons générée N0 et mesurée N permet de connaître le

coefficient d’atténuation linéaire moyen µmoyde la matière traversée par chaque rayon sur une

distance x. Ce coefficient moyen peut être divisé en un ensemble de coefficients rencontrés sur une distance infinitésimale, tel que :

N = N0e−µmoyx= N0e−R µ(x)dx. (1.1)

En TDM, l’image reconstruite est constituée de voxels j, de taille finie, dont on cherche le coefficient d’atténuation µj. Un rayon mesuré par un détecteur donné sera donc atténué en

(16)

N = N0e− P

jµjdj. (1.2)

La résolution de cette équation pour chaque mesure de détecteur et chaque voxel de l’image passe par l’utilisation d’un algorithme de reconstruction. Deux types d’algorithmes se côtoient : les algorithmes analytiques, faisant appel à la rétroprojection filtrée, et les algorithmes itératifs, tentant d’améliorer la qualité d’image par une succession de projections et de rétro-projections. Les algorithmes analytiques sont plus rapides et permettent d’obtenir des résultats satisfaisants dans des conditions standards, mais les algorithmes itératifs permettent d’intégrer divers a priori physiques qui peuvent augmenter la qualité d’image tout en diminuant la dose de radiation reçue par le patient.

1.1.1 Rétroprojection filtrée

La rétroprojection filtrée est la méthode de reconstruction la plus utilisée en TDM. La rétro-projection correspond au processus d’additionner pour chaque voxel du volume reconstruit les lectures d’intensité des rayons ayant traversés ce voxel. Toutefois, en procédant de la sorte, même si un seul voxel d’un rayon contient un objet atténuant, tous les voxels du rayon se ver-ront ajouter une lecture d’intensité plus faible, générant ainsi un flou tout autour de l’objet en question qui diminue selon l’inverse de la distance entre l’objet et le voxel étudié. Pour contrer ce flou, un filtre est appliqué sur les données brutes avant le processus de rétroprojection. Le filtrage des données de projections correspond à une convolution avec la fonction filtre. Ma-thématiquement, une opération de convolution dans le domaine spatial équivaut à multiplier dans le domaine fréquentiel la transformée de Fourier de chaque fonction, puis à calculer la transformée inverse de ce produit. Ce processus est résumé par l’équation1.3, où f(x) et F (f) représente respectivement le filtre dans le domaine spatiale et dans le domaine des fréquences et I(x) et If iltre(x)la fonction d’intensité avant et après l’application du filtre.

If iltre(x) = I(x) ⊗ f (x) = F T−1{F T {I(x)} × F (f )}. (1.3)

Le filtre F(x) à appliquer à un ensemble de projections idéal est un filtre en rampe, qui atténue les fréquences plus basses de manière à compenser pour le flou en 1/r. Toutefois, les projections expérimentales comportent un bruit poissonnien inhérent et un filtre en rampe amplifie ce bruit de haute fréquence. Dans la plupart des applications cliniques, le filtre utilisé atténue également les hautes fréquences de manière à diminuer ce bruit, mais, ce faisant, diminue également la résolution spatiale de l’image. La figure1.2image la différence entre un simple filtre en rampe et un filtre atténuant les hautes fréquences. En clinique, le choix du filtre est donc un compromis entre résolution spatiale et rapport signal sur bruit en fonction de l’application spécifique.

(17)

Figure 1.2 – Représentation graphique de deux filtres utilisés en TDM : le filtre en rampe et un exemple de filtre atténuant les hautes fréquences. Figure tiré de Bushberg et al. [1].

1.1.2 TDM dans le contexte de la radiothérapie externe

Le succès d’un traitement de radiothérapie dépend principalement de la maximisation de la dose aux tissus tumoraux, de manière à éradiquer la tumeur, et de la minimisation de la dose aux tissus sains, de manière à diminuer les effets secondaires et les risques de cancers induits. Différentes techniques permettent de diminuer cette dose aux tissus sains, allant de la radio-thérapie par modulation d’intensité (IMRT) par collimateur multi-lames aux traitements en arc. Il est ainsi possible de cibler avec précision une région à traiter et d’épargner significative-ment les tissus voisins, mais la bonne visualisation de la localisation de la tumeur devient dès lors primordiale. L’examen de TDM est donc essentiel pour calculer la dose reçue et optimiser le plan de traitement.

Cet examen a toutefois le défaut d’être effectué plusieurs jours, voire semaines avant le début du traitement, traitement qui peut lui-même s’échelonner sur plus d’un mois. L’anatomie du patient peut donc évoluer entre le moment de l’acquisition du TDM et chacune des séances de radiothérapie externe, que ce soit en raison du mouvement interne des organes ou d’un changement du poids du patient. Le jour du traitement, le patient doit également être po-sitionné avec précision sur la table de traitement pour que la région à traiter soit bien celle irradiée. Or, des techniques comme l’IMRT, qui permettent un fort gradient de dose autour de la région à traiter, sont très sensibles à des changements anatomiques et des erreurs de positionnement. Pour détecter ces changements, l’utilisation d’un système d’imagerie dans la salle de l’accélérateur linéaire est particulièrement pertinente et efficace.

Différentes modalités sont disponibles sur le marché, chacune ayant avantages et inconvénients. Historiquement, le premier système d’imagerie en salle de traitement utilisait le faisceau MV

(18)

de traitement pour obtenir des radiographies 2D [2]. De nos jours, l’imagerie MV-TDM est toujours plus facile d’installation et moins exigeante en terme d’équipement supplémentaire par rapport à l’imagerie kV, mais son contraste plus faible et sa dose plus élevée sont restrictifs. Des TDM kV sur rails peuvent aussi être disponibles en salle de traitement, mais demandent d’avantage d’espace et ne peuvent donc pas être installés dans des salles pré-existantes [2]. Le tomodensitomètre avec faisceau conique, panneau plat et embarqué sur accélérateur linéaire (voir figure1.3) permet un compromis intéressant entre qualité d’image et facilité d’utilisation clinique. Le fait d’être fixé directement sur l’accélérateur linéaire en fait un élément beaucoup plus compact dans un salle de traitement qu’un TDM sur rail. La forme conique du faisceau a l’avantage de couvrir un plus large volume de tissus sans nécessiter de déplacement laté-ral, mais l’augmentation de la diffusion, proportionnelle au volume irradiée [3], empêche la différentiation de certains tissus mous. La durée du scan, limitée par la vitesse de rotation maximale de l’accélérateur linéaire d’un tour par minute, peut également être source d’arté-facts de mouvement.

Figure 1.3 – Accélérateur linaire Clinac iX de Varian avec système d’imagerie CBCT [4]. Le faisceau du CBCT est représenté en vert, quittant la source située à gauche pour se diriger vers le détecteur à droite.

La reconstructions d’images CBCT demande des algorithmes qui tiennent compte de la géomé-trie particulière du problème. L’algorithme utilisé en clinique est celui développé par Feldkamp, David et Kress (FDK) [5], qui adapte le processus de rétroprojection filtrée à un faisceau de forme conique.

(19)

1.2

Algorithme OSC-TV

1.2.1 Principe général de la reconstruction itérative

Les différents algorithmes itératifs utilisés en TDM ont tous en commun la recherche d’une solution exacte par une suite d’itérations. Chaque itération débute par une reconstruction du volume 3D, puis ce volume est reprojeté pour obtenir un estimé des projections. La différence entre les projections initiales et celles estimées permet d’ajuster la reconstruction lors de l’itération suivante. Cette boucle arrête lorsqu’un critère de fin est atteint, que ce soit un nombre d’itérations ou un seuil de différence minimale entre deux itérations. La figure 1.4

schématise le principe de la reconstruction itérative.

Estimation du volume 3D Projections exprétimentales Estimations des projections Critère de fin satisfait? Itération Reconstruction Volume 3D final Tracé de rayo ns Comparaison

Figure 1.4 – Représentation graphique de la reconstruction itérative.

Les algorithmes itératifs en TDM se divisent essentiellement en deux classes : ceux se ba-sant sur les principes de l’espérance-maximisation (EM) [6] et ceux inspirés de la technique de reconstruction algébrique (ART) [7]. Bien que chaque itération correspond à un nombre similaire de reconstruction et de tracé de rayons, des différences significatives séparent les différents algorithmes, notamment en termes des propriétés de convergence, de la rapidité de cette convergence et de la robustesse face au bruit.

Dans le cadre de la reconstruction CBCT 4D, une implémentation sur carte graphique de l’algorithme d’espérance-maximisation convexe avec sous-ensembles ordonnés (OSC) et ré-gularisation de variation totale (TV) a été choisie pour sa rapidité et sa performance lors de reconstruction d’un petit nombre de projections [8]. Une brève mise en contexte mathé-matique de chacune de ces composantes est nécessaire pour comprendre l’algorithme et, par

(20)

conséquent, le projet de recherche.

1.2.2 Algorithme d’espérance-maximisation

L’algorithme d’espérance-maximisation est une classe d’algorithmes itératifs basée sur la suc-cessions d’une étape d’espérance (E) et d’une étape de maximisation (M). L’étape E permet d’estimer les données manquantes en fonction d’un ensemble de paramètres, puis l’étape M maximise la fonction de probabilité en supposant que les données manquantes sont connues, de manière à générer les paramètres qui seront utilisés lors de l’étape E suivante.

La compréhension de l’algorithme EM nécessite tout d’abord la définition de trois variables : X, le vecteur de données connues, Z, le vecteur d’estimations de données inconnues, et θ, l’ensemble de paramètres ayant générés ces données [9]. Le but de l’algorithme est de trouver le θ le plus probable et donc, en termes mathématiques, de maximiser P (X | θ). Pour avoir un algorithme le plus efficace possible, la différence de θ entre deux itérations doit également être maximisée. L’introduction de Z permet à la fois de tenir compte de connaissances préalables et d’estimer directement certaines données manquantes lors du calcul de θ .

De manière à faciliter l’estimation de θ, le logarithme de la vraisemblance est introduit comme : L(θ) = ln P (X | θ). (1.4)

Puisque la fonction logarithmique est toujours croissante, le but devient alors de maximiser L(θ). Pour que l’algorithme converge, le logarithme de la vraisemblance L(θn)doit augmenter

en fonction du nombre d’itérations n effectués, tel que :

L(θn) > L(θn−1). (1.5)

De la même manière, pour avoir une convergence la plus rapide possible, la différence de θ entre deux itérations doit également être maximisée. L’introduction de la différence de vrai-semblance ∆(θn+1 | θn), entre l’itération en cours n+1 et l’itération précédente n, qui devra

être maximisée, simplifie les calculs futurs :

∆(θn+1| θn) ≡ L(θn+1) − L(θn). (1.6)

Ces différentes équations peuvent être difficiles à résoudre à partir des seules informations X et c’est pourquoi Z, le vecteur d’estimations de données inconnues, et z, une instance particulière de ce vecteur d’estimation, sont introduits. Il est permet d’écrire :

(21)

P (X | θ) =X

Z

P (X | Z, θ)P (Z | θ). (1.7)

En combinant les équations 1.4,1.6et1.7, on obtient : ∆(θn+1 | θn) = ln P (X | θn+1) − ln P (X | θn) = ln X Z P (X | Z, θn+1)P (Z | θn+1) ! − ln P (X | θn). (1.8)

La preuve mathématique est au-delà du champ d’intérêt du présent mémoire, mais il est possible de prouver [9] que l’équation1.8 peut être réécrite telle que :

∆(θn+1| θn) = X z P (z | X, θn) ln  P (X | z, θn+1)P (z | θn+1) P (z | X, θn)P (X | θn)  . (1.9)

À chaque itération, un algorithme efficace tente de maximiser cette différence de vraisemblance en optimisant θn+1. Les termes ne dépendant pas de θn+1 peuvent donc être ignorés et on

obtient : θn+1 = arg max θn+1 ( X z P (z | X, θn) ln (P (X | z, θn+1)P (z | θn+1)) ) = arg max θn+1 ( X z P (z | X, θn) ln P (X, z | θn+1) ) = arg max θn+1 EZ|X,θn{ln P (X, z | θn+1)} . (1.10)

Les deux étapes de l’algorithme EM apparaissent dès lors très clairement :

1. Étape E : Évaluation de l’espérance conditionnelle EZ|X,θn{ln P (X, z | θn+1)}.

2. Étape M : Optimisation de θn+1 pour maximiser cette espérance conditionnelle.

Cette équation signifie que l’algorithme EM évalue l’espérance, selon les paramètres Z sachant X et θn, du logarithme de P (X, z | θn+1). Puis, cette espérance est maximisée par

l’optimi-sation de l’ensemble de paramètres θ pour la prochaine itération. Ces deux étapes présentent ainsi une structure pour obtenir la valeur la plus probable des paramètres θ, mais les spécificités du calcul demeurent à adapter au cas à l’étude.

(22)

1.2.3 Utilisation de l’algorithme EM en TDM

L’algorithme EM peut être utilisé pour la reconstruction d’images en TDM. Il s’agit d’un cas où nous disposons de données connues X (le nombre de photons Y mesurés par chaque détecteur pour chaque angle de projection, les distances d parcourues par chaque rayon dans chaque voxel et l’intensité N0 de la source à chaque position angulaire) et d’un ensemble de

paramètres ayant généré les données recherchées θ (les coefficients d’atténuation µ de chaque voxel j de l’image à reconstruire). Comme il sera vu, le vecteur de données inconnues Z peut être défini de différentes façons.

L’algorithme EM développé pour la TDM par Lange et al. [6] propose de poser comme données inconnues le nombre de photons entrants Uij de chaque voxels j pour un rayon donné i.

La preuve mathématique complète peut être trouvée dans l’article original, mais il demeure intéressant d’en ressortir les principales étapes et assises physiques.

On cherche l’espérance de l’ensemble des Uij en connaissant Yi et les estimés actuels µnj. Or,

comme ces nombres de photons suivent une distribution de Poisson, on peut exprimer cette espérance telle que :

E(Uij | Yi, µn) = Yi+ E(Uij) − E(Yi), (1.11)

L’évaluation de cette équation correspond à l’étape E de l’algorithme EM, tandis que l’étape M demandera de maximiser la même équation. Il est facile de voir que le nombre de photons entrant le voxel Ui,j dépend uniquement de Ui,j−1 et de l’atténuation ayant lieu dans j − 1,

soit dijµj. Si on remonte jusqu’à la source N0,i, on obtient que :

E(Uij) = N0,ie− Pj−1

k=1dikµk. (1.12)

où k varie pour représenter tous les pixels entre la source et le pixel j −1. De la même manière, Yi suit une distribution de Poisson et chaque photon a une probabilité e−

P

jdijµj d’atteindre

le détecteur. Son espérance peut donc être notée par l’équation suivante : E(Yi) = N0,ie−

P

jdijµnj. (1.13)

La mise en commun des équations1.11à1.13permet de représenter l’espérance de Uij,

essen-tielle à l’étape E de l’algorithme, de manière plus explicite : E(Uij | Yi, µn) = Yi+ N0,ie− Pj−1 k=1dkµk− N 0,ie− P jdijµnj. (1.14)

(23)

Pour simplifier la suite du problème, les espérances conditionnelles du nombre de photons entrant et sortant du voxel j, respectivement Mij et Nij, seront définies tel que :

Mij = E(Uij | Yi, µn) = Yi+ N0,ie− Pj−1 k=1dikµk− N 0,ie− P jdijµnj

Nij = E(Ui,j+1| Yi, µn) = Yi+ N0,ie− Pj

k=1dikµk− N0,ie−

P

jdijµnj. (1.15)

En se basant sur la théorie statistique, Lange et al. [6] prouvent que le logarithme de la vraisemblance L(µ) peut être définie tel que :

X i X j n Nijln(e−dijµj) + (Mij− Nij)ln(1 − e−dijµj) o . (1.16)

Le maximum de l’équation 1.16 est trouvé en dérivant l’équation par rapport à µk :

0 =X i  −Nikdik+ X (Mik− Nik) dik edikµk − 1  . (1.17)

Cette équation est transcendante, mais il est connu qu’elle est monotone et a une solution unique positive. Comme dikµksera très petit, une série de Taylor approximera bien la division

par l’exponentiel. En effet, on a que : 1 ex− 1 = 1 x − 1 2 + x 12 + O(x 3). (1.18)

Différentes solutions sont alors possibles, en fonction du nombre de terme de l’équation 1.18

qui seront retenus. Les solutions 1.19et 1.20sont obtenues en retenant respectivement un et deux termes de l’expansion en série de Taylor.

µ(n+1)j = P iNij P idij(Mij + Nij) (1.19) µ(n+1)j = 2 P i(Mij − Nij) P idij(Mij + Nij) . (1.20)

Ces deux solutions fournissent une approximation intéressante des coefficients d’atténuations recherchés. Toutefois, dans les faits, l’équation 1.19 surestimera la solution réelle, tandis que l’équation 1.20 la sous-estimera. Pour de meilleurs résultats, l’algorithme peut donc alterner l’utilisation des deux équations pour aboutir à une meilleure estimation de l’image reconstruite.

(24)

1.2.4 Algorithme EM de type convexe

À la différence de l’algorithme EM standard, l’algorithme convexe ne fait pas référence à la notion de données manquantes. Il se base sur le fait que, comme les lectures des détecteurs Yi

suivent une distribution de Poisson, le logarithme de la vraisemblance peut être exprimé par l’équation suivante [10] : L(µ) = P (Y | µ) = −X i  N0,ie− P jµjdij+ Y i X j µjdij  . (1.21)

où N0,i est le nombre de photons quittant la source pour un rayon donné. On note que

l’in-térieur de la sommation est une fonction strictement convexe, d’où l’appellation d’algorithme EM de type convexe.

L’algorithme convexe tente de maximiser l’estimation locale de la vraisemblance l(µ | µ(n))en

localisant le point où sa dérivée est nulle : 0 = ∂ ∂µj l(µ | µ(n)) = −X i dij  N0,ie−(µj/µ (n) j ) P jµjdij+Yi  . (1.22)

Cette équation transcendante peut être résolue par la méthode de Newton, qui propose qu’une approximation x d’une fonction f(x) soit calculée itérativement tel que :

xn+1= xn−

f (xn)

f0(xn)

. (1.23)

L’application de la méthode de Newton à l’éq.1.22permet d’obtenir les approximations des µ pour l’itération suivante :

µ(n+1)j = µ(n)j + µ(n)j P idij h y(n)i − Yii P idijt (n) i y (n) i . (1.24)

1.2.5 Utilisation de sous-ensembles ordonnés

L’algorithme convexe peut être accéléré par l’utilisation de sous-ensembles ordonnés de pro-jections [11]. L’équation1.24est appliqué en utilisant un premier sous-ensemble de projection et les nouveaux coefficients d’atténuation ainsi calculés sont utilisés pour débuter le calcul à

(25)

l’aide du deuxième sous-ensemble. Une itération est complétée lorsque toutes les projections sont considérées.

Cette mise à jour plus fréquente des coefficients d’atténuation de l’image permet d’accélérer la convergence de l’algorithme de manière significative. L’article original de Kamphuis et al. [11] évoque une diminution du nombre d’itérations nécessaire pour obtenir une qualité d’image similaire proportionnelle au nombre de sous-ensembles. Cette diminution du temps de calcul introduit toutefois un léger biais dans l’image reconstruite.

Pour diminuer ce biais, il est possible de varier le nombre de sous-ensembles en fonction de l’itération effectuée. Ainsi, les premières itérations bénéficieraient d’un nombre de sous-ensembles plus élevé, pour converger plus rapidement, et les dernières d’un nombre plus faible, pour obtenir un résultat plus exact. C’est cette approche qu’a proposé Matenine et al. [8], en adaptant la méthode de gradient progressif développé par Bertsekas [12]. Le nombre de sous-ensembles varie alors en fonction de l’itération n, entre une valeur initiale Si pour l’itération

1 et une valeur finale Sf pour la dernière itération nmax:

S(n)= arrondi  Si− Sf (nmax− 1)P (nmax− 1 − n)P + Sf  . (1.25)

Dans l’équation 3.4, la constante P contrôle la rapidité de convergence du nombre de sous-ensemble vers Sf et peut varier entre 0 et 1. Une valeur de P = 0.5 semblait permettre la

meilleure réduction de biais [8].

1.2.6 Régularisation de variation totale

La régularisation de variation totale (TV) [13] est une technique de traitement d’image qui permet de diminuer le bruit sur une image. Elle se base sur le principe que l’image idéale devrait être composée de différentes régions de pixels d’une valeur µ constante entre lesquelles se trouvent de forts gradients. Ce principe est particulièrement adaptée à l’imagerie du corps humain, celui-ci étant constitué d’organes dont la constitution est relativement constante. La figure 1.5illustre bien cette réalité.

La régularisation TV essaie de diminuer la variation totale ||µ||T V de l’image, définie comme

la somme de la norme des gradients locaux. Pour une image 2D, la somme des gradients locaux est définie comme tel :

||µ||T V = X x,y |~∇µx,y| = X x,y q

(26)

Figure 1.5 – Le fantôme numérique anthropomorphique XCAT [14] (gauche) et sa magnitude de gradient de variance (droite). L’image de droite met en évidence le fait que le gradient est nul dans la plupart des régions. La diminution du gradient lors de la reconstruction pourrait donc permettre d’obtenir une représentation plus exacte de l’objet d’étude.

Cette équation se généralise également à des cas à plus de deux dimensions. Sidky et al. [15] ont proposé une méthode itérative pour diminuer la variation totale en TDM par descente de gradient. Ainsi, à chaque itération q, la matrice du gradient local de TV est calculé tel que :

vx,y =

δ||µ||T V

δµx,y

. (1.27)

Cette matrice est ensuite soustraite de manière pondérée à la matrice image : µ(q+1)x,y = µ(q)x,y− vx,y(q)q cdA

P x,yv2x,y , (1.28) où dA ≡ q P x,y(µnx,y− µ (n−1)

x,y )2 représente la norme de la différence entre deux itérations n

de l’algorithme de reconstruction et c une constante empirique. La régularisation TV peut ainsi être utilisée en combinaison avec différents algorithmes itératifs en ajoutant une étape après chaque itération. On note que, comme le calcul de dA nécessite une itération précédente

n, l’équation 1.28 ne peut pas être appliquée après la première itération de l’algorithme de reconstruction. De la même façon, le gradient ne peut être calculé pour les pixels aux frontières de l’image. Comme les limites de l’image reconstruite représentent généralement de l’air, la solution la plus simple et représentative de la réalité est de considérer le gradient local comme étant nul aux frontières de l’image.

Deux paramètres permettent de contrôler la rapidité et le poids de la régularisation TV : le nombre d’itérations q et la constante c. Après différents tests, Sidky et al. proposaient d’effectuer 20 itérations avec un coefficient c = 0.2 [15].

(27)

1.3

Imagerie 4D

En imagerie 4D, plusieurs images 3D représentant chacune une phase particulière sont re-construites, permettant ainsi d’obtenir une visualisation des structures en mouvement. Les mouvements cardiaques et respiratoires peuvent tous deux être étudiés, mais le présent mé-moire se concentrera sur l’étude du mouvement respiratoire, celui-ci ayant un impact plus significatif en radiothérapie. Son amplitude pouvant aller jusqu’à 4 cm en fait la principale source d’incertitude intra-fraction dans la région du thorax [16]. Or, le profil respiratoire est sujet à changer entre les différentes sessions de traitement [17]. Son suivi quotidien est donc recommandé.

L’étude du mouvement respiratoire peut être basée sur différentes modalités d’imagerie médi-cale et les techniques dont il sera question dans la présente section pourraient généralement s’appliquer à d’autres de ces modalités, mais ce sera la question des CBCT 4D qui sera principalement étudiée. La longue durée du scan CBCT en fait un candidat particulier aux artéfacts de mouvement respiratoire. De plus, le fait d’être disponible en salle de traitement lui permettrait de détecter le mouvement respiratoire du patient directement avant le début du traitement.

Pour obtenir une image 4D à partir d’un scan CBCT, les projections doivent être regroupées en fonction de la position du système respiratoire du patient lors de leur acquisition. Chacun de ces sous-ensembles peut ensuite être reconstruit pour obtenir une visualisation 4D de l’objet d’étude. La figure 1.6 illustre ce processus. Les différentes parties essentielles au processus sont donc l’obtention du signal respiratoire, la méthode de regroupement des sous-ensembles et l’algorithme de reconstruction.

1.3.1 Obtention du signal respiratoire

Nécessaire au processus d’imagerie CBCT 4D, le signal respiratoire peut être obtenu d’une multitude de manières, chacune supposant un certain compromis entre robustesse, précision et facilité d’utilisation. Mesurant directement le mouvement de la tumeur, l’implantation d’un marqueur radio-opaque directement sur le site tumoral est généralement considérée comme la méthode la plus précise et fiable [18]. Le processus est toutefois invasif pour le patient et la migration des marqueurs peut poser des problèmes de sécurité [19]. Des capteurs de position externes corrigent ces défauts, mais ne détectent pas spécifiquement le mouvement de la tumeur et certaines questions se posent quant à la corrélation entre le mouvement détecté et celui de la tumeur. Par exemple, le système Real-time Position Management (RPM) de Varian (Palo Alto, CA) [20], utilisé au CHU de Québec, fait appel à un marqueur réflectif placé sur l’abdomen du patient et dont le déplacement est mesuré par une caméra infrarouge. Or, certaines études font état de différences allant jusqu’à 9 mm pour certains patients entre ces deux mouvements [18].

(28)

Signal respiratoire

Sous-ensembles de

projections chaque sous-ensembleReconstruction de Ensemble de

projections initial

Figure 1.6 – Schéma représentant le processus de reconstruction 4D pour CBCT

Les méthodes d’analyse des projections, de leur côté, ont l’avantage de ne requérir aucun matériel supplémentaire et de mesurer spécifiquement le mouvement interne du patient. La méthode Amsterdam Shroud (AS) [21], par exemple, met en évidence le diaphragme par une série d’étapes de traitement d’image et réaligne ensuite chaque projection pour déduire le mouvement respiratoire. Bien que plus précise que d’autres méthodes d’analyse [19], l’algo-rithme AS n’est utilisable que lorsque le diaphragme est visible sur l’ensemble des projections (ce qui correspond approximativement à la moitié des scans [22]). La méthode d’analyse d’in-tensité (AI) [23] est également souvent mentionnée dans la littérature et est choisie pour sa robustesse : elle ne nécessite pas la présence sur toutes les projections d’une large structure oscillante comme le diaphragme, mais serait moins précise que l’algorithme AS [19].

Il est toutefois à noter que certaines recherches [24] tendent à démonter que le choix de la méthode d’obtention du signal aurait un impact non significatif sur la qualité d’image finale. Ainsi, des inexactitudes dans le signal obtenu, comme un déplacement de quelques projections de la position d’un extrema, peuvent amener certaines projections à être classées dans un sous-ensemble représentant une position adjacente, mais cela affecterait peu la qualité finale d’image. Bien qu’il soit essentiel d’acquérir un signal respiratoire d’une certaine façon, le choix de la méthode spécifique serait beaucoup moins crucial que le choix de l’algorithme de reconstruction ou de la méthode de regroupement en sous-ensemble.

(29)

1.3.2 Regroupement des sous-ensembles

Une fois un signal respiratoire acquis, les projections sont regroupées selon le moment de leur acquisition, que ce soit en fonction de la phase du cycle respiratoire ou en fonction du déplace-ment absolu. Ces deux méthodes sont illustrées à la figure1.7. Un regroupement selon la phase respiratoire permet une répartition angulaire plus uniforme, mais des projections imageant des positions différentes risquent de se retrouver dans le même sous-ensemble si l’amplitude de chaque cycle varie. Ce mouvement respiratoire résiduel peut provoquer un flou autour de certains objets en mouvement. À l’inverse, une séparation selon le déplacement ne garanti pas que chaque sous-ensemble comportera des projections dans chaque cycle respiratoire. À l’extrême, une longue plage angulaire peut ne pas être représentée dans un sous-ensemble, complexifiant la tâche de l’algorithme de reconstruction. La figure 1.7 montre ce phénomène par l’absence de projections dans le sous-ensemble vert entre les projections numéro 392 et 517. De manière générale, il a été montré qu’un regroupement basé sur le déplacement dimi-nuerait le flou respiratoire [24]. Toutefois, les méthodes d’analyse de projections comme AS et AI ne peuvent détecter la position absolue, la rotation de l’accélérateur affectant le signal et ne pouvant être complètement supprimé [24].

Lors du regroupement, le nombre de sous-ensembles peut également varier en affectant la qualité d’image finale. Il est commun de séparer les projections en 10 sous-ensembles, mais ce nombre peut varier entre 6 [25] et 20 [26]. Si le nombre de sous-ensembles est trop petit, un déplacement résiduel à l’intérieur d’un même sous-ensemble provoquerait flou et artéfacts, tandis qu’un nombre de sous-ensembles très grand diminue la quantité d’information disponible dans chaque sous-ensemble.

1.3.3 Reconstruction 4D

L’algorithme choisi pour reconstruire les sous-ensembles de projections est un élément essentiel à la visualisation du mouvement. En effet, après étude de l’impact sur la qualité d’image des méthodes d’obtention du signal respiratoire, de regroupement et de reconstruction, Shieh et al. [24] ont conclu que le développement de nouveaux algorithmes de reconstruction serait la manière la plus efficace d’améliorer l’imagerie 4D CBCT.

Or, ce type d’imagerie comporte des défis particuliers pour l’algorithme de reconstruction : chaque sous-ensemble respiratoire contient un nombre restreint de projections et celles-ci ne sont pas uniformément répartis angulairement. Ces deux particularités rendent les images re-construites par les algorithmes standards peu lisibles, des défauts d’image comme des artéfacts de rayons rendant l’identification des différents organes difficile. La régularisation TV (voir section1.2.6) et la méthode de détection comprimée (CS, de l’anglais compressed sensing) [27] sont deux méthodes souvent utilisées pour diminuer ces artéfacts en utilisant le fait que seul les contours des organes sont considérés comme significatifs. Plus spécifiquement, la technique

(30)

0 100 200 300 400 500 600

Déplacement

Projections

(a) Regroupement selon la phase du cycle respiratoire

0 100 200 300 400 500 600

Déplacement

Projections

(b) Regroupement selon le déplacement absolu

Figure 1.7 – Exemple d’un signal respiratoire séparé en 4 sous-ensembles selon la phase (a) ou selon le déplacement absolu (b). Les quatre couleurs représentent le sous-ensemble dans lequel chaque projection est regroupée.

CS se base sur le fait qu’une image de taille N × N peut être obtenue à partir d’un échantillon de données S ln N, où S est le nombre de pixels significatifs. Déjà communes en imagerie 3D TDM lorsqu’un nombre restreint de projections est disponible [28], ces deux techniques réus-sissent à diminuer la présence d’artéfacts de rayons par la supposition que l’image finale sera relativement uniforme.

Pour améliorer la qualité d’image en CBCT 4D, il est également possible de tirer profit de la forte ressemblance entre chacune des phases reconstruites : même si certaines structures sont

(31)

mobiles, une forte proportion de l’image sera identique entre chacune des positions imagées. Cela peut être fait en appliquant à la quatrième dimension la régularisation TV, de manière à diminuer les différences entre les phases adjacentes [29]. D’autres algorithmes utilisent plutôt une reconstruction 3D préalable, de manière à utiliser de l’information de toutes les projections. L’algorithme MKB, initialement développé par McKinnon et Bates pour la visualisation du mouvement cardiaque en TDM [30], puis adapté à l’imagerie respiratoire en CBCT [31], se base sur ce principe. Une image 3D est corrigée par une reconstruction de phase de la différence entre les projections initiales et des projections reprojetées à partir de l’image 3D reconstruite. La méthode PICCS (de l’anglais prior image constrained compressed sensing) [32] est un autre exemple d’algorithme qui utilise une image 3D pour contraindre la reconstruction 4D par la méthode CS. L’utilisation de cette méthode en imagerie CBCT [26] a permis d’augmenter le nombre de sous-ensemble jusqu’à 20 pour atteindre une résolution temporelle particulièrement intéressante pour le mouvement respiratoire d’environ 100 ms. Une autre stratégie pour obtenir des images de CBCT 4D de haute qualité utilise les images 4D obtenues précédemment par CT. Cette technique a notamment été utilisée pour adapter le modèle du mouvement 4D CT aux mesures CBCT prises en salle de traitement [33] ou pour recaler de manière déformable le CT sur le CBCT du jour [34].

Les temps de reconstructions de ces différents algorithmes sont généralement assez longs, faisant appel à des techniques itératives coûteuses en opérations mathématiques. Plusieurs articles détaillant le développement de méthodes de reconstruction 4D ne mentionnent pas de temps de calcul, mais ceux qui le font notent des temps pouvant atteindre plusieurs heures. Ainsi, un algorithme utilisant le recalage entre chaque phase reconstruite demande 6h de calcul pour obtenir une image finale de 256 × 256 × 160 voxels [35]. Un autre algorithme pour CT 4D, qui régularise la moyenne temporelle non-locale, reconstruit une seule tranche axiale en environ 65 s [36], mais un temps de reconstruction significativement plus important est supposé pour obtenir un volume complet. La méthode développée par Gao et al. [37], quant à elle, demande moins de 10 min pour représenter un volume de 256 × 256 × 64 voxels. Une méthode particulièrement rapide, adaptée de l’algorithme MKB [30], obtient une image de 400 × 400 × 158 pixels seulement 20 s après la fin de l’acquisition des projections [38]. Une autre méthode déformant le modèle de mouvement obtenu par CT sur une acquisition CBCT obtient une image en environ 13 min [39]. L’algorithme de Park et al. [40], de son côté, reconstruit un volume de 256 × 256 × 256 pixels en environ 8 min. Finalement, une évaluation maison de l’algorithme 4D ROOSTER [41] permettait d’obtenir un volume de 192 × 192 × 94 pixels en 23 min. On note que ces différents articles utilisent tous une parallélisation sur carte graphique pour accélérer le temps de calcul. Le tableau 1.1 présente un résumé des temps de calcul et des caractéristiques l’influençant pour les différents algorithmes précédemment mentionnés.

(32)

Tableau 1.1 – Résumé des temps de calcul et des caractéristiques l’influençant pour différents algorithmes de reconstruction 4D

Auteur Temps decalcul projectionsTaille des

Nombre de voxels reconstruits (voxels) Carte graphique Christoffersen et al. [35] 6 h 672 projections de

512×384 pixels 256 × 256 × 160 Nvidia GeForceGTX 480 Tian et

al. [36] 65 s 500 projections

(Une tranche

axiale) Nvidia TeslaC1060 Gao et

al. [37]

Moins de 10

min 400 projections de256×64 pixels 256 × 256 × 64 Nvidia TeslaC2070 Zheng et al. [38] 20 s après la fin de l’acquisition Projections de

504×376 pixels 400 × 400 × 158 Nvidia GeForceGTX 480 Yan et

al. [39] 13 min

Projections de

512×384 pixels mentionné)(Non Nvidia GeForceGTX590 Park et

al. [40] 8 min

670 projections de

512×512 pixels 256 × 256 × 256 Nvidia GeForceGTX 780 Ti Mory et

al. [41] 23 min

672 projections de

512×384 pixels 192 × 192 × 94 Nvidia Tesla K20

calcul, comme ils dépendent énormément du matériel informatique et de la taille des projec-tions et des images reconstruites, informaprojec-tions qui varient grandement et ne sont pas toujours spécifiées. Un ordre de grandeur peut tout de même être déduit de ces temps de reconstruction, facilitant l’évaluation de la rapidité d’un algorithme.

1.4

Objectif du projet

Cette mise en contexte souligne l’apport de l’imagerie CBCT à la qualité des traitements en radiothérapie externe. Or, le mouvement respiratoire y est encore difficilement pris en compte et des progrès demeurent pertinents dans le domaine de la reconstruction 4D de projections CBCT. Il apparaît clair que certains besoins cliniques ne sont toujours pas comblés. Le développement de nouveaux algorithmes de reconstruction est une façon particulièrement efficace d’améliorer la qualité d’image pour mieux répondre à ces besoins.

Si certains algorithmes de reconstruction permettent l’obtention d’images de qualité satisfai-santes, très peu sont assez rapides pour être utilisés directement lorsque le patient se trouve en salle en traitement. Certains algorithmes arrivent à une image quadridimensionnelle en moins de 30 minutes [37,39–41], mais il est rare que ce temps de calcul soit de l’ordre de quelques minutes [38].

(33)

Plusieurs algorithmes font également appel à des protocoles d’acquisition modifiés, que ce soit par la diminution de la vitesse de rotation de l’appareil ou par l’augmentation du nombre de projections acquises [42–44]. De tels changements permettent effectivement de corriger partiel-lement la problématique de la non-uniformité angulaire des projections et du peu d’information sur chaque position imagée. Or, une vitesse de rotation plus lente diminue la rapidité de trai-tement et demande au patient de rester dans la même position pendant une période de temps accrue, ce qui accentue les risques de mouvement accidentel. L’augmentation du nombre de projections acquises augmente également le temps d’acquisition et se fait au prix d’une plus grande dose au patient. Une diminution du courant du tube à rayons X a été suggérée [45] pour contrer cette augmentation de dose, mais se fait au prix d’une diminution du rapport signal sur bruit [46]. De manière globale, un algorithme de reconstruction qui nécessite un changement de protocole complexifie son application clinique et n’est pas une solution idéale. Comme en imagerie 3D, la reconstruction itérative apparaît comme la meilleure façon de tirer pleinement profit des connaissances physiques du problème pour optimiser à la fois la qualité d’image et la dose reçue par le patient [47].

L’objectif du projet de maîtrise ici présenté sera donc de développer une méthode de recons-truction 4D qui répond aux besoins cliniques de rapidité de calcul et de facilité d’implantation clinique, tout en permettant une visualisation adéquate de l’anatomie et du mouvement. La facilité d’implantation fait spécifiquement référence à l’utilisation d’un protocole d’acquisition standard et à l’automatisation complète du processus. Pour répondre à cet objectif, l’algo-rithme de reconstruction OSC-TV 3D [8], parallélisé sur carte graphique, a un potentiel in-téressant qui mérite d’être approfondi. La capacité de la régularisation TV de diminuer les artéfacts de rayons communs en imagerie 4D a déjà été démontrée, tout comme l’accélération de calcul permise par l’utilisation de sous-ensembles ordonnés et par la parallélisation sur carte graphique. Dans un tel contexte, il est souhaité de reconstruire des images 4D permettant une visualisation précise des éléments en mouvement et ce, le plus rapidement possible (préféra-blement en deçà de la minute). Une parallélisation sur plusieurs cartes graphiques pourrait permettre d’atteindre cet objectif.

Pour évaluer l’efficacité de cet algorithme, les étapes précédant la reconstruction proprement dite (l’obtention du signal respiratoire et le regroupement en sous-ensembles) seront évidem-ment nécessaires. L’obtention du signal respiratoire, particulièreévidem-ment, est une étape non tri-viale qui affecte les images reconstruites de manière significative. Le prochain chapitre présente ce sujet d’étude. Le second chapitre porte plus spécifiquement sur le développement et les ré-sultats de l’algorithme OSC-TV 4D. Ce sujet, central au projet de maîtrise, est présenté par l’inclusion d’un article soumis à la revue scientifique Medical Physics. Finalement, le dernier chapitre conclura le mémoire faisant un bref retour sur le projet et en ouvrant le questionne-ment sur les perspectives d’avenir.

(34)

Chapitre 2

Étude du mouvement respiratoire

2.1

Algorithme Amsterdam Shroud

Le projet présenté dans ce mémoire utilise l’algorithme AS pour déduire le signal respiratoire. Tout d’abord, cette méthode avait l’avantage de pouvoir être appliquée a posteriori sur un ensemble de projections cliniques. Il était donc facile d’évaluer l’efficacité de l’algorithme de reconstruction 4D sur des données réelles de patients sans changer la routine clinique établie. Par rapport à d’autres algorithmes d’analyse de projections, la méthode AS avait également l’avantage d’être disponible par le biais de la bibliothèque logiciel libre RTK [48]. Le temps consacré à la programmation et la validation de cet algorithme était donc minimisé.

Pour connaître le déplacement du diaphragme lors de l’acquisition, l’algorithme AS effectue tout d’abord un pré-traitement des projections pour mettre en évidence le mouvement du diaphragme. Un logarithme est appliquée à l’image de manière à obtenir des valeurs de pixels proportionnelles à l’épaisseur radiologique du tissu imagé. Un seuillage met ensuite en évidence le patient par rapport à l’air, puis l’application d’une dérivée selon l’axe tête-pied souligne les changements ayant lieu dans cette direction. Chaque ligne de pixels est finalement sommée pour que chaque projection soit représentée par une rangée de pixels selon l’axe tête-pied. Les rangées de chaque projection sont juxtaposées pour produire l’image Amsterdam Shroud, dont on peut voir un exemple à la figure2.1. Des mouvements périodiques y sont bien visibles, celui du diaphragme étant le plus notable vers le bas de l’image.

L’obtention d’un signal respiratoire à partir de l’image AS passe par l’application d’une dérivée selon l’axe temporel (l’axe horizontal sur la figure 2.1), qui met en évidence les changements entre les différentes projections. Par la suite, le signal est obtenu en alignant chaque colonne de manière à minimiser la valeur moyenne quadratique de la différence entre les colonnes de pixels.

(35)

2.2

Données d’essai

Comme l’obtention du mouvement respiratoire est une étape primordiale en imagerie 4D, il était nécessaire de valider le signal obtenu par l’algorithme AS avant le développement d’un nouvel algorithme de reconstruction. Pour ce faire, le fantôme numérique XCAT [14] et des ensembles de projections cliniques ont été utilisées.

Le fantôme XCAT se base sur le Visible Human Project [49] pour représenter de manière réaliste l’anatomie humaine. Le logiciel utilisé a été développé par Segars et al. [14] et permet de contrôler différents paramètres du fantôme imagé (vitesse et amplitude des mouvements respiratoires et cardiaques, dimensions et positions de différents organes, présence de lésions supplémentaires, etc.) et de l’acquisition (spectre énergétique, dimension et résolution du dé-tecteur, nombre de projections, etc.). Il se base sur des acquisitions réelles résonance ma-gnétique et de tomodensitométrie pour modéliser les mouvements cardiaques et respiratoires. Chaque organe est représenté par une courbe B-spline rationnelle non uniforme (NURBS, de l’acronyme anglais) et peut être déformé pour représenter ce mouvement respiratoire. Les projections utilisées pour le projet actuel provenaient d’une acquisition sans bruit à partir d’un spectre mono-énergétique de 70 keV. 56 fantômes ont été générés pour représenter dif-férentes phases d’un mouvement respiratoire simplifié, d’une amplitude constante de 1,2 cm dans la direction antérieur-postérieur et de 2 cm dans la direction longitudinale et d’une pé-riode constante de 5 secondes, dont 3 d’inspiration et 2 d’expiration. Le mouvement cardiaque n’a pas été simulé. Une sphère de tissu mou de 1 cm de diamètre, également représentée par une courbe déformable NURBS, a également été ajoutée au poumon droit pour simuler une tumeur pulmonaire.

Les projections cliniques étudiées, quant à elle, ont été acquises par un On-Board Imager de Varian [4] sur des patients traités au CHU de Québec avec une géométrie de type demi-éventail. Sur les six ensembles de projections recueillis, trois possédaient un diaphragme continuellement visible. Considérant les limitations de l’algorithme AS, ce sont ces trois scans qui ont été utilisés lors de l’étude de l’obtention du signal respiratoire.

2.3

Application de l’algorithme AS

Le programme développé utilise l’algorithme AS [21], tel qu’implémenté dans la bibliothèque logicielle libre RTK [48]. Une première fonction est appelée pour obtenir l’image 2D Amsterdam Shroud, sur laquelle le mouvement du diaphragme est mis en évidence (voir fig. 2.1). Cette fonction demande l’ajustement de la taille du filtre de renforcement de netteté (UMS, de l’anglais Unsharp Mask Size), qui contrôle le nombre de pixels le long de l’axe temporel sur laquelle l’image est moyennée. Ce filtre permet de focaliser sur les caractéristiques du mouvement rapide, comme celles de la respiration, par rapport aux artéfacts du mouvement lent, comme ceux de la rotation du bras de l’accélérateur.

(36)

Figure 2.1 – Image Amsterdam Shroud obtenue à partir du fantôme XCAT. Chaque colonne représente les données pour une projection et l’axe des ordonnées représente la direction tête-pied. Le mouvement du diaphragme est mis en évidence vers le bas de l’image. Le filtre de renforcement avait une taille de 100 pixels.

Une deuxième fonction permet ensuite d’extraire le signal respiratoire de l’image AS en réali-gnant chaque colonne. La figure 2.2 présente les signaux obtenus pour le fantôme numérique et les données cliniques pour deux valeurs différentes de UMS : la valeur par défaut de 17 pixels est comparée à la valeur choisie de 100 pixels.

Dans le cas du XCAT, il est facile de confirmer la justesse du signal, puisque les paramètres ayant générés les projections sont connus. Pour les données cliniques, il a été choisi, comme méthode de validation, de localiser manuellement les positions extrêmes du diaphragme sur les projections. On note toutefois que cette méthode ne permet pas de valider l’amplitude du mouvement. L’incertitude sur ces positions dépend beaucoup de la durée du plateau du pic. Ainsi, la positions des minima des trois patients et des maxima du patient 3 avaient une incertitude estimée à une projection, tandis que les maxima des patients 1 et 2 avaient une incertitude pouvant aller jusqu’à trois projections. Cette incertitude accrue est due à une pause observée à la fin de l’expiration qui complexifiait le positionnement précis du pic. Ces mesures manuelles, de même que la positions des pics du signal connu du XCAT, sont présentées sur les figures subséquentes analysant les signaux respiratoires (soit les figures 2.2,2.3 et2.4). Sur la figure 2.2, les signaux respiratoires des patients 1 et 3 mettent en évidence qu’un para-mètre UMS de 17 pixels n’est pas approprié. Pour ces deux patients, des régions importantes du signal sont inutilisables. Même lorsque les pics sont bien visibles sur le signal, un plateau y est souvent observé, ce qui complexifie la localisation précise de l’extremum. La valeur de 100, choisie après une brève optimisation, a été utilisée pour le paramètre UMS pour la suite du travail.

(37)

0 100 200 300 400 500 600 Signal Projections UMS 100 UMS 17 Extrema 0 100 200 300 400 500 600 Signal Projections UMS 100 UMS 17 Extrema

(a) Fantôme numérique XCAT (b) Patient 1

0 100 200 300 400 500 600 Signal Projections UMS 100 UMS 17 Extrema 0 100 200 300 400 500 600 700 Signal Projections UMS 100 UMS 17 Extrema (c) Patient 2 (d) Patient 3

Figure 2.2 – Signaux respiratoires directement extraits de l’image AS pour un fantôme numérique et des scans de trois patients différents, pour un paramètre UMS de 17 ou de 100 pixels et avec comparaison aux extrema détectés manuellement. Le changement d’amplitude est bien visible même pour le fantôme numérique.

du mouvement du XCAT est mal reproduit, bien que la position des extrema soit bien détectée. En ce qui a trait aux projections de patients, les pics positionnés manuellement correspondent bien aux pics du signal déduit par l’algorithme AS. Le nombre de cycles ayant lieu durant l’acquisition d’une minute, variant entre 15 et 23, correspond également à des fréquences de respiration humaine (soit entre 12 et 20 cycles par minutes [50]). Les amplitudes de chaque cycle respiratoire des trois patients sont inconnues, mais il apparait improbable que cette amplitude varie autant que ce qui est observé pour le patient 1, par exemple. La nécessité

(38)

d’une dernière étape de traitement de signal y apparaît clairement, qu’il soit question de normalisation, d’application d’un filtre ou d’une simple détection adéquate des extrema.

2.4

Traitement du signal respiratoire

Dans l’article présentant l’algorithme AS [21], un filtre passe-haut est appliqué au signal respiratoire initialement obtenu. L’impact des changements lents, comme celui de la rotation du bras de l’accélérateur, serait réduit par ce filtrage. La bibliothèque ITK [51] a été utilisée pour multiplier par un filtre binaire la transformée de Fourier rapide (FFT, de l’anglais Fast Fourier Transform) du signal, puis calculer la FFT inverse de ce résultat. Les meilleurs résultats ont été obtenus avec un filtre passe-bande entre 5 et 70 cycles par minute. Les signaux obtenus sont présentés à la figure2.3. Même si une certaine amélioration de la constance de l’amplitude est visible, notamment pour le patient 1, un algorithme de détection des extrema serait toujours nécessaire pour normaliser adéquatement le signal.

En ce sens, il a été choisi de faire appel à un algorithme utilisant la persistance des extrema [52]. Les minima et maxima locaux sont détectés et associés avec une persistance entre 0 et 1, qui quantifie l’importance de l’extremum par rapport au reste des variations du signal. L’application d’un seuillage sur cette persistance permet ensuite de conserver uniquement les extrema significatifs. Le code, disponible sur le site du développeur, a pu être testé et le niveau du seuil adapté au problème étudié. Les extrema, détectés avec un seuil de persistance optimisé par essais et erreurs à une valeur de 0.6, sont présentés à la figure 2.4.

Il a été trouvé que l’application d’un filtre passe-bande, préalablement au calcul de persistance, ne modifiaient pas les extrema détectés. L’algorithme de détections des extrema par persistance était suffisant et il a donc été choisi de n’appliquer aucun filtre supplémentaire au signal détecté sur l’image AS.

Bien que l’algorithme de persistance détecte efficacement la plupart des extremum, certains sont omis (voir patient 1, vers la projection 550), tandis que de faux extrema sont détectés (voir patient 2, vers la projection 220). Il en demeure que, pour les trois cas cliniques à l’étude, les taux de détection (96,6% des extrema détectés) et de faux positifs (1,7% de fausses détec-tions) sont satisfaisants. Le cas du fantôme numérique démontrent même un taux de détection de 100%, sans faux positifs, avec une erreur maximum sur la position d’une projection. La différence moyenne entre la position des extrema détectés manuellement et automatiquement est de 1,6 projection pour le patient 1, de 2,3 projections pour le patient 2 et de 1,2 projection pour le patient 3, mais cette différence peut également être due à l’inexactitude de la méthode manuelle.

(39)

0 100 200 300 400 500 600 Signal Projections Extrema 0 100 200 300 400 500 600 Signal Projections Extrema

(a) Fantôme numérique XCAT (b) Patient 1

0 100 200 300 400 500 600 Signal Projections Extrema 0 100 200 300 400 500 600 700 Signal Projections Extrema (c) Patient 2 (d) Patient 3

Figure 2.3 – Signaux respiratoires extraits de l’image AS après l’application d’un filtre passe-bande autour des fréquences de 5 à 70 cycles par minute, pour un fantôme numérique et des scans de trois patients différents et avec comparaison aux extrema détectés manuellement.

2.5

Séparation en sous-ensembles respiratoires

Comme le but premier du présent projet est de développer un algorithme de reconstruction 4D, il est pertinent de valider la séparation adéquate des projections en sous-ensembles respiratoires à partir des extrema détectés. Pour ce faire, on suppose une séparation en 8 sous-ensembles qui ignore le fait que les projections soient acquises pendant l’inspiration ou l’expiration. Les projections avant le premier extremum ou après le dernier extremum ont été classées en extrapolant la demi-période moyenne (de l’inspiration ou de l’expiration, selon le cas) mesurée

(40)

0 100 200 300 400 500 600

Signal

Projections

Détection automatique Valeurs réelles

0 100 200 300 400 500 600

Signal

Projections

Détection automatique Détection manuelle

(a) Fantôme numérique XCAT (b) Patient 1

0 100 200 300 400 500 600 Signal Projections Détection automatique Détection manuelle 0 100 200 300 400 500 600 700 Signal Projections Détection automatique Détection manuelle (c) Patient 2 (d) Patient 3

Figure 2.4 – Signaux respiratoires extraits de l’image AS avec juxtaposition des extrema détectés par la méthode de persistance, pour un fantôme numérique et des scans de trois patients différents. Pour le XCAT, ces extrema sont comparés aux valeurs réelles, tandis que, pour les patients, ils sont comparés à ceux sélectionnés manuellement.

durant l’acquisition. La figure2.5montre les numéros de sous-ensembles obtenus pour les deux types d’extrema présentés précédemment à la figure2.4, en plus de la différence entre ces deux courbes.

Le tableau 2.1 présente les statistiques les plus pertinentes sur les différences entre la sépa-ration en sous-ensembles selon la méthode de détection. La différence moyenne représente l’exactitude globale de la séparation en sous-ensembles, tandis que le pourcentage des projec-tions pour lesquelles la différence est supérieure à un sous-ensemble a été choisi pour évaluer

Figure

Figure 1.1 – Schéma d’un faisceau de rayons X en éventail traversant un patient et mesuré par une série de détecteurs (adapté de Bushberg et al
Figure 1.2 – Représentation graphique de deux filtres utilisés en TDM : le filtre en rampe et un exemple de filtre atténuant les hautes fréquences
Figure 1.3 – Accélérateur linaire Clinac iX de Varian avec système d’imagerie CBCT [4]
Figure 1.4 – Représentation graphique de la reconstruction itérative.
+7

Références

Documents relatifs

Copyright and moral rights for the publications made accessible in the public portal are retained by the authors and/or other copyright owners and it is a condition of

La figure 4.20 pr´esente l’efficacit´e de r´etroprojection par Unit´e de Traitement (UT) obtenue avec 1 unit´e seule et 4 et 8 unit´es en parall`ele pour un d´ebit de 8

G´ en´ eralement, pour un algorithme num´ erique ce sont les op´ erations arithm´ etiques usuelles (+, −, ×, ÷) ; pour un algorithme de tri, ce sont les comparaisons entre ´

L'intégrale permettant de définir l'opérateur de rétro- projection corrigé doit être évaluée en utilisant une formule d'approximation. Dans les problèmes de

Par rapport aux recommandations pour la pratique, le service d’oncologie du CHUV (2015) aborde l’annonce du diagnostic avec différents aspects qui sont : les résultats des

Opérations pour un volume de 256 3 et 64 projections de 256 2 Temps Giga opérations par seconde (Gop/s) Projecteur 256 2 *64 rayons mis à jour avec 256 voxels traversés 63 ms

La Cour de cassation sanctionne alors la banque pour avoir manqué à son devoir de conseil : « mais attendu que le prêt consenti par la Caisse d'Épargne étant garanti par une

Deux approches sont utilisées pour classer les techniques mathématiques non- supervisée et non-paramétriques pour la réduction de la dimensionnalité : celles basées sur la