• Aucun résultat trouvé

B.5 TV- ℓ 1 minimization

C.1.3 Travaux précédents

Une méthode viable de traiter le problème de faible nombre de projections (et le prob-lème des données incomplètes en général) consiste à utiliser les algorithmesalgébriques

ou itératifs qui permettent d’intégrer des informations préalables dans la procédure de reconstruction. Dans cette direction, des solutions diverses ont été proposées dans la littérature: elles sont basées sur différents modèles d’image et sont orientées vers de différentes applications. Dans le cadre bayésien, la reconstruction peut être réalisée par l’estimation du maximum de la probabilité a posteriori (MAP):

ˆ

f = min

fX F(f, b) +R(f) (MAP)

où X est un espace fonctionnel, F(f, b) représente la fidélité aux données et incarne le processus physique de la génération des donnéesbà partir du modèlef, etRest le terme de régularisation caractérisant l’information préalable surf. Un cas particulier deR est leprior préservant les bords(EPP), qui suppose quef est homogène par région, et qu’il contient peu d’information en dehors des bords. Comme une large classe d’objet en CT peut être représentée par ce modèle, cette méthode peut les reconstituer efficacement en utilisant un petit nombre de projections.

Dans la même veine que l’EPP, la méthode de la minimisation TV modélise f dans l’espace de variation bornée et utilise la semi-norme de variation totale comme R. Les propriétés théoriques de cette méthode, telles que la préservation des bords et la perte des régions à faible contraste et des zones d’oscillation, ont été intensivement étudiées dans la littérature. L’efficacité surprenante de la minimisation TV dans le traitement du problème de faible nombre de projections a été signalée dans de nombreuses publications [3–6].

Plutôt que de reconstruire f directement comme un objet visuel, une autre possibilité est de régulariser dans l’espace de Besov: on utilise la norme de Besov commeR via la transformée en ondelette, et reconstruit les coefficients d’ondelette [7,8]. Cette approche est basée sur le fait que la plus part des images naturelles peut être "compressée", c’est à dire fidèlement représentée par une base multi-résolution d’ondelette avec un petit nombre de coefficients. La capacité de compression et la structure de multi-résolution de la base d’ondelette offrent un moyen efficace pour réduire la dimension inhérente et pour résoudre le problème mal posé.

Le succès des méthodes de TV et d’ondelette peut être expliqué par “représenter une fonction dans un espace où elle est simple”. Par exemple, une fonction homogène par morceaux est simple dans l’espace BV car il n’y a pratiquement pas d’information en de-hors des bords. De même, une image naturelle représentée par ses coefficients d’ondelette

a une petite norme Besov, due au fait que l’essentielle de ses informations est concentrée sur seulement quelques plus grands coefficients.

Parcimonie La notion de parcimonie entre alors dans notre champ de vision. Un vecteur est dit parcimonieux s’il contient peu de coefficients non nuls, ou compressible

s’il peut être approché par un vecteur parcimonieux en conservant quelques plus grands coefficients. Pour un problème inverse où le nombre de données disponibles est beaucoup plus petit que la dimension de l’inconnu, chercher l’inconnu dans un espace où il est censé être parcimonieux serait beaucoup plus avantageux que d’autres techniques de régularisation, grâce au fait que la parcimonie réduit la dimension inhérente du système linéaire, et améliore la situation problématique, telles que la non unicité, l’instabilité de la solution par rapport au bruit, etc.

Du point de vue d’échantillonnage du signal, nous demandons si une fonctionf peut être identifiée seulement à l’aide de quelques échantillons de son sinogramme en exploitant la parcimonie, et quelles seraient les conditions d’échantillonnage et les méthodes de reconstruction.

Compressed Sensing La théorie émergente de Compressed Sensing (CS) donne des réponses rigoureuses à ces questions. Grosso modo, sif est suffisamment parcimonieuse ou compressible par rapport aux certains systèmes de représentation, alors ses informa-tions peuvent être capturées par quelques mesures aléatoires linéaires dont le nombre est quasi proportionnel au niveau de la parcimonie de f, et la reconstruction de f est posée comme un problème d’optimisation, par exemple, la minimisation de la norme1. Par ailleurs, l’erreur de la reconstruction est proche de l’erreur de “compression”. CS a également prouvé que la combinaison entre les mesures aléatoires et la minimisation

1 est en quelque sorte “optimale”, car ils atteignent la borne théorique de la perfor-mance. Cette théorie nous fournit un cadre général pour le problème de faible nombre de projections. Pour cela, on a besoin de:

• représenter/modéliser f dans un espace qui favorise la parcimonie, par exemple, un système multi-échelle comme l’ondelette ou la curvelette, ou un dictionnaire arbitraire qui peut synthétiser une image avec un petit nombre d’atomes.

• chercher la solution parcimonieuse via des méthodes spécifiques non linéaires comme la minimisation TV ou 1.

Représentation d’image en CT Il est remarquable que la plupart des méthodes de reconstruction dans le cadre du CS utilise le pixel (ou le voxel en 3D) comme la

base de représentation de l’image. Outre sa simplicité numérique, le pixel est à la base de nombreuses transformées rapides (FFT, DCT, DWT,etc.). Cependant, vis-à-vis des algorithmes de reconstruction itérative en CT, le pixel n’est pas la manière optimal pour représenter une fonction pour les raisons suivantes:

• La localisation spatio-fréquentielle du pixel est médiocre. De gros pixels sont néces-saires pour contrôler la bande passante de la reconstruction et pour stabiliser la procédure d’inversion, en revanche la qualité visuelle est considérablement réduite. • Il nécessite la discrétisation ou l’approximation du projecteur de rayon X, dont la complexité numérique est dominée par la dimension de la discrétisation, non pas par la parcimonie de l’image sous-jacente (par rapport au système de représenta-tion).

De l’autre côté, la fonction radiale appelée Kaisser-Bessel blob qui est meilleure que le pixel pour les raisons mentionnées ci-dessus, a déjà été proposée il y a plusieurs décennies. Toutefois, le blob n’a pas une structure multi-échelle, et sa représentation de l’image n’est pas parcimonieuse. Par ailleurs, la plupart des méthodes de la reconstruction proposées pour le blob Kaisser-Bessel ne sont pas adéquates pour le problème de faible nombre de projections.

C.1.4 Contributions

Inspiré par tous ces éléments, nous développons dans cette thèse des bases radiales de la famille gaussienne toujours baptisés blobs, et nous les utilisont pour la représentation et la reconstruction d’image. Les blobs ont de meilleures propriétés de localisation spatio-fréquentielle que le pixel, et de nombreuses opérations, telles que la transformée en rayon X, le gradient ou l’interpolation, peuvent être analytiquement évaluées, ainsi on évite la discrétisation ou l’approximation dans le calcul du projecteur de rayon X. Une image représentée par blobs est compressible, de sorte que le système ad hoc de la représentation parcimonieuse utilisées dans les algorithmes CS ordinaires n’y est plus nécessaire.

En nous basant sur les blobs, nous allons construire un modèle mono-échelle et un mod-èle multi-échelle d’image, qui peuvent être qualifiés respectivement comme d’imitation du pixel ou de l’ondelette de multi-résolution, et nous étudierons certaines propriétés d’approximation de ces modèles.

Une fonction est représentée dans l’espace invariant par translation généré par blobs sur une grille hexagonale, et la reconstruction revient à déterminer les coefficients de

blobs par la minimisation de la norme TV ou 1, qui seront adaptés pour ces nouveaux modèles d’image. En fonction du caractère de l’objet (e.g., constant par morceaux ou avec des régions à faible contraste), et du nombre de projections, ces deux méthodes de minimisation n’ont pas le même comportement.

Les calculs avec le blob, e.g. la projection de rayon X, l’interpolation, sont facilement parallélisables sur la plate-forme GPU. On développe un projecteur de rayon X baptisé

blob-driven qui est implementé sur le GPU. Pour démontrer les efficacités des nouveaux modèles d’image et celles des algorithmes de reconstruction, nous les comparerons, à travers différentes expériences numériques, aux approches équivalentes basées sur la base de pixel / ondelette.

Documents relatifs