• Aucun résultat trouvé

CHAPITRE 3 MÉTHODES D’INVERSION EN IMAGERIE MICRO-ONDES

3.3 La régularisation

Les problèmes inverses sont en général mal posés et c’est le cas en tomographie micro- ondes (Pastorino, 2010). Un problème bien posé respecte les trois conditions suivantes (Idier, 2001) :

— unicité de la solution,

— robustesse de la solution au bruit.

Obtenir ces trois conditions est très rare en pratique. Par exemple, la résolution d’un problème sous-déterminé donne une infinité de solutions possibles et l’unicité de la solution n’est donc pas vérifiée. C’est le cas en TMO, notamment en 3-D, où le nombre de voxels N est bien supérieur au nombre de données.

Pour éviter le caractère mal posé du problème en TMO, il est nécessaire d’ajouter des contraintes ou des informations a priori sur la solution. L’utilisation d’un terme de régu- larisation est une méthode très fréquente pour améliorer la stabilité de l’inversion et donc obtenir une solution correcte (Idier, 2001). Cette régularisation intervient comme un terme supplémentaire dans le critère à minimiser. Dans la suite, le terme de régularisation est noté R(x).

3.3.1 Régularisation “`2`1

Différentes questions se posent quant au choix de la régularisation. Quelle connaissance a

priori a-t-on sur l’objet ? Que cherche-t-on à pénaliser ? Quelle fonction de régularisation

utiliser ? Comment intégrer le terme de régularisation dans le critère à minimiser ? Le choix de la régularisation reste ouvert et la quantité impressionnante d’approches de régularisation dans la littérature en est la preuve. Malgré tout, une régularisation conservant les discon- tinuités (dite "edge-preserving") semble mettre d’accord la plupart des auteurs. Ce type de régularisation fait l’hypothèse que l’objet à reconstruire est un objet homogène par morceaux, ce qui en effet représente la majorité des objets. Par exemple, pour une application biomédi- cale, on peut faire l’hypothèse que les propriétés diélectriques d’un tissu humain (os, muscle, etc.) sont constantes dans un même tissu.

L’idée est alors de pénaliser les variations de contraste, c’est-à-dire les différences premières : on pénalise fortement les faibles variations afin de favoriser des milieux constants et on pénalise dans une moindre mesure les fortes variations de contraste afin de permettre des discontinuités entre les milieux homogènes. De nombreuses fonctions de régularisation per- mettent ce type de pénalisation. Une liste est fournie dans Idier (2001). Nous avons fait le choix d’utiliser ce type de pénalisation dans cette thèse à l’aide des fonctions “`2`1” sur les

différences premières. Ces fonctions ont l’avantage d’être continûment différentiables et donc d’avoir un gradient défini pour tout x. De plus, ces fonctions sont convexes, ce qui permet d’assurer la robustesse à la solution et d’améliorer la convergence des algorithmes d’optimi- sation. Le nom “`2`1” provient du fait qu’elles ont un comportement quadratique à l’origine

faibles variations et préserver les grandes discontinuités. Il existe d’autres types de régu- larisation pour conserver les discontinuités comme les fonctions “`2`0” (asymptotiquement

constantes à l’infini) mais celles-ci ne sont pas convexes, ce qui peut entraîner des instabilités lors de l’optimisation.

Le terme de régularisation utilisé dans nos travaux est le suivant :

R(x) = Nx−1 X n=1 Ny−1 X m=1 Nz−1 X p=1 ϕ(χn+1,m,p−χn,m,p)+ϕ(χn,m+1,p−xn,m,p)+ϕ(χn,m,p+1−χn,m,p). (3.6)

Rappelons que le terme χn,m,p correspond à la valeur du contraste χ sur le voxel d’indice (n, m, p) selon la représentation volumique des voxels et les entiers Nx, Ny et Nz représentent les dimensions du volume V discrétisé. On retrouve ici la pénalisation sur les différences premières à travers l’approximation au premier ordre : χn+1,m,p− χn,m,p pour la direction x par exemple. La fonction ϕ(u) =qδ2+ |u|2 est la fonction de pénalisation “`

2`1” qui permet

de préserver les fortes discontinuités. Dans cette fonction, le paramètre δ > 0 doit être réglé. Dans ce manuscrit, nous avons fait le choix de fixer δ de façon empirique.

Ce type de régularisation semble faire l’unanimité en TMO bien que l’appellation ne soit pas partagée. Certains auteurs introduisent la variation totale comme terme de pénalisa- tion (van den Berg et Kleinman, 1995; Abubakar et van den Berg, 2001) mais ce terme est équivalent à notre expression dans (3.6).

3.3.2 Régularisation additive ou multiplicative ?

Dans la majorité des méthodes d’inversion, les auteurs proposent d’intégrer le terme de régularisation dans le critère soit :

— sous forme additive. Le critère global prend la forme : F = FD+ λR — sous forme multiplicative. Le critère global prend la forme F = FD× R

La régularisation additive est très fréquente en problèmes inverses. Le paramètre de régula- risation λ permet d’ajuster l’équilibre entre l’adéquation aux données FD et l’information a

priori de la régularisation R . Le réglage de ce paramètre est important car il influence le ré-

sultat de la reconstruction. Choisir λ faible signifie que l’on fait plutôt confiance aux données et au modèle (par exemple, faible bruit sur les données). À l’inverse, choisir λ élevé signifie que l’on attribue plus de crédit à l’information a priori. Le choix de λ est donc fortement lié au niveau de bruit sur les données (Idier, 2001) : plus le niveau de bruit est élevé, plus

λ sera élevé. Des techniques ont été développées pour ce réglage (Idier, 2001), on peut citer

la méthode de la “courbe en L” par exemple. Ces techniques peuvent être coûteuses et le réglage de λ est alors réalisé empiriquement. Par exemple, Barrière et al. (2011) proposent

une procédure expérimentale pour ce réglage : une première étape consiste à choisir un objet de référence suffisamment grand et contrasté pour représenter le type d’objets à reconstruire pour l’application donnée, la seconde étape consiste à effectuer un certain nombre de recons- tructions de l’objet référence en faisant varier les paramètres de la régularisation (ici, λ et δ) sur une grille logarithmique. Les valeurs des paramètres sont alors choisies en fonction de la qualité de la solution pour les différentes reconstructions de l’objet référence.

La régularisation multiplicative est apparue dans les algorithmes d’inversion en TMO depuis quelques années et semble avoir convaincu un grand nombre d’auteurs. L’avantage avancé pour une telle régularisation est le fait qu’il n’y ait pas besoin de paramètre de régularisation, ce qui évite la phase délicate du réglage de celui-ci. Barrière et al. (2011) montrent en revanche que ce type de régularisation présente des limites notamment pour la reconstruction d’objets fortement contrastés. D’autres approches de régularisation ont été étudiées dans la littérature, comme par exemple De Zaeytijd et al. (2007) qui mélange les régularisations additives et multiplicatives.

Dans la suite, nous avons choisi une régularisation additive. Pour le réglage du paramètre de régularisation λ, nous avons choisi de le fixer de façon empirique en suivant la procédure décrite dans Barrière et al. (2011).