• Aucun résultat trouvé

Principe de la reconstruction d’images en interférométrie

4.3 Approche inverse

4.3.2 Le terme de régularisation f prior

Le terme de régularisation permet de choisir parmi toutes les solutions compatibles avec les données celle la plus proche d’un certain a priori. Comme expliqué à la section 4.2, la mise à zéro des fréquences spatiales non mesurées reconstruit une image non satisfaisante appelée la dirty image. Afin de converger vers une solution plus acceptable, une bonne régularisation doit interpoler entre les fréquences spatiales de façon continue et lisse afin de combler les trous dans le plan (u, v).

Il existe plusieurs termes de régularisation. Les principales, celles dont j’ai eu l’occasion d’utiliser dans ma thèse, sont décrites ci-après.

4.3.2.1 Positivité et normalisation de la solution

Dans le cadre de l’astronomie, le flux négatif dans une image n’a aucun sens. C’est pourquoi la contrainte de positivité est généralement imposée. De plus, la normalisation de la solution est imposée par le format des données interférométriques. On obtient donc le problème d’optimi-sation suivant :

x+ =arg min

x

f (x) soumis aux contraintes x > 0 et X

nxn =1 , (4.22)

avec

4.3. Approche inverse 53 Ces contraintes sont imposées directement dans l’optimiseur de l’algorithme. Par exemple, la positivité peut être imposée en forçant à zéro tous les pixels négatifs à chaque itération de l’algorithme. En ce qui concerne la normalisation, le terme de régularisation ne doit dépendre que de la forme de l’image et non de sa normalisation particulière. Il est possible d’écrire le terme de vraisemblance afin qu’il en soit indépendant également (cf.Thiébaut 2002, pour plus de détails).

4.3.2.2 Lissage

La régularisation de lissage favorise une image lisse qui permet d’éviter de prendre en compte les hautes fréquences spatiales non mesurées. Elle est implantée comme suit :

fprior(x) = kx − S · xk2, (4.24)

oùS est un opérateur de lissage, qui lisse l’image par une simple convolution à 3 éléments13. Plus l’image est lisse, plus la différence entre l’image et une version lissée d’elle-même est petite. Vu que le but est de minimiser le terme de régularisation, celui-ci tente de lisser l’image. Une représentation visuelle de cette régularisation est présentée à la figure4.4(2èmeligne), pour 3 objets différents, et montre sur quelles parties de l’image la régularisation a tendance à agir. On constate bien que plus l’objet est lisse, moins il y a de régularisation.

4.3.2.3 Compacité

La contrainte de compacité (Le Besnerais et al. 2008) favorise des images compactes et donc un lissage dans le plan de Fourier :

fprior(x) =X

n

wprior

n x2n, (4.25)

où les poids wprior

n > 0 augmentent avec la distance au centre de l’image. Donc, plus l’image contient des pixels loin du centre, plus le terme de régularisation est élevé et ce d’autant plus que la valeur du pixel éloigné est élevée (cf. figure4.4, 3èmeligne, pour une représentation visuelle). Cette régularisation favorise donc une image compacte et centrée.

4.3.2.4 Variation Totale

Définie parRudin et al.(1992) et étudiée parStrong & Chan(2003), elle tente de minimiser le gradient total de l’image :

fprior(x) = X n1,n2 q k∇xn1,n2k2+ 2, (4.26) où k∇xn1,n2k2= (xn1+1,n2− xn1,n2)2+(xn1,n2+1− xn1,n2)2

13. A une dimension, S (x)(i) = 1

2x(i) + 1

4[x(i − 1) + x(i + 1)], excepté au bord où S (x)(1) = 3

4x(1) + 1

4x(2) et

S (x)(n) = 3

4x(n) +1

54 Chapitre 4. Principe de la reconstruction d’images en interf´erom´etrie

Figure 4.4: Illustration des termes de régularisation sous forme d’images, c.-à-d. pour les équa-tions détaillées à la section4.3.2mais sans faire la somme sur les pixels. Ils sont illustrés pour 3 objets différents, présentés à la première ligne : un modèle de l’objet jeune LkHα (à gauche) qui montre un pic d’intensité et une enveloppe plutôt lisse, une étoile avec assombrissement centre bord (au milieu) qui a un centre très lisse et des bords francs, et l’image d’une galaxie (à droite) qui présente des structures lisses (le gaz) et ponctuelles (les étoiles).

4.3. Approche inverse 55 est la magnitude au carré du gradient spatial de l’image,  > 0 est un petit nombre servant de seuil afin d’éviter la discontinuité en zéro et (n1,n2) ∼ n sont les indices du nièmepixel dans les deux dimensions. Dans l’image, cette régularisation favorise des zones uniformes avec des changements d’intensité brusques et locaux. A la figure4.4, 4èmeligne, on constate bien que les parties que la régularisation tentent de minimiser sont celles qui possèdent un gradient non nul. 4.3.2.5 Lissage avec conservation de bord franc

Cette régularisation a été proposée à l’origine parGreen(1990) et s’écrit comme suit :

fprior(x) = τ2X

n1,n2

ψ k∆xn1,n2k/τ , (4.27)

où ψ(z) = z − log(1 + z) est une norme `2-`1 et τ > 0 un niveau de seuil. Lorsque l’opérateur laplacien est bien plus petit que le seuil : τ2ψ k∆xn1,n2k/τ ≈ 1/2k∆xn1,n2k2; tandis que lorsque l’opérateur laplacien est plus grand que le niveau de seuil : τ2ψ k∆xn1,n2k/τ ≈ τ|∆xn1,n2|. Cette régularisation tente donc de lisser fortement les endroits à faible gradient et faiblement ceux à fort gradient (Charbonnier et al. 1997;Mugnier et al. 2001,2004). Elle est donc très utile pour un objet étendu avec des bords francs (cf. figure4.4, 5ème ligne, où l’étoile avec assombrisse-ment centre bord est moins pénalisée par cette régularisation que par celle de variation totale qui tente de lisser plus fortement ses bords francs). La régularisation de variation totale (cf. équation (4.26)) est une régularisation du même type dès lors que  n’est plus négligeable.

4.3.2.6 Norme `p

La régularisation de norme `p est définie comme suit :

fprior(x) = hX

n|xn|pi1/pXnx2

n+ 2p/21/p

, (4.28)

où  > 0 est une petite valeur introduite pour éviter la singularité en zéro lorsque p ≤ 1. Si on compare les valeurs de ce fprior pour deux cas extrêmes, c.-à-d. lorsque le flux est réparti uniformément sur les pixels et lorsque le flux est contenu dans un seul pixel, on constate que la régularisation a un comportement différent suivant la valeur de p :

– lorsque p < 1, le cas favorisé est celui où le flux est contenu dans un seul pixel. La régularisation de norme `plorsque p < 1 favorise donc une image parcimonieuse. Elle est par conséquent principalement intéressante pour des images constituées de points sources ou d’objets compacts (cf. figure4.4, 6èmeligne, où tous les pixels avec du flux contribuent au terme de régularisation).

– Lorsque p > 1, le cas favorisé est celui où le flux est réparti uniformément. La régulari-sation de norme `p pour p > 1 produit donc une image lisse car elle tente de réduire la variance des pixels (cf. figure4.4, 7ème ligne, où ce sont les parties de l’image avec fort gradient qui comptent dans la régularisation).

56 Chapitre 4. Principe de la reconstruction d’images en interf´erom´etrie 4.3.2.7 Régularisation entropique (MEM)

La régularisation entropique (Gull & Skilling 1984; Narayan & Nityananda 1986) tente d’obtenir une image avec un minimum d’information compatible avec les données. Le critère de régularisation s’écrit :

fprior(x) = −Xnh(xn; xprior

n ) , (4.29)

où n représente les pixels et où l’entropie Pnh mesure le contenu en information de l’image x. Différentes expressions peuvent être utilisées pour l’entropie de l’image, telles que :

h(x; xprior) = √

x ; (4.30)

h(x; xprior) = log(x) ; (4.31)

h(x; xprior) = x − xprior− x logx/xprior

. (4.32)

où xpriorest une image choisie a priori et correspond à celle qui serait retrouvée en l’absence de

données. Dans les deux premiers cas, la fonction de régularisation est minimale lorsque tous les pixels de l’image sont à zéro. Elle tente donc de reconstruite une image dont le flux se répartit sur un minimum de pixels (cf. figure4.4, 8èmeligne, où tous les pixels avec du flux contribuent au terme de régularisation). Dans le troisième cas, plus l’image sera proche de xprior, plus le terme de régularisation sera petit (cf. figure 4.4, 9ème ligne, où xprior est une gaussienne ; plus l’image s’éloigne de xprior, plus elle a une régularisation élevée).

En résumé, la solution est un compromis entre l’exigence de fidélité aux données et celle aux contraintes a priori sur l’objet. Mais il reste plusieurs questions en suspend :

– Quelles sont les termes de régularisation adéquats ? En effet, comme illustré à la fi-gure4.5, l’image reconstruite peut être assez différente suivant le terme de régularisation utilisé.

– Quelle valeur doit prendre l’hyperparamètre µ qui règle la balance entre le terme de vraisemblance et celui de régularisation ? Son influence sur l’image est illustrée sur un exemple à la figure4.6.

– Quelle quantité et quelle qualité de données sont nécessaires pour reconstruire une image acceptable ?

Pour répondre à ces différentes questions, des tests systématiques sur un algorithme de re-construction d’images ont été réalisés et sont exposés en détail dans le chapitre suivant.

Avant de passer à cette partie de la thèse, les différents algorithmes dédiés à la reconstruction d’images sont exposés ci-après.