• Aucun résultat trouvé

Principe de la reconstruction d’images en interférométrie

4.4 Algorithmes de reconstruction d’images

4.4.2 Interférométrie infrarouge

Comme vu précédemment, les mesures en interférométrie infrarouge ne sont pas identiques à celles en radio, conduisant à un modèle direct des données non-linéaire. C’est pourquoi les méthodes précédentes ne peuvent être appliquées directement. La reconstruction en interféro-métrie infrarouge nécessite une adaptation des méthodes du domaine radio ou la création de nouvelles méthodes.

Plusieurs algorithmes de reconstruction d’images ont été développés pour les données d’in-terférométrie infrarouge. Les différentes approches se différencient par l’approximation de la statistique des données, le type de régularisation, la stratégie d’optimisation et la manière, im-plicite ou exim-plicite, de tenir compte des phases de Fourier manquantes.

4.4.2.1 Bsmem

L’algorithme Bsmem (BiSpectrum Maximum Entropy Method,Baron & Young 2008), comme

son nom l’indique, utilise la MEM pour régulariser le problème de restauration d’une image à partir de mesures du bispectre.

Comme terme de vraisemblance, Bsmem suppose une statistique de bruit gaussienne et indé-pendante pour l’amplitude et la phase du bispectre mesuré et, comme terme de régularisation, l’entropie définie parGull & Skilling(1984) (cf. équation (4.32)). L’image a priori est soit une gaussienne, soit un disque uniforme, soit un Dirac centré.

L’optimiseur est MEMSYS qui implémente la stratégie proposée par Skilling & Bryan

(1984) et trouve automatiquement la valeur optimale pour l’hyperparamètre µ. La force de Bs-memréside dans le fait de ne pas tenter de convertir directement les données du bispectre en visibilité complexe, ce qui permet de pouvoir charger n’importe quel type de données, même si celles-ci sont incomplètes.

4.4.2.2 Building Block Method

L’algorithme Building Block Method (Hofmann & Weigelt 1993) est similaire à Clean, adapté pour reconstruire des images à partir de données de bispectre. Il fonctionne de manière itérative pour réduire le terme de vraisemblance fbisp

data. La minimisation est réalisée par un algo-rithme de type matching pursuit qui impose une solution parcimonieuse.

4.4.2.3 Macim

L’algorithme Macim (MArkov Chain IMager,Ireland et al. 2006) maximise la probabilité a posteriori de

Pr(x|y) ∝ exp −12fdata(x) − µ2fprior(x) !

. (4.37)

Cet algorithme utilise les méthodes dites MCMC (Markov Chain Monte-Carlo) qui mani-pulent directement la probabilité a posteriori.

62 Chapitre 4. Principe de la reconstruction d’images en interf´erom´etrie Deux régularisations sont codées dans Macim : MEM et une régularisation spécifique favo-risant les larges régions noires autour de régions brillantes.

4.4.2.4 MiRA

L’algorithme MiRA (Multi-aperture image Reconstruction Algorithm, Thiébaut 2008)

ré-sout un problème similaire à celui de l’équation (4.22) en utilisant un algorithme d’optimisation non linéaire (Thiébaut 2002). Comme la méthode ne permet pas une optimisation globale mais locale, le résultat dépend de l’image de départ.

MiRA a deux avantages principaux :

– Il peut gérer les différents types de données obtenues par un interféromètre infrarouge (visibilité complexe via l’équation (4.12), visibilité carrée via l’équation (4.18), phase de clôture via l’équation (4.21)). Lorsqu’une partie de l’information de phase est manquante suite à l’atmosphère turbulente, l’algorithme MiRA ajuste directement les observables interférométriques sans reconstruire explicitement les phases manquantes.

– Différents types de régularisations y sont codés afin de choisir la plus efficace et vérifier l’effet de la régularisation sur l’image reconstruite.

4.4.2.5 Wisard

L’algorithme Wisard (Weak-phase Interferometric Sample Alternating Reconstruction De-vice,Meimon et al. 2009) permet de retrouver une image à partir du spectre de puissance et des phases de clôture. Il possède une approche similaire à la technique d’auto-étalonnage afin de re-trouver les phases manquantes à partir de l’estimation courante de l’image. Wisard reconstruit donc de manière implicite les visibilités complexes en ajoutant les phase de Fourier synthé-tiques déterminées par auto-étalonnage à la racine carrée du spectre de puissance. Ces données en visibilité complexe sont ensuite ajustées par l’étape de reconstruction d’images. Pour réaliser cette étape, plusieurs termes de régularisation sont implémentés.

L’étape de reconstruction d’images a une solution unique mais celle d’auto-étalonnage n’est pas strictement convexe. Le problème global est donc multi-modal et, au moins dans les cas dif-ficiles, la solution finale dépend de l’image de départ.

Tous ces algorithmes ont été comparés lors de l’organisation des Beauty Contest (Lawson

et al. 2004, 2006; Cotton et al. 2008; Malbet et al. 2010) qui consistent à reconstruire une

image à l’aveugle, c.-à-d. sans connaissance de l’objet. L’algorithme Bsmem a gagné trois fois le concours (en 2004, 2006 et 2010) et l’algorithme MiRA l’a gagné une fois (en 2008). Ce-pendant, s’ils sont utilisés avec des paramètres semblables, les algorithmes semblent obtenir des solutions sans grande différence. Lors des derniers Beauty Contest en 2008 et 2010, deux nouveaux algorithmes, toujours en cours de développement, ont fait leur apparition : Rpr par Sridharan Rengaswamy (ESO) et Squeeze, le successeur de Macim, par Fabien Baron et John Monnier (Université de Michigan).

4.4. Algorithmes de reconstruction d’images 63 Parmi les différents algorithmes, c’est l’algorithme MiRA qui est utilisé dans la suite de la thèse. Premièrement, sa liberté dans le choix du type des données permet d’effectuer des tests à la fois dans le domaine convexe (visibilités complexes) et dans le domaine réel (visibilités carrées et phases de clôture). Cet aspect peut s’avérer également très utile lorsque que l’on souhaite sélectionner une partie des données, sans devoir pour autant supprimer le jeu complet (en particulier pour les CP). Deuxièmement, la possibilité d’utiliser plusieurs régularisations est nécessaire vu les tests systématiques sur ce terme qui sont effectués dans le chapitre suivant. Les études présentées dans cette thèse pourraient être effectuées avec d’autres logiciels mais comme tous les algorithmes ont tendance à trouver des solutions similaires on s’attend globalement à peu de différence.

Chapitre 5