• Aucun résultat trouvé

I.7 Conclusions et perspectives

II.2.2 Reconstruction bayésienne des images super-résolues

Nous avons vu au paragraphe II.1.3 le principe de reconstruction développé par Gustafsson [33], par recombinaison de spectres satellites dans l’espace de Fourier. Ce recalage nécessite l’estimation de la fréquence de modulation avec une précision très importante (inférieure au dixième de pixel) pour limiter l’apparition d’artefacts de reconstruction [38]. Or la fréquence de modulation étant proche de la fréquence de coupure du microscope, le facteur de transmission est faible (inférieur à 0,1 au delà de 80 % de la fréquence de coupure) et dans les images acquises cette modula- tion est associé à un bruit important. Il est donc difficile en pratique de reconstruire des images sans artefacts par cette méthode, et différents outils sont utilisés pour améliorer la fidélité des images reconstruites. De plus, l’approche classique néces- site l’utilisation de nombreux paramètres ad-hoc parfois difficiles à déterminer en pratique. Une nouvelle technique de reconstruction a été développée par François Orieux [39] basée sur une approche bayésienne pour reconstruire ces images.

Le formalisme bayésien se base sur l’utilisation d’informations connues a priori sur le phénomène observé pour déterminer le résultat ou la reconstruction le plus vraisemblable [40]. Son utilisation en traitement d’images est illustrée sur la figure II.18. On veut obtenir de l’information sur un objet réel x à partir des images y que l’on a pu acquérir de celui-ci. Le processus d’acquisition des images est en partie connu mais est également soumis à un bruit aléatoire et à divers biais. On le modélise par la formule suivante :

y = f (x) + n, (II.4) où f représente le processus d’acquisition des images et n le bruit. Par exemple dans le cas d’un microscope classique, on sait que l’image acquise résulte d’une convolution avec la PSF, phénomène bien connu et maîtrisé, pouvant faire intervenir des paramètres ajustables (ouverture numérique effective, présence d’aberrations...). Le bruit présent dans les images est dû au bruit de photons ou au bruit de lecture de la caméra par exemple, impossibles à connaître exactement. Les statistiques de ces bruits peuvent néanmoins être évaluées (par exemple un bruit gaussien de moyenne et d’écart-type connus).

Les informations disponibles pour obtenir les caractéristiques de l’objet sont donc les images acquises, le processus d’acquisition avec ses quelques paramètres et parfois les statistiques du bruit. La solution la plus directe pour remonter à l’objet est de réaliser une inversion du processus physique mis en jeu par l’acquisition.

En pratique, on cherche l’objet x qui explique le mieux les résultats obtenus y par une minimisation de la vraisemblance ky − f (x)k, où f représente les effets des processus physiques. La vraisemblance est une mesure de la « distance » qui sépare les résultats y de l’estimation que l’on en fait à partir d’un objet x connaissant les processus physiques f qui conduisent à y. La notion de distance mathématique n’est pas unique, et en pratique on utilise la norme L2 [40].

Dans le cas du traitement d’images, le nombre de variables indépendantes recher- chées est très important car il s’agit au minimum du nombre de pixels de l’image finale. La minimisation de la vraisemblance aboutit alors à des solutions multiples et dégénérées, qui n’ont généralement aucune réalité physique comme on peut le voir sur la figure II.18 [41, 42].

Le principe de la reconstruction bayésienne est alors d’ajouter une ou plusieurs contraintes dans le processus de reconstruction pour rendre moins probables ces solutions non-réalistes [40–42] et tirer parti au maximum de la connaissance du processus d’acquisition. La difficulté est alors de définir ces a priori et de les pondérer correctement [40]. En effet, s’ils sont trop faibles, on ne lèvera pas efficacement la dégénerescence des solutions obtenues avec la vraisemblance seule. On risque alors d’obtenir un résultat qui n’a toujours pas de réalité physique. À l’inverse, si la contrainte ou l’a priori que l’on impose est trop restrictif, la solution obtenue est réaliste mais ne prend pas suffisamment en compte les données, et n’est donc pas révélatrice de l’objet étudié. Par exemple, on pourrait imposer le fait que l’échantillon soit constitué de lignes droites d’une certaine largeur. La solution la plus probable fera apparaître ces lignes droites bien qu’elles ne soient pas présentes dans l’objet réel.

Les contraintes doivent donc être choisies avec précaution, pour permettre une reconstruction efficace sans imposer les caractéristiques que l’on veut voir appa- raître dans les images finales [40]. En pratique, on minimise maintenant la fonction ky − f (x)k + ρ kg(x)k, où g contient les a priori choisis, et ρ est un paramètre qui permet de pondérer les termes de vraisemblance et d’a priori. Ce terme est crucial pour la reconstruction, et il doit donc être choisi et évalué avec précaution.

Application à la reconstruction d’images super-résolues

Vraisemblance et a priori. Ce principe de reconstruction a été appliqué à nos images structurées. Il faut tout d’abord identifier le processus d’acquisition des images. Si on note x l’échantillon, les N images brutes peuvent s’écrire sous la forme [39] :

yi = HMix + ni, (II.5)

où : yi sont les différentes images acquises (i varie de 1 à N ),

H est l’opérateur de convolution par la PSF,

Mi est l’opérateur de modulation pour chaque image i (dépendant

de la fréquence, la phase et l’orientation de la modulation), et ni sont les différentes réalisations du bruit,

Le terme de vraisemblance s’écrit sous la forme ky − HM xk, où y et M contiennent respectivement les différents yi et Mi correspondant à chaque image.

Il nous faut ensuite choisir la contrainte à appliquer qui permette de trouver une solution réaliste et fidèle aux données. Nous avons choisi dans un premier temps d’utiliser une contrainte sous la forme d’un laplacien de l’image k∆xk. Ce laplacien limite l’apparition de hautes fréquences introduites par la déconvolution et qui sont majoritairement du bruit. La principale raison de ce choix est la corrélation des intensités des pixels voisins, car la PSF super-résolue est plus grande qu’un pixel [39]. L’influence de la contrainte est pondérée par le paramètre de régularisation ρ. L’expression à minimiser s’écrit sous la forme :

ky − HM xk | {z } vraisemblance + ρ k∆xk | {z } contrainte . (II.6)

Pour pouvoir réaliser cette minimisation et déterminer x, les paramètres décri- vant l’effet des opérateurs H et M doivent être connus.

Opérateur de convolution. L’opérateur H est l’opérateur de convolution qui décrit l’effet de la PSF sur l’image modulée. Nous avons choisi de le décrire d’après un modèle théorique par simplicité de mise en œuvre avant d’obtenir des mesures de PSF suffisamment précises de notre système optique. Nous avons donc utilisé un modèle classique théorique de PSF scalaire, dépendant de la longueur d’onde, de l’objectif utilisé (grandissement et ouverture numérique) et de la taille des pixels de la caméra. Dans le paragraphe II.5.2 nous allons voir les avantages et limitations de ce choix.

Estimation des paramètres de modulation. L’opérateur M décrit la modu- lation de l’illumination à partir de quatre paramètres : la fréquence fm, l’orientation

de la grille θ, la phase ϕ et le contraste α. Leur estimation est réalisée sur les images acquises, préalablement à la reconstruction, par une méthode de minimisation au sens des moindres carrés de la fonction ky − HM (fm, θ, ϕ, α)wk, où w est cette fois

une image plein champ déconvoluée de l’échantillon.

Dans ce cas, la minimisation ne génère pas de résultats non réalistes, car les in- connues sont peu nombreuses (4 par image) et il n’est donc pas nécessaire d’utiliser

un terme de contrainte. Cependant comme nous l’avons vu précédemment, la fré- quence de modulation est élevée, donc le contraste de la modulation dans les images acquises est faible. L’estimation des paramètres de cette modulation est donc délicat et une recherche exhaustive des paramètres optimaux autour d’une position initiale repérée sur la TF des images s’est révélée être la méthode la plus efficace.

Il est possible de rendre cette estimation plus robuste, car nous acquérons pour chaque orientation, trois images à la même fréquence de modulation, avec a priori le même contraste de grille, et des phases décalées de 4π/3. En ajoutant ces connais- sances à l’estimation des paramètres de grille, nous obtenons généralement de bons résultats. Ces contraintes que nous imposons sur les déphasages entre images et les contrastes de modulation sont puissants, car ils interdisent tout écart à ces valeurs. Ainsi, en appliquant ces contraintes nous sommes assurés de trouver un déphasage de 4π/3 entre les images, même si les déphasages effectifs sont différents. Dans la suite, nous allons voir l’influence de ces paramètres sur la reconstruction, ce qui permettra de valider ces a priori.

Avant de vérifier l’efficacité de cette méthode de reconstruction, nous allons voir comment il est possible d’associer l’augmentation de résolution à la coupe optique, sans augmenter le nombre d’images acquises.

II.2.3 Coupe optique et super-résolution