• Aucun résultat trouvé

inversion

Avant d’être traitées par l’algorithme d’inversion, les images brutes que nous mesurons nécessitent certains traitements. Le modèle de formation de l’image sur lequel se basent nos algorithmes d’inversion nécessite une densité de fluorescence stable pendant l’acquisition ainsi que la proportionnalité entre la valeur des pixels de l’image et le nombre de photons reçus sur le pixel correspondant du capteur. Une bonne connaissance de la PSF est également requise, ainsi qu’un échantillonnage suffisant de l’image pour atteindre la résolution attendue.

III.2.1. Estimation de la PSF du microscope

Avant ou après chaque série d’acquisition, nous avons pris des images de molécules ou de billes fluorescentes accrochées à la surface du substrat de verre, pour obtenir une « mesure » de la fonction d’étalement du point. Si de tels objets « ponctuels » ne sont pas visibles, nous pouvons éclairer une zone de fluorescence faible, homogène et éloignée de l’objet d’intérêt, jusqu’à ce que la plupart des marqueurs soient photoblanchis et que ceux qui émettent encore un signal soient pour la plupart bien isolés. Un temps d’exposition long (autour d’une seconde) et/ou une augmentation du gain de la caméra EMCCD étaient généralement nécessaires pour obtenir un signal raisonnable. Une fois de telles images enregistrées, nous pouvions estimer la PSF (2D) de l’appareil. Cela se fait en « moyennant » les images d’objets ponctuels isolés, à l’aide d’un algorithme Matlab fourni par Rainer Heintzmann. Celui-ci fonctionne de la manière suivante :

-L’utilisateur entre grossièrement les coordonnées de billes ou de fluorophores isolés dans l’image, en cliquant directement dessus. Des images carrées de quelques pixels de côté (taille choisie par l’utilisateur) sont ainsi extraites. Elles contiennent chacune une « mesure » de PSF.

-Ces images sont ensuite recalées les unes par rapport aux autres avec une précision sub-pixel. (cf. III.2.3)

-L’algorithme fait ensuite la somme de ces images recalées pour obtenir une mesure « moyenne » de la PSF. Cette moyenne est finalement recentrée puis normalisée.

III.2.2. Correction du fond

Pour assurer la linéarité de la relation entre la valeur prise par les pixels de l’image et l’intensité lumineuse réellement reçue par le capteur, quelques précautions sont nécessaires. Les capteurs CCD et EMCCD ont un niveau de signal de base non-nul, correspondant au « signal sombre ». Ce signal est créé par l’énergie thermique qui peut être responsable de la création d’électrons sur les pixels du capteur sans absorption de photon. Ce signal augmente avec la température du capteur et le temps d’exposition utilisé. S’il est réellement visible pour des mesures effectuées avec des caméras CCD « classiques », non-refroidies, il est généralement très faible pour une caméra EMCCD refroidie, sans qu’on puisse toutefois le négliger.

Bille nanométrique isolée sélectionnée

PSF moyenne estimée (agrandie 5x)

Figure III.2-1 : Estimation de la PSF à partir de l’image de billes isolées collées au substrat

Pour le corriger, plusieurs images sont enregistrées dans les mêmes conditions que la mesure réelle, mais avec le laser d’excitation éteint. En soustrayant la moyenne de ces images à celles qui seront traitées, on enlève un « fond » qui constituerait un biais par rapport à notre modèle.

III.2.3. Correction de la dérive de l’échantillon

Tous les algorithmes d’inversion utilisés supposent que l’échantillon est resté immobile pendant l’entière acquisition d’un set1 d’images. En pratique, l’échantillon subit toujours des déplacements. Qu’ils soient volontairement effectués avec la platine nanométrique (pour « balayer » l’échantillon avec un motif d’illumination fixe) ou plus couramment causés par la dérive thermique d’éléments du montage (porte-échantillon, caméra, lentilles intermédiaires…), ces déplacements doivent donc être corrigés avant l’inversion des données. Pour cela, nous utilisons la suite de fonctions Matlab destinée au traitement d’image, appelée « Dip Image2 ». La première fonction, estime le décalage de chaque image du set par rapport à une image de référence, avec une précision sub-pixel [141]. Dans notre cas, l’image obtenue avec un éclairement homogène, ou la somme de toutes les images du set servent d’image de référence. Pour corriger ce décalage ( 𝑑�⃗= (𝑑𝑥, 𝑑𝑦) ), nous effectuons

1 Nous appelons « set » un ensemble d’images mesurées avec différents motifs d’illumination, nécessaires à la reconstruction super-résolue de l’objet fluorescent.

2http://www.diplib.org

Figure III.2-2 : Fond moyen mesuré sans excitation, retranché aux mesures avant

l’inversion.

La luminosité a été fortement rehaussée sur cette image : avec la caméra EMCCD, le niveau moyen du fond est typiquement 20 fois plus faible

la transformée de Fourier de l’image initiale, multiplions le résultat par un terme de phase, et retournons dans l’espace direct avec une transformée de Fourier inverse :

𝑀𝑖𝑜𝑟𝑟𝑖𝑔é𝑒(𝑥, 𝑦) =𝑇𝐹�𝑇𝐹−1[𝑀𝑖𝑖𝑖𝑡𝑖𝑎𝑙𝑒(𝑥, 𝑦)] ×𝑒−𝑖𝑑𝑥𝛼×𝑒−𝑖𝑑𝑦𝛽�. (III.2-a)

De cette manière, nous pouvons corriger n’importe quel décalage de l’image, même si celui-ci ne correspond pas à un nombre entier de pixels. Cette méthode peut toutefois créer des artefacts, en particulier sur les bords de l’image, à cause de l’utilisation de transformées de Fourier rapides, qui supposent que l’image est périodique.

III.2.4. Sur-échantillonnage de l’image

La taille (virtuelle) des pixels dans les images brutes a été ajustée pour respecter le critère de Shannon, d’après la limite de résolution classique donnée par la limite d’Abbe. Après reconstruction, nous espérons obtenir une résolution deux fois meilleure : il faut donc que l’image finale soit décrite avec au moins deux fois plus de pixels. Les algorithmes d’inversion que nous avons utilisés ne sont pas encore optimisés pour reconstruire une image super-résolue constituée d’un nombre de pixels différent des images du set. Nous avons donc dû augmenter l’échantillonnage des images brutes avant la reconstruction. Pour diviser par deux (ou plus) la taille des pixels sans modifier les informations spectrales contenues dans l’image de départ, nous avons modifié les images dans l’espace de Fourier. En effet, ajouter des zéros sur les bords de la transformée de Fourier rapide de l’image permet, après une transformée de Fourier rapide inverse, d’obtenir une nouvelle image « sur-échantillonnée ». Le nombre de pixels final est égal au nombre de pixels de l’image initiale, plus le nombre de zéro ajoutés sur les bords de sa transformée de Fourier rapide.

Méthodes d’inversion