3.4 Bilan
4.1.2 Méthodes de séparation des composantes “objet” et “fond” en vidéo-microscopie 84
oùa
Getb
Getσ
G2désignent les paramètres du modèle permettant de représenter la PSF. Cette approche,
plus coûteuse en temps de calcul que les précédentes présente l’avantage de détecter assez précisément
les objets d’intérêt (Cheezum et al. 2001, Thomann et al. 2002).
Méthodes d’apprentissage supervisé
Ces méthodes visent à apprendre une “signature” des objets d’intérêt pour les détecter ensuite.
Méthode AdaBoost L’approche “AdaBoost” (Viola & Jones 2001) est souvent utilisée pour la détection
d’objets en analyse d’images, et a récemment été évaluée en imagerie biologique moléculaire (Jiang
et al. 2007) pour la détection de spots. L’algorithme “AdaBoost” repose sur une détection par maximum
de vraisemblance. De petits motifs d’image sont classés comme positifs (présence d’un objet) ou
négat-ifs (absence d’objet) suivant la réponse combinée de plusieurs classifieurs faibles. Dans leurs travaux,
Jiang et al. (2007) préconisent l’utilisation de caractéristiques de Haar. Chaque caractéristique est décrite
par une forme d’apparence géométrique, des coordonnées relatives à l’origine de la fenêtre de recherche
et un facteur d’échelle. Muni de cet ensemble et d’une base d’apprentissage composée d’autant de motifs
étiquetés “positifs” que “négatifs”, le classifieur est entraîné. L’algorithme “AdaBoost” sélectionne alors
un nombre restreint de caractéristiques visuelles. La séparation entre motifs étiquetés “positifs” et
“né-gatifs” est obtenue en déterminant un seuil adapté à chaque caractéristique pour chaque passe de la phase
d’apprentissage. La classification finale résulte d’une combinaison linéaire pondérée de l’ensemble des
caractéristiques utilisées.
4.1.2 Méthodes de séparation des composantes “objet” et “fond” en vidéo-microscopie
Des méthodes permettant de séparer directement les composantes “objet” et “fond” sans passer par
une étape préliminaire de détection ont aussi fait l’objet de travaux que nous évoquons dans cette section.
Morphologie mathématique
La morphologie mathématique est apparue dans les années 60 suite aux travaux menés par G.
Math-eron et J. Serra (Serra 1967). Issue de la théorie des ensembles, elle s’intéresse aux caractéristiques
morphologiques des objets présents dans une image, via des transformations non linéaires requérant la
définition d’un “élément structurant”. Les différents filtres que nous décrivons se déclinent notamment
en fonction du choix de cet élément.
(a) (b)
FIGURE4.1: (a) Érosion (courbe rouge) et dilatation (courbe verte) appliquées à la courbe bleue en considérant un segment de longueur 5 comme “élément structurant” ; (b) Illustration de l’effet de l’algorithme “ rolling ball”. Sur cette figure, la boule ne peut pas entrer en contact avec la surface interne du pic, les pixels en question appartiendront donc à la composante “objet”.
“élément structurant” a la forme d’un disque. En dimension 1, l’érosion (respectivement la dilatation)
appliquée à un signal 1D consiste à isoler en chaque point du signal la valeur minimale (respectivement
maximale) observée sur un support de longueur donnée constituant l’élément structurant centré au point
considéré. Les opérations d’érosion et de dilatation appliquées à un signal 1D sont illustrées sur la figure
4.1(a). La généralisation de ces opérations aux surfaces 2D est possible et l’élément structurant est donc
une surface carrée, un disque, ... Dans ce cas, l’érosion (respectivement la dilatation) en un point donné
revient à détecter l’intensité minimale (respectivement maximale) observée sur le support de l’élément
structurant centré en ce point. L’opération d’ouverture est définie par une érosion suivie d’une dilatation.
La méthode “top-hat” identifie la composante “fond” comme le résultat d’une opération d’ouverture
en considérant un “élément structurant” de la forme d’un disque, ce qui revient à extraire les moyennes
locales (sur le support de l’élément structurant) de l’image. La composante “objet” est simplement
obtenue comme la différence entre la séquence d’images initiale et la composante “fond”.
Transformation H-Dome La transformation “H-Dome” (Vincent 1993) est une autre opération en
mor-phologie mathématique. Elle nécessite deux étapes. La première étape consiste à réaliser un filtrage
de l’image par un “Laplacien de Gaussienne” pour réhausser le signal. Ensuite, une reconstruction en
niveaux de gris (Vincent 1993) est appliquée à l’image filtrée, en utilisant un masque défini comme
l’image filtrée à laquelle est soustrait la constanteh
d. Cette opération a pour effet d’extraire les régions
situées dans le voisinage des maxima locaux de l’image filtrée, pour lesquelles la différence d’intensité
avec celle observée au maximum local le plus proche est inférieure àh
d. Cette transformation produit
une composante “objet” dont l’intensité est comprise dans l’intervalle[0, h
d]. Les régions rattachées à
cette composante sont localisées dans le voisinage des maxima d’intensité locaux, ayant pour effet de
générer des structures en forme de dômes. Contrairement à la méthode “top-hat”, aucun critère de forme
ou de taille n’est imposé dans le processus de détection.
Rolling ball La méthode “rolling ball” (Sternberg 1983) est largement utilisée par les biologistes et
disponible sous ImageJ sous le nom “substract background”. C’est une extension de la méthode
“top-hat” en 3D, l’intensité étant considérée comme la troisième dimension. L’“élément structurant” coïncide
avec une boule. L’érosion (respectivement la dilatation) ne consiste plus à extraire le minimum
(respec-tivement maximum) sur le support associé à l’“élément structurant”. Cette fois-ci, il s’agit d’extraire
la valeur minimale (respectivement maximale) résultant de l’intensité observée sur ce même support,
pondérée par la distance du pixel considéré au centre de l’“élément structurant”. La méthode “rolling
ball” traite l’image comme une surface dont l’altitude dépend de l’intensité observée. De manière
figu-rative, l’idée est de faire rouler une boule sous la surface. Toutes les régions où la boule est en contact
avec l’image appartiendront à la composante “fond” tandis que les régions qui ne peuvent être en contact
avec la boule sont supprimées (figure4.1(b)).
Séparation des composantes “objet” et “fond” en chaque pixel de l’image
En analyse de séquences d’images, l’approche unidimensionnelle traite chaque signal
indépendam-ment du contexte spatial. Pour séparer le fond et les objets, l’idée clé est de tirer profit du
photoblanchi-ment inhérent lors de l’acquisition des séquences d’images. Le photoblanchiphotoblanchi-ment se caractérise par un
déclin de l’intensité au cours du temps. La présence de vésicules est associée à des sauts d’intensité pour
lesquels il est difficile d’exhiber un modèle paramétrique. À titre d’exemple, l’évolution de l’intensité
observée au cours du temps en trois pixels extraits d’une séquence d’images de vidéo-microscopie est
illustrée dans la figure4.2.
Méthode paramétrique pour la soustraction de fond Boulanger, Kervrann & Bouthemy (2009)
iden-tifient trois composantes pour représenter un signal temporel de microscopie de fluorescence :
I=I
f ond+I
objet+ξ, (4.20)
où [I
1|I
2| · · · |I
T]est une matrice de dimension N
I×T et désigne la composante “fond”, I
objetest
une matrice de dimensionN
I×T et représente la composante “objet”,ξ est le bruit supposé blanc et
gaussien de dimension NI ×T,NI représente le nombre de pixels dans l’image et T est le nombre
d’images de la séquence. L’idée est d’estimer la composante “fond”, puis de déduire la composante
“objet”. Le photoblanchiment observé dans la composante “fond” peut être estimé en considérant un
modèle décrivant le phénomène de photoblanchiment. Un modèle exponentiel permet notamment de
décrire le phénomène de photoblanchiment (Benson, Bryan, Plant, Gotto Jr & Smith 1985). Cependant
Boulanger, Kervrann & Bouthemy (2009) ont adopté un modèle linéaire, plus simple. L’approximation
linéaire du déclin est suffisante si on ne prend pas en compte les premières images de la séquence. Au
pixelset à l’instantt, on a :
I
tf ond(s) =a
f ond(s) +b
f ond(s)t. (4.21)
La problématique centrale vise à estimer les cartes a
f ondet b
f ondafin de récupérer la composante
“fond”. Par différence avec la séquence d’origine, la composante “objet” sera déduite. Boulanger, Kervrann
& Bouthemy (2009) proposent d’utiliser un M-estimateur asymétrique pour estimer ces deux cartes. On
cherche les paramètresa
f ond(s)etb
f ond(s), en chaque point de l’image 2D, qui minimisent le critère
suivant :
J
BKB(a
f ond(s), b
f ond(s)) =
TX
t=1ρ(I
t(s)−(a
f ond(s) +b
f ond(s)t)), (4.22)
où ρ est une fonction d’influence robuste. D’après les courbes (2-4) de la figure 4.2, la composante
“fond” coïncide avec l’enveloppe convexe inférieure du signal. Par ailleurs,I
f ondest positive, ce qui se
traduit par une densité de probabilité du bruit fortement asymétrique. Boulanger, Kervrann & Bouthemy
(2009) préconisent la fonction de Leclerc asymétrique :
ρ(z) =
1−exp
−z
2σ
12siz≥0,
1−exp
−z
2σ
22sinon,
(4.23)
(1) (2)
(3) (4)
FIGURE4.2: (1) Image de vidéo-microscopie ; (2-4) évolution de l’intensité au cours du temps (courbe bleue) ob-servée aux pixels 1, 2 et 3 labellisés dans l’image (1). La courbe verte est la composante “fond” obtenue avec la méthode paramétrique, la courbe rouge est la composante “fond” identifiée par la méthode “Hullkground”.
oùσ
1etσ
2désignent deux paramètres d’échelle. Les résultats de cette approche sont présentés sur la
figure4.2.
Méthode Hullkground Chessel, Cinquin, Bardin, Kervrann & J. (2009) caractérisent de manière non
paramétrique la composante “fond” directement par l’enveloppe convexe inférieure du signal. On
sup-pose alors que les variations du signal de type “pics” ou “bosses” doivent appartenir à la composante
“objet” (figure4.3). L’enveloppe convexe inférieure est extraite selon le principe des “α-shapes” tels
que définis en géométrie algorithmique. L’idée repose sur un sous-échantillonnage adaptatif du signal
original 1D. Les points pour lesquels la surface de concavité est inférieure à√
αappartiennent à la
com-posante “fond”. On atteint l’enveloppe convexe du signal siα → ∞. Un signal continu est reconstruit
par interpolation linéaire du signal, pour lequel les points de concavité supérieure à √
α ont été
sup-primés. L’extraction des composantes pseudo-convexes est effectuée indépendamment en chaque pixel,
et le résultat est de manière étonnante spatialement régulier sur des images de vidéo-microscopie sans
qu’aucune régularité ne soit imposée lors du calcul de la composante convexe. La différence entre la
séquence d’images originale et les composantes convexes extraites en chaque pixel permet d’identifier
la composante “objet” de la séquence. Les résultats obtenus avec cet algorithme sont présentés sur la
figure4.2.
(1) (2) (3)
FIGURE4.3: Illustration de la décomposition d’un signal par la méthode “Hullkground”. (1) Signal synthétique ob-servé en un pixel d’une image de microscopie de fluorescence ; (2) enveloppe convexe du signal (1) représentative de la composante “fond” ; (3) soustraction de la composante “fond” (2) au signal original (1) permettant d’identifier la composante “objet”. Trois objets sont ainsi mis en évidence.