• Aucun résultat trouvé

Méthodes de séparation des composantes “objet” et “fond” en vidéo-microscopie 84

3.4 Bilan

4.1.2 Méthodes de séparation des composantes “objet” et “fond” en vidéo-microscopie 84

oùa

G

etb

G

etσ

G2

désignent les paramètres du modèle permettant de représenter la PSF. Cette approche,

plus coûteuse en temps de calcul que les précédentes présente l’avantage de détecter assez précisément

les objets d’intérêt (Cheezum et al. 2001, Thomann et al. 2002).

Méthodes d’apprentissage supervisé

Ces méthodes visent à apprendre une “signature” des objets d’intérêt pour les détecter ensuite.

Méthode AdaBoost L’approche “AdaBoost” (Viola & Jones 2001) est souvent utilisée pour la détection

d’objets en analyse d’images, et a récemment été évaluée en imagerie biologique moléculaire (Jiang

et al. 2007) pour la détection de spots. L’algorithme “AdaBoost” repose sur une détection par maximum

de vraisemblance. De petits motifs d’image sont classés comme positifs (présence d’un objet) ou

négat-ifs (absence d’objet) suivant la réponse combinée de plusieurs classifieurs faibles. Dans leurs travaux,

Jiang et al. (2007) préconisent l’utilisation de caractéristiques de Haar. Chaque caractéristique est décrite

par une forme d’apparence géométrique, des coordonnées relatives à l’origine de la fenêtre de recherche

et un facteur d’échelle. Muni de cet ensemble et d’une base d’apprentissage composée d’autant de motifs

étiquetés “positifs” que “négatifs”, le classifieur est entraîné. L’algorithme “AdaBoost” sélectionne alors

un nombre restreint de caractéristiques visuelles. La séparation entre motifs étiquetés “positifs” et

“né-gatifs” est obtenue en déterminant un seuil adapté à chaque caractéristique pour chaque passe de la phase

d’apprentissage. La classification finale résulte d’une combinaison linéaire pondérée de l’ensemble des

caractéristiques utilisées.

4.1.2 Méthodes de séparation des composantes “objet” et “fond” en vidéo-microscopie

Des méthodes permettant de séparer directement les composantes “objet” et “fond” sans passer par

une étape préliminaire de détection ont aussi fait l’objet de travaux que nous évoquons dans cette section.

Morphologie mathématique

La morphologie mathématique est apparue dans les années 60 suite aux travaux menés par G.

Math-eron et J. Serra (Serra 1967). Issue de la théorie des ensembles, elle s’intéresse aux caractéristiques

morphologiques des objets présents dans une image, via des transformations non linéaires requérant la

définition d’un “élément structurant”. Les différents filtres que nous décrivons se déclinent notamment

en fonction du choix de cet élément.

(a) (b)

FIGURE4.1: (a) Érosion (courbe rouge) et dilatation (courbe verte) appliquées à la courbe bleue en considérant un segment de longueur 5 comme “élément structurant” ; (b) Illustration de l’effet de l’algorithme “ rolling ball”. Sur cette figure, la boule ne peut pas entrer en contact avec la surface interne du pic, les pixels en question appartiendront donc à la composante “objet”.

“élément structurant” a la forme d’un disque. En dimension 1, l’érosion (respectivement la dilatation)

appliquée à un signal 1D consiste à isoler en chaque point du signal la valeur minimale (respectivement

maximale) observée sur un support de longueur donnée constituant l’élément structurant centré au point

considéré. Les opérations d’érosion et de dilatation appliquées à un signal 1D sont illustrées sur la figure

4.1(a). La généralisation de ces opérations aux surfaces 2D est possible et l’élément structurant est donc

une surface carrée, un disque, ... Dans ce cas, l’érosion (respectivement la dilatation) en un point donné

revient à détecter l’intensité minimale (respectivement maximale) observée sur le support de l’élément

structurant centré en ce point. L’opération d’ouverture est définie par une érosion suivie d’une dilatation.

La méthode “top-hat” identifie la composante “fond” comme le résultat d’une opération d’ouverture

en considérant un “élément structurant” de la forme d’un disque, ce qui revient à extraire les moyennes

locales (sur le support de l’élément structurant) de l’image. La composante “objet” est simplement

obtenue comme la différence entre la séquence d’images initiale et la composante “fond”.

Transformation H-Dome La transformation “H-Dome” (Vincent 1993) est une autre opération en

mor-phologie mathématique. Elle nécessite deux étapes. La première étape consiste à réaliser un filtrage

de l’image par un “Laplacien de Gaussienne” pour réhausser le signal. Ensuite, une reconstruction en

niveaux de gris (Vincent 1993) est appliquée à l’image filtrée, en utilisant un masque défini comme

l’image filtrée à laquelle est soustrait la constanteh

d

. Cette opération a pour effet d’extraire les régions

situées dans le voisinage des maxima locaux de l’image filtrée, pour lesquelles la différence d’intensité

avec celle observée au maximum local le plus proche est inférieure àh

d

. Cette transformation produit

une composante “objet” dont l’intensité est comprise dans l’intervalle[0, h

d

]. Les régions rattachées à

cette composante sont localisées dans le voisinage des maxima d’intensité locaux, ayant pour effet de

générer des structures en forme de dômes. Contrairement à la méthode “top-hat”, aucun critère de forme

ou de taille n’est imposé dans le processus de détection.

Rolling ball La méthode “rolling ball” (Sternberg 1983) est largement utilisée par les biologistes et

disponible sous ImageJ sous le nom “substract background”. C’est une extension de la méthode

“top-hat” en 3D, l’intensité étant considérée comme la troisième dimension. L’“élément structurant” coïncide

avec une boule. L’érosion (respectivement la dilatation) ne consiste plus à extraire le minimum

(respec-tivement maximum) sur le support associé à l’“élément structurant”. Cette fois-ci, il s’agit d’extraire

la valeur minimale (respectivement maximale) résultant de l’intensité observée sur ce même support,

pondérée par la distance du pixel considéré au centre de l’“élément structurant”. La méthode “rolling

ball” traite l’image comme une surface dont l’altitude dépend de l’intensité observée. De manière

figu-rative, l’idée est de faire rouler une boule sous la surface. Toutes les régions où la boule est en contact

avec l’image appartiendront à la composante “fond” tandis que les régions qui ne peuvent être en contact

avec la boule sont supprimées (figure4.1(b)).

Séparation des composantes “objet” et “fond” en chaque pixel de l’image

En analyse de séquences d’images, l’approche unidimensionnelle traite chaque signal

indépendam-ment du contexte spatial. Pour séparer le fond et les objets, l’idée clé est de tirer profit du

photoblanchi-ment inhérent lors de l’acquisition des séquences d’images. Le photoblanchiphotoblanchi-ment se caractérise par un

déclin de l’intensité au cours du temps. La présence de vésicules est associée à des sauts d’intensité pour

lesquels il est difficile d’exhiber un modèle paramétrique. À titre d’exemple, l’évolution de l’intensité

observée au cours du temps en trois pixels extraits d’une séquence d’images de vidéo-microscopie est

illustrée dans la figure4.2.

Méthode paramétrique pour la soustraction de fond Boulanger, Kervrann & Bouthemy (2009)

iden-tifient trois composantes pour représenter un signal temporel de microscopie de fluorescence :

I=I

f ond

+I

objet

+ξ, (4.20)

où [I

1

|I

2

| · · · |I

T

]est une matrice de dimension N

I

×T et désigne la composante “fond”, I

objet

est

une matrice de dimensionN

I

×T et représente la composante “objet”,ξ est le bruit supposé blanc et

gaussien de dimension NI ×T,NI représente le nombre de pixels dans l’image et T est le nombre

d’images de la séquence. L’idée est d’estimer la composante “fond”, puis de déduire la composante

“objet”. Le photoblanchiment observé dans la composante “fond” peut être estimé en considérant un

modèle décrivant le phénomène de photoblanchiment. Un modèle exponentiel permet notamment de

décrire le phénomène de photoblanchiment (Benson, Bryan, Plant, Gotto Jr & Smith 1985). Cependant

Boulanger, Kervrann & Bouthemy (2009) ont adopté un modèle linéaire, plus simple. L’approximation

linéaire du déclin est suffisante si on ne prend pas en compte les premières images de la séquence. Au

pixelset à l’instantt, on a :

I

tf ond

(s) =a

f ond

(s) +b

f ond

(s)t. (4.21)

La problématique centrale vise à estimer les cartes a

f ond

et b

f ond

afin de récupérer la composante

“fond”. Par différence avec la séquence d’origine, la composante “objet” sera déduite. Boulanger, Kervrann

& Bouthemy (2009) proposent d’utiliser un M-estimateur asymétrique pour estimer ces deux cartes. On

cherche les paramètresa

f ond

(s)etb

f ond

(s), en chaque point de l’image 2D, qui minimisent le critère

suivant :

J

BKB

(a

f ond

(s), b

f ond

(s)) =

T

X

t=1

ρ(I

t

(s)−(a

f ond

(s) +b

f ond

(s)t)), (4.22)

où ρ est une fonction d’influence robuste. D’après les courbes (2-4) de la figure 4.2, la composante

“fond” coïncide avec l’enveloppe convexe inférieure du signal. Par ailleurs,I

f ond

est positive, ce qui se

traduit par une densité de probabilité du bruit fortement asymétrique. Boulanger, Kervrann & Bouthemy

(2009) préconisent la fonction de Leclerc asymétrique :

ρ(z) =

1−exp

z

2

σ

12

siz≥0,

1−exp

z

2

σ

22

sinon,

(4.23)

(1) (2)

(3) (4)

FIGURE4.2: (1) Image de vidéo-microscopie ; (2-4) évolution de l’intensité au cours du temps (courbe bleue) ob-servée aux pixels 1, 2 et 3 labellisés dans l’image (1). La courbe verte est la composante “fond” obtenue avec la méthode paramétrique, la courbe rouge est la composante “fond” identifiée par la méthode “Hullkground”.

oùσ

1

etσ

2

désignent deux paramètres d’échelle. Les résultats de cette approche sont présentés sur la

figure4.2.

Méthode Hullkground Chessel, Cinquin, Bardin, Kervrann & J. (2009) caractérisent de manière non

paramétrique la composante “fond” directement par l’enveloppe convexe inférieure du signal. On

sup-pose alors que les variations du signal de type “pics” ou “bosses” doivent appartenir à la composante

“objet” (figure4.3). L’enveloppe convexe inférieure est extraite selon le principe des “α-shapes” tels

que définis en géométrie algorithmique. L’idée repose sur un sous-échantillonnage adaptatif du signal

original 1D. Les points pour lesquels la surface de concavité est inférieure à√

αappartiennent à la

com-posante “fond”. On atteint l’enveloppe convexe du signal siα → ∞. Un signal continu est reconstruit

par interpolation linéaire du signal, pour lequel les points de concavité supérieure à √

α ont été

sup-primés. L’extraction des composantes pseudo-convexes est effectuée indépendamment en chaque pixel,

et le résultat est de manière étonnante spatialement régulier sur des images de vidéo-microscopie sans

qu’aucune régularité ne soit imposée lors du calcul de la composante convexe. La différence entre la

séquence d’images originale et les composantes convexes extraites en chaque pixel permet d’identifier

la composante “objet” de la séquence. Les résultats obtenus avec cet algorithme sont présentés sur la

figure4.2.

(1) (2) (3)

FIGURE4.3: Illustration de la décomposition d’un signal par la méthode “Hullkground”. (1) Signal synthétique ob-servé en un pixel d’une image de microscopie de fluorescence ; (2) enveloppe convexe du signal (1) représentative de la composante “fond” ; (3) soustraction de la composante “fond” (2) au signal original (1) permettant d’identifier la composante “objet”. Trois objets sont ainsi mis en évidence.

4.2 Une nouvelle approche : champs aléatoires conditionnels pour la séparation des

composantes “objet” et “fond”

Dans cette section, nous présentons la méthode de séparation des composantes “objet” et “fond”

que nous avons développée. En effet, les méthodes précédemment évoquées ne sont pas toujours

satis-faisantes pour traiter l’ensemble des signaux temporels aux profils assez variés. Elles ne prennent pas

non plus en compte les cohérences spatiale et temporelle conjointement. La méthode que nous

pro-posons utilise le formalisme des champs aléatoires conditionnels et une représentation des images par

motifs locaux. Les champs aléatoires conditionnels sont issus de travaux sur les champs de Markov, une

modélisation statistique des images dont nous rappelons ici les principaux éléments.

4.2.1 Modélisation markovienne et analyse d’images