• Aucun résultat trouvé

4. Segmentation des cellules 57

4.3. Segmentation

4.3.1. Détection des cellules

Afin d’éviter tant que faire se peut les problèmes de sur-segmentation, nous allons

sélectionner les minima calculés sur l’image précédemment filtrée. En effet, L’étape de

détection des marqueurs est critique au sens ou elle détermine à l’avance le nombre

et la position des régions de la future segmentation, et donc des cellules segmentées.

L’utilisation de tous les minima de l’image

Figure 4.6.: Action du filtre alterné séquentiel sur une image de bouton floral

d’Ara-bidopsis. A gauche : image initiale, à droite : de a à f, résultat du filtrage

alterné séquentiel commençant par une fermeture avec un élément

struc-turant final de taille croissante (boule discrète de rayon allant de 1 à 6).

Le filtrage alterné séquentiel permet de supprimer les structures gênantes,

comme les structures claires au milieu des cellules (flèches grises,

dispa-rition des structures inutiles entre a et d). Il convient cependant de bien

calibrer la taille finale de l’élément structurant pour ne pas supprimer les

structures utiles, comme les parois qui commencent ici à disparaître à

par-tir d’un rayon de 4 voxels (flèches violettes, disparition des parois entre d

et f).

Figure 4.7.: Action de l’opérateur h-min sur un signal f. A gauche : situation initiale,

avec 5 minima dont 3 de profondeur inférieure ou égale à 3. Au milieu :

augmentation de f d’une hauteur de 3, puis érosion ultime au-dessus de f.

A droite : l’érodé ultime de f + 3au-dessus de f constitue une image des

maxima régionaux de valeur strictement supérieure à 3.

Comme une simple extraction de minima régionaux de l’image génère une quantité

trop importante de marqueurs, plusieurs approches ont été développées, comme la

classi-fication des minima par profondeur [Zhao and Popescu, 2007], pour la construction d’une

segmentation hiérarchique. Cette segmentation hiérarchique contient plusieurs niveaux

de segmentation. Chacun de ces niveaux peut être obtenu en sélectionnant comme sources

les minima régionaux d’une certaine profondeur, et la segmentation finale choisie parmi

différentes segmentations correspondant à différents niveaux de profondeur. Il faut noter

qu’on ne peut choisir un même niveau de profondeur constant dans l’image que si les

structures présentent un niveau de contraste à peu près constant. On peut considérer en

approximation que c’est le cas grâce à la méthode de réglage des paramètres que nous

avons évoqué précédemment, qui consiste à produire un gradient du gain et de la

puis-sance du laser pour compenser l’atténuation du signal lorsque la profondeur traversée

augmente.

Pour détecter les minima d’une profondeurh, nous avons utilisé un filtre morphologique

appelé opérateurh-min, qui permet de ne sélectionner que les minima dont la profondeur

est strictement supérieure au seuil h donné en paramètre [Soille, 1999]. Le paramètre h

permet de contrôler la pertinence des minima à extraire : deux bassins voisins seront

réunis si ceux-ci sont séparés par une « montagne » d’altitude minimale inférieure à h

(voir figure 4.7).

Le paramètre est réglé par l’utilisateur pour chaque série d’images, en inspectant le

résultat de la segmentation en fonction de h sur une sous-image, grâce à un interface

d’assistance à la segmentation. Pour les données que nous avons traitées dans nos travaux,

la valeur optimale de h se situe généralement entre 3 et 5 pour les images de boutons

floraux, et entre 4 et 6 pour les images de racines.

4.3.2. Contourage des cellules par transformation en ligne de partage des

eaux

Pour obtenir le contourage des cellules, on calcule la LPE de l’image reconstruite à

partir des marqueurs détectés à l’étape précédente. La LPE est une méthode de choix pour

segmenter des images de cellules, et plus particulièrement de tissus complexes comme les

méristèmes, car elle permet de contourer simultanément un grand nombre d’objets.

Nous avons utilisé la méthode classique mais sans calcul préalable de l’image de

gra-dient, et avec une implémentation similaire à celle de Vincent et Soille, après quelques

modifications puisque nous utilisons des minima pré-détectés. Enfin, nous avons

déve-loppé une modification de l’étape finale de calcul des zones d’influence géodésique afin

de rendre les régions plus régulières.

4.3.2.1. Image utilisée comme relief topographique

Le schéma classique d’application de la LPE s’applique à la segmentation de structures

d’intensité homogènes séparées par des zones de transition. Dès lors, le calcul de la LPE

est classiquement précédée par un calcul de la norme du gradient, qu’on utilise comme

image de relief, afin que les zones claires (norme du gradient élevée) dessinent bel et

bien les zones de transition entre régions. Dans notre cas, il n’est pas nécessaire d’avoir

recours au calcul du gradient, puisque le marquage utilisé cible déjà les frontières entre

les cellules, parois ou membranes selon les cas, les faisant apparaître claires dans nos

images. Nous utilisons donc l’image initiale comme image de relief.

4.3.2.2. Modifications de l’algorithme liées à la détection des minima

L’implémentation du watershed que nous avons utilisée étant basée sur l’initialisation

par des graines précalculées, nous n’avons pas explicitement calculé de segmentation

hié-rarchique en fonction du niveauhdes minima. Nous avons donc mis en place un interface

ergonomique permettant de choisirh parmi plusieurs valeurs suggérées, en visualisant le

résultat obtenu sur des sous-images.

4.3.2.3. Attribution des voxels situés aux frontières entre plusieurs zones

Les problèmes proviennent du fait que lors de la propagation des étiquettes de proche

en proche, certains voxels se retrouvent simultanément adjacents à deux zones, et peuvent

donc prendre l’une ou l’autre des étiquettes. Dans l’algorithme de Vincent et Soille

[Vincent and Soille, 1991], ceux-ci se voient attribuer une étiquette spéciale, WSHED,

qui est remplacée par une des étiquettes d’une des régions adjacentes à la fin de la

propagation des étiquettes dans un niveau de gris. Nous avions choisi comme première

heuristique d’attribuer l’étiquette du premier bassin rencontré dans l’ordre d’évaluation.

Lors des premiers essais de calcul de la LPE, cette règle donnait lieu à des frontières

parfois assez irrégulières, et à un nombre important de configurations singulières des

éti-quettes dans l’image, qui provoquaient des ambiguïtés lors de la construction des modèles

des cellules (voir chapitre 6).

Règle d’attribution \ fréquence des singularités 18-singularités 26-singularités

étiquette la moins représentée 4.1 10

−4

6.9 10

−6

première étiquette rencontrée 1.3 10

−4

7.0 10

−7

étiquette la plus représentée 1.2 10

−5

1.5 10

−8

Table4.1.: Influence de la règle d’attribution des points frontières sur la fréquence des

singularités dans l’image.

En effet, puisque nous utilisons une propagation par 6-connexité, nous sommes assurés

que les régions obtenues seront 6-connexes. Toutefois, les singularités peuvent néanmoins

survenir, par exemple si 2 « extensions » issues de la propagation se rejoignent, un peu

comme les branches d’une pince qui se referme. Nous définissions donc 2 types de

singu-larités :

– la 18-singularité : dans un sous-ensemble de 2x2x1 (ou 2x1x2, ou 1x2x2) voxels, 2

voxels diagonalement opposés (qui sont donc 18-connexes) ont la même étiquette,

différente de celle(s) des deux autres voxels ;

– la 26-singularité : dans un sous-ensemble de 2x2x2 voxels, 2 voxels (grand-)diagonalement

opposés (qui sont donc 26-connexes) ont la même étiquette, différente de celle(s) des

6 autres voxels.

Le nombre ou la fréquence de ces singularités nous donne une mesure de la régularité

des frontières obtenues. Nous avons testé 3 règles d’attribution des voxels situés entre 2

régions, à partir des étiquettes présentes dans le 6-voisinage du voxel considéré :

– l’étiquette la moins représentée,

– l’étiquette la plus représentée,

– la première étiquette rencontrée, cette dernière règle dépendant du parcours des

points et étant celle préconisée dans [Vincent and Soille, 1991].

De manière non surprenante, la première règle donne les frontières les plus irrégulières

(cf tableau 4.1). Les résultats montrent que du choix de la règle résulte un nombre de

18-singularités variant dans une proportion de 1 à près de 40, et un nombre de 26-18-singularités

variant dans une proportion de 1 à 450, la règle consistant à prendre l’étiquette la plus

représentée étant celle qui produit les meilleurs résultats, c’est-à-dire le nombre le plus

faible de singularités.