• Aucun résultat trouvé

Classification "verticale" : Segmentation spatiale de l’image

Cet outil consiste à partitionner l’image en régions (directement à partir des valeurs des pixels) en deux ou plusieurs régions disjointes. L’image binaire obtenue, ou représentation numérique à 2 niveaux telle que présentée précédemment, est le résultat d’une classification réduite obtenu par seuillage de la classification naturelle donnée par les images (intensités lumineuses mesurées.)

Une image est une classification naturelle, puisque chaque pixel a pour étiquette sa valeur d’intensité. Le but d’une segmentation est de relier les pixels de même étiquette ou d’étiquettes proches ensemble, par paquets, à la condition que les pixels aient un "lien physique". On parle de connexité. Il existe différentes connexités. Les deux principales sont la connexité 4 ou la connexité 8. Pour que ce lien physique existe, il faut que le second pixel appartienne aux 4 ou 8 voisins considérés du premier pixel, sinon le lien n’existe pas.

FIGURE5.2 –Illustration de la segmentation. Division de l’image en deux régions : les ours et le fond. Source de l’image :Santner et al.(2011)

Il y a deux types de segmentation possibles :

• la segmentation dite "hard". Ainsi, le domaine de l’imageΣ est partitionné en k ensembles El avec l appartenant de 0 à k-1

k−1

[

l =0

El= (5.1)

telle que chaque pixel appartient à seulement un ensemble

Ei∩ Ej=∅∀i 6= j (5.2)

• la segmentation probabiliste, dite "soft". Elle associe à chaque pixel une probabilité d’appartenir à une classe plutôt qu’une autre. Cette technique est principalement utilisée pour la segmentation de volumes 3D dans les applications médicales ou vidéo avec des réprésentations spatio-temporelles.

La segmentation binaire, ou seuillage, revient à considérer une image numérique en niveaux de gris I(x,y) comme une fonction à deux dimensions sur un domaine rectangulaire Σ, où x et y sont les coordonnées spatiales. Le but est de trouver une division de l’image en deux régions représentées par une fonction de labellisation u(x, y) ǫ 0,1. La segmentation par seuillage donnant lieu à cette fonction de labellisation fait appel à un niveau de seuillage scalaire θ tel que :

u(x, y) = ½

1 : i f I(x, y) ≥ 0

0 : el se (5.3)

5.3.1 Ambiguïté

Un problème typique de segmentation présente souvent plusieurs solutions possibles qui ne sont pas nécessairement similaires les unes aux autres. Par exemple, au niveau de l’objet, le résultat dépend de l’interprétation de l’image pour savoir quelles parties sont à fusionner ou dissocier. Au niveau du pixel, il est souvent difficile de décider à quelle classe/région il appartient. Ces ambiguïtés peuvent être illustrées aux deux niveaux suivants :

L’ambiguïté au niveau objet. La figure 5.2 montre deux ours assis sur un banc de terre, segmentés tels qu’ils sont considérés comme une seule région, et tout le reste correspond à l’autre région. Cependant, il existe de nombreuses autres solutions possibles : la figure5.3montre différentes solutions. Aucune n’est correcte, ni mauvaise. Le bien-fondé d’une segmentation dépend uniquement de l’interprétation de l’image. Ce sera la même chose avec des anomalies d’aspects détectées qui sont connexes. Doit-on les séparer dans l’interprétation, notamment pour l’évaluation puis pour la décision, ou non ?

FIGURE 5.3 – Segmentations possibles basées sur les différentes interprétations de l’image. Source de l’image :Santner et al.(2011)

L’ambiguïté au niveau pixel. Outre les nombreuses interprétations possibles d’une image en termes de régions, il y a aussi beaucoup d’ambiguïté au niveau du pixel.

En supposant qu’il n’y ait qu’une seule interprétation de l’image comme le montre la figure 5.2 (par exemple quatre régions : deux ours distincts, banc de terre et arrière-plan), il y a encore de nombreuses segmentations possibles. La figure5.4illustre des cas particuliers avec deux pixels marqués :(a) un être humain peut facilement dire à quels segments (classes) appartiennent les pixels marqués ; (b) et (c), même un être humain a des difficultés pour assigner les pixels marqués à l’ours ou non (à noter que cette ambiguïté peut être correctement modélisée avec une segmentation probabiliste).

FIGURE 5.4 –Illustration de la complexité d’association d’un pixel à une région lorsqu’il est proche d’une frontière. Source de l’image :Santner et al.(2011)

5.3.2 Segmentation supervisée

Les méthodes présentées précédemment peuvent permettre de réaliser une segmentation supervisée de l’image, qui peut être utilisée, dans notre cas, suivant trois objectifs :

Réduction de la zone d’étude à l’objet, illustrée par les figures4.24et5.5

Le gain est principalement en temps de calcul et en mémoire quand l’objet ne couvre pas entièrement le champ d’observation. La zone considérée est alors réduite et le nombre de pixels traités est moindre. Néanmoins, les bords de l’objet peuvent être sujets à discussions comme "Sont-ils ou non inclus ?" ou "Faut-il ou non les inclure ?". Dans notre cas, les bords ou arêtes vives de régions d’objets métalliques ont tendance à être très brillants. Ainsi, il se peut que le défaut soit "caché" ou "noyé" dans l’information visuelle liée à la géométrie du bord.

Réduction de la zone d’étude aux défauts détectés, illustrée par la figure5.6

Le gain de cette méthode est qu’elle permet d’être "générique", c’est-à-dire que la recherche de défauts est indépendante de l’objet étudié. En revanche, la recherche peut être dépendante du type de défaut recherché.

FIGURE5.6 –Extraction générique de défauts de surface.

Réduction de l’étude aux défauts détectés dans la zone restreinte à l’objet comme combinaison des deux précédentes stratégies, illustrée par la figure 5.7. Cette méthode élimine les défauts faux-positifs dus à l’arrière plan si l’objet ne couvre pas l’ensemble du champ d’observation.