• Aucun résultat trouvé

3.1. Introduction

L’objectif dans lequel s’inscrit ce travail de thèse concerne le problème de classification d’images en attribuant chaque pixel à une classe parmi les différentes classes composant

l’image. Pour réaliser une telle classification, on suppose que nous disposons, pour chaque

classe, d’une ou de plusieurs propriétés de nature ambiguë décrivant nos connaissances a priori concernant cette classe. Ces propriétés sont explicitées par un expert. On suppose que les images considérées sont composées de M classes thématiques Cm, m = 1, 2, …, M

(connues a priori). Chaque pixel de l’image représente une cellule de résolution issue du

monde réel et il est observé via un capteur mesurant une quantité physique caractérisant ce pixel. Cette quantité nous est livrée sous la forme d’un niveau de gris. Les N niveaux de gris contenus dans l’image, sont considérés comme des singletons formant un ensemble  x1, x2,…. xN} dit univers des contenus informationnels.

Supposons, en plus, que l’on se trouve dans un contexte d’incertitude liée à la caractérisation de l’appartenance des éléments de à l’une des M classes de l’image. Il s’agit d’attribuer, à la lumière des connaissances disponibles, chaque pixel à l’une et une seule des classes thématiques. Ce contexte d’incertitude est idéalement traité si nous disposons de

connaissances probabilistes liées aux différentes distributions de probabilités (a priori, de vraisemblance et a posteriori,). Néanmoins, les connaissances disponibles, via les propriétés ambiguës sont de nature ambiguë décrivant des degrés d’harmonie ou d’appartenance partielle des pixels aux différentes propriétés caractérisant l’ensemble des classes. Il s’agit du contexte de l’application de la théorie des possibilités qui représente l’outil théorique le mieux adapté pour aborder une telle configuration (comme nous l’avons précisé dans le chapitre précédent).

54

En effet, la description des propriétés ambiguës sous la forme de fonctions d’appartenance

à des ensembles flous a été introduite par Zadeh [131].

Lorsque l’ensemble flou A est défini par une variable linguistique ou symbolique décrivant une propriété ambiguë liée aux singletons x, alors, la fonction d’appartenance réalise une

« projection » ou une représentation numérique des connaissances de l’expert dans l’espace de valeurs d’appartenance, que l’on appelle l’espace du flou. Le postulat de Zadeh (détaillé ultérieurement dans ce chapitre) nous permet de transposer les fonctions d’appartenance en

des distributions de possibilités aux différentes classes. Ceci nous place dans le formalisme de

l’application de la théorie des possibilités. Par conséquent, la définition des fonctions

d’appartenance (et donc, les distributions de possibilités) constitue un véritable challenge. Malheureusement, on est souvent amené à définir une telle fonction à partir d’un ensemble

réduit de connaissances disponibles sur la forme des fonctions d’appartenance et/ou à partir d’un faible nombre de données statistiques disponibles.

Cette problématique d’estimation des fonctions d’appartenance est traitée dans le présent chapitre en se limitant au domaine du traitement d’images et plus particulièrement, à la classification pixelique. Dans ce cas, représente, par défaut, l’ensemble des niveaux de gris de l’image. Il est à noter que  peut représenter un autre espace de primitives calculées à partir des niveaux de gris.

Considérons, à titre d’exemple, la caractérisation par un expert, de trois classes

thématiques contenues dans une image en utilisant des variables linguistiques liées à la luminosité des pixels de chaque classe (brillants, sombres, etc.) ou à une appréciation du niveau de texture (fortement texturé, faiblement texturé, etc.). Il pourrait également s’agir d’une propriété géométrique (proche d’un point donné, loin d’une zone, etc.).

Ce concept d’événements flous définis sur  et illustré via les fonctions d’appartenance données dans la figure 3.1. A partir de cette représentation, nous pouvons réaliser une

segmentation, dite floue ou possibiliste, de l’image considérée en attribuant à chaque

singleton (c’est-à-dire niveau de gris) une valeur de possibilité d’appartenir à une classe

donnée qui est égale à la valeur d’appartenance de ce même singleton à l’événement flou

correspondant (selon l’expert) à cette classe.

Sombre Moyen Brillant

µ

1

Figure 3.1 : Exemple de la représentation des degrés de luminosité dans l’espace du flou

55

Notons qu’un singleton peut ainsi appartenir à une seule classe ou à plusieurs classes avec différents degrés d’appartenance.

Dans la suite de ce chapitre, on présente une synthèse des méthodes existantes pour

l’estimation des fonctions d’appartenance en imagerie. Nous proposons ensuite l’adaptation d’une méthode d’estimation des fonctions d’appartenance dans le cadre de notre système de

segmentation. Les résultats obtenus, suite à l’utilisation de cette méthode pour la segmentation d’images mammographiques, sont exposés et commentés.

3.2. Méthodes de détermination des fonctions d’appartenance

Dans les applications de la théorie des ensembles flous, l’estimation des valeurs d’appartenance est considérée comme une tâche fondamentale et difficile [132-133]. De

nombreuses méthodes d’estimation des fonctions d’appartenance ont été proposées dans la littérature [134].

Dans le travail de D. Dubois et al. [135] et dans celui de Dévi et al. [136], une distribution

de probabilités est transformée en une distribution de possibilités. Notons qu’une telle

transformation représente une certaine cohérence conceptuelle, car les distributions de

probabilités et de possibilités s’appliquent sur la même forme d’imperfection de l’information, qui est l’incertitude.

D’autres méthodes ont aussi été proposées afin de transformer la distribution de probabilités en une fonction d’appartenance à un ensemble flou [129]. A la différence des méthodes précédemment citées, il s’agit de transformer une distribution de probabilités

modélisant l’incertitude, en une fonction d’appartenance représentant l’ambigüité, qui est une autre forme d’imperfection de l’information. Par conséquent, il s’agit d’une transformation

« purement » mathématique qui néglige la nature conceptuelle de l’imperfection représentée.

Nous pouvons également citer les méthodes d’estimation qui considèrent dans un premier temps des formes standards, ou prédéfinies, décrivant l’allure de fonctions d’appartenance

relatives à certaines propriétés ambiguës du contenu de l’image en termes de niveaux de gris, de relations spatiales, etc. Dans un second temps, la fonction d’appartenance est ajustée par

action sur les paramètres de la forme prédéfinie choisie, via un processus d’optimisation

appliqué sur des mesures floues (considérées comme des fonctions objectifs). On peut citer les mesures de l’entropie floue [133, 137, 96], la compacité [138-139] ou l’indice floue [133].

Ces fonctions seront détaillées ultérieurement au cours de ce chapitre.

Nous proposons de classer les techniques d’estimation des fonctions d’appartenance, que nous avons pu identifier dans la littérature, dans deux catégories : les méthodes guidées par

les connaissances d’expert et les méthodes à base d’apprentissage.

La première catégorie regroupe les techniques basées sur la « projection » des connaissances exprimées par les experts, afin de représenter directement, ou indirectement,

56

catégorie exploitent des données issues d’une phase d’apprentissage afin d’estimer les degrés d’appartenance des pixels aux différentes classes thématiques.

Dans la suite, nous présentons brièvement les deux catégories d’estimation des fonctions d’appartenance.

3.2.1. Méthodes guidées par les connaissances d’expert

Le principe général de ces méthodes consiste à réaliser la projection d’une propriété caractérisant une classe thématique de l’image sous la forme d’une fonction d’appartenance en se basant sur les connaissances d’expert. Cette projection est effectuée par un expert qui

choisit la forme de la fonction d’appartenance qui lui semble la plus adéquate. Cette sélection

est réalisée à partir d’un ensemble comportant des formes standards de fonctions

d’appartenance (voir chapitre 2). L’évaluation des degrés d’appartenance par ces méthodes

dépend donc du savoir-faire de l’expert et de sa capacité à représenter les propriétés caractérisant les classes d’une manière qui permette de mesurer la force de liaison entre les pixels et les propriétés considérées. Deux approches sont essentiellement identifiées :

l’approche directe et l’approche indirecte.

3.2.1.1. Approche directe

Dans cette approche [46-47], le processus d’estimation de la fonction d’appartenance est totalement dépendant des connaissances de l’expert et de son expérience, quant à la définition de l’allure de la fonction, ainsi qu’au choix de ses paramètres.

Le processus d’estimation de cette méthode peut être résumé comme suit : tout d’abord, l’expert détermine, selon le problème traité, les formes des fonctions d’appartenance qui

correspondent au mieux aux propriétés décrivant les classes à caractériser. L’expert choisit, ensuite, d’une façon manuelle, empirique et directe les valeurs des paramètres associés à la fonction d’appartenance.

Notons que cette approche représente une évaluation peu robuste des degrés

d’appartenance, étant donné qu’elle repose uniquement sur l’expérience propre à l’expert qui

a réalisé cette mission. Un expert différent aurait pu, très probablement, réaliser d’autres choix, engendrant ainsi une fonction d’appartenance d’une toute autre allure pour estimer la même connaissance. En d’autres termes, le résultat de l’estimation des valeurs des paramètres, et donc les valeurs d’appartenance, sont sujets à une variabilité inter - opérateurs.

3.2.1.2. Approche indirecte

Dans ce type d’approches, on a bien recours aux compétences de l’expert pour une définition approximative de la forme la plus appropriée pour l’estimation de la fonction d’appartenance. Quant à l’ajustement des paramètres liés à la fonction d’appartenance en

question, l’expert cède la main à des processus automatiques d’optimisation [133, 96, 141].

Ceci permet d’accomplir cette tâche d’estimation d’une manière plus efficace et surtout plus

objective. De tels processus utilisent des mesures floues, calculées à partir des niveaux de

57

algorithmes d’optimisation qui les manipulent en vue d’estimer des paramètres des fonctions

d’appartenance, sont détaillés dans la suite de ce paragraphe.

Remarquons que l’approche indirecte peut être considérée comme une technique

« intelligente » d’estimation. Elle conduit à des résultats plus précis que l’approche directe

grâce aux valeurs optimisées des paramètres, en fonction de mesures liées au contenu de

l’image. Par conséquent, les valeurs d’appartenance estimées sont indépendantes de la

subjectivité de l’expert humain.

Les mesures floues évoquées précédemment peuvent être considérées comme étant des fonctions objectifs à optimiser.

Nous proposons, dans ce qui suit, de présenter quelques exemples de mesures floues

proposées dans la littérature, avant d’aborder les algorithmes employés pour l’optimisation

des paramètres.

A. Les mesures floues

Les mesures floues représentent des issues de la théorie des ensembles flous et permettent

d’évaluer la quantité de l’information ambiguë « incluse » dans l’image. Les mesures floues que nous avons identifiées dans la littérature sont : l’entropie floue, la compacité et l’indice

flou.

a. Entropie floue

L’entropie est apparue dans la théorie de communications de Shannon pour mesurer l’efficacité des informations transmises dans un canal de communication bruité [140].

Le concept de l’entropie a été très utilisé dans les applications de traitement d’image [44]. En

segmentation par exemple, l’entropie a été utilisée comme une mesure permettant le choix d’un seuil optimal à partir de l’histogramme des niveaux de gris d’une l’image. La valeur optimale du seuil est celle correspondante à l’entropie maximale [44, 141]. H.D. Cheng et al.

[96] ont abordé le problème d’estimation des fonctions d’appartenance en traitement d’images en utilisant l’entropie. L’idée de ce travail consiste à transformer les niveaux de gris des pixels en des degrés d’appartenance. L’image traitée est considérée comme étant composée

d’une classe de pixels brillantes et d’une autre classe de pixels sombres.

Afin de choisir les paramètres liés à la forme de la fonction d’appartenance (représentant la

classe des pixels brillants), l’entropie a été utilisée comme une fonction objectif à optimiser.

Mathématiquement, l’entropie définie par Shannon s’exprime comme suit [140] :

Considérons l’univers des contenus informationnels  x1, x2,…. xN}, où chaque élément xn, n = 1, …, N, est associé à une mesure pn = p(xn) de sa probabilité d’occurrence. L’entropie

H associée à la distribution de probabilité {pn}n = 1, …, N est définie par :

N

n n n 1

58

La transposition de la définition de Shannon à un contexte bidimensionnel comme celui de

l’image, peut être formulée directement par :

N

n n n 1

H p(x ). log p(x )

où p(xn) représente la mesure de probabilité d’un pixel ayant un niveau de gris xn. La définition de Shannon ne considère que la densité de probabilité des pixels sans tenir compte

des propriétés floues de l’information traitée. De ce fait, Zadeh [131] a proposé une autre définition de l’entropie, d’une manière permettant de prendre en compte à la fois la fonction d’appartenance et la densité de probabilité. Cette entropie, appelée l’entropie floue, peut être définie comme suit :

On considère une nouvelle distribution de probabilités P définie, pour chaque élément xn,

n=1, …, N, par :

n A n n

P( )x µ ( ).p( )x x

où µ ( )A xn désigne la valeur d’appartenance du pixel ayant un niveau de gris xn à un ensemble flou A.

L’entropie floue est alors définie comme suit :

N

n n n 1

H(A) P(x ). log P(x )

L’idée de considérer l’entropie maximale comme mesure de qualité vient de l’hypothèse de Zadeh [131], qui suppose que l’occurrence de l’intensité d’un niveau de gris est un évènement flou. Selon le principe de l’entropie maximale, un évènement flou contient plus d’information lorsque l’entropie qui lui est associée est maximale. D’où l’idée fondamentale de déterminer

les paramètres de la fonction d’appartenance correspondant à l’entropie maximale.

b. La compacité

Les propriétés géométriques des objets présents dans une image jouent un rôle fondamental

dans la description du contenu de l’image. D’une manière générale, les régions d’une image

peuvent avoir des contours non délimités, ce qui mène à considérer ces régions comme des ensembles flous. A. Rosenfeld [142] a introduit le concept de géométrie floue. Parmi les mesures géométriques floues, la compacité floue permet d’évaluer l’ambiguïté géométrique de l’objet dans une image [138, 142]. Elle représente le rapport entre la surface de l’objet et

son périmètre. Il s’agit donc d’une mesure qui se base essentiellement sur la forme de la

59

Pour une région Z présentée dans une image de taille KxK, le calcul de sa compacité floue est réalisé en associant à chaque pixel de l’image un degré d’appartenance à cette région. Ensuite, la surface a(Z) et le périmètre p(Z) de la région, sont calculés comme suit :

k ij i, j 1 a( )Z µ k k i, j i, j 1 i, j i 1, j i, j 1 i, j 1 P( )Z µ µ µ µ

La compacité s’exprime alors comme suit :

2 a( ) Comp( ) p ( ) Z Z Z

µij désigne le degré d’appartenance de pixel (i,j) à la région Z. Dans le travail de W.Tao et al. [139], la compacité a été utilisée comme une mesure floue permettant le choix optimal d’un seuil servant à la segmentation d’une région d’intérêt dans une image. Ce choix est réalisé par

la minimisation de la compacité.

c. Indice flou

Le concept d’indice flou a été présenté par Kaufmann [143]. En traitement d’image, cet indice est utilisé comme une mesure floue permettant l’optimisation des paramètres associés à la fonction d’appartenance. L’indice flou est défini comme suit:

N n A n A n n 1 2 ( ) h( ). min(µ ( ),1 µ ( )) K.K A x x x

où h(.) désigne l’histogramme de l’image considérée, xn le niveau de gris et A un ensemble flou défini sur cette image et KxK est la taille de l’image.

Nieradka et al. [133] ont estimé une fonction d’appartenance à partir des niveaux de gris de l’image en utilisant l’entropie floue et l’indice flou comme fonctions objectifs à maximiser, afin de déduire les valeurs optimales des paramètres. Les paramètres utilisés sont une combinaison des paramètres trouvés par les deux mesures.

Dans le paragraphe suivant, nous allons présenter un aperçu des algorithmes d’optimisation

classiquement employés dans l’approche indirecte.

B. Algorithmes d’optimisation

Différents algorithmes d’optimisation ont été proposés dans la littérature pour l’estimation des paramètres associés à une fonction d’appartenance. Parmi ces algorithmes nous pouvons

citer : les algorithmes génétiques [144], le recuit simulé [145] et une méthode appelée fast searching [146].

Les algorithmes génétiques et l’algorithme du recuit simulé sont utilisés dans divers domaines tels que la robotique, l’industrie automobile, etc. On note également une large

utilisation de ces algorithmes en traitement d’images, et spécialement en segmentation, où ,

60

leur rôle consiste à estimer les paramètres des fonctions d’appartenance des différentes classes de l’image. L’optimisation de ces paramètres s’effectue, pour chacun de ces deux algorithmes,

d’une manière stochastique [146]. Ceci explique le fait que les résultats obtenus par ces algorithmes, peuvent différer d’une réalisation à une autre. En revanche, appliqués sur des images en vue d’estimer les paramètres des fonctions d’appartenance relatives aux différentes classes, la technique fast searching a montré une meilleure stabilité des résultats [146].

3.2.2. Méthodes à base d’apprentissage

Les méthodes à base d’apprentissage représentent la deuxième catégorie de techniques d’estimation des fonctions d’appartenance. Elles se basent sur des informations extraites de

l’image. Ces informations portent soit sur les centres respectifs des classes, permettant ainsi leurs localisations, soit sur des zones dites "d’apprentissage", à définir pour chaque classe.

Deux méthodes sont identifiées : la méthode à base d’estimation statistique des paramètres et la méthode basée sur l’algorithme Fuzzy C-Means (FCM).

3.2.2.1. Méthode à base d’estimation statistique des paramètres

Le principe général de cette méthode peut être résumé comme suit [147]. D’abord, une zone d’apprentissage Zm est définie pour chaque classe « m » contenu dans l’image. Chaque zone doit comporter des pixels vérifiant d’une façon stricte et absolue les propriétés

caractérisant la classe concernée. Ces propriétés peuvent se référer au niveau de gris, à la

texture, ou à d’autres caractéristiques. Ensuite, pour une classe donnée, l’ensemble des pixels situés dans cette zone d’apprentissagepermet d’en calculer certaines informations statistiques

telles que la moyenne et l’écart type.

Une fois calculées, ces informations permettent de déterminer les paramètres des fonctions

d’appartenance des différentes classes de l’image selon des règles empiriques. A titre

d’exemple, la moyenne et l’écart types peuvent définir le « point » noyau, et le support d’une fonction d’appartenance de type triangulaire. La figure 3.2 illustre le principe de cette méthode. Zm Estimation des paramètres C1 Cm Cm C1 Z1

Figure 3.2 : Le principe général des méthodes d’apprentissage à base d’histogramme

µ

61

3.2.2.2. La méthode basée sur l’algorithme Fuzzy C-Means

L’algorithme Fuzzy C-Means (FCM) [148] est une technique largement utilisée dans la

segmentation et classification des images. Elle fournit une partition de l’ensemble des données en des ensembles flous, dits aussi « classes », par l’estimation des degrés d’appartenance des données issues del’image à ces classes.

L’estimation des valeurs d’appartenance par cet algorithme se réalise en différentes phases

qui peuvent être résumées comme suit : l’algorithme commence avec une étape

d’initialisation des degrés d’appartenance µCm(s), pour chaque pixel s ayant un niveau de gris xiΩ aux M classes en respectant la condition suivante :

m

M C m 1

µ( )s µ ( )s 1

Ensuite, en se basant sur les valeurs initiales d’appartenance, on calcule les centres des classes. En fonction des centres, les degrés d’appartenance seront mis à jour en utilisant

l’équation : 2/( 1) i k ik m 2/( 1) i j j 1 || c || µ || c || m m x x

µik : représente le degré d’appartenance de pixel s dont la mesure est xi, à la classe k connue par son centre ;

i j

||x c ||: représente la distance euclidienne entre la mesure xi et le vecteur de référence Cj ; m est un entier supérieur à 1.

La mise à jour des centres ainsi que la modification des valeurs d’appartenance se répètent jusqu’à la stabilité des centres des classes.

Cette méthode ne permet de sélectionner ni l’allure de la fonction d’appartenance, qui prend souvent une forme similaire à celle d’une gaussienne, ni les paramètres qui la contrôlent.

Un inconvénient majeur de certaines méthodes à base d’apprentissage (comme la méthode à base d’estimation des paramètres statistiques) réside dans le fait que le choix des régions

d’apprentissage nécessite beaucoup d’attention. De plus, il arrive qu’une classe contienne

plusieurs objets semblables au niveau de la projection radiométrique. Dans ce cas, il faut établir des sous-classes, ce qui complexifie l’analyse et le calcul.

Nous proposons dans ce qui suit de présenter le système de génération de distributions de

possibilités que nous avons adopté pour les différentes classes d’une image

62

3.3. Système proposé pour l’estimation des distributions de possibilités Le processus de génération des distributions de possibilités que nous proposons est constitué

de trois étapes essentielles. La première étape consiste en un prétraitement de l’image originale, puis vient une étape d’estimation de la fonction d’appartenance. A la fin du

processus, un opérateur de fusion est appliqué. Notons que le passage de la fonction

d’appartenance à une distribution de possibilités est obtenu par le postulat possibiliste de Zadeh, détaillé dans la suite de ce paragraphe.

La figure 3.3 illustre le schéma général du système proposé pour l’estimation des distributions

de possibilités.

3.3.1. Prétraitement

Cette étape s’effectue au niveau pixelique. Elle est basée sur l’exploitation de sources de connaissances supplémentaires visant à fournir des informations plus pertinentes que celles apportées par le pixel lui-même.

Documents relatifs