R EVUE DE STATISTIQUE APPLIQUÉE
W. P IECZYNSKI J.-M. C AHEN
Champs de Markov cachés flous et segmentation d’images
Revue de statistique appliquée, tome 42, n
o3 (1994), p. 13-31
<http://www.numdam.org/item?id=RSA_1994__42_3_13_0>
© Société française de statistique, 1994, tous droits réservés.
L’accès aux archives de la revue « Revue de statistique appliquée » (http://www.sfds.asso.fr/publicat/rsa.htm) implique l’accord avec les condi- tions générales d’utilisation (http://www.numdam.org/conditions). Toute uti- lisation commerciale ou impression systématique est constitutive d’une in- fraction pénale. Toute copie ou impression de ce fichier doit contenir la présente mention de copyright.
Article numérisé dans le cadre du programme Numérisation de documents anciens mathématiques
http://www.numdam.org/
CHAMPS DE MARKOV CACHÉS FLOUS
ET SEGMENTATION D’IMAGES
W.
Pieczynski,
J.-M CahenDépartement Signal
et Image, Institut National des Télécommunications 9 rue Charles Fourier 91011Evry
Cédex - FranceRÉSUMÉ
Notre travail traite du
problème
de lasegmentation statistique
floued’images.
Nousproposons une modélisation markovienne du
champ
aléatoire flou des classesgénéralisant
lemodèle
classique
deschamps
aléatoires des classes dures. Nous montrons que l’échantillonneur de Gibbs peut êtreadapté
au modèle flou et permet la simulation des réalisations duchamps
desclasses selon la loi a
priori
et aposteriori.
Cettepossibilité
permet d’introduire une méthode desegmentation
flouegénéralisant
la démarche utilisant le maximum des loismarginales
aposteriori
(MPM) dans le cas dur. Lesimages
floues simulées sontplus
riches visuellement et dans le cas où les données sont floues la méthode desegmentation
floueproposée
améliore laqualité
de lasegmentation classique.
Mots clés :
Champs
aléatoires de Markov,champs
aléatoiresflous, segmentation statistique floue d’images,
échantillonneur de Gibbsflou.
SUMMARY
This work deals with the statistical
fuzzy image segmentation.
We propose a newfuzzy
Markovian
modelling generalizing
the classical hard one. It is shown that the Gibbssampler
can be
adapted
and it ispossible
to simulate realizations of thefuzzy
class fieldaccording
to theprior
distribution as well as to theposterior
one. Thispossibility
allows us to propose a statisticalfuzzy segmentation
method whichgeneralizes
the maximisation ofposterior marginals
(MPM)algorithm
used in the hard case.Fuzzy images
simulated arevisually satisfactory.
Furthermore, when the real data arefuzzy,
the methodproposed
is more efficient that the classical hard one.Key
words : Markov randomfields, fuzzy
randomfields, fuzzy
statistical image segmentation,fuzzy
Gibbssampler.
1. Introduction
La
segmentation
faitpartie
desproblèmes
clés seposant
en traitementd’images.
Parmi les nombreuses méthodes la famille des
approches statistiques
s’avère être d’uneremarquable
efficacité dans certains cas.L’application
d’une telle méthode suppose l’utilisation d’un modèleprobabiliste :
pour S l’ensemble despixels
onconsidère deux collections de variables aléatoires X =
(X,),Gs, Y = (Ys)s~S
14 W PIECZYNSKI, J. -M CAHEN
dites
«champs
aléatoires».L’image
àsegmenter
estsupposée
être une réalisationY = y
duchamps
Y et lasegmentation
recherchée est une réalisation invisible X = x duchamps
X.Chaque Ys
est à valeurs dansRd,
avec d nombrenaturel,
et en
segmentation classique,
que nousappellerons
«dure» dans lasuite, chaque X s
est à valeurs dans un ensemble fini Ç2 ={03C91,03C92,..., LUm}
des classes. Lasegmentation
floue utilise une modélisationplus générale
dans la mesure où ellepermet
de tenircompte
de l’existence des classes «intermédiaires».Considérons,
à titred’exemple,
leproblème
desegmentation
d’uneimage
satellitaire binaire : oncherche à associer à
chaque pixel sES,
àpartir
de Y = y, uneétiquette
dansl’ensemble 0 ==
{ville, forêt}.
Lasegmentation
dure nepermet
pas de déceler lespixels
surlesquels
se trouvent simultanément des arbres et des maisons. La modélisationcorrespondant
à lasegmentation floue,
dontl’objectif
est depouvoir
retrouver de tels
pixels,
suppose quechaque Xs prend
ses valeurs dans[0, 1]. Xs
= 0correspond
à la classe«ville», Xs
= 1 à la classe «forêt» etXS
== xE]O,11[ désigne
les
pixels
où laproportion
de la classe «ville» est 1- x et celle de la classe «forêt» x.Dans le cas
général
l’ensemble Q =fil,
03C92,...,wm 1
est ainsiremplacé
par[0,1]m, chaque wi correspond
à(0, 0, ... , 0,1, 0, ... , 0)
où 1 se trouve à la ièmeplace.
La
segmentation Bayésienne
est l’outil de lasegmentation
duregénéralement
retenu. Il est
possible
de définirplusieurs méthodes,
chacune d’entre elles nécessitant la connaissance de certainsparamètres
de la loi de(X, Y).
Laplus simple,
diteaveugle,
consiste en estimation de la réalisation dechaque X s
àpartir
du seulYs.
Sa mise en oeuvre est
possible
dèsqu’on
connaît la loi de(X s, Ys).
Les méthodes contextuelles consistent en estimation dechaque Xg
àpartir
deYv,
la restriction de Y à unvoisinage
V de s et nécessitent la connaissance de la loi de(X s, Yv ) .
L’introduction des
champs
de Markov cachés apermis
laconception
desalgorithmes approchant
les solutions des méthodesglobales :
la réalisation dechaque X s
est estimée àpartir
de toute l’informationdisponible
Y = y. Dans la modélisation utilisée dans cette démarche X est unchamp
markovien et les variables aléatoires(YS )
sontindépendantes
conditionnellement à X.Notons N le cardinal de l’ensemble des
pixels
S et supposons, afin desimplifier,
les
Ys
à valeurs dans R. Dans le cas de lasegmentation
dure Xprend
ainsi ses valeursdans
ON
et dans le cas de lasegmentation
floue ces valeurs sont dans[0, l]mN,
le
champ
Yprenant
ses valeurs dansR N
dans les deux cas.Lorsqu’on
cherche àgénéraliser
les diversessegmentations
dures au cas flou on est ainsi amené à définir la loi de(X, Y),
donnéegénéralement
par la loi de X et les lois de Y conditionnelles àX.Les ensembles flous ont été
appliqués
avec succès à la classificationd’images
dans un cadre déterministe
([1], [5], [7], [8], [10], [13], [18]).
Les modélisations faisant intervenir simultanément les ensembles flous et la théorie desprobabilités
ontégalement
étéproposées ([3], [4], [14], [22]). L’originalité
des résultatsexposés
dans[3], [4]
se situe au niveau de l’utilisation des mesurescomportant
des masses de Diracet des
parties
continues. Les loismarginales (lois
desXs)
sont modélisées dans[3], [4]
par une mesure sur
[0, 1] comportant
deux masses de Dirac en 0 et 1 et unepartie continue,
définie par une densité parrapport
à la mesure deLesbegue, sur ]0,1 [.
Cettemodélisation a
permis
laconception
desalgorithmes
desegmentation
nonsupervisée
floue
(i. e.
contenant un estimateur desparamètres
nécessaires à la mise en oeuvrede la
segmentation)
dontl’efficacité,
dans le cas où les données réelles sontfloues,
améliore celle des
algorithmes analogues
de lasegmentation
dure. Nous étendons dans cet article cetype
de modélisation à la loiglobale
de X en introduisant leschamps
markoviens flous. Cette modélisationpermet
laconception
des méthodesglobales floues, généralisant
les méthodes detype
«maximum aposteriori» (MAP)
ou «maximum a
posteriori
des loismarginales» (MPM)
ensegmentation
dure. Unede ces méthodes est décrite et nous montrons son bon
comportement
parrapport
àl’algorithme
desegmentation
dure MPM.L’organisation
de l’article est la suivante :Dans la section suivante nous introduisons les
champs
markoviens cachés flous et montrons que leschamps
markoviens cachés durs en sont un casparticulier.
Nousprésentons également
une version floue de l’échantillonneur de Gibbs dont le boncomportement,
connu dans le casdur,
estpréservé.
Cet échantillonneur
permet
laconception
d’une méthodeglobale
desegmenta-
tion floue que nousprésentons
dans la section trois.Les résultats des simulations se trouvent dans la
quatrième
section.La
cinquième
et dernière section contient les conclusions.2.
Champs
de Markov cachés flous2.1. La loi de X
Considérons le cas de deux classes Q =
{0,1},
notons S l’ensemble despixels
et N son cardinal.
Supposons X, qui
est à valeurs dansSon,
markovien relativementaux
quatre plus proches
voisins et tel queP[X
=x] =1=
0 pour tout x dansON.
Onpeut
alors écrire :où
U,
dite« énergie »,
est une somme des fonctions définies sur lescliques, qui
sont icisoit des
singletons
soit descouples
despixels
voisins. Si on admet que ces fonctionsne
dépendent
pas de laposition
de laclique
considérée dans l’ensemble despixels l’énergie
est entièrement déterminée par trois fonctions ~v :03A92 ~
R(v
pour les voisinsverticaux),
~h :ç22 --+ R, (h
pour les voisinshorizontaux)
et cpl : 03A9 ~ R(pour
lessingletons). L’énergie
U s’écrit :Notons que cette modélisation ne
permet
pas de tenircompte
desanisotropies
éventuelles de
l’image
selon les bissectrices. De tellesanisotropies peuvent
êtreprises
en
compte
en considérant la markovianité parrapport
aux huitplus proches voisins;
apparaissent
alors descliques
contenant despixels
voisins selon les bissectrices. Sion suppose que les fonctions définies sur les
cliques
de cardinalsupérieur
à deux sont16 W PIECZYNSKI, J. -M CAHEN
nulles
l’énergie
U s’écrit :Nous allons exposer le
principe
de notregénéralisation
de telschamps
de Markov au cas flou dans le cas le
plus simple,
la démarcheproposée
étantimmédiatement
généralisable
auxchamps
définis par(3).
Considérons
l’énergie
de la forme :avec cp de la forme :
Le
paramètre
a détermine ainsi la loi de X.L’énergie
considérée est d’unegrande simplicité,
cequi permet d’exposer
leprincipe
de passage auxchamps
flous dans un cadre utilisant peu deparamètres.
L’objectif
de cette section est degénéraliser
ce modèle defaçon
à ce quechaque Xs
prenne ses valeurs dansÇ2f = [1,0] (/
pour« flou »)
et que sa loi soit de la forme :où
03B40, 03B41
sont des masses de Dirac en 0 et1, 03BC la
mesure deLesbegue sur ]0,1[ et h
la densité de la loi
PXS
parrapport
à la mesure v =80
+81
+ ti. Ainsi :la dernière
égalité ayant
lieu pour 0 a b 1.L’intérêt des modélisations markoviennes en
segmentation
dure est essentielle- ment dû à lapossibilité
de lasimulation,
par desprocédures
itératives detype
de l’échantillonneur deGibbs,
des réalisations de X. Le cardinal de S étanttrop grand
la relation
(1)
n’est en effet pas directementexploitable (c inconnu).
Notons que lesdifficultés sont encore
plus grandes
ensegmentation
floue. Si on cherche à définir la loi d’uncouple (Xt, X,,),
on est amené à considérer la densitéh(xt, xs)
de la loi de(Xt, Xs)
parrapport
à la mesurev2
=(03B40+03B41+03BC)~(03B4’0+03B4’1+03BC’) =03B40~03B4’0+03B40~03B4’1+
+80 Q9 /l/ + 81 ~ 03B4’0 +03B41~03B4’1+03B41~03BC’+03BC~03B4’0+03BC~03B4’1 + {L Q9 {L’
La
mesure v2 comporte
ainsiquatre
masses de Dirac auxpoints (0, 0), (0, 1), (1, 0), (1, 1), quatre
mesures deLebesgue
définies sur les côtés du carré unité et une mesure deLebesgue
sur lecarré ]0,1[2.
La loi d’untriplet (Xs, Xt, Xu)
estdéfinie par une densité par
rapport
à la mesurev3,
cette dernière étant définie par huitmasses de Dirac sur les sommets du cube
unité,
douze mesures deLebesgue
définiessur les
segments
reliant ces sommets, six mesures deLebesgue
définies sur les facesdu cube et une mesure de
Lebesgue
définie sur son intérieur. On constate quevN
est difficile àmanipuler
pourN >,
3. Notons que tel n’est pas le cas ensegmentation dure, v
est dans ce cas la mesure de dénombrement etvN
est accessible pourN
7 environ. Ce faitpeut
avoir uneimportance
ensegmentation
contextuelle. Dans le casdur il est
possible
de considérerplusieurs
voisins dont le nombrepeut aller,
dans le cas de deuxclasses, jusqu’à quatre.
Ensegmentation bayésienne
floue il semble difficile depouvoir
tenircompte
deplus
d’un voisin.Afin de
généraliser
le modèle ci-dessus considéronsavec 1/ =
80
+81 + 03BC
eth f( f
pour«flou»)
densité dePx
parrapport
àvN.
Comme dans le cas dur considéronsh f
de la formep «dure» est définie
sur {0,1}2
et ~f «floue» ci-dessus sur[0,1]2.
On montre, exactement comme dans le cas des
champs durs,
que la loi de X définie par(8)
et(9)
est une loi d’unchamps
markovien relativement auxquatre plus proches
voisins : la loi deXs
conditionnelle à(Xt)t~s
estégale
à sa loi conditionnelle àXl, X2, X3, X4,
où1, 2, 3, 4
sont lesquatre plus proches
voisins de s. Plusprécisément,
la loi deXs
conditionnelle à(Xi, X2, X3, X4, ) = (Xl,
X2, X3,X4) =
xv
(V
pour«voisinage»)
est définie par la densité parrapport
à la mesure v donnée par :avec
Wxv (x)
=~f(x, Xl) + ~f(x, X2)
+~f(x, X3)
+~f(x, x4).
18 W. PIECZYNSKI, J. -M CAHEN
Finalement,
la fonction cp f :[0,1]2
~ R définitPx,
deplus
les loisconditionnelles données par
(10)
sontexploitables.
Onpeut
en effet effectuer destirages
selon cette loi de lafaçon
suivante :-
Tirage
dans{0,1, F} (F
pour«flou»)
selon laprobabilité
hXv(0),
hxv(1),
1 - h-v
(0) -
hxv(1).
Si letirage
est dans{0,1}
onarrête,
s’il vaut F :-
Tirage dans ] 0, 1 [ selon
laprobabilité
donnée par la densité parrapport
à lamesure de
Lebesgue :
Dans la
pratique
le calcul del’intégrale figurant
dans(10)
et(11)
se fait par discrétisation : on choisit x1, X2, ... , on une subdivisionéquidistante de ]0,1[,
avecxi = a, xi+1 - xi = a, xn = 1 - a,
(donc a = 1 n + 1)
et onremplace
cetteintégrale
par
Le
tirage dans ]0,1[
selon laprobabilité
donnée par la densité(11)
est parailleurs
remplacé
par letirage
dans{x1,
X2, ... ,xn}
selon la loi discrète obtenue àpartir
de(11).
Onpeut
alorsremplacer
letirage «théorique»
en deuxphases
décritci-dessus par un
tirage unique
dans l’ensemble{0,
Xl, X2, ...,xn, 1}
selon la loi deprobabilité :
pour 1 i n (13)
Nous
disposons
ainsi d’un modèle markovien de la loi de X tel que les loismarginales
desXS
contiennent deux masses de Dirac en 0 et 1 et unepartie
continuesur ]0,1 [,
deplus
la simulation des réalisations desXS
selon leurs lois conditionnelles estpossible.
2.2.
Échantillonneur
deGibbs flou
La
possibilité
d’effectuer destirages
selon les lois conditionnelles décrites ci-dessuspermet
la simulation des réalisations de X par un échantillonneur de Gibbs«flou»,
dont leprincipe
est le même que celui de l’échantillonneur de Gibbs couramment utilisé dans le cas dur. Dans ce dernier cas la démarche est la suivante :1. On se donne une
configuration
arbitraireX0
2. On numérote les
pixels 1,2,...,
N. La loi deXl
conditionnelle à la réalisation de tous les autresXi,
donnés par laconfiguration X0,
estexplicitement
calculable : on effectue un
tirage,
selon cetteloi,
dansl’ensemble {0,1}.
Onremplace
la classe
figurant
sur lepixel
1 dans laconfiguration XO
par la classe obtenue par letirage (qui peut être, éventuellement,
lamême).
On passe aupixel
2 et on calcule laloi de
X2
conditionnelle à tous les autresXi,
en tenantcompte
de la nouvellevaleur,
éventuellement différente de la valeurprécédente,
deX1.
Commeprécédemment,
on effectue un
tirage,
selon cetteloi,
dans l’ensemble{0,1}.
Onremplace
la classefigurant
sur lepixel
2 dans laconfiguration XO
par la classe obtenue par letirage,
etainsi de suite.
Après
Ntirages
on aura effectué un«balayage complet»
del’image,
soit
Xl
la nouvelleconfiguration
ainsi obtenue. On recommence laprocédure
enremplaçant X0
parX1.
Dans le cas desimages simples l’aspect
del’image
se stabiliseaprès
unequinzaine
debalayages.
Nous proposons exactement la même démarche en
remplaçant {0,1}
par[0,1].
Dans le cas dur on montre que la suite aléatoire des
champs X1, X 2 , ... , xn , ...
ainsi construite converge en loi vers la loi de
probabilité
donnée par( 1 ), [9].
Le résultatreste valable
lorsque l’espace
desétats,
i. e. l’ensemble danslequel chaque Xs prend
ses
valeurs,
estcompact, [23].
Notre modélisation se situe dans cecadre,
en effetl’espace
des états est[0, 1].
Notons que ce résultat reste valablelorsqu’on
considèrela loi de X a
posteriori
définie dans la section suivante.2.3.
Forme de Uf
Le contenu des
paragraphes 2.1, 2.2
est valable pour une formequelconque
de
U f . Lorsqu’on
cherche àgénéraliser
le cas dursimple
défini par(4)
et(5)
onpeut imposer
àUf
deprendre
la valeur -a sur lespoints (0, 0), (1,1)
et la valeura sur les
points (0,1), (1,0). L’aspect
«flou» sera alors défini par la restriction deU f
à[0,1]2 - {(0,0), (0,1),(1,0), (1,1)}. Supposons
que cette restrictiondépende
de deux
paramètres j3
etb,
cequi
nouspermettra
degérer
ledégradé
du flou dansl’image
d’unepart
et sonimportance
d’autrepart.
Considérons
U f
de la forme suivante :-a si
(x, y) = (0, 0)
ou(x, y) = (1,1)
a si
(x, y) = (0,1)
ou(x, y) = (1, 0) (14) Uf (x)
=-03B2(-2x
+2y + 1)
+b si
(x,y)
E[0,1]2 - {(0,0), (0,1), (1,0), (1,1)}
Uf(x)
= et x -y
0-/3(2.r - 2y
+1) +
b si(x, y) e [0,1]’ - {(0,0), (0,1), (1, 0), (1,1)}
et x - y
020 W. PIECZYNSKI, J. -M CAHEN
La loi de X
dépend
ainsi de troisparamètres
a,/3,
8. Leparamètre
a déterminela taille des
taches, i3
détermine la forme dudégradé
et 8l’importance
du flou dansl’image.
Plus
précisément,
montrons que l’on retrouve le modéle markovien durlorsque
8 ~ +00. Considérons
E f
C[0,1]N
défini paret
Ed
soncomplémentaire :
Nous allons montrer que le
champ
de Markov dur est un casparticulier,
dans lesens où il
peut
être obtenu par passage à lalimite,
d’unchamp
de Markov flou. Plusprécisément, lorsque 8
~ +00 laprobabilité
définie par la vraisemblance donnée par(9)
et(14)
se concentre surEd
avec vitesseexponentielle.
Proposition
1.Il existe une constante b > 0 telle que pour tout
03B4 |03B2| - |03B1|
Démonstration
Faisons
apparaître 8
dans la vraisemblanceh f
donnée par la relation(9) :
Montrons :
Pour x E
Ed
laquantité Uf,03B4(x)
nedépend
pasde 8,
par ailleurshf,03B4(x)
est laprobabilité
de X = x. Onpeut
écrire :Supposons
a > 0. Lamajoration
ci-dessus étant valable pour tout x EEd
considérons x en forme de damier. Etant donné
qu’il
ya N(N-1) cliques
horizontales et autant decliques
verticales(20)
donne :d’où
(19).
Si a 0 on considère x dont toutes les coordonnées sont d’une même classe et on arrive à la mêmeéquation
que(21)
avec -03B1 à laplace
de a. D’où(19)
pour tout a.
Considérons x E
Ef. Il
existe au moins unecoordonnée xi
de xdans ]0,1[.
Les valeurs de la fonction ~f sur les
quatre cliques
contenant Xi sont alors minoréespar 03B4-|03B2|.
Sur toutes les autrescliques (t, s)
les valeursde ~f(xt,xs)
sont minoréespar -lai
si Xt, Xs sont durset par 03B4 - |03B2| (donc
encorepar-|03B1|a car
03B4|03B2| - |03B1|))
si l’un d’eux est flou. Finalement on
peut
écrire pour tout x EE f :
Etant donné la
majoration (19)
nous avons :Etant donné que
03BDN([0,1]N)
=3Net vN (Ed)
--2Nla majoration (23)
donne(hh,8
est une densité dePx
parrapport à vN):
d’où
(17)
avec b =(3N - 2N)e4(|03B2|-|03B1|),
cequi
achève la démonstration.On
peut également
montrer quelorsque
8 --+ -00 la loi de X se concentre surE f
avec vitesseexponentielle.
Proposition
2.Il existe une constante b’ > 0 telle que pour
tout 03B4 1 Q | - |03B2|
Démonstration
Considérons x E
Ef.
Il existe au moins une coordonnée xi de xdans ]0,1[.
Les valeurs de la fonction ~f sur les
quatre cliques
contenant xi sont alorsmajorées par 03B4 + 1/31.
Sur toutes les autrescliques (t, s)
les valeursde ~f(xt,xs)
sontmajorées par a
si xt,xs sont durset par b
+|03B2| (donc
encorepar |03B1| car 03B4 |03B1| - |03B2|)
sil’un d’eux est flou. Finalement on
peut
écrire pour tout x EE f :
par ailleurs nous avons :
la dernière
inégalité
dans(27) ayant
lieu en vertu de(26).
Finalement22 W. PIECZYNSKI, J. -M CAHEN Par ailleurs
avec
Uf (x) indépendant
de 6.(28)
et(29) impliquent :
d’où
(25)
avec b’ = b"L e-Uf(x),
cequi
achève la démonstration.xEEd
Les
exemples d’images
simulées par l’échantillonneur flou pour 8 - 0 et différentes valeurs de a,(3
sontprésentés
dans la section 3.2.4.
Champs
cachésL’objectif
de cette sous-section est de définir la loi ducouple (X, Y).
Nouspourrons alors en déduire la loi «a
posteriori»,
i. e. conditionnelle àY,
de X et proposer une méthode desegmentation globale
floue. La loi de(X, Y) peut
êtredéfinie,
comme dans le casdur,
par la loi de X et les lois de Y conditionnelles à X. La loi de X est définie ci-dessus et afin de définir les lois de Y conditionnelles à X nousfaisons,
comme on le fait habituellement dans le casdur,
deuxhypothèses simplificatrices
suivantes :(i)
les variables aléatoires(Ys)
sontindépendantes
conditionnellement à X.(ii)
la loi dechaque Ys
conditionnelle à X estégale
à sa loi conditionnelle àXs.
Avec les
hypothèses (i), (ii)
la loi de Y conditionnelle à X est définie par les lois desYS
conditionnelles àX s.
Ensupposant
les lois des(Xg, Ys) indépendantes
des et en notant
N(m, a2)
la loi normale de moyenne m et variancea2
nousprendrons
pour la loi de
Ys
conditionnelle àXs
= c E[0, 1] :
où m0, ml ,
03C320, 03C321
sont donnés. Ainsi lesparamètres
mo, ml,03C320, 03C321
déterminent toutes les lois de Y conditionnelles à X.Pour mo, ml,
03C320, 03C321
fixés notonsW Ela
densitégaussienne
définie ci-dessus. La densité 03A8 de la loi de(X, Y)
parrapport
à la mesurevN
0J1N (v
étant la mesuredéfinie sur
[0,1]
dans la sous-section2.1, 03BC la
mesure deLebesgue
sur R et N lenombre des
pixels)
est alors donnée par :3. Loi de X a
posteriori
etsegmentation globale
floue3.1 Loi de X a
posteriori
En notant
03A0 03A6xs(ys)
=03A3Log03A8xs(ys)
=e-Vx(y)
sES
La densité de la loi de X a
posteriori (i. e.
conditionnelle à Y =y)
parrapport
à la mesurevN
est alors donnée par :Le dénominateur de
l’expression (34)
nedépend
pas de x, y étant fixé onpeut
écrire :Nous constatons que
l’énergie apparaissant
dans(35)
est du mêmetype
que celle donnée par(2).
La différence entre la loi apriori
donnée par(2)
et la loi aposteriori
donnée par(35)
est due à l’existence del’énergie
additionnelleVx(y), qui
est ici fonction de x, y étant fixé.
Rappelons
queVx(y)
est de la forme :où
wXs
est unegaussienne
de moyenne(1 - xs)mo +
xsm1 et de variance(1 - xs)03C320
+xs03C321.
Comme dans le cas dur notre méthode desegmentation
estfondée sur la
possibilité
de la simulation des réalisations de X selon sa loia posteriori.
L’énergie
additionnelle donnée par la relation(36)
étant une somme des fonctions rattachées auxsingletons (rappelons
que ys est fixé et xsvariable)
le caractère markovien duchamp X, lorsqu’on
considère sa distribution aposteriori,
estpréservé.
On
peut
ainsi utiliser l’échantillonneur de Gibbs flou de la sous-section 2.2. Notonshxvys
ladensité,
parrapport
à la mesure v, de la loi deXs
conditionnelle àXv
= xv,où Vest
levoisinage
de xscomposé
desquatre plus proches
voisins. La densitéhxvyx
est donnée par une formule
analogue
à(10) qui correspond
à la loi de X apriori :
Wxy (x)
utilisé dans(10)
estremplacé
par :24 W. PIECZYNSKI, J. -M CAHEN
Nous pouvons écrire :
Les simulations sont alors obtenues en utilisant la même
procédure
dediscrétisation que celle décrite dans la sous-section 2.1.
3.2
Segmentation globale floue
La méthode
proposée correspond
àl’algorithme
deMarroquin
et al.([16])
ensegmentation dure,
ce dernierpermettant d’approcher
la solution de la méthode MPM.La
segmentation
MPM s’intéresse aux lois desXs
conditionnelles à Yqui
sont leslois
marginales
aposteriori
duchamp
X. Pourchaque
s dans S on choisit pour l’estimation de la réalisation invisible deXg
la classe dont laprobabilité
aposteriori
est maximale.
Nous nous
intéressons,
comme dans le cas de la méthode MPM ensegmentation dure,
aux loismarginales
aposteriori
duchamp
X. Pourchaque
s dans S la loi aposteriori
deXs
est estimée àpartir
des réalisations simulées par l’ échantillonneur de Gibbs flou. Elle est donnée par une densité parrapport
à la mesure v que nous noteronshs,y,
avec Y = yl’image numérique
àsegmenter.
Contrairement au casdur il existe alors
plusieurs possibilités
desegmentations
detypes
différents. Nousavons étudié dans
[4]
lasegmentation
floueaveugle,
où la réalisation dechaque Xs
est estimée à
partir
du seulYg.
Ici notre démarche est différente car nous considérons les lois desXs
conditionnelles à Y au lieu des lois desXg
conditionnelles auxYs.
Toutefois,
au stade de lasegmentation
leproblème
estidentique :
on doit proposerune
stratégie
de recherche de la réalisation xs deXs
àpartir
de la densité de la loi deX s
parrapport
à la mesure v. Nous avonsproposé
dans[4] quatre stratégies
de
segmentation :
moindres carrésMC, espérance
conditionnelleEC,
maximum de vraisemblance MV et maximum de vraisemblance«adaptée»
MVA. Nous retenonsdans la suite la
stratégie
MVA dont l’efficacité s’est avéréecompétitive
vis-à-visdes trois autres méthodes dans le cas de
segmentation aveugle.
Sa démarche est la suivante :(i)
choixdans {0,1, F} (F
pour«flou»)
selon larègle bayésienne classique :
l’élément choisi maximise la
probabilité h,,y (0), hs,y(1), 1 - hs,y (0) - hs,y(1).
(ii)
si l’élément choisi estdans {0,1}
onarrête,
sinon on choisitdans ]0,1[
l’élément maximisant la restriction de
hs,y
à cet ensemble.4.
Expérimentations
4.1.
Champs
durs etchamps flous
Dans cette sous-section nous
présentons,
afin d’illustrerl’apport
visuel de la modélisation parchamps flous,
deuximages
simulées par l’échantillonneur de Gibbsdur et flou
respectivement.
Leparamètre
a vaut 10 dans les deux cas et, dans le casflou,
lesparamètres 03B2, 03B4
valent 1 et ()respectivement.
Onobtient, après
M = 100itérations,
lesimages Iml,
Im2respectivement.
Dans leslégendes
Mdésigne
lenombre d’itérations de l’échantillonneur de Gibbs
(dur
ouflou).
Champs
de Gibbs dur avec a =10, Champs
de Gibbs flou avec a =10,
M = 100
03B2 = 1, 03B4 = 0,
M = 100.Im 1 Im2
On observe un bon
dégradé, lorsqu’on
passe d’une classe dure à une autre, dansl’image
floue obtenue. Notons que desimages
flouesd’aspect
différentpourraient
être obtenues en modifiant l’allure
générale
deU f
ou lesparamètres /3,
8.4.2.
Images floues
bruitéesNous nous intéressons dans cette sous-section à
l’aspect
visuel desimages
floues bruitées.
L’image
floueIm3,
obtenue par l’échantillonneur de Gibbsflou, correspond
auxparamètres
a =5, 03B2=1, 03B4=0.
Nousprésentons plusieurs bruitages
par des bruits blancs ou corrélés. Notons que notre modélisation ne
permet
pas de tenircompte,
au niveau de lasegmentation,
de la corrélationspatiale
du bruit. Ainsilorsqu’on segmente
uneimage
bruitée par un bruit corrélé par une méthodeglobale (dure
oufloue)
fondée sur une modélisation markovienne on est amené àignorer
lacorrélation,
cequi
revient àchanger
de modèle. L’étude des situations où le bruit est corrélépeut
ainsiapporter
desrenseignements
sur la robustesse d’une méthode donnée. L’étude de cette robustesse estimportante
car des étudesprécédentes
ontmontré que dans certains cas des
images réelles,
comme lesimages satellitaires,
la corrélation du bruitpeut
êtreimportante ([15], [17]).
Les bruits corrélés sont obtenus à
partir
des bruits blancs en utilisant la notion de moyenne mobile. Si B =(Bs)sES
est un bruit blancgaussien
on pose :26 W. PIECZYNSKI, J. -M CAHEN
avec 03B3 tel que Var
(Cs)
= Var(Bs).
Nous considérons deuxtypes
de bruits corrélés :type
1 est obtenu àpartir
d’un bruit blanc en considérant lesvoisinages composés
des 8
plus proches
voisins et letype
3correspond
auxvoisinages
contenant 48plus proches
voisins. Pourt, s
voisins la corrélation entreC t
etCs
est ainside 6
dans lecas du
type
1 et de42 49
dans le cas dutype
3. Letype 2,
que nous n’étudions pasici, correspond
au cas des 24plus proches voisins,
la corrélation entreCt
etCs
est alorsde
20.
25
Champs
de Gibbs flou avec a =5,
Im3 bruitée avec bruit corrélé detype1 : 03B2 = 1, 03B4 = 0, M = 100 mo=l,ml=4, 03C30=03C31=1
Im3 Im4
Im3 bruitée avec bruit
indépendant
Im3 bruitée avec bruit corrélé detype
3 :mo =
1,
mi =4,
uo = cri = 1 mo =1,
ml =4,
uo = 03C31 = 1.Im5 Im6
Im3 bruitée avec bruit corrélé de Im3 bruitée avec bruit
indépendant, type 1, m0 = 1, m1 = 2, 03C30 = 03C31 = 1. m0 = 1, m1 = 2, 03C30 = 03C31 = 1.
Im7 Im8
Nous constatons que
l’aspect
visuel desbruitages proposés
est différent.4.3.
Segmentations
dure et floueNous considérons dans cette sous-section les résultats de la
segmentation
dureet floue. La
segmentation
floue étant coûteuse entemps
calcul nous considérons desimages
de tailleplus
réduite.L’image
Im9correspond
auxparamètres
a =3, /3
=1, 03B4
= 0 etl’image
Im14 auxparamètres a
=10, (3
=5, 03B4
= 0. M est le nombred’itérations utilisé dans la
synthèse
del’image
par l’ échantillonneur de Gibbs flou et L le nombre debalayages
utilisés dans l’estimation des loismarginales
aposteriori.
Champs
de Gibbs flou avec03B1 = 3, 03B2 = 1, 03B4 = 0, M =
150.Im9
28 W. PIECZYNSKI, J. -M CAHEN
Im9
restaurée, après bruitage indépendant
Im9restaurée, après bruitage indépendant m0 = 1, mi = 2, 03C30 = 03C31 = 1, mo = 1, ml = 2, ao = al = 1,
par le MPM dur avec L = 50. par le MPM flou avec L= 50.
Im10 Iml 1
Im9
restaurée, après bruitage
corrélétype
1 Im9restaurée, après bruitage
corrélétype
1m0 = 1, ml = 2, o,() = ori = 1, m0 = 1, m1 = 2, 03C30 = 03C31 = 1,
par le MPM dur avec L = 50. par le MPM flou avec L = 50
Iml2 Im13
Champs
de Gibbs flou avec ce =10, /3
=5,03B4
=0,
M = 100.Iml4
lm l4
restaurée, après bruitage
corrélé de lm l4restaurée, après bruitage
corrélé detype 1,
mo =1,
ml =2,
cro = 03C31 =1, type 1,
mo =1,
ml -2,
oo = cri =1,
par le MPM dur avec L = 50. par le MPM flou avec L = 50.
Iml5 Iml6
Nous constatons sur ces
exemples
que lasegmentation
floue aboutit aux résultats nettementplus proches, visuellement,
desimages
dedépart
que lasegmentation
dure.La
qualité
d’unesegmentation
estparfois
évaluée par lepourcentage
despixels
bienclassés. =
(xs )
étant le résultat de lasegmentation
et N le nombre despixels
onpose
On
peut
retenir le même critère dequalité
dans le cas flou. Enappliquant
cecritère aux
segmentations
dures et floues desimages Im9,
Im 14 bruitées par le bruit blanc de moyennes1,
2 et de variance 1 on obtientL’amélioration est surtout sensible dans le cas de Im
14,
cequi
est normal étant donné que cetteimage
contient uneplus
forteproportion
depixels
flous que Im9.5. Conclusion
La
segmentation
faitpartie
desproblèmes
clé enimagerie.
Les méthodesstatistiques,
dont ledéveloppement
date d’unequinzaine d’années,
s’avèrent d’uneremarquable
efficacité dans certaines situations. Ces méthodes utilisent la théorie de la classificationbayésienne
ets’appuient,
de cefait,
sur des modélisationsprobabilistes
rigoureuses. Toutefois,
ce cadrepeut
s’avérer insuffisant dans certaines situations30 W. PIECZYNSKI, J. -M CAHEN
réelles.
Lorsqu’un pixel appartient
naturellement àplusieurs
classes une méthode desegmentation classique,
oudure,
assimilera cette situation à unbruitage
etassignera
à ce
pixel
une seule classe.Les modélisations
probabilistes
utilisant les ensembles flous s’avèrent utiles dans cetype
de situations. Nous avonsproposé
dans ce travail un modèle markovien flou caché. Ce modèleapparaît
comme unegénéralisation
du modèle markovienclassique
dans la mesure où l’on retrouve ce dernierlorsqu’un paramètre
tendvers l’infini. La
technique classique
MPM desegmentation
dure estgénéralisable
au modèle flou.
Lorsque
les données sont floues la méthode «MPM flou»permet
d’obtenir de meilleursrésultats,
aussi bien visuellement quenumériquement.
Remerciements. Les auteurs remercient Alain
Hillion,
Professeur àL’École
Nationale
Supérieure
des Télécommunications deBretagne,
dont les idées ont fortement contribué à laconception
de ce travail.Références
[1]
BHARATHI DEVI B. & SARMA V.V.S.(1985)
«Estimation offuzzy
mem-berships
fromhistograms ».
Information Sciences35,
pp. 43-59.[2]
BRAATHEN B. & PIECZYNSKI W. & MASSON P.(1993)
«Global and local methods ofunsupervised Bayesian segmentation
ofimages
». MachineGraphics
&Vision,
Vol.2,
No.1,
pp. 39-52.[3]
CAILLOL H. & PIECZYNSKI W.(1992) «Fuzzy
statisticalunsupervised image segmentation». Proceedings of IGARSS’92, Houston, Texas,
Mai 92.[4]
CAILLOL H. & HILLION A. & PIECZYNSKI W.(1993) «Fuzzy
random fields andunsupervised image segmentation».
IEEE Transactions on Geoscience and RemoteSensing,
Vol.31,
No4,
pp. 801-810.[5]
CASAS J. R. & HILLION A. & ROUX C. & TORRES L. & GASULL A.«Fuzzy
classification of remotesensing images :
apseudocolor representation
of
fuzzy partitions».
Conf. on Neural and Stochastic Methods inImage
andSignal Processing,
àparaître.
[6]
CELEUX G. & DIEBOLD J.(1986) L’algorithme
SEM : unalgorithme d’apprentissage probabiliste
pour la reconnaissance demélanges
de densités.Revue de
Statistique Appliquée,
Vol.34,
No 2.[7]
FENG J. & LIN W. & CHEN C.(1991) Epicardial boundary
detectionusing fuzzy reasoning.
IEEE Transactions onMI,
Vol.10,
No2,
pp. 187-199.[8]
GATH I. & GEVA A. B.(1989) Unsupervised optimal fuzzy clustering.
IEEEtransactions on
PAMI,
Vol.11,
No7,
pp. 773-781.[9]
GEMAN S. & GEMAN D.(1984)
StochasticRelaxation,
Gibbs distributions and theBayesian
restoration ofimages.
IEEE Transactions on PatternAnalysis
and Machine
Intelligence 6,
pp. 721-741.[10]
GU T. & DUBUISSON B.(1990) Similarity
of classes andfuzzy clustering.
Fuzzy
Sets andSystems 34,
pp. 213-221.[11]
GUYON X.(1993) Champs
aléatoires sur un réseau. CollectionTechniques Stochastiques, Masson,
Paris.[12]
HILLION A.(1992)
Lesapproches statistiques
pour la reconnaissance desimages
de télédétection. Atti della XXXVI RiunioneScientifica, SIS,
Vol.1, pp. 287-297.
[13]
HUNSTBERGER T.L. & JACOBS C.L. & CANNON R.L.(1985)
Iterativefuzzy image segmentation.
PatternRecognition
Vol.18,
No2 ,
pp. 131-138.[14]
KENT J.T. & MARDIA K.V.(1991) Spatial
classificationusing fuzzy
mem-bership.
IEEE Transaction on PatternAnalysis
and MachineIntelligence,
Vol.10, No 5.
[ 15]
MARHIC N. & MASSON P. & PIECZYNSKI W.(1991) Mélange
de lois etsegmentation
nonsupervisée
des données SPOT.Statistique
etAnalyse
desDonnées,
Vol.16,
No 2.[16] MARROQUIN
J. & MITTER S. & POGGIO T.(1987)
Probabilistic solution ofill-posed problems
incomputational
vision. Journal of the American Statistical Association - 82 - pp. 76-89.[17]
MASSON P. & PIECZYNSKI W.(1993)
SEMalgorithm
andunsupervised segmentation
of satelliteimages.
IEEE Transactions on Geoscience and RemoteSensing,
Vol.31,
No3,
pp. 618-633.[18]
PEDRYCZ W.(1990) Fuzzy
sets inpattern recognition : methodologie
andmethods. Pattern
Recognition,
Vol.23,
No1/2,
pp. 121-146.[19]
PIECZYNSKI W.(1989)
Estimation of context in random fields. Journal ofApplied Statistics,
Vol.16,
No2,
pp. 283-290.[20]
PIECZYNSKI W.(1992)
Statisticalimage segmentation.
MachineGraphics
and
Vision,
Vol.1,
No1/2,
pp. 261-268.[21] QUELLE
H. C. & BOUCHER J. M. & PIECZYNSKI W.(1992)
Local param- eter estimation andunsupervised segmentation
of SARimages. Proceedings
ofIGARSS’92, Houston, Texas,
mai 92.[22]
WANG F.(1990) Fuzzy supervised
classification of remotesensing images.
IEEE Transactions on Geoscience and Remote
Sensing.
Vol.28,
No 2.[23]
YOUNES L.(1988)
Problèmes d’estimationparamétrique
pour deschamps
deGibbs Markoviens.