R EVUE DE STATISTIQUE APPLIQUÉE
M ARIE C HAVENT
C HRISTIANE G UINOT
Y VES L ECHEVALLIER
M ICHEL T ENENHAUS
Méthodes divisives de classification et segmentation non supervisée : recherche d’une typologie de
la peau humaine saine
Revue de statistique appliquée, tome 47, n
o4 (1999), p. 87-99
<http://www.numdam.org/item?id=RSA_1999__47_4_87_0>
© Société française de statistique, 1999, tous droits réservés.
L’accès aux archives de la revue « Revue de statistique appliquée » (http://www.sfds.asso.fr/publicat/rsa.htm) implique l’accord avec les condi- tions générales d’utilisation (http://www.numdam.org/conditions). Toute uti- lisation commerciale ou impression systématique est constitutive d’une in- fraction pénale. Toute copie ou impression de ce fichier doit contenir la présente mention de copyright.
Article numérisé dans le cadre du programme Numérisation de documents anciens mathématiques
http://www.numdam.org/
MÉTHODES DIVISIVES DE CLASSIFICATION
ET SEGMENTATION NON SUPERVISÉE :
RECHERCHE D’UNE TYPOLOGIE
DE LA PEAU HUMAINE SAINE
Marie
Chavent1,4, Christiane Guinot2, Yves Lechevallier1,
MichelTenenhaus3
1 INRIA,
Rocquencourt,
France2 CERIES,
Neuilly-sur-Seine,
France3
Groupe
HEC,Jouy-en-Josas,
France4 MAB, Université Bordeaux 1, France
RÉSUMÉ
Nous proposons deux méthodes de classification
hiérarchique
descendante,qui
serapprochent,
dans un cadre nonsupervisé,
des méthodes desegmentation.
En effet, lors de la construction de la hiérarchie par divisions successives de l’ensemble des individus,une classe est
toujours
divisée en deux sous-classes. Ces deux sous-classes sont obtenuesen choisissant une variable et sa transformation en variable binaire. On obtient ainsi une
classification facilement
interprétable,
l’arbrehiérarchique
ayant laparticularité
d’être iciun arbre de décision. La
première
méthode, DIVAF, sélectionne la variable paranalyse
descorrespondances
et utilise les scores factoriels pour transformer cette variable en variable binaire. La deuxième méthode, DIVOP, choisit simultanément la variable candidate et satransformation par
optimisation
d’un critère d’évaluation despartitions. L’aspect simple
etinterprétatif
de ces deux méthodes a motivé leurapplication
dans le cadre d’une étude surla peau humaine saine. Le but de cette étude est la recherche d’une classification de la peau du
visage,
élaborée à l’aide d’outilsd’analyse
des données,susceptible
de contribuer à uneapproche
rationnelle de lacosmétologie
et d’intéresser lesdermatologues.
Mots-clés :
Classification automatique, classification hiérarchique
descendante,segmentation, classification monothétique, analyse
descorrespondances multiples.
ABSTRACT
Two descendant hierarchical
clustering
methods areproposed
in this paper. These methods are, in a nonsupervised
context, closed to thesegmentation
methods.During
thehierarchy
construction process, each cluster isalways
divided in two sub-clusters. The two sub-clusters are obtainedby
the selection of aparticular
variable and itsbinary
transformation.An
easily interpretable
classification is obtained, and, in this case, theresulting
hierarchical88 M. CHAVENT, C. GUINOT, Y LECHEVALLIER, M. TENENHAUS
tree is a decision tree. In the first method, DIVAF, the variable is selected
by using
thecorrespondence analysis
method; then, the factorial scores conduct toa binary
transformation of the variable. In the second method, DIVOP, the candidate variable and itsbinary
transformationare
simultaneously
selectedby optimization
of a criterion which evaluates theresulting partitions.
The apparentsimplicity
of the two methods and the easiness ofinterpretation
of theirresults conducted to
apply
these methods to a set ofhealthy
human skin data, to search for ascientifically
based classification, which would contribute to a rationalapproach
incosmetology
and which would be
potentially
useful fordermatologists.
Keywords :
divisive hierarchicalclustering
methods,unsupervised
segmentation, monotheticclustering, multiple correspondence analysis.
1. Introduction
Les méthodes de classification divisive sont des méthodes de classification
hiérarchique.
Ellespartent
de l’ensemble des individus etprocèdent
par divisions suc-cessives des classes
jusqu’à
l’obtention de classes vérifiant certainesrègles
d’arrêt.On les
appelle
aussi méthodes descendantes de classificationhiérarchique
pour les différencier des méthodes ascendantesqui partent
dessingletons
etqui procèdent
paragrégations
successives. Deplus,
lacomplexité
d’unalgorithme
ascendant estgénéra-
lement
polynomiale,
tandis que celle d’unalgorithme
descendant estgénéralement exponentielle.
Eneffet,
lors de lapremière étape
d’une méthodeascendante,
il faut évaluer toutes lesagrégations possibles
de deux individusparmi
n, soitn(n - 1)/2 possibilités,
tandisqu’un algorithme
descendant basé sur l’énumérationcomplète
évalue toutes les divisions des n individus en deux sous-ensembles non
vides,
soit2n-1 -1 possibilités.
Cettestratégie
de l’énumérationcomplète, adoptée
par Edwards et Cavalli-Sforza(1965)
pour le critère de la varianceintra-classe,
est bien sûr diffi- cilementapplicable
dès que le nombre n d’individus estsupérieur
à 20. Différentesapproches
ont étéenvisagées
pourpalier
à ceproblème
decomplexité.
On
distingue généralement
les méthodes detype polythétique
des méthodes detype monothétique.
Les méthodesmonothétiques imposent
aux individus d’une même classe deposséder
au moins unecaractéristique
en commun. Les méthodes des- cendantes detype polythétique
sontgénéralement,
comme les méthodesascendantes,
définies àpartir
d’un tableau de dissimilarités et cherchent des classes d’individus seressemblant sur une
majorité
decaractéristiques.
Une desplus
anciennes méthodes detype polythétique
est celle deMacNaughton-Smith
et coll.( 1964).
Ces méthodes cher- chentgénéralement
àoptimiser
un critèrelocal,
c’est-à-dire le critère de labipartition,
et non celui de la
partition
induite sans faire une énumérationcomplète
de toutes lesbipartitions.
Différents critères ont été étudiés comme le critère du diamètre(Hubert (1973), Guénoche,
Hansen et Jaumard(1991)),
le critère de la distance moyenne inter- groupe(Matula (1986),
Guénoche(1994),
Roux(1995),
Hunstman-Labed(1997))
ouencore le critère d’inertie intra- classe
(Reinert (1983),
Roux(1985)).
En1978,
Gowda et Krishnaproposent
unestratégie
différente utilisant la notion des kplus proches
voisins mutuels. Un
problème
intéressant et peu abordéjusqu’à présent
est certai-nement celui de la validité d’une division et par là même du bon nombre de classes
(Har-Even
etBrailovsky, 1995).
Les méthodes de
type monothétique
diffèrent des méthodespolythétiques
enimposant
aux individus d’une même classe deposséder
au moins unecaractéristique
en commun. Cette
propriété
estgénéralement
obtenue en divisant une classe enfonction d’une variable et d’une dichotomie des valeurs de cette variable. L’intérêt de cette
approche
est la facilitéd’interprétation
des classes obtenues. Eneffet, chaque
classe est définie par une
conjonction
decaractéristiques
traduisant une condition nécessaire et suffisanted’appartenance
à la classe. Lapremière
méthode divisive detype monothétique
a étéproposée
par Williams et Lambert(1959).
Cetteméthode,
définie initialement pour des variablesbinaires, sépare
les individus de modalité 0 des individus de modalité 1 sur une variable choisie en maximisant un critère d’associationcomme par
exemple
la somme des khi-deux de la variable aux autres variables. Cette méthode a été étendue au cas des variablesqualitatives (Volle, 1976),
cequi
crée unnouveau
problème
decomplexité,
le nombre de dichotomies augmentant de manièreexponentielle
avec le nombre de modalités.Depuis,
les méthodesmonothétiques
de classification divisive ont été étudiées en
intelligence
artificielle dans le cadre des méthodes de classificationconceptuelle (Michalsky, Diday
etStepp (1982), Michalsky
et
Stepp (1983)).
En
parallèle,
les méthodes divisives detype monothétique
ont étédéveloppées
dans un
objectif prédictif
sous le nom de méthodes desegmentation.
Dans cecadre,
on cherche une liaison entre une variable àexpliquer
et un ensemble de variablesexplicatives.
La méthode AID(Automatic
InteractionDetector)
deSonquist
et
Morgan (1963)
cherche àexpliquer
une variablequantitative
à l’aide d’un ensemble de variablesqualitatives.
Les méthodes desegmentation, qui
cherchent àexpliquer
unevariable
qualitative représentant
des classes apriori
àpartir
d’un ensemblequelconque
de
variables,
ont étédéveloppées
enstatistique
parBreiman, Friedman,
Olshen et Stone(1984)
à travers lelogiciel
CART(Classification
andRegression Tree).
Enintelligence artificielle, Quinlan (1986)
propose lelogiciel
ID3(Induction
DecisionTree).
En
intelligence artificielle, l’apprentissage
nonsupervisé correspond
à laproblématique
de laclassification,
tandis quel’apprentissage supervisé correspond
à celle de la discrimination. Ainsi les méthodes usuelles de
segmentation
sontdes méthodes
supervisées.
Nous proposons dans cet article deux méthodes desegmentation
nonsupervisées.
Ces deux méthodes divisives fontappel
à des notions et à des critères issus del’analyse
des données. Lapremière
méthodes’appuie
àchaque étape
sur uneanalyse
factorielle. Onl’appellera
DIVAF. La deuxième méthode est basée surl’optimisation
de l’inertie intra-classe desbipartitions.
Onl’appellera
DIVOP.
Ces deux méthodes ont été utilisées sur les données d’une étude menée au
CE.R.I.E.S. dont
l’objectif
était de proposer unetypologie
fiable de la peau humaine sainereposant
sur unpetit
nombre de caractères cutanéspertinents.
Les données ont été recueillies entre avril et mai1996,
sur 212 femmes volontaires d’Ile-de-Franceprésentant
une peauapparemment
saine etd’âge compris
entre 20 et 50 ans. Cesdonnées résultent d’un examen
clinique appréciant
17caractéristiques
de la peau de lajoue,
évaluées sur des échellesqualitatives.
Cessignes cliniques peuvent
être visuels comme «aspect gras» ou encore«régularité
dugrain
de la peau». Ilspeuvent également
être tactiles comme «toucher rêche» ou encore«incapacité
à rosir mêmeaprès
unléger pincement».
Ces variables sont toutes binaires ou ordinales.90 M. CHAVENT, C. G UINOT, Y LECHEVALLIER, M. TENENHAUS
Le travail
présenté
dans cet article fait suite à unepremière analyse qui
avaitmis en
parallèle
deuxméthodologies
différentes : la classification par la méthode des centres mobiles et la classification par la méthode DIVAF(Guinot, Tenenhaus, Dubourgeat,
LeFur, Morizot, Tschachler, 1997).
Dans cetarticle,
les deux méthodes divisives DIVAF et DIVOP sontprésentées
et mises enparallèle
dans le cadre de cetteapplication.
Elles sont aussicomparées
à d’autres méthodes de classification.2. La méthode DIVAF
Cette méthode construit une hiérarchie d’un ensemble
d’individus,
en divisant àchaque étape
une classe en fonction d’une variablequalitative
à deux ouplus
moda-lités. Cette méthode utilise à
chaque étape l’analyse
factorielle descorrespondances multiples (AFCM),
d’unepart,
pour sélectionner une variablequalitative
et, d’au-tre
part,
pour choisir ledécoupage
en deux groupes des modalités de cette variablequalitative
afin de construire les deux classes.2.1 Présentation de la méthode
La
première étape
consiste à effectuer uneanalyse
factorielle sur l’ensemble des individus. On sélectionne dans unpremier temps
la variable X laplus
liée à lapremière composante principale.
Pour mesurer cetteliaison,
onpeut,
parexemple,
utiliser lerapport
de corrélation entre la variable X et lapremière composante principale
ouencore le niveau de
signification
du F del’analyse
de la variance associée. Dans undeuxième
temps,
la dichotomie du domaine d’observation de cette variable est définieen
opposant
les modalités à valeurspositives
sur lapremière composante principale
à celles à valeurs
négatives.
Le critère de choix doit aussi tenircompte
des effectifs des classes obtenuesqui
ne doivent pas êtretrop
faibles.Au cours des
étapes suivantes,
onrépète l’étape précédente
sur les deux classesobtenues,
et ainsi de suite.Chaque
classe est diviséesystématiquement.
Les divisions s’arrêtent
lorsque
les classes obtenues sonthomogènes
oulorsque
la classe est
trop petite.
On considèrequ’une
classe esthomogène lorsque
le lien entrechaque
variable et lapremière composante principale
esttrop
faible.Une
particularité
intéressante de cette méthodepermet
àl’expert
d’intervenir dans la construction de la hiérarchie :l’expert peut
choisir une des variables lesplus
liées à la
première composante
pour définir labipartition.
2.2
Application
de la méthodeLa méthode DIVAF a
permis
de définir unetypologie
des femmes en six classes.La
figure
1indique
les divisions successivesayant permis
la construction des six classes.Au
début,
les 212 femmes se divisent en fonction de la variable«capacité
àrosir dès
l’attouchement»,
lapremière question
binaire étant :[capacité
à rosir dès l’attouchement =oui ?]
ou
[capacité
à rosir dès l’attouchement =non ?]
Puis,
les 156 femmesrépondant
oui à laquestion
binaireprécédente
se divisenten fonction de la variable «toucher gras», tandis que les 56 femmes
ayant répondu
non, se divisent en fonction de la variable «couleur
jaune»,
etc. Le critère d’arrêt utilisé ici a été la taille des classes.A
chaque division,
les trois variables lesplus
liées à lapremière composante principale
sontindiquées
par ordre décroissant et la variable retenue parl’expert
estsoulignée.
Ainsi la variable«couleur jaune»
a été choisie parl’expert
bienqu’elle
nesoit que la deuxième variable la
plus
liée à lapremière composante.
La
représentation
choisie est celle des arbres de décision car cettereprésentation
est
simple
et lisible.FIGURE 1
Arbre
hiérarchique
obtenu avec DIVAF.Afin d’illustrer cet arbre de
classification,
le centre degravité
des 6 classes et les modalités des variables ont étéreprésentés
simultanément sur leplan
factoriel de lafigure
2. Par souci de lisibilité seuls les libellés des modalités lesplus
contributives sontindiqués.
Ondistingue déjà
deux familles de variables : les variables liées à l’état de la microcirculation de la peau,qui correspond, globalement
aupremier
axe, et lesvariables liées à la
production
de sébumcorrespondant
au deuxième axe. On noteégalement
que lapremière
variable de coupure«capacité
à rosir dès l’attouchement»résume la variation sur le
premier
axe factoriel tandis que la variable de coupure«toucher gras» résume la variation sur le deuxième axe factoriel.
92 M. CHAVENT, C. GUINOT, Y LECHEVALLIER, M. TENENHAUS
FIGURE 2
Visualisation simultanée des modalités et des centres de
gravité
des 6 classes(Plan
1-2 del’analyse factorielle
du tableaudisjonctif complet
initialcroisant les 212
femmes
avec les modalités de toutes lesvariables).
3. La méthode DIVOP
La méthode DIVOP
(Chavent 1997, 1998), présentée
ici dans le cas par- ticulier des variablesqualitatives,
divise àchaque étape
une classe en fonctiond’une
question
binaire et du critère d’inertie. Dans le cas de variablesqualita-
tives
ordinales,
la méthode utilise soit la distance euclidienne usuelle sur le tableau individus xvariables,
où les modalités d’une variable sont codées par leur rang(1
pour la
première modalité,
2 pour laseconde, etc.)
soit la distance du khi-deux sur le tableaudisjonctif complet.
Achaque étape,
la méthode définit laquestion
binairequi
induit la
bipartition
d’inertie intra-classe minimum.3.1 Présentation de la méthode
Rappelons
la formule deHuygens qui
relie l’inertie de l’union de deux classesI(Ci
UC2)
à l’inertie intra-classeW(Ci, C2)
et à l’inertie inter-classeB(C1, C2 ) :
L’inertie intra-classe W est
égale
à l’inertie deCI plus
l’inertie deC2 :
On recherche tout d’abord une
bipartition (Ci, C2)
de l’ensemble des individus deplus petite
inertie intra-classe.Pour
cela,
on évalue toutes lesbipartitions
induites par toutes lesquestions
binaires. Si la variable X est
ordinale,
on évalue au maximum m - 1bipartitions,
métant le nombre de modalités de X. Dans le cas d’une variable
qualitative nominale,
on se heurte à un
problème
decomplexité,
le nombre de dichotomies du domaine d’observation étant alorségal
à2m-1 -
1. Dans lapratique,
letemps
de calcul devientimportant
dès que m estsupérieur
à 10. On sélectionne la variable X et la dichotomie(S, S)
du domaine d’observation de Xqui
induit labipartition
deplus petite
inertie intra-classe.Dans un deuxième
temps,
il faut choisir la classe que l’on va diviser àl’étape
suivante. On
peut
en effet choisir de diviser la classeCI
en deux classesci
etCr.
Onobtient alors une
partition
en trois classes(C11 n2 C2).
Onpeut également
choisirde diviser la classe
C2
en deux classesC2
etC22.
On obtient alors lapartition
en troisclasses
(Ci, C2 , C22).
La méthode DIVOP divise la classeCi qui
induit lapartition
en trois classes de
plus petite
inertie intra-classe. On montre que cela revient à choisir la classeCi qui
maximise :On
répète
ensuite les deuxétapes précédentes jusqu’à
ce que le nombre de classes fixé audépart
soit atteint. Les divisions sont arrêtéesaprès
Kitérations,
ce nombre étant fixé audépart
par l’utilisateur. Enconséquence,
les feuilles de l’arbre de décision sont les K + 1 classes de la dernièrepartition
construite et les noeuds sont lesquestions
binaires sélectionnées par la méthode.L’arbre de décision est une hiérarchie sur les K + 1 classes. Cette hiérarchie indicée
par A
nepossède
pas d’inversion.Ainsi,
une classe divisée avant une autre estreprésentée plus
haut dans l’arbrehiérarchique
et lespartitions
de 2 à K + 1 classesobtenues
après chaque
division sont bien lespartitions
de la hiérarchie indicée.Par
exemple,
l’arbre de décision de lafigure
3.1représente
unepartition
en5 classes
(C5, C6, C7, C8, Cg).
Dans cettereprésentation,
on ne connaît pas l’ordre dudécoupage.
On ne sait pas siC2
a étédécoupé
avantC3.
Enrevanche,
en associant à cet arbre de décision la hiérarchie indicéepar A
de lafigure 3.2,
l’indétermination est levée.FIGURE 3.1 FIGURE 3.2
Arbre de décision Hiérarchie indicée
d’une
partition
en 5 classes. d’unepartition
en 5 classes.94 M. CHAVENT, C. GUINOT, Y. LECHEVALLIER, M. TENENHAUS
3.2
Application
de la méthodeOn a
appliqué
la méthode DIVOP sur le tableaudisjonctif complet
des donnéessur la peau saine en utilisant dans un
premier temps
la distance du khi-deux. L’arbre de décision obtenu alors estproche
de celui de la méthode DIVAFpuisque
les deuxpremières
coupures sontidentiques.
Dans un deuxième
temps,
la méthode DIVOP à étéappliquée
en utilisant la distance euclidienne usuelle sur le tableau individus xvariables,
les modalités d’une variable étant codées par leur rang. L’arbrehiérarchique
obtenuaprès
5 divisions estprésenté figure
4. La dernièrepartition
est unepartition
en 6 classes. Cet arbre donne les différentesquestions
binairesayant
induit lespartitions
de 2 à 6 classes. On lit ainsi que lapremière question
binaire est :Les 212 femmes sont donc divisées en 102 femmes pour
lesquelles
une«érythrose»
est absente ou peu visible et 110 femmes pourlesquelles
une«érythrose»
est visible. Puis ces 110 femmes sont de nouveau divisées en fonction de la variable
«régularité
dugrain»
de la peau. A la différence de l’arbre de décision de lafigure 1,
cette
représentation indique
l’ordre de construction despartitions
de 2 à 6 classes.FIGURE 4
Arbre
hiérarchique
obtenu avec DIVOP.Les
figures 5,
6 et 7permettent
de commenter ces résultats sur le mêmeplan
factoriel 1-2 que celui de la
figure
2. Sur lafigure 5,
on remarque que les modalités des variables«érythrose»
et«régularité
dugrain», qui
induisent les deuxpremières divisions,
sontrespectivement
contributives aupremier
et au deuxième axe factoriel.Sur le
plan
factoriel de lafigure 6,
on visualise lapartition
en trois classes et l’évolution des centres degravité
de lapartition
en 2 classes à lapartition
en 3 classes.FIGURE 5
Modalités des deux
premières
divisions.FIGURE 6
Visualisation de la
partition
en trois classes.On lit classe
i/j
où i est le numéro de la classe de lapartition en j
classes. Parexemple
la classe 1/2 est la classe 1 de la
partition
en 2 classes.Dans un
premier temps,
on note sur cettefigure
que femmes de la classe 1/2 pourlesquelles
uneérythrose
est absente ou peu visible sont à droite du second axefactoriel,
tandis que les femmes de la classe2/2,
pourlesquelles
uneérythrose
est96 M. CHAVENT, C. GUINOT, Y. LECHEVALLIER, M. TENENHAUS
visible,
sont àgauche
du second axe factoriel. Dans un deuxièmetemps,
on note que les femmes de la classe 2/2 sont divisées en deux classes 2/3 et3/3,
c’est à dire la deuxième et la troisième classe de lapartition
en trois classes. La classe 1/2, qui
n’a pas été
divisée,
est aussi la classe 1 de lapartition
en trois classes c’est à dire la classe 1/3. Les femmes de la classe 2/3 dont legrain
estrégulier
sont au-dessus dupremier
axe factoriel tandis que celles dont legrain
estirrégulier
sont au-dessous dupremier
axe factoriel.La
figure
7permet
devisualiser,
àpartir
des centres degravités
des classes despartitions
de 2 à 6classes,
la construction de l’arbrehiérarchique.
Parexemple,
laclasse 3/4 est
découpée
lors de laquatrième
division en deux classes 3/5 et 5/5.FIGURE 7
Visualisation des centres de
gravité
des classes despartitions
de 2 à 6 classes.4. Discussion
La discussion
portera
sur lacomparaison
des méthodes DIVAF et DIVOP auniveau
méthodologique.
Laqualité d’optimisation
de ces méthodes seracomparée
àd’autres méthodes de classification
automatique.
4.1
Comparaison
des méthodes DIVAF et DIVOPLa méthode DIVAF
adopte
uneapproche locale, l’analyse
factorielle descorrespondances
étant recalculée localement surchaque
classe. La méthode DIVOPadopte
uneapproche plus globale puisque
àchaque étape,
elle cherche à obtenir nonpas seulement une bonne
bipartition
maiségalement
une bonnepartition
induite. C’estpourquoi
elle choisit àchaque étape
la classequi
va être divisée. La méthode DIVAF définit laquestion
binairequi
va induire labipartition
en choisissant dans unpremier
temps
la variable et, dans un deuxièmetemps,
la dichotomie des modalités de cette variable. La méthode DIVOP définit laquestion
binaire en choisissant simultanément la variable et la dichotomie des modalités de cette variablequi
induisent labipartition
de
plus petite
inertie intra-classe.DIVOP se heurte à un
problème
decomplexité lorsque
les modalités ne sont pasordonnées. La méthode DIVAF résout ce
problème
enopposant
les modalités à scorenégatif
aux modalités à scorepositif.
Enrevanche,
la dichotomie des modalités n’est pas définie comme dans la méthodeDIVOP,
en fonction d’un critère d’évaluation desbipartitions
que l’on cherche àoptimiser.
Lacomplémentarité
des deux méthodespermet d’envisager
une troisièmeapproche
où les modalités sont ordonnées enfonction de la
première
composanteprincipale
et la dichotomie de ces modalités choisie pouroptimiser
labipartition
induite.Enfin,
la méthode DIVOP est définie pour toustypes
de variables tandis que la méthode DIVAF n’est définie pour l’instant que pour des variablesqualitatives.
4.2
Comparaison
avec les autres méthodes declassification
Nous avons obtenu avec la méthode DIVOP deux
typologies
en 6 classes enutilisant
respectivement
la distance du khi-deux sur le tableaudisjonctif complet
etla distance euclidienne sur le tableau des variables ordinales
(où chaque
modalité estcodée par son
rang).
Sur ces deuxtableaux,
et avec les mêmesmétriques,
nous avonségalement
utilisé la méthode de classification ascendantehiérarchique
avec le critèrede Ward et la méthode des Nuées
Dynamiques.
Le tableau 1
présente
lepourcentage
d’inertieexpliquée
en fonction de la méthode et de la distanceTABLEAU 1
Pourcentage
d’inertieexpliquée
despartitions
en six classes.Les
pourcentages
d’inertieexpliquée,
obtenus avec la méthode DIVOP sont,naturellement, légèrement
moins bonsqu’avec
la méthode des nuéesdynamiques.
En
revanche,
ils sont tout à faitcomparable
aux résultats obtenus avec la méthode ascendante de Ward. Les26,67
% d’inertieexpliquée,
obtenu avec la méthodeDIVAF, s’expliquent
par l’interventionexperte,
au niveau du choix de la seconde variable de coupure.Cependant,
les méthodes desegmentation
nonsupervisée
ontl’avantage
d’avoirune
interprétation
facile des classesgrâce
à leur caractèremonothétique.
Ellesrejoignent
les méthodes de classificationconceptuelles,
connues enintelligence
artificielle,
enprésentant l’avantage
de seplacer
dans un cadred’optimisation.
98 M. CHAVENT, C. G UINOT, Y. LECHEVALLIER, M. TENENHAUS
Par
ailleurs,
comme elles utilisent aussi lalogique
de lasegmentation classique,
ces méthodes
peuvent s’intégrer
facilement dans les outils dedata-mining.
Enfin,
les testsstatistiques
d’arrêt et l’interventiond’experts
au niveau du choix de la variable sont deuxpoints
forts de ces méthodes.Remerciements
Les auteurs remercient le
professeur
E. Tschachler pour sesencouragements
et toute
l’équipe
du CE.R.I.E.S. pour leur contribution aux données et enparticulier
M.
Dubourgeat,
F. Morizot et I. Le Fur.Bibliographie
BREIMAN
L.,
FRIEDMANJ.H.,
OLSHENR.A.,
STONE C.J.(1984).
Classification AndRegression Trees, Chapman
& Hall.CHAVENT M.
(1997). Analyse
des donnéessymboliques;
une méthode division declassification, Thèse,
Université ParisIX-Dauphine.
CHAVENT M.
(1998).
A monotheticclustering method,
PatternRecognition
Letters19,
pp. 989-996.GOWDA
K.,
KRISHNA G.(1978). Disaggregative clustering using
theconcept
of mutual nearestneighborhood,
IEE Transaction onSystems,
Man andCybeme-
tics
8,
pp. 888-895.EDWARDS
A.W.F.,
CAVALLI-SFORZA L.L.(1965).
A method for clusteranaysis,
Biometrics
21,
pp. 362-375.GUENOCHE A.
(1994). Spanning
trees and averagelinkage clustering,
New ap-proaches
in classification and dataanalysis,
éd.Diday
E. et LechevallierY., Springer Verlag,
pp. 119-127.GUENOCHE
A.,
HANSENP.,
JAUMARD B.(1991).
Efficientalgorithms
fordivisive hierarchical
clustering,
Journal of classification8,
pp. 5-50.GUINOT
C.,
TENENHAUSM.,
DUBOURGEATM.,
LE FURI.,
MORIZOTF.,
TSCHACHLER E.(1997).
Recherche d’une classification de la peau humaine saine : méthode de classification et méthode desegmentation, XXVIIIèmes journées
destatistiques, Carcassonne,
pp. 429-432.HAR-EVEN M. et BRAILOVSKY V.L.
(1995).
Probabilistic validationapproach
forclustering,
PatternRecognition Letters,
pp. 1189-1196.HUBERT L.
(1973).
Monotone invariantclustering procedure, Psykometrika
vol.38,
n°
1,
pp. 47-62.HUNTSMAN-LABED A.
(1997). Algorithmes
de constructionhiérarchiques
cher-chant à
optimiser
le critère des moindrescarrés, Thèse,
Université Aix- Marseille III.MAC-NAUGHTON-SMITH
P.,
WILLIAMSW.T.,
DALEM.B.,
MOCKETT L.G.(1964). Dissimilarity analysis :
a newtechnique
of hierarchicalsubdivision,
Nature
202,
pp. 1034-1035.MATULA D.W.
(1986).
Divisive versusagglomerative
averagelinkage
hierarchicalclustering,
Classification as a toolof research,
éd. Gaul W. et ShaderM., Elsvier, pp. 289-301.
MICHALSKY
R.,
DIDAYE.,
STEPP R.(1982).
A recent advance in dataanalysis : clustering objects
into classes characterizedby conjunctive concepts, Progress
in Pattern
Recognition,
éd. Kanal L.N. et RosenfeldA.,
pp. 33-56.MICHALSKY R. et STEPP R.
(1983). Learning
from observations :conceptual clustering,
MachineLearning :
an artificialintelligence approach,
éd.Michalsky
R.S. et Corbonell
J.G., Morgan
Kaufman.QUINLAN
J.R.(1986).
Induction of decision trees, MachineLearning 1,
pp. 86-106.REINERT M.
(1983),
Une méthode de classification descendantehiérarchique,
Cahiers de
l’analyse
des données3,
pp. 187-198.ROUX M.
(1985). Algorithmes
declassification,
Masson.ROUX M.
(1995).
About divisive methods in hierarchicalclustering,
Data Science and itsapplications,
éd. Escoffier Y. etHayashi C.,
Academic press, pp. 101-106.SONQUIST
J.A. et MORGAN J.J.(1963).
Problems in theanalysis
of survey data andproposal,
J.A.S.A.58,
pp. 415-435.VOLLE M.
(1976). Analyse
desdonnées,
Economica.WILLIAMS W.T. et LAMBERT J.M.
(1959),
Multivariate methods inplant ecology,
Journal of