Structure et espace de représentation
Laméthodedesnuéesdynamiquesreposesurlesnotionsdestructureet d'espacede
représen-tation.
Dénition 27 Soitunensemble,estmunid'unestructuredereprésentationsionluiassocie:
d'une part unensembleL etuneapplicationD de P()Ldans R
+
,
etd'autre part unensemble L
k etune application W de P k L k dans R + . LesespacesL etL k
sont appelésrespectivementespacede représentation d'une classe etespacede
représentation d'une partition.
où P() est l'ensemble des parties de et P
k
l'ensemble des partitions P = (P
1 ;:::;P
k
) en k
classes de .
D estunemesurededissemblanceentreuneclasseetunereprésentationdeclasse.
W est une "critère" mesurant l'adéquation entre une partition et une représentation d'une
partition.
Fonction de représentation et d'aectation
Parallèlement ondénit deux fonctionsqui f et g qui vontservirrespectivementàaecter le
objetsetàcalculerlesreprésentationsdesclasses.Ainsi:
Fonction de représentation: Lafonctiondereprésentationg vaserviràtrouverune
représen-tationdesclasses,c'estunefonctiondeP
k
àvaleursdansL
k
.Danslecasdelaconstruction
deprototypes(cf.chap. 5), c'estlafonctionquivacalculerlesprototypesdescatégories.
Fonction d'aectation: Lafonctiond'aectation f va serviràtrouverunepartition,c'est une
fonctiondeL
k
àvaleursdansP
k
.Danslecasdelaconstructiondeprototypes,cettefonction
apourobjetd'aecterlespointsd'apprentissageauxclusters.
Laméthodedesnuéesdynamiquesconsisteàtrouveruncouple(P ;L )2P k L k quiminimise
lecritèreW,ainsionpeutécrire:
W(P ;L )=min fW(P;L)=P 2P k ;L2L k g (C.1)
Andepoursuivrecetobjectif, laméthodevacommesuit:
1. choisirunespacedereprésentationL
k , 2. dénirun critère W : P k L k !R +
, ce critèredoit permettre de mesurerl'adéquation
entre toutepartitionP 2P
k
ettoutereprésentationL2L
k
decette partition,
3. dénirunproblèmed'optimisationquiconsisteàcherchersimultanémentlapartitionP 2P
k
etune représentationL decettepartition defaçonqueP et Laientlameilleureadéquation
ausensducritèreW,
4. construireunalgorithmequi consiste àutiliserdemanièreitérativelesfonctionsg et f
(af-fectationet représentation).L'algorithmeest initialisé àl'aide d'uneclassicationP
0 2P k etd'unereprésentationL 0 2L k
Aide multicritère à la décision
A=fa;b;c:::gensembledeactions
E=E
1
:::E
n
espacedescritères
g j
fonctioncritèredénie surAàvaleursdansE
j
F =fg
1 ;:::;g
n
gouF =f1;:::;ngfamillecohérentedecritères
g j
(a)=x
j
performancedel'actionasurlecritèrej
g(a)=x=(g 1 (a);:::;g n (a))=(x 1 ;:::;x n
)imagedeadansl'espacedescritères
x I
y J
pointdeEconstruitàpartirdesperformancesdupointxsurlescritèresdeI etdupoints
y surlescritèresdeJ avecF =I[J
q j
seuild'indiérenceducritèrej
p j
seuildepréférenceducritèrej
v +
j
seuil devetosupérieurducritèrej
v j
seuildevetoinférieurducritèrej
C H
j
concordanceaveclarelationH surlecritèrej
D H
j
discordanceaveclarelationH surlecritèrej
C H
concordanceglobaleaveclarelationH
D H
discordanceglobalelarelationH
S j
relationdesurclassementsurlecritèrej
S relationdesurclassementglobale
P j
ou
j
relationdepréférencesurlecritèrej
P ourelationdepréférence globale
Qou%relationdepréférencefaible
I j
ou
j
relationd'indiérencesurlecritèrej
I ourelationd'indiérenceglobale
P:problématiqueduchoix P:problématiquedutri P: problématiquedurangement P:Æproblématiquedeladescription Apprentissage et classication Z=fz 1 ;z 2
;:::gensemble despointsd'apprentissage
fC 1
;:::;C q
gensembledescatégories
Y =Y
1
[:::[Y
q
ensembledespointsderéférences
Y t =Y + t [Y t
ensembledespointsdereferencecentraux delacatégorieC
t
Y +
t
ensembledespointsderéférencecentrauxpositifsdelacatégorieC
t
Y t
ensemble despointsderéférenceexcluants/négatifsdelacatégorieC
t Y t =Y sup t [Y inf t
ensembledespointsdereferencelimitesdelacatégorieC
t
Y sup
t
ensembledespointsderéférencelimites supérieursdelacatégorieC
t
Y inf
t
ensembledespointsderéférencelimitesinférieurs delacatégorieC
t
t
(a)degréd'aectationdel'actionaàlacatégorie C
t
o
t
(y)degréd'aectationdupointderéférencey àC
t Construction de paramètres ssolution/individu QR (C t =s)qualitédereprésentationdeC t pars NR (Y t
)non redondancedespointsderéférence
opérateurdecroisement
$ opérateurdemutation
CScontraintesstructurelles
1.1 Lesdiérentes problématiqueen A.D. . . 16
2.1 Arbrede décision de la procéduretrichotomique de segmentation . . . 30
2.2 Fonction de"goodness"etde "badness"dansnTOMIC . . . 31
2.3 Partition de l'espace (d;D) . . . 32
2.4 Procédures d'aectation de ElectreTri . . . 32
2.5 Aectationoptimiste etpessimiste deElectreTri . . . 33
2.6 Frontières construitespar lesméthodes de discriminationlinéaire, logistiqueet qua-dratique . . . 36
2.7 Modèle àdeuxcouches . . . 37
2.8 PerceptronMultiCouches àunecouche cachée . . . 38
2.9 Graphede diagnostic de cancer . . . 39
2.10 Aectation d'unpointpar les 3 plusproches voisins et par la fenêtre de Parzen de rayonh . . . 42
2.11 Arbrede décision pourla classication d'objets volants . . . 44
3.1 Préférencefaible stricteetgraduelle . . . 52
3.2 Valeursde l'indiérence surlecritèrevitesse . . . 53
3.3 Appartenanceauxgrandsetauxgéants . . . 54
3.4 Coecientd'appartenance auxcoalitionsconcordante etdiscordante . . . 57
3.5 Préordrede préférencesurlescatégoriesde cuisson . . . 64
3.6 Filtrage par indiérenceaveccatégories monoprol etmultiprol . . . 70
3.7 Filtrage par préférenceet combiné . . . 71
3.8 Algorithmedesk plusindiérents prototypes . . . 72
3.9 Arbrede calcul . . . 75
4.1 Constructioninteractive despoids . . . 85
5.2 Calculde clusters parnuéesdynamiques . . . 96
5.3 Qualité de Représentation etnon-redondance . . . 99
5.4 PointsZ 4 etde Y 4 . . . 99
5.5 Procéduregénérale del'algorithme génétique . . . 107
5.6 Procédurede croisement . . . 108 5.7 Procédurede mutation . . . 108 5.8 Fonction d'évaluation . . . 110 6.1 . . . 116 6.2 . . . 116 6.3 . . . 117 6.4 . . . 118 6.5 . . . 119 6.6 . . . 119 6.7 . . . 120 6.8 . . . 120 6.9 . . . 121 6.10 . . . 121 6.11 . . . 122 6.12 . . . 123 6.13 . . . 123
A.1 Lessixcavaliers . . . 129
A.2 Graphede déplacement dessix cavaliers . . . 130
1.1 Évaluationsdesactions a, bet c . . . 12
1.2 Performances . . . 13
2.1 Tablede décisionpour lediagnosticde la grippe . . . 43
3.1 Tableaucomparatifdesméthodesde trimulticritère . . . 50
3.2 Discordanceet indiérenceen fonctionde k . . . 59
4.1 Prolsdescatégories . . . 87
4.2 Poids construitsaveclescoecientsdégradés de l'ensemble d'apprentissage . . . 88
4.3 Diérenceentreaectations initiales etcalculéesaveclespoids construits . . . 89
4.4 Poids construitsaveclescoecientsnets de l'ensemble d'apprentissage . . . 89
4.5 Diérence entre aectations initiales et calculées avec les poids construits à partir descoecientsnets . . . 89
5.1 Prototypesde C 4 construits parnuées dynamiques . . . 100
5.2 Aectationavec Z t etY t . . . 100 5.3 Prototypesde C 1 . . . 109 5.4 Fonction d'évaluation . . . 109
B.1 Performances desingénieurs . . . 132
B.2 Performances descommerciaux . . . 133
B.3 Performances despolyvalents . . . 134
B.4 Perturbations apportéesauxcoecientsd'appartenancedespointsde Z . . . 135
B.5 Aectationseectuéesà l'aidedespoidsconstruits àpartir descoecients dégradés 136 B.6 Aectationseectuéesà l'aidedespoidsconstruits àpartir descoecients nets . . 137
[1] A.K.Agrawala,éditeur. Machine Recognitionof Patterns. IEEE,NewYork,1977.
[2] E.W. Armstrong. (( The determinateness of the utility function )). Economic Journal,
(49):453467,1939.
[3] C. Arondel et P. Girardin. (( Sorting croppingsystems onthe basis of their impact on
groundwaterquality)). European Journalof Operational Research,(àparaître).
[4] K.J.Arrow. ((Rationalchoicefunction andordering)). Econometrica,(26):121127,1959.
[5] K.J.Arrow. Social Choice andIndividualValues. JohnWiley&Sons,1963.
[6] F.Badran,S.Thiria,etF.Fogelman-Soulie.Étudeducomportementdesréseaux
mul-ticouches-comparaisonavec l'analysediscriminante. DansY.KadratoE.Diday, éditeur,
Induction symbolique et numérique à partir de données, pages 259282. Cépadués-Édition,
1991.
[7] N.Belacel.((MéthodesdeClassicationMulticritère:Méthodologie etApplicationau
Diag-nosticMédical)). Thèsededoctorat,UniversitéLibredeBruxelles,1999.
[8] M.BéreauetB.Dubuisson. ((AFuzzyextendedk-nearestneighborrule)). FuzzySets and
Systems,(44):1732,1991.
[9] J.C.BezdeketP.F.Castelaz.((PrototypeClassicationandFeaturesSelectionwithFuzzy
Sets)). IEEE,Trans.Syst.,Man,Cybern., 7(2):8792,1977.
[10] J.C.Bezdek,S.K.Chuah,etD. Leep. ((Generalizedk-nearestneighborrules)). FuzzySets
andSystems,3(18):237256,1986.
[11] J.C.Bezdek,R. Ehrlich,et W. Full. (( FCM:thefuzzy c-meansclusteringalgorithm)).
Computers&Geosciences, 10(2):191203,1984.
[12] J.C. Borda. Mémoire sur les élections au scrutin. Mémoire de l'Académie des Sciences,
1791.
[13] B.Bouchon-Meunier,C.Marsala,etM.Ramdani.((InductiveLearningandFuzziness)).
ScientiaIranica,2(4),1996.
[14] B.Bouchon-Meunier,M.Rifqi,et S. Bothorel. (( Towardgeneralmeasures of
compa-risonofobjects)). FuzzySets andSystems,(84):143153,1996.
[15] D.Bouyssou. ((Modellinginaccuratedetermination,uncertainty,impecisionusingmultiple
criteria)).DansProceedingsoftheVIII
th
InternationalConferenceonMCDM.A.G.Lockett,
1991.
[16] J.S. Breeze, D. Heckerman, et K. Rommelse. (( Decision-Theoric Troubleshooting )).
1982.
[18] ClubCrinLogiqueFloue.ÉvaluationSubjective,MéthodesApplicationsetenjeux.Ecrin,
Paris,1997.
[19] CNIL. (( Lesinitiativesde laCNIL)). http://www.cnil.fr/. section: DroitsetObligations
-AideàlaDécision.
[20] G.F.Cooper. ((NESTOR:AComputerBasedMedical DiagnosticAidthatIntegrates
Cau-sualandProbabilistic Knowledge)). thèse dedoctorat, Stanford CaliforniaUniversity, E.U.,
1984.
[21] J.J.CornaertetX.Daffe. ((Guided'achat2000)). LeMoniteurAutomobile,(hors-série),
1999.
[22] T.M.Cover et P.E. Hart. (( Nearestneighborpattern classication)). IEEE Trans.Info.
Theory,(13):2127,1967.
[23] S.L.Crowfordet R.M.Fung. ((Constructor:AsystemfortheInductionofProbabilistic
Models)). Dans Proceedings Eight National Conference on Articial Intelligence, volume 1,
pages762769,Boston,1990.AmericanAssociationforArticialIntelligence.
[24] S.P.CurrametJ.Mingers. ((NeuralNetworks,DecisionTreeInductionandDiscriminant
Analysis:aEmpiricalComparision)). J. Opl. Res. Soc., 45(4):440450,1994.
[25] B.V.Dasarathy,éditeur. Nearest Neighbor(NN)Norms: NN Pattern Classication T
ech-niques. IEEEComputerSocietyPress,LosAlamitos,CA,1991.
[26] M.J.A.N. C.MarquisdeCondorcet. Essai surl'application de l'analyse àla probabilité
desdécisions rendues àla pluralitédesvoix. ImprimerieRoyale,1785.
[27] K.A. De Jong et W.M. Spears. (( Learning Concept Classication Rules Using Genetic
Algorithms)). Dans IJCAI,pages651656,1993.
[28] E. Diday. (( Une nouvelle méthode en classication automatique et reconnaissance des
formes)). Rev.de stat. appl.,2(19), 1971.
[29] E.Diday,G.Celeux,G.Govaert,Y.Lechevalier,etH.Ralambondrainy.
Classica-tionautomatiquededonnées,environnementstatistiqueetinformatique.DunodInformatique,
Paris,1989.
[30] E.Diday, J.Lemaire,J.Pouget,et F.Testu. ((Élements d'analysede données)),
Cha-pitre2,pages116135. Dunod,1982.
[31] D. Dubois. (( Modèles Mathématiques de l'imprécis et de l'incertain en vue d'applications
aux techniques d'aide à la décision )). Thèse d'état, Université Scientique et médicalede
grenoble,InstitutNationalepolytechniquedeGrenoble,1983.
[32] D. Dubois et H. Prade. (( Unfair coins and necessity measures: towords a possibilistic
interpretationofhistograms)). FuzzySets andSystems,10:1520,1983.
[33] D. Fahhloul,G.Trystram, et A. Duquénoy. (( Mesures,modélisation et interprétation
delacolorationdesbiscuitspendantlacuisson)). Dans ActesdesjournéesAGORAL,pages
329334,1994.
[34] P.C. Fishburn. (( Relations binaires )), Chapitre 3,pages2332. Mouton Gauthier-Villars,
rence on Multiple Criteria Problem Solving - Theory, Methodology and Solving -, Bualo,
1977.
[36] R.A. Fisher. (( The use of multiples measurements in taxonomic problems )). Anals of
eugenics,(7):179188,1936.
[37] E.FixetJ.L.Hodges.((Discriminatoryanalysis,nonparametricdiscrimination:Consistency
properties)). rapporttechniqueno.4,US AirForceSchoolof Aviation Medecine,Randolph
Field,Texas,1951. [publiédansAgrawala1977[1],SilvermanetJones1989[104],Dasarathy
1991[25]].
[38] E. Fix et J.L. Hodges. (( Discriminatory Analysis: Small Sample Performance )). Report
no.11, USAirForceSchoolofAviationMedicine,RandolphField,Texas,1952.
[39] L. Foulloy, E. Benoit, L. Khodja, et T.Talou. (( Fuzzy techniques for coe avour
classication)). DansIPMU 96,pages709714,1996.
[40] G.W.Gates. (( TheReduced NearestNeighbor Rule)). IEEE Transactions onInformation
Theory,pages431433,1972.
[41] R.Gerritsenet E.Brand. ((ExclusiveOre Inc.)). http://www.xore.com/.
[42] D.Goldberg. ((Real-codedgeneticalgorithms,virtualalphabets,andblocking)). Complex
systems,2(5):139168,1991.
[43] D.E.Goldberg.GeneticAlgorithmsinSearch,Optimization&MachineLearning.
Addison-Wesley,Massachusetts,1989.
[44] M.Grabisch,H.T. Nguyen,et E.A.Walker. SubjectiveMulticriteriaEvaluation. Dans
Fundamentals of uncertainty calculi with applications to fuzzy inference, SeriesC: Theory
anddecisionlibrary,Chapitre8,pages213260.KluwerAcademicPublishers,1995.
[45] J.W.Grzymala-Busse. ((Managinguncertaintyin expert systems)),pages162172.
Engi-neeringandComputerScience.KluwerAcademic Publishers,Dordrecht,1991.
[46] D. Hackermanet M.P. Wellman. (( BayesianNetworks)). Communications of the ACM,
38(3):2730,1995.
[47] D.J.Hand. DiscriminationandClassication. JohnWiley,1981.
[48] P.E. Hart. ((TheCondensedNearestNeighborRule)). IEEETransactionsonInformation
Theory (corresp.), pages515516,1968.
[49] A. Hatchuel et B. Weil. L'Expert et le Système, suivi de quatre histoires de systèmes
experts. Economica,1992.
[50] F. Herrera. (( Combination Fuzzy Logic-Genetic Algorithms Bibliography )).
http://decsai.ugr.es/herrera/-ga.html.
[51] J.H.Holland. Adaptationin natural andarticialsystems. AnnArbor:TheUniversityof
MichiganPress,1975.
[52] R.A.HowardetJ.E.Matheson. Inuencediagrams. DansReadingsonthePrinciples and
Applications of Decision Analysis, volume 2. R.A. Howardand J.E. Matheson Eds.,Menlo
Park,California,strategicdecisiongroupsédition,1981.
[53] ICS UCI. (( UCI Machine Learning Repository Content Summary )).
lisateurde IBM-PC,(3):3855,1984.
[55] M.Kabrisky,M.E. Oxley,S.K. Rogers, D.W.Ruck,et B.W.Suter. ((TheMultilayer
PerceptronasanApproximationtoaBayesOptimalDiscriminantFunction)). IEEE Trans.
onNeuralNetworks,1(4):296298,1990.
[56] A.Kaufmann. Introductionàla théorie dessous-ensembles ous(tome 1). Masson,Paris,
1973.
[57] J.M.Keller,D.Subhangkasen,etK.Unklesbay.((Anapproximatereasoningtechnique
forrecognitionincolorimagesofbeefsteak)). Int.J. General Systems,16:331342,1990.
[58] J.M.Keller,M.R.Gray,et J.A.jr Givens. (( AFuzzyK-NearestNeighborAlgorithm)).
IEEETrans.Syst.,Man, Cybern.,15(4):580585,1985.
[59] J.M.Keller et R. Krishnapuram. (( The Possibilistic C-Means Algorithm: Insightsand
Recommendation)). IEEETrans.onFuzzySyst., 4(3):385393,1996.
[60] J.S.Kelly. ((SocialChoiceBibliography)). SocialChoice andWelfare,(8):97169,1991.
[61] J. Kittler. (( A method for determining k-nearest neighbours)). Kybernetes, 7:313315,
1978.
[62] J.Langet P.Perny. (( Décisionet IA)). Bulletinde l'AFIA, (31):2140,1997.
[63] O.I.LarichevetH.M.Moshkovich. ((AnApproachtoOrdinalClassicationProblems)).
Int.Trans.Opl. Res.,1(3):375385,1994.
[64] J.L.Laurière. Résolutiondeproblèmesparl'hommeetla machine.ÉditionsEyrolles,Paris,
1985.
[65] F.Lecamp. ((Algorithmesgénétiquespourl'apprentissagedepoidsdanslesméthodesdetri
multicritère:conceptionetexpérimentation)). mémoirededea,LAMSADE,UniversitéParis
IXDauphine,1997.
[66] R.D.Luce.((Semiordersandtheoryofutilitydiscrimination)). Econometrica,(24):178191,
1956.
[67] R.MassagliaetA.Ostanello.N-tomic:ASupportSystemforMulticriteriaSegmentation
Problems. DansMultipleCriteria Decision Support,volume356deLecture Notesin
Econo-micsand Mathematical Systems, pages167174.P.KorhonenA. LewandowskiJ.Wallenius
(Eds.),springer-verlagédition,1989.
[68] W.S. McCulloch et W. Pitts. (( A logical calculus of the ideas immanent in various
activity)). Bulletinof Math.Biophysics,(5):115133,1943.
[69] D.Michie,D.J. Spiegelhalter, etC.C.Taylor. Machinelearning,neural andstatistical
classication. ArticialIntelligence.EllisHorwood, 1994.
[70] J.Moscarola.((Aideàladécisionenprésencedecritèresmultiplesfondéesuruneprocédure
trichotomique, Méthode et Applications )). thèsede doctorat,UniversitéParisIXDauphine,
France,1977.
[71] J.Moscarola et B.Roy. (( Procédure automatique d'examende dossiers fondés sur une
segmentationtrichotomiqueen présencedescritèresmultiples )). R.A.I.R.O. Recherche
opé-rationnelle/Operations Research,11(2):145173,1977.
[72] M.Naranjo,M.Richetin, etG.Rives. ((Algorithmerapidepourladéterminationdesk
Recognition)). IEEE Transactions on Systems, Man, and Cybernetics, SMC-7(8):625629,
1977.
[74] Yoh-HanPao.AdaptativePattern RecognitionandNeuralNetworks. Addison-Wesley
Publi-shingCompagny,1989.
[75] E.Parzen. ((Onestimationofaprobabilitydensityfunctionandmode)). Ann. Math.Stat.,
(33):10651076,1962.
[76] Z.Pawlak. ((RoughSets)). Int.J. of ComputerandInformation sciences,11(5),1982.
[77] Z. Pawlak. Rough sets theoritical aspects of reasonning about data. Theory and Decision
Library.KluwerAcaemicPublishers,1991.
[78] J.Pearl. Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference.
MorganKaufmann,SanMateo, California,1988.
[79] P. Perny. (( Méthode, agrégation etexploitation de prérencesoues dansune problématique
derangement)). thèse dedoctorat,UniversitéParisIXDauphine,France,1992.
[80] P. Perny. ((MulticriteriaFiltering Methods BasedonConcordance/Non-Discordance
prin-ciples )). Annals of Operational Research, 80:137167, 1998. Special issue on Preference
Modelling.
[81] P. Perny. ((MulticriteriaFiltering Methods BasedonConcordance/Non-Discordance
prin-ciples)). Annals of Operations Research,80:137167,1998. Special issue onPreference
Mo-delling.
[82] P.PernyetB.Roy.((Theuseoffuzzyoutrankingrelationsinpreferencemodeling)).Fuzzy
SetsandSystems,(49):3353,1992.
[83] P.PernyetA.Tsoukiàs.((Onthecontinuousextensionofafourvaluedlogicforpreference
modelling)). DansIPMU'98, pages302309,Paris,1998.
[84] P. Perny et J.D. Zucker. (( CollaborativeFiltering Methods based on FuzzyPreference
Relations)). DansEUROFUSE-SIC'99,pages279285,Budapest, 1999.
[85] N.Perrot.((Applicationdelalogiqueoueàlaconduitedesfoursdecuissonenbiscuiterie)).
Mémoirededeaengéniedesprocédés,optionagro-alimentaire,ENSIA, 1994.
[86] H.Poincaré. Lascienceetl'hypothèse. Flammarion,1902.
[87] J.C.Pomerol. (( Articialintelligenceandhumandecisionmaking)). European Journalof
Operational Research,(99):325,1997.
[88] J.C.Pomerolet S. Barba-Romero. Choix multicritèredans l'entreprise,principe et
pra-tique. Hemès,1993.
[89] J.R.Quinlan. ((Inductionofdecisiontrees)). Machine Learning,(1):81106,1986.
[90] J.R. Quinlan. C4.5 Programs for machine learning. Morgan Kaufmann Publishers, San
Mateo,California,1993.
[91] H.Raïffa. Decision Analysis. AddisonWesley, Massachussets,USA,1970.
[92] M. Rifqi. (( Mesures de comparaison, typicalité et classication d'objets ous: théorie et
pratique)). thèsededoctorat, UniversitéParis6Pierreet MarieCurie,1996.
[93] B.Roy. ((Classementetchoixenprésencedepointsdevuemultiples(laméthodeElectre))).
sociales)),Chapitre10. Dunod,1969-70.
[95] B.Roy. ((Electre III: unalgorithmede classementsfondé sur unereprésentationoue des
préférencesenprésencedecritèresmultiples)). Cahiers duCERO,20(1), 1978.
[96] B.Roy. Acceptance, rejection, delay for additionalinformation presentation of a decision
aidapproach. DansAlperovich/deDombal/ Gremy,éditeur,Evaluation of eciencyof
medical action,pages7382.NorthHollandPublishingCompany,1979.
[97] B.Roy. Méthodologie multicritèred'aideàla décision. Economica,Paris,1985.
[98] B.Roy. Mainsourcesof inaccuratedetermination,uncertainty andimprecision in decision
models.DansB.MunierM.Shakun,éditeur,Compromise,NegociationandGroupDecision,
pages4362.D.ReidelPublishingCompagny,1988.
[99] B.Roy. ((Science deladécisionou sciencedel'aide àla décision?)). Revueinternationale
desystémique,6(5):497529,1992.
[100] B.RoyetD. Bouyssou. AideMulticritère àlaDécision. Economica,Paris,1993.
[101] D.E. Rumelhart, G.E. Hinton, et R.J. Williams. Learninginternal representations by
errorpropagation.DansParallel distributedprocessing,volume1,Chapitre8,pages318362.
MITPress,Cambridge,1986.
[102] G.Saporta. Probabilités,analysede donnéesetstatistiques. Technip,Paris,1990.
[103] S.SenetL.Knight. ((Ageneticprototypelearner)).DansIJCAI,pages725731,Montreal,
1995.
[104] B.W.SilvermanetM.C.Jones.((E.FixandJ.L.Hodges(1951):Animportant
contribu-tiontononparametricdiscriminantanalysisanddensityestimation)).InternationalStatistical
Review,57:233247,1989.
[105] D.B. Skalak. (( Using a Genetic Algorithm to Learn Prototypes for Case Retrieval and
Classication)). DansAAAI-93Case-BasedReasoningWorkshop,pages6469,1993.
[106] R. Sªowi«ski, éditeur. (( Intelligent Decision Support, Handbook of Applications and
Ad-vancesofthe Rough SetsTheory)). D: SystemTheory,KnowledgeEngineeringandProblem
Solving.KluwerAcademicPublishers,1992.
[107] R.Sªowi«ski,éditeur. ((Fuzzysetsindecisionanalysis,operations research andstatistics)),
Chapitre1-5,pages1176. Thehandbook offuzzysetsseries. KluwerAcademic Publishers,
1998.
[108] A.Tversky. (( Intransitivityof preferences)). Psycholigical Review, 1(76):3148,1969.
[109] A.Tversky. (( FeaturesofSimilarity)). Psycholigical Review, 4(84):327352,1977.
[110] D.Vanderpooten. ((L'approche interactivedansl'aide multicritèreàla décision)). Thèse
dedoctorat,UniversitéParisIX-Dauphine,1990.
[111] J.C.Vansnick. ((DeBordaetCondorcetàl'agrégationmulticritère)).CahierduLamsade70,
LAMSADE,UniversitéParisIX-Dauphine,1986.
[112] P.Vincke.L'aide multicritèreàladécision. Éditionsdel'UniversitédeBruxelles,Bruxelles,
1989.
[113] YUWei. (( Aidemulticritère àla décision danslecadre de la problématique du tri)). thèse
tionMethods from Statistics, Neural Nets, Machine Learning and Expert Systems. Morgan
KaufmannPublishers,Inc.,SanMateo, California,1991.
[115] Wright. ((CorrelationandCausation)). J. Agric. Res.,(20):557585,1921.
[116] R.R.Yager.((Onorderedweightedaveragingaggregationoperatorsinmulticriteriadecision
making)). IEEE Trans.on Systems,Man andCybernetics,(18):183190,1988.
[117] R.R.Yager. ((FamiliesofOWAoperators)). FuzzySetsandSystems,(59):125148,1993.
[118] M.S.YangetC.T.Chen. ((Onstrongconsistencyofthefuzzygeneralizednearestneighbor
rule)). FuzzySets andSystems,(60):273281,1993.
M... MM...
Vuetpermisd'imprimer:
levice-PrésidentduConseilScientiquechargédelaRecherchedel'UniversitéPARISIX
Constructionde modèleset procéduresd'aectation
RÉSUMÉ
Cettethèsetraitedesproblèmesetdesméthodesdeclassicationdanslecadredel'aidemulticritèreà
ladécision.Unproblèmedeclassicationconsisteenl'aectationd'objetsàdescatégoriesprédénies(nous
parleronsaussideproblèmed'aectation).Parailleurs,lecadredel'aideàladécisiondanslequelnousnous
plaçonsnousamèneàtenircomptedespréférencesd'undécideur.L'approchequenousproposonssefonde
surl'utilisationd'unerelationd'indiérencecommereetdespréférencesdudécideur.Leprincipe
d'aec-tationconsisteàévaluerl'appartenanced'unobjetàunecatégorieàpartirdel'évaluationdel'indiérence
l'objetàclasseretdesobjetstypiquesdelacatégorie(pointsderéférence).
Nousprésentonstousd'abordunedénitiongénéraledesméthodes declassicationmulticritère.Puis
nousproposonsdeuxméthodesd'aectation(PIPetk-PIP)quivontprincipalementdiérerparlanature
despointsderéférenceàconsidérer(prototypesoupointsexemples).Cesméthodespossèdentl'avantagede
procureraudécideur,nonseulementunrésultat,maisaussiexplicationdecelui-ci:c'estlàundesaspects
fondamentauxdel'aideàladécision.
Nos méthodes considèrent des catégories décrites par des points de référence. Donner les points de
référencedecescatégoriesn'estcependantpastoujoursunetâcheaisée pourundécideur.C'estpourquoi
nousproposonsdeuxprocéduresquipermettentdeconstruirelesprototypesdescatégoriesàpartir
d'en-semblesdepointsd'apprentissage.D'autrepart,etdemêmequepourlespointsderéférence,undécideur
peutéprouvercertainesdicultésàxercertainsparamètrespréférentiels (seuils,poids).Nousproposons
àceteetuneprocédurepermettantdeconstruireàpartirdepointsexempleslescoecientsd'importance
relative des diérents critères(poids)entrant encomptedans leprocessusd'aide àla décisionrelatif au
problèmedeclassication.
Mots-clés: aide à la décision, multicritère, classication, procédure d'aectation, construction de
paramètres.
Evaluationand Multicriteria ClassicationSystems for DecisionAid: model'sand
as-signmentprocedures learning
ABSTRACT
This thesis deals withclassication problemsand methods for MultiCriteria Decision Aid (MCDA).
Classication-orassignment-problemsconcern objects'assignmentto predened categories.For dealing
withtheMCDAconcepts,Decision-Maker's(DM)preferenceshavetobetakenintoconsideration.Our
ap-proachisbasedonanindierencerelationconsideredasanindicationofDMpreferences.Theclassication
principleliesinestimatingthemembershipofanobjecttocategoriesbyvaluingtheindierencebetween
thisobjectandtypicalobjectsofthecategoriescalled referencepoints.
Thisthesisisorganizedas follows.First,wepresentageneraldenitionofMulticriteria Classication
Methods. Then, we propose a couple of new multicriteria classication methods: the Most Indierent
Prototype andthe k-MoreIndierentPrototypes,respectivelyPIP andk-PIP inFrench.Theirreference
points(prototypesorexamples)mainlydistinguishthesemethods.Beyondtheirassignmentfunction, the
advantage is to provide an understandable explanation of the assignment, which is a crucial aspect of
decisionaid.
Ourmethodsusecategoriesthatarecharacterizedbyreferencepoints,butndingtheirdetermination
maynot beeasyfor theDM. Thisis thereason why we propose twoprocedurestoconstruct categories'
referencepointsonthebasisofasetoflearningpoints.Asforthereferencepoints,itcouldnotbeeasyfor
theDMtostatepreferentialparameterssuchasthresholdsandweights.Withthisendofviewwepropose
aprocedure foraiding theDMto setthe coecient thatmeasure therelativeofcriteria (weights),these
coecientsbeinganaturalissueofourclassicationDAprocess.