• Aucun résultat trouvé

Structure et espace de représentation

Laméthodedesnuéesdynamiquesreposesurlesnotionsdestructureet d'espacede

représen-tation.

Dénition 27 Soitunensemble,estmunid'unestructuredereprésentationsionluiassocie:

 d'une part unensembleL etuneapplicationD de P()Ldans R

+

,

 etd'autre part unensemble L

k etune application W de P k L k dans R + . LesespacesL etL k

sont appelésrespectivementespacede représentation d'une classe etespacede

représentation d'une partition.

où P() est l'ensemble des parties de et P

k

l'ensemble des partitions P = (P

1 ;:::;P

k

) en k

classes de .

D estunemesurededissemblanceentreuneclasseetunereprésentationdeclasse.

W est une "critère" mesurant l'adéquation entre une partition et une représentation d'une

partition.

Fonction de représentation et d'aectation

Parallèlement ondénit deux fonctionsqui f et g qui vontservirrespectivementàaecter le

objetsetàcalculerlesreprésentationsdesclasses.Ainsi:

Fonction de représentation: Lafonctiondereprésentationg vaserviràtrouverune

représen-tationdesclasses,c'estunefonctiondeP

k

àvaleursdansL

k

.Danslecasdelaconstruction

deprototypes(cf.chap. 5), c'estlafonctionquivacalculerlesprototypesdescatégories.

Fonction d'aectation: Lafonctiond'aectation f va serviràtrouverunepartition,c'est une

fonctiondeL

k

àvaleursdansP

k

.Danslecasdelaconstructiondeprototypes,cettefonction

apourobjetd'aecterlespointsd'apprentissageauxclusters.



 





Laméthodedesnuéesdynamiquesconsisteàtrouveruncouple(P  ;L  )2P k L k quiminimise

lecritèreW,ainsionpeutécrire:

W(P  ;L  )=min fW(P;L)=P 2P k ;L2L k g (C.1)

Andepoursuivrecetobjectif, laméthodevacommesuit:

1. choisirunespacedereprésentationL

k , 2. dénirun critère W : P k L k !R +

, ce critèredoit permettre de mesurerl'adéquation

entre toutepartitionP 2P

k

ettoutereprésentationL2L

k

decette partition,

3. dénirunproblèmed'optimisationquiconsisteàcherchersimultanémentlapartitionP 2P

k

etune représentationL decettepartition defaçonqueP et Laientlameilleureadéquation

ausensducritèreW,

4. construireunalgorithmequi consiste àutiliserdemanièreitérativelesfonctionsg et f

(af-fectationet représentation).L'algorithmeest initialisé àl'aide d'uneclassicationP

0 2P k etd'unereprésentationL 0 2L k

Aide multicritère à la décision

A=fa;b;c:::gensembledeactions

E=E

1

:::E

n

espacedescritères

g j

fonctioncritèredénie surAàvaleursdansE

j

F =fg

1 ;:::;g

n

gouF =f1;:::;ngfamillecohérentedecritères

g j

(a)=x

j

performancedel'actionasurlecritèrej

g(a)=x=(g 1 (a);:::;g n (a))=(x 1 ;:::;x n

)imagedeadansl'espacedescritères

x I

y J

pointdeEconstruitàpartirdesperformancesdupointxsurlescritèresdeI etdupoints

y surlescritèresdeJ avecF =I[J

q j

seuild'indiérenceducritèrej

p j

seuildepréférenceducritèrej

v +

j

seuil devetosupérieurducritèrej

v j

seuildevetoinférieurducritèrej

C H

j

concordanceaveclarelationH surlecritèrej

D H

j

discordanceaveclarelationH surlecritèrej

C H

concordanceglobaleaveclarelationH

D H

discordanceglobalelarelationH

S j

relationdesurclassementsurlecritèrej

S relationdesurclassementglobale

P j

ou

j

relationdepréférencesurlecritèrej

P ourelationdepréférence globale

Qou%relationdepréférencefaible

I j

ou

j

relationd'indiérencesurlecritèrej

I ourelationd'indiérenceglobale

P: problématiqueduchoix P: problématiquedutri P: problématiquedurangement P:Æproblématiquedeladescription Apprentissage et classication Z=fz 1 ;z 2

;:::gensemble despointsd'apprentissage

fC 1

;:::;C q

gensembledescatégories

Y =Y

1

[:::[Y

q

ensembledespointsderéférences

Y t =Y + t [Y t

ensembledespointsdereferencecentraux delacatégorieC

t

Y +

t

ensembledespointsderéférencecentrauxpositifsdelacatégorieC

t

Y t

ensemble despointsderéférenceexcluants/négatifsdelacatégorieC

t Y t =Y sup t [Y inf t

ensembledespointsdereferencelimitesdelacatégorieC

t

Y sup

t

ensembledespointsderéférencelimites supérieursdelacatégorieC

t

Y inf

t

ensembledespointsderéférencelimitesinférieurs delacatégorieC

t

 t

(a)degréd'aectationdel'actionaàlacatégorie C

t

 o

t

(y)degréd'aectationdupointderéférencey àC

t Construction de paramètres ssolution/individu QR (C t =s)qualitédereprésentationdeC t pars NR (Y t

)non redondancedespointsderéférence

opérateurdecroisement

$ opérateurdemutation

CScontraintesstructurelles

1.1 Lesdiérentes problématiqueen A.D. . . 16

2.1 Arbrede décision de la procéduretrichotomique de segmentation . . . 30

2.2 Fonction de"goodness"etde "badness"dansnTOMIC . . . 31

2.3 Partition de l'espace (d;D) . . . 32

2.4 Procédures d'aectation de ElectreTri . . . 32

2.5 Aectationoptimiste etpessimiste deElectreTri . . . 33

2.6 Frontières construitespar lesméthodes de discriminationlinéaire, logistiqueet qua-dratique . . . 36

2.7 Modèle àdeuxcouches . . . 37

2.8 PerceptronMultiCouches àunecouche cachée . . . 38

2.9 Graphede diagnostic de cancer . . . 39

2.10 Aectation d'unpointpar les 3 plusproches voisins et par la fenêtre de Parzen de rayonh . . . 42

2.11 Arbrede décision pourla classication d'objets volants . . . 44

3.1 Préférencefaible stricteetgraduelle . . . 52

3.2 Valeursde l'indiérence surlecritèrevitesse . . . 53

3.3 Appartenanceauxgrandsetauxgéants . . . 54

3.4 Coecientd'appartenance auxcoalitionsconcordante etdiscordante . . . 57

3.5 Préordrede préférencesurlescatégoriesde cuisson . . . 64

3.6 Filtrage par indiérenceaveccatégories monoprol etmultiprol . . . 70

3.7 Filtrage par préférenceet combiné . . . 71

3.8 Algorithmedesk plusindiérents prototypes . . . 72

3.9 Arbrede calcul . . . 75

4.1 Constructioninteractive despoids . . . 85

5.2 Calculde clusters parnuéesdynamiques . . . 96

5.3 Qualité de Représentation etnon-redondance . . . 99

5.4 PointsZ 4 etde Y 4 . . . 99

5.5 Procéduregénérale del'algorithme génétique . . . 107

5.6 Procédurede croisement . . . 108 5.7 Procédurede mutation . . . 108 5.8 Fonction d'évaluation . . . 110 6.1 . . . 116 6.2 . . . 116 6.3 . . . 117 6.4 . . . 118 6.5 . . . 119 6.6 . . . 119 6.7 . . . 120 6.8 . . . 120 6.9 . . . 121 6.10 . . . 121 6.11 . . . 122 6.12 . . . 123 6.13 . . . 123

A.1 Lessixcavaliers . . . 129

A.2 Graphede déplacement dessix cavaliers . . . 130

1.1 Évaluationsdesactions a, bet c . . . 12

1.2 Performances . . . 13

2.1 Tablede décisionpour lediagnosticde la grippe . . . 43

3.1 Tableaucomparatifdesméthodesde trimulticritère . . . 50

3.2 Discordanceet indiérenceen fonctionde k . . . 59

4.1 Prolsdescatégories . . . 87

4.2 Poids construitsaveclescoecientsdégradés de l'ensemble d'apprentissage . . . 88

4.3 Diérenceentreaectations initiales etcalculéesaveclespoids construits . . . 89

4.4 Poids construitsaveclescoecientsnets de l'ensemble d'apprentissage . . . 89

4.5 Diérence entre aectations initiales et calculées avec les poids construits à partir descoecientsnets . . . 89

5.1 Prototypesde C 4 construits parnuées dynamiques . . . 100

5.2 Aectationavec Z t etY t . . . 100 5.3 Prototypesde C 1 . . . 109 5.4 Fonction d'évaluation . . . 109

B.1 Performances desingénieurs . . . 132

B.2 Performances descommerciaux . . . 133

B.3 Performances despolyvalents . . . 134

B.4 Perturbations apportéesauxcoecientsd'appartenancedespointsde Z . . . 135

B.5 Aectationseectuéesà l'aidedespoidsconstruits àpartir descoecients dégradés 136 B.6 Aectationseectuéesà l'aidedespoidsconstruits àpartir descoecients nets . . 137

[1] A.K.Agrawala,éditeur. Machine Recognitionof Patterns. IEEE,NewYork,1977.

[2] E.W. Armstrong. (( The determinateness of the utility function )). Economic Journal,

(49):453467,1939.

[3] C. Arondel et P. Girardin. (( Sorting croppingsystems onthe basis of their impact on

groundwaterquality)). European Journalof Operational Research,(àparaître).

[4] K.J.Arrow. ((Rationalchoicefunction andordering)). Econometrica,(26):121127,1959.

[5] K.J.Arrow. Social Choice andIndividualValues. JohnWiley&Sons,1963.

[6] F.Badran,S.Thiria,etF.Fogelman-Soulie.Étudeducomportementdesréseaux

mul-ticouches-comparaisonavec l'analysediscriminante. DansY.KadratoE.Diday, éditeur,

Induction symbolique et numérique à partir de données, pages 259282. Cépadués-Édition,

1991.

[7] N.Belacel.((MéthodesdeClassicationMulticritère:Méthodologie etApplicationau

Diag-nosticMédical)). Thèsededoctorat,UniversitéLibredeBruxelles,1999.

[8] M.BéreauetB.Dubuisson. ((AFuzzyextendedk-nearestneighborrule)). FuzzySets and

Systems,(44):1732,1991.

[9] J.C.BezdeketP.F.Castelaz.((PrototypeClassicationandFeaturesSelectionwithFuzzy

Sets)). IEEE,Trans.Syst.,Man,Cybern., 7(2):8792,1977.

[10] J.C.Bezdek,S.K.Chuah,etD. Leep. ((Generalizedk-nearestneighborrules)). FuzzySets

andSystems,3(18):237256,1986.

[11] J.C.Bezdek,R. Ehrlich,et W. Full. (( FCM:thefuzzy c-meansclusteringalgorithm)).

Computers&Geosciences, 10(2):191203,1984.

[12] J.C. Borda. Mémoire sur les élections au scrutin. Mémoire de l'Académie des Sciences,

1791.

[13] B.Bouchon-Meunier,C.Marsala,etM.Ramdani.((InductiveLearningandFuzziness)).

ScientiaIranica,2(4),1996.

[14] B.Bouchon-Meunier,M.Rifqi,et S. Bothorel. (( Towardgeneralmeasures of

compa-risonofobjects)). FuzzySets andSystems,(84):143153,1996.

[15] D.Bouyssou. ((Modellinginaccuratedetermination,uncertainty,impecisionusingmultiple

criteria)).DansProceedingsoftheVIII

th

InternationalConferenceonMCDM.A.G.Lockett,

1991.

[16] J.S. Breeze, D. Heckerman, et K. Rommelse. (( Decision-Theoric Troubleshooting )).

1982.

[18] ClubCrinLogiqueFloue.ÉvaluationSubjective,MéthodesApplicationsetenjeux.Ecrin,

Paris,1997.

[19] CNIL. (( Lesinitiativesde laCNIL)). http://www.cnil.fr/. section: DroitsetObligations

-AideàlaDécision.

[20] G.F.Cooper. ((NESTOR:AComputerBasedMedical DiagnosticAidthatIntegrates

Cau-sualandProbabilistic Knowledge)). thèse dedoctorat, Stanford CaliforniaUniversity, E.U.,

1984.

[21] J.J.CornaertetX.Daffe. ((Guided'achat2000)). LeMoniteurAutomobile,(hors-série),

1999.

[22] T.M.Cover et P.E. Hart. (( Nearestneighborpattern classication)). IEEE Trans.Info.

Theory,(13):2127,1967.

[23] S.L.Crowfordet R.M.Fung. ((Constructor:AsystemfortheInductionofProbabilistic

Models)). Dans Proceedings Eight National Conference on Articial Intelligence, volume 1,

pages762769,Boston,1990.AmericanAssociationforArticialIntelligence.

[24] S.P.CurrametJ.Mingers. ((NeuralNetworks,DecisionTreeInductionandDiscriminant

Analysis:aEmpiricalComparision)). J. Opl. Res. Soc., 45(4):440450,1994.

[25] B.V.Dasarathy,éditeur. Nearest Neighbor(NN)Norms: NN Pattern Classication T

ech-niques. IEEEComputerSocietyPress,LosAlamitos,CA,1991.

[26] M.J.A.N. C.MarquisdeCondorcet. Essai surl'application de l'analyse àla probabilité

desdécisions rendues àla pluralitédesvoix. ImprimerieRoyale,1785.

[27] K.A. De Jong et W.M. Spears. (( Learning Concept Classication Rules Using Genetic

Algorithms)). Dans IJCAI,pages651656,1993.

[28] E. Diday. (( Une nouvelle méthode en classication automatique et reconnaissance des

formes)). Rev.de stat. appl.,2(19), 1971.

[29] E.Diday,G.Celeux,G.Govaert,Y.Lechevalier,etH.Ralambondrainy.

Classica-tionautomatiquededonnées,environnementstatistiqueetinformatique.DunodInformatique,

Paris,1989.

[30] E.Diday, J.Lemaire,J.Pouget,et F.Testu. ((Élements d'analysede données)),

Cha-pitre2,pages116135. Dunod,1982.

[31] D. Dubois. (( Modèles Mathématiques de l'imprécis et de l'incertain en vue d'applications

aux techniques d'aide à la décision )). Thèse d'état, Université Scientique et médicalede

grenoble,InstitutNationalepolytechniquedeGrenoble,1983.

[32] D. Dubois et H. Prade. (( Unfair coins and necessity measures: towords a possibilistic

interpretationofhistograms)). FuzzySets andSystems,10:1520,1983.

[33] D. Fahhloul,G.Trystram, et A. Duquénoy. (( Mesures,modélisation et interprétation

delacolorationdesbiscuitspendantlacuisson)). Dans ActesdesjournéesAGORAL,pages

329334,1994.

[34] P.C. Fishburn. (( Relations binaires )), Chapitre 3,pages2332. Mouton Gauthier-Villars,

rence on Multiple Criteria Problem Solving - Theory, Methodology and Solving -, Bualo,

1977.

[36] R.A. Fisher. (( The use of multiples measurements in taxonomic problems )). Anals of

eugenics,(7):179188,1936.

[37] E.FixetJ.L.Hodges.((Discriminatoryanalysis,nonparametricdiscrimination:Consistency

properties)). rapporttechniqueno.4,US AirForceSchoolof Aviation Medecine,Randolph

Field,Texas,1951. [publiédansAgrawala1977[1],SilvermanetJones1989[104],Dasarathy

1991[25]].

[38] E. Fix et J.L. Hodges. (( Discriminatory Analysis: Small Sample Performance )). Report

no.11, USAirForceSchoolofAviationMedicine,RandolphField,Texas,1952.

[39] L. Foulloy, E. Benoit, L. Khodja, et T.Talou. (( Fuzzy techniques for coe avour

classication)). DansIPMU 96,pages709714,1996.

[40] G.W.Gates. (( TheReduced NearestNeighbor Rule)). IEEE Transactions onInformation

Theory,pages431433,1972.

[41] R.Gerritsenet E.Brand. ((ExclusiveOre Inc.)). http://www.xore.com/.

[42] D.Goldberg. ((Real-codedgeneticalgorithms,virtualalphabets,andblocking)). Complex

systems,2(5):139168,1991.

[43] D.E.Goldberg.GeneticAlgorithmsinSearch,Optimization&MachineLearning.

Addison-Wesley,Massachusetts,1989.

[44] M.Grabisch,H.T. Nguyen,et E.A.Walker. SubjectiveMulticriteriaEvaluation. Dans

Fundamentals of uncertainty calculi with applications to fuzzy inference, SeriesC: Theory

anddecisionlibrary,Chapitre8,pages213260.KluwerAcademicPublishers,1995.

[45] J.W.Grzymala-Busse. ((Managinguncertaintyin expert systems)),pages162172.

Engi-neeringandComputerScience.KluwerAcademic Publishers,Dordrecht,1991.

[46] D. Hackermanet M.P. Wellman. (( BayesianNetworks)). Communications of the ACM,

38(3):2730,1995.

[47] D.J.Hand. DiscriminationandClassication. JohnWiley,1981.

[48] P.E. Hart. ((TheCondensedNearestNeighborRule)). IEEETransactionsonInformation

Theory (corresp.), pages515516,1968.

[49] A. Hatchuel et B. Weil. L'Expert et le Système, suivi de quatre histoires de systèmes

experts. Economica,1992.

[50] F. Herrera. (( Combination Fuzzy Logic-Genetic Algorithms Bibliography )).

http://decsai.ugr.es/herrera/-ga.html.

[51] J.H.Holland. Adaptationin natural andarticialsystems. AnnArbor:TheUniversityof

MichiganPress,1975.

[52] R.A.HowardetJ.E.Matheson. Inuencediagrams. DansReadingsonthePrinciples and

Applications of Decision Analysis, volume 2. R.A. Howardand J.E. Matheson Eds.,Menlo

Park,California,strategicdecisiongroupsédition,1981.

[53] ICS UCI. (( UCI Machine Learning Repository Content Summary )).

lisateurde IBM-PC,(3):3855,1984.

[55] M.Kabrisky,M.E. Oxley,S.K. Rogers, D.W.Ruck,et B.W.Suter. ((TheMultilayer

PerceptronasanApproximationtoaBayesOptimalDiscriminantFunction)). IEEE Trans.

onNeuralNetworks,1(4):296298,1990.

[56] A.Kaufmann. Introductionàla théorie dessous-ensembles ous(tome 1). Masson,Paris,

1973.

[57] J.M.Keller,D.Subhangkasen,etK.Unklesbay.((Anapproximatereasoningtechnique

forrecognitionincolorimagesofbeefsteak)). Int.J. General Systems,16:331342,1990.

[58] J.M.Keller,M.R.Gray,et J.A.jr Givens. (( AFuzzyK-NearestNeighborAlgorithm)).

IEEETrans.Syst.,Man, Cybern.,15(4):580585,1985.

[59] J.M.Keller et R. Krishnapuram. (( The Possibilistic C-Means Algorithm: Insightsand

Recommendation)). IEEETrans.onFuzzySyst., 4(3):385393,1996.

[60] J.S.Kelly. ((SocialChoiceBibliography)). SocialChoice andWelfare,(8):97169,1991.

[61] J. Kittler. (( A method for determining k-nearest neighbours)). Kybernetes, 7:313315,

1978.

[62] J.Langet P.Perny. (( Décisionet IA)). Bulletinde l'AFIA, (31):2140,1997.

[63] O.I.LarichevetH.M.Moshkovich. ((AnApproachtoOrdinalClassicationProblems)).

Int.Trans.Opl. Res.,1(3):375385,1994.

[64] J.L.Laurière. Résolutiondeproblèmesparl'hommeetla machine.ÉditionsEyrolles,Paris,

1985.

[65] F.Lecamp. ((Algorithmesgénétiquespourl'apprentissagedepoidsdanslesméthodesdetri

multicritère:conceptionetexpérimentation)). mémoirededea,LAMSADE,UniversitéParis

IXDauphine,1997.

[66] R.D.Luce.((Semiordersandtheoryofutilitydiscrimination)). Econometrica,(24):178191,

1956.

[67] R.MassagliaetA.Ostanello.N-tomic:ASupportSystemforMulticriteriaSegmentation

Problems. DansMultipleCriteria Decision Support,volume356deLecture Notesin

Econo-micsand Mathematical Systems, pages167174.P.KorhonenA. LewandowskiJ.Wallenius

(Eds.),springer-verlagédition,1989.

[68] W.S. McCulloch et W. Pitts. (( A logical calculus of the ideas immanent in various

activity)). Bulletinof Math.Biophysics,(5):115133,1943.

[69] D.Michie,D.J. Spiegelhalter, etC.C.Taylor. Machinelearning,neural andstatistical

classication. ArticialIntelligence.EllisHorwood, 1994.

[70] J.Moscarola.((Aideàladécisionenprésencedecritèresmultiplesfondéesuruneprocédure

trichotomique, Méthode et Applications )). thèsede doctorat,UniversitéParisIXDauphine,

France,1977.

[71] J.Moscarola et B.Roy. (( Procédure automatique d'examende dossiers fondés sur une

segmentationtrichotomiqueen présencedescritèresmultiples )). R.A.I.R.O. Recherche

opé-rationnelle/Operations Research,11(2):145173,1977.

[72] M.Naranjo,M.Richetin, etG.Rives. ((Algorithmerapidepourladéterminationdesk

Recognition)). IEEE Transactions on Systems, Man, and Cybernetics, SMC-7(8):625629,

1977.

[74] Yoh-HanPao.AdaptativePattern RecognitionandNeuralNetworks. Addison-Wesley

Publi-shingCompagny,1989.

[75] E.Parzen. ((Onestimationofaprobabilitydensityfunctionandmode)). Ann. Math.Stat.,

(33):10651076,1962.

[76] Z.Pawlak. ((RoughSets)). Int.J. of ComputerandInformation sciences,11(5),1982.

[77] Z. Pawlak. Rough sets theoritical aspects of reasonning about data. Theory and Decision

Library.KluwerAcaemicPublishers,1991.

[78] J.Pearl. Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference.

MorganKaufmann,SanMateo, California,1988.

[79] P. Perny. (( Méthode, agrégation etexploitation de prérencesoues dansune problématique

derangement)). thèse dedoctorat,UniversitéParisIXDauphine,France,1992.

[80] P. Perny. ((MulticriteriaFiltering Methods BasedonConcordance/Non-Discordance

prin-ciples )). Annals of Operational Research, 80:137167, 1998. Special issue on Preference

Modelling.

[81] P. Perny. ((MulticriteriaFiltering Methods BasedonConcordance/Non-Discordance

prin-ciples)). Annals of Operations Research,80:137167,1998. Special issue onPreference

Mo-delling.

[82] P.PernyetB.Roy.((Theuseoffuzzyoutrankingrelationsinpreferencemodeling)).Fuzzy

SetsandSystems,(49):3353,1992.

[83] P.PernyetA.Tsoukiàs.((Onthecontinuousextensionofafourvaluedlogicforpreference

modelling)). DansIPMU'98, pages302309,Paris,1998.

[84] P. Perny et J.D. Zucker. (( CollaborativeFiltering Methods based on FuzzyPreference

Relations)). DansEUROFUSE-SIC'99,pages279285,Budapest, 1999.

[85] N.Perrot.((Applicationdelalogiqueoueàlaconduitedesfoursdecuissonenbiscuiterie)).

Mémoirededeaengéniedesprocédés,optionagro-alimentaire,ENSIA, 1994.

[86] H.Poincaré. Lascienceetl'hypothèse. Flammarion,1902.

[87] J.C.Pomerol. (( Articialintelligenceandhumandecisionmaking)). European Journalof

Operational Research,(99):325,1997.

[88] J.C.Pomerolet S. Barba-Romero. Choix multicritèredans l'entreprise,principe et

pra-tique. Hemès,1993.

[89] J.R.Quinlan. ((Inductionofdecisiontrees)). Machine Learning,(1):81106,1986.

[90] J.R. Quinlan. C4.5 Programs for machine learning. Morgan Kaufmann Publishers, San

Mateo,California,1993.

[91] H.Raïffa. Decision Analysis. AddisonWesley, Massachussets,USA,1970.

[92] M. Rifqi. (( Mesures de comparaison, typicalité et classication d'objets ous: théorie et

pratique)). thèsededoctorat, UniversitéParis6Pierreet MarieCurie,1996.

[93] B.Roy. ((Classementetchoixenprésencedepointsdevuemultiples(laméthodeElectre))).

sociales)),Chapitre10. Dunod,1969-70.

[95] B.Roy. ((Electre III: unalgorithmede classementsfondé sur unereprésentationoue des

préférencesenprésencedecritèresmultiples)). Cahiers duCERO,20(1), 1978.

[96] B.Roy. Acceptance, rejection, delay for additionalinformation presentation of a decision

aidapproach. DansAlperovich/deDombal/ Gremy,éditeur,Evaluation of eciencyof

medical action,pages7382.NorthHollandPublishingCompany,1979.

[97] B.Roy. Méthodologie multicritèred'aideàla décision. Economica,Paris,1985.

[98] B.Roy. Mainsourcesof inaccuratedetermination,uncertainty andimprecision in decision

models.DansB.MunierM.Shakun,éditeur,Compromise,NegociationandGroupDecision,

pages4362.D.ReidelPublishingCompagny,1988.

[99] B.Roy. ((Science deladécisionou sciencedel'aide àla décision?)). Revueinternationale

desystémique,6(5):497529,1992.

[100] B.RoyetD. Bouyssou. AideMulticritère àlaDécision. Economica,Paris,1993.

[101] D.E. Rumelhart, G.E. Hinton, et R.J. Williams. Learninginternal representations by

errorpropagation.DansParallel distributedprocessing,volume1,Chapitre8,pages318362.

MITPress,Cambridge,1986.

[102] G.Saporta. Probabilités,analysede donnéesetstatistiques. Technip,Paris,1990.

[103] S.SenetL.Knight. ((Ageneticprototypelearner)).DansIJCAI,pages725731,Montreal,

1995.

[104] B.W.SilvermanetM.C.Jones.((E.FixandJ.L.Hodges(1951):Animportant

contribu-tiontononparametricdiscriminantanalysisanddensityestimation)).InternationalStatistical

Review,57:233247,1989.

[105] D.B. Skalak. (( Using a Genetic Algorithm to Learn Prototypes for Case Retrieval and

Classication)). DansAAAI-93Case-BasedReasoningWorkshop,pages6469,1993.

[106] R. Sªowi«ski, éditeur. (( Intelligent Decision Support, Handbook of Applications and

Ad-vancesofthe Rough SetsTheory)). D: SystemTheory,KnowledgeEngineeringandProblem

Solving.KluwerAcademicPublishers,1992.

[107] R.Sªowi«ski,éditeur. ((Fuzzysetsindecisionanalysis,operations research andstatistics)),

Chapitre1-5,pages1176. Thehandbook offuzzysetsseries. KluwerAcademic Publishers,

1998.

[108] A.Tversky. (( Intransitivityof preferences)). Psycholigical Review, 1(76):3148,1969.

[109] A.Tversky. (( FeaturesofSimilarity)). Psycholigical Review, 4(84):327352,1977.

[110] D.Vanderpooten. ((L'approche interactivedansl'aide multicritèreàla décision)). Thèse

dedoctorat,UniversitéParisIX-Dauphine,1990.

[111] J.C.Vansnick. ((DeBordaetCondorcetàl'agrégationmulticritère)).CahierduLamsade70,

LAMSADE,UniversitéParisIX-Dauphine,1986.

[112] P.Vincke.L'aide multicritèreàladécision. Éditionsdel'UniversitédeBruxelles,Bruxelles,

1989.

[113] YUWei. (( Aidemulticritère àla décision danslecadre de la problématique du tri)). thèse

tionMethods from Statistics, Neural Nets, Machine Learning and Expert Systems. Morgan

KaufmannPublishers,Inc.,SanMateo, California,1991.

[115] Wright. ((CorrelationandCausation)). J. Agric. Res.,(20):557585,1921.

[116] R.R.Yager.((Onorderedweightedaveragingaggregationoperatorsinmulticriteriadecision

making)). IEEE Trans.on Systems,Man andCybernetics,(18):183190,1988.

[117] R.R.Yager. ((FamiliesofOWAoperators)). FuzzySetsandSystems,(59):125148,1993.

[118] M.S.YangetC.T.Chen. ((Onstrongconsistencyofthefuzzygeneralizednearestneighbor

rule)). FuzzySets andSystems,(60):273281,1993.

M... MM...

Vuetpermisd'imprimer:

levice-PrésidentduConseilScientiquechargédelaRecherchedel'UniversitéPARISIX

Constructionde modèleset procéduresd'aectation

RÉSUMÉ

Cettethèsetraitedesproblèmesetdesméthodesdeclassicationdanslecadredel'aidemulticritèreà

ladécision.Unproblèmedeclassicationconsisteenl'aectationd'objetsàdescatégoriesprédénies(nous

parleronsaussideproblèmed'aectation).Parailleurs,lecadredel'aideàladécisiondanslequelnousnous

plaçonsnousamèneàtenircomptedespréférencesd'undécideur.L'approchequenousproposonssefonde

surl'utilisationd'unerelationd'indiérencecommereetdespréférencesdudécideur.Leprincipe

d'aec-tationconsisteàévaluerl'appartenanced'unobjetàunecatégorieàpartirdel'évaluationdel'indiérence

l'objetàclasseretdesobjetstypiquesdelacatégorie(pointsderéférence).

Nousprésentonstousd'abordunedénitiongénéraledesméthodes declassicationmulticritère.Puis

nousproposonsdeuxméthodesd'aectation(PIPetk-PIP)quivontprincipalementdiérerparlanature

despointsderéférenceàconsidérer(prototypesoupointsexemples).Cesméthodespossèdentl'avantagede

procureraudécideur,nonseulementunrésultat,maisaussiexplicationdecelui-ci:c'estlàundesaspects

fondamentauxdel'aideàladécision.

Nos méthodes considèrent des catégories décrites par des points de référence. Donner les points de

référencedecescatégoriesn'estcependantpastoujoursunetâcheaisée pourundécideur.C'estpourquoi

nousproposonsdeuxprocéduresquipermettentdeconstruirelesprototypesdescatégoriesàpartir

d'en-semblesdepointsd'apprentissage.D'autrepart,etdemêmequepourlespointsderéférence,undécideur

peutéprouvercertainesdicultésàxercertainsparamètrespréférentiels (seuils,poids).Nousproposons

àceteetuneprocédurepermettantdeconstruireàpartirdepointsexempleslescoecientsd'importance

relative des diérents critères(poids)entrant encomptedans leprocessusd'aide àla décisionrelatif au

problèmedeclassication.

Mots-clés: aide à la décision, multicritère, classication, procédure d'aectation, construction de

paramètres.

Evaluationand Multicriteria ClassicationSystems for DecisionAid: model'sand

as-signmentprocedures learning

ABSTRACT

This thesis deals withclassication problemsand methods for MultiCriteria Decision Aid (MCDA).

Classication-orassignment-problemsconcern objects'assignmentto predened categories.For dealing

withtheMCDAconcepts,Decision-Maker's(DM)preferenceshavetobetakenintoconsideration.Our

ap-proachisbasedonanindierencerelationconsideredasanindicationofDMpreferences.Theclassication

principleliesinestimatingthemembershipofanobjecttocategoriesbyvaluingtheindierencebetween

thisobjectandtypicalobjectsofthecategoriescalled referencepoints.

Thisthesisisorganizedas follows.First,wepresentageneraldenitionofMulticriteria Classication

Methods. Then, we propose a couple of new multicriteria classication methods: the Most Indierent

Prototype andthe k-MoreIndierentPrototypes,respectivelyPIP andk-PIP inFrench.Theirreference

points(prototypesorexamples)mainlydistinguishthesemethods.Beyondtheirassignmentfunction, the

advantage is to provide an understandable explanation of the assignment, which is a crucial aspect of

decisionaid.

Ourmethodsusecategoriesthatarecharacterizedbyreferencepoints,butndingtheirdetermination

maynot beeasyfor theDM. Thisis thereason why we propose twoprocedurestoconstruct categories'

referencepointsonthebasisofasetoflearningpoints.Asforthereferencepoints,itcouldnotbeeasyfor

theDMtostatepreferentialparameterssuchasthresholdsandweights.Withthisendofviewwepropose

aprocedure foraiding theDMto setthe coecient thatmeasure therelativeofcriteria (weights),these

coecientsbeinganaturalissueofourclassicationDAprocess.

Documents relatifs