• Aucun résultat trouvé

Amélioration par apprentissage de la recherche à divergences limitées

N/A
N/A
Protected

Academic year: 2021

Partager "Amélioration par apprentissage de la recherche à divergences limitées"

Copied!
10
0
0

Texte intégral

(1)

HAL Id: inria-00000051

https://hal.inria.fr/inria-00000051

Submitted on 25 May 2005

HAL is a multi-disciplinary open access

archive for the deposit and dissemination of

sci-entific research documents, whether they are

pub-lished or not. The documents may come from

teaching and research institutions in France or

abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est

destinée au dépôt et à la diffusion de documents

scientifiques de niveau recherche, publiés ou non,

émanant des établissements d’enseignement et de

recherche français ou étrangers, des laboratoires

publics ou privés.

Amélioration par apprentissage de la recherche à

divergences limitées

Wafa Karoui, Marie-José Huguet, Pierre Lopez, Wady Naanaa

To cite this version:

Wafa Karoui, Marie-José Huguet, Pierre Lopez, Wady Naanaa. Amélioration par apprentissage de

la recherche à divergences limitées. Premières Journées Francophones de Programmation par

Con-traintes, CRIL - CNRS FRE 2499, Jun 2005, Lens, France. pp.109-118. �inria-00000051�

(2)

Amélioration par apprentissage de la re her he à divergen es limitées Wafa Karoui 1 Marie-José Huguet 2 Pierre Lopez 2 Wady Naanaa 3 1

Fa ulté des S ien es de Tunis, Campus Universitaire, 2092 Manar II, Tunisie 2

LAAS-CNRS, 7avenue du Colonel Ro he, 31077 Toulouse edex 4 3

Fa ultédes S ien es de Monastir,Boulevard de l'environnement, 5019 Monastir,Tunisie wafa.karouilaposte.net {huguet,lopez}laas.fr naanaa.wadyplanet.tn

Résumé

Dansle adredelarésolutiondesproblèmesde sa-tisfa tion de ontraintes (CSP), nous présentons une nouvelleméthodeintituléeMinimalDis repan ySear h (MDS), basée sur le prin ipe de la méthode Limited Dis repan y Sear h (LDS) proposée dans [11 ℄. Cette nouvelleméthodes'appuiesurdeuxextensionsdeLDS: l'une onsistantàtirerprotdesé he sren ontréslors desinstan iations;l'autrepermettantdelimiterle nom-brededivergen esàmettreen÷uvreetainsia élérer la déte tion de problèmesinsolubles.Une amélioration de MDS, MDS(i), permet d'in rémenterle nombrede divergen esd'unpasdonnéi.

Pourattesterdel'e a itédeMDSetdeMDS(2), des omparaisonsave desméthodesderésolutiontelles queForwardChe king (FC)et Maintening Ar -Consis-ten y (MAC) ontété menées.Danstoutes nos expéri-mentations,MDSs'avère ompétitiveparrapportàFC et MAC;parailleurs, MDS(2)sur lasse lesautres mé-thodes.

Abstra t

Inthe ontextofsolving onstraintsatisfa tion pro-blems (CSPs),we present inthispaper anewmethod alledMinimal Dis repan ySear h(MDS)whi h isan improvementofLimitedDis repan ySear h(LDS) pro-posedin[11 ℄.Thisnewmethodisbasedontwo exten-sionsofLDS.Therstonetakebenetfromfailsduring thesear h.These ondonelimitsthenumberof dis re-pan iesneededtosolveaproblem;itleadstospeedup thedete tionofuntra tableproblems.Animprovement ofMDS,MDS(i),isalsoproposed.InMDS(i),the num-ber of dis repan iesin reases following agiven stepi. TovalidateMDSandMDS(2), we omparethem with other solvingmethods su hasForwardChe king (FC) and MainteningAr -Consisten y (MAC).In all experi-mentstheresultsobtainedbyMDSare losefromthose

formsalltheothermethods.

1 Introdu tion

Plusieursméthodesdere her hearbores ente om-me LDSsontbaséessur le on eptdedivergen e (ou é art)parrapportaux hoixd'uneheuristiquede par- ours [11, 13,16, 19, 22℄. Lepoint ommunimpli ite entretoutes esméthodesestleurdésirdelimiter au-tant quepossible es divergen es en heminversune éventuellesolution,and'a élérerlare her he.

Letravailprésentédans etarti leexposeune nou-velle variante de LDS. Celle- i essayed'exploiter les é he s ren ontrés lors de l'exploration de l'arbre de re her hepourladirigerverslespartiesdel'arbrequi ontiennentdessolutions,demanièreàéviterles diver-gen es.Pluspré isément, haquefoisquel'algorithme de résolutionren ontre uné he en ae tantune va-leurà unevariable, et é he est utilisé danslasuite pourguiderles hoixdel'heuristiqueetprivilégierles instan iationsquiexpliquentl'é he ren ontré.

Cet arti le est organisé de lafaçon suivante.Dans le paragraphe suivant, nous introduisons les notions de propagation de ontraintes et de re her he arbo-res entetronquée.Puis,nousrappelonsleprin ipede laméthodeoriginelleLDSetl'apportdesvariantesles plus onnues.Nousintroduisonsensuitel'amélioration MDSquenousproposonsetnousprésentonsson prin- ipesuividesjusti ationsdevalidité.Pournir,nous

(3)

Fa eau ara tère ombinatoiredesproblèmesde sa-tisfa tionde ontraintes (CSP),il estné essaire d'in-troduire des te hniquesde ltrage devaleurs des va-riablesin onsistantes(propagationde ontraintes), ain-siquedesméthodesderésolutionbaséessurdes heu-ristiquesdepar oursdel'arbredere her hedevaleurs pourlesvariables.

2.1 Propagationde ontraintes

Lesalgorithmesdeltrages'appuientsur des te h-niques de propagation de ontraintes, notamment la ohéren edesommetsetla ohéren ed'ar s,toutCSP admettant un CSP binaire équivalent. Plusieurs al-gorithmes de ohéren e d'ar (AC)ontété proposés. Depuis 1977 où Ma worth proposa AC-1 et surtout AC-3[15℄,denombreusesaméliorationsontsuiviave ommeobje tif la rédu tiondes omplexités spatiale et/outemporelle:AC-4,introduisantlanotionde sup-port, puis AC-6 et AC-7, ontpermis d'atteindre des omplexitésintéressantes (e.g.,pourAC-6,O(ed

2 )en tempsetO(ed)enespa e).En2001,BessièreetRégin proposentAC-2000etAC-2001baséssurAC-3,alliant simpli itéete a ité[4℄.Cesdeuxalgorithmes iblent toutefois des problèmes relativement peu ontraints, leure a itéétantmise endéfautpourdes propaga-tions en trop grand nombre. La même année Zhang etYapproposentAC-3.1,autreaméliorationdeAC-3, simple,e a e,etd'appli ationpluslarge[23℄.

En 2005,Bessièreet al. proposentAC-2001/3.1[5℄ quialaparti ularitéd'avoirune omplexitétemporelle danslepire des as optimale,tout enrestantsimple. Lesexpérimentationsmontrentque etalgorithmeest ompétitifave AC-6.

2.2 Lesalgorithmesd'instan iationFC etMAC FC et MAC sontdes algorithmes de résolution de CSP utilisantla propagation de ontraintes. Généra-lement, lesalgorithmesde typeACsontévaluésdans MAC (Maintening Ar -Consisten y [20℄), algorithme d'instan iation très e a e. Améliorer MAC a don longtemps été synonyme d'amélioration de AC. En 2004,Likitvivatanavongetal.proposentd'étudierdes stratégies plus performantes de MAC, indépendam-mentdetouteaméliorationdeAC[14℄.Dans e adre, ils proposent ma 3 a he, amélioration de ma 3 (i.e., MACbasé surAC-3)s'appuyantsurl'idéed'un a he et onservantainsitoutelasimpli itédeAC-3.Ils pro-posentégalementdeuxautresversions,ma 3.1residue et ma 3.1resOpt, basés sur une notion de résidu du

blents'ea eraubéné e dema 3 a he.

MAC reste ependant un algorithme trop oûteux pourlesproblèmesdensesetayantdes ontraintesde faibledureté,pourlesquelslestraitementsde propaga-tionné essairesnesontpas ompenséspasune rédu -tionsusante del'espa ede re her he.Pour es pro-blèmes, FCreste plusperformant.L'intérêtde MAC est plus agrant pour des problèmes peu denses et ayantdes ontraintesdures[6,10℄.

Ainsi, dans l'évaluation de la méthode proposée, on se ompareraà FC pourles problèmes de la pre-mière atégorie et à une variante e a e de MAC (ma 3 a he) pour les problèmes de la se onde até-gorie.

3 La méthode proposée: Minimal Dis- repan y Sear h

3.1 Rappelsur leprin ipedeLDS 3.1.1 Prin ipedeLDS

LDS est une méthode dere her he desolution ba-séesurunpar oursparti ulierd'unarbredere her he. Apartird'uneheuristiqued'instan iationdonnantun ordresurlesvariablesduproblèmeetunordresurles valeursdes variables, unesolution initialeest géné-rée. Si ette solution s'avèreêtreunfaitnon admis-sible (nerespe tantpasles ontraintesduproblème), on autorise la méthode à ne pas suivre les hoix de l'heuristique d'instan iation pour ertainesvariables. Le faitde s'é arter des hoix guidésparl'heuristique orrespondàlanotiondedivergen e.

3.1.2 Notiondedivergen e

La notion de divergen e peut être dénie omme étantla ontradi tiondes hoixd'uneheuristique d'ins-tan iation.Eneet,uneheuristiqueest pardénition sus eptible de ommettre des erreurs et il se révèle don êtreparfoisavantageuxdenepaslasuivre.

Plusieurs algorithmessesontservisde ette notion and'éviter lesearlymistakeset dedonnerde nou-vellesorientationsaupar oursdel'espa edere her he en autorisant un ertain nombre de divergen es. Le nombrededivergen espermisesreprésentelenombre de fois où l'on s'é arte dupremier hoix de l'heuris-tique pour lare her hed'unesolutionadmissible. La notion de divergen es a été dénie initialement pour les arbres binaires(i.e., à variablesbinaires) et a en-suiteétéadaptéepourdesarbresnonbinaires.

(4)

présenteunedivergen e.Dansle asd'unarbren-aire, on supposequ'à haquen÷udle ls leplusàgau he représente le premier hoix de l'heuristique, tous les autres ls orrespondant à des divergen es. Dans le restede etarti le,ledeuxièmelsgau he orrespond àunedivergen e,letroisièmelsgau he orrespondà deuxdivergen es,et .

Suivant eprin ipe,sionn'obtientpasdesolutions par les premiers hoix de l'heuristique, on sepermet une divergen e, puis deux si une solution admissible n'esttoujourspasobtenue,etainsidesuitejusqu'à e qu'ontrouveunesolutionouqu'onatteintlemaximum de divergen espossibles(tout l'arbredansle piredes as)(algorithme1).

Algorithm 1LDS(X,D, C,k-max,Sol) 1: k 0

2: Sol NIL

3: tantque (Sol=NIL)et(kk-max)faire 4: Sol LDS-itération(X,D, C,k,Sol) 5: k k+1

6: ntantque 7: retourneSol

Algorithm 2LDS-itération(X,D,C,k,Sol) 1: siX=;alors 2: retourneSol 3: sinon 4: x i First_VariableOrdering(X) 5: v i First_ValueOrdering(D i ,k) 6: siv i

6=premierlsgau healors

7: k k 1 % on fait une divergen e 8: nsi 9: siSol S {(x i ;v i )} satisfaitCalors 10: D' Update(Xnfx i g,D, C,(x i ;v i )) 11: siau undomainedeD'n'estvidealors 12: Sol LDS-itération(Xnfx i g,D, C, k, Sol S {(x i ;v i )}) 13: nsi 14: sinon 15: retourneNIL 16: nsi 17: nsi

VariableOrdering() orrespondàl'heuristiquede hoix des variables (min-domain dans notre as; voir plus loin); ValueOrdering() orrespond à l'heuristique de hoixdesvaleurs(min- oni t);Update()estla fon -tiond'a tualisationdeFC(ltragedesvaleursdes do-maines des variables voisines de la dernière variable

Lepremierin onvénientdeLDSestqu'elleprésente trop de redondan es dans le par ours de l'arbre de re her he. En eet, pour unnombre donné de diver-gen es,onénumèrede0jusqu'à e nombrequand on applique son itération. Pour éviter es redondan es, la re her he à divergen es limitées améliorée (ILDS) s'avèree a epourles arbresbinaires [13℄. Sa géné-ralisation à des arbres n-aires ne l'est toutefois pas autant.

Sonse ondin onvénientseren ontrelorsquele pro-blèmeestinsolubleoùl'onestobligédepar ourirtout l'espa edere her he,etdon detoujoursautoriserle maximumdedivergen esàladernièreitération,avant dedéduirel'infaisabilitéduproblème.

Une autre amélioration de LDS est la re her he à divergen eslimitées enprofondeur(DDS) [22℄ qui fa-voriseles divergen es dans la partie haute de l'arbre enpremier.

3.1.4 LDSave propagationdutypeForward Che- king

La méthodeLDS proposée initialementne fait pas intervenirdete hniquesdepropagation.Pourla réso-lution de CSP, on peut envisager d'intégrer des pro-pagations du type de elles présentes dans Forward-Che king. Dans LDS-itération, à haque fois qu'une variable est instan iée, on pourrait ainsi onsidérer l'impa t de l'instan iation d'une variable sur les va-riablesnon en ore instan iées et reliées par une on-trainteà ette variableinstan iée,don sonvoisinage. Dans lereste de et arti le,on appelleraLDS la ver-sion de LDS qui intègre ette propagation au voisi-nage d'une variable instan iée. De plus, l'heuristique surl'ordredesvariablesquel'ona hoisied'utiliserest min-domain etl'heuristiquesurl'ordredesvaleursest min- oni t, e i pour tous les algorithmes évoqués danslasuite(MDS, FC,MAC).

3.2 PermutedLimitedDis repan ySear h(PLDS) CetteaméliorationdeLDSapourobje tifde remé-dieràsonprin ipal in onvénientqui est defairetrop deredondan esdanslepar ours. DansLDS,l'unique responsable du sens de par ours de l'espa e de re- her heestl'heuristiquesurl'ordredesvariables.Ce i impliquequelorsqu'onréitèreLDSenin rémentantle nombrede divergen es autorisées,onseretrouve fré-quemmentave lamêmevariableàinstan ier. Suppo-sonsque ettevariablesoitjustement ellequiélimine des valeurs né essaires à la résolution, le

(5)

développe- ieune priorité,initialementnulle, à haquevariable. Cetteprioritéestin rémentée haquefoisque ette va-riableessuieuné he , 'est-à-direlorsqu'elleestla der-nièrevariableàdevoirêtreinstan iéedansunebran he etquesondomaineestvide.Danslespar oursquivont suivre, ettevariableseraprioritaireetserapla éeen têtedebran he.Onéviteraainsideseretrouverdans unesituationd'in ohéren epour ettevariable.Ainsi, le hoixdesvariablesàinstan ierserabaséenpremier lieu sur l'heuristique min-domain, en se ond lieu sur unordredeprioritéetentroisièmelieusurl'ordredes indi es.

En fait, enintroduisantla notionde priorité,nous visonsune orre tionde l'heuristique min-domain en laguidantverslesvariables on rètement ontraintes; es variables inuen ent grandement la re her he de solutions.On orrigedon leserreursde l'heuristique en ajoutant ette notion de priorité qui n'est autre qu'uneformed'apprentissagetoutaulongdu déroule-mentdel'algorithmederésolution.Celapermet d'ex-ploiterlesé he spassésetd'en tirerdesinformations exploitables dans la suite du déroulement. Pour a - élérerle par ours, il s'agit ainsi de faire remonter à lasurfa edel'espa e dere her he, et don parmi les premièresvariablesàinstan ierquandonréitèreLDS, lessous-problèmesdi ileset lessous-problèmes sur- ontraints.

LaversiondeLDSquitireprotde ettenotionde réordonnan ement des variables est appelée dans la suitePermuted LDS (PLDS). PLDS ne peut pas re-générerlamêmebran heavantd'in rémenterla prio-ritédetouteslesvariablesprésentessur ettebran he pouraboutiraumêmeordre.Ce iimpliquequela re-dondan eest diminuéed'aumoins unfa teurégalau nombredevariables.

Prenonsl'exempled'unCSP omportantquatre va-riables. Supposons que le premier ordre proposé par l'heuristique a mené vers un é he sur une variable. Cemêmeordrenepourraêtreretrouvéquelorsqu'un é he aura été déte té sur les trois autres variables. Ainsi,dansunCSPdequatrevariables,deuxbran hes identiquessetrouventséparéesd'aumoinstrois bran- hes.

Si entre es deux bran hes représentant le même ordre, une variable in rémente deux fois sa priorité, alorstouteslesautresvariablesdevraientfairedemême pour aboutir à une égalité de priorité et on devra ompter deux fois le nombre des variables avant de retrouver la bran he initiale. Ainsi, le fa teur de re-dondan eestdanslepiredes asdiviséparlenombre

CetteaméliorationdeLDSvientremédieràson in- onvénientdepar ourirtoutl'espa edere her hedans le asdeproblèmesinsolubles.

En eet, lorsqu'on xe un nombre de divergen es autorisées pourlaméthodeLDS, onpeut onsommer totalementou non es divergen es. Si l'ensemble des divergen es permises est onsommé et qu'au une so-lutionn'esttrouvée, unenouvelleitérationdeLDSse déroulera en in rémentant le nombre de divergen es autorisées.Enrevan he,sil'ensembledesdivergen es permises n'est pas onsommé, il n'est pas né essaire de ontinueràrelan erLDSave unnombresupérieur dedivergen es,même siau unesolutionn'aété trou-vée ar il ne sera pas possible d'aller plus loin dans le par ours de l'arbores en e (le problème est alors insoluble). Relan erLDS reviendrait i iàdévelopper le même arbre de re her he qu'à une itération pré- édente. Ainsi, on peut arrêter l'in rémentation du nombre de divergen es autorisées dès qu'on onstate que enombren'apasététotalement onsommé.

La version de LDS qui tire prot de ette notion de restri tion du par ours au seul nombre de diver-gen esné essairesestappelée danslasuiteRestri ted DS (RDS).

3.4 MinimalDis repan y Sear h

LaméthodeMDS estlasuperpositiondesdeux ex-tensions PLDS et RDS. Sa validité provient de elle des deuxte hniques omposantes. PLDSsedistingue de LDS parunnouveausens depar ours de l'espa e de re her he. Cette te hnique intervient dans l'a é-lération delarésolution, maisrestetoujours une mé-thodederésolution omplète, quitrouveunesolution sielleexiste.RDSestunete hniquequinousépargne d'in rémenter le nombre de divergen es plus que né- essaire,sanspourautantpasserà tédesolutions.

Le fon tionnement de la méthode MDS est donné parl'algorithme3.

Algorithm 3MDS(X,D, C,k-max,Sol) 1: k 0

2: Sol NIL

3: tantque (Sol=NIL)et(kk-max)faire 4: siTestArrêt()alors

5: exit 6: sinon

7: Sol MDS-itération(X, D,C,k,Sol) 8: k k+1

9: nsi 10: ntantque 11: retourneSol

(6)

Algorithm 4MDS-itération(X,D, C,k,Sol) 1: siX=;alors 2: retourneSol 3: sinon 4: x i First_VariableOrdering(X) 5: v i First_ValueOrdering(D i ,k) 6: siv i

6=premierlsgau healors 7: siv

i

6=NILalors

8: k k-1 % on fait une divergen e 9: sinon 10: Priorité(x i ) Priorité(x i )+1 11: nsi 12: nsi 13: siv i 6=NILalors 14: siSol S {(x i ;v i )}satisfait Calors 15: D' Update(Xnfx i g,D, C,(x i ;v i )) 16: siau undomainedeD'n'estvidealors 17: Sol MDS-itération(Xnfx i g, D, C, k, Sol S {(x i ;v i )}) 18: nsi 19: sinon 20: retourneNIL 21: nsi 22: nsi 23: nsi

TestArrêt()est letest quiretournevraisiladernière itérationn'apasétéinterrompuepardépassementde laborneautoriséesurlenombrededivergen es;le pro-blème est ainsi insoluble.Si letest retourne faux, on in rémente lenombre de divergen es autorisées pour ontinuerlare her he.

Ainsi, le prin ipede lanouvelleméthode MDS est exa tement eluideLDS, 'est-à-direqu'elleexamine en premier lesbran hes de l'arbrequi a umulent le plus petit nombre de divergen es. La première dié-ren e estque haquevariable estdotéed'unepriorité qui estinitialementlamême pourtouteslesvariables et qu'à haque fois que l'uned'entre ellesé houe, sa prioritéestin rémentéepourguiderlespro hains hoix del'heuristique.Lase ondediéren eestquelenombre dedivergen esn'estplusin rémentéaveuglément jus-qu'au maximum du nombre de divergen es permises par l'arbre de re her he, mais tient ompte du pro-blèmeàrésoudre.Ainsi,lanouvelleméthode onsomme moinsdedivergen esqueLDSetILDS,d'oùsonnom deMinimal Dis repan y Sear h.

3.5 Appli ationàun exemple SoitleCSPP(X,D, C)dénipar: X={x0,x1,x2}; D={D0,D1,D2}ave D0=D1=D2={0,1,2,3,4}; 4)}[{(x0,3),(x1,4)}[{(x0,3),(x2,4)}[{(x0,4),(x2, 2)}[{(x0,4),(x2,3)}[{(x1,0),(x2,0)}[{(x1,0),(x2, 1)}[{(x1,0),(x2,2)}[{(x1,0),(x2,3)}[{(x1,1),(x2, 0)}[{(x1,1),(x2,1)}[{(x1,1),(x2,2)}[{(x1,1),(x2, 3)}[{(x1,2),(x2,0)}[{(x1,2),(x2,1)}[{(x1,2),(x2, 2)}[{(x1,2),(x2,3)}[{(x1,3),(x2,0)}[{(x1,3),(x2, 1)}[{(x1,3), (x2,2)}[{(x1,3),(x2,3)}.

Onseproposed'appliquerl'algorithmeFCpour ré-soudre eCSP.L'arbredere her heobtenu ompte44 n÷uds développés (NND) omme ela est représenté surlagure1.

Fig.1Arbredéveloppé parForward-Che king Enappliquantl'algorithmeLDS,onobtientunarbre dere her heen oreplusdéveloppé ontenant95n÷uds.

En revan he, en appliquant MDS, on obtient un arbre de re her hede 9 n÷uds puisque l'in rémenta-tionde lapriorité delavariable x2 esttrès favorable (gure2).

Fig. 2  Arbre développé par Minimal Dis repan y Sear h

3.6 AméliorationdeMinimalDis repan ySear h UnedernièreaméliorationdeMDSquenous propo-sons,appeléeMDS(i), onsisteàin rémenterlenombre dedivergen es autoriséesd'un ertain pasi supérieur ouégalà1.De efait,MDSpeutêtre onsidéré omme un asparti ulierdeMDS(i)ave unpasrégulier

(7)

tou-4 Résultats

4.1 Cadrede l'expérimentation

L'expérimentation a porté sur des CSP aléatoires dediversetaille.Un CSPaléatoireest ara térisépar quatreparamètresn, d, p1et p2, oùn est lenombre devariables duproblème, d est le nombre devaleurs par domaine, p1 est la probabilité d'existen e d'une ontrainteentredeuxvariables(densitédugraphedes ontraintes)et p2donnelaproportionapproximative de ouplesdevaleursin ompatiblesdansladénition des ontraintes(dûreté des ontraintes). Pourdes va-leursxéesden,detp1,ilexisteunezonedevariation dep2oùlesCSPsontparti ulièrementdi iles à ré-soudre(pi de omplexité).Lesinstan esdeproblèmes onsidéréesdansnosexpérimentationsontété hoisies dans ettezone ritique.Pour haqueinstan edeCSP aléatoire,i.e., pour haquequadruplet (n,d, p1,p2), ongénère500 problèmes, onsidérantque 500est un nombre susant pour atténuer l'eet des perturba-tionsduesàdes asparti uliers.Legénérateurutilisé est dutype désignéparmodèle Bdans lalittérature [7,8,9℄.Lesperforman essontévaluéesen termesde tempsetdenombreden÷udsdéveloppésdansl'arbre dere her he(NND).

4.2 RésultatsexpérimentauxdeRDS,PLDS,MDS etMDS(i)

L'algorithmedere her he àdivergen es minimales (MDS) sedistingue parle nombre minimal de diver-gen es né essaires avant d'obtenir une solution (nb-Div) que e soit sur les problèmes solubles ou sur- ontraints.La omparaisonave RDSetPLDSsurles CSP <500-20-20-0.5>, <500-40-10-0.2>et <500-60-05-0.2>atteste e résultat.

Etantla ompositiondedeuxaméliorationsdeLDS, MDSestglobalementplusperformantequeLDS(ave propagation), que e soit en nombrede n÷uds déve-loppésouentempsd'exé ution,surdesproblèmes so-lublesouinsolubles.

Les ourbes dela gure3 illustrent une omparai-sondeMDSave PLDSetRDSsurlesinstan es itées i-dessus,entermesdenombrededivergen es onsom-méespourlarésolutiondeproblèmessolubleset inso-lubles.Les ourbesdelagure4permettent,elles,de omparerMDSetLDSave propagation,entermesde tempsd'exé utionetdenombreden÷udsdéveloppés. Les ourbesdelagure5illustrentle omportement deMDS par rapport àFCsur desinstan es <20-20-0.5>,<60-05-0.5>et<60-5-0.8>(NNDettempspour haquegrouped'instan es).Enn,les ourbesdela -gure6présententl'apportdeMDSparrapportàMAC

0.42

0.43

0.44

0.45

0.46

0.47

0.48

0

500

1000

1500

2000

2500

nbDivS

p2

<20,20,0.2>(nbDivS)

MDS

PLDS

RDS

0.42

0.43

0.44

0.45

0.46

0.47

0.48

0

2

4

6

8

10

12

14

16

18

x 10

4

nbDivI

p2

<20,20,0.2>(nbDivI)

MDS

PLDS

RDS

0.38

0.39

0.4

0.41

0.42

0.43

0.44

400

600

800

1000

1200

1400

1600

nbDivS

p2

<40,10,0.2>(nbDivS)

MDS

PLDS

RDS

0.38

0.39

0.4

0.41

0.42

0.43

0.44

0

5

10

15

x 10

4

nbDivI

p2

<40,10,0.2>(nbDivI)

MDS

PLDS

RDS

0.19

0.195

0.2

0.205

0.21

0.215

0.22

0.225

0.23

0.235

0

200

400

600

800

1000

1200

1400

nbDivS

p2

<60,05,0.2>(nbDivS)

MDS

PLDS

RDS

0.19

0

0.195

0.2

0.205

0.21

0.215

0.22

0.225

0.23

0.235

2

4

6

8

10

12

x 10

4

nbDivI

p2

<60,05,0.2>(nbDivI)

MDS

PLDS

RDS

Fig. 3  Comparaison de MDS et ses omposantes (PLDS etRDS)enterme de nombrede divergen es

tempspour haquegrouped'instan es).

Que esoit selonles omparaisonsave FCsur des problèmes solubles où FC est le plus adéquat pour la résolution ousur des omparaisons ave MACsur des problèmes solubles où MAC est le plus perfor-mant,MDS(2)présentedesrésultatstrèssatisfaisants en termes detemps et de nombreden÷uds dévelop-pés.D'oùl'intérêtde ettenouvelleméthode.

5 Con lusion et perspe tives

MDS est une méthode omplète de résolution de problèmesdesatisfa tionde ontraintes.Elles'ins rit dans la famille des re her hes à divergen es limitées (LDS).Lesaméliorationsapportéespermettentde pal-lier leslimitesd'une méthodeLDS debase,àsavoir: redondan edanslepar oursdel'arbredere her heet développement ompletdel'arbrepourdesproblèmes insolubles.

Lapremièreamélioration,PLDS,est baséesurune exploitation des é he sren ontrés pendant la résolu-tion ande limiter lesredondan esdans lepar ours. Lase onde,RDS,permet derestreindrelenombrede divergen estotalespermiseslorsquelesdivergen esne

(8)

0.42

0

0.43

0.44

0.45

0.46

0.47

0.48

0.2

0.4

0.6

0.8

1

1.2

1.4

1.6

1.8

2

x 10

7

NNDS

p2

<20,20,0.2>(NNDS)

MDS

LDS

0.42

0.43

0.44

0.45

0.46

0.47

0.48

0

50

100

150

200

250

TempsS

p2

<20,20,0.2>(TempsS)

MDS

LDS

0.42

0

0.43

0.44

0.45

0.46

0.47

0.48

0.5

1

1.5

2

2.5

3

3.5

4

x 10

9

NNDI

p2

<20,20,0.2>(NNDI)

MDS

LDS

0.42

0.43

0.44

0.45

0.46

0.47

0.48

0

0.5

1

1.5

2

2.5

3

3.5

4

4.5

x 10

4

TempsI

p2

<20,20,0.2>(TempsI)

MDS

LDS

0.38

0

0.39

0.4

0.41

0.42

0.43

0.44

0.2

0.4

0.6

0.8

1

1.2

1.4

1.6

1.8

2

x 10

7

NND

p2

<40,10,0.2>(NNDS)

MDS

LDS

0.38

0.39

0.4

0.41

0.42

0.43

0.44

0

20

40

60

80

100

120

140

160

180

200

Temps

p2

<40,10,0.2>(TempsS)

MDS

LDS

0.38

0

0.39

0.4

0.41

0.42

0.43

0.44

1

2

3

4

5

6

7

8

x 10

9

NNDI

p2

<40,10,0.2>(NNDI)

MDS

LDS

0.38

0.39

0.4

0.41

0.42

0.43

0.44

0

1

2

3

4

5

6

7

8

9

10

x 10

4

TempsI

p2

<40,10,0.2>(TempsI)

MDS

LDS

0.19

0.195

0.2

0.205

0.21

0.215

0.22

0.225

0.23

0.235

0

2

4

6

8

10

12

x 10

6

NND

p2

<60,05,0.2>(NNDS)

MDS

LDS

0.19

0.195

0.2

0.205

0.21

0.215

0.22

0.225

0.23

0.235

0

20

40

60

80

100

120

140

Temps

p2

<60,05,0.2>(TempsS)

MDS

LDS

0.19

0.195

0.2

0.205

0.21

0.215

0.22

0.225

0.23

0.235

0

1

2

3

4

5

6

x 10

9

NND

p2

<60,05,0.2>(NNDI)

MDS

LDS

0.19

0

0.195

0.2

0.205

0.21

0.215

0.22

0.225

0.23

0.235

1

2

3

4

5

6

x 10

4

Temps

p2

<60,05,0.2>(TempsI)

MDS

LDS

Fig.4Comparaison de MDS etLDS

0.42

0

0.43

0.44

0.45

0.46

0.47

0.48

1

2

3

4

5

6

x 10

6

NNDS

p2

<20,20,0.2>(NNDS)

MDS(2)

FC

0.42

0.43

0.44

0.45

0.46

0.47

0.48

10

15

20

25

30

35

40

45

50

TempsS

p2

<20,20,0.2>(TempsS)

MDS(2)

FC

0.42

0

0.43

0.44

0.45

0.46

0.47

0.48

0.5

1

1.5

2

2.5

3

3.5

4

4.5

5

x 10

7

NNDI

p2

<20,20,0.2>(NNDI)

MDS(2)

FC

0.42

0

0.43

0.44

0.45

0.46

0.47

0.48

50

100

150

200

250

300

350

400

450

500

TempsI

p2

<20,20,0.2>(TempsI)

MDS(2)

FC

0.055

0.0555

0.056

0.0565

0.057

0.0575

0.058

0.0585

0.059

0.0595

0.06

0.5

1

1.5

2

2.5

3

3.5

4

4.5

x 10

7

NND

p2

<60,05,0.8>(NNDS)

MDS(2)

FC

0.055

0.0555

0.056

0.0565

0.057

0.0575

0.058

0.0585

0.059

0.0595

0.06

100

200

300

400

500

600

700

Temps

p2

<60,05,0.8>(TempsS)

MDS(2)

FC

0.055

0

0.0555

0.056

0.0565

0.057

0.0575

0.058

0.0585

0.059

0.0595

0.06

0.5

1

1.5

2

2.5

x 10

8

NND

p2

<60,05,0.8>(NNDI)

MDS(2)

FC

0.055

0

0.0555

0.056

0.0565

0.057

0.0575

0.058

0.0585

0.059

0.0595

0.06

500

1000

1500

2000

2500

3000

3500

4000

Temps

p2

<60,05,0.8>(TempsI)

MDS(2)

FC

0.086

0

0.087

0.088

0.089

0.09

0.091

0.092

0.093

0.094

0.095

0.096

0.5

1

1.5

2

2.5

3

3.5

x 10

7

NND

p2

<60,05,0.5>(NNDS)

MDS(2)

FC

0.086

0

0.087

0.088

0.089

0.09

0.091

0.092

0.093

0.094

0.095

0.096

50

100

150

200

250

300

350

400

Temps

p2

<60,05,0.5>(TempsS)

MDS(2)

FC

0.086

1

0.087

0.088

0.089

0.09

0.091

0.092

0.093

0.094

0.095

0.096

2

3

4

5

6

7

8

9

10

11

x 10

7

NND

p2

<60,05,0.5>(NNDI)

MDS(2)

FC

0.086

0.087

0.088

0.089

0.09

0.091

0.092

0.093

0.094

0.095

0.096

200

400

600

800

1000

1200

1400

1600

Temps

p2

<60,05,0.5>(TempsI)

MDS(2)

FC

Fig.5Comparaison de MDS(2)etFC

(9)

0.38

0.39

0.4

0.41

0.42

0.43

0.44

0

0.5

1

1.5

2

2.5

3

x 10

6

NND

p2

<40,10,0.2>(NNDS)

MDS(2)

MAC

0.38

0.39

0.4

0.41

0.42

0.43

0.44

0

50

100

150

200

250

300

350

400

450

Temps

p2

<40,10,0.2>(TempsS)

MDS(2)

MAC

0.38

0.39

0.4

0.41

0.42

0.43

0.44

0

0.5

1

1.5

2

2.5

3

3.5

x 10

7

NND

p2

<40,10,0.2>(NNDI)

MDS(2)

MAC

0.38

0.39

0.4

0.41

0.42

0.43

0.44

0

200

400

600

800

1000

1200

1400

1600

1800

Temps

p2

<40,10,0.2>(TempsI)

MDS(2)

MAC

0.19

0.195

0.2

0.205

0.21

0.215

0.22

0.225

0.23

0.235

0

0.5

1

1.5

2

2.5

3

3.5

x 10

6

NND

p2

<60,05,0.2>(NNDS)

MDS(2)

MAC

0.19

0.195

0.2

0.205

0.21

0.215

0.22

0.225

0.23

0.235

0

100

200

300

400

500

600

700

Temps

p2

<60,05,0.2>(TempsS)

MDS(2)

MAC

0.19

0.195

0.2

0.205

0.21

0.215

0.22

0.225

0.23

0.235

0

2

4

6

8

10

12

x 10

6

NND

p2

<60,05,0.2>(NNDI)

MDS(2)

MAC

0.19

0

0.195

0.2

0.205

0.21

0.215

0.22

0.225

0.23

0.235

200

400

600

800

1000

1200

1400

1600

1800

Temps

p2

<60,05,0.2>(TempsI)

MDS(2)

MAC

Fig.6Comparaison de MDS(2) etMAC

vantdeste hniquesd'apprentissage.

LesexpérimentationsontmontréquePLDSetRDS amélioraientLDSetquela ombinaisondesdeux (mé-thodeMDS)étaitplusperformanteque ha uned'elles onsidérée séparément. De plus, les résultats expéri-mentauxontmontré queMDSétait ompétitiveave FCetMAC,en e qui on ernelarésolutiondeCSP aléatoires,que esoitennombreden÷udsdéveloppés ouentempsd'exé ution.

Enn, une dernière amélioration, MDS(i), permet d'in rémenter lenombrededivergen es autoriséd'un pasdonnésupérieurouégalà1.Lesrésultats expéri-mentauxattestentque ettedernièreaméliorationave unpasde2s'avèrenettementpluse a equeMDS, FCet MAC.

Dansl'immédiat,lesperspe tivesde e travailsont de se omparer à d'autres variantes de MAC (e.g., ma 3residue) pour vérier si nos résultats se main-tiennent. Onpourra aussienvisagerde fairevarier le pas de MDS(i) et de mener des études sur e para-mètre.

On pourraensuite envisagerune étude expérimen-tale de MDS sur des problèmes de taille et de om-plexité beau oup plus importantes. L'obje tif est de montrer l'intérêt opérationnelde MDS dans des on-textesréels.

Lesméthodes delafamilleLDSontdéjàété adap-téesàdesproblèmesd'ordonnan ement[21℄.En pers-pe tiveàpluslongterme,onpourraitainsi envisager d'étudierl'impa t denotreméthodeMDS pourla ré-solutionde egenredeproblèmes,notammentdes pro-blèmes d'ordonnan ementde projet àmoyenslimités (RCPSP). Il s'agira alors d'étudier les performan es de MDS en regard des méthodes existantes dans e ontexte.

Référen es

[1℄ C. Bessière.Ar - onsisten yand ar - onsisten y again.Arti ialIntelligen e,65:179190,1994 [2℄ C. Bessière,A. Chmeiss et L.Saïs. Heuristiques

multi-niveauxpourordonnerlesvariablesdansles CSP.InPro eedingsJNPC'01,pages4960, Tou-louse,2001

[3℄ C. Bessière, E.C. Freuder, and J.-C. Régin. Using onstraint metaknowledge to redu e ar - onsisten y omputation. Arti ial Intelligen e, 107:125148,1999

[4℄ C. Bessière and J.-C. Régin. Rening the basi onstraintpropagation algorithm.InPro eedings IJCAI-01,pages309315,Seattle,USA,2001 [5℄ C. Bessière, J.C. Régin, R. H.C. Yap, and Y.

(10)

paraître)

[6℄ A. Chmeiss and L. Sais. Constraint satisfa tion problems: ba ktra ksear h revisited. In Pro ee-dings ICTAI 2004, pages 252257, Bo a Raton, USA,2004

[7℄ I.P. Gent,E.Ma Intyre,P.Prosser,B.M.Smith, and T. Walsh. Random onstraint satisfa tion: awsansstru tures.Constraints,6:345372,2001 [8℄ I.P.Gent,E.Ma Intyre,P.Prosser,andT.Walsh. The Constrainedness of Sear h. In Pro eedings AAAI-96,Portland,USA,1996

[9℄ I.P.Gent,E.Ma Intyre,P.Prosser,andT.Walsh. TheS alingofSear hCost.InPro eedings AAAI-97,

[10℄ I.P. Gent and P. Prosser. Inside MAC and FC. APES Resear h Group Report APES-20-2000, 2000

[11℄ W.D. Harvey and M.L. Ginsberg. Limited dis- repan ysear h. InPro eedings IJCAI-95,pages 607613,Montréal,Canada,1995

[12℄ P.VanHentenry k,Y.Deville,andC.-M.Teng.A generi ar - onsisten yalgorithm and its spe ia-lizations.Arti ialIntelligen e,57:291321,1992 [13℄ R.E. Korf.Improved limiteddis repan y sear h. In Pro eedings AAAI/IAAI, Vol. 1, pages 286 291,1996

[14℄ C. Likitvivatanavong, Y. Zhang, J. Bowen, and E.C. Freuder. Ar - onsisten y in MAC: A new perspe tive. In Pro eedings First International Workshopon ConstraintPropagation and Imple-mentation,Toronto,2004

[15℄ A.K. Ma kworth and E.C. Freuder. The om-plexity of some polynomial network onsisten y algorithms for onstraint satisfa tion problems. Arti ialIntelligen e, 25:6574,1985

[16℄ P. Meseguer and T. Walsh. Interleaved and dis- repan ybasedsear h.InPro eedings13

t

hECAI, pages239243,Brighton,UK,Wiley,1998 [17℄ R. Mohr and T.C. Henderson. Ar and

path onsisten y revised. Arti ial Intelligen e, 28:225233,1986

[18℄ M. Perlin. Ar onsisten y for fa torable rela-tions.Arti ialIntelligen e,53:329342,1992 [19℄ N. Pr ovi .Quelques variantes de LDS. In

Pro- eedings JNPC'02,pages195208,Ni e,2002 [20℄ D. Sabin and E. Freuder. Contradi ting

onven-tional wisdom in onstraint satisfa tion.In Pro- eedings PPCP-94,Seattle,USA,1994

[21℄ F.Ter inet.Méthodesarbores entespourla réso-lution desproblèmesd'ordonnan ement, on ep-tion d'un outil d'aide au développement. Thèse

Pro eedings IJCAI,pages13881395,1997 [23℄ Y.ZhangandR.H.C.Yap.MakingAC-3an

op-timalalgorithm.InPro eedings IJCAI-01,pages 316321,Seattle,USA,2001

Références

Documents relatifs

D'après le théorème : si deux triangles ont un angle égal compris entre deux côtés égaux deux à deux, alors ces deux triangles sont isométriques.. Donc les triangles ABC

Il n'en est pas ainsi dans le cas des équations linéaires; (i) peut être nul sans que A le soit (exemple : a === q) et en étudiant les dérivés successifs de S, on montre que

— Les mêmes choses étant posées qu'au début du 11° 17, sauf en ce qui concerne la -fonction (3(y), qui, dans la proposition actuelle, n'a pas à intervenir, pour que l'on puisse,

— Les équations que l'on obtient en égalant à zéro les différents facteurs premiers qui entrent une seule fois dans les deux discriminants des équations différentielle et

Pour comparer une distribution de fréquences d’une variable nominale à une distribution de référence, on utilise classiquement la courbe de concentration de la première

Dans ce qui suit, nous démontrerons comment on étend ce théorème au système de deux équations algébriques entre deux

Il est evident que les constantes de fx montent dans ce produit à une dimension marquée par le nombre des racines ou par le degré de l'équation y(x) = 0; ainsi, comme ce qu'on dit

alors le critère concorGM de type procruste (toutes les métriques Mi et Nj sont les métriques identité), et les modifications successives des tableaux Xi sont