• Aucun résultat trouvé

Décomposition par paire pour l'optimisation combinatoire dans les modèles graphiques

N/A
N/A
Protected

Academic year: 2021

Partager "Décomposition par paire pour l'optimisation combinatoire dans les modèles graphiques"

Copied!
11
0
0

Texte intégral

(1)

HAL Id: hal-02744726

https://hal.inrae.fr/hal-02744726

Submitted on 3 Jun 2020

HAL is a multi-disciplinary open access archive for the deposit and dissemination of sci- entific research documents, whether they are pub- lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.

Décomposition par paire pour l’optimisation combinatoire dans les modèles graphiques

Aurélie Favier, Simon de Givry, Andres Legarra, Thomas Schiex

To cite this version:

Aurélie Favier, Simon de Givry, Andres Legarra, Thomas Schiex. Décomposition par paire pour

l’optimisation combinatoire dans les modèles graphiques. JFPC 2011 - Septièmes Journées Franco-

phones de Programmation par Contraintes, Labo/service de l’auteur, Ville service, Pays service., 2011,

Lyon, France. �hal-02744726�

(2)

Actes JFPC 2011

D´ ecomposition par paire pour l’optimisation combinatoire dans les mod` eles graphiques

Aur´ elie Favier, Simon de Givry, Andr´ es Legarra, Thomas Schiex INRA Toulouse, France

{afavier,degivry,andres.legarra,tschiex}@toulouse.inra.fr

Abstract

Nous proposons une nouvelle d´ ecomposition addi- tive des tables de probabilit´ es qui pr´ eserve l’´ equivalence de la distribution jointe permettant de r´ eduire la taille des potentiels, sans ajout de nouvelles variables. Nous formulons le probl` eme de Most Probable Explanation (MPE) dans les r´ eseaux probabilistes comme un pro- bl` eme de satisfaction de contraintes pond´ er´ ees (Weigh- ted Constraint Satisfaction Problem WCSP). Notre d´ e- composition par paire permet de remplacer une fonc- tion de coˆ uts par des fonctions d’arit´ es plus petites.

Le WCSP r´ esultant de cette d´ ecomposition est plus fa- cile ` a r´ esoudre par les techniques de l’´ etat de l’art des WCSP. Mˆ eme si tester la d´ ecomposition par paire est

´

equivalent ` a tester l’ind´ ependance de paire du r´ eseau de croyances original, nous montrons comment le tester efficacement et l’appliquer, mˆ eme avec des contraintes dures. De plus, nous inf´ erons une information suppl´ e- mentaire ` a partir des fonctions de coˆ uts non binaires r´ esultantes par projection&soustraction dans leurs fonc- tions binaires. Nous observons d’importantes am´ eliora- tions grˆ ace au pr´ e-traitement avec la d´ ecompostion de paire et la projection&soustraction compar´ ee aux sol- veurs actuels de l’´ etat de l’art sur deux ensembles de probl` emes difficiles.

1 Introduction

Les mod` eles graphiques probabilistes (Probabilistic Graphical Models PGM) permettent une approche g´ e- n´ erale pour les raisonnements automatiques sous in- certitudes [6]. Les PGM couvrent les r´ eseaux Bay´ e- siens, les r´ eseaux de Markov, mais ´ egalement les forma- lismes d´ eterministes comme les r´ eseaux de contraintes.

Ce papier s’int´ eresse au PGM discrets et ` a l’optimi-

Ce travail a b´en´efici´e partiellement d’une aide de l’Agence Nationale de la Recherche portant la r´ef´erence ANR-10-BLA- 0214.

sation du probl` eme MPE, qui consiste ` a maximiser le produit de fonctions positives sur un ensemble de variables discr` etes. Dans la section 2, nous montrons comment, en utilisant une log-transformation, le pro- bl` eme MPE peut se reformuler en un WCSP, un for- malisme g´ en´ eral pour l’optimisation de contraintes qui consiste ` a minimiser la somme de fonctions de coˆ uts positives sur un ensemble de variables dicr` etes [12].

Les algorithmes exacts pour MPE (ou WCSP) sont pour la plupart bas´ es sur l’algorithme de recherche Depth-First Branch and Bound (DFBB) ou sur des m´ ethodes d’inf´ erence, incluant l’´ elimination de va- riables, la jointure d’arbre et la compilation. Les m´ e- thodes d’inf´ erence ont des probl` emes de m´ emoire en g´ en´ eral pour les probl` emes importants et complexes (avec une largeur d’arbre importante). Les solveurs de l’´ etat de l’art pour MPE combinent DFBB et les m´ ethodes d’inf´ erence ` a m´ emoire born´ ee (voir par exemple [13, 10]). DFBB est une m´ ethode de recherche arborescente compl` ete utilisant un espace m´ emoire li- n´ eaire. Pendant la recherche, pour les probl` emes de minimisation, l’algorithme maintient un borne sup´ e- rieure U B de la solution de coˆ ut minimum, en prenant le coˆ ut de la meilleure solution trouv´ ee jusqu’alors. De plus, chaque nœud dans l’arbre de recherche est as- soci´ e ` a une borne inf´ erieure LB, une sous-estimation du coˆ ut minimum de la solution du sous-probl` eme in- duit par le nœud courant. Si LB ≥ U B, DFBB coupe l’espace de recherche sous le nœud courant.

Parmi les diff´ erentes techniques utilis´ ees pour pro-

duire une bonne borne inf´ erieure, les coh´ erences lo-

cales souples ont ´ et´ e introduites dans les WCSP. Leur

complexit´ e en temps dans le pire cas est exponen-

tielle par rapport ` a la plus grande arit´ e (nombre de

variables) des fonctions de coˆ uts [1], elles sont g´ en´ era-

lement seulement appliqu´ ees sur les fonctions de coˆ uts

de petites arit´ es (2 ou 3). Par cons´ equent il est souhai-

1

(3)

table de d´ ecomposer les fonctions de coˆ uts en fonctions de coˆ uts de plus petite arit´ e. Notons que l’´ elimination de variables peut ´ egalement b´ en´ eficier de cette d´ ecom- position (car le nombre de voisins d’une variable peut d´ ecroˆıtre).

Il est bien connu que les ind´ ependances condition- nelles (IC) permettent de factoriser les distributions de probabilit´ es. Toutefois ni les r´ eseaux Baysiens ni les r´ eseaux de Markov peuvent explicitement repr´ esenter toutes les IC parfaitement [6]

1

.

IC d´ ependants du contexte, telles que (X ⊥ ⊥ Y | Z = z), qui ne sont pas explicites dans le r´ eseau et qui peut ˆ etre exploit´ ee apr` es avoir l’observation Z = z ou r´ ealis´ e l’´ elimination de variables ou ´ elimin´ e des valeurs par coh´ erence locale souple. Dans les r´ eseaux de Mar- kov, plusieurs factorisations existent dans le cas des distributions non strictement positives. Dans la sec- tion 3, nous montrons comment exploiter efficacement l’ind´ ependance de paire dans les WCSP pour am´ eliorer DFBB avec les coh´ erences locales souples et l’´ elimina- tion de variables.

2 Pr´ eliminaires

Un Mod` ele Graphique Probabiliste (PGM) (ou dis- tribution de Gibbs) est d´ efini par un produit de fonc- tions positives F, sur un ensemble de variables dis- cr` etes X , exprimant une information probabiliste ou d´ eterministe [6]. Les sous-ensembles de X seront not´ es par des lettres en gras comme S.

D´ efinition 1 (PGM). Un PGM est un triplet (X , D, F ) avec X = {X

1

, . . . , X

n

}, un ensemble de variables, D = {D

X1

, . . . , D

Xn

}, un ensemble de domaines finis de taille maximale d = max

ni=1

d

Xi

(d

Xi

= |D

Xi

|), et F = {f

1

, . . . , f

e

}, un ensemble de fonctions ` a valeurs r´ eelles positives, chacune est d´ efi- nie sur un sous-ensemble de variables S

i

⊆ X (i.e., la port´ ee). La distribution jointe est d´ efinie par :

P (X ) = Q

e

i=1

f

i

(S

i

) P

X

Q

e

i=1

f

i

(S

i

)

Les r´ eseaux Bay´ esiens repr´ esentent un cas parti- culier utilisant une probabilit´ e conditionnelle par va- riable (e = n) et la constante de normalisation (d´ eno- minateur de P (X )) vaut 1. Le probl` eme Most Probable Explanation (MPE) consiste ` a trouver l’affectation la plus probable sur toutes les variables de X maximisant P (X).

Un Probl` eme de Satisfaction de Contraintes (CSP) est un triplet (X , D, C) avec X ,D d´ efinis comme pour

1Un exemple connule r´eseau de s´egr´egation[3], o`uP(Gi,jp| Ga,jp, Ga,jm, Si,jp) = 2P(Gi,jp | Ga,jp, Si,jp)P(Gi,jp | Ga,jm, Si,jp) car (Ga,jp ⊥⊥ Ga,jm | Gi,jp, Si,jp), mais on ne peut pas le repr´esenter comment un r´eseau bay´esien.

les PGM, et C, un ensemble de contraintes. Chaque contrainte est d´ efinie comme une fonction bool´ eenne sur un sous ensemble de variables S

i

⊆ X indiquant les tuples dans D

Si

= Q

X∈Si

D

X

sont autoris´ ees ou non.

Le probl` eme consiste ` a trouver une affectation possible de X , satisfaisant toutes les contraintes. Un Probl` eme de Satisfaction de Contraintes Pond´ er´ ees (WCSP) est une extension des CSP pour l’optimisation.

D´ efinition 2 (WCSP). Un WCSP est un triplet (X , D, W) avec X , D d´ efinis comme pour les PGM et W = {w

1

, . . . , w

e

}, un ensemble de fonctions de coˆ uts. Chaque fonction de coˆ uts est d´ efinie sur un sous-ensemble de variables et prend des valeurs en- ti` eres positives dans E

+

= N ∪ {>} (> = +∞ pou- vant ˆ etre associ´ e aux affectations interdites

2

). Le but est de trouver une affectation valide de X minimisant P

e

i=1

w

i

(S

i

).

Un PGM (X , D, F) peut ˆ etre traduit en un WCSP (X , D, W) avec ∀i ∈ [1, e], w

i

(S

i

) = d−M log(f

i

(S

i

)) + Ce (M, C deux constantes pour la pr´ ecision et la po- sitivit´ e des w

i

lors de la transformation des r´ eels en entiers) , il pr´ eserve l’ensemble des solutions optimales si une valeur suffisamment grande est utilis´ ee pour M . Dans la suite du papier, nous utilisons f pour re- pr´ esenter les fonctions de coˆ uts. Etant donn´ ee une af- fectation t ∈ D

X

, t[S] repr´ esente l’affectation t sur les variables de S. Soit f = f

1

+f

2

la somme (jointure) de deux fonctions de coˆ uts d´ efinie par f (t) = f

1

(t[S

1

]) + f

2

(t[S

2

]), ∀t ∈ D

S1∪S2

. Soit f = f

1

− f

2

la soustrac- tion de deux fonctions de coˆ uts telle que S

2

⊆ S

1

et f (t) = f

1

(t)−f

2

(t[S

2

]), ∀t ∈ D

S1

avec >−> = >. f [S

0

] repr´ esente la projection d’une fonction de coˆ uts sur le sous-ensemble S

0

des variables de S telle que S

0

⊆ S et ∀t

0

∈ D

S0

f [S

0

](t

0

) = min

t∈D

S

s.t.

t[S0]=t0

f (t). Une fonction de coˆ uts sur deux (resp. une) variables est ap- pel´ ee une fonction de coˆ uts binaire (resp. unaire). Une fonction de coˆ uts vide a tous ses coˆ uts ´ egaux ` a z´ ero et est supprim´ ee du WCSP.

L’algorithme de s´ eparation ´ evaluation (Depth-First Branch and Bound DFBB) est une m´ ethode compl` ete de recherche arborescente pour r´ esoudre les WCSP.

Les m´ ethodes de coh´ erences locales souples produisent de fortes bornes inf´ erieures pour DFBB par appli- cation de Transformations Pr´ eservant l’Equivalence (Equivalence Preserving Transformation EPT) [1].

Une arc EPT ajoute la projection f [X] d’une fonction de coˆ uts ` a une fonction de coˆ uts unaire f

1

(X), X ∈ S et soustrait f [X] ` a f (i.e. remplace f par f − f [X ]

3

) afin de garder un probl` eme ´ equivalent. L’application de la coh´ erence d’arc souple consiste ` a utiliser les arc

2Par simplicit´e, nous utilisons>= +∞, mais nos r´esultats restent valides pour un>fini.

3f−f[X] est bien une fonction de coˆuts toujours positive

(4)

EPT pour toutes les fonctions de coˆ uts et toutes les directions (∀f (S) ∈ W, ∀X ∈ S) jusqu’` a ce que toutes les projections soient vides. Une arc EPT direction- nelle ajoute une projection (f + f

2

)[X] d’une fonc- tion de coˆ ut binaire f (X, Y ) et unaire f

2

(Y ) vers f

1

(X ) et soustrait le r´ esultat de la projection. L’ap- plication de la coh´ erence d’arc souple directionnelle (DAC) consiste ` a utiliser les arc EPT directionnelles sur toutes les fonctions de coˆ uts suivant une seule di- rection (X < Y ), indiqu´ ee par un ordre total sur X, ainsi la terminaison est assur´ ee. DFBB peut ˆ etre ´ ega- lement am´ elior´ e en utilisant l’´ elimination de variables

`

a la vol´ ee [7]. Soient X une variable, F = {f

i

∈ W s.t. X ∈ S

i

} et S = S

fi∈F

S

i

. L’´ elimination de la variable X consiste ` a remplacer X et F par la pro- jection ( P

f∈F

f )[S r {X}] dans le WCSP courant.

L’´ elimination de variables est normalement exponen- tielle en temps et en espace par rapport ` a la taille de S et est peu coˆ uteuse si |S| est petite ou si X est affect´ ee ou s’il est connect´ e au reste du probl` eme par une seule fonction de coˆ uts ou ` a travers au moins une contrainte bijective (contrainte d’´ egalit´ e par exemple). DFBB ap- pliquant l’´ elimination de variables i-born´ ee (toutes les variables avec |S| 6 i sont ´ elimin´ ees) et les coh´ erences locales souples (EDAC

4

pour les fonction de coˆ uts bi- naires et ternaires [13]) est not´ e DFBB-VE(i) dans les r´ esultats exp´ erimentaux.

3 D´ ecomposition de paire d’une fonction de coˆ uts

Nous d´ efinissons tout d’abord la notion de d´ ecom- position par paire.

D´ efinition 3. Une d´ ecomposition par paire d’une fonction de coˆ uts f (S) par rapport ` a deux variables X, Y ∈ S (X 6= Y ), est une r´ eecriture de f en une somme de deux fonctions (positives) f

1

(S r {Y }) et f

2

(S r {X }) telles que :

f (S) = f

1

(S r {Y }) + f

2

(S r {X })

Un exemple de fonction d´ ecomposable est donn´ ee par la Figure 1. Une d´ ecomposition par paire remplace une fonction de coˆ uts d’arti´ e r = |S| avec des fonc- tions de coˆ uts d’arit´ e plus petites (r −1). Ce processus de d´ ecomposition peut ˆ etre r´ ep´ et´ e r´ ecursivement sur les fonctions r´ esultantes, jusqu’` a ce qu’aucune d´ ecom- position par paire soit trouv´ ee pour chaque fonction de coˆ uts restante. Une fonction de coˆ uts f (S) qui ne peut ˆ etre d´ ecompos´ ee par paire pour aucun choix de

4EDAC combine AC et DAC. De plus elle teste pour chaque variable DAC avec un ordre mettant cette variable en premier sur le sous-probl`eme constitu´e deF={fi∈WSt.q.x∈Si

X, Y ∈ S est dite non d´ ecomposable. Un WCSP est d´ e- compos´ e par paire si toutes ses fonctions de coˆ uts sont non d´ ecomposables. Cette propri´ et´ e est respect´ ee en appliquant le processus it´ eratif pr´ ec´ edemment d´ ecrit pour toutes les fonctions de coˆ uts.

W X Y U f

1 1 1 1 5

1 1 1 2 >

1 1 2 1 >

1 1 2 2 3

1 2 1 1 6

1 2 1 2 5

1 2 2 1 >

1 2 2 2 >

2 1 1 1 4

2 1 1 2 >

2 1 2 1 >

2 1 2 2 2

2 2 1 1 2

2 2 1 2 1

2 2 2 1 3

2 2 2 2 1

=

W X Y f

1

1 1 1 5

1 1 2 3

1 2 1 5

1 2 2 >

2 1 1 4

2 1 2 2

2 2 1 1

2 2 2 1

+

X Y U f

2

1 1 1 0

1 1 2 >

1 2 1 >

1 2 2 0

2 1 1 1

2 1 2 0

2 2 1 2

2 2 2 0

Fig. 1 – f (W, X, Y, U ) fonction sur quatre variables Bool´ eennes est d´ ecomposable par rapport ` a W, U comme f

1

(W, X, Y ) + f

2

(X, Y, U).

Le th´ eor` eme suivant montre que tester si une fonc- tion de coˆ uts peut ˆ etre d´ ecompos´ ee par paire par rap- port ` a X, Y est ´ equivalent ` a tester l’ind´ ependance de paire entre X et Y dans une distribution de probabilit´ e appropri´ ee.

Th´ eor` eme 1 (Equivalence entre l’ind´ ependance de paire et d´ ecomposition). Soit S = {X, Y } ∪ Z un en- semble de variables al´ eatoires, f (S) une fonction de coˆ uts sur S avec au moins une affectation autoris´ ee, et une distribution P

f

=

P 1

Sexp(−f(S))

exp(−f (S)) (une distribution de Gibbs param´ etris´ ee par f ). (X ⊥ ⊥ Y | Z) repr´ esente que X et Y sont ind´ ependants par paire

´

etant donn´ ees toutes les autres variables de P

f

. Alors,

(X ⊥ ⊥ Y | Z) ⇐⇒ f (X, Z, Y ) = f

1

(X, Z) + f

2

(Z, Y )

(5)

Au lieu de tester l’ind´ ependance de paire dans P

f

, qui n´ ecessite des sommations et des multiplications des nombres r´ eels, nous proposons un test plus simple pour la d´ ecomposabilit´ e de paire bas´ ee sur des ´ egalit´ es de diff´ erences de coˆ uts. Pour une fonction de coˆ uts d´ e- composable par paire f (X, Z, Y ) = f

1

(X, Z)+f

2

(Z, Y ) n’ayant que des coˆ uts finis et pour tout tuple z ∈ D

Z

, si nous consid´ erons toutes les paires de valeurs k, l pour Y alors la diff´ erence f (x, z, k) −f (x, z, l) = (f

1

(x, z) + f

2

(z, k)) − (f

1

(x, z) + f

2

(z, l)) = (f

2

(z, k) − f

2

(z, l)) ne d´ epend pas de x. Lorsque f (X, Z, Y ) n’est pas limit´ e ` a des coˆ uts finis, la soustraction d’un coˆ ut infini est mal d´ efinie. Par exemple, si f

2

(z, k) et f

2

(z, l) sont tous les deux ´ egaux ` a > alors f (x, z, k) = f (x, z, l) = > pour tout x. Donc f

1

(x, z) peut prendre n’importe quelle valeur et la d´ ecomposition est toujours valable. Les coˆ uts infinis offrent une libert´ e suppl´ ementaire dans la d´ ecomposition et doivent ˆ etre trait´ es sp´ ecifiquement.

Pour avoir un test qui peut exploiter les coˆ uts infinis, nous introduisons une extension de la structure de va- luation des coˆ uts E = Z ∪{−>, >, Ω} incluant les coˆ uts n´ egatifs et un ´ el´ ement sp´ ecial asborbant Ω qui capture la libert´ e g´ en´ er´ ee par la soustraction des coˆ uts infinis.

Soit a b repr´ esentant la diff´ erence de deux ´ el´ ements a, b ∈ E : a b = a −b, sauf pour > > = −> −> = a Ω = Ω b = Ω, > −> = > c = c −> = >,

−> > = −> c = c > = −> avec c ∈ Z . La comparaison de deux ´ el´ ements a, b ∈ E not´ e par a $ b est vraie si et seulement si (1) a, b ∈ Z ∪ {>, −>} et a = b, ou (2) a = Ω ou b = Ω. Nous avons alors : Th´ eor` eme 2. Une fonction de coˆ uts f (X, Z, Y ) est d´ ecomposable par paire par rapport ` a X, Y ssi ∀z ∈ D

Z

, ∀k, l ∈ D

Y

(k < l)

5

, ∀u, v ∈ D

X

:

f (u, z, k) f (u, z, l) $ f (v, z, k) f (v, z, l) Remarque 1. Puisque f (u, z, k) f (u, z, l) = Ω $ a,

∀a ∈ E, il suffit de trouver une valeur u ∈ D

X

telle que f (u, z, k) f (u, z, l) 6= Ω et de tester ∀v ∈ D

X

(v 6= u) telle que f (v, z, k) f (v, z, l) 6= Ω f (u, z, k) f (u, z, l) = f (v, z, k) f(v, z, l)

Puisque l’´ egalit´ e est transitive le th´ eor` eme 2 est bien v´ erifi´ e.

Exemple 1. Dans la Figure 1, nous avons f (W, X, Y, U ) d´ ecomposable par paire par rapport

`

a W et U car :

5Chaque ´el´ement deEadmet un opppos´e donc−(f(u, z, k) f(u, z, l)) =f(u, z, l)f(u, z, k) d’o`u la condition de retester que dans un sens les ´egalit´es en prenant un ordre arbitraire sur les valeurs

f (1111) f (1112) $ f (2111) f (2112)

5 > $ 4 >

f (1121) f (1122) $ f (2121) f (2122)

> 3 $ > 2

f (1211) f (1212) $ f (2211) f (2212)

6 5 $ 2 1

f (1221) f (1222) $ f (2221) f (2222)

> > $ 3 1

Ensuite, nous montrons comment contruire f

1

, f

2

d’une fonction de coˆ uts d´ ecomposable par paire en uti- lisant les projections et les soustractions des fonctions de coˆ uts (voir la Figure 1 pour cette application).

Th´ eor` eme 3. Soit f (X, Z, Y ) d´ ecomposable par paire par rapport ` a X, Y . Alors f

1

(X, Z) = f [X, Z] et f

2

(Z, Y ) = (f − f

1

)[Z, Y ] est une d´ ecomposition va- lide de f , i.e. f = f

1

+ f

2

.

Pour appliquer la d´ ecomposition par paire sur une fonction de coˆ uts f (S) avec r = |S| peut n´ ecessi- ter

r(r−1)2

tests, i.e. v´ erifier pour toutes les paires de variables de S. Et il peut produire des fonctions (non vides) d’arit´ e (r-1). La r´ ep´ etition de la d´ ecom- position par paire pour les fonctions de coˆ uts r´ e- sultantes produira au plus min(

r−pr

, 2

p

) fonctions de coˆ uts d’arit´ e (r − p) avec des port´ ees diff´ erentes.

Chaque test est lin´ eaire par rapport ` a la taille des fonctions de coˆ uts (r − p)-aire en O(d

(r−p)+1

). Donc la complexit´ e globale dans le pire des cas de l’ap- plication de la d´ ecomposition de paire pour e fonc- tions de coˆ uts originales avec une arit´ e r maximale est O(e P

r−1

p=0

2

p

(r − p)

2

d

(r−p)+1

) = O(e P

r−1 p=0

(r − p)

2

d

r+1

) = O(e

r(r+1)(2r+1)

6

d

r+1

) = O(er

3

d

r+1

) en temps et O(e max

r−1p=0

2

p

d

(r−p)

) = O(ed

r

) en espace (soit lin´ eaire par rapport ` a la taille du probl` eme).

A chaque ´ etape, le choix des variables utilis´ ees pour la d´ ecomposition et la mani` ere de r´ epartir les coˆ uts dans f

1

et f

2

peuvent influencer la d´ ecomposabilit´ e de f

1

et f

2

` a l’it´ eration suivante. Sous certaines condi- tions, il est possible de trouver une s´ equence de d´ ecom- position de paire (la paire de variables ` a s´ electionner dans f et comment distribuer f dans f

1

et f

2

) qui m` ene ` a une d´ ecomposition optimale (avec une arit´ e minimale).

Propri´ et´ e 1 (D´ ecomposition minimale unique pour des fonctions de coˆ uts finis [4]). Une fonction de coˆ uts avec seulement des coˆ uts finis admet une d´ ecomposi- tion unique et minimale.

Ebauche de preuve. Si une fonction de coˆ uts f (S) a uniquement des coˆ uts finis, alors sa distribution de probabilit´ e associ´ ee P

f

(voir Th´ eor` eme 1) est positive.

Le th´ eor` eme d’Hammersley & Clifford [4]

6

dit qu’une

6Voir aussi le Th´eor`eme 4.5 page 121 dans [6].

(6)

distribution positive se factorise en un unique r´ eseau de Markov minimal H. Le r´ eseau est minimal dans le sens o` u la suppression d’une arˆ ete cr´ ee une nou- velle ind´ ependance conditionnelle non pr´ esente dans P

f

. En prenant les cliques maximales dans H, chaque clique donne la port´ ee d’un facteur (une fonction po- sitive) et P

f

est ´ egale au produit de ces facteurs di- vis´ e par une constante de normalisation. Cette facto- risation est ´ equivalente ` a une somme de fonctions de coˆ uts en prenant − log( P

f

) (voir la preuve du Th´ eo- r` eme 1). De cette d´ ecomposition r´ esultante, il est fa- cile de construire une s´ equence inverse de fonctions de coˆ uts (positives) valides jusqu’` a atteindre la fonction de coˆ uts f originale.

Cependant, d` es qu’il y a des coˆ uts infinis, le th´ eo- r` eme pr´ ec´ edent ne peut pas s’appliquer. Dans ce cas, nous proposons une approche heuristique dont le but est d’accumuler les coˆ uts sur les premi` eres variables dans l’ordre des variables de DAC. Cela devrait am´ e- liorer des bornes inf´ erieures bas´ ees sur DAC. Nous testons donc des paires de variables dans f (S) dans l’ordre DAC inverse

7

et projetons les fonctions de coˆ uts (Th´ eor` eme 3) sur la port´ ee contenant les pre- mi` eres variables dans l’ordre DAC en premier. Dans la Figure 1, supposons l’ordre (W,X,Y,U), cela cor- respond ` a projeter en premier sur {W, X, Y }. Nous montrons que notre approche heuristique est capable de trouver une d´ ecomposition optimale pour quelques fonctions particuli` eres.

Propri´ et´ e 2 (Identification de structure d’arbre pour les contraitnes dures [11]). Une fonction de coˆ uts avec seulement des coˆ uts infinis qui admet une d´ ecompo- sition en arbre de contraintes binaires est identifiable par notre strat´ egie de d´ ecomposition.

Ce r´ esultat vient de [11] et le fait qu’une d´ ecompo- sition par paire par rapport ` a X, Y supprimera une arˆ ete redondante {X, Y } dans le r´ eseau minimal

8

sans affecter l’ensemble des solutions. Par exemple, une contrainte globale d’´ egalit´ e sur S sera d´ ecompos´ ee en un arbre de contraintes d’´ egalit´ e binaires : f (S) = P

Y∈Sr{X}

f

Y

(X, Y ) avec f

Y

(X, Y ) ≡ (X = Y ).

De la mˆ eme fa¸ con, une fonction de coˆ uts lin´ eaire f (X

1

, . . . , X

r

) = P

r

i=1

a

i

X

i

peut ˆ etre d´ ecompos´ ee en une somme de r fonctions de coˆ uts unaires

9

.

7Nous testonsY, UavantW, Xsi max(Y, U)>max(W, X)∨ (max(Y, U) = max(W, X)∧min(Y, U)>min(W, X)).

8Dans le cadre des CSP, le CSP binaire, appel´e ler´eseau minimal, qui est la meilleure approximation d’une relation non binaire, est d´efinie par les projections de la relation sur toutes les paires de variables [11].

9Notons que l’arc coh´erence souple ferait de mˆeme si la fonc- tion de coˆuts vide r´esultante est supprim´ee apr`es les projections.

Travaux existants

Les travaux existants qui ont consid´ er´ e la factorisa- tion des fonctions de probabilit´ es sp´ ecifiques comme les noisy-or et ses g´ en´ eralisations [5], ou des factorisa- tions g´ en´ erales d´ edi´ ees ` a l’inf´ erence probabiliste [15].

Compar´ es ` a notre approche, ces travaux ajoutent de nouvelles variables. Une autre approche possible pour diminuer l’arit´ e des fonctions de coˆ uts est de passer ` a leur repr´ esentation duale [12]. Cela a ´ et´ e tester dans [2]

pour Max-2SAT et ´ etait apparemment inefficace. Cela devrait probablement empirer pour de plus grands do- maines.

4 Projection&Soustraction sur les fonc- tions de coˆ uts binaires

Quand un WCSP est d´ ecompos´ e par paire, il est pos- sible d’inf´ erer une information suppl´ ementaire` a par- tir de la fonction de coˆ uts r´ esultante non binaire par projection & soustraction sur des fonctions de coˆ uts de plus petites arit´ es. Nous choisissons de projeter chaque fonction de coˆ uts non binaire sur toutes les fonctions de coˆ uts binaires possibles ´ etant donn´ ee la port´ ee de la fonction en suivant un ordre des pro- jections&soustractions compatible avec l’ordre des va- riables DAC (i.e. on projette d’abord sur les paires de variables avec les plus petites positions dans l’ordre DAC). Chaque projection f

i

(X, Y ) = f[X, Y ] est sui- vie par une soustraction f = f − f

i

afin de pr´ eserver l’´ equivalence du probl` eme. Notons que f peut ˆ etre vide apr` es ces soustractions et est alors supprim´ ee du pro- bl` eme. Notons aussi que la mˆ eme fonction binaire peut recevoir des projections de coˆ uts de plusieurs fonctions non binaires ayant des port´ ees se chevauchant, r´ esul- tant d’une plus forte inf´ erence. La complexit´ e dans le pire des cas de projeter&soustraire appliqu´ ee sur e fonctions de coˆ uts avec r comme arit´ e maximale est O(er

2

d

r

) en temps et O(er

2

d

2

) en espace.

Exemple 2. Dans l’exemple de la Figure 1, f

1

(W, X, Y ) = b

1

(W, X) + b

2

(X, Y ) + f

3

(W, X, Y ) et f

2

(X, Y, U ) = b

3

(X, U) + b

4

(Y, U ) + f

4

(X, Y, U ).

Finalement, une borne inf´ erieure ´ egale ` a 1 est d´ eduite par arc coh´ erence souple appliqu´ ee sur b

1

.

W X b

1

1 1 3

1 2 5

2 1 2

2 2 1

X Y b

2

1 1 2

1 2 0

2 1 0

2 2 0

(7)

i=2 i=3 i=4 i=5 i=6 i=7 Linkage (22)

DFBB-VE(i) 14 14 15 13 12 10

DFBB-VE(i)+dec 16 19 17 13 14 13

DFBB-VE(i)+ps 17 16 17 18 16 16

DFBB-VE(i)+dec+ps 16 18 19 19 19 17

Grids (32)

DFBB-VE(i) 28 28 25 24 17 18

DFBB-VE(i)+dec 29 29 29 28 28 31

DFBB-VE(i)+ps 28 28 28 23 25 24

DFBB-VE(i)+dec+ps 31 30 31 31 32 32

Tab. 1 – Nombre d’instances r´ esolues en moins d’une heure par chaque m´ ethode

X U b

3

1 1 0

1 2 0

2 1 1

2 2 0

Y U b

4

1 1 0

1 2 0

2 1 1

2 2 0

W X Y f

3

1 1 1 0

1 1 2 0

1 2 1 0

1 2 2 >

2 1 1 0

2 1 2 0

2 2 1 0

2 2 2 0

X Y U f

4

1 1 1 0

1 1 2 >

1 2 1 >

1 2 2 0

2 1 1 0

2 1 2 0

2 2 1 0

2 2 2 0

5 R´ esultats exp´ erimentaux

DFBB-VE(i)

10

maintenant EDAC et utilisant un ordre dynamique d’affectation des variables bas´ e sur les conflits et une pond´ eration des fonctions de coˆ uts [9] a obtenu les meilleurs r´ esultats de l’´ evalua- tion de MPE de UAI’08

11

(et UAI’10

12

pour le cas ` a 20 minutes) except´ e pour deux benchmarks difficiles : les r´ eseaux d’analyse de liaison et les r´ eseaux en grille.

Les r´ eseaux d’analyse de liaison g´ en´ etique (Linkage). Les instances ont entre 334 et 1289 va- riables. Le domaine maximal de taille d est entre 3 et 7 et l’arit´ e la plus grande est 5. Cette famille de benchmarks est constitu´ ee de 22 probl` emes.

Les r´ eseaux en grille (Grids). Chaque probl` eme est une grille l × l et chaque ternaire CPT est g´ e- n´ er´ ee al´ eatoirement et uniform´ ement. 50, 75 or 90%

des CPT sont d´ eterministes et les variables sont Boo- l´ eennes. Pour ces instances l varie de 12 ` a 50 (i.e.

n = 2500 variables). Cette famille de benchmarks a 32 probl` emes.

10mulcyber.toulouse.inra.fr/projects/toulbar2version 0.9.4.

11graphmod.ics.uci.edu/uai08/Evaluation 12www.cs.huji.ac.il/project/UAI10

Les exp´ erimentations

10

ont ´ et´ e r´ ealis´ ees sur un or- dinateur 2.6 GHz Intel Xeon avec 4GB sous Linux 2.6. Les temps CPU totaux sont en secondes et li- mit´ es ` a 1 heure pour chaque instance (”-” repr´ esente un d´ epassement de temps). Aucune borne sup´ erieure n’est donn´ ee au d´ epart. Nous testons l’application de la d´ ecomposition par paire (DFBB-VE(i)+dec), pro- jeter&soustraire les fonctions de coˆ uts n-aires(DFBB- VE(i)+ps), et la combinaison des deux techniques (DFBB-VE(i)+dec+ps). La d´ ecomposition par paire, de projeter&soustraire et l’´ elimination de variables de degr´ e |S| ≤ i sont effectu´ ees seulement en pr´ e- traitement. L’´ elimination ` a la vol´ ee des variables de de- gr´ e au plus 2 est r´ ealis´ e durant la recherche. Toutes les m´ ethodes utilisent l’heuristique MinFill pour l’ordre d’´ elimination de variables et l’ordre inverse est utilis´ e pour DAC. La Table 1 r´ esume le nombre de probl` emes r´ esolus par les diff´ erentes versions de DFBB-VE(i).

La d´ ecomposition par paire et projeter&soustraire r´ e- solvent plus de probl` emes que DFBB-VE(i) seul et leur combinaison obtient les meilleurs r´ esultats, sauf pour les Linkage avec i = 2, 3. Remarquablement, toutes les instances de grilles sont r´ esolues avec de l’´ elimina- tion de variables born´ ee pour un i suffisamment grand.

montrant l’effet de la d´ ecomposition par paire, sp´ ecia- lement quand il y a suffisament de d´ eterminisme. Une factorisation similaire est observ´ ee dans [14] pour les CSP.

Nous avons ensuite compar´ e la meilleure m´ ethode avec AND/OR Branch and Bound avec cache et mini- bucket statique j-born´ e (AOBB-C+SMB(j)) qui a eu les meilleurs r´ esultats pour Linkage et Grids ` a l’´ evalua- tion UAI’08. Cette m´ ethode est impl´ ement´ ee dans ao- libWCSP

13

. La valeur de j est choisie comme dans [10].

La Table 2 donne les tailles des probl` emes (n, d), la treewidth (w) et r´ esume le temps CPU total uti- lis´ e pour les diff´ erentes m´ ethodes avec le i correspon- dant (en choisissant i ∈ [2, 7] permettant d’obtenir les

13graphmod.ics.uci.edu/group/aolibWCSP

(8)

DFBB-VE(i) AOBB-C+SMB(j)

Probl`eme DFBB-VE(i) +dec+ps +VE(i) +VE(i)+dec+ps

n d w time (s) i n0 time (s) i n0 j i time (s) n0 time (s) n0 Linkage

ped1 334 4 16 0.12 3 159 0.07 3 142 10 3 0.1 159 0.08 142

ped7 1068 4 38 4.04 2 375 1.18 4 213 20 4 1915.56 274 131.14 213

ped9 1118 4 31 - 3.36 6 147 20 6 - 179 104.62 147

ped18 1184 5 24 149.71 4 365 3.19 5 213 20 5 54.67 255 18.82 213

ped19 793 5 32 - - 20 6 - 337 - 304

ped20 437 5 23 3.46 4 95 0.39 6 42 16 6 407.6 68 66.53 42

ped23 402 5 26 0.09 4 79 0.05 3 98 12 3 6.05 114 1.52 98

ped25 1289 5 29 1207.97 4 269 0.65 6 102 20 6 25.91 158 32.51 102

ped30 1289 5 24 543.20 2 633 5.44 5 213 20 5 28.39 272 10.10 231

ped33 798 4 30 0.84 3 272 0.54 6 151 18 6 21.33 175 8.35 151

ped34 1160 5 36 1.13 2 326 0.36 5 167 20 5 - 196 24.56 167

ped37 1032 4 22 0.21 5 103 0.11 4 120 10 4 87.18 141 9.58 120

ped38 724 5 18 0.24 5 122 0.18 5 97 12 5 137.60 122 124.70 97

ped39 1272 5 22 16.68 4 183 0.24 5 107 18 5 6.87 148 2.60 107

ped41 1062 5 35 - 302.05 4 308 20 4 - 372 1271.31 308

ped42 448 5 24 1.94 4 140 0.34 6 81 16 6 240.94 95 155.39 81

ped44 811 4 31 - 505.46 5 215 20 5 2631.71 248 333.89 215

ped50 514 6 18 0.90 4 133 0.18 4 118 12 4 316.92 133 521.92 118

Grids

90-24-1 576 2 35 0.07 3 566 0.04 3 291 18 3 2323.01 566 0.63 291

90-26-1 676 2 41 0.29 3 668 0.07 3 500 16 3 2821.66 668 20.16 500

90-30-1 900 2 49 5.50 2 766 0.26 4 382 18 4 - 766 3.57 382

90-34-1 1156 2 63 328.42 2 1052 0.48 5 518 20 5 - 1037 14.41 518

90-38-1 1444 2 64 - 1.96 6 249 20 6 - 983 0.64 249

Tab. 2 – Comparaison avec/sans le pr´ e-traitement dec+ps pour DFBB-VE(i) et AOBB-C+SMB(j) meilleurs r´ esultats pour chaque instance) et j. Le pr´ e-

traitement ”dec+ps” am´ eliore globalement les r´ esultats de DFBB-VE(i) et AOBB-C+SMB(j). Le temps du pr´ e-traitement ´ etait toujours inf´ erieur ` a une seconde dans nos exp´ erimentations (n

0

, nombre de variables apr` es le pr´ e-traitement). DFBB-VE(i)+dec+ps a ob- tenu les meilleurs r´ esultats pour tous les probl` emes sauf pour ped44 and 90-38-1. Notons que la variation de i pour DFBB-VE(i)+dec+ps est plus petite que celle de j pour AOBB-C+SMB(j)

14

.

6 Conclusion

La d´ ecomposition par paire combin´ ee avec les pro- jections sur les fonctions de coˆ uts binaires et l’´ elimi- nation de variables est une puissante technique ` a l’in- t´ erieur de DFBB pour MPE. Les travaux futurs de- vraient ˆ etre fait sur la d´ ecomposition par paire ap- proch´ ee. D’autres exp´ erimentations sur d’autres pro- bl` emes incluant l’inf´ erence probabiliste devraient ´ ega- lement ˆ etre r´ ealis´ ees.

14Un bon moyen de r´egler la valeur de i est de prendre la valeur correspondant au maximum de la distribution des degr´es pour le mod`ele graphique consid´er´e (i.e.i= 5 pour Linkage et i= 6 pour Grids).

A Preuve du Th´ eor` eme 1

Dans la suite, nous utilisons P comme raccourci pour P

f

et C = P

S

exp(−f (S)) > 0, une constante de normalisation. Par d´ efinition des ind´ ependances conditionnelles [8], nous avons :

(X ⊥ ⊥ Y | Z) ⇐⇒ P (X, Y, Z) =

P (X | Z) P (Y | Z) P (Z)

⇐⇒ P (X, Y, Z) =

P(X,Z)

P(Z)

P (Y, Z), with P (Z) > 0.

= ⇒

Supposons P (X, Y, Z) = P (X | Z) P (Y | Z) P (Z).

Nous avons f (X, Z, Y ) = − log(C P (X, Y, Z)) =

− log(C P (X | Z) P (Y | Z) P (Z)). D´ e- finissons f

10

(X, Z) = − log( P (X | Z)) et f

20

(Z, Y ) = − log( P (Y | Z) P (Z)), deux fonctions de coˆ ut positives.

Ainsi f (X, Z, Y ) = f

10

(X, Z) + f

20

(Z, Y ) − log(C). Car f est positive, nous avons ∀x ∈ D

X

, ∀y ∈ D

Y

, ∀z ∈ D

Z

, f

10

(x, z) + f

20

(z, y) − log(C) ≥ 0. Si log(C) est n´ egatif, nous ajoutons − log(C) ` a f

10

ou f

20

afin d’obtenir f

1

, f

2

.

Sinon, pour chaque z ∈ D

Z

, nous d´ ecomposons log(C) = c

1z

+ c

2z

en deux nombres positifs.

Soit x ˆ

z

= argmin

x∈D

X

f

10

(x, z) et y ˆ

z

= argmin

y∈D

Y

f

20

(z, y). De plus, nous avons f

10

(ˆ x

z

, z) + f

20

(z, y ˆ

z

) − log(C) = f (ˆ x

z

, z, y ˆ

z

) ≥ 0.

Une solution possible est c

1z

= min(f

10

(ˆ x

z

, z), log(C))

et c

2z

= log(C) − c

1z

.

(9)

Either c

1z

= log(C) ≤ f

10

(ˆ x

z

, z) et c

2z

= 0, ou c

1z

= f

10

(ˆ x

z

, z) et c

2z

= log(C) − f

10

(ˆ x

z

, z).

Dans ce cas, f

20

(z, y ˆ

z

) − c

2z

= f

20

(z, y ˆ

z

) + f

10

(ˆ x

z

, z) − log(C) ≥ 0, ainsi ∀y ∈ D

Y

, f

20

(z, y) − c

2z

≥ 0.

Nous d´ efinissons ∀x, y, z, f

1

(x, z) = f

10

(x, z) − c

1z

et f

2

(z, y) = f

20

(z, y) − c

2z

, qui sont des nombres positifs Finalement, nous en d´ eduisons f (X, Z, Y ) = f

1

(X, Z) + f

2

(Z, Y ).

⇐ =

Supposons que nous ayons trois fonctions de coˆ uts f (X, Z, Y ), f

1

(X, Z), f

2

(Z, Y ) telles que f (X, Z, Y ) = f

1

(X, Z) + f

2

(Z, Y ).

Nous avons

exp(−f (X, Z, Y )) = exp(−f

1

(X, Z)) exp(−f

2

(Z, Y )).

Par marginalisation, nous avons P (X, Z) = P

Y

P (X, Y, Z) =

C1

P

Y

exp(−f (X, Z, Y ))

=

C1

exp(−f

1

(X, Z)( P

Y

exp(−f

2

(Z, Y ))), P (Y, Z)

= P

X

P (X, Y, Z)

=

C1

exp(−f

2

(Z, Y )) ( P

X

exp(−f

1

(X, Z))) et P (Z) = P

X,Y

P (X, Y, Z)

=

C1

( P

X

exp(−f

1

(X, Z)))( P

Y

exp(−f

2

(Z, Y ))).

Finalement, nous en d´ eduisons

P(X,Z)

P(Z)

P (Y, Z) =

1

C

exp(−f

1

(X, Z)) exp(−f

2

(Z, Y )) = P (X, Y, Z).

B Preuve du Th´ eor` eme 2

Il est toujours possible de d´ ecomposer une fonc- tiond de coˆ uts f en trois fonction de coˆ uts (positives) f (X, Z, Y ) = f

1

(X, Z) + f

2

(Z, Y ) + ∆(X, Z, Y ) (f

1

, f

2

peuvent ˆ etre ´ egales ` a la fonction constante nulle). Une fonction de coˆ ut non nulle est appel´ ee r´ eductible si f

1

ou f

2

sont des fonctions de coˆ uts non nulles. Sinon elle est appel´ ee irr´ eductible. Nous avons une condition sp´ ecifique pour tester la r´ eductibilit´ e.

Propri´ et´ e 3. Une fonction de coˆ ut non nulle f (X, Z, Y ) est r´ eductible si ∃x ∈ D

X

, ∃z ∈ D

Z

t.q. min

y∈DY

f (x, z, y) > 0 (i.e. f

1

= f [X, Z] 6=

0) ou ∃y ∈ D

Y

, ∃z ∈ D

Z

t.q. min

x∈DX

f (x, z, y) > 0 (i.e. f

2

= f[Z, Y ] 6= 0).

Propri´ et´ e 4. Si f

1

(X, Z), f

2

(Z, Y ), ∆(X, Z, Y ), trois fonctions de coˆ uts (positives), est une r´ eduction maxi- male de f (X, Z, Y ) alors ∆(X, Z, Y ) est irr´ eductible.

En utilisant la propri´ et´ e 3, nous prouvons le lemme suivant.

Lemme 1. Si f (X, Z, Y ) une fonction de coˆ uts non nulle est irr´ eductible alors ∃z ∈ D

Z

, ∃k, l ∈ D

Y

(k 6=

l), ∃u, v ∈ D

X

(u 6= v) t.q. f (u, z, k) f(u, z, l) 6 $ f (v, z, k) f (v, z, l).

Preuve par l’absurde. Supposons ∀z ∈ D

Z

, ∀k, l ∈ D

Y

(k 6= l), ∀u, v ∈ D

X

(u 6= v) tel que f(u, z, k) f (u, z, l) $ f(v, z, k) f (v, z, l). Nous rappelons que les fonctions de coˆ uts ont leur coˆ ut dans E

+

= N ∪{>}

et non dans E. Nous avons : Premier cas :

∃u, z, k, l t.q. f (u, z, k) f (u, z, l) 6 $ 0

f (u, z, k) f (u, z, l) > 0 ou f (u, z, k) f (u, z, l) = >

Donc 0 6 f (u, z, l) < f (u, z, k).

De plus ∀v ∈ D

X

,

f (u, z, k) f (u, z, l) $ f (v, z, k) f (v, z, l).

Alors ∀v ∈ D

X

, f (v, z, k) f (v, z, l) > 0, ou f (v, z, k) f (v, z, l) = >, ou f (v, z, k) f (v, z, l) = Ω.

Par cons´ equent 0 6 f (v, z, l) < f (v, z, k) ou f (v, z, k) = f (v, z, l) = >. Donc min

v∈DX

f (v, z, k) > 0.

f (u, z, k) f (u, z, l) < 0 or f (u, z, k) f (u, z, l) = −>

Donc 0 6 f (u, z, k) < f (u, z, l).

De plus ∀v ∈ D

X

,

f (u, z, k) f (u, z, l) $ f (v, z, k) f (v, z, l).

Ainsi ∀v ∈ D

X

, f (v, z, k) f (v, z, l) < 0, ou f (v, z, k) f (v, z, l) = −>, ou f (v, z, k) f (v, z, l) = Ω.

Par cons´ equent 0 6 f (v, z, k) < f (v, z, l) ou f (v, z, k) = f (v, z, l) = >. Donc min

v∈DX

f (v, z, l) > 0.

Second cas :

∀u, z, k, l t.q. f (u, z, k) f (u, z, l) $ 0 f (u, z, k) f (u, z, l) = Ω

Donc f (u, z, k) = f (u, z, l) = >.

De plus ∀p ∈ D

Y

, f (u, z, p) f (u, z, l) = 0 ou f (u, z, p) f (u, z, l) = f (u, z, p) > = Ω. Ainsi f (u, z, p) = >. Donc f(u, z, l) = f (u, z, k) = f (u, z, p) = >, et min

p∈DY

f (u, z, p) = > > 0.

f (u, z, k) = f (u, z, l) > 0

Donc f (u, z, k) f (u, z, l) = 0 et par hypoth` ese,

∀p ∈ D

Y

, f (u, z, p) f (u, z, l) = 0.

Ainsi f (u, z, k) f (u, z, l) = f (u, z, p) f (u, z, l) et 0 < f (u, z, l) = f (u, z, k) = f (u, z, p).

Donc min

p∈DY

f (u, z, p) > 0.

f (u, z, k) = f (u, z, l) = 0

Par hypoth` ese, ∀p ∈ D

Y

, f (u, z, p) f (u, z, l) $ 0.

Alors f (u, z, p) 0 $ 0. Ainsi f (u, z, p) f (u, z, l) 6= Ω et donc f (u, z, k) f(u, z, l) = f (u, z, p) f(u, z, l).

Finalement ∀p ∈ D

Y

, f(u, z, p) = 0. Nous pouvons conclure en utilisant la propri´ et´ e 3 que f (X, Z, Y ) est r´ eductible ou ´ egal ` a la fonction nulle (si de mani` ere r´ ecursive on est toujours dans le dernier sous-cas).

L’op´ eration a b repr´ esente l’addition de

deux ´ el´ ements de a, b ∈ E : a b = a + b sauf

(10)

> −> = −> > = a Ω = Ω b = Ω,

> > = > c = c > = >,

−> −> = −> c = c −> = −> avec c ∈ Z . Maintenant nous pouvons prouver le th´ eor` eme 2.

= ⇒ Supposons f (X, Z, Y ) = f

1

(X, Z) + f

2

(Z, Y ) et f

1

(X, Z), f

2

(Z, Y ) fonctions positives (0 6 f

1

(X, Z) 6 f (X, Z, Y )). Alors les syst` emes suivants S

z

d’´ equations lin´ eaires (utilisant et $ operateurs) ont une solution.

(S

z

)

f

1

(1z) f

2

(z1) $ f(1z1)

f

1

(uz) f

2

(zk) $ f (uzk) ∀u, k f

1

(d

X

z) f

2

(zd

Y

) $ f (d

X

zd

Y

)

∀z ∈ D

Z

, ∀k, l ∈ D

Y

, ∀u ∈ D

X

, de S

z

, nous d´ eduisons

f(uzk)f(uzl) $ (f1(uz)f2(zk))(f1(uz)f2(zl))

$ (f1(uz)f1(uz))(f2(zk)f2(zl))

1

er

cas : f

1

(uz) ∈ N

f (uzk) f (uzl) $ (f

1

(uz) f

1

(uz)) (f

2

(zk) f

2

(zl)) $ 0 (f

2

(zk) f

2

(zl)) $ f

2

(zk) f

2

(zl) 2

nd

cas : f

1

(uz) = >

f (uzk) f (uzl) $ (f

1

(uz) f

1

(uz)) (f

2

(zk) f

2

(zl)) $ Ω (f

2

(zk) f

2

(zl)) $ Ω

Nous pouvons conclure que ∀z ∈ D

Z

, ∀k, l ∈ D

Y

(k 6= l) $

u∈DX

f (uzk) f (uzl)

⇐ = Supposons ∀z ∈ D

Z

, ∀k, l ∈ D

Y

(k < l), ∀u, v ∈ D

X

: f (uzk) f (uzl) $ f(vzk) f (vzl).

De plus, nous avons f (X, Z, Y ) = f

1

(X, Z) + f

2

(Z, Y ) + ∆(X, Z, Y ) f

1

(X, Z), f

2

(Z, Y ) et

∆(X, Z, Y ) des fonctions positives qui d´ efinissent les syst` emes lin´ eaires suivants :

(S

z0

) (

f

1(1z) f2(z1) ∆(1z1) $ f(1z1) f1(uz) f2(zk) ∆(uzk) $ f(uzk) ∀u, k f1(dXz)f2(zdY)∆(dXzdY)$f(dXzdY)

f(uzk)f(uzl)

$(f1(uz)f2(zk)∆(uzk))(f1(uz)f2(zl)∆(uzl))

$f1(uz)f2(zk)∆(uzk)(−f1(uz))(−f2(zl)) (−∆(uzl))

$(f1(uz)f1(uz))(f2(zk)f2(zl))(∆(uzk)∆(uzl))

Supposons que f (X, Z, Y ) ne se d´ ecompose pas en {f

1

(X, Z), f

2

(Z, Y )}, avec la propri´ et´ e 4 nous pouvons trouver ∆(X, Z, Y ) tel que ∆(X, Z, Y ) est une fonc- tion de coˆ ut non nulle irr´ eductible. Avec le th´ eor` eme 1 nous avons ∃ z ∈ D

Z

, k, l ∈ D

Y

, k < l et u, v ∈ D

X

, u < v t.q. ∆(uzk) ∆(uzl) 6 $ ∆(vzk) ∆(vzl).

Nous en d´ eduisons que ∆(uzk) ∆(uzl) 6= Ω et

∆(vzk) ∆(vzl) 6= Ω avec la d´ efiniton de $ .

Nous avons ´ egalement f (uzk) f (uzl) 6= Ω 6= f (vzk) f (vzl). Alors f (uzk) f (uzl) $ f (vzk) f (vzl) $ ϕ t.q. ϕ ∈ Z ∪ {>, −>} donc f

1

(uz) f

1

(uz) = 0 = f

1

(vz) f

1

(vz) et f

2

(zk) f

2

(zl) 6= Ω

En utilisant les propri´ et´ es pr´ ec´ edentes :

∆(uzk)∆(uzl)6= ∆(vzk)∆(vzl) f2(zk)f2(zl)∆(uzk)∆(uzl)

6=f2(zk)f2(zl)∆(vzk)∆(vzl)

f1(uz)f1(uz)f2(zk)f2(zl)∆(uzk)∆(uzl) 6=f1(vz)f1(vz)f2(zk)f2(zl)∆(vzk)∆(vzl) f1(uz)f2(zk)∆(uzk)(f1(uz)f2(zl)∆(uzl))

6=f1(vz)f2(zk)∆(vzk)(f1(vz)f2(zl)∆(vzl)) f(uzk)f(uzl)6=f(vzk)f(vzl)

C’est en contradiction avec la premi` ere hypoth` ese :

∀ k, l ∈ D

Y

, ∀ z ∈ D

Z

f (uzk) f (uzl) $ f (vzk) f (vzl).

C Preuve du Th´ eor` eme 3

Lemme 2. Soit une fonction de coˆ uts f (X, Z, Y ) d´ e- composable par paire par rapport ` a X, Y.

Si f

1

(x, z) = min

y∈DY

f (x, z, y) alors ∀z ∈ D

Z

∃k ∈ D

Y

tel que ∀x ∈ D

X

, f

1

(x, z) = f (x, z, k) .

D´ emonstration. Soit z ∈ D

Z

.

∃x ∈ D

x

, ∃y, f (x, z, y) 6= >

Soit D

K

= {k

1

, k

2

, . . . , k

dY

} tel que

∀i < j, f (x, z, k

i

) 6 f (x, z, k

j

). Nous en d´ e- duisons ∀i ∈ [1, d

Y

], f (x, z, k

1

) 6 f (x, z, k

i

) et f

1

(x, z) = min

y∈DY

f (x, z, y) = f(x, z, k

1

).

En utilisant le th´ eor` eme 2, nous trouvons ∀k

p

∈ D

K

∀u ∈ D

X

, 0 6 f (x, z, k

p

) f (x, z, k

1

) $ f (u, z, k

p

) f (u, z, k

1

). Donc f (u, z, k

1

) 6 f(u, z, k

p

) ou f (u, z, k

1

) = f (u, z, k

p

) = >, ainsi

∀u ∈ D

X

, f

1

(x, z) = min

y∈DY

f (u, z, y) = f (u, z, k

1

).

∀x ∈ D

x

, ∀y, f (x, z, y) = >

∀x∈D

X

, f

1

(x, z)= min

y∈DY

f(x, z, y)=>, donc soit k∈D

y

, ∀x∈D

X

, f

1

(x, z)=f (x, z, k)=>

Maintenant nous pouvons prouver le th´ eor` eme 3.

Nous avons f

1

(x, z) = min

y∈DY

f(x, z, y) et f

2

(z, y) = min

x∈DX

[f (x, z, y) − f

1

(x, z)] donc f

2

(z, y) 6 f (x, z, y) − f

1

(x, z).

Si f

2

(z, y) = f (x, z, y) − f

1

(x, z), f (x, z, y) = f

1

(x, z) + f

2

(z, y).

Si f

2

(z, y) < f (x, z, y) − f

1

(x, z) , f (x, z, y) = f

1

(x, z) = >

Nous avons f

1

(x, z) + min

x∈DX

[f (x, z, y) − f

1

(x, z)] =

> = f(x, z, y) doncf (x, z, y) = f

1

(x, z) + f

2

(z, y).

f (x, z, y) 6= > ou f

1

(x, z) 6= >

Nous avons min

u∈DX

[f (u, z, y) − f

1

(u, z)] <

f (x, z, y) − f

1

(x, z) donc f (u, z, y) − f

1

(u, z) <

f (x, z, y) − f

1

(x, z) avec u = argmin

u∈D

X

[f (u, z, y) −

f

1

(u, z)]. En utilisant le lemme 2, nous avons

l = argmin

k∈DY

f (x, z, k) = argmin

k∈DY

f (u, z, k),

(11)

ainsi f (u, z, l) − f (u, z, l) < f (x, z, y) − f (x, z, l), mais

´ egalement f(u, z, y) f (u, z, l) $ f (x, z, y) f (x, z, l) car f est d´ ecomposable par paire par rapport ` a X, Y . De plus, f(x, z, y) 6= > ou f (x, z, l) 6= >, ainsi f (u, z, y) − f (u, z, l) = f (x, z, y) − f (x, z, l).

Finalement f

2

(z, y) = f (x, z, y) − f

1

(x, z), ainsi f (x, z, y) = f

1

(x, z) + f

2

(z, y).

R´ ef´ erences

[1] M. Cooper, S. de Givry, M. Sanchez, T. Schiex, M. Zytnicki, and T. Werner. Soft arc consistency revisited. Artificial Intelligence, 174(7–8) :449–

478, 2010.

[2] S. de Givry, J. Larrosa, P. Meseguer, and T. Schiex. Solving max-sat as weighted csp. In Proc. of CP-03, pages 363–376, Kinsale, Ireland, 2003.

[3] M Fishelson, N Dovgolevsky, and D Geiger. Maxi- mum likelihood haplotyping for general pedigrees.

Human Heredity, 59 :41–60, 2005.

[4] J Hammersley and P Clifford. Markov fields on finite graphs and lattices, 1971.

[5] D. Heckerman and J. Breese. Causal indepen- dence for probability assessment and inference using bayesian networks. IEEE Systems, Man, and Cyber., 26(6) :826–831, 1996.

[6] D. Koller and N. Friedman. Probabilistic Graphi- cal Models. The MIT Press, 2009.

[7] J. Larrosa. Boosting search with variable elimi- nation. In CP, pages 291–305, Singapore, 2000.

[8] S. Lauritzen. Graphical Models. Oxford Univer- sity Press, 1996.

[9] C. Lecoutre, L Sa¨ıs, S. Tabary, and V. Vidal. Rea- soning from last conflict(s) in constraint program- ming. Artificial Intelligence, 173 :1592,1614, 2009.

[10] R. Marinescu and R. Dechter. Memory intensive and/or search for combinatorial optimization in graphical models. Artificial Intelligence, 173(16- 17) :1492–1524, 2009.

[11] I. Meiri, R. Dechter, and J. Pearl. Tree decompo- sition with applications to constraint processing.

In Proc. of AAAI’90, pages 10–16, Boston, MA, 1990.

[12] P. Meseguer, F. Rossi, and T. Schiex. Soft constraints processing. In Handbook of Constraint Programming, chapter 9. Elsevier, 2006.

[13] M. S´ anchez, S. de Givry, and T. Schiex. Men- delian error detection in complex pedigrees using weighted constraint satisfaction techniques.

Constraints, 13(1) :130–154, 2008.

[14] M. S´ anchez, P. Meseguer, and J. Larrosa. Using constraints with memory to implement variable elimination. In ECAI, pages 216–220, Spain, 2004.

[15] P. Savicky and J. Vomlel. Exploiting tensor rank-

one decomposition in probabilistic inference. Ky-

bernetika, 43(5) :747–764, 2007.

Références

Documents relatifs

[r]

Dans [1], Anker et Ji ont obtenu les estimations asymptotiques du noyau de la chaleur et celles du noyau de Poisson sur les espaces sym´ etriques de type non-compact ; cependant,

Ecrire la fonction d´eriv´ee sous la forme la plus ”simplifi´ee” possible : une seule fraction au plus (mˆeme

[r]

Contrairement ` a la recherche dans un arbre quelconque o` u il faut parcourir quasiment tous les nœuds de l’arbre pour d´ eterminer si l’´ el´ ement existe, la recherche dans

Etant donn´ ee une circonf´ erence (L), trouver son centre O par une construc- tion g´ eom´ etrique n’utilisant que le

[r]

Soit f une fonction 2π-p´ eriodique et de carr´ e int´ egrable sur tout intervalle de