• Aucun résultat trouvé

3.5 TrueChess : Apprentissage

3.5.1 Expectation Propagation

EP (Min01b) est une méthode générale permettant d’approximer un produit

incalcu-lable

p(x) = t

1

(x)· · ·t

n

(x) (3.3)

par un produit calculable de termes approchés

ˆ

p(x) = ˆt

1

(x)· · ·ˆt

n

(x), (3.4)

les termes ˆt

a

(x) étant membres d’une famille F de fonctions plus simples. Cet algorithme

initialise d’abord tous les termes et les réajuste itérativement et plusieurs fois jusqu’à

convergence. Comme il approxime chaque terme t

a

(x) par un ˆt

a

(x), EP trouve une

ap-proximation globale deppar une multitude d’approximations locales. En toute généralité,

une succession d’approximations locales n’implique pas une bonne approximation globale,

mais sous certaines conditions, la qualité du résultat est suffisante.

Une approche naïve et peu précise pour réaliser les approximations locales est

d’ap-proximer chaque terme indépendamment, de sorte que ∀a ˆt

a

(x) t

a

(x). Il est cependant

plus précis de considérer le contexte de t

a

(x), son “voisinage”.

Par exemple, les méthodes de filtrage de typeAssumed Density Filtering(ADF (May79)),

affine l’estimation de ˆt

a

(x) en utilisant le “passé”, c’est-à-dire les ˆt

b

(x) ∀b < a. Les

mé-thodes ADF sont issues de la théorie de l’automatique et un exemple classique est le filtre

de Kalman (Kal60). Les filtres bayésiens en général fonctionnent sur ce principe.

EP généralise ADF, car il ne suppose pas d’ordre “temporel” et affine chaque terme en

fonction de son contexte complet, “passé” et “futur”. EP n’est pas un filtre, contrairement

à ADF.

EP commence par initialiser tous les ˆt

a

(x) à une fonction arbitraire, par exemple la

fonction constante 1. La suite est itérative. Nous choisissons un terme approché ˆt

old

a

(x),

annulons son influence du produit global, le remplaçons par le vrai terme correspondant

t

a

(x), calculons le nouveaux produit et finalement nous trouvons le nouveau terme approché

ˆ

t

new

a

(x) qui aurait conduit à ce nouveau produit global, en minimisant une fonction de coût.

Traditionnellement, la fonction de coût est une mesure de “divergence” entre distributions.

L’algorithme 2présente EP dans toute sa généralité. Dans notre application, plusieurs

contraintes facilitent cette procédure. D’abord p(x) est une distribution de probabilités,

c’est donc une fonction normalisée (ou du moins normalisable) positive. De plus, le vecteur

xest le vecteur de toutes les variables aléatoires de notre modèle (cotations, performances,

différences de performance et données observées). En notant x = (x

1

, . . . , x

k

), les x

k

sont

3.5 TrueChess : Apprentissage 71

Algorithme 2: Algorithme EP général.

Entrées :p(x) =t

1

(x)· · ·t

n

(x)

Sorties : ˆp(x) = ˆt

1

(x)· · ·ˆt

n

(x)

Initialisation : ∀a ˆt

a

(x)1 ;

1

tant que Critère de convergence non vérifié faire

2

Choisir un terme ˆt

old

a

;

3

Annuler son influence dans l’approximation courante ˆp

old

;

4

ˆ

p

\a

(x) :=

pˆˆtoldold(x)

a (x)

;

5

Incorporer à sa place le terme exact t

a

et trouver le nouveau terme approximé ;

6

ˆ

t

new a

(x)ArgMin

q∈F

Dpˆ

\a

(x) t

a

(x)||pˆ

\a

(x)q(x) ;

7

fin

8

des variables réelles unidimensionnelles. De plus, p(x) se factorise selon le modèle

proba-biliste que nous avons décrit et les termes exacts t

a

(x) sont les facteurs de notre graphe de

facteur, ce sont les distributions conditionnelles.

En effet, comme pest un distribution jointe sur plusieurs variables, sa factorisation est

déterminée par le modèle probabiliste, comme c’est le cas pour un réseau bayésien :

p(x) = Y

k

p(x

k

|parents(x

k

)). (3.5)

Pour TrueChess, comme nous utilisons le formalisme des graphes de facteurs, nous avons :

p(x) = Y

a

t

a

(x) = Y

a

f

a

(x

a

) (3.6)

x

a

est le sous-ensemble de xconnecté au facteur f

a

.

De plus, nous choisissons pour F la famille des gaussiennes complètement factorisées :

ˆ

p(x) = Y

xkx

ˆ

p(x

k

) =Y

k

ˆ

p(x

k

) (3.7)

où chaque ˆp(x

k

) est une gaussienne unidimensionnelle. Nous avons ainsi deux factorisations

différentes de ˆp qu’il ne faut pas confondre : la factorisation due au modèle probabiliste

ˆ

p(x) = Q

a

fˆ

a

(x

a

) et la factorisation due aux choix deF : ˆp(x) = Q

k

pˆ(x

k

).

Avec ces hypothèses, nous pouvons définir des messages selon le schéma :

ˆ

p(x) =Y

a

ˆ

f

a

(x

a

) (3.8)

=Y

a

Y

xkxa

ˆ

f

a,k

(x

k

) (3.9)

= Y

xkx

Y

a∈Nxk

ˆ

f

a,k

(x

k

) (3.10)

= Y

xkx

Y

a∈Nxk

m

fa→xk

(x

k

). (3.11)

L’équation 3.8 provient de la factorisation de la jointe, 3.9 de l’hypothèse de factorisation

complète, 3.10 est une réorganisation et 3.11 la définition des messages de facteur à

va-riable. L’identification entre3.11et3.7 prouve l’équivalence entre lesbelief locaux de LBP

(produits des messages arrivant àx

k

) et les marginales de ˆp.

On définit alors les messages de variable à facteur par

m

xk→fa

(x

k

) := Y

b6=a

m

fb→xk

(x

k

) (3.12)

en collectant les messages arrivant à x

k

.

Grâce à l’hypothèse de factorisation, l’étape de minimisation de l’algorithme 2 devient

locale à chaque facteur. Chaque itération de EP est alors équivalente au passage de tous les

messages issus du facteur choisi (Min01c). Dans cette terminologie, “passer une message”

signifie calculer le nouveau facteur ˆf

a

(x

a

) par la minimisation décrite. Ce nouveau facteur

est un produit des ˆf

a,k

(x

k

), c’est à dire un produit des messages sortant du facteur. Pour

finir de “passer” ces messages, il faut mettre à jour les distributions marginales ˆp(x

k

) des

variables liées au facteur.

D’autre part, comme EP ne nécessite pas d’ordre particulier pour le réajustement des

termes et comme les facteurs approximés sont factorisés, la méthode n’impose pas l’ordre

de passage des messages, même au sein d’un même facteur. Cet ordre, ouagenda, qui reste

à définir, influence la vitesse de convergence et détermine le point stationnaire atteint.

Les points stationnaire de EP sont les extrema d’une fonction d’énergie libre non convexe

(HOW

+

05;Min01a), mais les approximations produites sont en général de bonne qualité,

surtout lorsque les membres de F forment de bonnes approximations des vrais termes

(MWJ99; KFL01 ;BG96 ; Gal63).

Appliqué au modèle TrueChess, EP devient donc l’algorithme 3, dont les étapes sont

détaillées dans les paragraphes suivants.

Algorithme 3: Principales étapes de l’inférence par passage de messages pour

True-Chess.

Entrées : Résultats des matchs ∆ ={g

n

}

Sorties : Marginales approchées (i

, t

) ˆp(s

t

i

|∆)

Construire le graphe de facteurs correspondant à ∆;

1

Initialiser tous les messages à la distribution uniforme;

2

Initialiser toutes les marginales à la distribution uniforme;

3

Déterminer un agenda pour le passage des messages;

4

tant que Critère de convergence non vérifié faire

5

Passer le message courant de l’agenda;

6

en mettant à jour ce message et sa marginale associée;

7

(si nécessaire, utiliser une approximation gaussienne);

8

fin

3.5 TrueChess : Apprentissage 73

Justification du choix de EP

EP est particulièrement bien adapté au modèle TrueChess. Étant donné le nombre

de variables cachées et la taille des jeux de données traités, une méthode stochastique

ou exhaustive serait trop coûteuse. En général, EP permet un excellent compromis entre

précision et temps de calcul. De plus, la structure éparse du graphe de dépendance rend

adéquate la délocalisation des calculs apportée par le passage de messages, qui exploite

localement les sous structures non cycliques. Dans cette optique, l’utilisation du classique

LBP n’est pas possible car tous les termes n’appartiennent pas à une même famille

paramé-trique close par passage de message. Grâce à ses phases de projection, EP est en revanche

capable de gérer ce problème. Finalement EP esta priorimieux adaptée que des méthodes

de passage de messages variationnelles de type Mean Field, pour deux raisons. D’abord

nous verrons que nous devons approximer des gaussiennes tronquée rectifiées (GTR, sec.

A.2.3) par des gaussiennes, ce qui est assez facile car les deux types de distributions sont

unimodales. D’autre part, EP et méthodes variationnelles peuvent être unifiées en tant que

minimisation d’α-divergences, avec α = 1 pour EP et α = 0 pour Mean Field (Min05).

Détaillons cette différence et ses conséquences.

Définition 9 (Divergence de Kullback-Leibler). Si X est une variable aléatoire de R

d

et

xR

d

, q(x) = 0p(x) = 0,

la divergence de Kullback-Leibler de q par rapport p est définie par

D

KL

(p||q) :=E

p

"

log p(X)

q(X)

#

=

Z

Rd

p(x) logp(x)

q(x)dx. (3.13)

Remarques :

– Si p et q ne sont pas normalisées, le termeR

(q(x)p(x)) dx doit être ajouté.

– En théorie des codes, cette valeur mesure le nombre de bits supplémentaires pour

transmettre des messages distribués selon p mais codés selon q. Intuitivement, c’est

notre surprise moyenne à la réception d’un message produit sous p alors que nous

nous attendions à le voir produit sousq.

– Cette divergence n’étant pas symétrique et ne vérifiant pas l’inégalité triangulaire,

elle n’est pas une distance. Cependant, D

KL

(p||q) 0 et p = q presque partout

équivaut à D

KL

(p||q) = 0.

– La KL-divergence est un cas particulier de la famille des α-divergences (ZR95),

ins-pirées de la théorie de la géométrie de l’information (iAN00).

Définition 10 (α-divergences). L’α-divergences de q par rapport p est définie par :

D

α

(p||q) := 1

α(1α)

Z

Rd

α p(x) + (1α)q(x)p(x)

α

q(x)

(1α)

dx. (3.14)

Remarques :

−6 −4 −2 0 2 4 6 0.0 0.2 0.4 0.6 0.8 1.0 −6 −4 −2 0 2 4 6 0.0 0.2 0.4 0.6 0.8 1.0 −6 −4 −2 0 2 4 6 0.0 0.2 0.4 0.6 0.8 1.0 p q minimisant KL(p,q) q minimisant KL(q,p)

Fig. 3.8 – Distributions minimisant les divergences inclusive D

KL

(p||q) et exclusive

D

KL

(q||p), avec q gaussienne et p bimodale. La première englobe toute la masse de

p, surestimant sa variance. La seconde se concentre sur le plus gros mode et est donc trop

confiante dans son approximation de p. Le choix d’une divergence doit dépendre de sa

simplicité calculatoire, du but du problème et du modèle probabiliste envisagé.

– lim

α→1

D

α

(p||q) =D

KL

(p||q).

– lim

α→0

D

α

(p||q) =D

KL

(q||p).

D

0.5

(p||q) et D

2

(p||q) sont de vraies distances (resp. de Hellinger et du χ

2

).

– Les α-divergences se justifient par leur origine géométrique : elles ne dépendent pas

de la mesure de base de l’espace et sont donc invariantes par reparamétrisation de p

etq.

Divergence inclusive et divergence exclusive Les cas particuliers α = 0 et α = 1

sont fréquemment utilisés pour définir la distribution ArgMin

q∈F

D

α

(p||q). Souvent F

est une famille exponentielle complètement factorisée sur les variables de x.

Pourα= 0,D

KL

(q||p) est diteexclusiveouforçant les zéroscarp(x) = 0q(x) = 0.

La densitéqa tendance à ne modéliser que le plus gros mode dep(Fig.3.8), sous-estimant

donc sa variance. Les algorithmes variationnels comme Mean Field utilisent cette

diver-gence et sont ainsi souvent trop confiants. Utilisée comme minimisation locale par un

algorithme de passage de messages,D

KL

(q||p) a cependant l’avantage d’induire une

équi-valence entre minimisation locale et minimisation globale. De plus, elle est appropriée à

certains types de modèles, pour lesquels l’a posterioriprésente de nombreux modes

équiva-lents. Par exemple, pour des modèles de mixture, le nommage de chaque composante n’est

pas pertinent et l’a posteriori aura un mode pour chacun de ces étiquetages. Trouver un

de ces modes symétriques est suffisant.

3.5 TrueChess : Apprentissage 75

La densitéq tente d’englober toute la masse dep, surestimant sa variance.Belief

Propaga-tion etExpectation Propagation utilisent cette divergence et ne sont donc pas bien adaptés

aux modèles de mixture. Ici la minimisation de divergences locales n’est pas strictement

équivalente à une minimisation globale, bien que des expérimentations (Min05) montrent

que cette approximation est assez bonne, surtout si F permet de bien représenter p. En

revanche, lorsque q(x) est complètement factorisée, ses marginales sont exactement celles

de p (Théorème 4). Cette propriété est intéressante lorsque le but de l’inférence est de

trouver ces marginales (comme dans l’application TrueChess), car elle garantit que les

croyances sur les variables après la convergence de l’algorithme de passage de messages

approximent les marginales de p. Ceci n’est pas vrai pour les méthodes variationnelles et

c’est un argument fort en faveur de EP pour le modèle TrueChess.

Théorème 4 (Divergence inclusive et marginales). Si q(x) est totalement factorisée et

minimise D

KL

(p||q), alors ses marginales coïncident avec celles de p.

Démonstration. On se restreint au cas où les variablesx sont discrètes. Le cas continu est

similaire en utilisant l’optimisation variationnelle. La distribution q étant factorisée, nous

minimisons

Z

x

p(x) logQ

K

p(x)

k

q

k

(x

k

) dx

sous les K contraintes R

xk

q

k

(x

k

)dx

k

= 1. Le lagrangien est alors

L(λ)∝ −

Z

x

p(x)X

k

logq

k

(x

k

)dx+X

k

λ

k

Z

xk

q

k

(x

k

)dx

k

1

.

En supposant que chaque x

k

prennent I

k

valeurs possibles x

i

k

, les dérivées partielles

sont

∂L(λ)

∂q

k

(x

k

=x

i k

) =

Z

x

[p(x) logq

k

(x

k

)]

∂q

k

(x

k

=x

i k

) dx+λ

k

∂q

k

(x

k

=x

i k

)

Z

xk

q

k

(x

k

)dx

k

1

=

Z

x\k

Z

xk

[p(x) logq

k

(x

k

)]

∂q

k

(x

k

=x

i k

) dx+λ

k

Z

xk

∂q

k

(x

k

)

∂q

k

(x

k

=x

i k

)dx

k

=

Z

x\k

p(x

\k

, x

k

=x

i k

)

q

k

(x

k

=x

i k

) dx

\k

+λ

k

.

En combinant leur annulation pour tous les i, nous obtenons

Z

x\k

p(x)dx=−λ

k

q

k

(x

k

).

Commeq

k

est normalisée, nous obtenons son égalité avec lak

ième

marginale dep.

Ainsi nous choisissons EP comme algorithme d’inférence pour TrueChess. Détaillons

les différentes phases de l’algorithme 3.