• Aucun résultat trouvé

Inf ´e rencesurvariablesr ´e ellesparunmod `e led’Ising

N/A
N/A
Protected

Academic year: 2022

Partager "Inf ´e rencesurvariablesr ´e ellesparunmod `e led’Ising"

Copied!
56
0
0

Texte intégral

(1)

Inf´erence sur variables r´eelles par un mod`ele d’Ising

Victorin MARTIN

(2)

Plan de pr´esentation

1

Introduction/Probl´ ematique.

2

Construction du mod` ele d’Ising.

3

Algorithme d’inf´ erence.

4

Exp´ erimentations num´ eriques.

(3)

Probl´ematique

Champ Markovien de v.a.r

Ind´ependance conditionnelle Densit´e jointe :P(X) =

Q

(ij)ϕij(Xi,Xj) (Th´eor`eme de Hammersley-Clifford)

X

1

X

2

X

3

X

4

X

5

Observations

(4)

Probl´ematique

Champ Markovien de v.a.r

Ind´ependance conditionnelle Densit´e jointe :P(X) =

Q

(ij)ϕij(Xi,Xj) (Th´eor`eme de Hammersley-Clifford)

X

1

X

2

X

3

X

4

X

5

X

4

X

5

Observations

(5)

Probl´ematique

Champ Markovien de v.a.r

Ind´ependance conditionnelle Densit´e jointe :P(X) =

Q

(ij)ϕij(Xi,Xj) (Th´eor`eme de Hammersley-Clifford)

X

1

X

2

X

3

X

4

X

5

X

4

X

5

Observations

Pr´ edictions

(6)

Probl´ematique

Deux probl` emes ` a r´ esoudre

A partir d’un historique{Xk}k∈{1..M}, calibrer le mod`ele i.e.P(X) =

Q

(ij)ϕij(Xi,Xj).

R´ealiser l’inf´erence conditionnelle aux observations.

L’inf´ erence : un probl` eme th´ eoriquement trivial

Densit´efk(Xk) =

R

X\Xk

Q

(ij)ϕij(Xi,Xj)dX.

SupposonsXcontenantnvariables binaires→2n−1termes dans la somme...

Cas particulier : X ∼ N (µ, Σ)

Calibration simple ; estimation deµet Σ. Inf´erence exacte tractable.

Cas g´ en´ eral

Calibration et inf´erence sont fait de mani`ere approch´ee. Les 2 approximations s’influencent fortement...

(7)

Probl´ematique

Deux probl` emes ` a r´ esoudre

A partir d’un historique{Xk}k∈{1..M}, calibrer le mod`ele i.e.P(X) =

Q

(ij)ϕij(Xi,Xj).

R´ealiser l’inf´erence conditionnelle aux observations.

L’inf´ erence : un probl` eme th´ eoriquement trivial

Densit´efk(Xk) =

R

X\Xk

Q

(ij)ϕij(Xi,Xj)dX.

SupposonsXcontenantnvariables binaires→2n−1termes dans la somme...

Cas particulier : X ∼ N (µ, Σ)

Calibration simple ; estimation deµet Σ. Inf´erence exacte tractable.

Cas g´ en´ eral

Calibration et inf´erence sont fait de mani`ere approch´ee. Les 2 approximations s’influencent fortement...

(8)

Probl´ematique

Deux probl` emes ` a r´ esoudre

A partir d’un historique{Xk}k∈{1..M}, calibrer le mod`ele i.e.P(X) =

Q

(ij)ϕij(Xi,Xj).

R´ealiser l’inf´erence conditionnelle aux observations.

L’inf´ erence : un probl` eme th´ eoriquement trivial

Densit´efk(Xk) =

R

X\Xk

Q

(ij)ϕij(Xi,Xj)dX.

SupposonsXcontenantnvariables binaires→2n−1termes dans la somme...

Cas particulier : X ∼ N (µ, Σ)

Calibration simple ; estimation deµet Σ.

Inf´erence exacte tractable.

Cas g´ en´ eral

Calibration et inf´erence sont fait de mani`ere approch´ee. Les 2 approximations s’influencent fortement...

(9)

Probl´ematique

Deux probl` emes ` a r´ esoudre

A partir d’un historique{Xk}k∈{1..M}, calibrer le mod`ele i.e.P(X) =

Q

(ij)ϕij(Xi,Xj).

R´ealiser l’inf´erence conditionnelle aux observations.

L’inf´ erence : un probl` eme th´ eoriquement trivial

Densit´efk(Xk) =

R

X\Xk

Q

(ij)ϕij(Xi,Xj)dX.

SupposonsXcontenantnvariables binaires→2n−1termes dans la somme...

Cas particulier : X ∼ N (µ, Σ)

Calibration simple ; estimation deµet Σ.

Inf´erence exacte tractable.

Cas g´ en´ eral

Calibration et inf´erence sont fait de mani`ere approch´ee.

Les 2 approximations s’influencent fortement...

(10)

Notre approximation

MRF de variables r´ eelles

X

1

X

2

X

2

X

3

X

4

X

5

σ

2

σ

1

σ

3

σ

4

σ

5

MRF de variables binaires On observe X

2

= x .

On en d´ eduit

P (σ

2

= 1|X

2

= x) = Λ

2

(x)

σ

2

P (σ

1

) P (σ

3

)

P (σ

4

) P (σ

5

)

σ

1

σ

3

σ

4

σ

5

Pr´ ediction

X ˆ

1

= Γ

1

( P (σ

1

))

(11)

Notre approximation

MRF de variables r´ eelles

X

1

X

2

X

2

X

3

X

4

X

5

σ

2

σ

1

σ

3

σ

4

σ

5

MRF de variables binaires On observe X

2

= x .

On en d´ eduit

P (σ

2

= 1|X

2

= x) = Λ

2

(x)

σ

2

P (σ

1

) P (σ

3

)

P (σ

4

) P (σ

5

)

σ

1

σ

3

σ

4

σ

5

Pr´ ediction

X ˆ

1

= Γ

1

( P (σ

1

))

(12)

Notre approximation

MRF de variables r´ eelles

X

1

X

2

X

2

X

3

X

4

X

5

σ

2

σ

1

σ

3

σ

4

σ

5

MRF de variables binaires

On observe X

2

= x .

On en d´ eduit

P (σ

2

= 1|X

2

= x) = Λ

2

(x)

σ

2

P (σ

1

) P (σ

3

)

P (σ

4

) P (σ

5

)

σ

1

σ

3

σ

4

σ

5

Pr´ ediction

X ˆ

1

= Γ

1

( P (σ

1

))

(13)

Notre approximation

MRF de variables r´ eelles

X

1

X

2

X

2

X

3

X

4

X

5

σ

2

σ

1

σ

3

σ

4

σ

5

MRF de variables binaires

On observe X

2

= x .

On en d´ eduit

P (σ

2

= 1|X

2

= x) = Λ

2

(x)

σ

2

P (σ

1

) P (σ

3

)

P (σ

4

) P (σ

5

)

σ

1

σ

3

σ

4

σ

5

Pr´ ediction

X ˆ

1

= Γ

1

( P (σ

1

))

(14)

Notre approximation

MRF de variables r´ eelles

X

1

X

2

X

2

X

3

X

4

X

5

σ

2

σ

1

σ

3

σ

4

σ

5

MRF de variables binaires

On observe X

2

= x .

On en d´ eduit

P (σ

2

= 1|X

2

= x) = Λ

2

(x)

σ

2

P (σ

1

) P (σ

3

)

P (σ

4

) P (σ

5

)

σ

1

σ

3

σ

4

σ

5

Pr´ ediction

X ˆ

1

= Γ

1

( P (σ

1

))

(15)

Notre approximation

MRF de variables r´ eelles

X

1

X

2

X

2

X

3

X

4

X

5

σ

2

σ

1

σ

3

σ

4

σ

5

MRF de variables binaires

On observe X

2

= x .

On en d´ eduit

P (σ

2

= 1|X

2

= x) = Λ

2

(x)

σ

2

P (σ

1

) P (σ

3

)

P (σ

4

) P (σ

5

)

σ

1

σ

3

σ

4

σ

5

Pr´ ediction

X ˆ

1

= Γ

1

( P (σ

1

))

(16)

Notre approximation

MRF de variables r´ eelles

X

1

X

2

X

2

X

3

X

4

X

5

σ

2

σ

1

σ

3

σ

4

σ

5

MRF de variables binaires

On observe X

2

= x .

On en d´ eduit

P (σ

2

= 1|X

2

= x) = Λ

2

(x)

σ

2

P (σ

1

) P (σ

3

)

P (σ

4

) P (σ

5

)

σ

1

σ

3

σ

4

σ

5

Pr´ ediction

X ˆ

1

= Γ

1

( P (σ

1

))

(17)

R´esumons...

Sch´ ema Global

X

i

= x

i

∈ R −→

Λi

P (σ

i

= 1|X

i

= x

i

)

 y

inf´ erence X

j

= x

j

∈ R

Γj

←− P (σ

j

= 1) ∈ [0, 1]

Oublions le probl` eme d’inf´ erence (pour l’instant).

Comment choisir Λ (et Γ) ?

(18)

R´esumons...

Sch´ ema Global

X

i

= x

i

∈ R −→

Λi

P (σ

i

= 1|X

i

= x

i

)

 y

inf´ erence X

j

= x

j

∈ R

Γj

←− P (σ

j

= 1) ∈ [0, 1]

Oublions le probl` eme d’inf´ erence (pour l’instant).

Comment choisir Λ (et Γ) ?

(19)

R´esumons...

Sch´ ema Global

X

i

= x

i

∈ R −→

Λi

P (σ

i

= 1|X

i

= x

i

)

 y

inf´ erence X

j

= x

j

∈ R

Γj

←− P (σ

j

= 1) ∈ [0, 1]

Oublions le probl` eme d’inf´ erence (pour l’instant).

Comment choisir Λ (et Γ) ?

(20)

Choix de Λ

Choisir Λ est ´ equivalent ` a d´ efinir σ

Λ(x) =P(σ= 1|X =x) P(σ= 1) =

R

xΛ(x)dFX(x), avecFX(x) =P(X ≤x)

Diff´ erents crit` eres

Information mutuelle. Entropie.

Contraintes sur Λ

Fonction croissante (de 0 `a 1), c`adl`ag.

(21)

Choix de Λ

Choisir Λ est ´ equivalent ` a d´ efinir σ

Λ(x) =P(σ= 1|X =x) P(σ= 1) =

R

xΛ(x)dFX(x), avecFX(x) =P(X ≤x)

Diff´ erents crit` eres

Information mutuelle.

Entropie.

Contraintes sur Λ

Fonction croissante (de 0 `a 1), c`adl`ag.

(22)

Choix de Λ

Choisir Λ est ´ equivalent ` a d´ efinir σ

Λ(x) =P(σ= 1|X =x) P(σ= 1) =

R

xΛ(x)dFX(x), avecFX(x) =P(X ≤x)

Diff´ erents crit` eres

Information mutuelle.

Entropie.

Contraintes sur Λ

Fonction croissante (de 0 `a 1), c`adl`ag.

(23)

Une interpretation stochastique de Λ

Λ est la distribution d’une variable al´ eatoire.

C`adl`ag, croissante de 0 `a 1.

⇒ ∃Y v.a.r|Λ(x) =P(Y ≤x) =FY(x).

σ

def

= 1 1

{Y≤X}

.

Example

Λ =FX⇒(X|σ= 1)∼max(X1,X2), (X|σ= 0)∼min(X1,X2).

(24)

Une interpretation stochastique de Λ

Λ est la distribution d’une variable al´ eatoire.

C`adl`ag, croissante de 0 `a 1.

⇒ ∃Y v.a.r|Λ(x) =P(Y ≤x) =FY(x).

σ

def

= 1 1

{Y≤X}

.

Example

Λ =FX⇒(X|σ= 1)∼max(X1,X2), (X|σ= 0)∼min(X1,X2).

(25)

Une interpretation stochastique de Λ

Λ est la distribution d’une variable al´ eatoire.

C`adl`ag, croissante de 0 `a 1.

⇒ ∃Y v.a.r|Λ(x) =P(Y ≤x) =FY(x).

σ

def

= 1 1

{Y≤X}

.

Example

Λ =FX⇒(X|σ= 1)∼max(X1,X2), (X|σ= 0)∼min(X1,X2).

(26)

Fonction de d´ecodage Γ

Si Λ est inversible

On peut chosir Γ = Λ−1.

Λ−1(b) correspond `a la seule valeur deX telle que (σ|X =x) soit distribu´e selonb.

Plus g´ en´ eralement, Λ n’est “que” c` adl` ag.

En d´econditionnant parσon obtient une distribution ˆF : Fˆ(x) =bF1(x) + (1−b)F0(x). avecFs(x) =P(X ≤x|σ=s).

On calcule la statistique souhait´ee de ˆF (moyenne, m´ediane, ...). On peut faire cela que Λ soit inversible ou non.

(27)

Fonction de d´ecodage Γ

Si Λ est inversible

On peut chosir Γ = Λ−1.

Λ−1(b) correspond `a la seule valeur deX telle que (σ|X =x) soit distribu´e selonb.

Plus g´ en´ eralement, Λ n’est “que” c` adl` ag.

En d´econditionnant parσon obtient une distribution ˆF : Fˆ(x) =bF1(x) + (1−b)F0(x).

avecFs(x) =P(X ≤x|σ=s).

On calcule la statistique souhait´ee de ˆF (moyenne, m´ediane, ...).

On peut faire cela que Λ soit inversible ou non.

(28)

Choix de Λ

Information Mutuelle, Λ

MI

argmax

Λ

I (σ, X ) = 1 1

{x≥q0.5

X }

.

D´ emonstration.

I(X, σ) =H(P(σ= 1))−

Z

x

H(Λ(x))dFX(x),

avecH(x) =−xlogx−(1−x) log(1−x). Terme de droite nul pour Λ(x)∈ {0,1}, terme de gauche maximal pourP(σ= 1) = 0.5.

σ est une fonction d´ eterministe de X & Λ non inversible.

(29)

Entropie (relative ` a la mesure uniforme)

Entropie de U = Λ(X )

Entropie, Λ

S

argmax

Λ

S(Λ) = F

X

(x ) (fonction de repartition de X ).

D´ emonstration.

L’entropie est maximale pour une variable uniforme sur [0,1] et la fonction de repartition transformeX en une v.a. uniforme.

Sans observations, quelle pr´ ediction ?

P(σ= 1) = 12.

FX−1(P(σ= 1)) =qX0.5⇒optimal seulement pour une erreurL1.

σ est une variable al´ eatoire ` a X fix´ e.

(30)

Entropie (relative ` a la mesure uniforme)

Entropie de U = Λ(X )

Entropie, Λ

S

argmax

Λ

S(Λ) = F

X

(x ) (fonction de repartition de X ).

D´ emonstration.

L’entropie est maximale pour une variable uniforme sur [0,1] et la fonction de repartition transformeX en une v.a. uniforme.

Sans observations, quelle pr´ ediction ?

P(σ= 1) = 12.

FX−1(P(σ= 1)) =qX0.5⇒optimal seulement pour une erreurL1.

σ est une variable al´ eatoire ` a X fix´ e.

(31)

Correlations des variables binaires

Loi des paires de variables binaires

Loi marginales fix´ees par le choix de Λ

P(σi = 1) =

Z

x

Λi(x)dFx(x).

Reste un param`etre de corr´elationP(σiσj= 1).

Deux m´ ethodes

M´ethode des moments :E[Λ1(X12(X2)] =hΛ1(X12(X2)i:

cov(σ1, σ2) =cov(Λ

c

1(X1),Λ2(X2))

Y

i∈{1,2}

var(σi) var(Λi(Xi)).

Maximum de vraisemblance (via l’algorithme EM).

(32)

Correlations des variables binaires

Loi des paires de variables binaires

Loi marginales fix´ees par le choix de Λ

P(σi = 1) =

Z

x

Λi(x)dFx(x).

Reste un param`etre de corr´elationP(σiσj= 1).

Deux m´ ethodes

M´ethode des moments :E[Λ1(X12(X2)] =hΛ1(X12(X2)i:

cov(σ1, σ2) =cov(Λ

c

1(X1),Λ2(X2))

Y

i∈{1,2}

var(σi) var(Λi(Xi)).

Maximum de vraisemblance (via l’algorithme EM).

(33)

Inf´erence

Objectif : calcul approch´ e des lois marginales

A partir d’une forme produit.

P(σ) =

Y

(ij)

ϕiji, σj)

Y

i

θii)

Belief Propagation (BP)

M´ethode it´erative par passage de messages.

Marginales exactes si le graphe ne comporte pas de cycle.

Minimisation d’une pseudo-distance aux vraies marginales en g´en´eral. S’il y a convergence...

(34)

Inf´erence

Objectif : calcul approch´ e des lois marginales

A partir d’une forme produit.

P(σ) =

Y

(ij)

ϕiji, σj)

Y

i

θii)

Belief Propagation (BP)

M´ethode it´erative par passage de messages.

Marginales exactes si le graphe ne comporte pas de cycle.

Minimisation d’une pseudo-distance aux vraies marginales en g´en´eral.

S’il y a convergence...

(35)

Belief Propagation

Formule de mise ` a jour des messages

Message envoy´e par un noeud i vers un noeudj mi→jj)∝

X

σi∈{0,1}

ϕiji, σj) θii)

Y

k∈∂j\i

mk→ii).

σ

2

σ

1

σ

3

σ

4

σ

5

m1→4

m5→4

m4→2(1)

θ4(1)m5→4(1)m1→4(1) θ4(1)m5→4(0)m1→4(0)

m2→5(1)

m4→2 m2→5 m5→3(1)

m4→5

bii)∝θii)

Y

j∈∂i

mj→ii) biji, σj)∝ϕiji, σj) bii)bjj) mi→ji)mj→ij)

(36)

Belief Propagation

Formule de mise ` a jour des messages

Message envoy´e par un noeud i vers un noeudj mi→jj)∝

X

σi∈{0,1}

ϕiji, σj) θii)

Y

k∈∂j\i

mk→ii).

σ

2

σ

1

σ

3

σ

4

σ

5

m1→4

m5→4

m4→2(1)

θ4(1)m5→4(1)m1→4(1) θ4(1)m5→4(0)m1→4(0)

m2→5(1)

m4→2 m2→5 m5→3(1)

m4→5

bii)∝θii)

Y

j∈∂i

mj→ii) biji, σj)∝ϕiji, σj) bii)bjj) mi→ji)mj→ij)

(37)

Belief Propagation

Formule de mise ` a jour des messages

Message envoy´e par un noeud i vers un noeudj mi→jj)∝

X

σi∈{0,1}

ϕiji, σj) θii)

Y

k∈∂j\i

mk→ii).

σ

2

σ

1

σ

3

σ

4

σ

5

m1→4

m5→4

m4→2(1)

θ4(1)m5→4(1)m1→4(1) θ4(1)m5→4(0)m1→4(0)

m2→5(1)

m4→2 m2→5 m5→3(1)

m4→5

bii)∝θii)

Y

j∈∂i

mj→ii) biji, σj)∝ϕiji, σj) bii)bjj) mi→ji)mj→ij)

(38)

Belief Propagation

Formule de mise ` a jour des messages

Message envoy´e par un noeud i vers un noeudj mi→jj)∝

X

σi∈{0,1}

ϕiji, σj) θii)

Y

k∈∂j\i

mk→ii).

σ

2

σ

1

σ

3

σ

4

σ

5

m1→4

m5→4

m4→2(1)

θ4(1)m5→4(1)m1→4(1) θ4(1)m5→4(0)m1→4(0)

m2→5(1)

m4→2 m2→5 m5→3(1)

m4→5

bii)∝θii)

Y

j∈∂i

mj→ii) biji, σj)∝ϕiji, σj) bii)bjj) mi→ji)mj→ij)

(39)

Belief Propagation

Formule de mise ` a jour des messages

Message envoy´e par un noeud i vers un noeudj mi→jj)∝

X

σi∈{0,1}

ϕiji, σj) θii)

Y

k∈∂j\i

mk→ii).

σ

2

σ

1

σ

3

σ

4

σ

5

m1→4

m5→4

m4→2(1)

θ4(1)m5→4(1)m1→4(1) θ4(1)m5→4(0)m1→4(0)

m2→5(1)

m4→2 m2→5 m5→3(1)

m4→5

bii)∝θii)

Y

j∈∂i

mj→ii) biji, σj)∝ϕiji, σj) bii)bjj) mi→ji)mj→ij)

(40)

Belief Propagation

Formule de mise ` a jour des messages

Message envoy´e par un noeud i vers un noeudj mi→jj)∝

X

σi∈{0,1}

ϕiji, σj) θii)

Y

k∈∂j\i

mk→ii).

σ

2

σ

1

σ

3

σ

4

σ

5

m1→4

m5→4

m4→2(1)

θ4(1)m5→4(1)m1→4(1) θ4(1)m5→4(0)m1→4(0)

m2→5(1) m4→2

m5→3(1) m2→5

m4→5

bii)∝θii)

Y

j∈∂i

mj→ii) biji, σj)∝ϕiji, σj) bii)bjj) mi→ji)mj→ij)

(41)

Belief Propagation

Formule de mise ` a jour des messages

Message envoy´e par un noeud i vers un noeudj mi→jj)∝

X

σi∈{0,1}

ϕiji, σj) θii)

Y

k∈∂j\i

mk→ii).

σ

2

σ

1

σ

3

σ

4

σ

5

m1→4

m5→4

m4→2(1)

θ4(1)m5→4(1)m1→4(1) θ4(1)m5→4(0)m1→4(0)

m2→5(1) m4→2

m5→3(1)

m2→5

m4→5

bii)∝θii)

Y

j∈∂i

mj→ii) biji, σj)∝ϕiji, σj) bii)bjj) mi→ji)mj→ij)

(42)

Belief Propagation

Formule de mise ` a jour des messages

Message envoy´e par un noeud i vers un noeudj mi→jj)∝

X

σi∈{0,1}

ϕiji, σj) θii)

Y

k∈∂j\i

mk→ii).

σ

2

σ

1

σ

3

σ

4

σ

5

m1→4

m5→4

m4→2(1)

θ4(1)m5→4(1)m1→4(1) θ4(1)m5→4(0)m1→4(0)

m2→5(1) m4→2

m5→3(1) m2→5

m4→5

bii)∝θii)

Y

j∈∂i

mj→ii) biji, σj)∝ϕiji, σj) bii)bjj) mi→ji)mj→ij)

(43)

Belief Propagation

Formule de mise ` a jour des messages

Message envoy´e par un noeud i vers un noeudj mi→jj)∝

X

σi∈{0,1}

ϕiji, σj) θii)

Y

k∈∂j\i

mk→ii).

σ

2

σ

1

σ

3

σ

4

σ

5

m1→4

m5→4

m4→2(1)

θ4(1)m5→4(1)m1→4(1) θ4(1)m5→4(0)m1→4(0)

m2→5(1)

m4→2 m2→5 m5→3(1)

m4→5

bii)∝θii)

Y

j∈∂i

mj→ii) biji, σj)∝ϕiji, σj) bii)bjj) mi→ji)mj→ij)

(44)

Belief Propagation

Comment introduire nos observations ?

Une observation deXi se traduit en probabilit´e surσi. Fixer la valeur deσi est naturel avec BP pas sa probabilit´e.

Comment fixer une probabilit´e ?

Repartons du probl` eme de minimisation

{Points fixes stables de BP} ⊂ {Minima locaux d’une approximation de KL(b||P)}

min

b

X

σ

b(σ) logb(σ) P(σ) sous contraintes

b(σ) =

Y

(ij)

biji, σj) bii)bjj)

Y

i

bii),

X

σj

biji, σj) =bii),

X

σj

bjj) = 1.

L’´equation de mise `a jour est obtenue `a partir des points stationnaires du Lagrangien de ce probl`eme.

(45)

Belief Propagation

Comment introduire nos observations ?

Une observation deXi se traduit en probabilit´e surσi. Fixer la valeur deσi est naturel avec BP pas sa probabilit´e.

Comment fixer une probabilit´e ?

Repartons du probl` eme de minimisation

{Points fixes stables de BP} ⊂ {Minima locaux d’une approximation de KL(b||P)}

min

b

X

σ

b(σ) logb(σ) P(σ) sous contraintes

b(σ) =

Y

(ij)

biji, σj) bii)bjj)

Y

i

bii),

X

σj

biji, σj) =bii),

X

σj

bjj) = 1.

L’´equation de mise `a jour est obtenue `a partir des points stationnaires du Lagrangien de ce probl`eme.

(46)

Mirror Belief Propagation

Nouvelles contraintes

Pour chaque observationXi=xi on ajoute une contrainte du type

bii= 1) = Λ(xi)def=bi(1), bii= 0) = 1−Λ(xi)def=bi(0)

Version modifi´ee de Belief Propagation : mi→jj) inchang´e siXi n’est pas observ´e sinon :

mi→jj)∝

X

σi

ϕiji, σj) bii) mj→ii) Le noeudi ne laisse plus traverser d’information.

(47)

Mirror Belief Propagation

Nouvelles contraintes

Pour chaque observationXi=xi on ajoute une contrainte du type

bii= 1) = Λ(xi)def=bi(1), bii= 0) = 1−Λ(xi)def=bi(0) Version modifi´ee de Belief Propagation :

mi→jj) inchang´e siXi n’est pas observ´e sinon :

mi→jj)∝

X

σi

ϕiji, σj) bii) mj→ii) Le noeudi ne laisse plus traverser d’information.

(48)

Exp´erimentations num´eriques

D´ etail de l’exp´ erience

On observe les variables dans un ordre al´ eatoire. On pr´ edit les variables non observ´ ees.

On calcule l’erreur L

1

moyenne de pr´ ediction.

Donn´ ees synth´ etiques

Variables β(a, b) distribu´ ees sur un arbre.

(49)

Exp´erimentations num´eriques

D´ etail de l’exp´ erience

On observe les variables dans un ordre al´ eatoire.

On pr´ edit les variables non observ´ ees.

On calcule l’erreur L

1

moyenne de pr´ ediction.

Donn´ ees synth´ etiques

Variables β(a, b) distribu´ ees sur un arbre.

(50)

Exp´erimentations num´eriques

D´ etail de l’exp´ erience

On observe les variables dans un ordre al´ eatoire.

On pr´ edit les variables non observ´ ees.

On calcule l’erreur L

1

moyenne de pr´ ediction.

Donn´ ees synth´ etiques

Variables β(a, b) distribu´ ees sur un arbre.

(51)

Exp´erimentations num´eriques

D´ etail de l’exp´ erience

On observe les variables dans un ordre al´ eatoire.

On pr´ edit les variables non observ´ ees.

On calcule l’erreur L

1

moyenne de pr´ ediction.

Donn´ ees synth´ etiques

Variables β(a, b) distribu´ ees sur un arbre.

(52)

Exp´erimentations num´eriques

D´ etail de l’exp´ erience

On observe les variables dans un ordre al´ eatoire.

On pr´ edit les variables non observ´ ees.

On calcule l’erreur L

1

moyenne de pr´ ediction.

Donn´ ees synth´ etiques

Variables β(a, b) distribu´ ees sur un arbre.

(53)

Exp´erimentations num´eriques

23 24 25 26 27 28 29 30

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8

β(0.12, 0.28)

Median F , F

−1

F , Γ

P

Λ

MI

KNN

Ground Truth

(54)

Merci de votre attention !

(55)

0 0.2 0.4 0.6 0.8 1

0 0.2 0.4 0.6 0.8 1

X-quantile prediction

Belief b(1)

Quantile of X prediction for p=1/2 and different Decoding Methods StepFunction

Cumulative Inverse of Lambda (sqrt(2)-1)*x + 1-sqrt(2)/2

(56)

Exp´erimentations num´eriques

13 13.5 14 14.5 15 15.5 16 16.5 17 17.5

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8

β(2, 3)

Median F , F

−1

F , Γ

P

Λ

MI

KNN

Ground Truth

Références

Documents relatifs

On dit qu’une machine (ou langage) est Turing complet s’il permet de calculer toutes les fonctions calculables - Java, C, Caml sont Turing complets.. C’est bien la calculabilit´

Or l’existence d’´ equilibres et leurs propri´ et´ es (par exemple le fait que les autres solutions tendent vers lui) sont des ´ el´ ements que l’on peut souvent d´

Nous allons ` a pr´esent introduire un proc´ed´e graphique plus efficace pour ´evaluer l’ad´equation d’un mod`ele, appel´e qq-plot (quantile-quantile plot). Dans la

1) On compare tout d’abord les temps de d´ etection observ´ es dans la situation NA et ceux observ´ es dans la condition AN. A l’aide d’un test bilat´ eral de comparaison

Introduction Th´ eorie de l’apprentissage Langages k -r´ eversibles Algorithmes d’apprentissage M´ ethode des k suffixes.. IA: Inf´ erence grammaticale - EISTI -

La interpretació sobre els usos lingüístics en els espais comunicatius a Catalunya i el consum de mitjans de comunicació en català passa per resseguir els usos socials de la

3. Tout intervalle [a, b] ne rencontrant pas A ne contient qu’un nombre fini des u n. grande) valeur d’adh´ erence. de la suite (u

La plupart des syst`emes de types pour l’analyse de flots d’information qui ont ´et´e propos´es depuis la fin des ann´ees 1990 sont construits, quel que soit le langage