Inf´erence sur variables r´eelles par un mod`ele d’Ising
Victorin MARTIN
Plan de pr´esentation
1
Introduction/Probl´ ematique.
2
Construction du mod` ele d’Ising.
3
Algorithme d’inf´ erence.
4
Exp´ erimentations num´ eriques.
Probl´ematique
Champ Markovien de v.a.r
Ind´ependance conditionnelle Densit´e jointe :P(X) =
Q
(ij)ϕij(Xi,Xj) (Th´eor`eme de Hammersley-Clifford)
X
1X
2X
3X
4X
5Observations
Probl´ematique
Champ Markovien de v.a.r
Ind´ependance conditionnelle Densit´e jointe :P(X) =
Q
(ij)ϕij(Xi,Xj) (Th´eor`eme de Hammersley-Clifford)
X
1X
2X
3X
4X
5X
4X
5Observations
Probl´ematique
Champ Markovien de v.a.r
Ind´ependance conditionnelle Densit´e jointe :P(X) =
Q
(ij)ϕij(Xi,Xj) (Th´eor`eme de Hammersley-Clifford)
X
1X
2X
3X
4X
5X
4X
5Observations
Pr´ edictions
Probl´ematique
Deux probl` emes ` a r´ esoudre
A partir d’un historique{Xk}k∈{1..M}, calibrer le mod`ele i.e.P(X) =
Q
(ij)ϕij(Xi,Xj).
R´ealiser l’inf´erence conditionnelle aux observations.
L’inf´ erence : un probl` eme th´ eoriquement trivial
Densit´efk(Xk) =
R
X\Xk
Q
(ij)ϕij(Xi,Xj)dX.
SupposonsXcontenantnvariables binaires→2n−1termes dans la somme...
Cas particulier : X ∼ N (µ, Σ)
Calibration simple ; estimation deµet Σ. Inf´erence exacte tractable.
Cas g´ en´ eral
Calibration et inf´erence sont fait de mani`ere approch´ee. Les 2 approximations s’influencent fortement...
Probl´ematique
Deux probl` emes ` a r´ esoudre
A partir d’un historique{Xk}k∈{1..M}, calibrer le mod`ele i.e.P(X) =
Q
(ij)ϕij(Xi,Xj).
R´ealiser l’inf´erence conditionnelle aux observations.
L’inf´ erence : un probl` eme th´ eoriquement trivial
Densit´efk(Xk) =
R
X\Xk
Q
(ij)ϕij(Xi,Xj)dX.
SupposonsXcontenantnvariables binaires→2n−1termes dans la somme...
Cas particulier : X ∼ N (µ, Σ)
Calibration simple ; estimation deµet Σ. Inf´erence exacte tractable.
Cas g´ en´ eral
Calibration et inf´erence sont fait de mani`ere approch´ee. Les 2 approximations s’influencent fortement...
Probl´ematique
Deux probl` emes ` a r´ esoudre
A partir d’un historique{Xk}k∈{1..M}, calibrer le mod`ele i.e.P(X) =
Q
(ij)ϕij(Xi,Xj).
R´ealiser l’inf´erence conditionnelle aux observations.
L’inf´ erence : un probl` eme th´ eoriquement trivial
Densit´efk(Xk) =
R
X\Xk
Q
(ij)ϕij(Xi,Xj)dX.
SupposonsXcontenantnvariables binaires→2n−1termes dans la somme...
Cas particulier : X ∼ N (µ, Σ)
Calibration simple ; estimation deµet Σ.
Inf´erence exacte tractable.
Cas g´ en´ eral
Calibration et inf´erence sont fait de mani`ere approch´ee. Les 2 approximations s’influencent fortement...
Probl´ematique
Deux probl` emes ` a r´ esoudre
A partir d’un historique{Xk}k∈{1..M}, calibrer le mod`ele i.e.P(X) =
Q
(ij)ϕij(Xi,Xj).
R´ealiser l’inf´erence conditionnelle aux observations.
L’inf´ erence : un probl` eme th´ eoriquement trivial
Densit´efk(Xk) =
R
X\Xk
Q
(ij)ϕij(Xi,Xj)dX.
SupposonsXcontenantnvariables binaires→2n−1termes dans la somme...
Cas particulier : X ∼ N (µ, Σ)
Calibration simple ; estimation deµet Σ.
Inf´erence exacte tractable.
Cas g´ en´ eral
Calibration et inf´erence sont fait de mani`ere approch´ee.
Les 2 approximations s’influencent fortement...
Notre approximation
MRF de variables r´ eelles
X
1X
2X
2X
3X
4X
5σ
2σ
1σ
3σ
4σ
5MRF de variables binaires On observe X
2= x .
On en d´ eduit
P (σ
2= 1|X
2= x) = Λ
2(x)
σ
2P (σ
1) P (σ
3)
P (σ
4) P (σ
5)
σ
1σ
3σ
4σ
5Pr´ ediction
X ˆ
1= Γ
1( P (σ
1))
Notre approximation
MRF de variables r´ eelles
X
1X
2X
2X
3X
4X
5σ
2σ
1σ
3σ
4σ
5MRF de variables binaires On observe X
2= x .
On en d´ eduit
P (σ
2= 1|X
2= x) = Λ
2(x)
σ
2P (σ
1) P (σ
3)
P (σ
4) P (σ
5)
σ
1σ
3σ
4σ
5Pr´ ediction
X ˆ
1= Γ
1( P (σ
1))
Notre approximation
MRF de variables r´ eelles
X
1X
2X
2X
3X
4X
5σ
2σ
1σ
3σ
4σ
5MRF de variables binaires
On observe X
2= x .
On en d´ eduit
P (σ
2= 1|X
2= x) = Λ
2(x)
σ
2P (σ
1) P (σ
3)
P (σ
4) P (σ
5)
σ
1σ
3σ
4σ
5Pr´ ediction
X ˆ
1= Γ
1( P (σ
1))
Notre approximation
MRF de variables r´ eelles
X
1X
2X
2X
3X
4X
5σ
2σ
1σ
3σ
4σ
5MRF de variables binaires
On observe X
2= x .
On en d´ eduit
P (σ
2= 1|X
2= x) = Λ
2(x)
σ
2P (σ
1) P (σ
3)
P (σ
4) P (σ
5)
σ
1σ
3σ
4σ
5Pr´ ediction
X ˆ
1= Γ
1( P (σ
1))
Notre approximation
MRF de variables r´ eelles
X
1X
2X
2X
3X
4X
5σ
2σ
1σ
3σ
4σ
5MRF de variables binaires
On observe X
2= x .
On en d´ eduit
P (σ
2= 1|X
2= x) = Λ
2(x)
σ
2P (σ
1) P (σ
3)
P (σ
4) P (σ
5)
σ
1σ
3σ
4σ
5Pr´ ediction
X ˆ
1= Γ
1( P (σ
1))
Notre approximation
MRF de variables r´ eelles
X
1X
2X
2X
3X
4X
5σ
2σ
1σ
3σ
4σ
5MRF de variables binaires
On observe X
2= x .
On en d´ eduit
P (σ
2= 1|X
2= x) = Λ
2(x)
σ
2P (σ
1) P (σ
3)
P (σ
4) P (σ
5)
σ
1σ
3σ
4σ
5Pr´ ediction
X ˆ
1= Γ
1( P (σ
1))
Notre approximation
MRF de variables r´ eelles
X
1X
2X
2X
3X
4X
5σ
2σ
1σ
3σ
4σ
5MRF de variables binaires
On observe X
2= x .
On en d´ eduit
P (σ
2= 1|X
2= x) = Λ
2(x)
σ
2P (σ
1) P (σ
3)
P (σ
4) P (σ
5)
σ
1σ
3σ
4σ
5Pr´ ediction
X ˆ
1= Γ
1( P (σ
1))
R´esumons...
Sch´ ema Global
X
i= x
i∈ R −→
ΛiP (σ
i= 1|X
i= x
i)
y
inf´ erence X
j= x
j∈ R
Γj
←− P (σ
j= 1) ∈ [0, 1]
Oublions le probl` eme d’inf´ erence (pour l’instant).
Comment choisir Λ (et Γ) ?
R´esumons...
Sch´ ema Global
X
i= x
i∈ R −→
ΛiP (σ
i= 1|X
i= x
i)
y
inf´ erence X
j= x
j∈ R
Γj
←− P (σ
j= 1) ∈ [0, 1]
Oublions le probl` eme d’inf´ erence (pour l’instant).
Comment choisir Λ (et Γ) ?
R´esumons...
Sch´ ema Global
X
i= x
i∈ R −→
ΛiP (σ
i= 1|X
i= x
i)
y
inf´ erence X
j= x
j∈ R
Γj
←− P (σ
j= 1) ∈ [0, 1]
Oublions le probl` eme d’inf´ erence (pour l’instant).
Comment choisir Λ (et Γ) ?
Choix de Λ
Choisir Λ est ´ equivalent ` a d´ efinir σ
Λ(x) =P(σ= 1|X =x) P(σ= 1) =
R
xΛ(x)dFX(x), avecFX(x) =P(X ≤x)
Diff´ erents crit` eres
Information mutuelle. Entropie.
Contraintes sur Λ
Fonction croissante (de 0 `a 1), c`adl`ag.
Choix de Λ
Choisir Λ est ´ equivalent ` a d´ efinir σ
Λ(x) =P(σ= 1|X =x) P(σ= 1) =
R
xΛ(x)dFX(x), avecFX(x) =P(X ≤x)
Diff´ erents crit` eres
Information mutuelle.
Entropie.
Contraintes sur Λ
Fonction croissante (de 0 `a 1), c`adl`ag.
Choix de Λ
Choisir Λ est ´ equivalent ` a d´ efinir σ
Λ(x) =P(σ= 1|X =x) P(σ= 1) =
R
xΛ(x)dFX(x), avecFX(x) =P(X ≤x)
Diff´ erents crit` eres
Information mutuelle.
Entropie.
Contraintes sur Λ
Fonction croissante (de 0 `a 1), c`adl`ag.
Une interpretation stochastique de Λ
Λ est la distribution d’une variable al´ eatoire.
C`adl`ag, croissante de 0 `a 1.
⇒ ∃Y v.a.r|Λ(x) =P(Y ≤x) =FY(x).
σ
def= 1 1
{Y≤X}.
Example
Λ =FX⇒(X|σ= 1)∼max(X1,X2), (X|σ= 0)∼min(X1,X2).
Une interpretation stochastique de Λ
Λ est la distribution d’une variable al´ eatoire.
C`adl`ag, croissante de 0 `a 1.
⇒ ∃Y v.a.r|Λ(x) =P(Y ≤x) =FY(x).
σ
def= 1 1
{Y≤X}.
Example
Λ =FX⇒(X|σ= 1)∼max(X1,X2), (X|σ= 0)∼min(X1,X2).
Une interpretation stochastique de Λ
Λ est la distribution d’une variable al´ eatoire.
C`adl`ag, croissante de 0 `a 1.
⇒ ∃Y v.a.r|Λ(x) =P(Y ≤x) =FY(x).
σ
def= 1 1
{Y≤X}.
Example
Λ =FX⇒(X|σ= 1)∼max(X1,X2), (X|σ= 0)∼min(X1,X2).
Fonction de d´ecodage Γ
Si Λ est inversible
On peut chosir Γ = Λ−1.
Λ−1(b) correspond `a la seule valeur deX telle que (σ|X =x) soit distribu´e selonb.
Plus g´ en´ eralement, Λ n’est “que” c` adl` ag.
En d´econditionnant parσon obtient une distribution ˆF : Fˆ(x) =bF1(x) + (1−b)F0(x). avecFs(x) =P(X ≤x|σ=s).
On calcule la statistique souhait´ee de ˆF (moyenne, m´ediane, ...). On peut faire cela que Λ soit inversible ou non.
Fonction de d´ecodage Γ
Si Λ est inversible
On peut chosir Γ = Λ−1.
Λ−1(b) correspond `a la seule valeur deX telle que (σ|X =x) soit distribu´e selonb.
Plus g´ en´ eralement, Λ n’est “que” c` adl` ag.
En d´econditionnant parσon obtient une distribution ˆF : Fˆ(x) =bF1(x) + (1−b)F0(x).
avecFs(x) =P(X ≤x|σ=s).
On calcule la statistique souhait´ee de ˆF (moyenne, m´ediane, ...).
On peut faire cela que Λ soit inversible ou non.
Choix de Λ
Information Mutuelle, Λ
MIargmax
ΛI (σ, X ) = 1 1
{x≥q0.5X }
.
D´ emonstration.
I(X, σ) =H(P(σ= 1))−
Z
x
H(Λ(x))dFX(x),
avecH(x) =−xlogx−(1−x) log(1−x). Terme de droite nul pour Λ(x)∈ {0,1}, terme de gauche maximal pourP(σ= 1) = 0.5.
σ est une fonction d´ eterministe de X & Λ non inversible.
Entropie (relative ` a la mesure uniforme)
Entropie de U = Λ(X )
Entropie, Λ
Sargmax
ΛS(Λ) = F
X(x ) (fonction de repartition de X ).
D´ emonstration.
L’entropie est maximale pour une variable uniforme sur [0,1] et la fonction de repartition transformeX en une v.a. uniforme.
Sans observations, quelle pr´ ediction ?
P(σ= 1) = 12.
FX−1(P(σ= 1)) =qX0.5⇒optimal seulement pour une erreurL1.
σ est une variable al´ eatoire ` a X fix´ e.
Entropie (relative ` a la mesure uniforme)
Entropie de U = Λ(X )
Entropie, Λ
Sargmax
ΛS(Λ) = F
X(x ) (fonction de repartition de X ).
D´ emonstration.
L’entropie est maximale pour une variable uniforme sur [0,1] et la fonction de repartition transformeX en une v.a. uniforme.
Sans observations, quelle pr´ ediction ?
P(σ= 1) = 12.
FX−1(P(σ= 1)) =qX0.5⇒optimal seulement pour une erreurL1.
σ est une variable al´ eatoire ` a X fix´ e.
Correlations des variables binaires
Loi des paires de variables binaires
Loi marginales fix´ees par le choix de Λ
P(σi = 1) =
Z
x
Λi(x)dFx(x).
Reste un param`etre de corr´elationP(σiσj= 1).
Deux m´ ethodes
M´ethode des moments :E[Λ1(X1)Λ2(X2)] =hΛ1(X1)Λ2(X2)i:
cov(σ1, σ2) =cov(Λ
c
1(X1),Λ2(X2))Y
i∈{1,2}
var(σi) var(Λi(Xi)).
Maximum de vraisemblance (via l’algorithme EM).
Correlations des variables binaires
Loi des paires de variables binaires
Loi marginales fix´ees par le choix de Λ
P(σi = 1) =
Z
x
Λi(x)dFx(x).
Reste un param`etre de corr´elationP(σiσj= 1).
Deux m´ ethodes
M´ethode des moments :E[Λ1(X1)Λ2(X2)] =hΛ1(X1)Λ2(X2)i:
cov(σ1, σ2) =cov(Λ
c
1(X1),Λ2(X2))Y
i∈{1,2}
var(σi) var(Λi(Xi)).
Maximum de vraisemblance (via l’algorithme EM).
Inf´erence
Objectif : calcul approch´ e des lois marginales
A partir d’une forme produit.
P(σ) =
Y
(ij)
ϕij(σi, σj)
Y
i
θi(σi)
Belief Propagation (BP)
M´ethode it´erative par passage de messages.
Marginales exactes si le graphe ne comporte pas de cycle.
Minimisation d’une pseudo-distance aux vraies marginales en g´en´eral. S’il y a convergence...
Inf´erence
Objectif : calcul approch´ e des lois marginales
A partir d’une forme produit.
P(σ) =
Y
(ij)
ϕij(σi, σj)
Y
i
θi(σi)
Belief Propagation (BP)
M´ethode it´erative par passage de messages.
Marginales exactes si le graphe ne comporte pas de cycle.
Minimisation d’une pseudo-distance aux vraies marginales en g´en´eral.
S’il y a convergence...
Belief Propagation
Formule de mise ` a jour des messages
Message envoy´e par un noeud i vers un noeudj mi→j(σj)∝
X
σi∈{0,1}
ϕij(σi, σj) θi(σi)
Y
k∈∂j\i
mk→i(σi).
σ
2σ
1σ
3σ
4σ
5m1→4
m5→4
m4→2(1)
θ4(1)m5→4(1)m1→4(1) θ4(1)m5→4(0)m1→4(0)
m2→5(1)
m4→2 m2→5 m5→3(1)
m4→5
bi(σi)∝θi(σi)
Y
j∈∂i
mj→i(σi) bij(σi, σj)∝ϕij(σi, σj) bi(σi)bj(σj) mi→j(σi)mj→i(σj)
Belief Propagation
Formule de mise ` a jour des messages
Message envoy´e par un noeud i vers un noeudj mi→j(σj)∝
X
σi∈{0,1}
ϕij(σi, σj) θi(σi)
Y
k∈∂j\i
mk→i(σi).
σ
2σ
1σ
3σ
4σ
5m1→4
m5→4
m4→2(1)
θ4(1)m5→4(1)m1→4(1) θ4(1)m5→4(0)m1→4(0)
m2→5(1)
m4→2 m2→5 m5→3(1)
m4→5
bi(σi)∝θi(σi)
Y
j∈∂i
mj→i(σi) bij(σi, σj)∝ϕij(σi, σj) bi(σi)bj(σj) mi→j(σi)mj→i(σj)
Belief Propagation
Formule de mise ` a jour des messages
Message envoy´e par un noeud i vers un noeudj mi→j(σj)∝
X
σi∈{0,1}
ϕij(σi, σj) θi(σi)
Y
k∈∂j\i
mk→i(σi).
σ
2σ
1σ
3σ
4σ
5m1→4
m5→4
m4→2(1)
θ4(1)m5→4(1)m1→4(1) θ4(1)m5→4(0)m1→4(0)
m2→5(1)
m4→2 m2→5 m5→3(1)
m4→5
bi(σi)∝θi(σi)
Y
j∈∂i
mj→i(σi) bij(σi, σj)∝ϕij(σi, σj) bi(σi)bj(σj) mi→j(σi)mj→i(σj)
Belief Propagation
Formule de mise ` a jour des messages
Message envoy´e par un noeud i vers un noeudj mi→j(σj)∝
X
σi∈{0,1}
ϕij(σi, σj) θi(σi)
Y
k∈∂j\i
mk→i(σi).
σ
2σ
1σ
3σ
4σ
5m1→4
m5→4
m4→2(1)
θ4(1)m5→4(1)m1→4(1) θ4(1)m5→4(0)m1→4(0)
m2→5(1)
m4→2 m2→5 m5→3(1)
m4→5
bi(σi)∝θi(σi)
Y
j∈∂i
mj→i(σi) bij(σi, σj)∝ϕij(σi, σj) bi(σi)bj(σj) mi→j(σi)mj→i(σj)
Belief Propagation
Formule de mise ` a jour des messages
Message envoy´e par un noeud i vers un noeudj mi→j(σj)∝
X
σi∈{0,1}
ϕij(σi, σj) θi(σi)
Y
k∈∂j\i
mk→i(σi).
σ
2σ
1σ
3σ
4σ
5m1→4
m5→4
m4→2(1)
θ4(1)m5→4(1)m1→4(1) θ4(1)m5→4(0)m1→4(0)
m2→5(1)
m4→2 m2→5 m5→3(1)
m4→5
bi(σi)∝θi(σi)
Y
j∈∂i
mj→i(σi) bij(σi, σj)∝ϕij(σi, σj) bi(σi)bj(σj) mi→j(σi)mj→i(σj)
Belief Propagation
Formule de mise ` a jour des messages
Message envoy´e par un noeud i vers un noeudj mi→j(σj)∝
X
σi∈{0,1}
ϕij(σi, σj) θi(σi)
Y
k∈∂j\i
mk→i(σi).
σ
2σ
1σ
3σ
4σ
5m1→4
m5→4
m4→2(1)
θ4(1)m5→4(1)m1→4(1) θ4(1)m5→4(0)m1→4(0)
m2→5(1) m4→2
m5→3(1) m2→5
m4→5
bi(σi)∝θi(σi)
Y
j∈∂i
mj→i(σi) bij(σi, σj)∝ϕij(σi, σj) bi(σi)bj(σj) mi→j(σi)mj→i(σj)
Belief Propagation
Formule de mise ` a jour des messages
Message envoy´e par un noeud i vers un noeudj mi→j(σj)∝
X
σi∈{0,1}
ϕij(σi, σj) θi(σi)
Y
k∈∂j\i
mk→i(σi).
σ
2σ
1σ
3σ
4σ
5m1→4
m5→4
m4→2(1)
θ4(1)m5→4(1)m1→4(1) θ4(1)m5→4(0)m1→4(0)
m2→5(1) m4→2
m5→3(1)
m2→5
m4→5
bi(σi)∝θi(σi)
Y
j∈∂i
mj→i(σi) bij(σi, σj)∝ϕij(σi, σj) bi(σi)bj(σj) mi→j(σi)mj→i(σj)
Belief Propagation
Formule de mise ` a jour des messages
Message envoy´e par un noeud i vers un noeudj mi→j(σj)∝
X
σi∈{0,1}
ϕij(σi, σj) θi(σi)
Y
k∈∂j\i
mk→i(σi).
σ
2σ
1σ
3σ
4σ
5m1→4
m5→4
m4→2(1)
θ4(1)m5→4(1)m1→4(1) θ4(1)m5→4(0)m1→4(0)
m2→5(1) m4→2
m5→3(1) m2→5
m4→5
bi(σi)∝θi(σi)
Y
j∈∂i
mj→i(σi) bij(σi, σj)∝ϕij(σi, σj) bi(σi)bj(σj) mi→j(σi)mj→i(σj)
Belief Propagation
Formule de mise ` a jour des messages
Message envoy´e par un noeud i vers un noeudj mi→j(σj)∝
X
σi∈{0,1}
ϕij(σi, σj) θi(σi)
Y
k∈∂j\i
mk→i(σi).
σ
2σ
1σ
3σ
4σ
5m1→4
m5→4
m4→2(1)
θ4(1)m5→4(1)m1→4(1) θ4(1)m5→4(0)m1→4(0)
m2→5(1)
m4→2 m2→5 m5→3(1)
m4→5
bi(σi)∝θi(σi)
Y
j∈∂i
mj→i(σi) bij(σi, σj)∝ϕij(σi, σj) bi(σi)bj(σj) mi→j(σi)mj→i(σj)
Belief Propagation
Comment introduire nos observations ?
Une observation deXi se traduit en probabilit´e surσi. Fixer la valeur deσi est naturel avec BP pas sa probabilit´e.
Comment fixer une probabilit´e ?
Repartons du probl` eme de minimisation
{Points fixes stables de BP} ⊂ {Minima locaux d’une approximation de KL(b||P)}
min
b
X
σ
b(σ) logb(σ) P(σ) sous contraintes
b(σ) =
Y
(ij)
bij(σi, σj) bi(σi)bj(σj)
Y
i
bi(σi),
X
σj
bij(σi, σj) =bi(σi),
X
σj
bj(σj) = 1.
L’´equation de mise `a jour est obtenue `a partir des points stationnaires du Lagrangien de ce probl`eme.
Belief Propagation
Comment introduire nos observations ?
Une observation deXi se traduit en probabilit´e surσi. Fixer la valeur deσi est naturel avec BP pas sa probabilit´e.
Comment fixer une probabilit´e ?
Repartons du probl` eme de minimisation
{Points fixes stables de BP} ⊂ {Minima locaux d’une approximation de KL(b||P)}
min
b
X
σ
b(σ) logb(σ) P(σ) sous contraintes
b(σ) =
Y
(ij)
bij(σi, σj) bi(σi)bj(σj)
Y
i
bi(σi),
X
σj
bij(σi, σj) =bi(σi),
X
σj
bj(σj) = 1.
L’´equation de mise `a jour est obtenue `a partir des points stationnaires du Lagrangien de ce probl`eme.
Mirror Belief Propagation
Nouvelles contraintes
Pour chaque observationXi=xi on ajoute une contrainte du type
bi(σi= 1) = Λ(xi)def=b∗i(1), bi(σi= 0) = 1−Λ(xi)def=b∗i(0)
Version modifi´ee de Belief Propagation : mi→j(σj) inchang´e siXi n’est pas observ´e sinon :
mi→j(σj)∝
X
σi
ϕij(σi, σj) bi∗(σi) mj→i(σi) Le noeudi ne laisse plus traverser d’information.
Mirror Belief Propagation
Nouvelles contraintes
Pour chaque observationXi=xi on ajoute une contrainte du type
bi(σi= 1) = Λ(xi)def=b∗i(1), bi(σi= 0) = 1−Λ(xi)def=b∗i(0) Version modifi´ee de Belief Propagation :
mi→j(σj) inchang´e siXi n’est pas observ´e sinon :
mi→j(σj)∝
X
σi
ϕij(σi, σj) bi∗(σi) mj→i(σi) Le noeudi ne laisse plus traverser d’information.
Exp´erimentations num´eriques
D´ etail de l’exp´ erience
On observe les variables dans un ordre al´ eatoire. On pr´ edit les variables non observ´ ees.
On calcule l’erreur L
1moyenne de pr´ ediction.
Donn´ ees synth´ etiques
Variables β(a, b) distribu´ ees sur un arbre.
Exp´erimentations num´eriques
D´ etail de l’exp´ erience
On observe les variables dans un ordre al´ eatoire.
On pr´ edit les variables non observ´ ees.
On calcule l’erreur L
1moyenne de pr´ ediction.
Donn´ ees synth´ etiques
Variables β(a, b) distribu´ ees sur un arbre.
Exp´erimentations num´eriques
D´ etail de l’exp´ erience
On observe les variables dans un ordre al´ eatoire.
On pr´ edit les variables non observ´ ees.
On calcule l’erreur L
1moyenne de pr´ ediction.
Donn´ ees synth´ etiques
Variables β(a, b) distribu´ ees sur un arbre.
Exp´erimentations num´eriques
D´ etail de l’exp´ erience
On observe les variables dans un ordre al´ eatoire.
On pr´ edit les variables non observ´ ees.
On calcule l’erreur L
1moyenne de pr´ ediction.
Donn´ ees synth´ etiques
Variables β(a, b) distribu´ ees sur un arbre.
Exp´erimentations num´eriques
D´ etail de l’exp´ erience
On observe les variables dans un ordre al´ eatoire.
On pr´ edit les variables non observ´ ees.
On calcule l’erreur L
1moyenne de pr´ ediction.
Donn´ ees synth´ etiques
Variables β(a, b) distribu´ ees sur un arbre.
Exp´erimentations num´eriques
23 24 25 26 27 28 29 30
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8
β(0.12, 0.28)
Median F , F
−1F , Γ
PΛ
MIKNN
Ground Truth
Merci de votre attention !
0 0.2 0.4 0.6 0.8 1
0 0.2 0.4 0.6 0.8 1
X-quantile prediction
Belief b(1)
Quantile of X prediction for p=1/2 and different Decoding Methods StepFunction
Cumulative Inverse of Lambda (sqrt(2)-1)*x + 1-sqrt(2)/2