M ´ethodes de Monte Carlo en Vision St ´er ´eoscopique
Application `a l’Etude de Mod `eles Num ´ eriques de Terrain
Julien S´ en´ egas
senegas@cg.ensmp.fr
Vision st ´er ´eoscopique
Couple st ´er ´eoscopique
Extrait d’un couple st ´er ´eoscopique SPOT - R ´egion
Des coordonn ´ees images aux coordonn ´ees 3D
M
O O
m m
1
1 1
1 1
1
2
2
2 2
2
2 b
f
Z Z
Π Π
U U
V V
Syst `eme st ´er ´eoscopique compos ´e de 2 cam ´eras
projectives lin ´eaires parall `eles.
Des coordonn ´ees images aux coordonn ´ees 3D
M
O O
m m
1
1 1
1 1
1
2
2
2 2
2
2 b
d z
f
Z Z
Π Π
U U
V V
d = u 1 − u 2 z = f b d
D ´efinition de la disparit ´e en g ´eom ´etrie ´epipolaire.
Mise en correspondance par corr ´elation
v
u u+d
v
C(d)
d d
I I
1 2
Calcul de la disparit ´e par maximisation de la corr ´elation.
Mise en correspondance par corr ´elation
v
u u+d
v
C(d)
d d
I I
1 2
Calcul de la disparit ´e par maximisation de la corr ´elation.
Mise en correspondance par corr ´elation
v
u u+d
v
C(d)
d d
I I
1 2
Calcul de la disparit ´e par maximisation de la corr ´elation.
Mise en correspondance par corr ´elation
v
u u+d
v
C(d)
d d ^
I I
1 2
Calcul de la disparit ´e par maximisation de la corr ´elation.
Calcul de la disparit ´e
Formulation du probl ` eme
Un probl ` eme inverse
Soit C u,v (d) une mesure de la similarit ´e des images I 1 et I 2 au voisinage du point (u, v) pour une disparit ´e d.
L’estimation de la disparit ´e est un probl `eme inverse dont une solution est donn ´ee par optimisation :
d(u, v) = arg max ˆ d C u,v (d) Probl `eme d’information :
similarit ´e locale entre les 2 images non v ´erifi ´ee (bruit d’acquisition , d ´eformations g ´eom ´etriques , ...),
information radiom ´etrique non discriminante (faible
contraste , p ´eriodicit ´e, ...).
Un probl ` eme inverse
Soit C u,v (d) une mesure de la similarit ´e des images I 1 et I 2 au voisinage du point (u, v) pour une disparit ´e d.
L’estimation de la disparit ´e est un probl `eme inverse dont une solution est donn ´ee par optimisation :
d(u, v) = arg max ˆ d C u,v (d) Probl `eme d’information :
similarit ´e locale entre les 2 images non v ´erifi ´ee (bruit d’acquisition , d ´eformations g ´eom ´etriques , ...),
information radiom ´etrique non discriminante (faible
contraste , p ´eriodicit ´e, ...).
Un probl ` eme inverse
Soit C u,v (d) une mesure de la similarit ´e des images I 1 et I 2 au voisinage du point (u, v) pour une disparit ´e d.
L’estimation de la disparit ´e est un probl `eme inverse dont une solution est donn ´ee par optimisation :
d(u, v) = arg max ˆ d C u,v (d) Probl `eme d’information :
similarit ´e locale entre les 2 images non v ´erifi ´ee (bruit d’acquisition , d ´eformations g ´eom ´etriques , ...),
information radiom ´etrique non discriminante (faible
contraste , p ´eriodicit ´e, ...).
Formulation bay ´esienne
L’ensemble des solutions est d ´ecrit par la distribution de probabilit ´e a posteriori de la disparit ´e D connaissant le couple st ´er ´eoscopique Y = (I 1 , I 2 ) :
π D (d | y) ∝ L(y | d)π D (d) L(. | d) est la vraisemblance du couple Y `a D = d fix ´e,
π D (.) est la distribution a priori de la disparit ´e D.
Analyser l’incertitude li ´ee `a l’estimation de la disparit ´e D :
´etudier la distribution a posteriori π D (. | y) .
Formulation bay ´esienne
L’ensemble des solutions est d ´ecrit par la distribution de probabilit ´e a posteriori de la disparit ´e D connaissant le couple st ´er ´eoscopique Y = (I 1 , I 2 ) :
π D (d | y) ∝ L(y | d)π D (d)
L(. | d) est la vraisemblance du couple Y `a D = d fix ´e, π D (.) est la distribution a priori de la disparit ´e D.
Analyser l’incertitude li ´ee `a l’estimation de la disparit ´e D :
´etudier la distribution a posteriori π D (. | y) .
Formulation bay ´esienne
L’ensemble des solutions est d ´ecrit par la distribution de probabilit ´e a posteriori de la disparit ´e D connaissant le couple st ´er ´eoscopique Y = (I 1 , I 2 ) :
π D (d | y) ∝ L(y | d)π D (d)
L(. | d) est la vraisemblance du couple Y `a D = d fix ´e, π D (.) est la distribution a priori de la disparit ´e D.
Analyser l’incertitude li ´ee `a l’estimation de la disparit ´e D :
´etudier la distribution a posteriori π D (. | y) .
Un probl ` eme d’ ´echantillonnage
Reformulation du probl `eme initial : choix du mod `ele stochastique pour
π D (d | y) ∝ L(y | d)π D (d) ,
calcul d’int ´egrales sous π D (. | y) par Monte Carlo `a partir d’un ´echantillon { z k , k = 1, m } de π D (. | y) :
1 m
m
X
k=1
g (z k ) → E π D (.|y) (g ) = Z
z
g (z)π D (z | y)dz,
´echantillonnage de la loi π D (. | y) `a l’aide d’une chaˆıne
de Markov Z = (z k ) k≥0 .
Un probl ` eme d’ ´echantillonnage
Reformulation du probl `eme initial :
choix du mod `ele stochastique pour π D (d | y) ∝ L(y | d)π D (d) ,
calcul d’int ´egrales sous π D (. | y) par Monte Carlo `a partir d’un ´echantillon { z k , k = 1, m } de π D (. | y) :
1 m
m
X
k=1
g (z k ) → E π D (.|y) (g ) = Z
z
g (z)π D (z | y)dz,
´echantillonnage de la loi π D (. | y) `a l’aide d’une chaˆıne
de Markov Z = (z k ) k≥0 .
Un probl ` eme d’ ´echantillonnage
Reformulation du probl `eme initial :
choix du mod `ele stochastique pour π D (d | y) ∝ L(y | d)π D (d) ,
calcul d’int ´egrales sous π D (. | y) par Monte Carlo `a partir d’un ´echantillon { z k , k = 1, m } de π D (. | y) :
1 m
m
X
k=1
g (z k ) → E π D (.|y) (g ) = Z
z
g (z)π D (z | y)dz,
´echantillonnage de la loi π D (. | y) `a l’aide d’une chaˆıne
de Markov Z = (z k ) k≥0 .
Un probl ` eme d’ ´echantillonnage
Reformulation du probl `eme initial :
choix du mod `ele stochastique pour π D (d | y) ∝ L(y | d)π D (d) ,
calcul d’int ´egrales sous π D (. | y) par Monte Carlo `a partir d’un ´echantillon { z k , k = 1, m } de π D (. | y) :
1 m
m
X
k=1
g (z k ) → E π D (.|y) (g ) = Z
z
g (z)π D (z | y)dz,
´echantillonnage de la loi π D (. | y) `a l’aide d’une chaˆıne
de Markov Z = (z k ) k≥0 .
Choix du mod ` ele stochastique
Vraisemblance : mod ` eles gaussiens
Expression g ´en ´erale : L(y | d) ∝ 1
σ l | C l | 1 2 exp
− 1
2σ l 2 (η − m l ) > C −1 l (η − m l )
avec η(u, v) = I 1 (u, v) − I 2 (u + d(u, v), v) (intensit ´e r ´esiduelle)
Choix possibles :
mod `ele de bruit additif non corr ´el ´e (GMF-0) : C −1 l = I ,
mod `ele avec structure spatiale (GMF-1) : C −1 l est la
matrice de pr ´ecision d’un champ de Markov de
param `etre spatial ρ.
Vraisemblance : mod ` eles gaussiens
Expression g ´en ´erale : L(y | d) ∝ 1
σ l | C l | 1 2 exp
− 1
2σ l 2 (η − m l ) > C −1 l (η − m l )
avec η(u, v) = I 1 (u, v) − I 2 (u + d(u, v), v) (intensit ´e r ´esiduelle)
Choix possibles :
mod `ele de bruit additif non corr ´el ´e (GMF-0) : C −1 l = I ,
mod `ele avec structure spatiale (GMF-1) : C −1 l est la
matrice de pr ´ecision d’un champ de Markov de
Vraisemblance : mod ` ele de m ´elange
But : prendre en compte l’existence de valeurs aberrantes du r ´esidu :
L(y | d) ∝ Y
u,v
(p l 1 φ 1 (η u,v ) + p l 2 φ 2 (η u,v )) Mod `ele de m ´elange (MIXT) :
une loi gaussienne φ 1 mod ´elisant le bruit d’acquisition (non corr ´el ´e spatialement),
une loi uniforme ou gaussienne φ 2 de variance ´elev ´ee
mod ´elisant les valeurs fortes (dues par exemple `a la
violation de l’hypoth `ese lambertienne).
Vraisemblance : mod ` ele de m ´elange
But : prendre en compte l’existence de valeurs aberrantes du r ´esidu :
L(y | d) ∝ Y
u,v
(p l 1 φ 1 (η u,v ) + p l 2 φ 2 (η u,v ))
Mod `ele de m ´elange (MIXT) :
une loi gaussienne φ 1 mod ´elisant le bruit d’acquisition (non corr ´el ´e spatialement),
une loi uniforme ou gaussienne φ 2 de variance ´elev ´ee
mod ´elisant les valeurs fortes (dues par exemple `a la
violation de l’hypoth `ese lambertienne).
Mod ` ele a priori
Cadre des fonctions al ´eatoires gaussiennes (Belhumeur, 1996, Szeliski, 1989) :
π D (d) ∝ 1
σ p | C p | 1 2 exp
− 1
2σ p 2 (d − m p ) > C −1 p (d − m p ) Deux approches :
Mod `ele stationnaire : m p constante et C p stationnaire,
Mod `ele avec d ´erive : m p varie et C p stationnaire.
Mod ` ele a priori
Cadre des fonctions al ´eatoires gaussiennes (Belhumeur, 1996, Szeliski, 1989) :
π D (d) ∝ 1
σ p | C p | 1 2 exp
− 1
2σ p 2 (d − m p ) > C −1 p (d − m p )
Deux approches :
Mod `ele stationnaire : m p constante et C p stationnaire,
Mod `ele avec d ´erive : m p varie et C p stationnaire.
Mod ` ele a priori
Cadre des fonctions al ´eatoires gaussiennes (Belhumeur, 1996, Szeliski, 1989) :
π D (d) ∝ 1
σ p | C p | 1 2 exp
− 1
2σ p 2 (d − m p ) > C −1 p (d − m p )
Deux approches :
Mod `ele stationnaire : m p constante et C p stationnaire, Mod `ele avec d ´erive : m p varie et C p stationnaire.
Difficult ´e : comment sortir de l’hypoth `ese stationnaire et
prendre en compte une d ´erive ?
Mod ` ele a priori
Cadre des fonctions al ´eatoires gaussiennes (Belhumeur, 1996, Szeliski, 1989) :
π D (d) ∝ 1
σ p | C p | 1 2 exp
− 1
2σ p 2 (d − m p ) > C −1 p (d − m p )
Deux approches :
Mod `ele stationnaire : m p constante et C p stationnaire, Mod `ele avec d ´erive : m p varie et C p stationnaire.
Mod `ele de disparit ´e r ´esiduelle : prendre m p = d ˆ et
mod ´eliser le r ´esidu par un champ de Markov.
R ´esultats
Cas d’ ´etude
couple st ´er ´eoscopique (taille 2048 × 2048 ) SPOT , carte de disparit ´e calcul ´ee par corr ´elation (taille
1024 × 1024 ) ,
mod `ele a priori de disparit ´e r ´esiduelle, et mod `ele de vraisemblance GMF-0,
2000 simulations g ´en ´er ´ees (taille 1024 × 1024 , temps CPU : 16H) ,
validation sur un extrait (taille 256 × 256) `a partir d’une
Statistiques globales
Statistiques globales
Vers une mesure de l’incertitude
But : `a partir d’une estimation d ˆ de la disparit ´e et d’un
niveau d’erreur s, localiser les points pour lesquels l’erreur
d ´epasse s .
Vers une mesure de l’incertitude
But : `a partir d’une estimation d ˆ de la disparit ´e et d’un
niveau d’erreur s, localiser les points pour lesquels l’erreur d ´epasse s .
⇒ calculer pour chaque point (u, v) la probabilit ´e : P
D − d ˆ ≥ s
≈ 1 m
m
X
k=1
1 z
k − d≥s ˆ , s ≥ 0
Vers une mesure de l’incertitude
But : `a partir d’une estimation d ˆ de la disparit ´e et d’un
niveau d’erreur s, localiser les points pour lesquels l’erreur d ´epasse s .
⇒ mesure de l’incertitude locale.
Probabilit ´es ponctuelles de
d ´epassement de seuil
Vers une mesure de l’incertitude
But : `a partir d’une estimation d ˆ de la disparit ´e et d’un
niveau d’erreur s, localiser les points pour lesquels l’erreur
d ´epasse s n’importe o `u sur un domaine T .
Vers une mesure de l’incertitude
But : `a partir d’une estimation d ˆ de la disparit ´e et d’un
niveau d’erreur s, localiser les points pour lesquels l’erreur d ´epasse s n’importe o `u sur un domaine T .
⇒ calculer pour chaque domaine T la probabilit ´e : P
(D − d) ˆ T ≥ s
≈ 1 m
m
X
k=1
1 max
T (z k − d)≥s ˆ , s ≥ 0
Vers une mesure de l’incertitude
But : `a partir d’une estimation d ˆ de la disparit ´e et d’un
niveau d’erreur s, localiser les points pour lesquels l’erreur d ´epasse s n’importe o `u sur un domaine T .
⇒ n ´ecessite la connaissance de la distribution multi-
variable (et non seulement marginale).
Probabilit ´es sur un domaine de
d ´epassement de seuil
Validation : D ´epassement de seuil
a priori stationnaire d ´erive
vraisemblance GMF-0 GMF-1 MIXT GMF-0 MIXT
s = 2, α = 10% 13.10 13.24 13.89 17.50 24.44
s = − 2, α = 10% 8.87 8.47 7.84 25.00 40.32
s = 2, α = 5% 5.81 6.68 6.23 11.33 14.43
s = − 2, α = 5% 5.73 5.99 5.10 19.07 27.27
Validation : Limites de confiance
a priori stationnaire d ´erive
vraisemblance GMF-0 GMF-1 MIXT GMF-0 MIXT [d inf , + ∞ [ ( 0.05 ) 0.23 0.38 0.08 0.57 0.08 ] − ∞ , d sup ] ( 0.05 ) 0.69 0.83 0.57 0.12 0.03 [d inf , d sup ] ( 0.1 ) 0.92 1.22 0.66 0.69 0.11
Risques (en %) associ ´es aux limites de confiance.
Estimation des param ` etres du mod ` ele
Point de vue bay ´esien
Prendre en compte l’incertitude sur les param `etres en les randomisant.
⇒ simulation conjointe des param `etres et de la disparit ´e.
Le mod `ele (hi ´erarchique) `a simuler devient :
π D,Θ p ,Θ l (d, θ p , θ l | y) ∝ L(y | d, θ l )π D (d | θ p )π Θ p (θ p )π Θ l (θ l ) Simulation par l’ ´echantillonneur de Gibbs :
1. d | y, θ p , θ l ∼ L(y | d, θ l )π D (d | θ p ) , 2. θ l | y, d ∼ L(y | d, θ l )π Θ l (θ l ) ,
3. θ p | d ∼ π D (d | θ p )π Θ p (θ p ) ,
4. retour en 1 .
Point de vue bay ´esien
Prendre en compte l’incertitude sur les param `etres en les randomisant.
⇒ simulation conjointe des param `etres et de la disparit ´e.
Le mod `ele (hi ´erarchique) `a simuler devient :
π D,Θ p ,Θ l (d, θ p , θ l | y) ∝ L(y | d, θ l )π D (d | θ p )π Θ p (θ p )π Θ l (θ l ) Simulation par l’ ´echantillonneur de Gibbs :
1. d | y, θ p , θ l ∼ L(y | d, θ l )π D (d | θ p ) , 2. θ l | y, d ∼ L(y | d, θ l )π Θ l (θ l ) ,
3. θ p | d ∼ π D (d | θ p )π Θ p (θ p ) ,
4. retour en 1 .
Point de vue bay ´esien
Prendre en compte l’incertitude sur les param `etres en les randomisant.
⇒ simulation conjointe des param `etres et de la disparit ´e.
Le mod `ele (hi ´erarchique) `a simuler devient :
π D,Θ p ,Θ l (d, θ p , θ l | y) ∝ L(y | d, θ l )π D (d | θ p )π Θ p (θ p )π Θ l (θ l ) Simulation par l’ ´echantillonneur de Gibbs :
1. d | y, θ p , θ l ∼ L(y | d, θ l )π D (d | θ p ) , 2. θ l | y, d ∼ L(y | d, θ l )π Θ l (θ l ) ,
3. θ p | d ∼ π D (d | θ p )π Θ p (θ p ) ,
4. retour en 1 .
Algorithme EM stochastique
Approche similaire, o `u l’on substitue `a l’ ´etape de
simulation de θ l et θ p une ´etape d’estimation par maximum de vraisemblance.
Algorithme SEM :
1. d | y, θ ˆ p , θ ˆ l ∼ L(y | d, θ ˆ l )π D (d | θ ˆ p ) ,
2. estimation par MLE : θ ˆ l = arg max θ l L(y | d, θ l ) ,
3. estimation par MLE : θ ˆ p = arg max θ p π D (d | θ p ) ,
4. retour en 1.
Algorithme EM stochastique
Approche similaire, o `u l’on substitue `a l’ ´etape de
simulation de θ l et θ p une ´etape d’estimation par maximum de vraisemblance.
Algorithme SEM :
1. d | y, θ ˆ p , θ ˆ l ∼ L(y | d, θ ˆ l )π D (d | θ ˆ p ) ,
2. estimation par MLE : θ ˆ l = arg max θ l L(y | d, θ l ) ,
3. estimation par MLE : θ ˆ p = arg max θ p π D (d | θ p ) ,
4. retour en 1.
Param ` etres du mod ` ele GMF-0
Temps
sigma
0 500 1000 1500 2000
4.66 4.72
Ecart Type - Simulation
Temps
sigma
0 500 1000 1500 2000
4.66 4.72
Ecart Type - SEM
4.66 4.68 4.70 4.72 4.74 4.76
0 5 15 25
sigma
p
Histogramme - Simulation
4.66 4.68 4.70 4.72 4.74 4.76
0 20 60
sigma
p
Histogramme - SEM
Estimation de l’ ´ecart type du mod `ele GMF-0 par
Param ` etres du mod ` ele de m ´elange
Temps
epsilon
0 500 1000 1500 2000
0.910 0.920
Proportion de melange - Simulation
Temps
epsilon
0 500 1000 1500 2000
0.910 0.920
Proportion de melange - SEM
0.910 0.915 0.920
0 50 150
epsilon
p
Histogramme - Simulation
0.910 0.915 0.920
0 100 200
epsilon
p
Histogramme - SEM
Estimation du param `etre de m ´elange du mod `ele de
Simulations spatiales par it ´erations
markoviennes
Pr ´esentation du probl ` eme
Soit :
S = { 1, . . . , n } un ensemble fini de sites,
Z un vecteur al ´eatoire d ´efini sur S , `a valeurs dans E , muni de la tribu E .
On note :
π la loi de Z ,
π(z ) la (densit ´e de) probabilit ´e de l’ ´etat z , (z 1 , . . . , z m ) un m- ´echantillon de loi π.
Probl `eme : simuler la loi π
Pr ´esentation du probl ` eme
Soit :
S = { 1, . . . , n } un ensemble fini de sites,
Z un vecteur al ´eatoire d ´efini sur S , `a valeurs dans E , muni de la tribu E .
On note :
π la loi de Z ,
π(z ) la (densit ´e de) probabilit ´e de l’ ´etat z , (z 1 , . . . , z m ) un m- ´echantillon de loi π.
Probl `eme : simuler la loi π
Pr ´esentation du probl ` eme
Soit :
S = { 1, . . . , n } un ensemble fini de sites,
Z un vecteur al ´eatoire d ´efini sur S , `a valeurs dans E , muni de la tribu E .
On note :
π la loi de Z ,
π(z ) la (densit ´e de) probabilit ´e de l’ ´etat z , (z 1 , . . . , z m ) un m- ´echantillon de loi π.
Probl `eme : simuler la loi π
Invariance et r ´eversibilit ´e d’une chaˆıne de Markov
Soit Z = (z k ) k≥0 une chaˆıne de Markov de noyau de transition K .
Condition n ´ecessaire de convergence vers π : invariance de π sous K , soit :
Z
E
π(z)K (z, A)dz = π(A), ∀ A ∈ E Une condition suffisante d’invariance est la propri ´et ´e de
r ´eversibilit ´e :
π(z )K (z, z 0 ) = π(z 0 )K (z 0 , z), ∀ z, z 0 ∈ E 2
Invariance et r ´eversibilit ´e d’une chaˆıne de Markov
Soit Z = (z k ) k≥0 une chaˆıne de Markov de noyau de transition K .
Condition n ´ecessaire de convergence vers π : invariance de π sous K , soit :
Z
E
π(z)K (z, A)dz = π(A), ∀ A ∈ E
Une condition suffisante d’invariance est la propri ´et ´e de r ´eversibilit ´e :
π(z )K (z, z 0 ) = π(z 0 )K (z 0 , z), ∀ z, z 0 ∈ E 2
Metropolis-Hastings
Id ´ee (Hastings, 1970) : construire un noyau de transition r ´eversible pour π `a partir d’un noyau (de proposition)
q(z, .).
proposition : on g ´en `ere un nouvel ´etat z 0 selon q (z, z 0 ) , acceptation : z 0 est accept ´e avec la probabilit ´e a(z, z 0 ) . Condition de r ´eversibilit ´e :
π(z)q (z, z 0 )a(z, z 0 ) = π(z 0 )q(z 0 , z )a(z 0 , z ) si z 0 6 = z
dynamique de Barker : a(z, z 0 ) = π(z)q(z,z π(z 0 0 )+π(z )q(z 0 ,z) 0 )q(z 0 ,z) dynamique de Metropolis : a(z, z 0 ) = min
1, π(z π(z)q(z,z 0 )q(z 0 ,z) 0 )
Metropolis-Hastings
Id ´ee (Hastings, 1970) : construire un noyau de transition r ´eversible pour π `a partir d’un noyau (de proposition)
q(z, .).
proposition : on g ´en `ere un nouvel ´etat z 0 selon q (z, z 0 ) , acceptation : z 0 est accept ´e avec la probabilit ´e a(z, z 0 ) . Condition de r ´eversibilit ´e :
π(z)q (z, z 0 )a(z, z 0 ) = π(z 0 )q(z 0 , z )a(z 0 , z ) si z 0 6 = z
dynamique de Barker : a(z, z 0 ) = π(z)q(z,z π(z 0 0 )+π(z )q(z 0 ,z) 0 )q(z 0 ,z) dynamique de Metropolis : a(z, z 0 ) = min
1, π(z π(z)q(z,z 0 )q(z 0 ,z) 0 )
Metropolis-Hastings
Id ´ee (Hastings, 1970) : construire un noyau de transition r ´eversible pour π `a partir d’un noyau (de proposition)
q(z, .).
proposition : on g ´en `ere un nouvel ´etat z 0 selon q (z, z 0 ) , acceptation : z 0 est accept ´e avec la probabilit ´e a(z, z 0 ) . Condition de r ´eversibilit ´e :
π(z)q (z, z 0 )a(z, z 0 ) = π(z 0 )q(z 0 , z )a(z 0 , z ) si z 0 6 = z dynamique de Barker : a(z, z 0 ) = π(z)q(z,z π(z 0 0 )+π(z )q(z 0 ,z) 0 )q(z 0 ,z)
dynamique de Metropolis : a(z, z 0 ) = min
1, π(z π(z)q(z,z 0 )q(z 0 ,z) 0 )
Metropolis-Hastings
Id ´ee (Hastings, 1970) : construire un noyau de transition r ´eversible pour π `a partir d’un noyau (de proposition)
q(z, .).
proposition : on g ´en `ere un nouvel ´etat z 0 selon q (z, z 0 ) , acceptation : z 0 est accept ´e avec la probabilit ´e a(z, z 0 ) . Condition de r ´eversibilit ´e :
π(z)q (z, z 0 )a(z, z 0 ) = π(z 0 )q(z 0 , z )a(z 0 , z ) si z 0 6 = z dynamique de Barker : a(z, z 0 ) = π(z)q(z,z π(z 0 0 )+π(z )q(z 0 ,z) 0 )q(z 0 ,z) dynamique de Metropolis : a(z, z 0 ) = min
1, π(z π(z)q(z,z 0 )q(z 0 ,z) 0 )
Metropolis-Hastings Multiple
Soit un entier p fix ´e. Un noyau de transition multiple
(“ ´echangeable”) sur E p × E est une application q (. | .) telle que :
q (z 1 0 , . . . , z p 0 | z) = q(z σ(1) 0 , . . . , z σ(p) 0 | z ) pour toute permutation σ de { 1, . . . , p } .
Algorithme :
proposition : on g ´en `ere un ensemble (z 1 0 , . . . , z p 0 ) selon q (z 1 0 , . . . , z p 0 | z ) ,
acceptation : z 0 = z i 0 avec la probabilit ´e a(z, z i 0 ) , et z 0 = z avec la probabilit ´e 1 − P p
i=1 a(z, z i 0 ) .
Metropolis-Hastings Multiple
Soit un entier p fix ´e. Un noyau de transition multiple
(“ ´echangeable”) sur E p × E est une application q (. | .) telle que :
q (z 1 0 , . . . , z p 0 | z) = q(z σ(1) 0 , . . . , z σ(p) 0 | z ) pour toute permutation σ de { 1, . . . , p } .
Algorithme :
proposition : on g ´en `ere un ensemble (z 1 0 , . . . , z p 0 ) selon q (z 1 0 , . . . , z p 0 | z ) ,
acceptation : z 0 = z i 0 avec la probabilit ´e a(z, z i 0 ) , et z 0 = z avec la probabilit ´e 1 − P p
i=1 a(z, z i 0 ) .
Choix de la probabilit ´e d’acceptation
G ´en ´eralisation de la dynamique de Barker : a(z, z i 0 ) = π(z i 0 )q(z 0i , z | z i 0 )
P p
j=1 π(z j 0 )q(z 0j , z | z j 0 ) + π(z)q (z 1 0 , . . . , z p 0 | z ) , i = 1, p Propri ´ et ´ e: Le noyau de transition g ´en ´er ´e par un noyau mul-
tiple associ ´e `a la dynamique de Barker g ´en ´eralis ´ee est π-
r ´eversible.
Choix de la probabilit ´e d’acceptation
G ´en ´eralisation de la dynamique de Barker : a(z, z i 0 ) = π(z i 0 )q(z 0i , z | z i 0 )
P p
j=1 π(z j 0 )q(z 0j , z | z j 0 ) + π(z)q (z 1 0 , . . . , z p 0 | z ) , i = 1, p
Propri ´ et ´ e: Le noyau de transition g ´en ´er ´e par un noyau mul-
tiple associ ´e `a la dynamique de Barker g ´en ´eralis ´ee est π-
r ´eversible.
Le cas gaussien
On utilise comme loi auxiliaire la loi gaussienne φ.
Algorithme :
1. on simule w selon φ, ind ´ependamment de z ,
2. chaque ´etat z i 0 est g ´en ´er ´e par la combinaison lin ´eaire : z i 0 = z cos θ i + w sin θ i , θ i ∈ [0, 2π[, i = 1, p.
3. acceptation : a(z, z i 0 ) = p r(z i 0 )
j =0 r(z j 0 ) , r(z ) = π(z φ(z) )
Propri ´ et ´ e: Le noyau multiple gaussien avec θ i = i p+1 2π
v ´erifie la relation de π -multi-r ´eversibilit ´e.
Le cas gaussien
On utilise comme loi auxiliaire la loi gaussienne φ.
Algorithme :
1. on simule w selon φ, ind ´ependamment de z ,
2. chaque ´etat z i 0 est g ´en ´er ´e par la combinaison lin ´eaire : z i 0 = z cos θ i + w sin θ i , θ i ∈ [0, 2π[, i = 1, p.
3. acceptation : a(z, z i 0 ) = p r(z i 0 )
j =0 r(z j 0 ) , r(z ) = π(z φ(z) ) Propri ´ et ´ e: Le noyau multiple gaussien avec θ i = i p+1 2π
v ´erifie la relation de π -multi-r ´eversibilit ´e.
Le cas gaussien
On utilise comme loi auxiliaire la loi gaussienne φ.
Algorithme :
1. on simule w selon φ, ind ´ependamment de z ,
2. chaque ´etat z i 0 est g ´en ´er ´e par la combinaison lin ´eaire : z i 0 = z cos θ i + w sin θ i , θ i ∈ [0, 2π[, i = 1, p.
3. acceptation : a(z, z i 0 ) = p r(z i 0 )
j =0 r(z j 0 ) , r(z ) = π(z φ(z) )
Propri ´ et ´ e: Le noyau multiple gaussien avec θ i = i p+1 2π
v ´erifie la relation de π -multi-r ´eversibilit ´e.
Transition
z
z 1 2
π
z
Transition
z
z 1 2
π
q
z
Transition
z
z 1 2
π
q z
z ’
0
Transition
z
z 1 2
π
q z
w
Transition
z
z 1 2
π
q z
z ’
0
Liens avec d’autres algorithmes
Sur-relaxation (Barone, 1990, Green, 1992, Galli, 2001) : simulation d’une loi gaussienne selon la transition :
z 0 ∼ φ
z 0 − ωz
√ 1 − ω 2
, ω ∈ [ − 1, 1]
Cette transition est toujours accept ´ee dans Metropolis, quel que soit ω.
D ´eformation graduelle (Hu, 2000) : choix du param `etre
θ dans z 0 = z cos θ + w sin θ qui minimise une fonction de
co ˆut donn ´ee.
Liens avec d’autres algorithmes
Sur-relaxation (Barone, 1990, Green, 1992, Galli, 2001) : simulation d’une loi gaussienne selon la transition :
z 0 ∼ φ
z 0 − ωz
√ 1 − ω 2
, ω ∈ [ − 1, 1]
Cette transition est toujours accept ´ee dans Metropolis, quel que soit ω.
D ´eformation graduelle (Hu, 2000) : choix du param `etre
θ dans z 0 = z cos θ + w sin θ qui minimise une fonction de
co ˆut donn ´ee.
Conclusion et Perspectives
Mod ´elisation stochastique
Proposition et comparaison de diff ´erents mod `eles : relative robustesse vis- `a-vis du mod `ele de
vraisemblance,
limites de l’hypoth `ese stationnaire, int ´er ˆet pratique du mod `ele de disparit ´e r ´esiduelle.
D ´eveloppements :
passer de mod `eles de bas-niveau (niveau de gris) `a des mod `eles de haut-niveau (objets stochastiques),
g ´en ´eralisation `a d’autres syst `emes st ´er ´eoscopiques (haute r ´esolution),
mod ´elisation plus fine du syst `eme : occlusions,
intensit ´e r ´esiduelle,...
Mod ´elisation stochastique
Proposition et comparaison de diff ´erents mod `eles : relative robustesse vis- `a-vis du mod `ele de
vraisemblance,
limites de l’hypoth `ese stationnaire, int ´er ˆet pratique du mod `ele de disparit ´e r ´esiduelle.
Limites :
grande subjectivit ´e et influence du mod `ele a priori (et donc validation indispensable),
quel estimateur pour les param `etres (Descombes et al, 1999, Hurn et al, 2002) ?
D ´eveloppements :
passer de mod `eles de bas-niveau (niveau de gris) `a des mod `eles de haut-niveau (objets stochastiques),
g ´en ´eralisation `a d’autres syst `emes st ´er ´eoscopiques (haute r ´esolution),
mod ´elisation plus fine du syst `eme : occlusions,
intensit ´e r ´esiduelle,...
Mod ´elisation stochastique
Proposition et comparaison de diff ´erents mod `eles : relative robustesse vis- `a-vis du mod `ele de
vraisemblance,
limites de l’hypoth `ese stationnaire, int ´er ˆet pratique du mod `ele de disparit ´e r ´esiduelle.
D ´eveloppements :
passer de mod `eles de bas-niveau (niveau de gris) `a des mod `eles de haut-niveau (objets stochastiques),
g ´en ´eralisation `a d’autres syst `emes st ´er ´eoscopiques
(haute r ´esolution),
Algorithmes de simulation par chaˆınes de Markov
Metropolis-Hastings multiple :
extension de l’algorithme de Metropolis-Hastings, cas gaussien d’un grand int ´er ˆet pratique.
D ´eveloppement :
comparaison avec l’algorithme de sur-relaxation,
influence et choix de la dimension de l’ ´echantillonneur, g ´en ´eralisation de la dynamique de Metropolis ?
propri ´et ´es de convergence...
Algorithmes de simulation par chaˆınes de Markov
Metropolis-Hastings multiple :
extension de l’algorithme de Metropolis-Hastings, cas gaussien d’un grand int ´er ˆet pratique.
D ´eveloppement :
comparaison avec l’algorithme de sur-relaxation,
influence et choix de la dimension de l’ ´echantillonneur, g ´en ´eralisation de la dynamique de Metropolis ?
propri ´et ´es de convergence...
Approche g ´en ´erale
Formulation du probl `eme en termes : de distribution a posteriori (l’objet),
d’int ´egrales de Monte Carlo (la propri ´et ´e), d’algorithmes d’ ´echantillonnage (l’outil).
Perspectives :
approche applicable `a tout probl `eme inverse,
´etude plus fine via la distribution,
besoin d’algorithmes de simulation performants.
Approche g ´en ´erale
Formulation du probl `eme en termes : de distribution a posteriori (l’objet),
d’int ´egrales de Monte Carlo (la propri ´et ´e), d’algorithmes d’ ´echantillonnage (l’outil).
Perspectives :
approche applicable `a tout probl `eme inverse,
´etude plus fine via la distribution,
besoin d’algorithmes de simulation performants.
Merci !
Appendix
Diff ´erences radiom ´etriques importantes
Exemples de diff ´erence radiom ´etrique importante due au
changement de la sc `ene (diachronisme), ici dans le cas de
D ´eformations g ´eom ´etriques, ombres
Exemples de d ´eformations g ´eom ´etriques importantes, ici dans une r ´egion montagneuse. A noter ´egalement la
pr ´esence d’ombres dues au relief.
Mod ` ele de vraisemblance
Mod `ele de formation d’images (sous hypoth `ese lambertienne) :
I 1 (u, v) = ψ (I (x, y, z ) ? ζ ) + η 1 (u, v)
I 2 (u + d(u, v), v) = ψ (I (x, y, z ) ? ζ ) + η 2 (u + d(u, v), v ) On d ´efinit alors l’intensit ´e r ´esiduelle :
η u,v = I 1 (u, v) − I 2 (u + d(u, v), v)
Choisir un mod `ele de vraisemblance revient `a mod ´eliser
l’intensit ´e r ´esiduelle η .
Mod ` ele de vraisemblance
Mod `ele de formation d’images (sous hypoth `ese lambertienne) :
I 1 (u, v) = ψ (I (x, y, z ) ? ζ ) + η 1 (u, v)
I 2 (u + d(u, v), v) = ψ (I (x, y, z ) ? ζ ) + η 2 (u + d(u, v), v ) On d ´efinit alors l’intensit ´e r ´esiduelle :
η u,v = I 1 (u, v) − I 2 (u + d(u, v), v)
Choisir un mod `ele de vraisemblance revient `a mod ´eliser
l’intensit ´e r ´esiduelle η .
Champ de Markov d’ordre 1
C − l 1 =
2 −ρ −ρ
−ρ 3 −ρ −ρ
. . . . . . . . . . . .
−ρ 3 −ρ −ρ
−ρ 2 0 −ρ
−ρ 0 3 −ρ −ρ
−ρ −ρ 4 −ρ −ρ
. . . . . . . . . . . . . . .