• Aucun résultat trouvé

Vision st ´er ´eoscopique

N/A
N/A
Protected

Academic year: 2022

Partager "Vision st ´er ´eoscopique"

Copied!
103
0
0

Texte intégral

(1)

M ´ethodes de Monte Carlo en Vision St ´er ´eoscopique

Application `a l’Etude de Mod `eles Num ´ eriques de Terrain

Julien S´ en´ egas

senegas@cg.ensmp.fr

(2)

Vision st ´er ´eoscopique

(3)

Couple st ´er ´eoscopique

Extrait d’un couple st ´er ´eoscopique SPOT - R ´egion

(4)

Des coordonn ´ees images aux coordonn ´ees 3D

M

O O

m m

1

1 1

1 1

1

2

2

2 2

2

2 b

f

Z Z

Π Π

U U

V V

Syst `eme st ´er ´eoscopique compos ´e de 2 cam ´eras

projectives lin ´eaires parall `eles.

(5)

Des coordonn ´ees images aux coordonn ´ees 3D

M

O O

m m

1

1 1

1 1

1

2

2

2 2

2

2 b

d z

f

Z Z

Π Π

U U

V V

d = u 1 − u 2 z = f b d

D ´efinition de la disparit ´e en g ´eom ´etrie ´epipolaire.

(6)

Mise en correspondance par corr ´elation

v

u u+d

v

C(d)

d d

I I

1 2

Calcul de la disparit ´e par maximisation de la corr ´elation.

(7)

Mise en correspondance par corr ´elation

v

u u+d

v

C(d)

d d

I I

1 2

Calcul de la disparit ´e par maximisation de la corr ´elation.

(8)

Mise en correspondance par corr ´elation

v

u u+d

v

C(d)

d d

I I

1 2

Calcul de la disparit ´e par maximisation de la corr ´elation.

(9)

Mise en correspondance par corr ´elation

v

u u+d

v

C(d)

d d ^

I I

1 2

Calcul de la disparit ´e par maximisation de la corr ´elation.

(10)

Calcul de la disparit ´e

(11)

Formulation du probl ` eme

(12)

Un probl ` eme inverse

Soit C u,v (d) une mesure de la similarit ´e des images I 1 et I 2 au voisinage du point (u, v) pour une disparit ´e d.

L’estimation de la disparit ´e est un probl `eme inverse dont une solution est donn ´ee par optimisation :

d(u, v) = arg max ˆ d C u,v (d) Probl `eme d’information :

similarit ´e locale entre les 2 images non v ´erifi ´ee (bruit d’acquisition , d ´eformations g ´eom ´etriques , ...),

information radiom ´etrique non discriminante (faible

contraste , p ´eriodicit ´e, ...).

(13)

Un probl ` eme inverse

Soit C u,v (d) une mesure de la similarit ´e des images I 1 et I 2 au voisinage du point (u, v) pour une disparit ´e d.

L’estimation de la disparit ´e est un probl `eme inverse dont une solution est donn ´ee par optimisation :

d(u, v) = arg max ˆ d C u,v (d) Probl `eme d’information :

similarit ´e locale entre les 2 images non v ´erifi ´ee (bruit d’acquisition , d ´eformations g ´eom ´etriques , ...),

information radiom ´etrique non discriminante (faible

contraste , p ´eriodicit ´e, ...).

(14)

Un probl ` eme inverse

Soit C u,v (d) une mesure de la similarit ´e des images I 1 et I 2 au voisinage du point (u, v) pour une disparit ´e d.

L’estimation de la disparit ´e est un probl `eme inverse dont une solution est donn ´ee par optimisation :

d(u, v) = arg max ˆ d C u,v (d) Probl `eme d’information :

similarit ´e locale entre les 2 images non v ´erifi ´ee (bruit d’acquisition , d ´eformations g ´eom ´etriques , ...),

information radiom ´etrique non discriminante (faible

contraste , p ´eriodicit ´e, ...).

(15)

Formulation bay ´esienne

L’ensemble des solutions est d ´ecrit par la distribution de probabilit ´e a posteriori de la disparit ´e D connaissant le couple st ´er ´eoscopique Y = (I 1 , I 2 ) :

π D (d | y) ∝ L(y | d)π D (d) L(. | d) est la vraisemblance du couple Y `a D = d fix ´e,

π D (.) est la distribution a priori de la disparit ´e D.

Analyser l’incertitude li ´ee `a l’estimation de la disparit ´e D :

´etudier la distribution a posteriori π D (. | y) .

(16)

Formulation bay ´esienne

L’ensemble des solutions est d ´ecrit par la distribution de probabilit ´e a posteriori de la disparit ´e D connaissant le couple st ´er ´eoscopique Y = (I 1 , I 2 ) :

π D (d | y) ∝ L(y | d)π D (d)

L(. | d) est la vraisemblance du couple Y `a D = d fix ´e, π D (.) est la distribution a priori de la disparit ´e D.

Analyser l’incertitude li ´ee `a l’estimation de la disparit ´e D :

´etudier la distribution a posteriori π D (. | y) .

(17)

Formulation bay ´esienne

L’ensemble des solutions est d ´ecrit par la distribution de probabilit ´e a posteriori de la disparit ´e D connaissant le couple st ´er ´eoscopique Y = (I 1 , I 2 ) :

π D (d | y) ∝ L(y | d)π D (d)

L(. | d) est la vraisemblance du couple Y `a D = d fix ´e, π D (.) est la distribution a priori de la disparit ´e D.

Analyser l’incertitude li ´ee `a l’estimation de la disparit ´e D :

´etudier la distribution a posteriori π D (. | y) .

(18)

Un probl ` eme d’ ´echantillonnage

Reformulation du probl `eme initial : choix du mod `ele stochastique pour

π D (d | y) ∝ L(y | d)π D (d) ,

calcul d’int ´egrales sous π D (. | y) par Monte Carlo `a partir d’un ´echantillon { z k , k = 1, m } de π D (. | y) :

1 m

m

X

k=1

g (z k ) → E π D (.|y) (g ) = Z

z

g (z)π D (z | y)dz,

´echantillonnage de la loi π D (. | y) `a l’aide d’une chaˆıne

de Markov Z = (z k ) k≥0 .

(19)

Un probl ` eme d’ ´echantillonnage

Reformulation du probl `eme initial :

choix du mod `ele stochastique pour π D (d | y) ∝ L(y | d)π D (d) ,

calcul d’int ´egrales sous π D (. | y) par Monte Carlo `a partir d’un ´echantillon { z k , k = 1, m } de π D (. | y) :

1 m

m

X

k=1

g (z k ) → E π D (.|y) (g ) = Z

z

g (z)π D (z | y)dz,

´echantillonnage de la loi π D (. | y) `a l’aide d’une chaˆıne

de Markov Z = (z k ) k≥0 .

(20)

Un probl ` eme d’ ´echantillonnage

Reformulation du probl `eme initial :

choix du mod `ele stochastique pour π D (d | y) ∝ L(y | d)π D (d) ,

calcul d’int ´egrales sous π D (. | y) par Monte Carlo `a partir d’un ´echantillon { z k , k = 1, m } de π D (. | y) :

1 m

m

X

k=1

g (z k ) → E π D (.|y) (g ) = Z

z

g (z)π D (z | y)dz,

´echantillonnage de la loi π D (. | y) `a l’aide d’une chaˆıne

de Markov Z = (z k ) k≥0 .

(21)

Un probl ` eme d’ ´echantillonnage

Reformulation du probl `eme initial :

choix du mod `ele stochastique pour π D (d | y) ∝ L(y | d)π D (d) ,

calcul d’int ´egrales sous π D (. | y) par Monte Carlo `a partir d’un ´echantillon { z k , k = 1, m } de π D (. | y) :

1 m

m

X

k=1

g (z k ) → E π D (.|y) (g ) = Z

z

g (z)π D (z | y)dz,

´echantillonnage de la loi π D (. | y) `a l’aide d’une chaˆıne

de Markov Z = (z k ) k≥0 .

(22)

Choix du mod ` ele stochastique

(23)

Vraisemblance : mod ` eles gaussiens

Expression g ´en ´erale : L(y | d) ∝ 1

σ l | C l | 1 2 exp

− 1

l 2 (η − m l ) > C −1 l (η − m l )

avec η(u, v) = I 1 (u, v) − I 2 (u + d(u, v), v) (intensit ´e r ´esiduelle)

Choix possibles :

mod `ele de bruit additif non corr ´el ´e (GMF-0) : C −1 l = I ,

mod `ele avec structure spatiale (GMF-1) : C −1 l est la

matrice de pr ´ecision d’un champ de Markov de

param `etre spatial ρ.

(24)

Vraisemblance : mod ` eles gaussiens

Expression g ´en ´erale : L(y | d) ∝ 1

σ l | C l | 1 2 exp

− 1

l 2 (η − m l ) > C −1 l (η − m l )

avec η(u, v) = I 1 (u, v) − I 2 (u + d(u, v), v) (intensit ´e r ´esiduelle)

Choix possibles :

mod `ele de bruit additif non corr ´el ´e (GMF-0) : C −1 l = I ,

mod `ele avec structure spatiale (GMF-1) : C −1 l est la

matrice de pr ´ecision d’un champ de Markov de

(25)

Vraisemblance : mod ` ele de m ´elange

But : prendre en compte l’existence de valeurs aberrantes du r ´esidu :

L(y | d) ∝ Y

u,v

(p l 1 φ 1u,v ) + p l 2 φ 2u,v )) Mod `ele de m ´elange (MIXT) :

une loi gaussienne φ 1 mod ´elisant le bruit d’acquisition (non corr ´el ´e spatialement),

une loi uniforme ou gaussienne φ 2 de variance ´elev ´ee

mod ´elisant les valeurs fortes (dues par exemple `a la

violation de l’hypoth `ese lambertienne).

(26)

Vraisemblance : mod ` ele de m ´elange

But : prendre en compte l’existence de valeurs aberrantes du r ´esidu :

L(y | d) ∝ Y

u,v

(p l 1 φ 1u,v ) + p l 2 φ 2u,v ))

Mod `ele de m ´elange (MIXT) :

une loi gaussienne φ 1 mod ´elisant le bruit d’acquisition (non corr ´el ´e spatialement),

une loi uniforme ou gaussienne φ 2 de variance ´elev ´ee

mod ´elisant les valeurs fortes (dues par exemple `a la

violation de l’hypoth `ese lambertienne).

(27)

Mod ` ele a priori

Cadre des fonctions al ´eatoires gaussiennes (Belhumeur, 1996, Szeliski, 1989) :

π D (d) ∝ 1

σ p | C p | 1 2 exp

− 1

p 2 (d − m p ) > C −1 p (d − m p ) Deux approches :

Mod `ele stationnaire : m p constante et C p stationnaire,

Mod `ele avec d ´erive : m p varie et C p stationnaire.

(28)

Mod ` ele a priori

Cadre des fonctions al ´eatoires gaussiennes (Belhumeur, 1996, Szeliski, 1989) :

π D (d) ∝ 1

σ p | C p | 1 2 exp

− 1

p 2 (d − m p ) > C −1 p (d − m p )

Deux approches :

Mod `ele stationnaire : m p constante et C p stationnaire,

Mod `ele avec d ´erive : m p varie et C p stationnaire.

(29)

Mod ` ele a priori

Cadre des fonctions al ´eatoires gaussiennes (Belhumeur, 1996, Szeliski, 1989) :

π D (d) ∝ 1

σ p | C p | 1 2 exp

− 1

p 2 (d − m p ) > C −1 p (d − m p )

Deux approches :

Mod `ele stationnaire : m p constante et C p stationnaire, Mod `ele avec d ´erive : m p varie et C p stationnaire.

Difficult ´e : comment sortir de l’hypoth `ese stationnaire et

prendre en compte une d ´erive ?

(30)

Mod ` ele a priori

Cadre des fonctions al ´eatoires gaussiennes (Belhumeur, 1996, Szeliski, 1989) :

π D (d) ∝ 1

σ p | C p | 1 2 exp

− 1

p 2 (d − m p ) > C −1 p (d − m p )

Deux approches :

Mod `ele stationnaire : m p constante et C p stationnaire, Mod `ele avec d ´erive : m p varie et C p stationnaire.

Mod `ele de disparit ´e r ´esiduelle : prendre m p = d ˆ et

mod ´eliser le r ´esidu par un champ de Markov.

(31)

R ´esultats

(32)

Cas d’ ´etude

couple st ´er ´eoscopique (taille 2048 × 2048 ) SPOT , carte de disparit ´e calcul ´ee par corr ´elation (taille

1024 × 1024 ) ,

mod `ele a priori de disparit ´e r ´esiduelle, et mod `ele de vraisemblance GMF-0,

2000 simulations g ´en ´er ´ees (taille 1024 × 1024 , temps CPU : 16H) ,

validation sur un extrait (taille 256 × 256) `a partir d’une

(33)

Statistiques globales

(34)

Statistiques globales

(35)

Vers une mesure de l’incertitude

But : `a partir d’une estimation d ˆ de la disparit ´e et d’un

niveau d’erreur s, localiser les points pour lesquels l’erreur

d ´epasse s .

(36)

Vers une mesure de l’incertitude

But : `a partir d’une estimation d ˆ de la disparit ´e et d’un

niveau d’erreur s, localiser les points pour lesquels l’erreur d ´epasse s .

⇒ calculer pour chaque point (u, v) la probabilit ´e : P

D − d ˆ ≥ s

≈ 1 m

m

X

k=1

1 z

k − d≥s ˆ , s ≥ 0

(37)

Vers une mesure de l’incertitude

But : `a partir d’une estimation d ˆ de la disparit ´e et d’un

niveau d’erreur s, localiser les points pour lesquels l’erreur d ´epasse s .

⇒ mesure de l’incertitude locale.

(38)

Probabilit ´es ponctuelles de

d ´epassement de seuil

(39)

Vers une mesure de l’incertitude

But : `a partir d’une estimation d ˆ de la disparit ´e et d’un

niveau d’erreur s, localiser les points pour lesquels l’erreur

d ´epasse s n’importe o `u sur un domaine T .

(40)

Vers une mesure de l’incertitude

But : `a partir d’une estimation d ˆ de la disparit ´e et d’un

niveau d’erreur s, localiser les points pour lesquels l’erreur d ´epasse s n’importe o `u sur un domaine T .

⇒ calculer pour chaque domaine T la probabilit ´e : P

(D − d) ˆ T ≥ s

≈ 1 m

m

X

k=1

1 max

T (z k − d)≥s ˆ , s ≥ 0

(41)

Vers une mesure de l’incertitude

But : `a partir d’une estimation d ˆ de la disparit ´e et d’un

niveau d’erreur s, localiser les points pour lesquels l’erreur d ´epasse s n’importe o `u sur un domaine T .

⇒ n ´ecessite la connaissance de la distribution multi-

variable (et non seulement marginale).

(42)

Probabilit ´es sur un domaine de

d ´epassement de seuil

(43)

Validation : D ´epassement de seuil

a priori stationnaire d ´erive

vraisemblance GMF-0 GMF-1 MIXT GMF-0 MIXT

s = 2, α = 10% 13.10 13.24 13.89 17.50 24.44

s = − 2, α = 10% 8.87 8.47 7.84 25.00 40.32

s = 2, α = 5% 5.81 6.68 6.23 11.33 14.43

s = − 2, α = 5% 5.73 5.99 5.10 19.07 27.27

(44)

Validation : Limites de confiance

a priori stationnaire d ´erive

vraisemblance GMF-0 GMF-1 MIXT GMF-0 MIXT [d inf , + ∞ [ ( 0.05 ) 0.23 0.38 0.08 0.57 0.08 ] − ∞ , d sup ] ( 0.05 ) 0.69 0.83 0.57 0.12 0.03 [d inf , d sup ] ( 0.1 ) 0.92 1.22 0.66 0.69 0.11

Risques (en %) associ ´es aux limites de confiance.

(45)

Estimation des param ` etres du mod ` ele

(46)

Point de vue bay ´esien

Prendre en compte l’incertitude sur les param `etres en les randomisant.

⇒ simulation conjointe des param `etres et de la disparit ´e.

Le mod `ele (hi ´erarchique) `a simuler devient :

π D,Θ p l (d, θ p , θ l | y) ∝ L(y | d, θ lD (d | θ pΘ ppΘ ll ) Simulation par l’ ´echantillonneur de Gibbs :

1. d | y, θ p , θ l ∼ L(y | d, θ lD (d | θ p ) , 2. θ l | y, d ∼ L(y | d, θ lΘ ll ) ,

3. θ p | d ∼ π D (d | θ pΘ pp ) ,

4. retour en 1 .

(47)

Point de vue bay ´esien

Prendre en compte l’incertitude sur les param `etres en les randomisant.

⇒ simulation conjointe des param `etres et de la disparit ´e.

Le mod `ele (hi ´erarchique) `a simuler devient :

π D,Θ p l (d, θ p , θ l | y) ∝ L(y | d, θ lD (d | θ pΘ ppΘ ll ) Simulation par l’ ´echantillonneur de Gibbs :

1. d | y, θ p , θ l ∼ L(y | d, θ lD (d | θ p ) , 2. θ l | y, d ∼ L(y | d, θ lΘ ll ) ,

3. θ p | d ∼ π D (d | θ pΘ pp ) ,

4. retour en 1 .

(48)

Point de vue bay ´esien

Prendre en compte l’incertitude sur les param `etres en les randomisant.

⇒ simulation conjointe des param `etres et de la disparit ´e.

Le mod `ele (hi ´erarchique) `a simuler devient :

π D,Θ p l (d, θ p , θ l | y) ∝ L(y | d, θ lD (d | θ pΘ ppΘ ll ) Simulation par l’ ´echantillonneur de Gibbs :

1. d | y, θ p , θ l ∼ L(y | d, θ lD (d | θ p ) , 2. θ l | y, d ∼ L(y | d, θ lΘ ll ) ,

3. θ p | d ∼ π D (d | θ pΘ pp ) ,

4. retour en 1 .

(49)

Algorithme EM stochastique

Approche similaire, o `u l’on substitue `a l’ ´etape de

simulation de θ l et θ p une ´etape d’estimation par maximum de vraisemblance.

Algorithme SEM :

1. d | y, θ ˆ p , θ ˆ l ∼ L(y | d, θ ˆ lD (d | θ ˆ p ) ,

2. estimation par MLE : θ ˆ l = arg max θ l L(y | d, θ l ) ,

3. estimation par MLE : θ ˆ p = arg max θ p π D (d | θ p ) ,

4. retour en 1.

(50)

Algorithme EM stochastique

Approche similaire, o `u l’on substitue `a l’ ´etape de

simulation de θ l et θ p une ´etape d’estimation par maximum de vraisemblance.

Algorithme SEM :

1. d | y, θ ˆ p , θ ˆ l ∼ L(y | d, θ ˆ lD (d | θ ˆ p ) ,

2. estimation par MLE : θ ˆ l = arg max θ l L(y | d, θ l ) ,

3. estimation par MLE : θ ˆ p = arg max θ p π D (d | θ p ) ,

4. retour en 1.

(51)

Param ` etres du mod ` ele GMF-0

Temps

sigma

0 500 1000 1500 2000

4.66 4.72

Ecart Type - Simulation

Temps

sigma

0 500 1000 1500 2000

4.66 4.72

Ecart Type - SEM

4.66 4.68 4.70 4.72 4.74 4.76

0 5 15 25

sigma

p

Histogramme - Simulation

4.66 4.68 4.70 4.72 4.74 4.76

0 20 60

sigma

p

Histogramme - SEM

Estimation de l’ ´ecart type du mod `ele GMF-0 par

(52)

Param ` etres du mod ` ele de m ´elange

Temps

epsilon

0 500 1000 1500 2000

0.910 0.920

Proportion de melange - Simulation

Temps

epsilon

0 500 1000 1500 2000

0.910 0.920

Proportion de melange - SEM

0.910 0.915 0.920

0 50 150

epsilon

p

Histogramme - Simulation

0.910 0.915 0.920

0 100 200

epsilon

p

Histogramme - SEM

Estimation du param `etre de m ´elange du mod `ele de

(53)

Simulations spatiales par it ´erations

markoviennes

(54)

Pr ´esentation du probl ` eme

Soit :

S = { 1, . . . , n } un ensemble fini de sites,

Z un vecteur al ´eatoire d ´efini sur S , `a valeurs dans E , muni de la tribu E .

On note :

π la loi de Z ,

π(z ) la (densit ´e de) probabilit ´e de l’ ´etat z , (z 1 , . . . , z m ) un m- ´echantillon de loi π.

Probl `eme : simuler la loi π

(55)

Pr ´esentation du probl ` eme

Soit :

S = { 1, . . . , n } un ensemble fini de sites,

Z un vecteur al ´eatoire d ´efini sur S , `a valeurs dans E , muni de la tribu E .

On note :

π la loi de Z ,

π(z ) la (densit ´e de) probabilit ´e de l’ ´etat z , (z 1 , . . . , z m ) un m- ´echantillon de loi π.

Probl `eme : simuler la loi π

(56)

Pr ´esentation du probl ` eme

Soit :

S = { 1, . . . , n } un ensemble fini de sites,

Z un vecteur al ´eatoire d ´efini sur S , `a valeurs dans E , muni de la tribu E .

On note :

π la loi de Z ,

π(z ) la (densit ´e de) probabilit ´e de l’ ´etat z , (z 1 , . . . , z m ) un m- ´echantillon de loi π.

Probl `eme : simuler la loi π

(57)

Invariance et r ´eversibilit ´e d’une chaˆıne de Markov

Soit Z = (z k ) k≥0 une chaˆıne de Markov de noyau de transition K .

Condition n ´ecessaire de convergence vers π : invariance de π sous K , soit :

Z

E

π(z)K (z, A)dz = π(A), ∀ A ∈ E Une condition suffisante d’invariance est la propri ´et ´e de

r ´eversibilit ´e :

π(z )K (z, z 0 ) = π(z 0 )K (z 0 , z), ∀ z, z 0 ∈ E 2

(58)

Invariance et r ´eversibilit ´e d’une chaˆıne de Markov

Soit Z = (z k ) k≥0 une chaˆıne de Markov de noyau de transition K .

Condition n ´ecessaire de convergence vers π : invariance de π sous K , soit :

Z

E

π(z)K (z, A)dz = π(A), ∀ A ∈ E

Une condition suffisante d’invariance est la propri ´et ´e de r ´eversibilit ´e :

π(z )K (z, z 0 ) = π(z 0 )K (z 0 , z), ∀ z, z 0 ∈ E 2

(59)

Metropolis-Hastings

Id ´ee (Hastings, 1970) : construire un noyau de transition r ´eversible pour π `a partir d’un noyau (de proposition)

q(z, .).

proposition : on g ´en `ere un nouvel ´etat z 0 selon q (z, z 0 ) , acceptation : z 0 est accept ´e avec la probabilit ´e a(z, z 0 ) . Condition de r ´eversibilit ´e :

π(z)q (z, z 0 )a(z, z 0 ) = π(z 0 )q(z 0 , z )a(z 0 , z ) si z 0 6 = z

dynamique de Barker : a(z, z 0 ) = π(z)q(z,z π(z 0 0 )+π(z )q(z 0 ,z) 0 )q(z 0 ,z) dynamique de Metropolis : a(z, z 0 ) = min

1, π(z π(z)q(z,z 0 )q(z 0 ,z) 0 )

(60)

Metropolis-Hastings

Id ´ee (Hastings, 1970) : construire un noyau de transition r ´eversible pour π `a partir d’un noyau (de proposition)

q(z, .).

proposition : on g ´en `ere un nouvel ´etat z 0 selon q (z, z 0 ) , acceptation : z 0 est accept ´e avec la probabilit ´e a(z, z 0 ) . Condition de r ´eversibilit ´e :

π(z)q (z, z 0 )a(z, z 0 ) = π(z 0 )q(z 0 , z )a(z 0 , z ) si z 0 6 = z

dynamique de Barker : a(z, z 0 ) = π(z)q(z,z π(z 0 0 )+π(z )q(z 0 ,z) 0 )q(z 0 ,z) dynamique de Metropolis : a(z, z 0 ) = min

1, π(z π(z)q(z,z 0 )q(z 0 ,z) 0 )

(61)

Metropolis-Hastings

Id ´ee (Hastings, 1970) : construire un noyau de transition r ´eversible pour π `a partir d’un noyau (de proposition)

q(z, .).

proposition : on g ´en `ere un nouvel ´etat z 0 selon q (z, z 0 ) , acceptation : z 0 est accept ´e avec la probabilit ´e a(z, z 0 ) . Condition de r ´eversibilit ´e :

π(z)q (z, z 0 )a(z, z 0 ) = π(z 0 )q(z 0 , z )a(z 0 , z ) si z 0 6 = z dynamique de Barker : a(z, z 0 ) = π(z)q(z,z π(z 0 0 )+π(z )q(z 0 ,z) 0 )q(z 0 ,z)

dynamique de Metropolis : a(z, z 0 ) = min

1, π(z π(z)q(z,z 0 )q(z 0 ,z) 0 )

(62)

Metropolis-Hastings

Id ´ee (Hastings, 1970) : construire un noyau de transition r ´eversible pour π `a partir d’un noyau (de proposition)

q(z, .).

proposition : on g ´en `ere un nouvel ´etat z 0 selon q (z, z 0 ) , acceptation : z 0 est accept ´e avec la probabilit ´e a(z, z 0 ) . Condition de r ´eversibilit ´e :

π(z)q (z, z 0 )a(z, z 0 ) = π(z 0 )q(z 0 , z )a(z 0 , z ) si z 0 6 = z dynamique de Barker : a(z, z 0 ) = π(z)q(z,z π(z 0 0 )+π(z )q(z 0 ,z) 0 )q(z 0 ,z) dynamique de Metropolis : a(z, z 0 ) = min

1, π(z π(z)q(z,z 0 )q(z 0 ,z) 0 )

(63)

Metropolis-Hastings Multiple

Soit un entier p fix ´e. Un noyau de transition multiple

(“ ´echangeable”) sur E p × E est une application q (. | .) telle que :

q (z 1 0 , . . . , z p 0 | z) = q(z σ(1) 0 , . . . , z σ(p) 0 | z ) pour toute permutation σ de { 1, . . . , p } .

Algorithme :

proposition : on g ´en `ere un ensemble (z 1 0 , . . . , z p 0 ) selon q (z 1 0 , . . . , z p 0 | z ) ,

acceptation : z 0 = z i 0 avec la probabilit ´e a(z, z i 0 ) , et z 0 = z avec la probabilit ´e 1 − P p

i=1 a(z, z i 0 ) .

(64)

Metropolis-Hastings Multiple

Soit un entier p fix ´e. Un noyau de transition multiple

(“ ´echangeable”) sur E p × E est une application q (. | .) telle que :

q (z 1 0 , . . . , z p 0 | z) = q(z σ(1) 0 , . . . , z σ(p) 0 | z ) pour toute permutation σ de { 1, . . . , p } .

Algorithme :

proposition : on g ´en `ere un ensemble (z 1 0 , . . . , z p 0 ) selon q (z 1 0 , . . . , z p 0 | z ) ,

acceptation : z 0 = z i 0 avec la probabilit ´e a(z, z i 0 ) , et z 0 = z avec la probabilit ´e 1 − P p

i=1 a(z, z i 0 ) .

(65)

Choix de la probabilit ´e d’acceptation

G ´en ´eralisation de la dynamique de Barker : a(z, z i 0 ) = π(z i 0 )q(z 0i , z | z i 0 )

P p

j=1 π(z j 0 )q(z 0j , z | z j 0 ) + π(z)q (z 1 0 , . . . , z p 0 | z ) , i = 1, p Propri ´ et ´ e: Le noyau de transition g ´en ´er ´e par un noyau mul-

tiple associ ´e `a la dynamique de Barker g ´en ´eralis ´ee est π-

r ´eversible.

(66)

Choix de la probabilit ´e d’acceptation

G ´en ´eralisation de la dynamique de Barker : a(z, z i 0 ) = π(z i 0 )q(z 0i , z | z i 0 )

P p

j=1 π(z j 0 )q(z 0j , z | z j 0 ) + π(z)q (z 1 0 , . . . , z p 0 | z ) , i = 1, p

Propri ´ et ´ e: Le noyau de transition g ´en ´er ´e par un noyau mul-

tiple associ ´e `a la dynamique de Barker g ´en ´eralis ´ee est π-

r ´eversible.

(67)

Le cas gaussien

On utilise comme loi auxiliaire la loi gaussienne φ.

Algorithme :

1. on simule w selon φ, ind ´ependamment de z ,

2. chaque ´etat z i 0 est g ´en ´er ´e par la combinaison lin ´eaire : z i 0 = z cos θ i + w sin θ i , θ i ∈ [0, 2π[, i = 1, p.

3. acceptation : a(z, z i 0 ) = p r(z i 0 )

j =0 r(z j 0 ) , r(z ) = π(z φ(z) )

Propri ´ et ´ e: Le noyau multiple gaussien avec θ i = i p+1

v ´erifie la relation de π -multi-r ´eversibilit ´e.

(68)

Le cas gaussien

On utilise comme loi auxiliaire la loi gaussienne φ.

Algorithme :

1. on simule w selon φ, ind ´ependamment de z ,

2. chaque ´etat z i 0 est g ´en ´er ´e par la combinaison lin ´eaire : z i 0 = z cos θ i + w sin θ i , θ i ∈ [0, 2π[, i = 1, p.

3. acceptation : a(z, z i 0 ) = p r(z i 0 )

j =0 r(z j 0 ) , r(z ) = π(z φ(z) ) Propri ´ et ´ e: Le noyau multiple gaussien avec θ i = i p+1

v ´erifie la relation de π -multi-r ´eversibilit ´e.

(69)

Le cas gaussien

On utilise comme loi auxiliaire la loi gaussienne φ.

Algorithme :

1. on simule w selon φ, ind ´ependamment de z ,

2. chaque ´etat z i 0 est g ´en ´er ´e par la combinaison lin ´eaire : z i 0 = z cos θ i + w sin θ i , θ i ∈ [0, 2π[, i = 1, p.

3. acceptation : a(z, z i 0 ) = p r(z i 0 )

j =0 r(z j 0 ) , r(z ) = π(z φ(z) )

Propri ´ et ´ e: Le noyau multiple gaussien avec θ i = i p+1

v ´erifie la relation de π -multi-r ´eversibilit ´e.

(70)

Transition

z

z 1 2

π

z

(71)

Transition

z

z 1 2

π

q

z

(72)

Transition

z

z 1 2

π

q z

z ’

0

(73)

Transition

z

z 1 2

π

q z

w

(74)

Transition

z

z 1 2

π

q z

z ’

0

(75)

Liens avec d’autres algorithmes

Sur-relaxation (Barone, 1990, Green, 1992, Galli, 2001) : simulation d’une loi gaussienne selon la transition :

z 0 ∼ φ

z 0 − ωz

√ 1 − ω 2

, ω ∈ [ − 1, 1]

Cette transition est toujours accept ´ee dans Metropolis, quel que soit ω.

D ´eformation graduelle (Hu, 2000) : choix du param `etre

θ dans z 0 = z cos θ + w sin θ qui minimise une fonction de

co ˆut donn ´ee.

(76)

Liens avec d’autres algorithmes

Sur-relaxation (Barone, 1990, Green, 1992, Galli, 2001) : simulation d’une loi gaussienne selon la transition :

z 0 ∼ φ

z 0 − ωz

√ 1 − ω 2

, ω ∈ [ − 1, 1]

Cette transition est toujours accept ´ee dans Metropolis, quel que soit ω.

D ´eformation graduelle (Hu, 2000) : choix du param `etre

θ dans z 0 = z cos θ + w sin θ qui minimise une fonction de

co ˆut donn ´ee.

(77)

Conclusion et Perspectives

(78)

Mod ´elisation stochastique

Proposition et comparaison de diff ´erents mod `eles : relative robustesse vis- `a-vis du mod `ele de

vraisemblance,

limites de l’hypoth `ese stationnaire, int ´er ˆet pratique du mod `ele de disparit ´e r ´esiduelle.

D ´eveloppements :

passer de mod `eles de bas-niveau (niveau de gris) `a des mod `eles de haut-niveau (objets stochastiques),

g ´en ´eralisation `a d’autres syst `emes st ´er ´eoscopiques (haute r ´esolution),

mod ´elisation plus fine du syst `eme : occlusions,

intensit ´e r ´esiduelle,...

(79)

Mod ´elisation stochastique

Proposition et comparaison de diff ´erents mod `eles : relative robustesse vis- `a-vis du mod `ele de

vraisemblance,

limites de l’hypoth `ese stationnaire, int ´er ˆet pratique du mod `ele de disparit ´e r ´esiduelle.

Limites :

grande subjectivit ´e et influence du mod `ele a priori (et donc validation indispensable),

quel estimateur pour les param `etres (Descombes et al, 1999, Hurn et al, 2002) ?

D ´eveloppements :

passer de mod `eles de bas-niveau (niveau de gris) `a des mod `eles de haut-niveau (objets stochastiques),

g ´en ´eralisation `a d’autres syst `emes st ´er ´eoscopiques (haute r ´esolution),

mod ´elisation plus fine du syst `eme : occlusions,

intensit ´e r ´esiduelle,...

(80)

Mod ´elisation stochastique

Proposition et comparaison de diff ´erents mod `eles : relative robustesse vis- `a-vis du mod `ele de

vraisemblance,

limites de l’hypoth `ese stationnaire, int ´er ˆet pratique du mod `ele de disparit ´e r ´esiduelle.

D ´eveloppements :

passer de mod `eles de bas-niveau (niveau de gris) `a des mod `eles de haut-niveau (objets stochastiques),

g ´en ´eralisation `a d’autres syst `emes st ´er ´eoscopiques

(haute r ´esolution),

(81)

Algorithmes de simulation par chaˆınes de Markov

Metropolis-Hastings multiple :

extension de l’algorithme de Metropolis-Hastings, cas gaussien d’un grand int ´er ˆet pratique.

D ´eveloppement :

comparaison avec l’algorithme de sur-relaxation,

influence et choix de la dimension de l’ ´echantillonneur, g ´en ´eralisation de la dynamique de Metropolis ?

propri ´et ´es de convergence...

(82)

Algorithmes de simulation par chaˆınes de Markov

Metropolis-Hastings multiple :

extension de l’algorithme de Metropolis-Hastings, cas gaussien d’un grand int ´er ˆet pratique.

D ´eveloppement :

comparaison avec l’algorithme de sur-relaxation,

influence et choix de la dimension de l’ ´echantillonneur, g ´en ´eralisation de la dynamique de Metropolis ?

propri ´et ´es de convergence...

(83)

Approche g ´en ´erale

Formulation du probl `eme en termes : de distribution a posteriori (l’objet),

d’int ´egrales de Monte Carlo (la propri ´et ´e), d’algorithmes d’ ´echantillonnage (l’outil).

Perspectives :

approche applicable `a tout probl `eme inverse,

´etude plus fine via la distribution,

besoin d’algorithmes de simulation performants.

(84)

Approche g ´en ´erale

Formulation du probl `eme en termes : de distribution a posteriori (l’objet),

d’int ´egrales de Monte Carlo (la propri ´et ´e), d’algorithmes d’ ´echantillonnage (l’outil).

Perspectives :

approche applicable `a tout probl `eme inverse,

´etude plus fine via la distribution,

besoin d’algorithmes de simulation performants.

(85)

Merci !

(86)

Appendix

(87)

Diff ´erences radiom ´etriques importantes

Exemples de diff ´erence radiom ´etrique importante due au

changement de la sc `ene (diachronisme), ici dans le cas de

(88)

D ´eformations g ´eom ´etriques, ombres

Exemples de d ´eformations g ´eom ´etriques importantes, ici dans une r ´egion montagneuse. A noter ´egalement la

pr ´esence d’ombres dues au relief.

(89)

Mod ` ele de vraisemblance

Mod `ele de formation d’images (sous hypoth `ese lambertienne) :

I 1 (u, v) = ψ (I (x, y, z ) ? ζ ) + η 1 (u, v)

I 2 (u + d(u, v), v) = ψ (I (x, y, z ) ? ζ ) + η 2 (u + d(u, v), v ) On d ´efinit alors l’intensit ´e r ´esiduelle :

η u,v = I 1 (u, v) − I 2 (u + d(u, v), v)

Choisir un mod `ele de vraisemblance revient `a mod ´eliser

l’intensit ´e r ´esiduelle η .

(90)

Mod ` ele de vraisemblance

Mod `ele de formation d’images (sous hypoth `ese lambertienne) :

I 1 (u, v) = ψ (I (x, y, z ) ? ζ ) + η 1 (u, v)

I 2 (u + d(u, v), v) = ψ (I (x, y, z ) ? ζ ) + η 2 (u + d(u, v), v ) On d ´efinit alors l’intensit ´e r ´esiduelle :

η u,v = I 1 (u, v) − I 2 (u + d(u, v), v)

Choisir un mod `ele de vraisemblance revient `a mod ´eliser

l’intensit ´e r ´esiduelle η .

(91)

Champ de Markov d’ordre 1

C l 1 =

2 −ρ −ρ

−ρ 3 −ρ −ρ

. . . . . . . . . . . .

−ρ 3 −ρ −ρ

−ρ 2 0 −ρ

−ρ 0 3 −ρ −ρ

−ρ −ρ 4 −ρ −ρ

. . . . . . . . . . . . . . .

Matrice de pr ´ecision

(92)

Disparit ´e calcul ´ee par

corr ´elation

(93)

Image SPOT

(94)

Probabilit ´es ponctuelles de

d ´epassement de seuil

(95)

Probabilit ´es sur un domaine de

d ´epassement de seuil

(96)

Probabilit ´es sur un domaine de d ´epassement de seuil

a priori stationnaire d ´erive

vraisemblance GMF-0 GMF-1 MIXT GMF-0 MIXT

biais 0.140 0.141 0.130 0.141 0.134

´ecart quad. moy. 0.273 0.265 0.273 0.163 0.147

(97)

Validation

disparite

probabilite

-3 -2 -1 0 1 2 3

0.0 0.4 0.8

p=0.05

selection: seuil= 2, p > 0.05

disparite

probabilite

-3 -2 -1 0 1 2 3

0.0 0.4 0.8

p=0.05

selection: seuil= 2, p < 0.05

disparite

probabilite

-3 -2 -1 0 1 2 3

0.0 0.4 0.8

p=0.05

selection: seuil= -2, p > 0.05

disparite

probabilite

-3 -2 -1 0 1 2 3

0.0 0.4 0.8

p=0.05

selection: seuil= -2, p < 0.05

Fonctions de r ´epartition exp ´erimentales pour les seuils 2 et

(98)

Validation

disparite

probabilite

-3 -2 -1 0 1 2 3

0.0 0.4 0.8

p=0.1

selection: seuil= 2, p > 0.1

disparite

probabilite

-3 -2 -1 0 1 2 3

0.0 0.4 0.8

p=0.1

selection: seuil= 2, p < 0.1

disparite

probabilite

-3 -2 -1 0 1 2 3

0.0 0.4 0.8

p=0.1

selection: seuil= -2, p > 0.1

disparite

probabilite

-3 -2 -1 0 1 2 3

0.0 0.4 0.8

p=0.1

selection: seuil= -2, p < 0.1

Fonctions de r ´epartition exp ´erimentales pour les seuils 2 et

− 2 pixels et un risque de 10% .

(99)

Approche empirique

Difficul ´e : l’information disponible (le couple

st ´er ´eoscopique Y ) ne permet pas d’estimer directement les param `etres du mod `ele.

Id ´ee : utiliser la carte de disparit ´e estim ´ee d ˆ .

mod `ele a priori (stationnaire) : les param `etres θ p sont inf ´er ´es manuellement ( ´etude variographique),

mod `ele de vraisemblance : les param `etres θ l sont estim ´es par maximum de vraisemblance (ou

pseudo-vraisemblance (Besag, 1974)).

Limites : d ˆ n’est qu’une estimation de d, possibilit ´e de biais.

(100)

Approche empirique

Difficul ´e : l’information disponible (le couple

st ´er ´eoscopique Y ) ne permet pas d’estimer directement les param `etres du mod `ele.

Id ´ee : utiliser la carte de disparit ´e estim ´ee d ˆ .

mod `ele a priori (stationnaire) : les param `etres θ p sont inf ´er ´es manuellement ( ´etude variographique),

mod `ele de vraisemblance : les param `etres θ l sont estim ´es par maximum de vraisemblance (ou

pseudo-vraisemblance (Besag, 1974)).

Limites : d ˆ n’est qu’une estimation de d, possibilit ´e de biais.

(101)

Approche empirique

Difficul ´e : l’information disponible (le couple

st ´er ´eoscopique Y ) ne permet pas d’estimer directement les param `etres du mod `ele.

Id ´ee : utiliser la carte de disparit ´e estim ´ee d ˆ .

mod `ele a priori (stationnaire) : les param `etres θ p sont inf ´er ´es manuellement ( ´etude variographique),

mod `ele de vraisemblance : les param `etres θ l sont estim ´es par maximum de vraisemblance (ou

pseudo-vraisemblance (Besag, 1974)).

(102)

Param ` etres du mod ` ele de m ´elange

Temps

sigma

0 500 1000 1500 2000

10.8 11.2 11.6

Ecart Type 1 - Simulation

Temps

sigma

0 500 1000 1500 2000

10.8 11.2 11.6

Ecart Type 1 - SEM

10.8 11.0 11.2 11.4 11.6

0.0 1.0 2.0

sigma

p

Histogramme - Simulation

10.8 11.0 11.2 11.4 11.6

0 1 2 3 4 5 6

sigma

p

Histogramme - SEM

Estimation de l’ ´ecart type 1 du mod `ele de m ´elange par

(103)

Param ` etres du mod ` ele de m ´elange

Temps

sigma

0 500 1000 1500 2000

2.92 2.98

Ecart Type 2 - Simulation

Temps

sigma

0 500 1000 1500 2000

2.92 2.98

Ecart Type 2 - SEM

2.94 2.96 2.98 3.00 3.02

0 5 15 25

sigma

p

Histogramme - Simulation

2.94 2.96 2.98 3.00 3.02

0 10 20 30

sigma

p

Histogramme - SEM

Estimation de l’ ´ecart type 2 du mod `ele de m ´elange par

Références

Documents relatifs

A chaque alignement, est associ´ e un score (simple ici) suivant: pour chaque position on associe 0 si les 2 bases sont identiques, +1 si les deux bases sont diff´ erentes et +3 s’il

Cette sonde est constitu´ee d’un cˆ able coaxial analogue au pr´ec´edent et d’une tˆete de sonde comprenant une r´esistance R s de 9 MΩ en parall`ele avec un condensateur C

Les trois fa¸ cons principales de calculer des ´ ecarts types et les intervalles de confiance pour les changements pr´ edits : par l’utilisation de la matrice variance-covariance

I Nous allons utiliser ces propri´ et´ es ` a maintes reprises pour trouver d’autres propri´ et´ es de l’estimateur MCO.. I Plusieurs de ces propri´ et´ es d´ ependent du fait

boxcox (MASS) transformation de Box-Cox dans le cas d’un LNM bcPower (car) transformation de Box-Cox, Yeo-Johnson ou puissance lm (stats) ajuste un mod` ele de r´ egression lin´

D´ eterminer un intervalle de confiance asymptotique bilat´ eral sym´ etrique de niveau (1 −α) pour θ en utilisant chacun des estimateurs pr´ ec´ edents.. D´ eterminer un

Soit F un sous espace vectoriel ferm´ e d’un espace de Hilbert muni d’un produit scalaire h., .i et d’une

On suppose que l’on observe seulement le nombre de particules dans le r´ecipient A au cours du temps, et que l’on d´esire estimer le nombre total de particules. Et construire