CHAPITRE 3 REVUE DE LITT´ ERATURE
3.13 M´ethodes probabilistes
Compte tenu la difficult´e dans la d´ecision d’une correspondance, les m´ethodes probabi-
listes sont devenues les choix naturels. Nous n’en listons que quelques une ici.
3.13.1
M´ethode de propagation de croyance
Comme la m´ethode de propagation de croyance demande beaucoup d’espace pour la
sauvegarde de messages, la m´ethode utilis´ee est g´en´eralement limit´ee aux images `a basse
d´efinition. Yang et al. ont propos´e un algorithme qui demande un espace constant de m´emoire.
Cet algorithme peut s’op´erer en temps lin´eaire, et ce, en fonction du nombre de pixels contenus
dans l’image. La demande de m´emoire est ind´ependante du nombre de niveaux de disparit´e
L. Le temps d’ex´ecution est aussi ind´ependant de L si on exclut le temps de calcul des
donn´ees. (voir Yang et al., 2010).
3.13.2
Approche probabiliste des images en haute d´efinition
Geiger et al. ont pr´esent´e un travail int´eressant. Avec une approche de point de support
et probabiliste, ils ont obtenu une tr`es bonne performance sur les images en haute d´efinition
avec CPU. Les points de support sont les pixels ayant une correspondance robuste grˆace `a
leur texture et unicit´e, obtenus par la concat´enation des r´eponses horizontales et verticales
de filtre Sobel d’une fenˆetre de 9 × 9. Les points de support sont ensuite employ´es pour cr´eer
une maille 2D avec l’algorithme de triangulation de Delaunay. Une distribution pr´eliminaire
est calcul´ee `a l’aide des disparit´es des points de support et la maille triangul´ee. (voir Geiger
et al., 2010)
Prenons S = {s
1, . . . , s
M} comme un ensemble de points de support. O = {o
1, . . . , o
N}
est un ensemble d’observations d’image. o
(g)net o
(d)nd´esignent les observations dans les images
de gauche et de droite respectivement. (voir Geiger et al., 2010, p. 5)
Supposons que les observations {o
(g)n, o
(d)n} et les points de support S sont conditionnel-
lement ind´ependants ´etant donn´e ses disparit´es d
n, la distribution jointe peut ˆetre factoris´ee
`a : (voir Geiger et al., 2010, p. 5)
p(d
n|S, o
(g)n) est une distribution pr´eliminaire et p(o
(d)n|o
(g)n, d
n) est comme vraisemblance
d’image. La Figure 3.12 est un mod`ele graphique d´ecrit par l’´equation 3.47. (voir Geiger
et al., 2010, p. 5)
Figure 3.12 Mod`ele gaphique d’une approche probabiliste (voir Geiger et al., 2010, p. 5)
La distribution pr´eliminaire p(d
n|S, o
(g)n) peut prendre la forme d’une combinaison d’une
distribution uniforme et une distribution gaussienne ´echantillonn´ee. (voir Geiger et al., 2010,
p. 6)
p(o
(d)n|S, o
(g)n) ∝
γ + exp(−(d
n− µ(S, o
(g) n))
22σ
2) si |d
n− µ| < 3σ ∨ d
n∈ N
S0
sinon
(3.48)
µ(S, o
(g)n) est exprim´ee comme un group de fonctions lin´eaires qui interpolent les disparit´es
en employant l’algorithme de triangulation Delaunay sur les points de support.
La vraisemblance d’image peut ˆetre ´ecrite comme une distribution laplacienne contrainte :
(voir Geiger et al., 2010, p. 6)
p(o
(d) n|o
(g)n, d
n) ∝
exp(−β ||f
n(g)− f
n(d)||) si
u
gnv
g n
=
u
dn+ d
nv
d n
0
sinon
(3.49)
o`u f
n(g)et f
n(d)sont vecteurs de caract´eristique de l’image de gauche et celle de droite respec-
tivement. β est une constante. (voir Geiger et al., 2010, p. 6)
La carte de disparit´e peut ˆetre calcul´e par : (voir Geiger et al., 2010, p. 7)
d
∗n= argmax p(d
n|o
(g)n, o
(d) 1
, . . . , o
(d)
o`u o
d1
, . . . , o
dNd´esignent toutes les observations de l’image de droite sur la ligne ´epipolaire de
o
gn
. La distribution post´erieure peut ˆetre factoris´ee comme : (voir Geiger et al., 2010, p. 7)
p(d
n|o
(g)n, o
(d)1, . . . , o
(d)N, S) ∝ p(d
n|S, o
(g)n) p(o
(d)1, . . . , o
dN|o
(g)n, d
n)
(3.51)
Tandis que : (voir Geiger et al., 2010, p. 7)
p(o
(d)1, . . . , o
dN|o
(g)n, d
n) ∝
NX
i=1
p(o
(d)i|o
(g)n, d
n)
(3.52)
Alors nous avons une fonction d’´energie : (voir Geiger et al., 2010, p. 7)
E(d) = β ||f
(g)− f
(d)(d)|| − log[γ + exp(−[d − µ(S, o
(g))]
22σ
2)]
(3.53)
f
(d)(d) est le vecteur de caract´eristique au pixel (u
(g)− d, v
(g)). (voir Geiger et al., 2010,
p. 7) Principalement parce que cette m´ethode ´evite de faire la mise en correspondance par
pixel et elle s’appuie sur la fiabilit´e des points de support, la qualit´e et la performance sont
bonnes, meilleures que plusieurs m´ethodes. (voir Geiger et al., 2010)
3.13.3
Mod`ele de Markov cach´e
Le mod`ele de Markov cach´e (MMC) joue un rˆole important dans l’apprentissage par
machine. La carte de disparit´e est un ensemble de distance des pixels correspondants dans
deux images. Il arrive souvent qu’un point ne soit pas ind´ependant des autres points dans
une image. La forme et le changement de forme selon le point de vue doivent ˆetre consid´er´es.
Par convention, nous supposons que chaque pixel d´epend du pixel de gauche sur une ligne de
disparit´e. Nous aurons un mod`ele de MMC pour chaque ligne horizontale de pixels illustr´es
dans la Figure 3.13
Figure 3.13 Un MMC horizontal concernant le probl`eme de disparit´es des images
La variable d
irepr´esente la disparit´e de pixels optimale dans une ligne de carte de dis-
concern´ees. La probabilit´e jointe des variables observ´ees et cach´ees est comme ci-dessous :
P ({o}, {d}) =
TY
t=1P (o
t|d
t)
TY
t=1P (d
t+1|d
t)P (d
t)
Un MMC a cinq ´el´ements essentiels : (voir Rabiner, 1989, pp. 260–261).
1.
N, le nombre d’´etats dans le mod`ele. Un ensemble d’´etats individuels est
S = {S
1, S
2, . . . , S
N}, un ´etat au moment t est d
t.
2.
M, le nombre de symboles distincts par ´etat. Un ensemble de symboles individuels est
O = {o
1, o
2, . . . , o
M}.
3.
La distribution probabiliste d’´etats est d´efinie comme A = {a
ij} o`u a
ij= P [d
t+1=
S
j| d
t= S
i], 1 ≤ i, j ≤ N.
4.
La distribution probabiliste de symboles d’observation dans l’´etat j, B = {b
j(k)}, o`u
b
j(k) = P [o
k`a t | o
t= S
j], 1 ≤ j ≤ N, 1 ≤ k ≤ M.
5.
La distribution initiale des ´etats π = {π
i} o`u π
i= P [d
1= S
i], 1 ≤ i ≤ N.
Le mod`ele est normalement not´e λ = (A, B, π) (voir Rabiner, 1989, pp. 260–261).
L’algorithme Viterbi (voir Viterbi, 1967, pp. 264–265) est employ´e dans le d´ecodage de
code convolutif utilis´e dans la t´el´ecommunication. Il est aussi couramment utilis´e dans la
reconnaissance de parole. La complexit´e de calcul est pass´ee de simple recherche exhaustive
M
N`a NM
2(voir Snyder et Qi, 2004, p 25).
D´ej`a en 1975, Baker a pr´esent´e un syst`eme de compr´ehension de la parole nomm´e DRAGON
en employant le MMC (voir Baker, 1975).
3.13.4
Mod`ele de g´en´eralisation de MMC
Le MMC pr´esent´e dans la sous-section 3.13.3 suppose que sur chaque ligne de balayage,
un pixel de la carte de disparit´e influence la valeur du pixel voisin direct `a droite et l’obser-
vation. En r´ealit´e, un pixel d’une image d´epend des valeurs voisines autour. Une premi`ere
g´en´eralisation de MMC est de passer de connexion de gauche `a droite `a celle grill´ee. La
Figure 3.14 montre cette g´en´eralisation et une partie de passage de message en employant la
m´ethode de graphe de facteur de Kschischang et al.(voir Kschischang et al., 2001).
Figure 3.14 G´en´eralisation de MMC
Supposons qu’une ex´ecution de propagation de croyance passe de gauche `a droite et de
haut en bas et le point x(i, j) est l’´etape actuelle. La premi`ere ´etape de passage de message
est :
m
f(i−1,j−1)→x(i,j−1)=
X
v{x(i,j−1)}
m
x(i−1,j−1)→f(i−1,j−1)f
(i−1,j−1)(x[i, j − 1])
= m
x(i−1,j−1)→f(i−1,j−1)f
(i−1,j−1)(x[i, j − 1])
m
f(i,j−2)→x(i,j−1)=
X
v{x(i,j−1)}
m
x(i,j−2)→f(i,j−2)f
(i,j−2)(x[i, j − 1])
= m
x(i,j−2)→f(i,j−2)f
(i,j−2)(x[i, j − 1])
(3.54)
La deuxi`eme ´etape est :
m
x(i,j−1)→f(i,j−1)= m
f(i−1,j−1)→x(i,j−1)m
f(i,j−2)→x(i,j−1)m
f(i+1,j−1)→x(i,j−1)m
y(i,j−1)→x(i,j−1)m
x(i,j−1)→f(i+1,j−1)= m
f(i−1,j−1)→x(i,j−1)m
f(i,j−2)→x(i,j−1)m
f(i,j−1)→x(i,j−1)m
y(i,j−1)→x(i,j−1)La troisi`eme ´etape est :
m
f(i−1,j)→x(i,j)=
X
v{x(i,j)}
m
x(i−1,j)→f(i−1,j)f
(i−1,j)(x[i, j])
= m
x(i−1,j)→f(i−1,j)f
(i−1,j)(x[i, j])
m
f(i,j−1)→x(i,j)=
X
v{x(i,j)}
m
x(i,j−1)→f(i,j−1)f
(i,j−1)(x[i, j])
= m
x(i,j−1)→f(i,j−1)f
(i,j−1)(x[i, j])
(3.56)
La quatri`eme ´etape est :
m
x(i,j)→f(i,j)= m
f(i−1,j)→x(i,j)m
f(i,j−1)→x(i,j)m
f(i+1,j)→x(i,j)m
y(i,j)→x(i,j)m
x(i,j)→f(i+1,j)= m
f(i−1,j)→x(i,j)m
f(i,j−1)→x(i,j)m
f(i,j)→x(i,j)m
y(i,j)→x(i,j)(3.57)
Apr`es cette ´etape, le flux passe de droite `a gauche et de bas en haut.
Cette g´en´eralisation de MMC est en fait un mod`ele de champ al´eatoire de Markov (MRF).
La m´ethode de passage de message est appel´ee la propagation de croyance. Nous pouvons
esp´erer avoir un bon r´esultat avec ce mod`ele. Et la propagation de coˆuts ressemble `a la
m´ethode d’agr´egation des coˆuts de SGM (semi-global matching). Toutefois, le temps de calcul
sera ´elev´e et l’augmentation de pr´ecision au d´etriment du temps de calcul n’est pas le travail
principal de cette th`ese. Nous allons essayer de rapprocher cette m´ethode avec une m´ethode
de multiples passes de MMC qui a une impl´ementation rapide en GPGPU.
Dans le document
Traitement et analyse d'images stéréoscopiques avec les approches du calcul générique sur un processeur graphique
(Page 71-76)