• Aucun résultat trouvé

CHAPITRE 3 REVUE DE LITT´ ERATURE

3.13 M´ethodes probabilistes

Compte tenu la difficult´e dans la d´ecision d’une correspondance, les m´ethodes probabi-

listes sont devenues les choix naturels. Nous n’en listons que quelques une ici.

3.13.1

M´ethode de propagation de croyance

Comme la m´ethode de propagation de croyance demande beaucoup d’espace pour la

sauvegarde de messages, la m´ethode utilis´ee est g´en´eralement limit´ee aux images `a basse

d´efinition. Yang et al. ont propos´e un algorithme qui demande un espace constant de m´emoire.

Cet algorithme peut s’op´erer en temps lin´eaire, et ce, en fonction du nombre de pixels contenus

dans l’image. La demande de m´emoire est ind´ependante du nombre de niveaux de disparit´e

L. Le temps d’ex´ecution est aussi ind´ependant de L si on exclut le temps de calcul des

donn´ees. (voir Yang et al., 2010).

3.13.2

Approche probabiliste des images en haute d´efinition

Geiger et al. ont pr´esent´e un travail int´eressant. Avec une approche de point de support

et probabiliste, ils ont obtenu une tr`es bonne performance sur les images en haute d´efinition

avec CPU. Les points de support sont les pixels ayant une correspondance robuste grˆace `a

leur texture et unicit´e, obtenus par la concat´enation des r´eponses horizontales et verticales

de filtre Sobel d’une fenˆetre de 9 × 9. Les points de support sont ensuite employ´es pour cr´eer

une maille 2D avec l’algorithme de triangulation de Delaunay. Une distribution pr´eliminaire

est calcul´ee `a l’aide des disparit´es des points de support et la maille triangul´ee. (voir Geiger

et al., 2010)

Prenons S = {s

1

, . . . , s

M

} comme un ensemble de points de support. O = {o

1

, . . . , o

N

}

est un ensemble d’observations d’image. o

(g)n

et o

(d)n

d´esignent les observations dans les images

de gauche et de droite respectivement. (voir Geiger et al., 2010, p. 5)

Supposons que les observations {o

(g)n

, o

(d)n

} et les points de support S sont conditionnel-

lement ind´ependants ´etant donn´e ses disparit´es d

n

, la distribution jointe peut ˆetre factoris´ee

`a : (voir Geiger et al., 2010, p. 5)

p(d

n

|S, o

(g)n

) est une distribution pr´eliminaire et p(o

(d)n

|o

(g)n

, d

n

) est comme vraisemblance

d’image. La Figure 3.12 est un mod`ele graphique d´ecrit par l’´equation 3.47. (voir Geiger

et al., 2010, p. 5)

Figure 3.12 Mod`ele gaphique d’une approche probabiliste (voir Geiger et al., 2010, p. 5)

La distribution pr´eliminaire p(d

n

|S, o

(g)n

) peut prendre la forme d’une combinaison d’une

distribution uniforme et une distribution gaussienne ´echantillonn´ee. (voir Geiger et al., 2010,

p. 6)

p(o

(d)n

|S, o

(g)n

) ∝

γ + exp(−(d

n

− µ(S, o

(g) n

))

2

2

) si |d

n

− µ| < 3σ ∨ d

n

∈ N

S

0

sinon

(3.48)

µ(S, o

(g)n

) est exprim´ee comme un group de fonctions lin´eaires qui interpolent les disparit´es

en employant l’algorithme de triangulation Delaunay sur les points de support.

La vraisemblance d’image peut ˆetre ´ecrite comme une distribution laplacienne contrainte :

(voir Geiger et al., 2010, p. 6)

p(o

(d) n

|o

(g)n

, d

n

) ∝

exp(−β ||f

n(g)

− f

n(d)

||) si

u

gn

v

g n

 =

u

dn

+ d

n

v

d n

0

sinon

(3.49)

o`u f

n(g)

et f

n(d)

sont vecteurs de caract´eristique de l’image de gauche et celle de droite respec-

tivement. β est une constante. (voir Geiger et al., 2010, p. 6)

La carte de disparit´e peut ˆetre calcul´e par : (voir Geiger et al., 2010, p. 7)

d

n

= argmax p(d

n

|o

(g)n

, o

(d) 1

, . . . , o

(d)

o`u o

d

1

, . . . , o

dN

d´esignent toutes les observations de l’image de droite sur la ligne ´epipolaire de

o

g

n

. La distribution post´erieure peut ˆetre factoris´ee comme : (voir Geiger et al., 2010, p. 7)

p(d

n

|o

(g)n

, o

(d)1

, . . . , o

(d)N

, S) ∝ p(d

n

|S, o

(g)n

) p(o

(d)1

, . . . , o

dN

|o

(g)n

, d

n

)

(3.51)

Tandis que : (voir Geiger et al., 2010, p. 7)

p(o

(d)1

, . . . , o

dN

|o

(g)n

, d

n

) ∝

N

X

i=1

p(o

(d)i

|o

(g)n

, d

n

)

(3.52)

Alors nous avons une fonction d’´energie : (voir Geiger et al., 2010, p. 7)

E(d) = β ||f

(g)

− f

(d)

(d)|| − log[γ + exp(−[d − µ(S, o

(g)

)]

2

2

)]

(3.53)

f

(d)

(d) est le vecteur de caract´eristique au pixel (u

(g)

− d, v

(g)

). (voir Geiger et al., 2010,

p. 7) Principalement parce que cette m´ethode ´evite de faire la mise en correspondance par

pixel et elle s’appuie sur la fiabilit´e des points de support, la qualit´e et la performance sont

bonnes, meilleures que plusieurs m´ethodes. (voir Geiger et al., 2010)

3.13.3

Mod`ele de Markov cach´e

Le mod`ele de Markov cach´e (MMC) joue un rˆole important dans l’apprentissage par

machine. La carte de disparit´e est un ensemble de distance des pixels correspondants dans

deux images. Il arrive souvent qu’un point ne soit pas ind´ependant des autres points dans

une image. La forme et le changement de forme selon le point de vue doivent ˆetre consid´er´es.

Par convention, nous supposons que chaque pixel d´epend du pixel de gauche sur une ligne de

disparit´e. Nous aurons un mod`ele de MMC pour chaque ligne horizontale de pixels illustr´es

dans la Figure 3.13

Figure 3.13 Un MMC horizontal concernant le probl`eme de disparit´es des images

La variable d

i

repr´esente la disparit´e de pixels optimale dans une ligne de carte de dis-

concern´ees. La probabilit´e jointe des variables observ´ees et cach´ees est comme ci-dessous :

P ({o}, {d}) =

T

Y

t=1

P (o

t

|d

t

)

T

Y

t=1

P (d

t+1

|d

t

)P (d

t

)

Un MMC a cinq ´el´ements essentiels : (voir Rabiner, 1989, pp. 260–261).

1.

N, le nombre d’´etats dans le mod`ele. Un ensemble d’´etats individuels est

S = {S

1

, S

2

, . . . , S

N

}, un ´etat au moment t est d

t

.

2.

M, le nombre de symboles distincts par ´etat. Un ensemble de symboles individuels est

O = {o

1

, o

2

, . . . , o

M

}.

3.

La distribution probabiliste d’´etats est d´efinie comme A = {a

ij

} o`u a

ij

= P [d

t+1

=

S

j

| d

t

= S

i

], 1 ≤ i, j ≤ N.

4.

La distribution probabiliste de symboles d’observation dans l’´etat j, B = {b

j

(k)}, o`u

b

j

(k) = P [o

k

`a t | o

t

= S

j

], 1 ≤ j ≤ N, 1 ≤ k ≤ M.

5.

La distribution initiale des ´etats π = {π

i

} o`u π

i

= P [d

1

= S

i

], 1 ≤ i ≤ N.

Le mod`ele est normalement not´e λ = (A, B, π) (voir Rabiner, 1989, pp. 260–261).

L’algorithme Viterbi (voir Viterbi, 1967, pp. 264–265) est employ´e dans le d´ecodage de

code convolutif utilis´e dans la t´el´ecommunication. Il est aussi couramment utilis´e dans la

reconnaissance de parole. La complexit´e de calcul est pass´ee de simple recherche exhaustive

M

N

`a NM

2

(voir Snyder et Qi, 2004, p 25).

D´ej`a en 1975, Baker a pr´esent´e un syst`eme de compr´ehension de la parole nomm´e DRAGON

en employant le MMC (voir Baker, 1975).

3.13.4

Mod`ele de g´en´eralisation de MMC

Le MMC pr´esent´e dans la sous-section 3.13.3 suppose que sur chaque ligne de balayage,

un pixel de la carte de disparit´e influence la valeur du pixel voisin direct `a droite et l’obser-

vation. En r´ealit´e, un pixel d’une image d´epend des valeurs voisines autour. Une premi`ere

g´en´eralisation de MMC est de passer de connexion de gauche `a droite `a celle grill´ee. La

Figure 3.14 montre cette g´en´eralisation et une partie de passage de message en employant la

m´ethode de graphe de facteur de Kschischang et al.(voir Kschischang et al., 2001).

Figure 3.14 G´en´eralisation de MMC

Supposons qu’une ex´ecution de propagation de croyance passe de gauche `a droite et de

haut en bas et le point x(i, j) est l’´etape actuelle. La premi`ere ´etape de passage de message

est :

m

f(i−1,j−1)→x(i,j−1)

=

X

v{x(i,j−1)}

m

x(i−1,j−1)→f(i−1,j−1)

f

(i−1,j−1)

(x[i, j − 1])

= m

x(i−1,j−1)→f(i−1,j−1)

f

(i−1,j−1)

(x[i, j − 1])

m

f(i,j−2)→x(i,j−1)

=

X

v{x(i,j−1)}

m

x(i,j−2)→f(i,j−2)

f

(i,j−2)

(x[i, j − 1])

= m

x(i,j−2)→f(i,j−2)

f

(i,j−2)

(x[i, j − 1])

(3.54)

La deuxi`eme ´etape est :

m

x(i,j−1)→f(i,j−1)

= m

f(i−1,j−1)→x(i,j−1)

m

f(i,j−2)→x(i,j−1)

m

f(i+1,j−1)→x(i,j−1)

m

y(i,j−1)→x(i,j−1)

m

x(i,j−1)→f(i+1,j−1)

= m

f(i−1,j−1)→x(i,j−1)

m

f(i,j−2)→x(i,j−1)

m

f(i,j−1)→x(i,j−1)

m

y(i,j−1)→x(i,j−1)

La troisi`eme ´etape est :

m

f(i−1,j)→x(i,j)

=

X

v{x(i,j)}

m

x(i−1,j)→f(i−1,j)

f

(i−1,j)

(x[i, j])

= m

x(i−1,j)→f(i−1,j)

f

(i−1,j)

(x[i, j])

m

f(i,j−1)→x(i,j)

=

X

v{x(i,j)}

m

x(i,j−1)→f(i,j−1)

f

(i,j−1)

(x[i, j])

= m

x(i,j−1)→f(i,j−1)

f

(i,j−1)

(x[i, j])

(3.56)

La quatri`eme ´etape est :

m

x(i,j)→f(i,j)

= m

f(i−1,j)→x(i,j)

m

f(i,j−1)→x(i,j)

m

f(i+1,j)→x(i,j)

m

y(i,j)→x(i,j)

m

x(i,j)→f(i+1,j)

= m

f(i−1,j)→x(i,j)

m

f(i,j−1)→x(i,j)

m

f(i,j)→x(i,j)

m

y(i,j)→x(i,j)

(3.57)

Apr`es cette ´etape, le flux passe de droite `a gauche et de bas en haut.

Cette g´en´eralisation de MMC est en fait un mod`ele de champ al´eatoire de Markov (MRF).

La m´ethode de passage de message est appel´ee la propagation de croyance. Nous pouvons

esp´erer avoir un bon r´esultat avec ce mod`ele. Et la propagation de coˆuts ressemble `a la

m´ethode d’agr´egation des coˆuts de SGM (semi-global matching). Toutefois, le temps de calcul

sera ´elev´e et l’augmentation de pr´ecision au d´etriment du temps de calcul n’est pas le travail

principal de cette th`ese. Nous allons essayer de rapprocher cette m´ethode avec une m´ethode

de multiples passes de MMC qui a une impl´ementation rapide en GPGPU.