• Aucun résultat trouvé

2.4 Nouvelles méthodes d’intégration robustes

2.4.2 Modèle L 2 -TV

Au vu de la discussion menée dans le paragraphe 1.3.4, nous pouvons prédire que le choix Φ(s) = |s|dans (2.84) constitue un compromis très acceptable entre convexité du problème et robustesse. Il a de plus été établi dans [76] et dans [80] (au moyen d’une approximation différentiable de la norme 1) que l’intégration en norme 1 était nettement plus robuste aux discontinuités de profondeur que celle en moindres carrés.

Nous pouvons également justifier cette observation par la remarque suivante : il est bien connu en traitement d’images que la mesure de la variation totale isotrope :

TV(z) =ZZ

k∇z(u, v)kdudv (2.85)

possède des propriétés intéressantes relatives à la préservation des arêtes, et qu’elle tend à favoriser les solutions lisses par morceaux. En considérant les discontinuités de pro-fondeur comme le pendant en 3D des contours d’une image en 2D, il semble raisonnable de chercher à obtenir un résidu ∇zg¯ qui soit lui-même lisse par morceaux. Cette remarque nous invite à adapter le modèle de Rudin, Osher et Fatemi [226] au problème de l’intégration. En choisissant Φ(s) =|s|, le problème (2.84) devient :

minz

ZZ

(u,v)

k∇z(u, v)g(u, v)k+λ[z(u, v)−z0(u, v)]2 dudv (2.86) Nous présentons dans le prochain paragraphe un schéma numérique efficace pour ré-soudre (2.86).

(a) (b)

(c) (d)

Figure 2.7 – Intégration en moindres carrés pondérés à partir des données de la fi-gure2.5, sur un domaine rectangulaire (le champgest complété par des valeurs nulles en dehors du domaine de reconstruction). Reconstructions 3D (a) en moindres carrés [109]

et (b) en moindres carrés pondérés, en utilisant la pondération (2.80), qui dépend des niveaux de gris. Les deux reliefs sont similaires, sauf à proximité des discontinuités, ce qui est illustré par les gros plans (c) et (d). Voir également la figure 2.8.

Résolution par ADMM

Afin de résoudre numériquement le problème (2.86), nous choisissons une méthode de type « lagrangien augmenté ». Nous discrétisons pour cela (2.86) par le problème sous contrainte suivant :

minz,r

X X

(u,v)∈Ω

kr(u, v)k+λ[z(u, v)−z0(u, v)]2 s.c. r=∇z−¯g

(2.87)

où désormais, nous supposons pour simplifier que Ω = Ω+u ∩Ω+v, nous remplaçons le champ g par le moyennage suivant :

¯

g(u, v) = 1 2

"

¯ p(u, v)

¯ q(u, v)

#

(2.88)

Figure2.8 – Vue latérale de la reconstruction 3D en moindres carrés pondérés (pondé-ration (2.80)), calculée sur un domaine Ω non rectangulaire (i.e., sans complétion de g par des valeurs nulles), et relief réel vu sous un angle similaire.

où ¯p et ¯q sont définis, respectivement, en (2.62) et (2.63), et nous notons abusivement :

z(u, v) =

"

u+z(u, v)

v+z(u, v)

#

(2.89)

En introduisant une variable auxiliaire b13, le problème (2.87) peut être résolu ité-rativement par un schémaà direction de descente alternée(alternating direction method

13. Cette variable auxiliaire est fortement liée à ladistance de Bregman. Les approches fondées sur le lagrangien augmentée, qui datent des années 1970 [225], sont en effet équivalentes aux méthodes plus récentes de type itérations de Bregman [280]. Ces deux méthodes sont, en outre, des cas particuliers d’algorithmes proximaux. De la même façon, les schémas ADMM [34] correspondent aux itérations de type split-Bregman [104]. La formulation en termes d’itérations de Bregman semble cependant offrir certains avantages du point de vue numérique [279]. Les liens existant entre les approches fondées sur le lagrangien augmenté et celles fondées sur les itérations de Bregman sont discutés dans [86].

of multipliers, noté ADMM) [34] : rk+1(u, v) = argmin

rR2 krk+αrzk(u, v)−g(u, v)¯ −bk(u, v)2 (2.90) zk+1= argmin

z λkzz0k2L2(Ω)+αzrk+1+ ¯g+bk2

L2(Ω) (2.91)

bk+1=bk+rk+1− ∇zk+1+ ¯g (2.92)

à partir d’une solution initiale (r0, z0,b0) = (∇z0g, z¯ 0,0). Ce schéma comporte deux paramètres : λ>0 est un paramètre du modèle (2.86), fixé a priori ; en revanche,α est un paramètre du schéma, assimilable à une vitesse de descente.

La convergence des schémas de type ADMM peut être établie pour toute valeur de α [235] : le choix d’une valeur particulière pour α affecte uniquement la vitesse de convergence. On peut en outre montrer que le taux de convergence de ces schémas est ergodique, i.e. égal à O(1/k), et la méthode peut être accélérée pour atteindre un taux de convergence de O(1/k2) [103].

Le problème (2.90) est un problème de « poursuite de base » (base pursuit) [57], dont la solution est donnée, en chaque pixel, par l’opérateur de « seuillage doux » (les dépendances en (u, v) ont été omises pour des raisons de lisibilité, et pour montrer que ce seuillage est facile à paralléliser) :

rk+1 = ∇zk−¯gbk

k∇zk−¯gbkkmaxzk−¯gbk− 1

α,0 (2.93)

tandis que le problème (2.91) est un problème d’intégration en moindres carrés, dont nous avons déjà discuté abondamment la résolution numérique.

Remarquons que l’étape d’intégration en moindres carrés (2.91) doit être répétée un certain nombre de fois sur le même domaine. C’est précisément dans un tel cas qu’il est intéressant de recourir à l’approche itérative par gradient conjugué préconditionné.

En effet, seul le second membre du système à résoudre change au cours des itérations.

Le préconditionnement peut donc être effectué une fois pour toutes, et réutilisé sans nouveau calcul à chaque itération. Cela garantit des performances optimales, à la fois en termes de complexité algorithmique et d’occupation de la mémoire [152].

Mentionnons enfin deux autres méthodes que l’algorithme ADMM14 pour résoudre le problème (2.87) : l’algorithme FISTA proposé par Beck et Teboulle [27], dont le taux de convergence est théoriquement équivalent, mais qui est généralement plus rapide et ne dépend pas du choix d’un paramètre de descente tel que α, et les approches primales-duales [47,288].

14. Pour une étude plus générale de ces algorithmes, nous renvoyons le lecteur aux deux monographies proposées par Boyd et al. [34,199] qui traitent, respectivement, des méthodes ADMM et des opérateurs proximaux, ainsi qu’à [235] pour les preuves de convergence de plusieurs schémas numériques.

Résultats expérimentaux

Nous avons évalué l’algorithme ADMM dans [211] sur des champs de gradient obtenus par stéréophotométrie à partir des jeux de données réelles Scholar15 (cf. figure 2.9) et Beethoven16 (cf. figure 2.10). Pour mettre en évidence la robustesse aux discontinuités de profondeur, nous avons appliqué la méthode sur le domaine rectangulaire entier, en complétantg par des valeurs nulles.

Sur ces deux exemples, un artéfact en forme d’escalier apparaît en arrière-plan. Cet effet staircase est bien connu dans le contexte du débruitage : en adaptant les schémas fondés sur la variation totale généralisée [37], nous pourrions certainement nous en dé-barrasser. Nous proposons dans le prochain paragraphe une autre piste, fondée sur la régularisation non convexe. Cependant, cet effet n’est visible que sur l’arrière-plan, et ne doit donc pas être considéré comme réellement dommageable, puisque l’intégration peut être réalisée sur des domaines non rectangulaires : pour l’éviter, il suffirait de segmenter (par exemple, manuellement) l’objet dont on cherche à estimer le relief.

2.4.3 M-estimateurs

L’approche ADMM permet d’étendre très facilement l’intégration robuste aux es-timateurs ΦM1, ΦM2 et ΦM3 dont nous avons donné les définitions en (1.50), (1.51) et (1.52). Ce type d’estimateurs a déjà été adapté par Durou et al. [80] à l’intégration des normales, en modifiant la méthode itérative de Jacobi conçue par Horn et Brooks pour l’intégration en moindres carrés [126]. Plus généralement, le problème de l’intégra-tion robuste peut s’écrire sous la forme suivante, qui généralise (2.87) :

et être résolu par le schéma numérique suivant : rk+1(u, v) = argmin La convergence (ergodique) de ce schéma est garantie dès lors que Φ est convexe, ce qui n’est le cas ni de ΦM2, ni de ΦM3. Comme cela a été montré expérimentale-ment dans [80], des résultats satisfaisants peuvent toutefois être obtenus dans le cas non

15. http://vision.seas.harvard.edu/qsfs/Data.html

16. http://www.ece.ncsu.edu/imaging/Archives/ImageDataBase/Industrial/

Figure 2.9 – Résultat de l’approche L2-TV (2.86) sur le jeu de données Scholar. Pre-mière ligne : trois des m= 20 photographies prises sous différents éclairages. Deuxième ligne : reconstruction 3D obtenue en intégrant les normales à l’aide du schéma ADMM.

Un escalier est clairement visible sur cet exemple. Comme il affecte uniquement l’arrière-plan, il aurait suffi de segmenter le premier-plan pour l’éviter.

convexe, pourvu que la solution soit initialisée de façon appropriée, par exemple par la solution du problème en moindres carrés (2.61). Lorsque la fonction Φ n’est pas convexe, la convergence de l’algorithme ADMM vers le minimum global dépend du choix de α, qui doit être choisi suffisamment grand pour éviter les minima locaux [124].

Il est malheureusement difficile de prédire la convergence. Cela constitue à notre connaissance un problème ouvert, même si des efforts ont été déployés récemment dans ce sens [166]. Par ailleurs, le cas de fonctions Φ non convexes a été étudié très ré-cemment par Lanza et al. dans [158] dans le cadre du débruitage d’images, qui est un problème très similaire à celui de l’intégration. Cette étude tend à confirmer l’intérêt qu’il y a à utiliser des fonctions Φ non convexes, sachant que le caractère « simple » des sous-problèmes (2.95) et (2.96) est la propriété essentielle qui permet au schéma ADMM d’être convergent (sans que cette propriété soit pour autant garantie). Le sous-problème (2.96) ayant déjà été étudié dans le cadre de l’intégration en moindres carrés,

Figure 2.10 – Résultat de l’approche L2-TV (2.86) sur le jeu de données Beethoven.

Première ligne : les m = 3 photographies acquises sous différents éclairages. Deuxième ligne : reconstruction 3D obtenue en intégrant les normales à l’aide du schéma ADMM.

Sur cet exemple également, un escalier apparaît sur l’arrière-plan.

focalisons-nous maintenant sur la recherche d’une méthode de résolution efficace du sous-problème (2.95).

Lorsque la fonction Φ du problème (2.94) est telle que Φ(s) = |s| ou Φ(s) = s2, le problème (2.95) est non seulement convexe, mais admet même une solution analytique.

Le cas oùP P(u,v)Φ(kr(u, v)k) constitue une normeLp,0< p <1, qui est un cas non convexe, a également été traité par Badri et al. [17]. Dans le cas général, il est toujours possible d’approcher la solution de (2.95) par des itérations de type Gauss-Newton, en remarquant que le gradient enrde la fonctionEΦ(r, u, v) définie en (2.98) s’écrit :

rEΦ(r, u, v) = Φ(krk)

krk r+ 2αhrzk(u, v)−¯g(u, v)bk(u, v)i (2.99) mais il serait bien sûr préférable de disposer d’une solution explicite du problème (2.95), ce que nous allons faire pour les trois M-estimateurs suivants, dont les définitions

géné-ralisent celles du paragraphe 1.3.4:

Φ1(s) =qβ2+s2−1 (2.100)

Φ2(s) = 1

2ln(β2+s2) (2.101)

Φ3(s) = 1 2β2

s2

β2+s2 (2.102)

Leurs dérivées s’écrivent :

Φ1(s) = s

pβ2+s2 (2.103)

Φ2(s) = s

β2+s2 (2.104)

Φ3(s) = s

2+s2)2 (2.105)

La forte similarité entre ces trois expressions suggère d’utiliser la même stratégie pour les trois estimateurs. En effet, le gradient (2.99) se simplifie pour ces trois fonctions :

rEΦ(r, u, v) = 1

2+krk2)pr+ 2αhrzk(u, v)−g(u, v)¯ −bk(u, v)i (2.106) avec p= 1/2 pour Φ = Φ1,p= 1 pour Φ = Φ2 etp= 2 pour Φ = Φ3.

Dans [80], le problème (2.94) est résolu par un schéma semi-implicite, qui consiste à rendre la partie linéaire implicite mais à garder la partie non linéaire explicite, i.e. à faire l’approximation suivante de (2.106) :

rEΦ(r, u, v)≈ 1

2+krk(u, v)k2)p

| {z }

Facteur constant

r+ 2αhrzk(u, v)−g(u, v)¯ −bk(u, v)i (2.107)

de sorte que la mise à jour (2.95) s’écrit explicitement : rk+1(u, v) = 2αβ2+krk(u, v)k2p

1 + 2α(β2+krk(u, v)k2)p

zk(u, v)−g(u, v)¯ −bk(u, v) (2.108)

Nous avons observé expérimentalement que l’algorithme ADMM semblait converger pour les fonctions non convexes Φ2et Φ3, dès lors queαest choisi suffisamment grand (il est fixé à 0,5 dans nos tests). Contrairement aux observations de Durou et al. dans [80], nous avons également remarqué que l’initialisation n’avait pas d’influence sur le résultat, mais uniquement sur la vitesse de convergence : outre de meilleures performances en termes de temps de calcul, l’algorithme ADMM que nous proposons semble donc éviter les minima locaux. Quant au paramètreβ, sa valeur a une influence directe sur le résultat.

Il semble que le choix d’une valeur faible pour β permette d’obtenir des arêtes plus saillantes, tout en accélérant la convergence (cf. figure 2.11).

β L2-TV Φ1 Φ2 Φ3

0,1

50 it. (2,76 s) 13 it. (0,79 s) 102 it. (4,71 s) 63 it. (3,34 s)

0,5

13 it. (0,78 s) 175 it. (7,32 s) 81 it. (3,94 s)

1

14 it. (0,85 s) 23 it. (1,34 s) 188 it. (7,86 s) Figure2.11 – Reconstruction du buste de Beethoven par l’algorithme ADMM, à partir de la solution initialez0=z0 ≡0, avecα= 0,5. La solutionL2-TV, qui fait apparaître un escalier, est montrée en guise de comparaison. La fonction convexe Φ1 ne permet pas de retrouver les discontinuités, contrairement aux fonctions non convexes Φ2 et Φ3. La fonction Φ3 offre une meilleure robustesse que Φ2au choix du paramètreβ, mais le choix de Φ2 peut être justifié par un raisonnement statistique (cf. paragraphe2.2.1).