• Aucun résultat trouvé

2.2 Cadre général de l’estimation

2.2.2 Méthodes directes

2.2.2.3 Méthodes d’optimisation

Lois de mise à jour. Pour minimiser le critère SSD des approches directes donné par l’équation (2.2), deux lois de mise à jour sont possibles : la mise à jour additive et la mise à jour composition- nelle. La première s’applique dans l’espace des paramètres : u ← u + ∆u tandis que la deuxième se fait dans l’espace des transformations :

W(q; u) ← W(q; u) ◦ W(q; ∆u). (2.10)

Les deux lois de mises à jour sont compatibles avec les différentes approximations de la fonction coût présentées §1.6 comme par exemple Gauss-Newton. Les lois de mise à jour additive et compositio- nelle appliquées au critère SSD donnent :

Mise à jour additive P

q∈RkI(W(q; u + ∆u)) − I0(q)k 2

(2.11) Mise à jour compositionnelle P

q∈RkI(W(W(q; ∆u); u)) − I0(q)k 2

. (2.12)

Pour la loi de mise à jour additive l’incrément des paramètres ∆u est estimé autour des paramètres courant u tandis que pour la mise à jour compostionnelle, il est estimé autour des paramètres de référence u0. On parle alors de recalage local.

Approches compositionelles directe et inverse. Elles différent au niveau du « sens » du recalage lo- cal. D’après l’equation 2.12, l’incrément des paramètres ∆u est évalué en recalant localement l’image

IW = I(W(·; u)) sur l’image de référence I0. On parle de recalage local direct. Une autre possibi-

lité est de localement recaler l’image de référence I0 sur l’image IW (Baker and Matthews, 2004).

On parle alors de recalage local inverse. Il en résulte la loi de mise à jour compositionnelle inverse donnée par :

W(q; u) ← W(q; u) ◦ W(q; ∆u)−1. (2.13) La différence avec la mise à jour compositionnelle directe est l’inversion de la transformation locale

W(q; ∆u) avant la composition.

Le critère SSD (2.2) associé à une loi de mise à jour compositionelle et à un recalage local inverse est donné par :

X

q∈R

kI0(W(q; ∆u)) − I(W(q; u))k 2

. (2.14)

D’un point de vue schématique, les algorithmes à mise à jour compositionnelle (directe et inverse) se décomposent en trois étapes :

B Etape 1 : Recalage global. La transformation courante W(·; u) est utilisée pour engendrer l’image IW : IW = I(W(q; u)).

B Etape 2 : Recalage local. La transformation locale W(·; ∆u) recalant l’image IW sur l’image

de référence I0 ou I0 sur IW est estimée.

B Etape 3 : Mise à jour. La transformation finale est obtenue par (2.10) ou respectivement par (2.13).

L’avantage de la mise à jour compositionnelle est qu’elle peut introduire, sous certaines condi- tions, une matrice Jacobienne constante : le recalage local doit être inverse et la fonction de coût approximée par Gauss-Newton. En contrepartie, les opérations de composition et / ou d’inversion font que ces algorithmes ne peuvent être appliqués qu’avec des transformations formant un groupe, par exemples homographies, affinités, etc. La figure 2.4 illustre le principe de la loi de mise à jour compositionelle en comparaison de la loi additive.

Ci-dessous nous décrivons brièvement des exemples algorithmes d’optimisation utilisés pour mi- nimiser le critère (2.2). Ils diffèrent du point de vue de la loi de mise à jour et de l’approximation de la fonction de coût.

Gauss-Newton additif. L’algorithme Gauss-Newton additif est très fréquemment utilisé pour mi- nimiser le critère (2.2). Il est souvent préféré à l’algorithme Levenberg-Marquardt additif. Leurs pro- priétés de convergence sont semblables (Baker and Matthews, 2004).

Mise à jour Recalage global Recalage local inverse Recalage local direct W(q; u) I I0 W(q; ∆u)−1 W(q; ∆u) W (q;u) ◦ ½W (q;∆u ) W (q;∆u )−1 IW Mise à jour W(q; u + ∆u) W(q; u) I0 I

FIG. 2.4 – Comparaison des lois de mises à jour additive et compostionnelle. A gauche : la mise à jour compositionnelle, l’estimation de l’incrément ∆u se fait localement autour des paramètres de l’image de référence u0. La mise à jour se fait par composition dans l’espace des transformations. A

droite : l’approche additive, l’estimation de l’incrément ∆u se fait autour des paramètres courants u, la mise à jour est additive dans l’espace des paramètres.

Sens direct Sens inverse

mise à jour additive DA "Direct Additive" ×

mise à jour compositionelle DC "Direct Compositionnal" IC "Inverse Compositionnal" TAB. 2.1 – Les différentes terminologies utilisées pour nommer les algorithmes minimisant le critère

SSD. Notons qu’un algorithme de type "Inverse Additive" est proposé dans (Hager and Belhumeur, 1998).

L’approximation de Gauss-Newton appliquée à l’équation (2.11) donne :

X q∈R I(W(q; u)) + g T(q; u)∆u − I 0(q) 2 . (2.15)

La matrice Jacobienne est obtenue en rassemblant les vecteurs gradients gT(q; u). Ces derniers sont donnés par le produit entre le gradient de l’image courante I évaluée en W(q; u) et le gradient de la transformation W évaluée aux paramètres courants u et au pixel q :

gT(q; u) = ∇IT|W(q;u)

∂W ∂u |(q;u).

Nous appelons cet algorithme DA-GN pour "Direct Additive Gauss-Newton". La première lettre est relative au sens du recalage (relatif aux rôles de l’image de référence et de l’image courante dans la fonction de coût) et la deuxième au type de mise à jour. Le tableau 2.1 récapitule les différentes terminologies utilisées en fonction de la loi de mise à jour et du sens du recalage.

Le tableau 2.2 récapitule les étapes de l’algorithme DA-GN. Les performances de cet algorithme sont comparées, au chapitre 3, avec celles des algorithmes de recalage d’images guidés par primitives que nous proposons. Il est également utilisé au chapitre 4 pour minimiser la fonction de coût proposée pour la gestion des auto-occultations en recalage d’images.

Efficient Second Order Minimisation additif. L’approximation de l’équation (2.11) par ESM donne :

En ligne

B Recaler par W(q; u) l’image courante sur l’image de référence : I(W(q; u)). B Calculer l’image de différence D(q) = I(W(q; u)) − I0(q).

B Évaluer le gradient de l’image courante ∇I à W(q; u). B Évaluer le gradient de la transformation ∂W∂u à (q; u). B Calculer les vecteurs gradients gT(q; u) = ∇IT|

W(q;u)∂W∂u|(q;u).

B Former la matrice Jacobienne J en rassemblant les vecteurs gradients gT(q; u). B Calculer l’approximation de Gauss-Newton de la matrice Hessienne H = JTJ .

B Calculer b = JTD.

B Calculer ∆u = −H−1JTb.

B Mettre à jour les paramètres courants u ← u + ∆u.

TAB. 2.2 – Les différentes étapes d’une itération de l’algorithme DA-GN.

X q∈R I(W(q; u)) + 1 2(g T(q; u) + gT 0(q; u0))∆u − I0(q) 2 ,

Avec gT0(q; u0) les vecteurs gradients évalués au niveau de l’image de référence. Ils sont obtenus

par le produit entre le gradient de l’image de référence I0 évalué en W(q; u0) et le gradient de la

transformation W évalué à (q; u0) : gT0(q; u0) = ∇IT0|W(q;u0) ∂W

∂u|(q;u0). Avec u0 les paramètres de

la transformation identité : W(q; u0) = q.

La matrice Jacobienne introduite n’est pas constante puisque gT(q; u) dépend des paramètres cou- rants, l’une de ses composantes peut être néanmoins estimée hors ligne. Dans la suite du mémoire, afin d’être consistant avec nos notations, nous appelons cet algorithme DA-ESM pour "Direct Addi- tive Efficient Second order Minimisation". Notons que l’approximation de ESM est combinée avec une loi de mise à jour compositionnelle dans (Benhimane and Malis, 2004; Silveira and Malis, 2007). Il en résulte l’algorithme DC-ESM "Direct Compositionnel Efficient Second order Minimisation". Le tableau 2.3 récapitule les étapes de l’algorithme DA-ESM. Les performances de cet algorithme sont comparées, au chapitre 3, avec celles des algorithmes de recalage d’images guidés par primitives que nous proposons.

Gauss-Newton compositionnel inverse. En appliquant l’approximation de Gauss-Newton à (2.14) on obtient : X q∈R I0(W(q; u0)) + g T

0(q; u0)∆u − I(W(q; u))

2

. (2.16)

La matrice Jacobienne J0, obtenue en rassemblant les vecteurs gradients gT0(q; u0), ne dépend

plus des paramètres courants u : elle est constante et peut donc être calculée hors ligne. La variation locale des paramètres est donnée par :

∆u = −J0†(I0(q) − I(W(q; u)).

Nous appelons cet algorithme IC-GN pour "Inverse Compositionnal Gauss-Newton". Ses différentes étapes sont récapitulées sur le tableau 2.4.

Hors ligne

B Évaluer le gradient de l’image de référence ∇I0 à W(q; u0) = q.

B Évaluer le gradient de la transformation ∂W∂u à (q; u0).

B Calculer les vecteurs gradients gT0(q; u0) = ∇IT0|W(q;u0)∂W∂u|(q;u0).

En ligne

B Recaler par W(q; u) l’image courante sur l’image de référence : I(W(q; u)). B Calculer l’image de différence D(q) = I(W(q; u)) − I0(q).

B Évaluer le gradient de l’image courante ∇I à W(q; u). B Évaluer le gradient de la transformation ∂W∂u à (q; u).

B Calculer les vecteurs gradients gT(q; u) = ∇IT|W(q;u)∂W∂u|(q;u).

B Former la matrice Jacobienne J en rassemblant les vecteurs gradients 12(g

T(q; u) +

gT0(q; u0)).

B Calculer l’incrément ∆u = −J†D.

B Mettre à jour les paramètres courants u ← u + ∆u.

TAB. 2.3 – Les différentes étapes d’une itération de l’algorithme DA-ESM.

Hors ligne

B Évaluer le gradient de l’image de référence ∇I0 à W(q; u0) = q.

B Évaluer le gradient de la transformation ∂W∂u à (q; u0).

B Calculer les vecteurs gradients gT0(q; u0) = ∇IT0|W(q;u0) ∂W

∂u|(q;u0).

B Former la matrice Jacobienne J0en rassemblant les vecteurs gradients gT0(q; u0).

B Calculer la pseudo inverse de J0: J0.

En ligne

B Recaler par W(q; u) l’image courante sur l’image de référence : I(W(q; u)). B Calculer l’image de différence D(q) = I0(q) − I(W(q; u)).

B Calculer l’incrément ∆u = −J0†D.

B Mettre à jour la transformation courante :W(q; u) ← W(q; u) ◦ W(q; ∆u)−1.