• Aucun résultat trouvé

Cette partie s’int´eresse `a diff´erentes mani`eres de pond´erer les appariements obtenus. Nous avons jusqu’ici utilis´e un poids unitaire pour le point le plus proche, et un poids nul pour les autres. Ceci est le principal responsable des probl`emes de r´ep´etabilit´e et robustesse de l’ICP. En effet, le crit`ere n’est lisse que par morceaux, il n’est lisse que dans les zones o`u l’estimation des appariements repr´esent´ee par A est constante. Mais chaque changement dans l’estimation de A traduit un changement brusque du point du mod`ele appari´e `a un point de la sc`ene, et donc un changement brusque du comportement du crit`ere, qui fait apparaˆıtre de multiples minima locaux.

Les techniques qui suivent visent `a ´eliminer ce probl`eme en introduisant au final un poids non-entier - et plus r´egulier vis `a vis de la transformation - aux diff´erents points du mod`ele appariables `a un point de la sc`ene, au lieu de ne garder que le plus proche. Elles introduiront de gros changements dans la premi`ere ´etape de l’algorithme, mais elles n’in-troduiront aucun changement dans la mise `a jour de la transformation, car nos techniques de calculs de la transformation fonctionnent avec des poids positifs (voir remarque `a la fin de 3.2.4).

Les techniques pr´esent´ees ici ont toutes ´et´e introduites par Rangarajan et al., `a partir de crit`eres modifi´es. Nous reviendrons dans le chapitre suivant sur l’une d’elle, l’EM, en justifiant les changements apport´es au crit`ere.

3.7.1 EM

L’algorithme EM tel que pr´esent´e ici a ´et´e introduit dans le cadre du recalage de nuages de points par Rangarajan [Chui and Rangarajan, 2000]. La premi`ere id´ee est d’utiliser des poids d’appariements non binaires : Aij peut maintenant prendre n’importe quelle valeur de l’intervalle [0,1]. Le poids total pour un point de la sc`ene doit toujours ˆetre ´egal `a 1 : P

jAij = 1. Le crit`ere `a minimiser est le crit`ere de l’ICP auquel on ajoute l’entropie des poids Aij: C(T,A) =X ij AijD(T ? si,mj) − αX ij Aijlog Aij

On minimise alors ce crit`ere par la m´ethode des multiplicateurs de Lagrange, pour prendre en compte la contrainte P

jAij = 1. On obtient alors pour l’´etape d’estimation de A :

Aij = Pexp (−D(T ? si,mj)/α)

kexp (−D(T ? si,mk)/α)

On obtient donc des poids gaussiens normalis´es. Le probl`eme avec cette fa¸con de pr´esenter l’EM est qu’elle ne donne aucun sens au param`etre α, et donc aucune mani`ere de le fixer. Nous reviendrons sur ce point au chapitre suivant.

une grande valeur `a α en d´ebut de recalage, et diminuer celle-ci ensuite. Ceci permet d’augmenter la robustesse en d´ebut de recalage.

3.7.2 EM Sym´etris´e

L’id´ee, introduite sous le nom de SoftAssign [Rangarajan et al., 1997a], est de sym´ e-triser l’EM en faisant jouer exactement le mˆeme rˆole `a la sc`ene et au mod`ele, pour que le r´esultat du recalage soit identique lorsqu’on inverse sc`ene et mod`ele. Pour cela, il faut tout d’abord g´erer les points aberrants de la mˆeme fa¸con pour les deux ensembles. On introduit donc un pseudo-appariement de la forme sout ∼ mj pour signifier que le point mj est un point aberrant. On introduit de mˆeme Aout j. Dans les notations qui suivent, sauf mention contraire, i d´ecrit l’ensemble {1,..,nS,out} et j l’ensemble {1,..,nM,out}. Le couple (i,j) ne sera jamais ˆetre ´egal `a (out,out), ce qui n’aurait aucun sens.

La configuration moyenne d’appariements ob´eit maintenant `a la double contrainte : (

∀i 6= out P

jAij = 1 ∀j 6= out P

iAij = 1 (3.9)

Le crit`ere est le mˆeme que pr´ec´edemment. Rangarajan explique, dans [Rangarajan et al., 1997b], comment optimiser ce crit`ere par rapport `a A sous la double contrainte. Tout d’abord, en utilisant la m´ethode des multiplicateurs de Lagrange, on trouve :

Aij = exp (−D(T ? si,mj)/α) νij

Les constantes νi et ρj doivent permettre de v´erifier la double contrainte 3.9. On ne peut h´elas les calculer directement, mais seulement de fa¸con it´erative, grˆace au th´eor`eme de Sinkhorn. On pose A0

ij = exp (−D(T ? si,mj)/α), soit ν0

i = 1 et ρ0

j = 1. A chaque it´eration I, on calcule AI+1/2ij en normalisant les colonnes de AI

ij, puis AI+1ij en normalisant les lignes de AI+1/2ij :

AI+1/2ij = A I ij P jAI ij soit νiI+1=X j exp (−D(T ? si,mj)/α) ρI j AI+1ij = A I+1/2 ij P iAI+1/2ij soit ρI+1j =X i exp (−D(T ? si,mj)/α) νiI+1

Le th´eor`eme de Sinkhorn montre que le r´esultat converge vers une matrice v´erifiant la contrainte.

Discussion Cette m´ethode est coˆuteuse `a impl´ementer. On est en effet oblig´e de stocker l’ensemble des poids des appariements pendant chaque it´eration, et appliquer le th´eor`eme de Sinkhorn, ce qui n´ecessite de nombreux calculs.

De plus, les hypoth`eses doivent aussi ˆetre sym´etriques : la sc`ene doit ˆetre sous-´echantillonn´e par rapport au mod`ele (hypoth`ese que nous avons toujours faite), et le mod`ele doit donc ˆetre aussi sous-´echantillonn´e par rapport `a la sc`ene, et on doit fina-lement avoir deux ensembles ´equivalents. Nous avons v´erifi´e exp´erimentalement que sur des ensembles trop dissemblables (comme les nˆotres), l’algorithme se comportait tr`es mal. On retrouve les mˆemes probl`emes avec d’autres algorithmes sym´etriques (notamment la variante de l’ICP bas´ee sur l’information mutuelle [Rangarajan et al., 1999]).

3.7.3 Entropie

Cette autre version sym´etrique, propos´ee dans la premi`ere partie de [Rangarajan et al., 1999] est bas´ee toujours sur le mˆeme crit`ere. Cependant la contrainte de normalisation fait cette fois intervenir la totalit´e des appariements :

X

ij

Aij = 1

Les poids sont alors donn´es par la formule suivante :

Aij = Pexp(−D(T ? si,mj)/α)

klexp(−D(T ? sl,mk)/α)

3.7.4 Discussion

Nous avons compar´e exp´erimentalement la pr´ecision (par la m´ethode de l’´etalon zinc, voir section 6.3.2.0) et la robustesse (par la m´ethode des cartes de convergence, voir section 6.2) de ces diff´erentes techniques sur des recalages entre nuages de Point´es per-op´eratoires en mode contact (voir section 1.5.3) contenant quelques dizaines de points et des acquisitions Picza `a diff´erentes r´esolutions (voir section 1.5.2).

Les r´esultats pr´esent´es dans la figure 3.5 montrent deux choses :

– En ce qui concerne la pr´ecision, l’EM semble le meilleur. La raison profonde est que sa r´ep´etabilit´e (voir 6.3.1) est quasi-nulle, contrairement `a celle de l’ICP qui est une source notable d’impr´ecision.

– Les algorithmes bas´es sur des poids non-unitaires ont des comportements tr`es proches. Ils ont permis une nette am´elioration de la robustesse. L’entropie est dans tous les cas plus mauvais que l’EM. Ceci peut s’expliquer par le fait que tous les points de la sc`ene ne se voient plus attribuer le mˆeme poids total P

points qui ont beaucoup de voisins sont favoris´es vis `a vis des points qui en ont peu, d´es´equilibrant ainsi l’importance de chaque point de la sc`ene.

Fig. 3.5 – Pr´ecision (´ecart-type en mm) et robustesse (pourcentage de convergences cor-rectes) des algorithmes ICP, EM et Entropie.

Notre conclusion est que l’EM est l’algorithme le plus prometteur pour les donn´ees sur lesquelles nous travaillons.