• Aucun résultat trouvé

1.3 Stéréophotométrie calibrée robuste

1.3.4 M-estimateurs

Une dernière classe d’estimateurs statistiques robustes est constituée par les esti- mateurs dits parcimonieux : l’objectif est alors de définir un estimateur maximisant le nombre de données conformes au modèle, plutôt que de minimiser l’écart quadratique moyen. De tels estimateurs sont adaptés aux données aberrantes, comme les ombres ou les reflets brillants, qui affectent en général un faible nombre de niveaux de gris par pixel.

L’estimateur parcimonieux est celui de la semi-norme 0 : min

m ki − Smk0 (1.47)

mais cette minimisation est difficile à réaliser numériquement, à cause de la non convexité de la semi-norme 0 (le problème est en fait NP-complet [42,186]). Dans la plupart des applications, une relaxation convexe du problème (1.47) est utilisée, comme par exemple le problème de la régression en norme 121 :

min

m ki − Smk1 (1.48)

21. En statistiques, la régression en norme 1 correspond à un modèle de distribution laplacienne et à une minimisation de l’écart absolu médian, tandis que les approches en moindres carrés correspondent à une distribution gaussienne et à une minimisation de l’écart quadratique moyen.

Cette minimisation peut être réalisée efficacement par la méthode du lagrangien aug-

menté [164], qui converge plus rapidement que les moindres carrés repondérés [43]. Par un raisonnement bayésien, Ikehata et al. ont également présenté dans [131] d’autres esti- mateurs parcimonieux censés surpasser la régression en norme 1. Les résultats présentés dans [131] montrent qu’avec un faible nombre d’images (m < 10), la régression en norme 1 fournit des résultats supérieurs à leurs extensions, tandis qu’à partir de m = 10, ces extensions n’améliorent que très légèrement les résultats. L’intérêt de ces estimateurs est donc discutable, d’autant qu’ils nécessitent de choisir avec précaution plusieurs pa- ramètres.

Il est également possible de proposer une interprétation fonctionnelle de l’estimateur en norme 1. Intéressons-nous pour cela au problème suivant, qui généralise (1.47) :

min m m X i=1 Φ(|Ii − si· m|) (1.49)

L’estimateur parcimonieux (1.47) correspond à ΦL0(s) = 1 −δ(s), où δ est la fonction de

Dirac. Choisir ΦLS(s) = s2revient à effectuer l’estimation en moindres carrés, ΦWLS(s) =

ws2 correspond aux moindres carrés pondérés, et ΦL1(s) = s à l’estimation en norme

1. Pour obtenir une estimation robuste, on doit choisir une fonction Φ présentant une croissance au moins linéaire en 0, de façon à amplifier l’influence des résidus faibles correspondant aux « bonnes » données, ce qui est le cas de ΦLS, ΦWLS et ΦL1, mais pas

de ΦL0, et au plus linéaire en +∞, de façon à limiter l’influence des données aberrantes,

ce qui est le cas de ΦL0 et ΦL1, mais pas des fonctions quadratiques ΦLS et ΦWLS.

Enfin, la non différentiabilité en 0 ne constitue pas un obstacle majeur, car elle peut être contournée en utilisant des méthodes proximales [199]. Les propriétés respectives des principaux estimateurs robustes sont synthétisées dans la table 1.1.

Φ(s) Sur-linéaritéen 0 Sous-linéarité

en +∞ Convexité Différentiabilité

ΦL0 1 − δ(s) Non Oui Non Non

ΦL1 |s| Oui Oui Oui Non

ΦLS s2 Oui Non Oui Oui

ΦM1 2

1 + s2− 2 Oui Non Oui Oui

ΦM2 ln 1 + s2 Oui Oui Non Oui

ΦM3

s2

1+s2 Oui Oui Non Oui

Table 1.1 – Propriétés de plusieurs M-estimateurs. L’estimateur en norme 1 constitue un compromis très acceptable, car sa non différentiabilité n’est pas rédhibitoire. Toute- fois, des résultats supérieurs sont souvent obtenus avec les estimateurs non convexes, même si leur non convexité représente une difficulté non négligeable.

1.3. STÉRÉOPHOTOMÉTRIE CALIBRÉE ROBUSTE Dans le vocabulaire des statisticiens, ce type d’estimation robuste est appelé M- estimation22 [130]. Mis à part les estimateurs en normes 0 et 1 discutés ci-dessus, les trois M-estimateurs les plus souvent rencontrés sont les suivants :

ΦM 1(s) = 2 p 1 + s2− 2 (1.50) ΦM 2(s) = ln(1 + s2) (1.51) ΦM 3(s) = s2 1 + s2 (1.52)

présentés, respectivement, dans [55], [115] et [96]. Le lecteur intéressé trouvera une ana- lyse détaillée de ces estimateurs dans [56].

Les différents estimateurs de la table1.1sont illustrés sur la figure1.22: l’estimateur ΦL1est, parmi les estimateurs convexes, le seul qui admette une croissance sur-linéaire en

0 et sous-linéaire en +∞, ce qui explique qu’il soit souvent utilisé. Notons toutefois qu’en dépit des difficultés numériques que pose la non convexité, il a été démontré récemment que les estimateurs non convexes étaient particulièrement adaptés à certains problèmes comme le débruitage d’images [158] ou l’intégration des normales [80].

−4 −2 0 2 4 0 2 4 6 8 10 s Φ ( s) ΦL0(s) ΦL1(s) ΦLS(s) ΦM1(s) ΦM2(s) ΦM3(s)

Figure1.22 – Graphes des différents M-estimateurs de la table 1.1. La sur-linéarité en 0 est essentielle pour garantir la robustesse de l’estimation à un bruit modéré : à part l’estimateur ΦL0, tous les estimateurs étudiés vérifient cette propriété. La sous-linéarité

en +∞ est, elle, nécessaire pour garantir la robustesse aux données aberrantes : ΦLS et ΦM 1 ne vérifient pas cette propriété. Enfin, la convexité est une propriété

essentielle du point de vue numérique : ΦL0, ΦM 2 et ΦM 3 ne sont pas des estima-

teurs convexes. Pour résumer, l’estimateur ΦL1semble constituer le meilleur compromis.

22. Le M est l’abréviation de Maximum de vraisemblance. Chacun de ces estimateurs est en effet l’es- timateur du maximum de vraisemblance pour une fonction de vraisemblance bien choisie. Par exemple, l’estimateur ΦL1 correspond à une distribution laplacienne, l’estimateur ΦLS à une distribution gaus-

La figure1.23montre les résultats obtenus par les estimateurs ΦL1, ΦM 1, ΦM 2et ΦM 3

sur le même jeu de données que celui de la figure 1.20. Dans ces tests, la minimisation est réalisée par itérations de type quasi-Newton (BFGS), en choisissant comme solution initiale la solution en moindres carrés.

0 5 10 15 20 5 10 15 20 (a) (b) 0 5 10 15 20 0 5 10 15 20 25 (c) (d)

Figure1.23 – Résultats obtenus sur le même jeu de données que celui de la figure1.20: (a) ΦL1 (EAM = 1, 09◦) ; (b) ΦM 1 (EAM = 1, 39◦) ; (c) ΦM 2 (EAM = 0, 58◦) ; (d) ΦM 3

(EAM = 1, 58).

Ces résultats confirment l’intuition selon laquelle l’estimateur ΦL1 constitue un ex-

cellent compromis entre sur-linéarité en 0, sous-linéarité en +∞ et convexité. L’estima- teur non convexe ΦM 2 offre cependant un niveau de précision encore supérieur, ce qui

confirme les résultats expérimentaux présentés dans [158] dans le cadre du débruitage d’images. Il est surprenant que l’estimateur ΦM 3 soit moins performant : nous verrons

dans le chapitre2que cet estimateur robuste est plus adapté à l’intégration des normales. Remarquons enfin que le bord du vase, où les ombres propres sont les plus présentes, pose toujours problème. Nous présentons dans le paragraphe suivant une méthode permettant de limiter ce biais.

1.3. STÉRÉOPHOTOMÉTRIE CALIBRÉE ROBUSTE