• Aucun résultat trouvé

Théorie semi-quadratique, régularisation et estimation robuste

N/A
N/A
Protected

Academic year: 2021

Partager "Théorie semi-quadratique, régularisation et estimation robuste"

Copied!
18
0
0

Texte intégral

(1)

1

Chapitre 1

Th ´eorie semi-quadratique,

r ´egularisation et estimation robuste

Pierre Charbonnier, Jean-Philippe Tarel Sio-Song Teng

1.1

Introduction

Les images num ´eriques ont de plus en plus de domaines d’application de nos jours. Il convient d’ailleurs de prendre le mot “image” au sens large de cartographie d’une propri ´et ´e physique, ´eventuellement complexe ou vectorielle, en tout cas non limit ´ee `a l’intensit ´e photom ´etrique. Ces images doivent souvent ˆetre obtenues par le calcul, `a partir de donn ´ees issues de capteurs, voire `a partir d’autres images. Les images optiques elle-m ˆemes sont issues de syst `emes imageurs qui peuvent introduire du flou ou des perturbations al ´eatoires – le bruit – dont il convient de les d ´ebarrasser pour les rendre exploitables. On peut parler, de mani `ere g ´en ´erique, de reconstruction d’image. Le terme vision par ordinateur, quant `a lui, regroupe les techniques visant `a ana-lyser automatiquement les images afin d’en ressortir des informations utilisables par des syst `emes de d ´etection, de commande ou de reconnaissance. L’approche clas-sique consiste `a extraire dans les images des primitives g ´eom ´etriques qui sont ensuite abstraites, gr ˆace `a l’utilisation de mod `eles math ´ematiques. Il s’agit alors d’estimer les param `etres permettant d’ajuster au mieux un mod `ele aux donn ´ees observ ´ees. Plus r ´ecemment, on a vu apparaˆıtre des m ´ethodes, rendues accessibles par la mont ´ee en puissance des ordinateurs, qui utilisent l’ensemble des valeurs de l’image. Elles capturent l’apparence globale des objets `a travers des mod `eles statistiques. L’analyse d’une image implique, l `a encore, un ajustement de param `etres.

Ces deux types d’applications, reconstruction et analyse d’images, peuvent sembler tr `es diff ´erents. Dans les deux cas, cependant, on peut consid ´erer que les donn ´ees p auxquelles nous avons acc `es sont une r ´ealisation bruit ´ee d’une relation fonctionnelle R(f) dont on souhaite estimer les param`etres f. Pour r´esoudre ce probl`eme inverse, il est n ´ecessaire d’introduire des connaissances sur le bruit. De plus, il est souvent sou-haitable – et parfois n ´ecessaire – d’introduire une connaissance a priori sur la nature de la solution recherch ´ee, on parle alors de r ´egularisation. Le cadre bayesien est le plus g ´en ´erique pour sp ´ecifier ces informations de nature statistique.

(2)

Le paragraphe 1.2 est consacr ´e `a la description du mod `ele et des principaux es-timateurs associ ´es. Nous verrons ´egalement que les hypoth `eses gaussiennes classi-quement utilis ´ees sont inadapt ´ees. Ainsi, dans le cas de l’estimation de param `etres, elles ne permettent pas de g ´erer correctement la pr ´esence de donn ´ees erron ´ees. En reconstruction d’image, elles entraˆınent un lissage excessif des contours. Nous propo-sons au paragraphe 1.3 une pr ´esentation unifi ´ee de mod `eles bas ´es sur des densit ´es de probabilit ´e non gaussiennes (ou d’ ´energies non quadratiques). Ces mod `eles per-mettent de rel ˆacher le comportement gaussien lorsque cela devient n ´ecessaire. La th ´eorie semi-quadratique pr ´ecise les conditions `a imposer aux fonctions employ ´ees pour autoriser un tel comportement. On montre que cela revient `a introduire une va-riable auxiliaire dont le r ˆole est `a la fois de “marquer” les donn ´ees et de lin ´eariser le probl `eme, simplifiant ainsi l’algorithmique associ ´ee. Nous illustrons au paragraphe 1.4 deux applications d’estimation robuste de param `etres dans le cadre de la d ´etection automatique de la signalisation routi `ere. Nous montrons ´egalement le gain de qualit ´e obtenu en reconstruction d’image r ´egularis ´ee.

1.2

Le mod `ele classique et ses limites

1.2.1 Mod `ele g ´en ´eratif lin ´eaire

Dans un premier temps, on se donne un mod `ele d ´eterministe de formation des donn ´ees, ou mod `ele g ´en ´eratif. Dans la pratique, un mod `ele lin ´eaire s’av `ere souvent suffisant et on ´ecrira cette relation (en variables discr `etes) :

p = Rf. (1.2.1)

La forme de la matrice R, connue, d ´epend de l’application trait ´ee. Dans le cas de la re-construction d’image, les donn ´eesp et l’image inconnue, f , sont arrang ´ees sous forme de vecteurs par ordonnancement lexicographique. Le vecteur p peut ˆetre vu comme une somme des colonnes de la matrice R, chacune ´etant pond ´er ´ee par la valeur du pixel de f correspondant. On comprend ainsi que chaque colonne de R repr ´esente la fonction d’ ´etalement d’un point de l’espace objet (en anglais Point Spread Function ou PSF). Ce mod `ele s’applique par exemple au cas de la tomographie, o `u la PSF est diff ´erente pour chaque point. Cela peut ´egalement ˆetre le cas en d ´econvolution mais, la plupart du temps, la PSF est invariante spatialement. Dans le cas du d ´ebruitage, la matriceR est simplement ´egale `a l’identit ´e.

En ce qui concerne l’analyse d’images, prenons l’exemple de la r ´egression quadra-tique. On dispose d’une liste de coordonn ´ees {xi, yi}i=1···N de points d’int ´er ˆet, extraits

d’une image par un d ´etecteur, et que l’on suppose align ´es selon une courbe. Une re-lation sous-jacente de la forme y = a + bx + cx2 est v ´erifi ´ee pour chaque couple de

coordonn ´ees. La relation (1.2.1) s’ ´ecrit donc en collectant les ordonn ´ees {yi} dans

le vecteur p. Les inconnues, a, b et c forment le vecteur f et la matrice R est form ´ee d’un vecteur de 1, du vecteur des abscisses{xi}, et du vecteur des monˆomes de degr´e

deux{x2i}. Ce mod`ele peut ais´ement ˆetre ´etendu `a des combinaisons lin´eaires d’autres fonctions que les mon ˆomes. On peut ainsi mod ´eliser des relations non lin ´eaires entre les coordonn ´ees, mais le mod `ele g ´en ´eratif (1.2.1) demeure lin ´eaire par rapport `af .

Le mod `ele (1.2.1) r ´esume la partie d ´eterministe de la connaissance que l’on peut avoir du processus de formation des donn ´ees. Il est cependant incomplet, car il ne tient pas compte de la nature des perturbations al ´eatoires sur l’observation, ou bruit. Tr `es

(3)

1.2 Le mod `ele classique et ses limites 3

souvent, celui-ci est consid ´er ´e additif et ind ´ependant def et (1.2.1) devient alors :

p = Rf + n. (1.2.2)

Dans le cadre de l’estimation bayesienne, on adjoint `a ce mod `ele des informations de nature statistique, sur les diff ´erentes variables qui interviennent.

1.2.2 Structure probabiliste et estimation bayesienne

Une premi `ere densit ´e de probabilit ´e int ´eressante traduit le caract `ere al ´eatoire des mesures : P(p|f). Elle quantifie la vraisemblance d’une observation connaissant les valeurs des param `etres. Il s’agit en fait de la densit ´e de probabilit ´e du bruit, n = p − Rf . Une hypoth `ese tr `es classique consid `ere que le bruit est additif, gaussien, centr ´e, isotrope, ind ´ependant et identiquement distribu ´e (iid). Dans ce cas :

P(p|f) ∝ exp  − 1 2σ2kp − Rfk 2  . (1.2.3)

On peut rechercher les param `etres rendant la plus plausible l’observation en maximi-sant la vraisemblance. Dans le cas gaussien, on retrouve l’estimateur classique des moindres carr ´es :

ˆ f = arg min f 1 2σ2kp − Rfk 2. (1.2.4)

L’estimateur du maximum de vraisemblance (MV) a de bonnes propri ´et ´es statistiques [Kay93]. Cependant, il consid `ere la variablef comme un param `etre d ´eterministe. Au contraire,

l’approche bayesienne consid `ere f comme une variable al ´eatoire dont la distribution P(f) traduit la connaissance a priori sur la solution recherch´ee. Dans ce cadre, la probabilit ´e associ ´ee `a p est obtenue en int ´egrant par rapport `a f la vraisemblance conjointe : P(p) = Z P(p, f) df = Z P(p|f) P(f) df. (1.2.5)

Cependant, cette int ´egrale est souvent inexploitable analytiquement et on a recours `a une estimation ponctuelle qui correspond implicitement `a une approximation classique en inf ´erence bayesienne. Elle consid `ere que la distribution conjointe est suffisamment “piqu ´ee” pour qu’on puisse approcher son int ´egrale par la hauteur du pic multipli ´ee par sa “largeur”, σpic : P(p) ≃ σpic maxfP(p, f) ∝ P(p| ˆf ) P( ˆf ), o `u l’estim ´ee ˆf est donn ´ee

par :

ˆ

f = arg max

f P(p|f) P(f).

(1.2.6) La distribution maximis ´ee ´etant proportionnelle `a la loi a posteriori P(f|p), cet estima-teur est appel ´e maximum a posteriori (MAP). Les connaissances a priori sur f prises en compte par le MAP peuvent s’av ´erer tr `es utiles dans des probl `emes d’estimation comme la r ´egression, par exemple. On peut ainsi limiter la sensibilit ´e aux bruits, l’in-fluence des forts degr ´es ou bien contraindre les coefficients de la courbe autour d’une valeur connue ou pr ´edite, notamment dans le cas d’un algorithme de suivi. Pour cela, on impose `af une densit ´e de probabilit ´e, par exemple gaussienne, N ( ¯f , Σ) :

P(f) ∝ exp  −1 2(f − ¯f ) T Σ−1(f − ¯f )  . (1.2.7)

(4)

En reconstruction d’image, introduire une information a priori est non seulement utile, mais absolument n ´ecessaire. En effet, les probl `emes inverses rencontr ´es sont en g ´en ´eral mal pos ´es et la r ´esolution au sens des moindres carr ´es est instable. Une tech-nique classique, la r ´egularisation de Tikhonov, p ´enalise la norme def ou, plus souvent, celle de son gradient. Cela revient ´egalement `a introduire un a priori gaussien :

P(f) ∝ exp 

12k∇fk2 

. (1.2.8)

Dans le cas de distributions gaussiennes, en passant au logarithme dans (1.2.6), on retrouve l’estimateur des moindres carr ´es p ´enalis ´es. Soit, dans l’exemple ci-dessus, en collectant les constantes :

ˆ

f = arg min

f |p − Rfk

2+ λ2k∇fk2. (1.2.9)

Lorsque la contrainte porte sur f et non sur son gradient, on retrouve le filtre classique de Wiener. Notons que l’estimation au sens du MV peut ˆetre vue comme le cas limite du MAP o `uP(f) est uniforme.

1.2.3 Limites des estimateurs gaussiens

Les densit ´es de probabilit ´e mises en jeu dans le cadre de l’estimation bayesienne sont souvent de forme gaussienne :

P(u) ∝ exp −1 2 N X i=1 u2 i ! , (1.2.10)

o `u la variable muetteuipeut repr ´esenter soit un r ´esiduni = (p− Rf)i (cas de

l’estima-tion) soit la valeur d’un pixelfi, d’une composante ou de la norme du gradient :(∇xf )i,

(yf )i ou(|∇f|)i(cas de la r ´egularisation, cf.§1.4.3). Maximiser P(u) est ´equivalent `a

minimiser une forme quadratique :

J(u) = 1 2 N X i=1 u2i. (1.2.11)

Malheureusement, ce type de mod `ele est notoirement sensible aux fortes d ´eviations ui. Prenons l’exemple de la r ´egression lin ´eaire (cf. figure 1.1). La pr ´esence d’une seule

donn ´ee erron ´ee suffit `a cr ´eer une valeur forte de r ´esidu. L’algorithme charg ´e de mini-miser J(u) a tendance `a limiter en priorit ´e ce r ´esidu de la seule fac¸on possible, c’est-`a-dire en agissant sur les coefficients f du mod `ele. On dit que le point de rupture de cet estimateur est de 0 : une seule donn ´ee erron ´ee suffit `a modifier le r ´esultat de l’estimation.

Dans le cas de la r ´egularisation, la fonction quadratique s’oppose `a la cr ´eation de forts gradients dans la solution. Celle-ci aura donc un aspect trop lisse (cf. fig. 1.4.3(e) ou 1.8(c)). On souhaiterait, au contraire, obtenir une solution form ´ee de r ´egions lisses, s ´epar ´ees par des bords francs.

Le probl `eme inh ´erent au mod `ele gaussien est qu’il ne consid `ere qu’un seul type de donn ´ees alors qu’il y en a deux, en r ´ealit ´e. Dans le cas de la r ´egression, on distingue les donn ´ees conformes au mod `ele (ou “inlier”) qui correspondent aux r ´esidus faibles tandis que les donn ´ees erron ´ees (ou “outlier”) entraˆınent de fortes d ´eviations. Il s’agit

(5)

1.3 Th ´eorie semi-quadratique 5 0 5 10 15 20 0 5 10 15 20 y=0.36 x + 5.84 y=0.51 x + 4.96

FIGURE1.1 – Influence d’une donn ´ee erron ´ee sur l’estimation de param `etres au sens des moindres carr ´es : la droite de r ´egression en pointill ´es correspond `a la s ´erie marqu ´ees par des points, celle en trait plein correspond `a la s ´erie marqu ´ee par des cercles.

de trouver un moyen de limiter l’influence des donn ´ees erron ´ees sur l’estimation. Dans le cas de la r ´egularisation par le gradient, les valeurs faibles du gradient correspondent au bruit, qu’il convient de lisser, tandis que les grandes valeurs correspondent aux dis-continuit ´es ou contours pr ´esents dans les images, que l’on souhaite en fait pr ´eserver.

1.3

Th ´eorie semi-quadratique

Intuitivement, on peut envisager deux fac¸ons de sortir du comportement quadra-tique. La premi `ere consiste `a utiliser une fonctionnelle de la forme :

J(f ) = 1 2 N X i=1 ϕ(ui). (1.3.1)

Cette formulation est connue sous le nom de M-estimateur [Hub81] en estimation ro-buste (ϕ est souvent not ´ee ρ dans ce cadre) et de mod `ele `a phi-fonction en r ´egularisation. Toute la question r ´eside alors dans le choix de la fonction ϕ. Prenons l’exemple de la quadratique tronqu ´ee min(u2, 1). Pour une faible valeur de u

i, cette fonction garde le

comportement quadratique habituel. Par contre, `a partir de ui = 1, la valeur de la

fonction ne change plus et ce, quelle que soit la valeur deui. L’algorithme de

minimisa-tion n’a donc pas particuli `erement int ´er ˆet `a modifier cette valeur en agissant sur f . La forte d ´eviation perd ainsi toute influence sur le r ´esultat. L’inconv ´enient de cette fonction est qu’elle pr ´esente un point anguleux en 1, ce qui est une source potentielle d’in-stabilit ´e. Une fonction continue serait pr ´ef ´erable. Mais l’asymptote horizontale est-elle n ´ecessaire ? Du point de vue de l’optimisation, une fonction convexe serait pr ´ef ´erable. De fait, de nombreuses fonctions ont ´et ´e propos ´ees dans la litt ´erature (voir un ´etat de l’art dans [Cha94] pour la r ´egularisation). Quelques exemples sont donn ´es dans le tableau 1.1.

La seconde approche consiste `a utiliser une variable auxiliaire pour “marquer” ex-plicitement les donn ´ees [GG84]. Consid ´erant une variable binaire bi ∈ {0, 1}, on peut

d ´efinir le crit `ere augment ´e suivant : J∗(f, b) = 1 2 N X i=1 bi(ui)2+ (1− bi). (1.3.2)

(6)

La variableb est appel ´ee “processus de ligne” en reconstruction r ´egularis ´ee. Le second terme de cette fonctionnelle est un co ˆut associ ´e `a la d ´etection d’une forte d ´eviation permettant d’ ´eviter le minimum d ´eg ´en ´er ´e o `u tous les bi seraient nuls. L’int ´er ˆet de cette

formulation est que le crit `ere est quadratique lorsqu’on fixe b (d’o `u l’appellation “semi-quadratique”) : c’est celui des moindres carr ´es pond ´er ´es.

Nom ϕ(u) ϕ′(u)/2u ( 1.3.4-1.3.6) Convexit ´e

Quadratique Q u2 1 non oui

Hyper-surfaces HS 2√1 + u2− 2 1/1 + u2 oui oui

Cauchy ou Hebert &

Leahy HL log(1 + u

2) 1/(1 + u2) oui non

Geman & McClure

GM u

2/1 + u2 1/(1 + u2)2 oui non

TABLE1.1 – Exemples de fonctions ϕ propos ´ees dans la litt ´erature (voir fig. 1.2).

Naturellement se pose la question de l’estimation des valeurs de b. En l’absence d’information suppl ´ementaire, cela doit se faire `a partir des donn ´ees, donc deu. Consid ´erons l’optimisation par rapport `ab de J∗(u, b) [BZ87]. La fonction quadratique ´etant inf ´erieure

`a 1 sur [0, 1], le minimum est r ´ealis ´e pour bi = 1 si ui < 1 et bi = 0 sinon. On remarque

alors l’ ´equivalence entre ce mod `ele et le pr ´ec ´edent. De m ˆeme que pr ´ec ´edemment, un comportement moins “binaire” serait cependant souhaitable. Peut-on g ´en ´eraliser cette technique `a une variable auxiliaire `a valeurs r ´eelles ?

La th ´eorie semi-quadratique r ´epond `a ces questions en d ´efinissant une famille de fonctions ϕ qui assure le comportement souhait ´e. Elle montre l’ ´equivalence entre ce mod `ele et un mod `ele o `u la prise en compte de la nature des donn ´ees est explicite, gr ˆace `a une variable auxiliaire r ´eelle. En cela, elle ´etend `a la fois les travaux de Hu-ber [Hub81] en estimation robuste et de Geman et al. [GR92, GY95] en r ´egularisation.

1.3.1 Propri ´et ´es des fonctions ϕ

Les fonctions de potentiel ϕ propos ´ees dans la litt ´erature semblent d’allures tr `es diff ´erentes (voir figure 1.2). Leur ´etude a ´et ´e propos ´ee dans le cas de la r ´egularisation dans [Cha94] et dans [BFCAB95]. Elle se base sur un examen des ´equations normales li ´ees `a l’optimisation du crit `ere. En estimation robuste, les fonctions consid ´er ´ees ´etant paires, on peut ´ecrire le crit `ere (1.3.1) pour ui = |ni|, o`u n = p − Rf est le r´esidu.

Le minimum de J est atteint lorsque sa d ´eriv ´ee est nulle, soit (puisque sign(x) = |x|x ) lorsque : 1 2 N X i=1 ϕ′(|n i|)sign(ni)∂ni ∂fj = 1 2 N X i=1 ϕ′(|n i|) 2|ni| | {z } P ond´eration. . 2ni ∂ni ∂fj | {z } Cas quadratique = 0, ∀j = 1 . . . D. (1.3.3) On voit que si ϕ′(|ni|)

2|ni| tend vers 0, la donn ´ee correspondante n’entre pas en jeu dans la somme, ce qui est souhaitable pour les forts r ´esidus. Par contre, cette pond ´eration doit tendre vers 1 pour que la donn ´ee soit totalement prise en compte, comme dans le cas de faible r ´esidus. En r ´esum ´e, les conditions `a v ´erifier pour obtenir un comportement

(7)

1.3 Th ´eorie semi-quadratique 7 0 1 2 3 4 5 0 1 2 3 4 5 Q HS HL GM 0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1 GM HL HS

FIGURE1.2 – A gauche : exemples de fonctions ϕ(u) ; `a droite : fonctions de pond ´eration ϕ′(u)

2u (avec un

cœfficient d’ ´echelle arbitraire sur u [Cha94]).

diff ´erenci ´e selon les valeurs deu sont les suivantes : limu→0 ϕ ′(u) 2u = 1 (1.3.4) limu→∞ ϕ ′(u) 2u = 0 (1.3.5) ϕ′(u) 2u strictement d ´ecroissante. (1.3.6)

Ces conditions comparent les comportements de la fonctionϕ et de la quadratique, en termes de d ´eriv ´ees. Les deux fonctions ´evoluent de la m ˆeme fac¸on pr `es de 0 (1.3.4), mais la fonctionϕ est sous-quadratique `a l’infini (1.3.5). La condition (1.3.6) assure la coh ´erence du mod `ele. De fait, on constate sur les exemples de la figure 1.2 que les fonctions ϕ ont des fonctions de pond ´eration au comportement similaire.

1.3.2 Extensions semi-quadratiques

On peut montrer que les fonctions r ´eellesϕ paires, croissantes, v ´erifiant les condi-tions (1.3.4-1.3.6) et quelques autres hypoth `eses “techniques”, sont telles que :

ϕ(u) = min b∈[0,1] bu 2+ Ψ(b), ∀u et binf = ϕ′(u) 2u , (1.3.7)

o `u Ψ est une fonction strictement convexe d ´efinie `a partir de ϕ et b est la variable auxiliaire. On parle d’extension multiplicative. Ce r ´esultat g ´en ´eralise un th ´eor `eme in-troduit dans [GR92], initialement limit ´e aux fonctions `a asymptote horizontale. On a

´egalement, sous les m ˆemes conditions, une extension additive : ϕ(u) = min b∈R+ (b− u) 2+ ξ(b), ∀u et binf =  1 ϕ ′(u) 2u  u, (1.3.8)

o `uξ est une fonction strictement convexe d ´efinie `a partir de ϕ. Ce r ´esultat est bas ´e sur les travaux de [GY95].

(8)

1.3.3 Algorithmique

En reportant les ´equations (1.3.7) et (1.3.8) dans (1.3.1), on obtient respectivement les crit `eres augment ´es suivants :

J∗(f, b) = 1 2 N X i=1 bi(ui)2 + Ψ(bi) = 1 2kuk 2 B+ 1 2 N X i=1 Ψ(bi), (1.3.9) avecB = diag(bi) et : J#(f, b) = 1 2 N X i=1 (bi− ui)2+ ξ(bi) = 1 2ku − bk 2+ 1 2 N X i=1 ξ(bi). (1.3.10)

Ces crit `eres augment ´es d’une variable sont en fait plus simples `a minimiser que le crit `ere original. En effet, la minimisation de J conduit `a des ´equations normales non lin ´eaires. Par contre, `a b fix ´ee, les crit `eres augment ´es sont quadratiques et conduisent donc `a la r ´esolution d’ ´equations normales lin ´eaires, de la forme Af = c. Notons que dans cette minimisation, les fonctions Ψ et ξ n’interviennent pas (il n’existe d’ailleurs pas d’expression explicite de ξ). D’autre part, lorsque la variable f est fix ´ee le crit `ere augment ´e est convexe enb et la valeur du minimum est donn ´ee dans (1.3.7) et (1.3.8). Cette valeur d ´epend de la fonction de pond ´eration et d’apr `es (1.3.4) et (1.3.5), il est clair que la variable auxiliaire b joue le r ˆole de “marqueur” de donn ´ees (“inlier/outlier”, “bruit/discontinuit ´e” dans nos applications).

Bien que des algorithmes stochastiques existent [GR92, Jal01], les propri ´et ´es semi-quadratiques sont, la plupart du temps, exploit ´ees sous forme d’algorithmes d ´eterministes op ´erant par minimisations altern ´ees par rapport `a chacune des variables. En g ´en ´eral, on positionne initialement tous lesbi `a 1, ce qui revient `a commencer par un algorithme

des moindres carr ´es classique. Dans le cadre de l’estimation robuste, on retrouve pour la forme multiplicative l’algorithme des moindres carr ´es (re-)pond ´er ´es it ´eratifs (Itera-tive Reweighted Least Squares ou IRLS) et pour la forme addi(Itera-tive l’algorithme des moindres carr ´es avec remise `a jour des r ´esidus, propos ´e dans [Hub81]. Dans le cas de la r ´egularisation, les algorithmes sont nomm ´es ARTUR [CBFAB97] pour la forme multiplicative et LEGEND pour la forme additive [Cha94]. Ces algorithmes convergent dans le cas des fonctionsϕ convexes. Dans le cas non-convexe, ils convergent vers un minimum local `a condition que les points critiques de la fonctionnelle soient isol ´es. No-tons que la convergence est g ´en ´eralement plus lente dans le cas de la seconde forme semi-quadratique, mais que celle-ci permet d’obtenir des algorithmes moins calcula-toires (seul le second membre des ´equations normales est modifi ´e `a chaque ´etape). Le compromis peut donc ˆetre int ´eressant dans le cas d’algorithmes de reconstruction d’image, par exemple. Pour une synth `ese et des r ´esultats r ´ecents concernant la vi-tesse de convergence des algorithmes semi-quadratique, le lecteur pourra se r ´ef ´erer

`a [All02].

Enfin, pour am ´eliorer la convergence des algorithmes, on peut adopter une strat ´egie de continuation, dans la philosophie du GNC (Graduated Non Convexity) de [BZ87]. Cela consiste `a utiliser d’abord une fonction convexe (ex. ϕHS), puis `a repartir du

(9)

1.4 Applications 9

1.3.4 Approche Lagrangienne

Il existe plusieurs pr ´esentations de la th ´eorie semi-quadratique et des algorithmes associ ´es, chacune apportant un ´eclairage particulier. Il est cependant important de remarquer qu’elles reposent toutes sur la convexit ´e des fonctions : −ϕ(√u) = −φ(u) pour la forme multiplicative et 12(u2− ϕ(u)) pour la forme additive. Ces conditions sont

acquises d `es lors que ϕ respecte les conditions (1.3.4-1.3.6).

Nous avons r ´ecemment propos ´e une relecture de la th ´eorie semi-quadratique dans le cadre de l’optimisation sous contrainte [TIC02]. En introduisant la fonction φ(u2

i) en

place deϕ(ui) dans (1.3.1), la pond ´eration s’ ´ecrit φ′(u2i) et les conditions d’applications

traduites sur φ, d ´efinie sur R+, sont qu’elle doit ˆetre strictement croissante et concave.

Ces conditions sont suffisantes pour pouvoir poser et r ´esoudre le probl `eme d’optimi-sation en passant par un d ´eveloppement lagrangien qui permet d’interpr ´eter (1.3.9) comme un probl `eme dual. Cette relecture est ´egalement possible pour la version ad-ditive. On aboutit dans les deux cas aux m ˆemes algorithmes. Une telle m ´ethodologie a l’avantage de faciliter la preuve de convergence, en la replacant dans le cadre clas-sique du th ´eor `eme de Khun et Tucker. Ainsi, elle s’ ´etend assez naturellement au cas de l’estimation simultan ´ee des param `etres de plusieurs instances du mod `ele [TIC05].

1.3.5 Hyper-param `etres

Dans ce qui pr ´ec `ede nous avons, par souci de simplicit ´e, ´elud ´e le param `etre d’ ´echelle. Dans (1.3.1), la variable ui doit, en r ´ealit ´e, ˆetre divis ´ee par un facteur δ qui ajuste le

comportement de la fonction `a la dynamique des donn ´ees. D’autre part, lorsque le crit `ere est r ´egularis ´e, un coefficient λ2 permet de pond ´erer les termes de

vraisem-blance et d’a priori. Ces hyper-param `etres sont en g ´en ´eral laiss ´es au choix de l’utili-sateur. Il est cependant possible de les fixer de mani `ere plus automatique (voir [Ien04] pour l’estimation robuste et [Jal01] dans le cas de la reconstruction r ´egularis ´ee).

1.4

Applications

Nous illustrons maintenant quelques applications de la th ´eorie semi-quadratique en analyse d’images, puis en reconstruction r ´egularis ´ee.

1.4.1 R ´egression robuste pour la d ´etection et le suivi des marquages routiers

Nous nous int ´eressons ici `a la d ´etection et au suivi des marquages routiers `a partir d’images num ´eriques. Dans des applications telles que l’aide `a la conduite, la robus-tesse des traitements aux perturbations est d’une importance cruciale.

Le principe du syst `eme d ´evelopp ´e [Ien04] (cf. fig. 1.3) consiste `a effectuer dans un premier temps une d ´etection des centres suppos ´es des marquages, puis `a les approcher par ajustement de courbes. Le fonctionnement du d ´etecteur est d ´etaill ´e dans [Ien04]. Il se base sur des techniques simples de seuillage et exploite des in-formations g ´eom ´etriques a priori sur la largeur des marquages, ce qui rend l’algo-rithme relativement moins sensible `a certaines variations d’intensit ´e que les d ´etecteurs de contours classiques. Cependant, les cartes de d ´etection demeurent relativement bruit ´ees et la r ´egression semi-quadratique trouve ici un champ d’application naturel.

(10)

(a) (b)

(c) (d)

FIGURE1.3 – (a) Image de route. (b) Centres de marquages extraits (

·

) : on note la pr ´esence de

nom-breuses fausses alarmes. Ajustement (c) gaussien, (d) robuste : en blanc, degr ´e 1 ; en gris, degr ´e 2 ; en noir, degr ´e 3.

Dans cette application, la relation sous-jacente entre les coordonn ´ees images(x, y) des points de marquage est choisie de type polynomial :

y =

D

X

j=0

Xj(x)fj, (1.4.1)

o `u Xj(x) repr ´esente la valeur en x d’une fonction de base. Selon l’angle de prise de

vues, on peut utiliser diff ´erentes formes de polyn ˆomes (cf. tableau 1.2). En collectant les ´equations correspondant aux N points de mesure, on obtient un syst `eme de la forme (1.2.2). Un mod `ele original de bruit, appel ´e famille exponentielle liss ´ee, a ´et ´e propos ´e dans [TIC02] et se base sur la fonction de potentiel suivante :

ϕα(u) =

1

α (1 + u

2)α

− 1. (1.4.2)

Cette famille param ´etr ´ee par α s’av `ere bien adapt ´ee `a la mod ´elisation des r ´esidus dans notre application. D’autre part, en faisant varier α, elle permet une transition continue entre les diff ´erents mod `eles de bruit classiques (de Gauss pour α = 1 `a Geman & McClure pour α =−1, en passant par Cauchy pour α = 0.5). Un algorithme semi-quadratique est obtenu `a partir de l’approche lagrangienne d ´ecrite au paragraphe 1.3.4. La figure 1.3 montre un exemple d’application de cet algorithme pour la d ´etection d’une ligne de marquage dans des conditions d’illumination difficiles.

Il est possible d’int ´egrer `a la fonctionnelle un terme de r ´egularisation quadratique permettant de contr ˆoler le degr ´e de la courbe obtenue, voire de tenir compte des corr ´elations existant entre les fonctions de base. Il est ´egalement possible de tenir compte dans l’a priori d’un r ´esultat d’ajustement pr ´ec ´edent. L’estimateur s’int `egre donc

(11)

1.4 Applications 11

(a) (c) (e)

(b) (d) (f)

FIGURE1.4 – (a) Image originale de la grille d’ ´etalonnage. (b) Centres de marquages extraits (

·

). (c) Ini-tialisation de 10 lignes pour l’ajustement des marquages verticaux. (d) Lignes ajust ´ees dans l’hypoth `ese de distribution gaussienne pour le bruit. (e) Initialisation de 12 lignes. (f) ajustement robuste simultan ´e des marquages, potentiel ϕα, α= 0.1.

naturellement dans un algorithme de suivi par filtrage de Kalman [TIC02]. Cela pose le probl `eme de la d ´efinition de la matrice de covariance de l’estim ´ee, laquelle ne peut ˆetre qu’approch ´ee dans le cas de l’estimation robuste. Plusieurs formes de matrice ont ´et ´e compar ´ees [Ien04]. L’algorithme de suivi a ´et ´e test ´e avec succ `es `a bord de v ´ehicules

´equip ´es pour l’aide `a la conduite au LIVIC [Ien04].

Une extension `a l’ajustement simultan ´e de plusieurs courbes a ´et ´e propos ´ee r ´ecemment [TIC05] `a partir du cadre lagrangien. La figure 1.4 en donne un exemple d’application. Il s’agit

de d ´etecter simultan ´ement toutes les lignes longitudinales d’une grille de marquage utilis ´ee pour l’ ´etalonnage de cam ´eras. On peut constater qu’en utilisant un mod `ele gaussien, l’algorithme produit un r ´esultat erron ´e malgr ´e une initialisation manuelle tr `es proche de la solution. Au contraire, l’algorithme produit de tr `es bon r ´esultats, `a par-tir d’une initialisation pourtant plus ´eloign ´ee, lorsqu’on utilise un mod `ele robuste de vraisemblance.

Polyn ˆome Prise de vue Expression

Usuel Verticale y =PDj=0fjxj Hyperbolique Perspective y = f0x + f1 + PDj=2(x−xfj h)j (xh=ligne d’horizon) Fractionnaire Perspective y =PD j=0fjx( j D)

TABLE1.2 – Types de polyn ˆome en fonction de l’angle de prise de vue. Les polyn ˆomes fractionnaires ne

(12)

p

P(p|B)

...

B

FIGURE1.5 – Principe de l’algorithme de d ´etection.

1.4.2 Mod `eles d’apparence pour la d ´etection et la reconnaissance de la signa-lisation verticale

La d ´etection d’objets dans des images est un sujet difficile qui a fait l’objet de nom-breux travaux par le pass ´e. Les approches par mod `eles d’apparence, notamment, ren-contrent un succ `es certain depuis le d ´ebut des ann ´ees 90 [TP91]. Elle permettent la repr ´esentation de classes d’objets et l’apprentissage de variations de forme, d’orien-tation ou d’illumination. Nous en pr ´esentons ici une application `a la d ´etection et `a la reconnaissance de la signalisation verticale dans les sc `enes routi `eres [Dah01].

Dans cette approche, toute image est repr ´esent ´ee par un vecteur dont chaque com-posante est la valeur de niveau de gris d’un pixel. Une telle repr ´esentation, globale, de l’apparence est ´evidemment peu parcimonieuse : c’est pourquoi on a en g ´en ´eral recours `a des techniques de r ´eduction de dimension. Nous utilisons pour notre part l’analyse en composantes principales (ACP). Elle permet de mod ´eliser une base B d’images d’apprentissage `a l’aide d’une image moyenne µ et d’un nombre r ´eduit de vecteurs propres uj, repr ´esentant les axes principaux de variation du nuage de points.

Dans notre mod `ele, toute image peut se d ´ecomposer comme une combinaison lin ´eaire de ces vecteurs de base, `a une erreur w pr `es :

p = µ +

J

X

j=1

fjuj+ w. (1.4.3)

Nous retrouvons un mod `ele g ´en ´eratif lin ´eaire similaire `a (1.2.2). L’int ´er ˆet de ce type de mod `ele est que J est relativement faible (typiquement, quelques dizaines de co-efficients, `a comparer aux centaines de milliers de pixels des images trait ´ees). Les comparaisons n ´ecessaires `a la d ´etection et `a la reconnaissance s’en trouvent donc fortement simplifi ´ees.

Le principe de l’algorithme de d ´etection d’objets d’int ´er ˆet dans une sc `ene est illustr ´e figure 1.5. En chaque position de l’image, on extrait un vecteur d’observation p dont on ´evalue la vraisemblance P(p|B), par rapport au mod`ele appris sur la base B. Cette valeur est affect ´ee `a la position de l’extrait. Lorsque toute la sc `ene a ´et ´e parcourue, on dispose d’une carte de vraisemblance. La position des objets d’int ´er ˆet ´eventuellement pr ´esents dans la sc `ene est alors obtenue par seuillage. La vraisemblance de l’obser-vation, P(p|B), est donn´ee par :

P(p|B) ∝ P(p| ˆf ,B) P( ˆf|B), (1.4.4)

(13)

1.4 Applications 13

(a) (b) (c)

(d) (e) (f) (g)

FIGURE1.6 – Ligne du haut : exp ´erience de d ´etection. (a) Image analys ´ee. Cartes de vraisemblance pour des hypoth `eses de bruit et d’a priori (respectivement) : (b) gaussien-gaussien et (c) robuste-non gaussien. Les plus fortes vraisemblances apparaissent en clair. Ligne du bas : exp ´erience de recon-naissance. (d) image analys ´ee. (e) images reconstruite. (f) carte des donn ´ees erron ´ees, b. (g) panneau reconnu.

Nous avons montr ´e [DCH04] que l’association d’un mod `ele robuste de distribution du bruit, P(p|f, B), et d’un mod`ele a priori, P(f|B), bien adapt´e permet d’am´eliorer de mani `ere significative les performances des syst `emes de d ´etection existant. La fi-gure 1.6 illustre cela sur un exemple synth ´etique. La base d’images d’apprentissage contient 43 signaux de danger, sous 36 angles de rotation chacun. On ne retient que 30 vecteurs propres. La m ´ethode faisant r ´ef ´erence jusqu’ `a pr ´esent, utilisant des hy-poth `eses gaussiennes [MP97], est mise en d ´efaut sur cette image. Une meilleure dis-crimination est obtenue en associant l’estimation robuste `a une mod ´elisation a priori adapt ´ee aux donn ´ees. Dans cet exemple, on connaˆıt la forme analytique de cette derni `ere distribution, mais nous avons ´egalement propos ´e une m ´ethode, bas ´ee sur l’algorithme mean shift [Che95], permettant de g ´erer des formes arbitraires de distri-butions [VHC03].

La reconnaissance, quant `a elle, est effectu ´ee en comparant les coordonn ´ees dans l’espace propre estim ´ees, ˆf , `a celles des panneaux d’apprentissage. Ici encore, l’utili-sation d’un estimateur robuste am ´eliore les performances du syst `eme [Dah01], comme le montre la figure 1.6. Dans cette exp ´erience, le panneau est en partie cach ´e par une inscription jaune. Le panneau reconnu `a partir de l’estim ´ee au sens du MV gaussien est le panneau temporaire `a fond jaune, alors que le panneau reconnu dans le cas robuste est correct.

1.4.3 Reconstruction r ´egularis ´ee

Nous nous int ´eressons ici aux probl `emes de reconstruction sous le mod `ele g ´en ´eratif lin ´eaire. Il s’agit d’un probl `eme inverse mal pos ´e. Existence et unicit ´e de la solution peuvent ˆetre obtenues respectivement en calculant la solution au sens des moindres carr ´es et en prenant la solution de norme minimale : on parle alors d’inversion g ´en ´eralis ´ee. En d ´ecomposant R en valeurs singuli `eres, R = UDVT, on obtient :

ˆ

f+ = R+p o `u R+= V D+UT, (1.4.5)

D+ ´etant la matrice diagonale contenant l’inverse des valeurs singuli `eres non nulles de

(14)

(a) (b) (c)

(d) (e) (f)

FIGURE1.7 – (a) Image originale “cameraman”. (b) Image floue (d ´efocalisation de rayon 2 pixels) et bruit ´ee. (c) Inverse g ´en ´eralis ´ee (1.4.5). (d) Algorithme de Landweber, 100 it ´erations (1.4.6), SN Rvar =

15, 7dB. (e) R ´egularisation de Tikhonov (1.4.7), λ = 2, SN Rvar = 14, 9dB. (f) R ´egularisation

semi-quadratique ICM-DCT, λ= 2, δ = 15, 100 it ´erations, SN Rvar= 18, 4dB.

de l’inversion de (1.2.1) mais pas celui de la stabilit ´e en pr ´esence de bruit (1.2.2). En effet la matriceR est toujours mal conditionn ´ee et l’inversion de ses valeurs singuli `eres faibles conduit `a une amplification des hautes fr ´equences du bruit, qui peuvent m ˆeme dominer la solution (cf. figure 1.4.3). Il est possible d’y rem ´edier en ´eliminant les va-leurs singuli `eres faibles ou bien en calculant l’inverse g ´en ´eralis ´ee par une descente de gradient sur le crit `ere des moindres carr ´es (algorithme de Landweber) :

ˆ

fLW(k+1) = ˆfLW(k) + γRT(p

− R ˆfLW(k)), (1.4.6)

et en arr ˆetant la solution apr `es un nombre fini d’it ´erations. La r ´egularisation de Tikho-nov, ´evoqu ´ee au paragraphe 1.2.2, consiste `a ajouter une contrainte quadratique sur la solution ou ses d ´eriv ´ees. Dans le cas d’une r ´egularisation sur le gradient, la solution v ´erifie les ´equations normales :

(RTR− λ2∆) ˆfT = RTp, (1.4.7)

o `u ∆ est l’op ´erateur Laplacien. On peut montrer que ces 3 solutions correspondent chacune `a une fac¸on de filtrer les valeurs singuli `eres faibles. On parle de r ´egularisation lin ´eaire. Son d ´efaut est d’agir globalement sur les images et de ne pas respecter les fortes variations locales, correspondant aux contours (cf. figure 1.4.3).

Afin de pr ´eserver les discontinuit ´es, on remplace le terme quadratique de r ´egularisation par un terme de la forme (1.3.1). En variables continues, le crit `ere r ´egularis ´e s’ ´ecrit alors :

J(f ) =kp − Rfk2+ λ2

Z

ϕ(|∇f|) (1.4.8)

(15)

1.5 Conclusion 15

´etude en variables continues en lien avec la th ´eorie des ´equations aux d ´eriv ´ees par-tielles (EDP). Nous utiliserons ici, comme dans [Cha94], une formulation discr `ete s ´eparable :

J(f ) =kp − Rfk2+ λ2X i ϕ ((Dxf )j) + λ2 X i ϕ ((Dyf )j) . (1.4.9)

Par rapport `a la formulation continue, ce crit `ere a le d ´efaut de ne pas ˆetre isotrope. Par contre, l’aspect s ´eparable peut ˆetre int ´eressant pour l’implantation. Le crit `ereJ est ´etendu `a deux variables selon l’un ou l’autre des d ´eveloppements semi-quadratiques et une strat ´egie d ´eterministe de minimisations altern ´ees par rapport `a chaque variable est mise en œuvre. Chaque ´etape de l’algorithme comprend donc le calcul des variables auxiliaires b(k+1)x et b(k+1)y selon les expressions (1.3.7) et (1.3.8) et la r ´esolution des

´equations normales. Dans le cas multiplicatif (algorithme ARTUR), elles s’ ´ecrivent : (RTR − λ2∆(k+1)A ) ˆfA(k+1)= RTp, (1.4.10) o `u : ∆(k+1)A =−D T xBx(k+1)Dx− DTyBy(k+1)Dy,

avec B(k+1)x = diag(b(k+1)x ) et By(k+1) = diag(b(k+1)y ). Dans le cas additif (algorithme

LEGEND), on r ´esout : (RTR − λ2∆) ˆfL(k+1) = RTp + λ2DT xb (k+1) x + λ 2DT yb (k+1) y (1.4.11)

La premi `ere forme converge en g ´en ´eral plus rapidement que la seconde, en nombre d’it ´erations. Par contre, cette derni `ere est int ´eressante car le premier terme ne varie pas au cours des it ´erations k. On peut, par exemple, le factoriser par l’algorithme de Cholesky pour faciliter ensuite les calculs [Cha94]. Dans le cas de la d ´econvolution, avec conditions aux bords circulaires, la transform ´ee de Fourier permet de diagonali-ser ce terme. On peut cependant lui pr ´ef ´erer la transform ´ee en cosinus discret lorsque la PSF est sym ´etrique. Cela sous-entend des conditions aux bords sym ´etriques, cor-respondant aux conditions de Neumann associ ´ees aux ´equations normales. On obtient ainsi l’algorithme ICM-DCT [Jal01].

Les figures 1.4.3 et 1.8 pr ´esentent les r ´esultats obtenus en d ´econvolution `a l’aide de l’algorithme ICM-DCT, en comparaison d’estimateurs classiques. Le gain en qualit ´e, ´evident visuellement, est confirm ´e en termes de rapport signal-sur-bruit (SNR). Celui-ci est mesur ´e `a partir des variances de l’image de r ´ef ´erence, connue, f et de l’image reconstruite ˆf : SNRV AR = 10 log10(σ2f/σf2− ˆf). Les filtres utilis ´es ici mod ´elisent un flou

de d ´efocalisation dans le premier cas et un boug ´e dans le second.

La r ´egularisation semi-quadratique a ´et ´e appliqu ´ee avec succ `es `a de nombreux probl `emes de reconstruction comme, entre autres, la st ´er ´eovision, l’estimation de mou-vement, la tomographie ou encore l’imagerie micro-ondes (diffraction inverse) [BF00].

1.5

Conclusion

L’hypoth `ese classique de distribution gaussienne (correspondant `a une ´energie qua-dratique) s’av `ere inadapt ´ee dans de nombreux probl `emes r ´eels o `u les donn ´ees se composent en r ´ealit ´e de deux cat ´egories (”inlier/outlier”), n ´ecessitant chacune un trai-tement adapt ´e. On fait alors appel `a l’estimation robuste combin ´ee `a la r ´egularisation lorsque le probl `eme est mal pos ´e. Nous avons pr ´esent ´e un cadre g ´en ´eral, la th ´eorie

(16)

(a) (b) (c)

(d) (e) (f)

FIGURE1.8 – (a) Image originale “ecodyn”. (b) Image floue (boug ´e horizontal de 12 pixels) et bruit ´ee. (c) R ´egularisation de Tikhonov, λ= 1, SN Rvar = 14, 5dB. (d-e) Discontinuit ´es entre lignes, bxet entre

colonnes by (visualisation en log). (f) Reconstruction r ´egularis ´ee semi-quadratique par ICM-DCT, λ =

1, δ = 7, 100 it ´erations, SN Rvar= 18, 1dB, o `u la plaque min ´eralogique est de nouveau lisible.

semi-quadratique, permettant de sortir du comportement purement quadratique, soit par l’introduction d’une fonction bien choisie qui att ´enue l’influence des fortes d ´eviations, soit par l’introduction directe de variables auxiliaires et d’un terme de p ´enalit ´e ´energ ´etique associ ´e. La th ´eorie semi-quadratique permet d’ ´etablir le lien entre ces deux approches et pr ´ecise les conditions de choix possibles, en termes simples. De plus, ceci conduit le plus souvent `a des algorithmes simples. Cette th ´eorie se situe `a la confluence des statistiques robustes [Hub81], des champs markoviens [GG84], des approches varia-tionnelles [AK02], et de l’analyse convexe. C’est ce qui en fait son succ `es, m ˆeme si elle n’est pas toujours identifi ´ee en tant que telle. Elle permet en effet de poser et de r ´esoudre de multiples probl `emes pratiques, comme nous l’avons illustr ´e par des exemples : la d ´etection et le suivi des marquages routiers, la reconnaissance des pan-neaux, et l’am ´elioration de la qualit ´e d’image.

(17)

BIBLIOGRAPHIE 17

Bibliographie

[AK02] G. Aubert and P. Kornprobst. Mathematical Problems in Image

Proces-sing : Partial Differential Equations and the Calculus of Variations, volume

147 of Applied Mathematical Sciences. Springer-Verlag, 2002.

[All02] M. Allain. Approche p ´enalis ´ee en tomographie h ´elico¨ıdale en vue de

l’ap-plication `a la conception d’une proth `ese personnalis ´ee du genou. PhD

thesis, Universit ´e Paris Sud - Paris XI, France, 2002.

[BF00] L. Blanc-F ´eraud. Sur quelques Probl `emes Inverses en Traitement d’Image. Habilitation `a diriger des recherches, Universit ´e de Nice-Sophia Antipolis, France, July 2000.

[BFCAB95] L. Blanc-F ´eraud, P. Charbonnier, G. Aubert, and M. Barlaud. Nonlinear image processing : Modeling and fast algorithm for regularization with edge detection. In Proc. IEEE International Conference on Image Processing

(ICIP), volume I, pages 474–477, Washington D.C., USA, September 1995.

[BZ87] A. Blake and A. Zisserman. Visual Reconstruction. MIT Press, Cambridge, MA, 1987.

[CBFAB97] P. Charbonnier, L. Blanc-F ´eraud, G. Aubert, and M. Barlaud. Deterministic edge-preserving regularization in computed imaging. IEEE Transactions

on Image Processing, 6(2) :298–311, February 1997. Prix IEEE 1998 du

meilleur article de jeune auteur, section “Image and Multidimensional Si-gnal Processing”.

[Cha94] P. Charbonnier. Reconstruction d’image : r ´egularisation avec prise en compte des discontinuit ´es. PhD thesis, Universit ´e de Nice-Sophia

Anti-polis, France, 1994.

[Che95] Y. Cheng. Mean shift, mode seeking, and clustering. IEEE Trans. Pattern

Anal. Machine Intell., 17(8) :790–799, August 1995.

[Dah01] R. Dahyot. Analyse d’images s ´equentielles de sc `enes routi `eres par mod `eles d’apparence pour la gestion du r ´eseau routier. PhD thesis,

Uni-versit ´e Paris VI, France, 2001.

[DCH04] R. Dahyot, P. Charbonnier, and F. Heitz. Robust Bayesian detection using appearance-based models. Pattern Analysis and Applications, 7 :317– 332, 2004. On-line, http ://www.springerlink.com.

[GG84] S. Geman and D. Geman. Stochastic relaxation, gibbs distributions and the Bayesian restoration of images. IEEE Trans. Pattern Anal. Machine

Intell., 6(6) :721–741, November 1984.

[GR92] S. Geman and G. Reynolds. Constrained restoration and the recovery of discontinuities. IEEE Trans. Pattern Anal. Machine Intell., 14(3) :367–383, March 1992.

(18)

[GY95] D. Geman and C. Yang. Nonlinear image recovery with half-quadratic regu-larization and FFT’s. IEEE Transactions on Image Processing, 4(7) :932– 946, July 1995.

[Hub81] P.J. Huber. Robust statistics. John Wiley and Sons, New York, 1981. [Ien04] S. S. Ieng. M ´ethodes robustes pour la d ´etection et le suivi des marquages.

PhD thesis, Universit ´e Paris VI, France, 2004.

[Jal01] A. Jalobeanu. Mod `eles, estimation bayesienne et algorithmes pour la d ´econvolution d’images a ´eriennes et satellitaires. PhD thesis, Universit ´e

de Nice-Sophia Antipolis, France, 2001.

[Kay93] S. M. Kay. Fundamentals of Statistical signal processing - Estimation Theory. Prentice Hall International Editions, 1993.

[MP97] B. Moghaddam and A. Pentland. Probabilistic visual learning for object representation. IEEE Trans. Pattern Anal. Machine Intell., 19(7) :696–710, July 1997.

[TIC02] J.P. Tarel, S.S. Ieng, and P. Charbonnier. Using robust estimation algo-rithms for tracking explicit curves. In Springer, editor, 6th European

Confe-rence on Computer Vision (ECCV), Lecture Notes in Computer Science,

volume 2350, pages 492–407, Copenhague, Danemark, May 2002. [TIC05] J.P. Tarel, S.S. Ieng, and P. Charbonnier. 2005. soumis `a 9th European

Conference on Computer Vision (ECCV), blind review.

[TP91] M. Turk and A. Pentland. Eigenfaces for recognition. Journal of Cognitive

Neuroscience, 3(1) :71–86, 1991.

[VHC03] T. Vik, F. Heitz, and P. Charbonnier. Mean shift-based Bayesian image re-construction into visual subspace. In Proceedings of the 2003 IEEE

Inter-national Conference on Image Processing (ICIP 2003), Barcelona, Spain,

Références

Documents relatifs

Ce qui lui a valu ce commentaire d'Abel : Cauchy est fou, et avec lui il n'y a pas moyen de s'entendre, bien que pour le moment il soit celui qui sait comment les mathématiques

Interrogeons nous maintenant sur la fa¸con dont sont construits ces tests multidimensionnels, autrement dit sur la fa¸con dont sont obtenues les matrices E pour les erreurs du

(2012), Comparaison de diff´ erents plans de sondage et construction de bandes de confiance pour l’estimation de la moyenne de donn´ ees fonctionnelles : une illustration sur

Introduction.- En langage C, l’acc`es ` a un ´el´ement d’un tableau peut se faire classiquement par le nom du tableau accompagn´e d’un index, mais aussi par un pointeur

Le cardinal de l'ensemble préfixe (u) f) suffixe (w) est proportionnel à la longueur de l'équation, et la substitution peut être réalisée en temps proportionnel à la longueur

Figure 4: ´ Evaluation de la qualit´e visuelle apr`es insertion r´eversible de la charge utile maximale dans l’image leba pour diff´erentes tailles de blocs.. Le syst`eme visuel

Sous des conditions de m´ elange assez g´ en´ erales, on ´ etablit la convergence presque compl` ete (avec vitesse) d’un estimateur ` a noyau pour la fonction de hasard d’une

[r]