• Aucun résultat trouvé

Reconstruction d'images satellitaires à partir d'un échantillonnage irrégulier

N/A
N/A
Protected

Academic year: 2021

Partager "Reconstruction d'images satellitaires à partir d'un échantillonnage irrégulier"

Copied!
64
0
0

Texte intégral

(1)

HAL Id: inria-00340975

https://hal.inria.fr/inria-00340975v2

Submitted on 28 Nov 2008

HAL is a multi-disciplinary open access

archive for the deposit and dissemination of

sci-L’archive ouverte pluridisciplinaire HAL, est

destinée au dépôt et à la diffusion de documents

échantillonnage irrégulier

Mikael Carlavan, Pierre Weiss, Laure Blanc-Féraud, Josiane Zerubia

To cite this version:

Mikael Carlavan, Pierre Weiss, Laure Blanc-Féraud, Josiane Zerubia. Reconstruction d’images

satel-litaires à partir d’un échantillonnage irrégulier. [Rapport de recherche] RR-6732, INRIA. 2008.

�inria-00340975v2�

(2)

a p p o r t

d e r e c h e r c h e

9

-6

3

9

9

IS

R

N

IN

R

IA

/R

R

--6

7

3

2

--F

R

+

E

N

G

Thème COG

Reconstruction d’images satellitaires à partir d’un

échantillonnage irrégulier

Mikael Carlavan — Pierre Weiss — Laure Blanc-Féraud — Josiane Zerubia

N° 6732

(3)
(4)

MikaelCarlavan, Pierre Weiss, Laure Blan -Féraud, Josiane Zerubia

ThèmeCOG Systèmes ognitifs ProjetAriana

Rapportdere her he n°6732Novembre200860pages

Résumé:Leproblèmedelare onstru tiond'imagesest eluid'estimeruneimageàvariable ontinue àpartir des observations dis rètes. Depuis lestravaux pionniers de Shannon, de nombreusesméthodesontétéproposéesdanslalittératurepourlare onstru tion d'images àpartirdedonnéesobservéesave uné hantillonnage hoisi,qu'ilsoitrégulierouirrégulier. Nousnoussommesfo aliséssurleproblèmeglobaldelarestaurationd'uneimagesatellitaire omprenant : la re onstru tion d'une image régulièrement é hantillonnée à partir d'une imageirrégulièrementé hantillonnée(lespositionsdesé hantillonssontsupposées onnues); laprise en ompte dela fon tionde ou de l'appareiloptique(supposée onnue); laprise en ompte dubruit.Nousproposons uneméthode parminimisationdefon tionnelle,dans laquellenous utilisons une norme

l

1

pour le terme d'atta he aux données, et lavariation totale (VT) ou une transformée en ondelettes (Dual-Tree Complex Wavelet Transform) omme terme de lissage. Cette méthode est très rapide et onverge en

O

1

k



k

est le nombred'itérationsalorsquelaplupartdesméthodesdeminimisationexistantes onvergent

O(

1

k

)

.

Mots- lés: Optimisation onvexe,methodesvariationnelles,norme

l

1

,ondelettes, restau-rationd'image,dé onvolution,imageriesatellitaire.

Lesauteurs remer ient l'entreprise CS-SIpour lenan ement partielde etravailde re her he, en parti ulierAnneChaniéetRosarioRuilobadeCS-SIpour ette ollaboration,etégalementleCNESpour touteslesdonnéesfournies.

(5)

Abstra t: Theproblemofimage re onstru tion onsistsin estimatinganimage in a on-tinuoussettingfromdis reteobservations.BeginningwiththepioneeringworkofShannon, severalmethods havebeenproposedfor imagere onstru tion from regularlyorirregularly spa eddis reteobservations.Wefo usedonirregularsamplingimagere onstru tionwhi h in ludes:regularsamplingimagere onstru tionformirregularlyspa edsamples(weassume that thelo ations ofsamples areknown);image de onvolutionby taking intoa ountthe PointSpreadFun tionoftheopti s(supposedtobeknown);restorationofthenoisedueto a quisitionbythesensors.Weproposeamethod minimizingafun tionalforwhi hweuse an

l

1

-normforthedataterm,andTotalVariation(TV) orawavelettransform(Dual-Tree ComplexWaveletTransform), forthesmoothingterm.Thismethod isveryfastand hasa onvergen eratein

O

1

k



where

k

istheiterationnumberwhilemostminimizationmethods onvergein

O(

1

k

)

.

Key-words: Convexoptimization,variationalmethods,

l

1

-norm, wavelets,image restora-tion,de onvolution,satelliteimaging.

(6)

Table des matières

1 Présentation 5

1.1 Position duproblème. . . 5

1.2 Imagesutilisées . . . 6

1.2.1 Constru tiondesimages . . . 6

1.3 Appro hesvariationnelles . . . 8

2 Etat de l'art :algorithmesrapides 11 2.1 Gradient omposite. . . 11

2.2 Méthodeàbase degradient . . . 12

2.3 Méthodea éléréeàbasedegradient. . . 14

3 Solution proposée 17 3.1 Résolution. . . 17

3.2 Réalisation . . . 19

3.3 Résultats . . . 21

4 Régularisationdans le domaine desondelettes 27 4.1 Transforméeenondelettes omplexes . . . 28

4.2 Miseenoeuvre . . . 31 4.3 Résultats . . . 32 5 Comparaisondual/primal 33 5.1 Modèle

BV − l1

. . . 33 5.2 Algorithmeprimal . . . 33 5.3 Algorithmedual . . . 35

5.4 Appli ationauproblèmedere onstru tion. . . 38

6 Comparaisonrégularité/par imonie 41 6.1 Modèledepar imonie . . . 41

6.2 Modèlederégularité . . . 42

6.3 Comparaisonave lemodèle

BV − l

1

. . . 43

(7)
(8)

Chapitre 1

Présentation

Depuismaintenantplusieursannées,late hnologienumériqueaprislemonopoledans plu-sieurs domaines, en parti ulier elui de l'imagerie. Bien que le passage analogique/num-érique (é hantillonnage) induise une perte d'information, les avantages sont ertains. Un desproblèmesmajeursapparuave late hnologienumériqueest eluidelare onstru tion d'uneimage àpartirdes observations dis rètesdonton dispose. Ces observations peuvent aussibienêtreissuesd'uné hantillonnagerégulierqu'irrégulier.Dans erapport,nousnous sommesintéressésau asparti ulierdelare onstru tiond'imagessatellitairesàpartird'un é hantillonnageirrégulier.

1.1 Position du problème

Dansle adredela ollaborationfran o-italienneduprogrammeORFEO(programme per-mettantàla foisl'a quisitiond'imagesoptiqueset radar), il est prévudu téfrançaisde lan erdeuxsatellitesoptiqueshauterésolution. Cessatellites,nommésPléiades,et qui de-vraientêtrelan ésd'i i2010pourlepremiereten2011pourlese ondaurontlespropriétés suivantes:

 Longueursd'onded'a quisition:bleu,vert,rougeetpro heinfrarouge.  Résolution:0.7m.

 Fau hée( hampdevue):20km.

Parailleurs,demanièreàpouvoirrépondreàdesbesoinsde artographiene, notamment enzoneurbaineeten omplémentdeprisesdevuesaériennes,lessatellitesPléiadesdevront permettrel'a quisitiondepairesstéréos opiquesquasi-instantanéesainsique laréalisation demosaiquesd'imagesdetailles120kmpar120km.Enn,leurmobilitépermettrad'a quérir desimagesentoutpointduglobeenl'espa ed'unejournée.

Dans e adred'a quisition,lare onstru tiond'uneimagesuper-résolueàpartird'unepaire stéréos opiquepeuts'avérerintéressante.Si l'on onsidèredeux prisesdevue d'unemême s ène mais ave un angle diérent, alors on peut onsidérer qu'une des deux images est

(9)

é hantillonnéeirrégulièrementparrapportàlapremière.Dans e ontexte,lare onstru tion d'une image à partir de l'autre ou la fusion de lapaire stéréos opique peuvent être vues ommedesproblèmesdere onstru tionàpartird'uné hantillonnageirrégulier.

1.2 Images utilisées

Comme il a été dé rit pré édemment, lesimages utilisées sont des pairesstéréos opiques. Lagure1.1montreunexempled'unepairestéréos opiqueainsiquel'imagedesdisparités d'uneimageàl'autre.

Fig. 1.1  Exemple d'une paire stéréos opique ©CNES (à gau he et au entre) et des disparitésd'uneimage àl'autre (à droite). Plus un élementse seradépla é entre lesdeux images et plusil sera sombre sur l'image des disparités.Les images n'étant pasprises au même moment, on remarque que lesvoitures ont bougé d'une image àl'autre. De même, l'ombredel'immeuble enbasau entreest légèrementdiérente.

Dans le adre de e travail, leCNES amis à notredisposition deux ouplesd'images: le oupled'imagesde laprison Saint-Mi helàToulouse prisesàl'aide du apteur Péli an et elui deMarseille, simulationdu satellitePléiades. Ensuite pour haque ouple,laso iété CS nous afourni une image des disparitésentre les pairesstéréos. Leparagraphesuivant dé ritl'algorithmequi aétéutiliséparCS.

1.2.1 Constru tion des images

Pourtrouverlesvaleursdesdisparitésentrelespairesstéréos,laso iétéCSautilisé l'algo-rithmeMARC(MultirésolutionAlgorithmforRenedCorrelation)développéparleCNES. Dans etalgorithme,lemodèleutiliséestlesuivant:

˜

u

b

(x) = u

b

(x + θ(x)) + g

b

(x)

(1.1) où

u

b

et

u

b

sontlespairesstéréoset

θ(x)

estundé alageenfon tionde

x

.Dans emodèle,

(10)

valeurdudépla ementestdonnéenmaximisantlerapportde orrélationsuivant:

ρ

x

0

(m) =

R

ϕ(x

0

− x)u

b

(x + m) ˜

u

b

(x)dx

qR

ϕ(x

0

− x)u

2

b

(x + m)dx

R

ϕ(x

0

− x) ˜

u

b

2

(x)dx

(1.2)

Dans ette expression,

ϕ

est la fenêtre de orrélation, elle dénit l'intervallesur lequel la orrélationest al ulée. Dans[7℄, une étudeest faitesur le hoixde taille et de forme op-timalde ettefenêtrean delimiter lesartefa tsdus aupro essus destéréovision, omme parexemplel'adhéren e(dilatationde ertainsobjetsautourde ontours trèsmarqués).

Dans et algorithme, une hypothèse est faite sur les valeurs de

θ(x)

qui ne doivent pas être trop fortes par rapport aux variations de

u

b

. Les points trouvés ne respe tant pas ettehypothèsenesontpasprisen ompte.Pourrésoudre eproblème,l'algorithmeutilise uneappro hemulti-é helle.Enn,pourobtenirunepré isionsubpixéliquedelavaleurdes disparités,ilestné essaired'obteniruneimage ontinuelorsdu al uldu oe ientde or-relation.Cetteétapeestexpliquéedans[7℄.

Une fois la valeur des disparités obtenue, il est possibled'utiliser deux images diérentes pourleproblèmed'é hantillonnageirrégulierqui onsisteàre onstruireuneimageàpartir deladeuxièmeetdesdisparités.Lagure1.2 montre lagrilleirrégulièreobtenueen appli-quantlesdisparitésentrelesdeuximagesd'unepairestéréoàunegrillerégulière.

200

202

204

206

208

210

212

214

216

218

220

350

352

354

356

358

360

362

364

366

368

370

Grille reguliere

X

Y

200

202

204

206

208

210

212

214

216

218

220

345

350

355

360

365

370

375

Fig.1.2Comparaisond'unegrillerégulièredetaille20x20etd'unegrilleirrégulière.Cette grilleirrégulièreestobtenueparappli ationdeladisparitéentrelesdeuximagesd'unepaire stéréosurunepetitezone.

Finalement,nousdé rivonslesimagesparlemodèlesuivant:

(11)

ave :

I

las èneobservée

,

h

laréponseimpulsionnelledusystèmeoptiquedontl'expression est fournieparleCNES(3.17)

,

Λ

lagrilleirrégulièred'é hantillonnage dénie par

Λ

(.) =

P

λ

k

∈∆

δ(. − λ

k

),

les

λ

k

sontlespositionsdesé hantillonset

δ

réprésentelafon tionDira

,

dénie par

δ(x) =

(

1

six=0

,

0

sinon

ε

unbruitdûau apteuroptiquedusystèmeet auxerreursdedisparités.Dansle adre denotreappli ation, nous onsidéronsenpriorité eserreursdedisparités,nous

modéliserons ebruit ommeétantimpulsionnel(partie1.3).

(1.4)

1.3 Appro hes variationnelles

Ilexistedenombreuxalgorithmesdere onstru tionàpartird'uné hantillonnageirrégulier ( f. [9, 11℄ par exemple). La plupart de es algorithmes onsidèrent la grille irrégulière ommeétantune grillerégulièrepertubéeparun légerdé alage

ξ

[14℄. Néanmoinslorsque e dé alage devient plus important, es algorithmes deviennent très approximatifs. Il est di ilederésoudre eproblèmeenessayantuneinversiondire tedansledomainedeFourier arlesfon tionsdetransfertdesoptiquessontdesltrespasses-basets'annulentquandon s'appro hedelafréquen edeNyquist.En onséquen e,uneinversiondire tefaitexploserle bruit ontenudansl'imagemême si elui- iesttrèsfaible (voirgure1.3).Nousformulons don notre problème omme la re her he de la solution exa te

u

qui verie l'équation suivante:

g = ∆

Λ

.(h ∗ u

) + ε

(1.5) où

g

estl'observation,i.e.l'imageé hantillonnéeirrégulièrement.Nous her honsàminimiser

ε

,soit

g − ∆

Λ

.(h ∗ u)

e quiestformulépar:

u

= arg min

u∈R

N

k∆

Λ

.(h ∗ u) − gk

p

p

(1.6) où

k.k

p

p

désigne une norme

l

p

à la puissan e

p

. Le hoix de

p

dépend du type de bruit à minimiser. Pour un bruit gaussien,un hoix naturel est

p = 2

, pour un bruit de type impulsionnel on prendra

p = 1

[3℄. Cependant, laformulation (1.6)(moindres arrés) fait égalementexploserlebruit.Ilest alorsné éssairederégulariserlessolutionsprésentes via, parexemple,uneappro hevariationnelle:

(12)

J(u)

est l'opérateur de régularisation qui est fon tion de

u

et de ses dérivées,

λ

est le paramètrederégularisation.Certainsopérateursfavorisentmieuxlapar imonie(séparation bruit/signal)etpermettentdere onstruireplusnementl'imagetoutenltrantlebruit( f. hapitre4). Unopérateurtrèsrépanduentraitementd'imageest

J(u) = k∇uk

1

[22℄.Cette régularisation senomme laVariation Totale (VT) et permet de onserverles ontours de l'imagemaislisselestextures[1℄(eet " artoon").

Lesimages représentantlesdisparitésentre les ouplesd'imagespeuventprésenterdes er-reurs.Ceserreursontdegrandesréper utionssurlare onstru tiondel'image,enparti ulier surlerepositionnementdes ontoursdesobjets.Ce ipeutêtrevu ommedubruit impulsion-nelsurl'intensité.Notremodèledoitdon êtrerobusteà egenredebruit(uneappli ation possibleaprès le réé hantillonnage pourrait être la fusiondes images). De plus,nous sou-haitonsgarderune ertainequalité del'imageet don nepaslisserles ontours.Nousnous plaçonsdon dansle as

p = 1

arnoussouhaitonsminimiserunbruitimpulsionneletnous régularisonslemodèleenutilisantlavariationtotale,on her hedon :

arg min

u∈R

N

k∆

Λ

.(h ∗ u) − gk

1

+ λk∇uk

1

(1.8)

Fig.1.3Inversiondire tedusystèmepouruneimagebruitéeave unbruitblan gaussien (

RSB = 3.58dB

).Agau hel'imagededépart©CNES, àdroitelerésultataprèsinversion dire te.

And'expli iterleterme

Λ

.(h ∗ u)

, nouspassonsdans ledomainedeFourier(ondésigne par

F

l'opérateurdetransforméedeFourierdis rèteet

F

−1

l'opérateurinverse):

arg min

u∈R

N

k∆

Λ

.(h ∗ u) − gk

1

+ λk∇uk

1

= arg min

u∈R

N

kF

−1

(F(∆

(13)

= arg min

u∈R

N

kF

−1

(F(∆

Λ

) ∗ (F(h)F(u)))) − gk

1

+ λk∇uk

1

(1.9)

En notant

G

la transformée de Fourier de

Λ

, et en substituant le produit matri iel au produitde onvolution,(1.9)peutseréé riresouslaforme:

arg min

u∈R

N

kF

−1

(GF(h)F(u)) − gk

1

+ λk∇uk

1

(1.10)

L'expressionde

F(h)

est elle donnéeparle CNES (3.17), onlanotera

H

. Enn, en rem-plaçantl'opérateur

F

parsonexpressionmatri ielle

F

,nousobtenons:

arg min

u∈R

N

kF

−1

(GHF u) − gk

1

+ λk∇uk

1

(1.11) Ennotant

S = F

−1

G

, (1.11)peutseréé riresouslaforme:

arg min

u∈R

N

kSHF u − gk

1

+ λk∇uk

1

(1.12)

Ave

F

l'opérateurdetransforméedeFourier,

H

latransforméedeFourierdelafon tionde transfertdel'optique

h

et,enn,

S

unopérateurpermettantdepasserd'uneimage omplexe é hantillonnéerégulièrementà une image réelle é hantillonnée irrégulièrement(expression donnéeàlapartie 3.2).Pourplusdesimpli ité,nousé rironsparlasuite:

arg min

u∈R

N

kAu − gk

1

+ λk∇uk

1

(1.13)

Cettemodèlisationest ellequeE.Bughinavaitutilisédans[3℄.Pourrésoudre eproblème, il avaitégalementutiliséune des ente degradientqui onvergeaiten

O(

1

k

)

(nousverrons dans le hapitre 3 omment ontourner la non-dérivabilité de la norme

l

1

). Ce taux de onvergen en'estpasoptimal,ilestdon ru ialdetrouverdesalgorithmesrapidestelsque euxproposésdans[10℄ou[25℄.Dans[10℄,laméthodedespointsintérieursestutilisée.Dans [25℄, uneméthode est developpée pourrésoudre es fon tionnellesàl'aided'unalgorithme proposé par Y. Nesterov [17℄. Dans la suite de e rapport, nous détaillons un algorithme en oreplusré entet plusperfomantdumêmeauteur[20℄.

(14)

Chapitre 2

Etat de l'art : algorithmes rapides

2.1 Gradient omposite

Dans un premier temps, Y. Nesterov [20℄ her he à déterminer le minimum lo al d'une fon tion

φ

dénie par:

φ(x) = f (x) + Ψ(x),

x ∈ Q

(2.1) ave

f

ontinûment dérivableet onvexe,

Ψ

une fon tion onvexe fermée( 'est àdire une fon tion onvexedontl'épigrapheest unensemblefermé)surunensemble

Q

.Unefon tion dérivable

f

est fortement onvexesur

Q

deparamètrede onvéxité

ν ≥ 0

si

∀x, y ∈ Q

:

h∇f(x) − ∇f(y), x − yi ≥ νkx − yk

2

2

(2.2)

Le as

ν = 0

orrespondà une fon tiondérivable onvexe.Une hypothèse est faitesur

Ψ

qui doit être une fon tion simple 'est àdire une fon tionoù

arg min

y∈Q

Ψ(y) +

1

2

ky − xk

2

2



est al ulable.Lafon tion

f

est ontinûmentdiérentiableet songradientestsupposé

L

f

-lips hitzien:

k∇f(x) − ∇f(y)k

2

6

L

f

kx − yk

2

,

∀x, y ∈ Q

(2.3) Nousdisposonsdulemme fondamentalsuivant(A.48):

f (x) ≤ f(y) + h∇f(y), x − yi +

L

2

kx − yk

2

,

∀x, y ∈ Q

(2.4) ave

0 ≤ L ≤ L

f

. Y. Nesterov généralise e lemme eny ajoutantlafon tion

Ψ

, il obtient ainsi:

f (x) + Ψ(x) ≤ f(y) + h∇f(y), x − yi +

L

2

kx − yk

2

+ Ψ(x)

(2.5) D'où,grâ eà(2.1):

(15)

Lafon tion

φ

àminimiserestdon appro héeparleterme dedroitedel'expression pré é-dente.Y.Nesterovutilise etteapproximationpourappro herleminimumdelafon tion

φ

. La onstante

L

nousdispensede onnaitrelavaleurexa tedela onstante deLips hitz

L

f

(quipeutêtredi ileàdeterminer),unesimpleestimationde ette onstanteestsusante, lesalgorithmeslaréajustentauldesitérations( f.parties2.2et2.3).Y.Nesterovdénit:

m

L

(y; x) = f (y) + h∇f(y), x − yi +

L

2

kx − yk

2

+ Ψ(x)

(2.7)

T

L

(y) = arg min

x∈Q

m

L

(y; x)

(2.8)

L'opérateur

T

L

(y)

réaliseunedes entedegradientsur etteapproximation,permettantainsi dede al ulerleminimumlo alsurl'ensemble

Q

.Comme

f

est onvexe,leminimumlo al sur

Q

devientunminimumglobal.Lepremieralgorithme[20℄illustre egradient omposite.

2.2 Méthode à base de gradient

Y.Nesterovdonnel'algorithmesuivant[20℄:

Algorithm1Méthodedegradient

Initialiser

y

0

et

L

0

∈ [0, L

f

]

M

0

= L

0

for

k ≥ 0

do

L = M

k

repeat

T = T

L

(y

k

)

if

φ(T ) > m

L

(y

k

; T )

then

L = Lγ

u

endif until

φ(T ) ≤ m

L

(y

k

; T )

y

k

= T

L = max(L

0

, L/γ

d

)

endfor

ave

γ

u

≥ 1

et

γ

d

≥ 1

, les deux paramètres qui ajustent la valeur de

L

an d'avoir la meilleure estimation. Y. Nesterov démontre [20℄ que et algorithme onvergeen

O

1

k



, il pose:

y

k

(α) = αx

+ (1 − α)y

k

∈ Q, α ∈ [0, 1]

(2.9) Alors:

φ(y

k+1

) ≤ φ(y

k

) ≤ m

M

k

(y

k

; T

L

(y

k

)) ≤ min

y∈Q



φ(y) +

M

k

2

ky − y

k

k

2

2



(2.10)

(16)

≤ min

0≤α≤1



φ(αx

+ (1 − α)y

k

) +

M

k

α

2

2

ky

k

− x

k

2

2



(2.11) Ilposeégalement:

R = max

y

k

∈Q

ky

k

− x

k

2

(2.12) Alors:

φ(y

k+1

) ≤ min

0≤α≤1



φ(y

k

) − α(φ(y

k

) − φ(x

)) +

γ

u

L

f

α

2

2

R

2



(2.13) Si

φ(y

0

) − φ(x

) ≥ γ

u

L

f

R

2

,alorslasolutionoptimaleest

α

= 1

et don :

φ(y

1

) − φ(x

) ≤

γ

u

L

f

R

2

2

(2.14)

Sinonlasolutionoptimaleest

α

=

φ(y

k

)−φ(x

)

γ

u

L

f

R

2

φ(y

0

)−φ(x

)

γ

u

L

f

R

2

≤ 1

et don :

φ(y

k+1

) ≤ φ(y

k

) −

[φ(y

k

) − φ(x

)]

2

γ

u

L

f

R

2

(2.15) Ildénit :

λ

k

=

1

φ(y

k

) − φ(x

)

(2.16)

Enremplaçant etteéquationdans(2.15),ilobtient:

λ

k+1

≥ λ

k

+

1

u

L

f

R

2

≥ λ

0

+

k + 1

u

L

f

R

2

(2.17) ave :

λ

0

=

1

φ(y

0

) − φ(x

)

1

γ

u

L

f

R

2

(2.18)

Finalement,pourtout

k ≥ 0

:

φ(y

k

) − φ(x

) ≤

γ

u

L

f

R

2

k + 2

(2.19)

Delamême façon,si

φ

est fortement onvexesur

Q

de paramètrede onvexité

ν

φ

alorssi

ν

φ

L

f

≥ 2γ

u

:

φ(y

k

) − φ(x

) ≤



γ

u

L

f

ν

φ



k

(φ(y

0

) − φ(y

)) ≤

1

2

k

(φ(y

0

) − φ(y

)) ∀k ≥ 0

(2.20) ave

y

= y

k

)

.Sinon:

φ(y

k

) − φ(x

) ≤



1 −

ν

φ

u

L

f



k

(φ(y

0

) − φ(y

))

∀k ≥ 0

(2.21)

Cetalgorithmeestsimilaireà eluiproposéparP.L.Combettes[6℄et onvergeégalementen

O

1

k



.Cependant etalgorithme peutêtrea éléré[18℄ pouratteindreuntauxde onver-gen een

O

1

k

2



.

(17)

2.3 Méthode a élérée à base de gradient

Pour etteversiona élérée[20℄del'algorithme,Y.Nesterov onsidèreleproblèmesuivant:

min

x∈E

(φ(x) = f (x) + Ψ(x))

(2.22)

Ψ

est une fon tion fermée fortement onvexe sur

E

. Cette formulation admet que le domainededénition de

Ψ

soit diérentde

E

, e i permet derésoudre lesproblèmes sous ontraintes.And'améliorer letauxde onvergen e dupré édentalgorithme,Y. Nesterov utiliselate hniquedel'estimationdefon tions[19℄,ilmetàjourré ursivementlesséquen es suivantes:

ˆ laséquen edeminimisation

x

k

.

ˆ laséquen e roissantedes

A

k

= A

k−1

+ a

k

,

∀k ≥ 1

,

A

0

= 0

ˆ laséquen edesfon tionsestimées:

ψ

k

(x) = l

k

(x) + A

k

Ψ(x) +

1

2

kx − x

0

k

2

2

,

∀k ≥ 0

(2.23) où

x

0

est lasolutioninitiale,et

l

k

(x)

sontlesfon tionslinéaires de

E

. Lepointimportant de etalgorithmeest qu'à haqueitération,lesrelationssuivantes soientrespe tées:

(

R

1

k

: A

k

φ(x

k

) ≤ ψ

k

= min

x∈E

ψ

k

(x)

R

2

k

: ψ

k

(x) ≤ A

k

φ(x) +

1

2

kx − x

0

k

2

2

, ∀x ∈ E

(2.24)

Cesdeuxrelationsjustientletauxde onvergen edel'algorithme(2.26).Y.Nesterov pro-pose l'algorithmesuivant:

Algorithm2Méthodedegradienta elérée

Initialiser

ψ

0

(x) =

1

2

kx − x

0

k

2

2

,

A

0

= 0

,

L

0

∈ [0, L

f

]

,

ν ∈ [0, ν

Ψ

]

for

k ≥ 0

do

L = L

k

repeat Résoudre

a

de

a

2

A

k

+a

= 2

1+νA

k

L

Cal uler

y =

A

k

x

k

+av

k

A

k

+a

,puis

T

L

(y)

if

(T

L

(y)), y − T

L

(y)i <

1

L

(T

L

(y))k

2

2

then

L = Lγ

u

endif until

(T

L

(y)), y − T

L

(y)i ≥

L

1

(T

L

(y))k

2

2

y

k

= y, M

k

= L, a

k+1

= a

L

k+1

= M

k

d

, x

k+1

= T

M

k

(y

k

), A

k+1

= A

k

+ a

k+1

ψ

k+1

(x) = ψ

k

(x) + a

k+1

[f (x

k+1

) + h∇f(x

k+1

), x − x

k+1

i + Ψ(x)]

endfor

(18)

ave

ν

Ψ

leparamètrede onvexitédelafon tion

Ψ

et :

v

k

= arg min

x∈E

ψ

k

(x)

(2.25)

Uneitérationde etalgorithmeestdeux foispluslongueque elledel'algorithmeprésenté pré édemment arlegradientdelafon tion

f

est al ulédeuxfois, ependantilestdemontré dans[20℄que sontaux de onvergen e est meilleur puisqu'il onvergeen

O

1

k

2



. En eet, departlesrelations

R

1

k

et

R

2

k

:

A

k

φ(x

k

) ≤ φ

k

= min

x∈E

φ

k

(x) ≤ φ

k

(x) ≤ A

k

φ(x) +

1

2

kx − x

0

k

2

2

A

k

(φ(x

k

) − φ(x)) ≤

1

2

kx − x

0

k

2

2

φ(x

k

) − φ(x

) ≤

1

2A

k

kx

− x

0

k

2

2

,

∀k ≥ 1

(2.26)

D'autrepart,d'aprèsl'algorithme:

L

k

≤ M

k

≤ γ

u

L

f

,

∀k ≥ 0

(2.27)

A

k+1

= A

k

+ a

k+1

=

M

k

a

2

k+1

2(1 + νA

k

)

,

∀k ≥ 0

(2.28) Deplus,pour

ν ≥ 0

:

A

k+1

≤ A

k+1

(1 + νA

k

) =

M

k

2

(A

k+1

− A

k

)

2

=

M

k

2

h

A

1/2

k+1

− A

1/2

k

i

2

h

A

1/2

k+1

+ A

1/2

k

i

2

M

k

2

h

A

1/2

k+1

− A

1/2

k

i

2

h

2A

1/2

k+1

i

2

≤ 2A

k+1

M

k

h

A

1/2

k+1

− A

1/2

k

i

2

≤ 2A

k+1

γ

u

L

f

h

A

1/2

k+1

− A

1/2

k

i

2

(2.29) D'où:

A

k

k

2

u

L

f

,

∀k ≥ 0

(2.30)

Delamême façon,si

ν > 0

,alors:

νA

k

A

k+1

< A

k+1

(1 + νA

k

) ≤ 2A

k+1

γ

u

L

f

h

A

1/2

k+1

− A

1/2

k

i

2

(2.31) D'où:

A

k

≥ A

1/2

k



1 +

r

ν

u

L

f



(2.32)

(19)

Entenant omptedufaitque

A

0

=

1

M

0

1

γ

u

L

f

,l'équation (2.32)peutseréé rire omme:

A

k

1

γ

u

L

f



1 +

r

ν

u

L

f



2(k−1)

,

∀k ≥ 1

(2.33)

En onséquen e,Y.Nesterovobtientletauxde onvergen esuivant:

φ(x

k

) − φ(x

) ≤

γ

u

L

f

kx

− x

0

k

2

2

k

2

,

∀k ≥ 1

(2.34)

Deplus,si

Ψ

est fortement onvexe(

ν > 0

),alorsletauxde onvergen esatisfaitàlafois l'équationpré édenteet elle- i:

φ(x

k

) − φ(x

) ≤

γ

u

L

f

2

kx

− x

0

k

2

2



1 +

r

ν

u

L

f



−2(k−1)

,

∀k ≥ 1

(2.35)

(20)

Chapitre 3

Solution proposée

Cettepartie se onsa re àla mise en oeuvre de laversiona éléréede l'algorithme de Y. Nesterovpourleproblèmederestauration.

3.1 Résolution

Leproblèmeestlesuivant:

arg min

u∈R

N

kAu − gk

1

+ λk∇uk

1

(3.1)

Pourmettre en oeuvre au mieux et algorithme, il est né éssaire de orre tement hoisir quels termes représenteront les fon tions

f (u)

et

Ψ(u)

. La fon tion

Ψ

doit être simple et onvexe.Cependantdansnotreproblème,au undesdeuxtermesn'estunefon tionsimple et onvexe. Nous pourrions rajouter un terme du type

γ

2

ku − gk

2

, mais e i modierait sensiblementlemodèle.Orilapparaitquelafon tion

Ψ

n'estpasindispensablepourobtenir letaux de onvergen e annon é parY. Nesterovpourson algorithme.Nous prenonsdon

Ψ(u) = 0

(sonparamètre de onvexité vautainsi

ν

Ψ

= 0

). En onséquen e, nousprenons

f (u) = kAu − gk

1

+ λk∇uk

1

. Cette fon tion est bien onvexe, mais non-dérivable ar la norme

l

1

n'estpasdérivableen

0

.Nousallonsdon larégulariserdelafaçonsuivante:

kuk

1,µ

=

N

X

i=1

q

u

2

i

+ µ

2

(3.2)

Finalement,nousavons:

f (u) = kAu − gk

1,µ

+ λJ

µ

(u)

(3.3)

Ψ(u) = 0

(3.4)

ave

J

µ

(u) = k∇uk

1,µ

. Lasuitedes al ulsest donnéedansl'annexeA,nousobtenons:

T

L

(y) = y −

1

(21)

∇f(u) = A

p

(Au − g)

(Au − g)

2

+ µ

2

!

− λ

div

∇u

p

|∇u|

2

+ µ

2

!

(3.6)

v

k

= x

0

k

X

i=1

a

i

∇f(x

i

)

(3.7)

a =

1

L

+

s

1

L



2

+ 2A

k

1

L

(3.8)

L

f

=

kAk

2

2

+ λk

div

k

2

2

µ

(3.9)

Pourplusdesimpli ité,nousdénissons:

w

k

=

P

k

i=1

a

i

∇f(x

i

)

.Ainsi:

w

k+1

= w

k

+ a

k+1

∇f(x

k+1

),

∀k ≥ 0,

w

0

= 0

(3.10) (3.7)devient:

v

k

= x

0

− w

k

(3.11)

Nous onnaissonslavaleurdela onstante deLips hitz

L

f

, iln'est don pasné éssairede l'estimer,l'algorithmeserésumeainsià:

Algorithm3Méthodedegradienta elérée Initialiser

A

0

= 0

,

w

0

= 0

for

k ≥ 0

do

a =

L

1

f

+

r

L

1

f



2

+

L

2

f

A

k

v

k

= x

0

− w

k

y

k

=

A

k

A

x

k

k

+av

+a

k

x

k+1

= y

k

L

1

f

∇f(y

k

)

w

k+1

= w

k

+ a∇f(x

k+1

)

A

k+1

= A

k

+ a

endfor

ave

x

0

lasolutioninitialeànotreproblème.Larégularisationdelanorme

l

1

nouspermet seulement d'obtenir un taux de onvergen e en

O(

1

k

)

. Cependant si notre obje tif est de minimiserleproblèmerégularisé,alorsnousobtenonsbienuntauxde onvergen een

O(

1

k

2

)

. Pour ertainsproblèmes,le hoixdelafon tion

Ψ

peut,enplus,apporterune a élération nonnégligeableàl'algorithme.Pourunproblèmedetype

l

2

− l

1

,ilestavantageuxdesuivre l'idée de Y. Nesterov [20℄.Ilsuggère deréallouer leterme

Ψ

au sein de lafon tion

f

. En eet, il propose de hoisir un terme fortement onvexe pour la fon tion

Ψ

, typiquement

Ψ(u) =

γ

2

ku − gk

2

(deparamètrede onvexité

γ

)et deposer:

ˆ

(22)

Sousla onditionqueleparamètrede onvexitédelafon tion

Ψ

soit inférieurà eluide

f

, lafon tion

f

ˆ

est onvexe.Cetteméthodepermet,enautre, deminimiserexa tementnotre problème.Eneet:

min

u∈E

φ(u) = min

u∈E

h

ˆ

f (u) + Ψ(u)

i

= min

u∈E

h

f (u) − Ψ(u) + Ψ(u)

i

= min

u∈E

f (u)

(3.13)

L'algorithmeestdeplusnettementplusrapidequesinousavionssimplement hoisi

Ψ(u) =

0

.

3.2 Réalisation

Pour la mise en oeuvre de et algorithme nous utilisons la librairie ITK qui fournit en autre, unalgorithme deFFT (VNL), algorithme non optimal,mais sousli en e libre. Les opérateurs

etdivserontprogrammésenutilisantless hémasnumériquesproposésparA. Chambolle [4℄:

x

u(i, j) =

(

u(i + 1, j) − u(i, j)

si

i < N,

0

si

i = N

(3.14)

y

u(i, j) =

(

u(i, j + 1) − u(i, j)

si

j < N,

0

si

j = N

(3.15) div

v =

v

x

(i, j) − v

x

(i − 1, j)

si

1 < i < N

v

x

(i, j)

si

i = 1

−v

x

(i − 1, j)

si

i = N

+

v

y

(i, j) − v

y

(i, j − 1)

si

1 < j < N

v

y

(i, j)

si

j = 1

−v

y

(i, j − 1)

si

j = N

(3.16) L'expressiondelafon tiondetransfert del'optiqueest ellefournieparleCNES :

H(f

x

, f

y

) = e

−α

f

2

x

+f

2

y

e

−βf

y

sin

(πaf

x

)

sin

(πaf

y

)

(3.17) Pour al uler l'opérateur de transformée de Fourier inverse irrégulière ainsi que son ad-joint,nousavons onservélaméthodeemployéeparE.Bughin[3℄quiavait hoisid'utiliser l'USFFT(UnequallySpa edFastFourierTransform)proposéeparG.Beylkin[2℄.Dansson papier,G.BeylkindémontrequelatransforméedeFourierd'uneimagepeutêtrevue omme uneinterpolationsplined'ordre

m

.Eneet,unetransforméeinversedeFouriers'é ritdela façonsuivante:

u(λ

j

) =

N −1

X

k=0

N −1

X

l=0

a

kl

e

i2πλj,1k

N

e

i2πλj,2l

N

(3.18)

ave

a

kl

les oe ientsde Fourier.Ce i est une interpolation lassique sinus ardinal, qui peutserée riresouslaforme:

u(λ

j

) =

2N −1

X

k=0

2N −1

X

l=0

w

kl

e

i2πλj,1k

N

e

i2πλj,2l

N

(3.19)

(23)

ave :

w

kl

=

a

kl

pour

(k, l) ∈ [0, N/2 − 1]

2

,

a

(k−N)l

pour

k ∈ [N + N/2, 2N − 1], l ∈ [0, N/2 − 1],

a

k(l−N)

pour

k ∈ [0, N/2 − 1], l ∈ [N + N/2, 2N − 1],

a

(k−N)(l−N)

pour

k ∈ [N + N/2, 2N − 1], l ∈ [N + N/2, 2N − 1],

0

sinon (3.20)

Cetteétape orrespondàunsuré hantillonnageparmiseàzérodeshautesfréquen es(zero padding) pour le as d'une transformée de Fourier non entrée (dans e as, les hautes fréquen essontau milieude l'image).G.Beylkin[2℄ her heensuite les oe ients

v

kl

de l'interpolationsplinetelsque:

u(λ

j

) =

2N −1

X

k=0

2N −1

X

l=0

v

kl

β

(m)

(2 ∗ λ

j,1

− k)β

(m)

(2 ∗ λ

j,2

− l)

(3.21)

Nousavonslarelationsuivante:

2N −1

X

k

1

=0

2N −1

X

l

1

=0

w

k

1

l

1

e

i2πλj,1k1

N

e

i2πλj,2l1

N

=

2N −1

X

k

2

=0

2N −1

X

l

2

=0

v

k

2

l

2

β

(m)

(2 ∗ λ

j,1

− k

2

(m)

(2 ∗ λ

j,2

− l

2

)

(3.22)

Lase ondepartiedel'équation orrespondàune onvolutiondelafon tion

v

parunespline. Enpassant(3.22)dansl'espa edeFourier,nousobtenonslarelationsuivante:

c

V

kl

=

w

kl

c

b

kl

(3.23)

V

b

estlatransforméedeFourierde

v

,et

bb

estlatransforméedeFourierde

β

(m)

. L'algo-rithmeestalorslesuivant:

ˆ Partird'uneimagerégulièredansl'espa edeFourier.

ˆ Faireunsuré hantillonnageenajoutantdes0dansleshautes fréquen es.Nous obte-nonsalorsdes oe ientsdeFourier

w

kl

.

ˆ Diviserles oe ients

w

kl

parles oe ientsdeFourierd'unefon tionsplined'ordre m.

ˆ Repasserdans l'espa e réel pour obtenirune imagesuré hantillonnéeet dé onvoluée parunefon tionspline.Ce i nousdonneune image

v

.

ˆ Cal ulerl'interpolationsplinede

v

auxpointsirréguliers

λ

j

.Nousobtenonsalorsune approximationde

u

auxpoints

λ

j

.

(24)

ˆ Cal uler l'interpolation spline pourobtenir une image suré hantillonéedans l'espa e réel.

ˆ PrendrelatransforméedeFourier.

ˆ Faireunedé onvolutiondessplinesdansl'espa edeFourier.

ˆ Couperleshautesfréquen espourobteniruneimage delatailledésirée.

3.3 Résultats

Cet algorithme a été testé sur deux images mises àdisposition par le CNES : l'image de laprisonSaint-Mi helàToulousepriseàl'aidedu apteurPéli an(detaille1000par1000 pixels)et elle deMarseille (detaille 972par972pixels),simulationsdusatellite Pléiades ( f.gure3.1).

Fig.3.1Imagesdedépart(de gau heàdroite) :Toulouseet Marseille(é hantillonnages irréguliers),©CNES.

Lerésultatsurlagure3.2aétéobtenuen110itérations, al uléen15minutes( f. gure 3.3).Laméthodenona élérée,ave lesmêmesparamètres,atteintlemêmerésultataprès 2h30de al uls(2300itérations).Laqualitéduréé hantillonnageesttrèsbonnepuisqueles seulsdiéren essontliéesauxobjetsquisesontdépla ésdurantlesdeuxprisesdevues( f. gure3.2).En terme deperfoman es, parrapport àlades ente degradient,nous gagnons plusd'unfa teur20surlenombred'itérations.Cependant,l'itérationestpluslonguedans notre as, arlegradientdelafon tion

f

doitêtre al uléunefoisdeplus,etdon legainde tempsde al ulest voisinde10, e quiestdéjàimportant.Nousallonsmaintenantétudier plusendétails l'inuen edesparamètressurlaméthodeproposée.

(25)

Fig. 3.2  De gau he à droite et de haut en bas : l'image obtenue, l'imageà obtenir, la diéren edesdeuximagesetennladiéren edel'imageàobtenirave l'imagededépart (i.eavantréé hantillonnage).

(26)

Fig.3.3 Comparaison des algorithmes(algorithmede Nesterov versiona éléréeet mé-thodes lassiques)surune imagedetaille1000x1000pixels.

(27)

Inuen e du paramètre

λ

:

Leparamètre

λ

estleparamètrederégularisationdelavariationtotale.Ce termeestdon lié au ltragede l'image onsidérée.C'est pour ela qu'il faut le hoisir en fon tion dela puissan e de bruit ontenu dans l'image. Les diérents tests représentés sur la gure 3.4 montrentlerésultatdel'algorithmeenfon tionde

λ

pourunbruitgaussien,bienquenotre modèlene soitpas trèsrobuste à egenre debruit,pourlequelune norme

l

2

surle terme d'atta heauxdonnéesseraitplusappropriée.

Fig.3.4Imageobtenuepouruneimagebruitéeave unbruitblan gaussien(

RSB = 4.80

dB

)selondiérentesvaleursde

λ

(degau heàdroite:

λ = 0.1

,

λ = 0.7

,

λ = 1

).

Commeonpeutlevoir,une fortevaleurde

λ

ltre orre tementl'imagemaislalisseaussi énormement.Pouréviter ela,et entenant ompte dufaitquenosimages sontfaiblement bruitées, nous prendrons

λ = 0.3

. De plus, nous avons préféré être e a e sur le bruit impulsionnel, de façon à atténuer les erreurs sur les images des disparités, e qui justie l'utilisation de la norme

l

1

. La gure 3.5 montre l'e a ité de la norme

l

1

sur un bruit impulsionneldetypepoivre&sel deprobabilité10%.En eet,utliserune norme

l

2

pour egenredebruitoblige àfortementlisserl'image(fortevaleurde

λ

), alorsquelanorme

l

1

a omplétementsupprimélebruit.

Inuen e du paramètre

µ

:

Le paramètre

µ

est le terme qui régularisela norme

l

1

. Une valeurtrop importante de

µ

faussera ette régularisation e qui se traduit par un eet de ou sur l'image omme le montrelagure3.6.Cependant e in'estvisiblequelorsque leparamètre

λ

estimportant. Lavitessede onvergen edel'algorithmeétanten

1

µ

(gure3.7),ilestpluttavantageuxde

prendreun

µ

assezgrand,lesimagesétantfaiblementbruitées,nousprendronsun

λ

faible et eteetneserapasprésent.Néanmoins ette valeurde

µ

dépend aussideladynamique

(28)

Fig.3.5Réé hantillonnageetltragedebruitdetypepoivre&sel(degau heàdroite: imaged'originebruitée,résultatdelanorme

l

1

,résultatdelanorme

l

2

).

Fig.3.6Eetdeouselonlavaleurde

µ

(degau heàdroite:

µ = 1

,

µ = 5

,

µ = 10

pour

λ = 10

).

(29)

Marseille.En onséquen e,nousadapteronslavaleurde

µ

enfon tiondel'imageàtraiter: onprendra

µ = 2

pourl'imagedeMarseilleet

µ = 10

pour elledeToulouse.

Fig.3.7 Convergen edel'algorithmeenfon tionde

µ

surune imagedetaille1000x1000 pixels.

(30)

Chapitre 4

Régularisation dans le domaine

des ondelettes

Nousavonsvu pré édemmentquelavariationtotaleétaite a esurleszoneshomogènes del'imageainsi quesur les ontours mais qu'ellese omportait malsur lestextures. Pour résoudre e problème, nous allons ee tuer une régularisation dans le domaine des onde-lettes.Lesondelettespermettentdemieux représenterleszoneshétérogènes(et onservent ainsiledétaildestextures)quelavariationtotale.D'autrepart,ellesorentunemeilleure par imonie(séparationbruit/signal), ette régularisationseraégalementpluse a epour leltragedubruitgaussien.Nousreformulonsleproblèmedelafaçonsuivante :

arg min

u∈R

N

kAu − gk

1

+ λkΥuk

1

(4.1)

ave

Υ

latransformationenondelettes.Cettemodélisationn'estpas ouranteetrelativement ré ente[23℄.En eet,pour eproblème,unemodélisationnettementplusrépanduedansla littératureest unemodélisationdepar imonie[8℄:

arg min

y∈R

N

kAΥ

−1

y − gk

1

+ λkyk

1

(4.2)

y

est le ve teur des oe ients de la transformée en ondeletteset

Υ

−1

la transformée en ondelettesinverse. Dansle premier modèle (modèlede régularisation), laminimisation estfaitedire tementsurlesignaltandisquepourlemodèledepar imonie,laminimisation estfaitesurles oe ientsdesatransforméeenondelettes.Le hapitre6 ompare esdeux modèles.

Les ondelettes lassiques ne présentant pas d'invarian e par translation et rotation, nous avons hoisid'utiliser la"Dual-Tree ComplexWaveletTransform"(Transformée en Onde-lettesComplexes)deN.G.Kingsbury[12℄.

(31)

4.1 Transformée en ondelettes omplexes

N.G.Kingsburyaintroduitdans[12℄unetransforméeenondelettes omplexesquipermetde résoudrelesproblèmesd'os illations,d'aliasingetd'invarian epartranslationetrotationdes transformationsenondelettesréelles lassiques.Ilestimportantdenoterquelatransformée de Fourierne soure pasde es problèmes, ar, àl'inversedes transformées enondelettes réelles,elleest baséesurdessinusoides omplexes:

e

jΩt

= cos(Ωt) + j sin(Ωt)

(4.3) Ces deux omposantes sinusoidalesforment une pairede transformation de Hilbert ( 'est à dire qu'elles sont déphasées de 90° l'une de l'autre), ensemble elles forment un signal analytique

e

jΩt

, qui présente debonnespropriétés pourle traitementdusignal (dont une représentationsuruneseulemoitiédesfréquen es:

Ω ≥ 0

).Ens'inspirantde emodèle,N. G.Kingsbury onstruit uneondelette omplexeàpartirdedeuxondelettesréelles:

ψ

c

(t) = ψ

r

(t) + jψ

i

(t)

(4.4) Paranalogieave l'équation(4.3),

ψ

r

(t)

estréelleet paireet

ψ

i

(t)

estréelleet impaire.De plus, si

ψ

r

(t)

et

ψ

i

(t)

forment une paire de transformation de Hilbert, alors

ψ

c

(t)

est un signalanalytique.

Une appro he pour obtenir ette ondelette analytique est d'utiliser deux transformations enondelettesréelles, lapremièredonne lapartie réellede latransformation, tandisquela deuxièmedonnelapartieimaginaire,introduisantainsiuneredondan ed'unfa teur2(4en 2D).

Lesban sdeltresutiliséspour ette transformationsontréprésentés surlagure4.1.La transformation inverse est donnéesur la gure 4.2. Cha unedes deux transformations en ondelettesréellesutilisedeuxseriesdeltresdiérents,quidoiventégalementêtrediérents desltresdupremierniveaupourquelatransformationenondelettessoitanalytique.Soient

h

e

(n)

et

g

e

(n)

lesltrespasse-basetpasse-hautduban deltressupérieur,

h

o

(n)

et

g

o

(n)

lesltrespasse-basetpasse-hautduban deltresinférieur,nousavons:

ψ(t) = ψ

g

e

(t) + jψ

g

o

(t)

(4.5) Ainsi

ψ

g

e

(t)

est paire tandis que

ψ

g

o

(t)

est impaire. Les oe ients de l'arbre supérieur sont don sous-é hantillonnés de manièreà ne garderque les oe ients pairstandis que l'arbre inférieur onserve les oe ients impairs. Les ltres du premier niveau sont iden-tiques(

h

e

(n) = h

o

(n)

et

g

e

(n) = g

o

(n)

, lesdeuxarbres sontainsi dé alésd'un é hantillon à eniveau), tousles oe ientssontdon onservés,etonobserveuneinvarian eparfaite aupremierniveau.

Lesltresassurentque

ψ(t)

soitanalytique,autrementditque

ψ

g

o

(t)

soitlatransformation deHilbertde

ψ

g

e

(t)

.

(32)

Fig.4.1Transformée enondelettes omplexes1D.

(33)

Ce iimpliquelarélationsuivante surlesltres:

g

o

(n) ≈ g

e

(n − 0.5)

(4.7) Aux niveaux

j > 1

les ltres doivent don être dé alés de

1

2

é hantillon (

1

4

en 2D) an

d'obteniruneinvarian epartranslation.Ce iestrealiséenutilisantdesltresdelongueurs diérentes,i.e. des ltresde longueurpaire

h

e

, g

e

pour unarbre et des ltresde longueur impaire

h

o

, g

o

pourl'autre arbre.N. G.Kingsburyobtientainsi unetransformationen on-delettesapproximativementinvariantepartranslation.

En utilisant des ban s de ltres séparables, la transformée 1D peut être étendue à des signaux bidimensionnels. N. G. Kingsbury [15℄ a montré qu'une telle transformée restait e a edupointdevuedutempsde al ul,etquel'onobtenaitdemeilleurespropriétésde dire tionalitéqu'ave l'équivalentréelmalgrélaséparabilité.Lapropriétédere onstru tion exa teest onservée,ainsiquelapresqueinvarian epartranslation.

Onnote

(a

A

, d

A

)

et

(a

B

, d

B

)

lessignauxd'approximationetlesdétailspourlesdeuxarbres

A

(arbre supérieur) et

B

(arbre inférieur). Les détails

d

A

et

d

B

peuvent don être inter-prétés omme lapartie réelle et lapartie imaginaire d'un signal omplexe

z = d

A

+ i d

B

. Lapropriétéimportante de ettetransformée est queleseuillagedes oe ients

|z|

donne beau oup moinsd'artéfa tsqueleseuillagedes oe ientsd'unetransforméeréelle[13℄.

La régularisation

l

1

de notre modèle réalise indire tement un seuillage (seuillage doux de seuil

λ

dans le asdu modèledepar imonie, f. hapitre6), e qui apour onséquen ede lissernotreimage ommelemontrelagure4.3.Ilfautdon êtreprudent,dansle asd'une dé onvolution,à orre tement hoisirleparamètre

λ

pouréviterdetroplisserl'image.

Fig.4.3Imagebruitéedontles oe ientsontétéseuillésenutilisantunseuillagedoux. Degau heàdroite :imaged'originebruitéeparunbruit blan gaussien(

RSB = 4.57dB

), résultatparseuillagedoux(

RSB = 12.60dB

).

(34)

4.2 Mise en oeuvre

An d'utiliser ette régularisation dans notre algorithme, il est né éssaire de déterminer l'expressionde

Υ

l'opérateuradjointdelatransformationenondelettes omplexes

Υ

.Pour simplier e al ul,nous onsidéronslatransformationnondé iméesurunseulniveau.Les oe ients omplexes

z

sontdon déterminésdelafaçonsuivante :

z = g

o

⋆ x

(4.8)

Enutilisantuneé riturematri ielle, etteéquationpeutseréé rire ommeleproduit dela transformationenondelettes omplexes

Υ

etduve teur

x

:

z = Υx

(4.9)

Dans e as,

Υ

estégaleàlamatri edeToeplitzdultre

g

o

:

Υ =

g

o

(0)

g

o

(1)

· · ·

· · ·

g

o

(n − 1)

g

o

(−1)

g

o

(0) g

o

(1)

· · ·

g

o

(n − 2)

. . . . . . . . . . . . . . .

g

o

(1)

g

o

(−n + 1)

· · ·

· · ·

g

o

(−1)

g

o

(0)

(4.10)

L'opérateurtransposé onjugué(ouadjoint)

Υ

s'é ritalorsdelafaçonsuivante:

Υ

=

g

o

(0)

g

o

(−1)

· · ·

· · ·

g

o

(−n + 1)

g

o

(1)

g

o

(0)

g

o

(−1)

· · ·

g

o

(−n + 2)

. . . . . . . . . . . . . . .

g

o

(−1)

g

o

(n − 1)

· · ·

· · ·

g

o

(1)

g

o

(0)

(4.11)

C'est la matri e de Toeplitz du ltre renversé

g

o

. En onséquen e pour réaliser l'adjoint, nousutiliserons lastru ture de latransformée inverseet lesltres duaux serontlesltres retournésde latransformée en ondelettes omplexes. Ce al ul aété validéen veriantla propriétésuivante:

hΥx, yi = hx, Υ

yi ∀x, y ∈ R

N

(4.12)

Pour implanter l'algorithme, il est également né éssaire de al uler la onstante de Lip-s hitz du nouveau problème. Le al ul est similaire au pré édent modèle ( f. A.33), par analogienousposons

∇ = Υ

,nousobtenonsalors:

L

f

=

kAk

2

2

+ λkΥk

2

2

µ

(4.13)

Lesltresdelatransforméeenondelettes omplexessonttousdenormeinférieureouégale à1,nouspouvonsdon é rireque

kΥk

2

2

≤ 1

.

(35)

4.3 Résultats

Cemodèleaététestésurleproblèmederéé hantillonnage,lesrésultatssontdonnéssurla gure4.4.Lesmodèlesétantdiérents,nouspouvonsdi ilement omparerleurvitessede onvergen e,néanmoins, larégularisation par ondelettesné éssite moins d'itérations pour onverger(82itérations ontre110itérationspourlavariationtotale) ependantnotre im-plantationdelatransforméeenondelettes omplexesn'estpasoptimaleetuneitérationest 4foispluslonguequ'uneitérationdel'algorithmeave variationtotale.

Nouspouvonsremarquerquelesrésultatssontbienmeilleursentermedequalitéde re ons-tru tion,lestexturesn'étantpluslissées ommeave larégularisationparvariationtotale. Néanmois, le seuillage doux intrinséque à ette régularisation lisse légèrement l'image et diminuel'intensitédespetitsélements.

Fig.4.4Degau heàdroiteet dehautenbas,l'imaged'origine,l'imagebruitée(

RSB =

15.62 dB

), le résultat ave la variation totale (

RSB = 24.09 dB

), et le résultat ave la régularisationparondelettes(

RSB = 24.42 dB

).

(36)

Chapitre 5

Comparaison dual/primal

Leproblèmeprésentédansle hapitrepré édentpeutêtreé ritsoussaformeduale[4,24,25℄. Cetteformulationdualesembleêtreplusperfomante quelaformulationprimale[25℄. Ce hapitrese onsa reàla omparaisonentrelesmodélisationsdualeetprimalesurun pro-blèmedetype

BV −l

1

,puissurleproblèmedere onstru tion.Lesmethodessont omparées grâ eàl'algorithmedeY. Nesterov.

5.1 Modèle

BV

− l1

Nous onsidèronsleproblèmesuivant(problèmedetype

BV − l

1

[21℄):

arg min

u∈R

N

λku − gk

1

+ k∇uk

1

+

ε

2

ku − gk

2

2

(5.1) Leterme

ε

2

ku−gk

2

2

estrequispouree tuerla omparaisonprimal/dual.Pourappliquer

l'al-gorithmedeY.Nesterov, eproblèmedoitêtrediérentiable,onintroduitdon leparamètre

µ

pourrégulariserlanorme

l

1

.L'équation(5.1)devient:

arg min

u∈R

N

λku − gk

1,µ

+ k∇uk

1,µ

+

ε

2

ku − gk

2

2

(5.2)

5.2 Algorithme primal

Pour etalgorithme,nousappliquonssimplementles hémadeNesterovdire tementsurle problème(5.2).Nousprenons:

f (u) = λku − gk

1,µ

+ k∇uk

1,µ

(5.3)

Ψ(u) =

ε

2

ku − gk

2

(37)

Poursimplierles al uls né éssairesàlamise enoeuvrede etalgorithme, nousutilisons l'opérateurproximal[5,6℄. Cetopérateurestdénidelafaçonsuivante :

prox

αΨ

(x) = arg min

y∈Y



αΨ(y) +

1

2

ky − xk

2

2



(5.5)

Dansle asdefon tionindi atri epour

Ψ

,l'opérateurproximalestunopérateurde proje -tionsurlemême ensemble[6℄:

prox

χ

K

(x) = Π

K

(x) = arg min

y∈K

ky − xk

2

2

(5.6)

ave

Π

K

l'opérateurde proje tionsur et ensemble (sonexpression est determinée parla ara térisation de l'ensemble

K

, voir se tion suivante) et

χ

K

la fon tion indi atri e sur l'ensemble

K

:

χ

K

(y) =

(

0

si

y ∈ K

sinon (5.7)

L'algorithmeprésenté àlase tion3.1peutseréé riredelafaçonsuivante[24℄:

Algorithm4Méthodedegradienta eléréesurleproblèmeprimal

BV − l

1

Initialiser

A

0

= 0

,

w

0

= 0

for

k ≥ 0

do

a =

1+εA

k

L

f

+

r

1+εA

k

L

f



2

+ 2A

k

1+εA

L

f

k

v

k

= prox

A

k

Ψ

(x

0

− w

k

)

y

k

=

A

k

A

x

k

k

+av

+a

k

x

k+1

= prox

1

Lf

Ψ



y

k

∇f(y

L

f

k

)



w

k+1

= w

k

+ a∇f(x

k+1

)

A

k+1

= A

k

+ a

endfor

ave

x

0

lasolutioninitialeet:

∇f(u) = λ

p

(u − g)

|u − g|

2

+ µ

2

div

∇u

p

|∇u|

2

+ µ

2

!

(5.8)

L

f

=

λ + k

div

k

2

µ

(5.9)

(38)

5.3 Algorithme dual

Pourl'é rituredualede etalgorithme,nousutilisonsuneautreapproximationdelanorme

l

1

baséesurlarégularisationdeMoreau-Yosida[16℄ :

kxk

1,µ

=

max

y∈R

N

,kyk

≤1



hx, yi −

µ

2

kyk

2

2



(5.10)

Nousréé rivonsleproblème(5.2)enutilisant ette dénition:

arg min

u∈R

N



λku − gk

1,µ

+ k∇uk

1,µ

+

ε

2

ku − gk

2

2



(5.11)

= arg min

u∈R

N



max

y∈R

N

,kyk

≤1

λhu − g, yi + h∇u, yi +

ε

2

ku − gk

2

2

µ

2

kyk

2

2



(5.12)

= arg min

u∈R

N



max

y∈R

N

,kyk

≤1

hCu − F, yi +

ε

2

ku − gk

2

2

µ

2

kyk

2

2



(5.13) (5.14) ave :

C =



λI



F =



λg

0



(5.15)

La re her hedu

max

sur

y

est, en fait, indépendante de la re her hede l'

arg min

sur

u

, nouspouvonsdon lesinverser:

arg min

u∈R

N



λku − gk

1,µ

+ k∇uk

1,µ

+

ε

2

ku − gk

2

2



(5.16)

=

max

y∈R

N

,kyk

≤1



arg min

u∈R

N

hCu − F, yi +

ε

2

ku − gk

2

2

µ

2

kyk

2

2



(5.17) Soit:

s(u) = hCu − F, yi +

ε

2

ku − gk

2

2

µ

2

kyk

2

2

(5.18) Nous her hons:

arg min

u∈R

N

s(u)

(5.19) Nousavons:

∇s(u) = C

y + ε(u − g) = 0

D'où:

u =

−C

y

ε

+ g

(5.20) ave

C

lamatri eadjointede

C

:

C

= λI

div



(5.21)

(39)

L'équation(5.2)peutalorsseréé riresouslaforme:

max

y∈R

N

,kyk

≤1



hCg − F, yi −

1

kC

yk

2

2

µ

2

kyk

2

2



(5.22)

= −

min

y∈R

N

,kyk

≤1



1

kC

yk

2

2

− hCg − F, yi +

µ

2

kyk

2

2



(5.23)

Pour eproblèmenousutilisonségalementl'algorithmedeY.Nesterov,légèrementmodié du fait de la présen e de la ondition

kyk

≤ 1

, qui se traduit par des proje tions sur l'ensemble

K

:

K = {y ∈ R

N

; kyk

≤ 1}

(5.24) Pour etensemble,l'opérateurdeproje tionest dénidelafaçonsuivante (proje tionsur uneboule

l

derayon

1

):

Π

K

(x) =

(

x

si

|x| < 1,

x

|x|

sinon (5.25) Nousprenons:

f (y) =

1

kC

yk

2

2

− hCg − F, yi

(5.26)

Ψ(y) =

µ

2

kyk

2

2

+ χ

K

(y)

(5.27)

L'algorithmes'é ritalorsdelafaçonsuivante:

Algorithm5Méthodedegradienta eléréesurleproblèmedualde

BV − l

1

Initialiser

A

0

= 0

,

w

0

= 0

for

k ≥ 0

do

a =

1+µA

k

L

f

+

r

1+µA

k

L

f



2

+ 2A

k

1+µA

L

f

k

v

k

= Π

K

(x

0

− w

k

)

y

k

=

A

k

A

x

k

k

+av

+a

k

x

k+1

= Π

K



y

k

∇f(y

L

f

k

)



w

k+1

= w

k

+ a∇f(x

k+1

)

A

k+1

= A

k

+ a

endfor

ave

x

0

lasolutioninitialeet

L

f

la onstante deLips hitzdugradientdelafon tion

f

:

L

f

=

1

ε

kC

k

2

Figure

Fig. 1.1  Exemple d'une paire stéréosopique ©CNES (à gauhe et au entre) et des
Fig. 1.2  Comparaison d'une grille régulière de taille 20x20 et d'une grille irrégulière
Fig. 1.3  Inversion direte du système pour une image bruitée ave un bruit blan gaussien
Fig. 3.1  Images de départ (de gauhe à droite) : Toulouse et Marseille (éhantillonnages
+7

Références

Documents relatifs

Che i due teoremi di CAUCHY, con le loro conseguenze, stabiliti in una mia recente Memoria (1) per funzioni olomorfe di matrici definite in un’algebra

uno spazio topologico di Hausforff localmente compatto., ogni componente connessa compatta di X possiede un sistema f ondamentale di intorni aperti e compatti.. Per la

L’accès aux archives de la revue « Rendiconti del Seminario Matematico della Università di Padova » ( http://rendiconti.math.unipd.it/ ) implique l’accord avec les

In questo lavoro studiamo l’henselizzazione degli anelli di valuta- zione e degli anelli di Prùfer con particolare riguardo alla permanenza, sia nella salita che nella

In questa nota studiamo alcune proprietà differenziali di certe classi di funzioni. Proprietà di questo tipo furono prese in considera- razione da L. Tali

ta « proprietà di estensione » di cui faremo uso sia nel n. Sia A un anello noetheriano integro. Per provare che basta dimostrare che Mp : Questo segue

© Rendiconti del Seminario Matematico della Università di Padova, 1971, tous droits réservés.. L’accès aux archives de la revue « Rendiconti del Seminario Matematico della

Nel presente lavoro si dà a questo interrogativo una risposta negativa, dimostrando che esiste un gruppo abeliano ogni im- magine endomorfa del quale è pienamente