HAL Id: inria-00340975
https://hal.inria.fr/inria-00340975v2
Submitted on 28 Nov 2008
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of
sci-L’archive ouverte pluridisciplinaire HAL, est
destinée au dépôt et à la diffusion de documents
échantillonnage irrégulier
Mikael Carlavan, Pierre Weiss, Laure Blanc-Féraud, Josiane Zerubia
To cite this version:
Mikael Carlavan, Pierre Weiss, Laure Blanc-Féraud, Josiane Zerubia. Reconstruction d’images
satel-litaires à partir d’un échantillonnage irrégulier. [Rapport de recherche] RR-6732, INRIA. 2008.
�inria-00340975v2�
a p p o r t
d e r e c h e r c h e
9
-6
3
9
9
IS
R
N
IN
R
IA
/R
R
--6
7
3
2
--F
R
+
E
N
G
Thème COG
Reconstruction d’images satellitaires à partir d’un
échantillonnage irrégulier
Mikael Carlavan — Pierre Weiss — Laure Blanc-Féraud — Josiane Zerubia
N° 6732
MikaelCarlavan, Pierre Weiss, Laure Blan -Féraud, Josiane Zerubia
∗
ThèmeCOG Systèmes ognitifs ProjetAriana
Rapportdere her he n°6732Novembre200860pages
Résumé:Leproblèmedelare onstru tiond'imagesest eluid'estimeruneimageàvariable ontinue àpartir des observations dis rètes. Depuis lestravaux pionniers de Shannon, de nombreusesméthodesontétéproposéesdanslalittératurepourlare onstru tion d'images àpartirdedonnéesobservéesave uné hantillonnage hoisi,qu'ilsoitrégulierouirrégulier. Nousnoussommesfo aliséssurleproblèmeglobaldelarestaurationd'uneimagesatellitaire omprenant : la re onstru tion d'une image régulièrement é hantillonnée à partir d'une imageirrégulièrementé hantillonnée(lespositionsdesé hantillonssontsupposées onnues); laprise en ompte dela fon tionde ou de l'appareiloptique(supposée onnue); laprise en ompte dubruit.Nousproposons uneméthode parminimisationdefon tionnelle,dans laquellenous utilisons une norme
l
1
pour le terme d'atta he aux données, et lavariation totale (VT) ou une transformée en ondelettes (Dual-Tree Complex Wavelet Transform) omme terme de lissage. Cette méthode est très rapide et onverge en
O
1
k
où
k
est le nombred'itérationsalorsquelaplupartdesméthodesdeminimisationexistantes onvergentO(
√
1
k
)
.Mots- lés: Optimisation onvexe,methodesvariationnelles,norme
l
1
,ondelettes, restau-rationd'image,dé onvolution,imageriesatellitaire.
∗
Lesauteurs remer ient l'entreprise CS-SIpour lenan ement partielde etravailde re her he, en parti ulierAnneChaniéetRosarioRuilobadeCS-SIpour ette ollaboration,etégalementleCNESpour touteslesdonnéesfournies.
Abstra t: Theproblemofimage re onstru tion onsistsin estimatinganimage in a on-tinuoussettingfromdis reteobservations.BeginningwiththepioneeringworkofShannon, severalmethods havebeenproposedfor imagere onstru tion from regularlyorirregularly spa eddis reteobservations.Wefo usedonirregularsamplingimagere onstru tionwhi h in ludes:regularsamplingimagere onstru tionformirregularlyspa edsamples(weassume that thelo ations ofsamples areknown);image de onvolutionby taking intoa ountthe PointSpreadFun tionoftheopti s(supposedtobeknown);restorationofthenoisedueto a quisitionbythesensors.Weproposeamethod minimizingafun tionalforwhi hweuse an
l
1
-normforthedataterm,andTotalVariation(TV) orawavelettransform(Dual-Tree ComplexWaveletTransform), forthesmoothingterm.Thismethod isveryfastand hasa onvergen eratein
O
1
k
where
k
istheiterationnumberwhilemostminimizationmethods onvergeinO(
1
√
k
)
.Key-words: Convexoptimization,variationalmethods,
l
1
-norm, wavelets,image restora-tion,de onvolution,satelliteimaging.
Table des matières
1 Présentation 5
1.1 Position duproblème. . . 5
1.2 Imagesutilisées . . . 6
1.2.1 Constru tiondesimages . . . 6
1.3 Appro hesvariationnelles . . . 8
2 Etat de l'art :algorithmesrapides 11 2.1 Gradient omposite. . . 11
2.2 Méthodeàbase degradient . . . 12
2.3 Méthodea éléréeàbasedegradient. . . 14
3 Solution proposée 17 3.1 Résolution. . . 17
3.2 Réalisation . . . 19
3.3 Résultats . . . 21
4 Régularisationdans le domaine desondelettes 27 4.1 Transforméeenondelettes omplexes . . . 28
4.2 Miseenoeuvre . . . 31 4.3 Résultats . . . 32 5 Comparaisondual/primal 33 5.1 Modèle
BV − l1
. . . 33 5.2 Algorithmeprimal . . . 33 5.3 Algorithmedual . . . 355.4 Appli ationauproblèmedere onstru tion. . . 38
6 Comparaisonrégularité/par imonie 41 6.1 Modèledepar imonie . . . 41
6.2 Modèlederégularité . . . 42
6.3 Comparaisonave lemodèle
BV − l
1
. . . 43Chapitre 1
Présentation
Depuismaintenantplusieursannées,late hnologienumériqueaprislemonopoledans plu-sieurs domaines, en parti ulier elui de l'imagerie. Bien que le passage analogique/num-érique (é hantillonnage) induise une perte d'information, les avantages sont ertains. Un desproblèmesmajeursapparuave late hnologienumériqueest eluidelare onstru tion d'uneimage àpartirdes observations dis rètesdonton dispose. Ces observations peuvent aussibienêtreissuesd'uné hantillonnagerégulierqu'irrégulier.Dans erapport,nousnous sommesintéressésau asparti ulierdelare onstru tiond'imagessatellitairesàpartird'un é hantillonnageirrégulier.
1.1 Position du problème
Dansle adredela ollaborationfran o-italienneduprogrammeORFEO(programme per-mettantàla foisl'a quisitiond'imagesoptiqueset radar), il est prévudu téfrançaisde lan erdeuxsatellitesoptiqueshauterésolution. Cessatellites,nommésPléiades,et qui de-vraientêtrelan ésd'i i2010pourlepremiereten2011pourlese ondaurontlespropriétés suivantes:
Longueursd'onded'a quisition:bleu,vert,rougeetpro heinfrarouge. Résolution:0.7m.
Fau hée( hampdevue):20km.
Parailleurs,demanièreàpouvoirrépondreàdesbesoinsde artographiene, notamment enzoneurbaineeten omplémentdeprisesdevuesaériennes,lessatellitesPléiadesdevront permettrel'a quisitiondepairesstéréos opiquesquasi-instantanéesainsique laréalisation demosaiquesd'imagesdetailles120kmpar120km.Enn,leurmobilitépermettrad'a quérir desimagesentoutpointduglobeenl'espa ed'unejournée.
Dans e adred'a quisition,lare onstru tiond'uneimagesuper-résolueàpartird'unepaire stéréos opiquepeuts'avérerintéressante.Si l'on onsidèredeux prisesdevue d'unemême s ène mais ave un angle diérent, alors on peut onsidérer qu'une des deux images est
é hantillonnéeirrégulièrementparrapportàlapremière.Dans e ontexte,lare onstru tion d'une image à partir de l'autre ou la fusion de lapaire stéréos opique peuvent être vues ommedesproblèmesdere onstru tionàpartird'uné hantillonnageirrégulier.
1.2 Images utilisées
Comme il a été dé rit pré édemment, lesimages utilisées sont des pairesstéréos opiques. Lagure1.1montreunexempled'unepairestéréos opiqueainsiquel'imagedesdisparités d'uneimageàl'autre.
Fig. 1.1 Exemple d'une paire stéréos opique ©CNES (à gau he et au entre) et des disparitésd'uneimage àl'autre (à droite). Plus un élementse seradépla é entre lesdeux images et plusil sera sombre sur l'image des disparités.Les images n'étant pasprises au même moment, on remarque que lesvoitures ont bougé d'une image àl'autre. De même, l'ombredel'immeuble enbasau entreest légèrementdiérente.
Dans le adre de e travail, leCNES amis à notredisposition deux ouplesd'images: le oupled'imagesde laprison Saint-Mi helàToulouse prisesàl'aide du apteur Péli an et elui deMarseille, simulationdu satellitePléiades. Ensuite pour haque ouple,laso iété CS nous afourni une image des disparitésentre les pairesstéréos. Leparagraphesuivant dé ritl'algorithmequi aétéutiliséparCS.
1.2.1 Constru tion des images
Pourtrouverlesvaleursdesdisparitésentrelespairesstéréos,laso iétéCSautilisé l'algo-rithmeMARC(MultirésolutionAlgorithmforRenedCorrelation)développéparleCNES. Dans etalgorithme,lemodèleutiliséestlesuivant:
˜
u
b
(x) = u
b
(x + θ(x)) + g
b
(x)
(1.1) oùu
b
etu
b
sontlespairesstéréosetθ(x)
estundé alageenfon tiondex
.Dans emodèle,valeurdudépla ementestdonnéenmaximisantlerapportde orrélationsuivant:
ρ
x
0
(m) =
R
ϕ(x
0
− x)u
b
(x + m) ˜
u
b
(x)dx
qR
ϕ(x
0
− x)u
2
b
(x + m)dx
R
ϕ(x
0
− x) ˜
u
b
2
(x)dx
(1.2)Dans ette expression,
ϕ
est la fenêtre de orrélation, elle dénit l'intervallesur lequel la orrélationest al ulée. Dans[7℄, une étudeest faitesur le hoixde taille et de forme op-timalde ettefenêtrean delimiter lesartefa tsdus aupro essus destéréovision, omme parexemplel'adhéren e(dilatationde ertainsobjetsautourde ontours trèsmarqués).Dans et algorithme, une hypothèse est faite sur les valeurs de
θ(x)
qui ne doivent pas être trop fortes par rapport aux variations deu
b
. Les points trouvés ne respe tant pas ettehypothèsenesontpasprisen ompte.Pourrésoudre eproblème,l'algorithmeutilise uneappro hemulti-é helle.Enn,pourobtenirunepré isionsubpixéliquedelavaleurdes disparités,ilestné essaired'obteniruneimage ontinuelorsdu al uldu oe ientde or-relation.Cetteétapeestexpliquéedans[7℄.Une fois la valeur des disparités obtenue, il est possibled'utiliser deux images diérentes pourleproblèmed'é hantillonnageirrégulierqui onsisteàre onstruireuneimageàpartir deladeuxièmeetdesdisparités.Lagure1.2 montre lagrilleirrégulièreobtenueen appli-quantlesdisparitésentrelesdeuximagesd'unepairestéréoàunegrillerégulière.
200
202
204
206
208
210
212
214
216
218
220
350
352
354
356
358
360
362
364
366
368
370
Grille reguliere
X
Y
200
202
204
206
208
210
212
214
216
218
220
345
350
355
360
365
370
375
Fig.1.2Comparaisond'unegrillerégulièredetaille20x20etd'unegrilleirrégulière.Cette grilleirrégulièreestobtenueparappli ationdeladisparitéentrelesdeuximagesd'unepaire stéréosurunepetitezone.
Finalement,nousdé rivonslesimagesparlemodèlesuivant:
ave :
I
las èneobservée,
h
laréponseimpulsionnelledusystèmeoptiquedontl'expression est fournieparleCNES(3.17),
∆
Λ
lagrilleirrégulièred'é hantillonnage dénie par∆
Λ
(.) =
P
λ
k
∈∆
δ(. − λ
k
),
les
λ
k
sontlespositionsdesé hantillonsetδ
réprésentelafon tionDira,
dénie parδ(x) =
(
1
six=0,
0
sinonε
unbruitdûau apteuroptiquedusystèmeet auxerreursdedisparités.Dansle adre denotreappli ation, nous onsidéronsenpriorité eserreursdedisparités,nousmodéliserons ebruit ommeétantimpulsionnel(partie1.3).
(1.4)
1.3 Appro hes variationnelles
Ilexistedenombreuxalgorithmesdere onstru tionàpartird'uné hantillonnageirrégulier ( f. [9, 11℄ par exemple). La plupart de es algorithmes onsidèrent la grille irrégulière ommeétantune grillerégulièrepertubéeparun légerdé alage
ξ
[14℄. Néanmoinslorsque e dé alage devient plus important, es algorithmes deviennent très approximatifs. Il est di ilederésoudre eproblèmeenessayantuneinversiondire tedansledomainedeFourier arlesfon tionsdetransfertdesoptiquessontdesltrespasses-basets'annulentquandon s'appro hedelafréquen edeNyquist.En onséquen e,uneinversiondire tefaitexploserle bruit ontenudansl'imagemême si elui- iesttrèsfaible (voirgure1.3).Nousformulons don notre problème omme la re her he de la solution exa teu
∗
qui verie l'équation suivante:
g = ∆
Λ
.(h ∗ u
∗
) + ε
(1.5) oùg
estl'observation,i.e.l'imageé hantillonnéeirrégulièrement.Nous her honsàminimiserε
,soitg − ∆
Λ
.(h ∗ u)
e quiestformulépar:u
∗
= arg min
u∈R
N
k∆
Λ
.(h ∗ u) − gk
p
p
(1.6) oùk.k
p
p
désigne une normel
p
à la puissan e
p
. Le hoix dep
dépend du type de bruit à minimiser. Pour un bruit gaussien,un hoix naturel estp = 2
, pour un bruit de type impulsionnel on prendrap = 1
[3℄. Cependant, laformulation (1.6)(moindres arrés) fait égalementexploserlebruit.Ilest alorsné éssairederégulariserlessolutionsprésentes via, parexemple,uneappro hevariationnelle:où
J(u)
est l'opérateur de régularisation qui est fon tion deu
et de ses dérivées,λ
est le paramètrederégularisation.Certainsopérateursfavorisentmieuxlapar imonie(séparation bruit/signal)etpermettentdere onstruireplusnementl'imagetoutenltrantlebruit( f. hapitre4). Unopérateurtrèsrépanduentraitementd'imageestJ(u) = k∇uk
1
[22℄.Cette régularisation senomme laVariation Totale (VT) et permet de onserverles ontours de l'imagemaislisselestextures[1℄(eet " artoon").Lesimages représentantlesdisparitésentre les ouplesd'imagespeuventprésenterdes er-reurs.Ceserreursontdegrandesréper utionssurlare onstru tiondel'image,enparti ulier surlerepositionnementdes ontoursdesobjets.Ce ipeutêtrevu ommedubruit impulsion-nelsurl'intensité.Notremodèledoitdon êtrerobusteà egenredebruit(uneappli ation possibleaprès le réé hantillonnage pourrait être la fusiondes images). De plus,nous sou-haitonsgarderune ertainequalité del'imageet don nepaslisserles ontours.Nousnous plaçonsdon dansle as
p = 1
arnoussouhaitonsminimiserunbruitimpulsionneletnous régularisonslemodèleenutilisantlavariationtotale,on her hedon :arg min
u∈R
N
k∆
Λ
.(h ∗ u) − gk
1
+ λk∇uk
1
(1.8)
Fig.1.3Inversiondire tedusystèmepouruneimagebruitéeave unbruitblan gaussien (
RSB = 3.58dB
).Agau hel'imagededépart©CNES, àdroitelerésultataprèsinversion dire te.And'expli iterleterme
∆
Λ
.(h ∗ u)
, nouspassonsdans ledomainedeFourier(ondésigne parF
l'opérateurdetransforméedeFourierdis rèteetF
−1
l'opérateurinverse):
arg min
u∈R
N
k∆
Λ
.(h ∗ u) − gk
1
+ λk∇uk
1
= arg min
u∈R
N
kF
−1
(F(∆
= arg min
u∈R
N
kF
−1
(F(∆
Λ
) ∗ (F(h)F(u)))) − gk
1
+ λk∇uk
1
(1.9)En notant
G
la transformée de Fourier de∆
Λ
, et en substituant le produit matri iel au produitde onvolution,(1.9)peutseréé riresouslaforme:arg min
u∈R
N
kF
−1
(GF(h)F(u)) − gk
1
+ λk∇uk
1
(1.10)L'expressionde
F(h)
est elle donnéeparle CNES (3.17), onlanoteraH
. Enn, en rem-plaçantl'opérateurF
parsonexpressionmatri ielleF
,nousobtenons:arg min
u∈R
N
kF
−1
(GHF u) − gk
1
+ λk∇uk
1
(1.11) EnnotantS = F
−1
G
, (1.11)peutseréé riresouslaforme:
arg min
u∈R
N
kSHF u − gk
1
+ λk∇uk
1
(1.12)
Ave
F
l'opérateurdetransforméedeFourier,H
latransforméedeFourierdelafon tionde transfertdel'optiqueh
et,enn,S
unopérateurpermettantdepasserd'uneimage omplexe é hantillonnéerégulièrementà une image réelle é hantillonnée irrégulièrement(expression donnéeàlapartie 3.2).Pourplusdesimpli ité,nousé rironsparlasuite:arg min
u∈R
N
kAu − gk
1
+ λk∇uk
1
(1.13)
Cettemodèlisationest ellequeE.Bughinavaitutilisédans[3℄.Pourrésoudre eproblème, il avaitégalementutiliséune des ente degradientqui onvergeaiten
O(
1
√
k
)
(nousverrons dans le hapitre 3 omment ontourner la non-dérivabilité de la normel
1
). Ce taux de onvergen en'estpasoptimal,ilestdon ru ialdetrouverdesalgorithmesrapidestelsque euxproposésdans[10℄ou[25℄.Dans[10℄,laméthodedespointsintérieursestutilisée.Dans [25℄, uneméthode est developpée pourrésoudre es fon tionnellesàl'aided'unalgorithme proposé par Y. Nesterov [17℄. Dans la suite de e rapport, nous détaillons un algorithme en oreplusré entet plusperfomantdumêmeauteur[20℄.
Chapitre 2
Etat de l'art : algorithmes rapides
2.1 Gradient omposite
Dans un premier temps, Y. Nesterov [20℄ her he à déterminer le minimum lo al d'une fon tion
φ
dénie par:φ(x) = f (x) + Ψ(x),
x ∈ Q
(2.1) avef
ontinûment dérivableet onvexe,Ψ
une fon tion onvexe fermée( 'est àdire une fon tion onvexedontl'épigrapheest unensemblefermé)surunensembleQ
.Unefon tion dérivablef
est fortement onvexesurQ
deparamètrede onvéxitéν ≥ 0
si∀x, y ∈ Q
:h∇f(x) − ∇f(y), x − yi ≥ νkx − yk
2
2
(2.2)Le as
ν = 0
orrespondà une fon tiondérivable onvexe.Une hypothèse est faitesurΨ
qui doit être une fon tion simple 'est àdire une fon tionoùarg min
y∈Q
Ψ(y) +
1
2
ky − xk
2
2
est al ulable.Lafon tionf
est ontinûmentdiérentiableet songradientestsupposéL
f
-lips hitzien:k∇f(x) − ∇f(y)k
2
6
L
f
kx − yk
2
,
∀x, y ∈ Q
(2.3) Nousdisposonsdulemme fondamentalsuivant(A.48):f (x) ≤ f(y) + h∇f(y), x − yi +
L
2
kx − yk
2
,
∀x, y ∈ Q
(2.4) ave0 ≤ L ≤ L
f
. Y. Nesterov généralise e lemme eny ajoutantlafon tionΨ
, il obtient ainsi:f (x) + Ψ(x) ≤ f(y) + h∇f(y), x − yi +
L
2
kx − yk
2
+ Ψ(x)
(2.5) D'où,grâ eà(2.1):Lafon tion
φ
àminimiserestdon appro héeparleterme dedroitedel'expression pré é-dente.Y.Nesterovutilise etteapproximationpourappro herleminimumdelafon tionφ
. La onstanteL
nousdispensede onnaitrelavaleurexa tedela onstante deLips hitzL
f
(quipeutêtredi ileàdeterminer),unesimpleestimationde ette onstanteestsusante, lesalgorithmeslaréajustentauldesitérations( f.parties2.2et2.3).Y.Nesterovdénit:m
L
(y; x) = f (y) + h∇f(y), x − yi +
L
2
kx − yk
2
+ Ψ(x)
(2.7)
T
L
(y) = arg min
x∈Q
m
L
(y; x)
(2.8)
L'opérateur
T
L
(y)
réaliseunedes entedegradientsur etteapproximation,permettantainsi dede al ulerleminimumlo alsurl'ensembleQ
.Commef
est onvexe,leminimumlo al surQ
devientunminimumglobal.Lepremieralgorithme[20℄illustre egradient omposite.2.2 Méthode à base de gradient
Y.Nesterovdonnel'algorithmesuivant[20℄:
Algorithm1Méthodedegradient
Initialiser
y
0
etL
0
∈ [0, L
f
]
M
0
= L
0
fork ≥ 0
doL = M
k
repeatT = T
L
(y
k
)
ifφ(T ) > m
L
(y
k
; T )
thenL = Lγ
u
endif untilφ(T ) ≤ m
L
(y
k
; T )
y
k
= T
L = max(L
0
, L/γ
d
)
endforave
γ
u
≥ 1
etγ
d
≥ 1
, les deux paramètres qui ajustent la valeur deL
an d'avoir la meilleure estimation. Y. Nesterov démontre [20℄ que et algorithme onvergeenO
1
k
, il pose:y
k
(α) = αx
∗
+ (1 − α)y
k
∈ Q, α ∈ [0, 1]
(2.9) Alors:φ(y
k+1
) ≤ φ(y
k
) ≤ m
M
k
(y
k
; T
L
(y
k
)) ≤ min
y∈Q
φ(y) +
M
k
2
ky − y
k
k
2
2
(2.10)≤ min
0≤α≤1
φ(αx
∗
+ (1 − α)y
k
) +
M
k
α
2
2
ky
k
− x
∗
k
2
2
(2.11) Ilposeégalement:R = max
y
k
∈Q
ky
k
− x
∗
k
2
(2.12) Alors:φ(y
k+1
) ≤ min
0≤α≤1
φ(y
k
) − α(φ(y
k
) − φ(x
∗
)) +
γ
u
L
f
α
2
2
R
2
(2.13) Siφ(y
0
) − φ(x
∗
) ≥ γ
u
L
f
R
2
,alorslasolutionoptimaleestα
∗
= 1
et don :
φ(y
1
) − φ(x
∗
) ≤
γ
u
L
f
R
2
2
(2.14)Sinonlasolutionoptimaleest
α
∗
=
φ(y
k
)−φ(x
∗
)
γ
u
L
f
R
2
≤
φ(y
0
)−φ(x
∗
)
γ
u
L
f
R
2
≤ 1
et don :φ(y
k+1
) ≤ φ(y
k
) −
[φ(y
k
) − φ(x
∗
)]
2
γ
u
L
f
R
2
(2.15) Ildénit :λ
k
=
1
φ(y
k
) − φ(x
∗
)
(2.16)Enremplaçant etteéquationdans(2.15),ilobtient:
λ
k+1
≥ λ
k
+
1
2γ
u
L
f
R
2
≥ λ
0
+
k + 1
2γ
u
L
f
R
2
(2.17) ave :λ
0
=
1
φ(y
0
) − φ(x
∗
)
≥
1
γ
u
L
f
R
2
(2.18)Finalement,pourtout
k ≥ 0
:φ(y
k
) − φ(x
∗
) ≤
γ
u
L
f
R
2
k + 2
(2.19)Delamême façon,si
φ
est fortement onvexesurQ
de paramètrede onvexitéν
φ
alorssiν
φ
L
f
≥ 2γ
u
:φ(y
k
) − φ(x
∗
) ≤
γ
u
L
f
ν
φ
k
(φ(y
0
) − φ(y
∗
)) ≤
1
2
k
(φ(y
0
) − φ(y
∗
)) ∀k ≥ 0
(2.20) avey
∗
= y
k
(α
∗
)
.Sinon:φ(y
k
) − φ(x
∗
) ≤
1 −
4γ
ν
φ
u
L
f
k
(φ(y
0
) − φ(y
∗
))
∀k ≥ 0
(2.21)Cetalgorithmeestsimilaireà eluiproposéparP.L.Combettes[6℄et onvergeégalementen
O
1
k
.Cependant etalgorithme peutêtrea éléré[18℄ pouratteindreuntauxde onver-gen een
O
1
k
2
.2.3 Méthode a élérée à base de gradient
Pour etteversiona élérée[20℄del'algorithme,Y.Nesterov onsidèreleproblèmesuivant:
min
x∈E
(φ(x) = f (x) + Ψ(x))
(2.22)
où
Ψ
est une fon tion fermée fortement onvexe surE
. Cette formulation admet que le domainededénition deΨ
soit diérentdeE
, e i permet derésoudre lesproblèmes sous ontraintes.And'améliorer letauxde onvergen e dupré édentalgorithme,Y. Nesterov utiliselate hniquedel'estimationdefon tions[19℄,ilmetàjourré ursivementlesséquen es suivantes: laséquen edeminimisation
x
k
. laséquen e roissantedes
A
k
= A
k−1
+ a
k
,∀k ≥ 1
,A
0
= 0
laséquen edesfon tionsestimées:ψ
k
(x) = l
k
(x) + A
k
Ψ(x) +
1
2
kx − x
0
k
2
2
,
∀k ≥ 0
(2.23) oùx
0
est lasolutioninitiale,etl
k
(x)
sontlesfon tionslinéaires deE
. Lepointimportant de etalgorithmeest qu'à haqueitération,lesrelationssuivantes soientrespe tées:(
R
1
k
: A
k
φ(x
k
) ≤ ψ
k
∗
= min
x∈E
ψ
k
(x)
R
2
k
: ψ
k
(x) ≤ A
k
φ(x) +
1
2
kx − x
0
k
2
2
, ∀x ∈ E
(2.24)Cesdeuxrelationsjustientletauxde onvergen edel'algorithme(2.26).Y.Nesterov pro-pose l'algorithmesuivant:
Algorithm2Méthodedegradienta elérée
Initialiser
ψ
0
(x) =
1
2
kx − x
0
k
2
2
,A
0
= 0
,L
0
∈ [0, L
f
]
,ν ∈ [0, ν
Ψ
]
fork ≥ 0
doL = L
k
repeat Résoudrea
dea
2
A
k
+a
= 2
1+νA
k
L
Cal ulery =
A
k
x
k
+av
k
A
k
+a
,puisT
L
(y)
ifhφ
′
(T
L
(y)), y − T
L
(y)i <
1
L
kφ
′
(T
L
(y))k
2
2
thenL = Lγ
u
endif untilhφ
′
(T
L
(y)), y − T
L
(y)i ≥
L
1
kφ
′
(T
L
(y))k
2
2
y
k
= y, M
k
= L, a
k+1
= a
L
k+1
= M
k
/γ
d
, x
k+1
= T
M
k
(y
k
), A
k+1
= A
k
+ a
k+1
ψ
k+1
(x) = ψ
k
(x) + a
k+1
[f (x
k+1
) + h∇f(x
k+1
), x − x
k+1
i + Ψ(x)]
endforave
ν
Ψ
leparamètrede onvexitédelafon tionΨ
et :v
k
= arg min
x∈E
ψ
k
(x)
(2.25)
Uneitérationde etalgorithmeestdeux foispluslongueque elledel'algorithmeprésenté pré édemment arlegradientdelafon tion
f
est al ulédeuxfois, ependantilestdemontré dans[20℄que sontaux de onvergen e est meilleur puisqu'il onvergeenO
1
k
2
. En eet, departlesrelations
R
1
k
etR
2
k
:A
k
φ(x
k
) ≤ φ
∗
k
= min
x∈E
φ
k
(x) ≤ φ
k
(x) ≤ A
k
φ(x) +
1
2
kx − x
0
k
2
2
A
k
(φ(x
k
) − φ(x)) ≤
1
2
kx − x
0
k
2
2
φ(x
k
) − φ(x
∗
) ≤
1
2A
k
kx
∗
− x
0
k
2
2
,
∀k ≥ 1
(2.26)D'autrepart,d'aprèsl'algorithme:
L
k
≤ M
k
≤ γ
u
L
f
,
∀k ≥ 0
(2.27)A
k+1
= A
k
+ a
k+1
=
M
k
a
2
k+1
2(1 + νA
k
)
,
∀k ≥ 0
(2.28) Deplus,pourν ≥ 0
:A
k+1
≤ A
k+1
(1 + νA
k
) =
M
k
2
(A
k+1
− A
k
)
2
=
M
k
2
h
A
1/2
k+1
− A
1/2
k
i
2
h
A
1/2
k+1
+ A
1/2
k
i
2
≤
M
k
2
h
A
1/2
k+1
− A
1/2
k
i
2
h
2A
1/2
k+1
i
2
≤ 2A
k+1
M
k
h
A
1/2
k+1
− A
1/2
k
i
2
≤ 2A
k+1
γ
u
L
f
h
A
1/2
k+1
− A
1/2
k
i
2
(2.29) D'où:A
k
≥
k
2
2γ
u
L
f
,
∀k ≥ 0
(2.30)Delamême façon,si
ν > 0
,alors:νA
k
A
k+1
< A
k+1
(1 + νA
k
) ≤ 2A
k+1
γ
u
L
f
h
A
1/2
k+1
− A
1/2
k
i
2
(2.31) D'où:A
k
≥ A
1/2
k
1 +
r
ν
2γ
u
L
f
(2.32)Entenant omptedufaitque
A
0
=
1
M
0
≥
1
γ
u
L
f
,l'équation (2.32)peutseréé rire omme:
A
k
≥
1
γ
u
L
f
1 +
r
ν
2γ
u
L
f
2(k−1)
,
∀k ≥ 1
(2.33)En onséquen e,Y.Nesterovobtientletauxde onvergen esuivant:
φ(x
k
) − φ(x
∗
) ≤
γ
u
L
f
kx
∗
− x
0
k
2
2
k
2
,
∀k ≥ 1
(2.34)Deplus,si
Ψ
est fortement onvexe(ν > 0
),alorsletauxde onvergen esatisfaitàlafois l'équationpré édenteet elle- i:φ(x
k
) − φ(x
∗
) ≤
γ
u
L
f
2
kx
∗
− x
0
k
2
2
1 +
r
ν
2γ
u
L
f
−2(k−1)
,
∀k ≥ 1
(2.35)Chapitre 3
Solution proposée
Cettepartie se onsa re àla mise en oeuvre de laversiona éléréede l'algorithme de Y. Nesterovpourleproblèmederestauration.
3.1 Résolution
Leproblèmeestlesuivant:
arg min
u∈R
N
kAu − gk
1
+ λk∇uk
1
(3.1)
Pourmettre en oeuvre au mieux et algorithme, il est né éssaire de orre tement hoisir quels termes représenteront les fon tions
f (u)
etΨ(u)
. La fon tionΨ
doit être simple et onvexe.Cependantdansnotreproblème,au undesdeuxtermesn'estunefon tionsimple et onvexe. Nous pourrions rajouter un terme du typeγ
2
ku − gk
2
, mais e i modierait sensiblementlemodèle.Orilapparaitquelafon tion
Ψ
n'estpasindispensablepourobtenir letaux de onvergen e annon é parY. Nesterovpourson algorithme.Nous prenonsdonΨ(u) = 0
(sonparamètre de onvexité vautainsiν
Ψ
= 0
). En onséquen e, nousprenonsf (u) = kAu − gk
1
+ λk∇uk
1
. Cette fon tion est bien onvexe, mais non-dérivable ar la normel
1
n'estpasdérivableen
0
.Nousallonsdon larégulariserdelafaçonsuivante:kuk
1,µ
=
N
X
i=1
q
u
2
i
+ µ
2
(3.2)Finalement,nousavons:
f (u) = kAu − gk
1,µ
+ λJ
µ
(u)
(3.3)Ψ(u) = 0
(3.4)ave
J
µ
(u) = k∇uk
1,µ
. Lasuitedes al ulsest donnéedansl'annexeA,nousobtenons:T
L
(y) = y −
1
∇f(u) = A
∗
p
(Au − g)
(Au − g)
2
+ µ
2
!
− λ
div∇u
p
|∇u|
2
+ µ
2
!
(3.6)v
k
= x
0
−
k
X
i=1
a
i
∇f(x
i
)
(3.7)a =
1
L
+
s
1
L
2
+ 2A
k
1
L
(3.8)L
f
=
kAk
2
2
+ λk
divk
2
2
µ
(3.9)Pourplusdesimpli ité,nousdénissons:
w
k
=
P
k
i=1
a
i
∇f(x
i
)
.Ainsi:w
k+1
= w
k
+ a
k+1
∇f(x
k+1
),
∀k ≥ 0,
w
0
= 0
(3.10) (3.7)devient:v
k
= x
0
− w
k
(3.11)Nous onnaissonslavaleurdela onstante deLips hitz
L
f
, iln'est don pasné éssairede l'estimer,l'algorithmeserésumeainsià:Algorithm3Méthodedegradienta elérée Initialiser
A
0
= 0
,w
0
= 0
fork ≥ 0
doa =
L
1
f
+
r
L
1
f
2
+
L
2
f
A
k
v
k
= x
0
− w
k
y
k
=
A
k
A
x
k
k
+av
+a
k
x
k+1
= y
k
−
L
1
f
∇f(y
k
)
w
k+1
= w
k
+ a∇f(x
k+1
)
A
k+1
= A
k
+ a
endforave
x
0
lasolutioninitialeànotreproblème.Larégularisationdelanormel
1
nouspermet seulement d'obtenir un taux de onvergen e en
O(
1
k
)
. Cependant si notre obje tif est de minimiserleproblèmerégularisé,alorsnousobtenonsbienuntauxde onvergen eenO(
1
k
2
)
. Pour ertainsproblèmes,le hoixdelafon tionΨ
peut,enplus,apporterune a élération nonnégligeableàl'algorithme.Pourunproblèmedetypel
2
− l
1
,ilestavantageuxdesuivre l'idée de Y. Nesterov [20℄.Ilsuggère deréallouer leterme
Ψ
au sein de lafon tionf
. En eet, il propose de hoisir un terme fortement onvexe pour la fon tionΨ
, typiquementΨ(u) =
γ
2
ku − gk
2
(deparamètrede onvexitéγ
)et deposer:ˆ
Sousla onditionqueleparamètrede onvexitédelafon tion
Ψ
soit inférieurà eluidef
, lafon tionf
ˆ
est onvexe.Cetteméthodepermet,enautre, deminimiserexa tementnotre problème.Eneet:min
u∈E
φ(u) = min
u∈E
h
ˆ
f (u) + Ψ(u)
i
= min
u∈E
h
f (u) − Ψ(u) + Ψ(u)
i
= min
u∈E
f (u)
(3.13)
L'algorithmeestdeplusnettementplusrapidequesinousavionssimplement hoisi
Ψ(u) =
0
.3.2 Réalisation
Pour la mise en oeuvre de et algorithme nous utilisons la librairie ITK qui fournit en autre, unalgorithme deFFT (VNL), algorithme non optimal,mais sousli en e libre. Les opérateurs
∇
etdivserontprogrammésenutilisantless hémasnumériquesproposésparA. Chambolle [4℄:∇
x
u(i, j) =
(
u(i + 1, j) − u(i, j)
sii < N,
0
sii = N
(3.14)∇
y
u(i, j) =
(
u(i, j + 1) − u(i, j)
sij < N,
0
sij = N
(3.15) divv =
v
x
(i, j) − v
x
(i − 1, j)
si1 < i < N
v
x
(i, j)
sii = 1
−v
x
(i − 1, j)
sii = N
+
v
y
(i, j) − v
y
(i, j − 1)
si1 < j < N
v
y
(i, j)
sij = 1
−v
y
(i, j − 1)
sij = N
(3.16) L'expressiondelafon tiondetransfert del'optiqueest ellefournieparleCNES :H(f
x
, f
y
) = e
−α
√
f
2
x
+f
2
y
e
−βf
y
sin
(πaf
x
)
sin(πaf
y
)
(3.17) Pour al uler l'opérateur de transformée de Fourier inverse irrégulière ainsi que son ad-joint,nousavons onservélaméthodeemployéeparE.Bughin[3℄quiavait hoisid'utiliser l'USFFT(UnequallySpa edFastFourierTransform)proposéeparG.Beylkin[2℄.Dansson papier,G.BeylkindémontrequelatransforméedeFourierd'uneimagepeutêtrevue omme uneinterpolationsplined'ordrem
.Eneet,unetransforméeinversedeFouriers'é ritdela façonsuivante:u(λ
j
) =
N −1
X
k=0
N −1
X
l=0
a
kl
e
i2πλj,1k
N
e
i2πλj,2l
N
(3.18)ave
a
kl
les oe ientsde Fourier.Ce i est une interpolation lassique sinus ardinal, qui peutserée riresouslaforme:u(λ
j
) =
2N −1
X
k=0
2N −1
X
l=0
w
kl
e
i2πλj,1k
N
e
i2πλj,2l
N
(3.19)ave :
w
kl
=
a
kl
pour(k, l) ∈ [0, N/2 − 1]
2
,
a
(k−N)l
pourk ∈ [N + N/2, 2N − 1], l ∈ [0, N/2 − 1],
a
k(l−N)
pourk ∈ [0, N/2 − 1], l ∈ [N + N/2, 2N − 1],
a
(k−N)(l−N)
pourk ∈ [N + N/2, 2N − 1], l ∈ [N + N/2, 2N − 1],
0
sinon (3.20)Cetteétape orrespondàunsuré hantillonnageparmiseàzérodeshautesfréquen es(zero padding) pour le as d'une transformée de Fourier non entrée (dans e as, les hautes fréquen essontau milieude l'image).G.Beylkin[2℄ her heensuite les oe ients
v
kl
de l'interpolationsplinetelsque:u(λ
j
) =
2N −1
X
k=0
2N −1
X
l=0
v
kl
β
(m)
(2 ∗ λ
j,1
− k)β
(m)
(2 ∗ λ
j,2
− l)
(3.21)Nousavonslarelationsuivante:
2N −1
X
k
1
=0
2N −1
X
l
1
=0
w
k
1
l
1
e
i2πλj,1k1
N
e
i2πλj,2l1
N
=
2N −1
X
k
2
=0
2N −1
X
l
2
=0
v
k
2
l
2
β
(m)
(2 ∗ λ
j,1
− k
2
)β
(m)
(2 ∗ λ
j,2
− l
2
)
(3.22)Lase ondepartiedel'équation orrespondàune onvolutiondelafon tion
v
parunespline. Enpassant(3.22)dansl'espa edeFourier,nousobtenonslarelationsuivante:c
V
kl
=
w
kl
c
b
kl
(3.23)
Où
V
b
estlatransforméedeFourierdev
,etbb
estlatransforméedeFourierdeβ
(m)
. L'algo-rithmeestalorslesuivant:
Partird'uneimagerégulièredansl'espa edeFourier.
Faireunsuré hantillonnageenajoutantdes0dansleshautes fréquen es.Nous obte-nonsalorsdes oe ientsdeFourier
w
kl
. Diviserles oe ients
w
kl
parles oe ientsdeFourierd'unefon tionsplined'ordre m. Repasserdans l'espa e réel pour obtenirune imagesuré hantillonnéeet dé onvoluée parunefon tionspline.Ce i nousdonneune image
v
. Cal ulerl'interpolationsplinede
v
auxpointsirréguliersλ
j
.Nousobtenonsalorsune approximationdeu
auxpointsλ
j
. Cal uler l'interpolation spline pourobtenir une image suré hantillonéedans l'espa e réel.
PrendrelatransforméedeFourier.
Faireunedé onvolutiondessplinesdansl'espa edeFourier.
Couperleshautesfréquen espourobteniruneimage delatailledésirée.
3.3 Résultats
Cet algorithme a été testé sur deux images mises àdisposition par le CNES : l'image de laprisonSaint-Mi helàToulousepriseàl'aidedu apteurPéli an(detaille1000par1000 pixels)et elle deMarseille (detaille 972par972pixels),simulationsdusatellite Pléiades ( f.gure3.1).
Fig.3.1Imagesdedépart(de gau heàdroite) :Toulouseet Marseille(é hantillonnages irréguliers),©CNES.
Lerésultatsurlagure3.2aétéobtenuen110itérations, al uléen15minutes( f. gure 3.3).Laméthodenona élérée,ave lesmêmesparamètres,atteintlemêmerésultataprès 2h30de al uls(2300itérations).Laqualitéduréé hantillonnageesttrèsbonnepuisqueles seulsdiéren essontliéesauxobjetsquisesontdépla ésdurantlesdeuxprisesdevues( f. gure3.2).En terme deperfoman es, parrapport àlades ente degradient,nous gagnons plusd'unfa teur20surlenombred'itérations.Cependant,l'itérationestpluslonguedans notre as, arlegradientdelafon tion
f
doitêtre al uléunefoisdeplus,etdon legainde tempsde al ulest voisinde10, e quiestdéjàimportant.Nousallonsmaintenantétudier plusendétails l'inuen edesparamètressurlaméthodeproposée.Fig. 3.2 De gau he à droite et de haut en bas : l'image obtenue, l'imageà obtenir, la diéren edesdeuximagesetennladiéren edel'imageàobtenirave l'imagededépart (i.eavantréé hantillonnage).
Fig.3.3 Comparaison des algorithmes(algorithmede Nesterov versiona éléréeet mé-thodes lassiques)surune imagedetaille1000x1000pixels.
Inuen e du paramètre
λ
:Leparamètre
λ
estleparamètrederégularisationdelavariationtotale.Ce termeestdon lié au ltragede l'image onsidérée.C'est pour ela qu'il faut le hoisir en fon tion dela puissan e de bruit ontenu dans l'image. Les diérents tests représentés sur la gure 3.4 montrentlerésultatdel'algorithmeenfon tiondeλ
pourunbruitgaussien,bienquenotre modèlene soitpas trèsrobuste à egenre debruit,pourlequelune normel
2
surle terme d'atta heauxdonnéesseraitplusappropriée.
Fig.3.4Imageobtenuepouruneimagebruitéeave unbruitblan gaussien(
RSB = 4.80
dB
)selondiérentesvaleursdeλ
(degau heàdroite:λ = 0.1
,λ = 0.7
,λ = 1
).Commeonpeutlevoir,une fortevaleurde
λ
ltre orre tementl'imagemaislalisseaussi énormement.Pouréviter ela,et entenant ompte dufaitquenosimages sontfaiblement bruitées, nous prendronsλ = 0.3
. De plus, nous avons préféré être e a e sur le bruit impulsionnel, de façon à atténuer les erreurs sur les images des disparités, e qui justie l'utilisation de la normel
1
. La gure 3.5 montre l'e a ité de la norme
l
1
sur un bruit impulsionneldetypepoivre&sel deprobabilité10%.En eet,utliserune norme
l
2
pour egenredebruitoblige àfortementlisserl'image(fortevaleurdeλ
), alorsquelanormel
1
a omplétementsupprimélebruit.Inuen e du paramètre
µ
:Le paramètre
µ
est le terme qui régularisela normel
1
. Une valeurtrop importante de
µ
faussera ette régularisation e qui se traduit par un eet de ou sur l'image omme le montrelagure3.6.Cependant e in'estvisiblequelorsque leparamètreλ
estimportant. Lavitessede onvergen edel'algorithmeétanten1
µ
(gure3.7),ilestpluttavantageuxdeprendreun
µ
assezgrand,lesimagesétantfaiblementbruitées,nousprendronsunλ
faible et eteetneserapasprésent.Néanmoins ette valeurdeµ
dépend aussideladynamiqueFig.3.5Réé hantillonnageetltragedebruitdetypepoivre&sel(degau heàdroite: imaged'originebruitée,résultatdelanorme
l
1
,résultatdelanorme
l
2
).
Fig.3.6Eetdeouselonlavaleurde
µ
(degau heàdroite:µ = 1
,µ = 5
,µ = 10
pourλ = 10
).Marseille.En onséquen e,nousadapteronslavaleurde
µ
enfon tiondel'imageàtraiter: onprendraµ = 2
pourl'imagedeMarseilleetµ = 10
pour elledeToulouse.Fig.3.7 Convergen edel'algorithmeenfon tionde
µ
surune imagedetaille1000x1000 pixels.Chapitre 4
Régularisation dans le domaine
des ondelettes
Nousavonsvu pré édemmentquelavariationtotaleétaite a esurleszoneshomogènes del'imageainsi quesur les ontours mais qu'ellese omportait malsur lestextures. Pour résoudre e problème, nous allons ee tuer une régularisation dans le domaine des onde-lettes.Lesondelettespermettentdemieux représenterleszoneshétérogènes(et onservent ainsiledétaildestextures)quelavariationtotale.D'autrepart,ellesorentunemeilleure par imonie(séparationbruit/signal), ette régularisationseraégalementpluse a epour leltragedubruitgaussien.Nousreformulonsleproblèmedelafaçonsuivante :
arg min
u∈R
N
kAu − gk
1
+ λkΥuk
1
(4.1)
ave
Υ
latransformationenondelettes.Cettemodélisationn'estpas ouranteetrelativement ré ente[23℄.En eet,pour eproblème,unemodélisationnettementplusrépanduedansla littératureest unemodélisationdepar imonie[8℄:arg min
y∈R
N
kAΥ
−1
y − gk
1
+ λkyk
1
(4.2)où
y
est le ve teur des oe ients de la transformée en ondelettesetΥ
−1
la transformée en ondelettesinverse. Dansle premier modèle (modèlede régularisation), laminimisation estfaitedire tementsurlesignaltandisquepourlemodèledepar imonie,laminimisation estfaitesurles oe ientsdesatransforméeenondelettes.Le hapitre6 ompare esdeux modèles.
Les ondelettes lassiques ne présentant pas d'invarian e par translation et rotation, nous avons hoisid'utiliser la"Dual-Tree ComplexWaveletTransform"(Transformée en Onde-lettesComplexes)deN.G.Kingsbury[12℄.
4.1 Transformée en ondelettes omplexes
N.G.Kingsburyaintroduitdans[12℄unetransforméeenondelettes omplexesquipermetde résoudrelesproblèmesd'os illations,d'aliasingetd'invarian epartranslationetrotationdes transformationsenondelettesréelles lassiques.Ilestimportantdenoterquelatransformée de Fourierne soure pasde es problèmes, ar, àl'inversedes transformées enondelettes réelles,elleest baséesurdessinusoides omplexes:
e
jΩt
= cos(Ωt) + j sin(Ωt)
(4.3) Ces deux omposantes sinusoidalesforment une pairede transformation de Hilbert ( 'est à dire qu'elles sont déphasées de 90° l'une de l'autre), ensemble elles forment un signal analytiquee
jΩt
, qui présente debonnespropriétés pourle traitementdusignal (dont une représentationsuruneseulemoitiédesfréquen es:
Ω ≥ 0
).Ens'inspirantde emodèle,N. G.Kingsbury onstruit uneondelette omplexeàpartirdedeuxondelettesréelles:ψ
c
(t) = ψ
r
(t) + jψ
i
(t)
(4.4) Paranalogieave l'équation(4.3),ψ
r
(t)
estréelleet paireetψ
i
(t)
estréelleet impaire.De plus, siψ
r
(t)
etψ
i
(t)
forment une paire de transformation de Hilbert, alorsψ
c
(t)
est un signalanalytique.Une appro he pour obtenir ette ondelette analytique est d'utiliser deux transformations enondelettesréelles, lapremièredonne lapartie réellede latransformation, tandisquela deuxièmedonnelapartieimaginaire,introduisantainsiuneredondan ed'unfa teur2(4en 2D).
Lesban sdeltresutiliséspour ette transformationsontréprésentés surlagure4.1.La transformation inverse est donnéesur la gure 4.2. Cha unedes deux transformations en ondelettesréellesutilisedeuxseriesdeltresdiérents,quidoiventégalementêtrediérents desltresdupremierniveaupourquelatransformationenondelettessoitanalytique.Soient
h
e
(n)
et
g
e
(n)
lesltrespasse-basetpasse-hautduban deltressupérieur,
h
o
(n)
et
g
o
(n)
lesltrespasse-basetpasse-hautduban deltresinférieur,nousavons:ψ(t) = ψ
g
e
(t) + jψ
g
o
(t)
(4.5) Ainsiψ
g
e
(t)
est paire tandis queψ
g
o
(t)
est impaire. Les oe ients de l'arbre supérieur sont don sous-é hantillonnés de manièreà ne garderque les oe ients pairstandis que l'arbre inférieur onserve les oe ients impairs. Les ltres du premier niveau sont iden-tiques(h
e
(n) = h
o
(n)
etg
e
(n) = g
o
(n)
, lesdeuxarbres sontainsi dé alésd'un é hantillon à eniveau), tousles oe ientssontdon onservés,etonobserveuneinvarian eparfaite aupremierniveau.
Lesltresassurentque
ψ(t)
soitanalytique,autrementditqueψ
g
o
(t)
soitlatransformation deHilbertdeψ
g
e
(t)
.Fig.4.1Transformée enondelettes omplexes1D.
Ce iimpliquelarélationsuivante surlesltres:
g
o
(n) ≈ g
e
(n − 0.5)
(4.7) Aux niveauxj > 1
les ltres doivent don être dé alés de1
2
é hantillon (1
4
en 2D) and'obteniruneinvarian epartranslation.Ce iestrealiséenutilisantdesltresdelongueurs diérentes,i.e. des ltresde longueurpaire
h
e
, g
e
pour unarbre et des ltresde longueur impaire
h
o
, g
o
pourl'autre arbre.N. G.Kingsburyobtientainsi unetransformationen on-delettesapproximativementinvariantepartranslation.
En utilisant des ban s de ltres séparables, la transformée 1D peut être étendue à des signaux bidimensionnels. N. G. Kingsbury [15℄ a montré qu'une telle transformée restait e a edupointdevuedutempsde al ul,etquel'onobtenaitdemeilleurespropriétésde dire tionalitéqu'ave l'équivalentréelmalgrélaséparabilité.Lapropriétédere onstru tion exa teest onservée,ainsiquelapresqueinvarian epartranslation.
Onnote
(a
A
, d
A
)
et(a
B
, d
B
)
lessignauxd'approximationetlesdétailspourlesdeuxarbresA
(arbre supérieur) etB
(arbre inférieur). Les détailsd
A
etd
B
peuvent don être inter-prétés omme lapartie réelle et lapartie imaginaire d'un signal omplexez = d
A
+ i d
B
. Lapropriétéimportante de ettetransformée est queleseuillagedes oe ients|z|
donne beau oup moinsd'artéfa tsqueleseuillagedes oe ientsd'unetransforméeréelle[13℄.La régularisation
l
1
de notre modèle réalise indire tement un seuillage (seuillage doux de seuil
λ
dans le asdu modèledepar imonie, f. hapitre6), e qui apour onséquen ede lissernotreimage ommelemontrelagure4.3.Ilfautdon êtreprudent,dansle asd'une dé onvolution,à orre tement hoisirleparamètreλ
pouréviterdetroplisserl'image.Fig.4.3Imagebruitéedontles oe ientsontétéseuillésenutilisantunseuillagedoux. Degau heàdroite :imaged'originebruitéeparunbruit blan gaussien(
RSB = 4.57dB
), résultatparseuillagedoux(RSB = 12.60dB
).4.2 Mise en oeuvre
An d'utiliser ette régularisation dans notre algorithme, il est né éssaire de déterminer l'expressionde
Υ
∗
l'opérateuradjointdelatransformationenondelettes omplexes
Υ
.Pour simplier e al ul,nous onsidéronslatransformationnondé iméesurunseulniveau.Les oe ients omplexesz
sontdon déterminésdelafaçonsuivante :z = g
o
⋆ x
(4.8)
Enutilisantuneé riturematri ielle, etteéquationpeutseréé rire ommeleproduit dela transformationenondelettes omplexes
Υ
etduve teurx
:z = Υx
(4.9)Dans e as,
Υ
estégaleàlamatri edeToeplitzdultreg
o
:Υ =
g
o
(0)
g
o
(1)
· · ·
· · ·
g
o
(n − 1)
g
o
(−1)
g
o
(0) g
o
(1)
· · ·
g
o
(n − 2)
. . . . . . . . . . . . . . .g
o
(1)
g
o
(−n + 1)
· · ·
· · ·
g
o
(−1)
g
o
(0)
(4.10)L'opérateurtransposé onjugué(ouadjoint)
Υ
∗
s'é ritalorsdelafaçonsuivante:
Υ
∗
=
g
o
(0)
g
o
(−1)
· · ·
· · ·
g
o
(−n + 1)
g
o
(1)
g
o
(0)
g
o
(−1)
· · ·
g
o
(−n + 2)
. . . . . . . . . . . . . . .g
o
(−1)
g
o
(n − 1)
· · ·
· · ·
g
o
(1)
g
o
(0)
(4.11)C'est la matri e de Toeplitz du ltre renversé
g
o
. En onséquen e pour réaliser l'adjoint, nousutiliserons lastru ture de latransformée inverseet lesltres duaux serontlesltres retournésde latransformée en ondelettes omplexes. Ce al ul aété validéen veriantla propriétésuivante:
hΥx, yi = hx, Υ
∗
yi ∀x, y ∈ R
N
(4.12)
Pour implanter l'algorithme, il est également né éssaire de al uler la onstante de Lip-s hitz du nouveau problème. Le al ul est similaire au pré édent modèle ( f. A.33), par analogienousposons
∇ = Υ
,nousobtenonsalors:L
f
=
kAk
2
2
+ λkΥk
2
2
µ
(4.13)Lesltresdelatransforméeenondelettes omplexessonttousdenormeinférieureouégale à1,nouspouvonsdon é rireque
kΥk
2
2
≤ 1
.4.3 Résultats
Cemodèleaététestésurleproblèmederéé hantillonnage,lesrésultatssontdonnéssurla gure4.4.Lesmodèlesétantdiérents,nouspouvonsdi ilement omparerleurvitessede onvergen e,néanmoins, larégularisation par ondelettesné éssite moins d'itérations pour onverger(82itérations ontre110itérationspourlavariationtotale) ependantnotre im-plantationdelatransforméeenondelettes omplexesn'estpasoptimaleetuneitérationest 4foispluslonguequ'uneitérationdel'algorithmeave variationtotale.
Nouspouvonsremarquerquelesrésultatssontbienmeilleursentermedequalitéde re ons-tru tion,lestexturesn'étantpluslissées ommeave larégularisationparvariationtotale. Néanmois, le seuillage doux intrinséque à ette régularisation lisse légèrement l'image et diminuel'intensitédespetitsélements.
Fig.4.4Degau heàdroiteet dehautenbas,l'imaged'origine,l'imagebruitée(
RSB =
15.62 dB
), le résultat ave la variation totale (RSB = 24.09 dB
), et le résultat ave la régularisationparondelettes(RSB = 24.42 dB
).Chapitre 5
Comparaison dual/primal
Leproblèmeprésentédansle hapitrepré édentpeutêtreé ritsoussaformeduale[4,24,25℄. Cetteformulationdualesembleêtreplusperfomante quelaformulationprimale[25℄. Ce hapitrese onsa reàla omparaisonentrelesmodélisationsdualeetprimalesurun pro-blèmedetype
BV −l
1
,puissurleproblèmedere onstru tion.Lesmethodessont omparées grâ eàl'algorithmedeY. Nesterov.
5.1 Modèle
BV
− l1
Nous onsidèronsleproblèmesuivant(problèmedetype
BV − l
1
[21℄):
arg min
u∈R
N
λku − gk
1
+ k∇uk
1
+
ε
2
ku − gk
2
2
(5.1) Letermeε
2
ku−gk
2
2
estrequispouree tuerla omparaisonprimal/dual.Pourappliquerl'al-gorithmedeY.Nesterov, eproblèmedoitêtrediérentiable,onintroduitdon leparamètre
µ
pourrégulariserlanormel
1
.L'équation(5.1)devient:
arg min
u∈R
N
λku − gk
1,µ
+ k∇uk
1,µ
+
ε
2
ku − gk
2
2
(5.2)5.2 Algorithme primal
Pour etalgorithme,nousappliquonssimplementles hémadeNesterovdire tementsurle problème(5.2).Nousprenons:
f (u) = λku − gk
1,µ
+ k∇uk
1,µ
(5.3)Ψ(u) =
ε
2
ku − gk
2
Poursimplierles al uls né éssairesàlamise enoeuvrede etalgorithme, nousutilisons l'opérateurproximal[5,6℄. Cetopérateurestdénidelafaçonsuivante :
prox
αΨ
(x) = arg min
y∈Y
αΨ(y) +
1
2
ky − xk
2
2
(5.5)Dansle asdefon tionindi atri epour
Ψ
,l'opérateurproximalestunopérateurde proje -tionsurlemême ensemble[6℄:prox
χ
K
(x) = Π
K
(x) = arg min
y∈K
ky − xk
2
2
(5.6)ave
Π
K
l'opérateurde proje tionsur et ensemble (sonexpression est determinée parla ara térisation de l'ensembleK
, voir se tion suivante) etχ
K
la fon tion indi atri e sur l'ensembleK
:χ
K
(y) =
(
0
siy ∈ K
∞
sinon (5.7)L'algorithmeprésenté àlase tion3.1peutseréé riredelafaçonsuivante[24℄:
Algorithm4Méthodedegradienta eléréesurleproblèmeprimal
BV − l
1
InitialiserA
0
= 0
,w
0
= 0
fork ≥ 0
doa =
1+εA
k
L
f
+
r
1+εA
k
L
f
2
+ 2A
k
1+εA
L
f
k
v
k
= prox
A
k
Ψ
(x
0
− w
k
)
y
k
=
A
k
A
x
k
k
+av
+a
k
x
k+1
= prox
1
Lf
Ψ
y
k
−
∇f(y
L
f
k
)
w
k+1
= w
k
+ a∇f(x
k+1
)
A
k+1
= A
k
+ a
endforave
x
0
lasolutioninitialeet:∇f(u) = λ
p
(u − g)
|u − g|
2
+ µ
2
−
div∇u
p
|∇u|
2
+ µ
2
!
(5.8)L
f
=
λ + k
divk
2
µ
(5.9)5.3 Algorithme dual
Pourl'é rituredualede etalgorithme,nousutilisonsuneautreapproximationdelanorme
l
1
baséesurlarégularisationdeMoreau-Yosida[16℄ :
kxk
1,µ
=
max
y∈R
N
,kyk
∞
≤1
hx, yi −
µ
2
kyk
2
2
(5.10)Nousréé rivonsleproblème(5.2)enutilisant ette dénition:
arg min
u∈R
N
λku − gk
1,µ
+ k∇uk
1,µ
+
ε
2
ku − gk
2
2
(5.11)= arg min
u∈R
N
max
y∈R
N
,kyk
∞
≤1
λhu − g, yi + h∇u, yi +
ε
2
ku − gk
2
2
−
µ
2
kyk
2
2
(5.12)= arg min
u∈R
N
max
y∈R
N
,kyk
∞
≤1
hCu − F, yi +
ε
2
ku − gk
2
2
−
µ
2
kyk
2
2
(5.13) (5.14) ave :C =
λI
∇
F =
λg
0
(5.15)La re her hedu
max
sury
est, en fait, indépendante de la re her hede l'arg min
suru
, nouspouvonsdon lesinverser:arg min
u∈R
N
λku − gk
1,µ
+ k∇uk
1,µ
+
ε
2
ku − gk
2
2
(5.16)=
max
y∈R
N
,kyk
∞
≤1
arg min
u∈R
N
hCu − F, yi +
ε
2
ku − gk
2
2
−
µ
2
kyk
2
2
(5.17) Soit:s(u) = hCu − F, yi +
ε
2
ku − gk
2
2
−
µ
2
kyk
2
2
(5.18) Nous her hons:arg min
u∈R
N
s(u)
(5.19) Nousavons:∇s(u) = C
∗
y + ε(u − g) = 0
D'où:u =
−C
∗
y
ε
+ g
(5.20) aveC
∗
lamatri eadjointedeC
:C
∗
= λI
−
div (5.21)L'équation(5.2)peutalorsseréé riresouslaforme:
max
y∈R
N
,kyk
∞
≤1
hCg − F, yi −
2ε
1
kC
∗
yk
2
2
−
µ
2
kyk
2
2
(5.22)= −
min
y∈R
N
,kyk
∞
≤1
1
2ε
kC
∗
yk
2
2
− hCg − F, yi +
µ
2
kyk
2
2
(5.23)Pour eproblèmenousutilisonségalementl'algorithmedeY.Nesterov,légèrementmodié du fait de la présen e de la ondition
kyk
∞
≤ 1
, qui se traduit par des proje tions sur l'ensembleK
:K = {y ∈ R
N
; kyk
∞
≤ 1}
(5.24) Pour etensemble,l'opérateurdeproje tionest dénidelafaçonsuivante (proje tionsur uneboulel
∞
derayon1
):Π
K
(x) =
(
x
si|x| < 1,
x
|x|
sinon (5.25) Nousprenons:f (y) =
1
2ε
kC
∗
yk
2
2
− hCg − F, yi
(5.26)Ψ(y) =
µ
2
kyk
2
2
+ χ
K
(y)
(5.27)L'algorithmes'é ritalorsdelafaçonsuivante:
Algorithm5Méthodedegradienta eléréesurleproblèmedualde
BV − l
1
InitialiserA
0
= 0
,w
0
= 0
fork ≥ 0
doa =
1+µA
k
L
f
+
r
1+µA
k
L
f
2
+ 2A
k
1+µA
L
f
k
v
k
= Π
K
(x
0
− w
k
)
y
k
=
A
k
A
x
k
k
+av
+a
k
x
k+1
= Π
K
y
k
−
∇f(y
L
f
k
)
w
k+1
= w
k
+ a∇f(x
k+1
)
A
k+1
= A
k
+ a
endforave