en imagerie.
Pierre Weiss.
October 25, 2011
III.2/ Th´eorie de la complexit´e en optimisation convexe.
Applications ` a l’imagerie.
Jusqu’` a pr´ esent, on n’est pas capable de r´ esoudre les probl` emes annonc´ es au d´ epart !
•
Les descentes de sous-gradient sont trop lentes.
•
Les sch´ emas acc´ el´ er´ es ne s’adaptent pas aux non-diff´ erentiabilit´ es.
Conclusion :
Pour obtenir des algorithmes plus efficaces, il faut :
•
Se concentrer sur des classes de fonctions plus restreintes que les fonctions convexes quelconques.
•
Utiliser d’autres propri´ et´ es que les gradients et
sous-gradients (op´ erateurs proximaux, dualit´ e).
Quelques algorithmes d’optimisation non lisse efficaces.
•
Deux mots sur les op´ erateurs proximaux (Moreau 1960).
•
Algorithmes primaux quand une partie du probl` eme est diff´ erentiable.
•
Algorithmes duaux quand une partie du probl` eme est fortement convexe.
•
Algorithmes primaux-duaux dans le cas g´ en´ eral.
[Combettes, Wajs 03], Signal recovery by proximal forward-backward splitting. SIAM MMS
D´ efinition : Soit f :
Rn→
R∪ {+∞} un fonction convexe s.c.i.
On appelle op´ erateur proximal ou r´ esolvante de f l’op´ erateur : prox
f(x
0) = arg min
x∈Rn
f (x) + 1
2 kx − x
0k
2. Notes :
•
Cet op´ erateur est bien d´ efini car f (x) +
12kx − x
0k
2est strictement convexe et coercive.
•
Il est parfois not´ e (Id + ∂f)
−1(x
0) car les conditions d’optimalit´ e m` enent ` a
0 ∈ ∂f(prox
f(x
0)) + prox
f(x
0) − x
0.
Op´ erateurs proximaux.
Intuition :
C’est une g´ en´ eralisation de la projection.
Si f(x) =
0 si x ∈ X
+∞ sinon , alors : prox
f(x
0) = arg min
x∈X
1
2 kx − x
0k
2(1)
= Π
X(x
0). (2)
Propri´ et´ es ´ el´ ementaires :
•
L’op´ erateur proximal est non expansif :
∀(x, y) ∈
Rn×
Rn, kprox
f(x) − prox
f(y)k ≤ kx − yk.
•
Il caract´ erise les minimiseurs : x ∈ Arg min
x∈Rn
f (x) ⇔ 0 ∈ ∂f(x) ⇔ prox
f(x) = x (point fixe).
L’op´ erateur proximal est central pour la r´ esolution - ` a l’aide de m´ ethodes de premier ordre - des probl` emes non diff´ erentiables.
Nous allons montrer son utilisation pour la r´ esolution de quelques classes de prob` emes :
1. Somme d’une fonction convexe diff´ erentiable et d’une fonction convexe (Primal).
2. Somme d’une fonction convexe et d’une fonction fortement convexe (Dual).
3. Autres probl` emes de type point selle.
Une classe de probl` emes non diff´ erentiable Auslender70:
On consid` ere d´ esormais et jusqu’` a nouvel ordre le probl` eme suivant :
x∈
min
Rnf
1(x) + f
2(x)
•
f
1est convexe, diff´ erentiable, ` a gradient L-Lispchitz.
•
f
2est convexe, s.c.i telle que prox
f2peut ˆ etre calcul´ e.
Propri´ et´ e : Les minimiseurs x
∗sont caract´ eris´ es par x
∗= prox
τ f2(x
∗− τ ∇f
1(x
∗)) .
Preuve :0 ∈ ∇f
1(x
∗) + ∂f
2(x
∗)
⇔ x
∗− τ ∇f
1(x
∗) ∈ x
∗+ τ ∂f
2(x
∗)
⇔ x
∗= prox
τ f2(x
∗− τ ∇f
1(x
∗)) .
convexe..
Le gradient proximal : la caract´ erisation de point-fixe pr´ ec´ edente donne envie d’utiliser le sch´ ema :
x
k+1= prox
τ f2(x
k− τ ∇f
1(x
k)) Exemple (compressive sensing) :
x∈
min
Rn1
2 kAx − bk
2+ kxk
1x
k+1= shrink
τ(x
k− τ A
T(Ax − b))
[I. Daubechie etal 03] An iterative thresholding algorithm for linear inverse problems with a sparsity constraint, CPAM.
Convergence lin´ eaire : Si µ = λ
min(A
TA) > 0, alors le
sch´ ema pr´ ec´ edent converge lin´ eairement en choisissant τ =
µ+L2.
Somme d’une fonction diff´ erentiable et d’une fonction convexe..
Preuve :
kx
k+1− x
∗k = kprox
τ f2
(x
k− τ A
T(Ax
k− b)) − x
∗k
= kprox
τ f2(x
k− τ A
T(Ax
k− b))
−prox
τ f2(x
∗− τ A
T(Ax
∗− b))k
≤ k(I − τ A
TA)(x
k− x
∗)k (non expansif)
≤ |||(I − τ A
TA)||| · k(x
k− x
∗)k avec : |||(I − τ A
TA)||| = max(|1 − τ µ|, |1 − τ L|).
Enfin, on a
min
τmax(1 − τ µ, 1 − τ L) = 2
µ + L .
Que se passe-t-il dans le cas non fortement convexe ?
Somme d’une fonction diff´ erentiable et d’une fonction convexe.
f
1diff´ erentiable + gradient Lipschitz ⇒ f
1(x) ≤ f
1(x
k) + h∇f
1(x
k), x − x
ki + L
2 ||x − x
k||
22f
1(x)+f
2(x) ≤ f
1(x
k) + h∇f
1(x
k), x − x
ki +
2 ||x − x
k||
2+f
2(x)
| {z }
Ψk(x)
En prenant x
k+1= arg min
x∈Rn
Ψ
k(x) on assure :
f (x
k+1) ≤ f (x
k) − ♣
o` u ♣ est une “g´ en´ eralisation” de
k∇f(x2Lk)k2.
Somme d’une fonction diff´ erentiable et d’une fonction convexe.
f
1diff´ erentiable + gradient Lipschitz ⇒ f
1(x) ≤ f
1(x
k) + h∇f
1(x
k), x − x
ki + L
2 ||x − x
k||
22f
1(x)+f
2(x) ≤ f
1(x
k) + h∇f
1(x
k), x − x
ki + L
2 ||x − x
k||
22+f
2(x)
| {z }
Ψk(x)
En prenant x
k+1= arg min
x∈Rn
Ψ
k(x) on assure :
f (x
k+1) ≤ f (x
k) − ♣
o` u ♣ est une “g´ en´ eralisation” de
k∇f(x2Lk)k2.
convexe.
L’it´ eration pr´ ec´ edente est ´ equivalente ` a : x
k+1= arg min
x∈Rn
1
L f
2(x) + 1 2
x −
x
k− ∇f
1(x
k) L
Soit encore :
x
k+1= prox
f2/Lx
k− ∇f
1(x
k)) L
Somme d’une fonction diff´ erentiable et d’une fonction convexe.
R´ esultat de convergence 1 [Nesterov 07]
Sous les hypoth` eses pr´ ec´ edentes, pour d admissible tel que
||d|| ≤ 1
Df (x
k)(d) ≥ −O
L f (x
0) − min f
√ k
R´ esultat de convergence 2 Si de plus f
1est convexe alors :
f (x
k) − f (x
∗) ≤ L||y
0− y
∗||
2k (variables duales)
Nette am´ elioration par rapport aux techniques de
sous-gradient!
•
In: Nombre d’ it´ erations N , point initial x
0∈
Rn.
•
Out: x
Nune estim´ ee de x
∗.
•
Init: Poser t
1= 1, y
1= x
0. Pour k allant de 0 ` a N :
•
Poser x
k= prox
f2/Ly
k−
∇f1L(yk).
•
Calculer t
k+1=
1+√
1+4t2k
2
.
•
Poser y
k+1= x
k+
tk−1 tk+1
(x
k− x
k−1).
Sch´ ema multi-pas [Nesterov 07].
R´ esultat de convergence L’algorithme assure que :
f(x
k) − f (x
∗) ≤ L||x
0− x
∗||
2k
2 C’est un taux de convergence optimal.R´ esultats pratiques...
•
Pour les transform´ ees “simples” de l’analyse harmonique, 30 it´ erations m` enent ` a une pr´ ecision suffisante pour le syst` eme visuel.
•
Vers du temps r´ eel ? De l’ordre de la seconde pour une
image 1000 × 1000 (architecture GPU).
convexes.
Le cadre pr´ ec´ edent ne permet pas de traiter des probl` emes de type :
x∈
min
Rnk∇xk
1+ 1
2 kx − x
0k
2en effet :
•
x 7→ k∇xk
1est trop complexe pour en calculer la r´ esolvante.
•
x 7→ k∇xk
1n’est pas diff´ erentiable...
On va voir que la dualit´ e permet de contourner ces probl` emes.
Une classe de fonctions fortement convexes.
x∈
min
RnP(x) := f
1(Ax) + f
2(x)
•
f
1:
Rn→
R∪ {+∞} convexe, s.c.i.
•
A :
Rn→
Rmlin´ eaire (ou affine).
•
f
2:
Rn→
R∪ {+∞} µ-fortement convexe.
•
A · ri(dom(f
2)) ∩ ri(dom(f
1)) 6= ∅.
Exemple typique (TV + terme
l2) :
x∈
min
Rn||∇x||
1+ λ
2 ||x − x
0||
22D´ efinition (polaire)
Soit f :
Rn→
R∪ {+∞} une fonction convexe s.c.i. La transform´ ee de Fenchel ou polaire de
fest d´ efinie par
f
∗(x
0) = sup
x∈Rn
hx
0, xi − f (x) Propri´ et´ es
•
f
∗est convexe s.c.i.
•
On a f
∗∗= f ce qui implique que : f(x
0)
=f
∗∗(x
0)
= sup
x∈Rn
hx
0, xi − f
∗(x)
On peut red´ efinir f ` a partir de sa polaire.
Compl´ ements d’analyse convexe...
Dualit´ e de Fenchel-Rockafellar : On a donc :
x∈
min
Rnf
1(Ax) + f
2(x)
| {z }
Probl`eme primal
= min
x∈Rn
sup
y∈Rm
hAx, yi − f
1∗(y) + f
2(x)
= min
x∈Rn
sup
y∈Rm
hx, A
∗yi − f
1∗(y) + f
2(x)
= sup
y∈Rm x∈
inf
Rnhx, A
∗yi − f
1∗(y) + f
2(x) (Voir sch´ ema)
= sup
y∈Rm
−f
1∗(y) − sup
x∈Rn
−hx, A
∗yi − f
2(x)
= sup
y∈Rm
−f
1∗(y) − f
2∗(−A
∗x)
= − inf
y∈Rm
f
1∗(y) + f
2∗(−A
∗x)
| {z }
Probl`eme dual
Figure: Une fonction convexe-concave et son point-selle.
Compl´ ements d’analyse convexe...
Relations primales-duales.
Soit (x
∗, y
∗) un point selle, on a :
0 ∈ Ax
∗− ∂f
1∗(y
∗) 0 ∈ −A
∗y
∗− ∂f
2(x
∗) Soit encore :
y
∗∈ (∂f
1)(Ax
∗) x
∗∈ (∂f
2∗)(−A
∗y
∗) Car :
x
2∈ ∂f (x
1) ⇔ x
1∈ ∂f
∗(x
2)
Les solutions du probl` eme dual apportent des informations sur
le primal et vice-versa !
Th´ eor` eme (derni` eres pages du livre de J.B.
Hiriart-Urruty et C. Lemar´ echal): Soit
f :
Rn→
R∪ {+∞} une fonction convexe, s.c.i. Les deux propositions suivantes sont ´ equivalentes :
1. f est diff´ erentiable et ∇f est L-Lipschitz.
2. f
∗est fortement convexe de module
L1.
Minimisation d’une classe de fonctions fortement convexes.
Conclusion
Si f
2est µ-fortement convexe, on a :
x∈
min
Rnf
1(Ax) + f
2(x) = − min
y∈Rm
f
2∗(−A
∗y) + f
1∗(y)
• f2∗
est diff´ erentiable avec un gradient
1µ-Lipschitz.
•
f
1∗est convexe.
•
Pour tout y
∗∈ Y
∗, x
∗= ∇f
2∗(−A
∗y
∗).
Un algorithme naturel : gradient proximal y
k+1= prox
f∗1/L
y
k+ A∇f
2∗(−A
∗y
k)
x
k+1= ∇f
2∗(−A
∗y
k+1).
convexes.
Analyse du taux de convergence.
On a :
x∈
min
Rnf
1(Ax) + f
2(x)
| {z }
P(x)
= − min
y∈Rm
f
2∗(−A
∗y) + f
1∗(y)
| {z }
D(y)
et pour tout y
∗∈ Y
∗, x
∗= ∇f
2∗(−A
∗y
∗).
Proposition [Peyr´ e, Fadili, Weiss] (sur demande) Soit
x(y) = ∇f
2∗(−A
∗y) Alors
kx(y) − x
∗k
2≤ 2
µ |D(y) − D(y
∗)|
Un taux de CV sur le dual ⇒ taux de CV sur le primal.
Minimisation d’une classe de fonctions fortement convexes.
R´ esultat de convergence (gradient proximal dual) Sous les hypoth` eses pr´ ec´ edentes :
||x
k− x
∗||
2≤ |||A|||
2||y
0− y
∗||
2µk
En notant ∆(x
k, y
k) = P (x
k) − D(y
k), le saut de dualit´ e on a :
||x
k− x
∗||
2≤ ∆(x
k, y
k).
La distance au minimiseur peut ˆ etre ´ evalu´ ee ` a chaque
it´ eration !
convexes..
Exemple : le probl` eme TV-L2
x∈
min
Rn||∇x||
1+ λ
2 ||x − x
0||
2= − min
y∈R2n,||y||∞≤1
||λ∇
∗y − x
0||
2Similaire ` a :
• [A. Chambolle 04] An algorithm for TV minimization.
Le sch´ ema assure que :
||x
k− x
∗||
2≤ 8n λk .
La complexit´ e augmente lin´ eairement avec la
dimension !
Minimisation d’une classe de fonctions fortement convexes.
Taux de convergence
Les sch´ emas acc´ el´ er´ es de Nesterov appliqu´ es au dual assurent :
||x
k− x
∗||
2≤ 2|||A|||
2||y
0− y
∗||
2µ
2k
2et si dom(f
1) =
Rm:
f (x
k) − f(x
∗) ≤ 2||y
0− y
∗||
2|||A|||
2µk
2.
(Sinon, rien n’assure que les it´ er´ ees primales soient
admissibles...)
pr´ ec´ edents
On consid` ere le probl` eme :
x∈
min
Rnk∇xk
1+ λ
2 kx − x
0k
22D´ ebruitage de
x0sous l’hypoth` ese de bruit gaussien additif.
[FILM, AUTRES EXEMPLES]
Quelques applications pratiques des algorithmes pr´ ec´ edents
D´ ebruitage d’images SPIM.
Travail en collaboration avec J´ erˆ ome Fehrenbach (Institut de Math´ ematiques de Toulouse) et le canc´ eropole.
•
L’existence de sch´ emas efficaces doit guider la mod´ elisation.
Images SPIM: les images sont affect´ ees par des raies sombres
(ou parfois brillantes).
Motivation et pr´ esentation de la m´ ethode
On se propose d’´ eliminer ces raies, pour obtenir des images plus lisibles.
ã
L’origine physique de ces raies est peu claire. On va donc adopter une m´ ethode de traitement d’image sans
mod´ elisation de la physique.
Notre algorithme s’inspire des m´ ethodes r´ ecentes de d´ ecomposition d’images en :
ã
u
0= u + v (structure + texture),.
ã
u
0= u + v + b (structure + texture + bruit).
[Meyer 01, Starck Donoho 05, Aujol 05, Fadili 10, ]
= +
Motivation et pr´ esentation de la m´ ethode
ã
Difficult´ e : grand nombre d’inconnues (plus de 500 images 1000 × 1000 ∼ 1-50Go.).
ã
Pour s’en sortir : formuler le probl` eme comme un probl` eme
de minimisation convexe. Cela permet le d´ eveloppement
d’algorithmes efficaces, qui convergent vers un minimum
global.
On d´ ecrit le bruit comme ´ etant compos´ e de raies + bruit blanc (deux composantes).
La raie est un “motif ´ el´ ementaire” qui se retrouve ` a plusieurs endroits dans l’image.
Pour d´ eplacer et r´ epliquer un motif ψ dans l’espace on utilise un produit de convolution :
λ ∗ ψ(x) =
Xy
λ(y)ψ(x − y).
Hypoth` ese sous-jacente : le bruit est stationnaire.
∗ =
Mod´ elisation du bruit
De fa¸ con plus g´ en´ erale, le bruit est mod´ elis´ e comme le produit de convolution entre un bruit blanc (pas forc´ ement gaussien) et un noyau donn´ e.
Figure: Exemples de bruits stationaires obtenus par convolution d’un noyau avec un bruit blanc.
Autres exemples de produit de convolution:
∗ =
∗ =
Le produit de convolution s’exprime facilement en Fourier.
Mod´ elisation du bruit
Mod´ elisation d’une raie : un
filtre de Gabor(=une gaussienne
anisotrope modul´ ee par une sinuso¨ıde).
Le bruit est d´ecrit par plusieurs types de raies (longueur/largeur diff´erentes). Il s’´ecrit
b=
m
X
i=1
λi∗ψi.
La loi de probabilit´e de chaqueλi d´epend de la mod´elisation du bruit.
D’une mani`ere g´en´erale on ´ecrit:
P(λi) = exp(−φi(λi)).
L’hypoth`ese que le bruit est blanc permet de choisir des fonctionsφi s´eparables(ce qui simplifie l’analyse num´erique et est justifi´e par l’hypoth`ese destationnarit´e).
Mod´ ele de restauration
On utilise le principe du Maximum A Posteriori. On cherche l’image u la plus probable ´ etant donn´ ees :
1) la forme et l’orientation de chaque raie ψ
i(en pratique : une/deux raie + un bruit Gaussien), 2) une description de la probabilit´ e de chaque bruit φ
i, 3) une description d’un mod` ele d’image a priori.
La recherche de l’image u la plus probable peut s’exprimer
comme un probl` eme de minimisation convexe.
Principe du Maximum A Posteriori (MAP) : Connaissant u
0∈
Rn, trouver Arg max
λ∈Rm×n
P (λ|u
0).
Loi de Bayes : P (λ|u
0) = P (u
0|λ)P (λ) P (u
0) , donc sous l’hypoth` ese d’ind´ ependance de
uet de
λ:
Arg max
λ∈Rm×n
P (λ|u
0) = Arg min
λ∈Rm×n
(− log(P(u)) − log(P (λ))) Soit encore :
Arg min
λ∈Rm×n
∇ u
0−
m
X
i=1
λ
i∗ Ψ
i! 1,
+
m
X
i=1
φ
i(λ
i)
R´ esultats (v´ erification du principe)
Arg min
λ∈R3n
∇ u −
3
X
i=1
λ
i? ψ
i! 1
+ kλ
1k
∞+ kλ
2k
22+ kλ
3k
1 Noyaux : “raie verticale (l∞)”, “Dirac (l2)”, ”poisson (l1)”.=
+ + +
→
→
R´ esultats (v´ erification du principe)
→
Figure: Le filtre naturel : un filtre en forme de gradient topologique... Mais mauvaise r´esolution.
Figure: Super-r´esolution... Le cerveau de l’ombre.
R´ esultats (v´ erification du principe)
→
Figure: Le filtre naturel : un filtre en forme de gradient topologique...
Mais mauvaise r´esolution.
R´ esultats (v´ erification du principe)
→
Figure: Le filtre naturel : un filtre en forme de gradient topologique...
Mais mauvaise r´esolution.
Figure: Super-r´esolution... Le cerveau de l’ombre.
R´ esultats
Figure: de gauche `a droite : originale; 2 filtres (raie de Gabor + Dirac pour le bruit gaussien) ; m´ethode TV-L2
Sur une autre image :
= +
Remarque sur le choix des fonctions φ
iLe mod` ele de d´ ecomposition est le suivant : Arg min
λ∈Rm×n
∇ u −
m
X
i=1
ψ
i? λ
i! 1
+
m
X
i=1
φ
i(λ
i) Comment choisir les fonctions
φi?
Les choix classiques sont :
•
φ
i(·) = k · k
1: bruit laplace ou de type impulsionnel.
•
φ
i(·) =
12k · k
22: bruit Gaussien.
•
φ
i(·) = k · k
∞: bruit uniforme/amplitude born´ ee.
Est-ce bien n´ ecessaire ?
i
Th´ eor` eme de Lindeberg-Feller : Soit
b = λ ? ψ
•
λ ∈
RNest un bruit blanc.
•
ψ ∈
RNest un noyau de convolution.
Si la d´ ecroissance de ψ est suffisamment lente
→
bisuit une loi gaussienne pour tout
i.Conclusion : si les noyaux ψ sont “suffisamment” ´ etal´ es, la norme l
2suffit.
Int´ erˆ et : si φ
i(·) =
12k · k
22, ∀i, le probl` eme est fortement
convexe.
Liens avec les mod` eles ` a base de normes n´ egatives
Objectif des planches ` a venir :
Les mod` eles de d´ ecomposition en texture+ structure avec
normes n´ egatives sont un cas particulier du formalisme pr´ esent´ e.
[Meyer 01] Oscillating patterns in image processing and nonlinear evolution equations
Une texture est d’autant plus “probable” qu’elle est oscillante.
Les normes n´ egatives (W
−1,p) permettent de d´ etecter les fonctions oscillantes.
Soit :
||v||
−1,p= min
|q|∈Lp(Ω),div(q)=v
||q||
p[Aubert, Aujol, 2004] : Sur un ensemble born´ e v
n* 0 ⇒
||v
n||
−1,p→ 0 (pour p ≥ 1).
Liens avec les mod` eles ` a base de normes n´ egatives
[Meyer 01, Osher-Vese 03, Aujol 05, Vese 03-10...]
D´ ecomposer u
0en structure + texture:
u
0= u + v.
En r´ esolvant :
arg min
u+v=u0,u0∈Rn
k∇uk
1+ αkvk
−1,pEn posant v = divg, ce probl` eme peut ˆ etre r´ e´ ecrit :
arg min
g∈Rn×Rn
k∇(u
0− divg)k
1+ αkgk
p.
On a :
divg = ∂
1g
1+ ∂
2g
2Et apr` es discr´ etisation:
∂
1g
1+ ∂
2g
2= g
1? h
1+ g
2? h
2o` u h
1et h
2d´ ependent du choix de discr´ etisation.
Par exemple :
h
1= [1, −1] h
2=
1
−1
. Les coefficients g
1et g
2rep´ esentent :
les coefficients de la texture
vdans un dictionnaire compos´ e des
fonctions
h1et
h2translat´ ees dans l’espace.
Liens avec les mod` eles ` a base de normes n´ egatives
Interpr´ etation bay´ esienne du mod` ele de Y. Meyer.
•
Soit Γ un v.a. de
Rnde densit´ e P (Γ) ∝ exp(−αkΓk
p).
•
Soit θ un v.a. de
Rnde densit´ e uniforme sur [0, 2π].
•
Soit G =
Γ cos(θ) Γ sin(θ)
.
Alors la d´ ecomposition u
0= u + v du probl` eme de Y.Meyer correspond ` a une solution MAP
•
o` u u est la r´ ealisation d’un v.a. de densit´ e exp(−k∇uk
1).
•
o` u v est la r´ ealisation d’un v.a. V = divG.
U nif orme Gaussien Bernoulli
p = ∞ p = 2 p = 1
Figure: Haut : bruits standards. Bas : bruits synth´etis´es correspondant aux mod`eles W−1,p.
Conclusion SPIM
ã
Suppression des raies par post-traitement des images SPIM.
ã
Des techniques d’optimisation convexe sont utilis´ ees et d´ evelopp´ ees.
ã
Une mod´ elisation originale du bruit.
ã
Pour acc´ el´ erer : programmation sous CUDA (facteur 100/Matlab).
ã
Traitement en un temps inf´ erieur ` a la seconde pour une
image 1000x1000.
Un nouveau cadre de travail :
x∈
min
RnP(x) := f
1(Ax) + f
2(x)
•
f
1et f
2convexes, s.c.i. et “simples”.
•
A :
Rn→
Rmlin´ eaire.
•
A · ri(dom(f
2)) ∩ ri(dom(f
1)) 6= ∅.
Remarque centrale : On sait r´ esoudre rapidement
x∈
min
Rnf
1(Ax) + f
2(x) + 2 f
3(x) o` u f
3est fortement convexe ou
x∈
min
Rnf
1,(Ax) + f
2(x)
o` u f
1,est une r´ egularis´ ee de f
1(e.g. Moreau-Yosida).
La rapidit´ e des sch´ emas peut-elle compenser les erreurs
d’approximation ?
Justification des techniques de lissage...
Oui ! Id´ ee de la preuve : On consid` ere le probl` eme :
f
∗= min
x∈Rn
f
1(Ax) +
2 kx − x
0k
2(P
)
On g´ en` ere une suite (x
k) avec un algorithme optimal sur P
.
0 ≤ P (x
k) − P
∗≤
2 kx
∗− x
0k
2| {z }
approximation
+ |||A||| · ky
0− y
∗k
2k
2| {z }
sch´ema
Puis ` a k fix´ e, on minimise le membre de droite par rapport ` a .
Lissage primal (Nesterov 2003) R´ esultat
Si µ est proportionel ` a 1/k, le sch´ ema pr´ ec´ edent assure : P (x
k) − P (x
∗) ≤ ||A|| · ||x
0− x
∗µ||
2· ||y
0− y
∗||
2k .
Optimalit´ e
Le sch´ ema est “optimal”.
•
Nemirovski 1992
Information-based complexity of linear operator equations.Journal of Complexity.
Justification des techniques de lissage...
Lissage dual R´ esultat
Si est proportionel ` a 1/k, le sch´ ema assure :
P (x
k) − P (x
∗) ≤ ||A|| · ||x
0− x
∗||
2· ||y
0− y
∗||
2k .
Avantages du dual
•
La solution du probl` eme r´ egularis´ e est unique.
•
On obtient un taux de convergence en norme.
C’est un r´ esultat profond.
•
Meilleur que les descentes de sous-gradient en O
k1.
•
M´ ethode optimale pour une vaste classe d’in´ egalit´ e variationnelles.
Cependant...
•
D´ ependance de et de k ` a fixer au d´ epart.
•
Allez voir le dernier preprint de A. Chambolle et T. Pock !
Design de bobines de gradient pour l’IRM
(En collaboration avec M. Poole, U. Brisbane).
•
Les champs magn´ etiques varient rapidement dans le temps
⇒ courants de Foucault induits, vibrations des structures m´ ecaniques, bruits (> 130dB).
•
Pour am´ eliorer la qualit´ e, courants importants ⇒
´
echauffements locaux des bobines, d´ et´ eriorations.
⇒ Trouver un design qui r´ eduit ces effets.
Design de bobines pour l’IRM : mod´ elisation
Probl` eme inverse :
Trouver un arrangement de fils qui produise un champs magn´ etique donn´ e apr` es mise sous tension.
Solutions:
•
Optimisation de forme classique et topologiques inefficaces.
• Des fils adjacents pourraient ˆetre reli´es.
• On ne cherche qu’un seul fil continu.
•
Utilisation d’une m´ ethode de type level set.
Design de bobines pour l’IRM : mod´ elisation
R´ egime statique.
Le champs magn´ etique B est reli´ e au champs de courant J par la loi de Biot-Savart :
B(r) = µ
04π
Z
J(r
0) × r − r
0|r − r
0|
3dv
⇒ Probl` eme inverse :
trouver J pour obtenir un B donn´ e.
C’est un probl` eme inverse mal-pos´ e.
R´ egime statique.
Le champs magn´ etique B est reli´ e au champs de courant J par la loi de Biot-Savart :
B(r) = µ
04π
Z
J(r
0) × r − r
0|r − r
0|
3dv
⇒ Probl` eme inverse :
trouver J pour obtenir un B donn´ e.
C’est un probl` eme inverse mal-pos´ e.
Design de bobines pour l’IRM : mod´ elisation
Termes d’´ energie classiques :
•
La distance au champ cible : kB(r) − µ
04π
ZJ(r
0) × r − r
0|r − r
0|
3dvk
22•
L’´ energie stock´ ee : W = µ
08π
Z ZJ (r) · J (r
0)
|r − r
0| dvdv
0•
La chaleur (effet Joule) : R = ρ
CZ
|J (r)|
2dv
•
Des forces de couple de Lorentz : τ =
Z
r × J (r) × B
0dv.
discr´ etisation
Design de bobines pour l’IRM : discr´ etisation
On discr´ etise :
J(r) ∼
n
X
i=1
x
nj
n(r) avec div(j
n) = 0.
De la mˆ eme fa¸con :
B(r) ∼
n
X
i=1
x
nb
n(r) Puis :
W (x) = hx, M
Wxi ´ energie stock´ ee
P (x) = hx, M
Rxi r´ esistance
T x = M
Tx couple magn´ etique
Design de bobines pour l’IRM
Finalement le probl` eme inverse standard est : Trouver x ∈ arg min
x∈Rn,T x=0
kBx − bk
22+ αW (x) + βP (x) Peut ˆ etre r´ esolu par des techniques d’alg` ebre lin´ eaire.
Trouver x ∈ arg min
x∈Rn,T x=0
kBx − bk
22+ αW (x) + βP (x) + γkj(x)k
∞C’est un probl` eme d’optimisation convexe (programmation
quadratique).
Design de bobines pour l’IRM
Finalement le probl` eme inverse standard est : Trouver x ∈ arg min
x∈Rn,T x=0
kBx − bk
22+ αW (x) + βP (x) Peut ˆ etre r´ esolu par des techniques d’alg` ebre lin´ eaire.
Nouveaut´ e : minimiser les ´ echauffements locaux de la bobine
Trouver x ∈ arg min
x∈Rn,T x=0
kBx − bk
22+ αW (x) + βP (x) + γkj(x)k
∞C’est un probl` eme d’optimisation convexe (programmation
quadratique).
Design de bobines pour l’IRM : r´ esultats.
Design de bobines pour l’IRM : r´ esultats.
Comparaisons chaleur. Design classique - Nouveau Design.
•