• Aucun résultat trouvé

Mod`eles convexes et algorithmes d’optimisation en imagerie.

N/A
N/A
Protected

Academic year: 2022

Partager "Mod`eles convexes et algorithmes d’optimisation en imagerie."

Copied!
79
0
0

Texte intégral

(1)

en imagerie.

Pierre Weiss.

October 25, 2011

(2)

III.2/ Th´eorie de la complexit´e en optimisation convexe.

Applications ` a l’imagerie.

(3)

Jusqu’` a pr´ esent, on n’est pas capable de r´ esoudre les probl` emes annonc´ es au d´ epart !

Les descentes de sous-gradient sont trop lentes.

Les sch´ emas acc´ el´ er´ es ne s’adaptent pas aux non-diff´ erentiabilit´ es.

Conclusion :

Pour obtenir des algorithmes plus efficaces, il faut :

Se concentrer sur des classes de fonctions plus restreintes que les fonctions convexes quelconques.

Utiliser d’autres propri´ et´ es que les gradients et

sous-gradients (op´ erateurs proximaux, dualit´ e).

(4)

Quelques algorithmes d’optimisation non lisse efficaces.

Deux mots sur les op´ erateurs proximaux (Moreau 1960).

Algorithmes primaux quand une partie du probl` eme est diff´ erentiable.

Algorithmes duaux quand une partie du probl` eme est fortement convexe.

Algorithmes primaux-duaux dans le cas g´ en´ eral.

(5)

[Combettes, Wajs 03], Signal recovery by proximal forward-backward splitting. SIAM MMS

D´ efinition : Soit f :

Rn

R

∪ {+∞} un fonction convexe s.c.i.

On appelle op´ erateur proximal ou r´ esolvante de f l’op´ erateur : prox

f

(x

0

) = arg min

x∈Rn

f (x) + 1

2 kx − x

0

k

2

. Notes :

Cet op´ erateur est bien d´ efini car f (x) +

12

kx − x

0

k

2

est strictement convexe et coercive.

Il est parfois not´ e (Id + ∂f)

−1

(x

0

) car les conditions d’optimalit´ e m` enent ` a

0 ∈ ∂f(prox

f

(x

0

)) + prox

f

(x

0

) − x

0

.

(6)

Op´ erateurs proximaux.

Intuition :

C’est une g´ en´ eralisation de la projection.

Si f(x) =

0 si x ∈ X

+∞ sinon , alors : prox

f

(x

0

) = arg min

x∈X

1

2 kx − x

0

k

2

(1)

= Π

X

(x

0

). (2)

Propri´ et´ es ´ el´ ementaires :

L’op´ erateur proximal est non expansif :

∀(x, y) ∈

Rn

×

Rn

, kprox

f

(x) − prox

f

(y)k ≤ kx − yk.

Il caract´ erise les minimiseurs : x ∈ Arg min

x∈Rn

f (x) ⇔ 0 ∈ ∂f(x) ⇔ prox

f

(x) = x (point fixe).

(7)

L’op´ erateur proximal est central pour la r´ esolution - ` a l’aide de m´ ethodes de premier ordre - des probl` emes non diff´ erentiables.

Nous allons montrer son utilisation pour la r´ esolution de quelques classes de prob` emes :

1. Somme d’une fonction convexe diff´ erentiable et d’une fonction convexe (Primal).

2. Somme d’une fonction convexe et d’une fonction fortement convexe (Dual).

3. Autres probl` emes de type point selle.

(8)

Une classe de probl` emes non diff´ erentiable Auslender70:

On consid` ere d´ esormais et jusqu’` a nouvel ordre le probl` eme suivant :

x∈

min

Rn

f

1

(x) + f

2

(x)

f

1

est convexe, diff´ erentiable, ` a gradient L-Lispchitz.

f

2

est convexe, s.c.i telle que prox

f2

peut ˆ etre calcul´ e.

Propri´ et´ e : Les minimiseurs x

sont caract´ eris´ es par x

= prox

τ f2

(x

− τ ∇f

1

(x

)) .

Preuve :

0 ∈ ∇f

1

(x

) + ∂f

2

(x

)

⇔ x

− τ ∇f

1

(x

) ∈ x

+ τ ∂f

2

(x

)

⇔ x

= prox

τ f2

(x

− τ ∇f

1

(x

)) .

(9)

convexe..

Le gradient proximal : la caract´ erisation de point-fixe pr´ ec´ edente donne envie d’utiliser le sch´ ema :

x

k+1

= prox

τ f2

(x

k

− τ ∇f

1

(x

k

)) Exemple (compressive sensing) :

x∈

min

Rn

1

2 kAx − bk

2

+ kxk

1

x

k+1

= shrink

τ

(x

k

− τ A

T

(Ax − b))

[I. Daubechie etal 03] An iterative thresholding algorithm for linear inverse problems with a sparsity constraint, CPAM.

Convergence lin´ eaire : Si µ = λ

min

(A

T

A) > 0, alors le

sch´ ema pr´ ec´ edent converge lin´ eairement en choisissant τ =

µ+L2

.

(10)

Somme d’une fonction diff´ erentiable et d’une fonction convexe..

Preuve :

kx

k+1

− x

k = kprox

τ f

2

(x

k

− τ A

T

(Ax

k

− b)) − x

k

= kprox

τ f2

(x

k

− τ A

T

(Ax

k

− b))

−prox

τ f2

(x

− τ A

T

(Ax

− b))k

≤ k(I − τ A

T

A)(x

k

− x

)k (non expansif)

≤ |||(I − τ A

T

A)||| · k(x

k

− x

)k avec : |||(I − τ A

T

A)||| = max(|1 − τ µ|, |1 − τ L|).

Enfin, on a

min

τ

max(1 − τ µ, 1 − τ L) = 2

µ + L .

Que se passe-t-il dans le cas non fortement convexe ?

(11)

Somme d’une fonction diff´ erentiable et d’une fonction convexe.

f

1

diff´ erentiable + gradient Lipschitz ⇒ f

1

(x) ≤ f

1

(x

k

) + h∇f

1

(x

k

), x − x

k

i + L

2 ||x − x

k

||

22

f

1

(x)+f

2

(x) ≤ f

1

(x

k

) + h∇f

1

(x

k

), x − x

k

i +

2 ||x − x

k

||

2

+f

2

(x)

| {z }

Ψk(x)

En prenant x

k+1

= arg min

x∈Rn

Ψ

k

(x) on assure :

f (x

k+1

) ≤ f (x

k

) − ♣

o` u ♣ est une “g´ en´ eralisation” de

k∇f(x2Lk)k2

.

(12)

Somme d’une fonction diff´ erentiable et d’une fonction convexe.

f

1

diff´ erentiable + gradient Lipschitz ⇒ f

1

(x) ≤ f

1

(x

k

) + h∇f

1

(x

k

), x − x

k

i + L

2 ||x − x

k

||

22

f

1

(x)+f

2

(x) ≤ f

1

(x

k

) + h∇f

1

(x

k

), x − x

k

i + L

2 ||x − x

k

||

22

+f

2

(x)

| {z }

Ψk(x)

En prenant x

k+1

= arg min

x∈Rn

Ψ

k

(x) on assure :

f (x

k+1

) ≤ f (x

k

) − ♣

o` u ♣ est une “g´ en´ eralisation” de

k∇f(x2Lk)k2

.

(13)

convexe.

L’it´ eration pr´ ec´ edente est ´ equivalente ` a : x

k+1

= arg min

x∈Rn

1

L f

2

(x) + 1 2

x −

x

k

− ∇f

1

(x

k

) L

Soit encore :

x

k+1

= prox

f2/L

x

k

− ∇f

1

(x

k

)) L

(14)

Somme d’une fonction diff´ erentiable et d’une fonction convexe.

R´ esultat de convergence 1 [Nesterov 07]

Sous les hypoth` eses pr´ ec´ edentes, pour d admissible tel que

||d|| ≤ 1

Df (x

k

)(d) ≥ −O

L f (x

0

) − min f

√ k

R´ esultat de convergence 2 Si de plus f

1

est convexe alors :

f (x

k

) − f (x

) ≤ L||y

0

− y

||

2

k (variables duales)

Nette am´ elioration par rapport aux techniques de

sous-gradient!

(15)

In: Nombre d’ it´ erations N , point initial x

0

Rn

.

Out: x

N

une estim´ ee de x

.

Init: Poser t

1

= 1, y

1

= x

0

. Pour k allant de 0 ` a N :

Poser x

k

= prox

f2/L

y

k

∇f1L(yk)

.

Calculer t

k+1

=

1+

1+4t2k

2

.

Poser y

k+1

= x

k

+

tk−1 tk+1

(x

k

− x

k−1

).

(16)

Sch´ ema multi-pas [Nesterov 07].

R´ esultat de convergence L’algorithme assure que :

f(x

k

) − f (x

) ≤ L||x

0

− x

||

2

k

2 C’est un taux de convergence optimal.

R´ esultats pratiques...

Pour les transform´ ees “simples” de l’analyse harmonique, 30 it´ erations m` enent ` a une pr´ ecision suffisante pour le syst` eme visuel.

Vers du temps r´ eel ? De l’ordre de la seconde pour une

image 1000 × 1000 (architecture GPU).

(17)

convexes.

Le cadre pr´ ec´ edent ne permet pas de traiter des probl` emes de type :

x∈

min

Rn

k∇xk

1

+ 1

2 kx − x

0

k

2

en effet :

x 7→ k∇xk

1

est trop complexe pour en calculer la r´ esolvante.

x 7→ k∇xk

1

n’est pas diff´ erentiable...

On va voir que la dualit´ e permet de contourner ces probl` emes.

(18)

Une classe de fonctions fortement convexes.

x∈

min

Rn

P(x) := f

1

(Ax) + f

2

(x)

f

1

:

Rn

R

∪ {+∞} convexe, s.c.i.

A :

Rn

Rm

lin´ eaire (ou affine).

f

2

:

Rn

R

∪ {+∞} µ-fortement convexe.

A · ri(dom(f

2

)) ∩ ri(dom(f

1

)) 6= ∅.

Exemple typique (TV + terme

l2

) :

x∈

min

Rn

||∇x||

1

+ λ

2 ||x − x

0

||

22

(19)

D´ efinition (polaire)

Soit f :

Rn

R

∪ {+∞} une fonction convexe s.c.i. La transform´ ee de Fenchel ou polaire de

f

est d´ efinie par

f

(x

0

) = sup

x∈Rn

hx

0

, xi − f (x) Propri´ et´ es

f

est convexe s.c.i.

On a f

∗∗

= f ce qui implique que : f(x

0

)

=f

∗∗

(x

0

)

= sup

x∈Rn

hx

0

, xi − f

(x)

On peut red´ efinir f ` a partir de sa polaire.

(20)

Compl´ ements d’analyse convexe...

Dualit´ e de Fenchel-Rockafellar : On a donc :

x∈

min

Rn

f

1

(Ax) + f

2

(x)

| {z }

Probl`eme primal

= min

x∈Rn

sup

y∈Rm

hAx, yi − f

1

(y) + f

2

(x)

= min

x∈Rn

sup

y∈Rm

hx, A

yi − f

1

(y) + f

2

(x)

= sup

y∈Rm x∈

inf

Rn

hx, A

yi − f

1

(y) + f

2

(x) (Voir sch´ ema)

= sup

y∈Rm

−f

1

(y) − sup

x∈Rn

−hx, A

yi − f

2

(x)

= sup

y∈Rm

−f

1

(y) − f

2

(−A

x)

= − inf

y∈Rm

f

1

(y) + f

2

(−A

x)

| {z }

Probl`eme dual

(21)

Figure: Une fonction convexe-concave et son point-selle.

(22)

Compl´ ements d’analyse convexe...

Relations primales-duales.

Soit (x

, y

) un point selle, on a :

0 ∈ Ax

− ∂f

1

(y

) 0 ∈ −A

y

− ∂f

2

(x

) Soit encore :

y

∈ (∂f

1

)(Ax

) x

∈ (∂f

2

)(−A

y

) Car :

x

2

∈ ∂f (x

1

) ⇔ x

1

∈ ∂f

(x

2

)

Les solutions du probl` eme dual apportent des informations sur

le primal et vice-versa !

(23)

Th´ eor` eme (derni` eres pages du livre de J.B.

Hiriart-Urruty et C. Lemar´ echal): Soit

f :

Rn

R

∪ {+∞} une fonction convexe, s.c.i. Les deux propositions suivantes sont ´ equivalentes :

1. f est diff´ erentiable et ∇f est L-Lipschitz.

2. f

est fortement convexe de module

L1

.

(24)

Minimisation d’une classe de fonctions fortement convexes.

Conclusion

Si f

2

est µ-fortement convexe, on a :

x∈

min

Rn

f

1

(Ax) + f

2

(x) = − min

y∈Rm

f

2

(−A

y) + f

1

(y)

• f2

est diff´ erentiable avec un gradient

1µ

-Lipschitz.

f

1

est convexe.

Pour tout y

∈ Y

, x

= ∇f

2

(−A

y

).

Un algorithme naturel : gradient proximal y

k+1

= prox

f

1/L

y

k

+ A∇f

2

(−A

y

k

)

x

k+1

= ∇f

2

(−A

y

k+1

).

(25)

convexes.

Analyse du taux de convergence.

On a :

x∈

min

Rn

f

1

(Ax) + f

2

(x)

| {z }

P(x)

= − min

y∈Rm

f

2

(−A

y) + f

1

(y)

| {z }

D(y)

et pour tout y

∈ Y

, x

= ∇f

2

(−A

y

).

Proposition [Peyr´ e, Fadili, Weiss] (sur demande) Soit

x(y) = ∇f

2

(−A

y) Alors

kx(y) − x

k

2

≤ 2

µ |D(y) − D(y

)|

Un taux de CV sur le dual ⇒ taux de CV sur le primal.

(26)

Minimisation d’une classe de fonctions fortement convexes.

R´ esultat de convergence (gradient proximal dual) Sous les hypoth` eses pr´ ec´ edentes :

||x

k

− x

||

2

≤ |||A|||

2

||y

0

− y

||

2

µk

En notant ∆(x

k

, y

k

) = P (x

k

) − D(y

k

), le saut de dualit´ e on a :

||x

k

− x

||

2

≤ ∆(x

k

, y

k

).

La distance au minimiseur peut ˆ etre ´ evalu´ ee ` a chaque

it´ eration !

(27)

convexes..

Exemple : le probl` eme TV-L2

x∈

min

Rn

||∇x||

1

+ λ

2 ||x − x

0

||

2

= − min

y∈R2n,||y||≤1

||λ∇

y − x

0

||

2

Similaire ` a :

• [A. Chambolle 04] An algorithm for TV minimization.

Le sch´ ema assure que :

||x

k

− x

||

2

≤ 8n λk .

La complexit´ e augmente lin´ eairement avec la

dimension !

(28)

Minimisation d’une classe de fonctions fortement convexes.

Taux de convergence

Les sch´ emas acc´ el´ er´ es de Nesterov appliqu´ es au dual assurent :

||x

k

− x

||

2

≤ 2|||A|||

2

||y

0

− y

||

2

µ

2

k

2

et si dom(f

1

) =

Rm

:

f (x

k

) − f(x

) ≤ 2||y

0

− y

||

2

|||A|||

2

µk

2

.

(Sinon, rien n’assure que les it´ er´ ees primales soient

admissibles...)

(29)

pr´ ec´ edents

On consid` ere le probl` eme :

x∈

min

Rn

k∇xk

1

+ λ

2 kx − x

0

k

22

D´ ebruitage de

x0

sous l’hypoth` ese de bruit gaussien additif.

[FILM, AUTRES EXEMPLES]

(30)

Quelques applications pratiques des algorithmes pr´ ec´ edents

D´ ebruitage d’images SPIM.

Travail en collaboration avec J´ erˆ ome Fehrenbach (Institut de Math´ ematiques de Toulouse) et le canc´ eropole.

L’existence de sch´ emas efficaces doit guider la mod´ elisation.

(31)

Images SPIM: les images sont affect´ ees par des raies sombres

(ou parfois brillantes).

(32)

Motivation et pr´ esentation de la m´ ethode

On se propose d’´ eliminer ces raies, pour obtenir des images plus lisibles.

ã

L’origine physique de ces raies est peu claire. On va donc adopter une m´ ethode de traitement d’image sans

mod´ elisation de la physique.

(33)

Notre algorithme s’inspire des m´ ethodes r´ ecentes de d´ ecomposition d’images en :

ã

u

0

= u + v (structure + texture),.

ã

u

0

= u + v + b (structure + texture + bruit).

[Meyer 01, Starck Donoho 05, Aujol 05, Fadili 10, ]

= +

(34)

Motivation et pr´ esentation de la m´ ethode

ã

Difficult´ e : grand nombre d’inconnues (plus de 500 images 1000 × 1000 ∼ 1-50Go.).

ã

Pour s’en sortir : formuler le probl` eme comme un probl` eme

de minimisation convexe. Cela permet le d´ eveloppement

d’algorithmes efficaces, qui convergent vers un minimum

global.

(35)

On d´ ecrit le bruit comme ´ etant compos´ e de raies + bruit blanc (deux composantes).

La raie est un “motif ´ el´ ementaire” qui se retrouve ` a plusieurs endroits dans l’image.

Pour d´ eplacer et r´ epliquer un motif ψ dans l’espace on utilise un produit de convolution :

λ ∗ ψ(x) =

X

y

λ(y)ψ(x − y).

Hypoth` ese sous-jacente : le bruit est stationnaire.

∗ =

(36)

Mod´ elisation du bruit

De fa¸ con plus g´ en´ erale, le bruit est mod´ elis´ e comme le produit de convolution entre un bruit blanc (pas forc´ ement gaussien) et un noyau donn´ e.

Figure: Exemples de bruits stationaires obtenus par convolution d’un noyau avec un bruit blanc.

(37)

Autres exemples de produit de convolution:

∗ =

∗ =

Le produit de convolution s’exprime facilement en Fourier.

(38)

Mod´ elisation du bruit

Mod´ elisation d’une raie : un

filtre de Gabor

(=une gaussienne

anisotrope modul´ ee par une sinuso¨ıde).

(39)

Le bruit est d´ecrit par plusieurs types de raies (longueur/largeur diff´erentes). Il s’´ecrit

b=

m

X

i=1

λi∗ψi.

La loi de probabilit´e de chaqueλi d´epend de la mod´elisation du bruit.

D’une mani`ere g´en´erale on ´ecrit:

P(λi) = exp(−φii)).

L’hypoth`ese que le bruit est blanc permet de choisir des fonctionsφi s´eparables(ce qui simplifie l’analyse num´erique et est justifi´e par l’hypoth`ese destationnarit´e).

(40)

Mod´ ele de restauration

On utilise le principe du Maximum A Posteriori. On cherche l’image u la plus probable ´ etant donn´ ees :

1) la forme et l’orientation de chaque raie ψ

i

(en pratique : une/deux raie + un bruit Gaussien), 2) une description de la probabilit´ e de chaque bruit φ

i

, 3) une description d’un mod` ele d’image a priori.

La recherche de l’image u la plus probable peut s’exprimer

comme un probl` eme de minimisation convexe.

(41)

Principe du Maximum A Posteriori (MAP) : Connaissant u

0

Rn

, trouver Arg max

λ∈Rm×n

P (λ|u

0

).

Loi de Bayes : P (λ|u

0

) = P (u

0

|λ)P (λ) P (u

0

) , donc sous l’hypoth` ese d’ind´ ependance de

u

et de

λ

:

Arg max

λ∈Rm×n

P (λ|u

0

) = Arg min

λ∈Rm×n

(− log(P(u)) − log(P (λ))) Soit encore :

Arg min

λ∈Rm×n

∇ u

0

m

X

i=1

λ

i

∗ Ψ

i

! 1,

+

m

X

i=1

φ

i

i

)

(42)

R´ esultats (v´ erification du principe)

Arg min

λ∈R3n

∇ u −

3

X

i=1

λ

i

? ψ

i

! 1

+ kλ

1

k

+ kλ

2

k

22

+ kλ

3

k

1 Noyaux : “raie verticale (l)”, “Dirac (l2)”, ”poisson (l1)”.

=

+ + +

(43)

(44)

R´ esultats (v´ erification du principe)

Figure: Le filtre naturel : un filtre en forme de gradient topologique... Mais mauvaise r´esolution.

Figure: Super-r´esolution... Le cerveau de l’ombre.

(45)

R´ esultats (v´ erification du principe)

Figure: Le filtre naturel : un filtre en forme de gradient topologique...

Mais mauvaise r´esolution.

(46)

R´ esultats (v´ erification du principe)

Figure: Le filtre naturel : un filtre en forme de gradient topologique...

Mais mauvaise r´esolution.

Figure: Super-r´esolution... Le cerveau de l’ombre.

(47)
(48)

R´ esultats

Figure: de gauche `a droite : originale; 2 filtres (raie de Gabor + Dirac pour le bruit gaussien) ; m´ethode TV-L2

(49)

Sur une autre image :

= +

(50)

Remarque sur le choix des fonctions φ

i

Le mod` ele de d´ ecomposition est le suivant : Arg min

λ∈Rm×n

∇ u −

m

X

i=1

ψ

i

? λ

i

! 1

+

m

X

i=1

φ

i

i

) Comment choisir les fonctions

φi

?

Les choix classiques sont :

φ

i

(·) = k · k

1

: bruit laplace ou de type impulsionnel.

φ

i

(·) =

12

k · k

22

: bruit Gaussien.

φ

i

(·) = k · k

: bruit uniforme/amplitude born´ ee.

Est-ce bien n´ ecessaire ?

(51)

i

Th´ eor` eme de Lindeberg-Feller : Soit

b = λ ? ψ

λ ∈

RN

est un bruit blanc.

ψ ∈

RN

est un noyau de convolution.

Si la d´ ecroissance de ψ est suffisamment lente

bi

suit une loi gaussienne pour tout

i.

Conclusion : si les noyaux ψ sont “suffisamment” ´ etal´ es, la norme l

2

suffit.

Int´ erˆ et : si φ

i

(·) =

12

k · k

22

, ∀i, le probl` eme est fortement

convexe.

(52)

Liens avec les mod` eles ` a base de normes n´ egatives

Objectif des planches ` a venir :

Les mod` eles de d´ ecomposition en texture+ structure avec

normes n´ egatives sont un cas particulier du formalisme pr´ esent´ e.

(53)

[Meyer 01] Oscillating patterns in image processing and nonlinear evolution equations

Une texture est d’autant plus “probable” qu’elle est oscillante.

Les normes n´ egatives (W

−1,p

) permettent de d´ etecter les fonctions oscillantes.

Soit :

||v||

−1,p

= min

|q|∈Lp(Ω),div(q)=v

||q||

p

[Aubert, Aujol, 2004] : Sur un ensemble born´ e v

n

* 0 ⇒

||v

n

||

−1,p

→ 0 (pour p ≥ 1).

(54)

Liens avec les mod` eles ` a base de normes n´ egatives

[Meyer 01, Osher-Vese 03, Aujol 05, Vese 03-10...]

D´ ecomposer u

0

en structure + texture:

u

0

= u + v.

En r´ esolvant :

arg min

u+v=u0,u0Rn

k∇uk

1

+ αkvk

−1,p

En posant v = divg, ce probl` eme peut ˆ etre r´ e´ ecrit :

arg min

g∈Rn×Rn

k∇(u

0

− divg)k

1

+ αkgk

p

.

(55)

On a :

divg = ∂

1

g

1

+ ∂

2

g

2

Et apr` es discr´ etisation:

1

g

1

+ ∂

2

g

2

= g

1

? h

1

+ g

2

? h

2

o` u h

1

et h

2

d´ ependent du choix de discr´ etisation.

Par exemple :

h

1

= [1, −1] h

2

=

1

−1

. Les coefficients g

1

et g

2

rep´ esentent :

les coefficients de la texture

v

dans un dictionnaire compos´ e des

fonctions

h1

et

h2

translat´ ees dans l’espace.

(56)

Liens avec les mod` eles ` a base de normes n´ egatives

Interpr´ etation bay´ esienne du mod` ele de Y. Meyer.

Soit Γ un v.a. de

Rn

de densit´ e P (Γ) ∝ exp(−αkΓk

p

).

Soit θ un v.a. de

Rn

de densit´ e uniforme sur [0, 2π].

Soit G =

Γ cos(θ) Γ sin(θ)

.

Alors la d´ ecomposition u

0

= u + v du probl` eme de Y.Meyer correspond ` a une solution MAP

o` u u est la r´ ealisation d’un v.a. de densit´ e exp(−k∇uk

1

).

o` u v est la r´ ealisation d’un v.a. V = divG.

(57)

U nif orme Gaussien Bernoulli

p = ∞ p = 2 p = 1

Figure: Haut : bruits standards. Bas : bruits synth´etis´es correspondant aux mod`eles W−1,p.

(58)

Conclusion SPIM

ã

Suppression des raies par post-traitement des images SPIM.

ã

Des techniques d’optimisation convexe sont utilis´ ees et d´ evelopp´ ees.

ã

Une mod´ elisation originale du bruit.

ã

Pour acc´ el´ erer : programmation sous CUDA (facteur 100/Matlab).

ã

Traitement en un temps inf´ erieur ` a la seconde pour une

image 1000x1000.

(59)

Un nouveau cadre de travail :

x∈

min

Rn

P(x) := f

1

(Ax) + f

2

(x)

f

1

et f

2

convexes, s.c.i. et “simples”.

A :

Rn

Rm

lin´ eaire.

A · ri(dom(f

2

)) ∩ ri(dom(f

1

)) 6= ∅.

Remarque centrale : On sait r´ esoudre rapidement

x∈

min

Rn

f

1

(Ax) + f

2

(x) + 2 f

3

(x) o` u f

3

est fortement convexe ou

x∈

min

Rn

f

1,

(Ax) + f

2

(x)

o` u f

1,

est une r´ egularis´ ee de f

1

(e.g. Moreau-Yosida).

La rapidit´ e des sch´ emas peut-elle compenser les erreurs

d’approximation ?

(60)

Justification des techniques de lissage...

Oui ! Id´ ee de la preuve : On consid` ere le probl` eme :

f

= min

x∈Rn

f

1

(Ax) +

2 kx − x

0

k

2

(P

)

On g´ en` ere une suite (x

k

) avec un algorithme optimal sur P

.

0 ≤ P (x

k

) − P

2 kx

− x

0

k

2

| {z }

approximation

+ |||A||| · ky

0

− y

k

2

k

2

| {z }

sch´ema

Puis ` a k fix´ e, on minimise le membre de droite par rapport ` a .

(61)

Lissage primal (Nesterov 2003) R´ esultat

Si µ est proportionel ` a 1/k, le sch´ ema pr´ ec´ edent assure : P (x

k

) − P (x

) ≤ ||A|| · ||x

0

− x

µ

||

2

· ||y

0

− y

||

2

k .

Optimalit´ e

Le sch´ ema est “optimal”.

Nemirovski 1992

Information-based complexity of linear operator equations.

Journal of Complexity.

(62)

Justification des techniques de lissage...

Lissage dual R´ esultat

Si est proportionel ` a 1/k, le sch´ ema assure :

P (x

k

) − P (x

) ≤ ||A|| · ||x

0

− x

||

2

· ||y

0

− y

||

2

k .

Avantages du dual

La solution du probl` eme r´ egularis´ e est unique.

On obtient un taux de convergence en norme.

(63)

C’est un r´ esultat profond.

Meilleur que les descentes de sous-gradient en O

k1

.

M´ ethode optimale pour une vaste classe d’in´ egalit´ e variationnelles.

Cependant...

D´ ependance de et de k ` a fixer au d´ epart.

Allez voir le dernier preprint de A. Chambolle et T. Pock !

(64)

Design de bobines de gradient pour l’IRM

(En collaboration avec M. Poole, U. Brisbane).

(65)

Les champs magn´ etiques varient rapidement dans le temps

⇒ courants de Foucault induits, vibrations des structures m´ ecaniques, bruits (> 130dB).

Pour am´ eliorer la qualit´ e, courants importants ⇒

´

echauffements locaux des bobines, d´ et´ eriorations.

⇒ Trouver un design qui r´ eduit ces effets.

(66)

Design de bobines pour l’IRM : mod´ elisation

Probl` eme inverse :

Trouver un arrangement de fils qui produise un champs magn´ etique donn´ e apr` es mise sous tension.

Solutions:

Optimisation de forme classique et topologiques inefficaces.

• Des fils adjacents pourraient ˆetre reli´es.

• On ne cherche qu’un seul fil continu.

Utilisation d’une m´ ethode de type level set.

(67)
(68)

Design de bobines pour l’IRM : mod´ elisation

R´ egime statique.

Le champs magn´ etique B est reli´ e au champs de courant J par la loi de Biot-Savart :

B(r) = µ

0

Z

J(r

0

) × r − r

0

|r − r

0

|

3

dv

⇒ Probl` eme inverse :

trouver J pour obtenir un B donn´ e.

C’est un probl` eme inverse mal-pos´ e.

(69)

R´ egime statique.

Le champs magn´ etique B est reli´ e au champs de courant J par la loi de Biot-Savart :

B(r) = µ

0

Z

J(r

0

) × r − r

0

|r − r

0

|

3

dv

⇒ Probl` eme inverse :

trouver J pour obtenir un B donn´ e.

C’est un probl` eme inverse mal-pos´ e.

(70)

Design de bobines pour l’IRM : mod´ elisation

Termes d’´ energie classiques :

La distance au champ cible : kB(r) − µ

0

Z

J(r

0

) × r − r

0

|r − r

0

|

3

dvk

22

L’´ energie stock´ ee : W = µ

0

Z Z

J (r) · J (r

0

)

|r − r

0

| dvdv

0

La chaleur (effet Joule) : R = ρ

C

Z

|J (r)|

2

dv

Des forces de couple de Lorentz : τ =

Z

r × J (r) × B

0

dv.

(71)

discr´ etisation

(72)

Design de bobines pour l’IRM : discr´ etisation

On discr´ etise :

J(r) ∼

n

X

i=1

x

n

j

n

(r) avec div(j

n

) = 0.

De la mˆ eme fa¸con :

B(r) ∼

n

X

i=1

x

n

b

n

(r) Puis :

W (x) = hx, M

W

xi ´ energie stock´ ee

P (x) = hx, M

R

xi r´ esistance

T x = M

T

x couple magn´ etique

(73)

Design de bobines pour l’IRM

Finalement le probl` eme inverse standard est : Trouver x ∈ arg min

x∈Rn,T x=0

kBx − bk

22

+ αW (x) + βP (x) Peut ˆ etre r´ esolu par des techniques d’alg` ebre lin´ eaire.

Trouver x ∈ arg min

x∈Rn,T x=0

kBx − bk

22

+ αW (x) + βP (x) + γkj(x)k

C’est un probl` eme d’optimisation convexe (programmation

quadratique).

(74)

Design de bobines pour l’IRM

Finalement le probl` eme inverse standard est : Trouver x ∈ arg min

x∈Rn,T x=0

kBx − bk

22

+ αW (x) + βP (x) Peut ˆ etre r´ esolu par des techniques d’alg` ebre lin´ eaire.

Nouveaut´ e : minimiser les ´ echauffements locaux de la bobine

Trouver x ∈ arg min

x∈Rn,T x=0

kBx − bk

22

+ αW (x) + βP (x) + γkj(x)k

C’est un probl` eme d’optimisation convexe (programmation

quadratique).

(75)
(76)

Design de bobines pour l’IRM : r´ esultats.

(77)
(78)

Design de bobines pour l’IRM : r´ esultats.

Comparaisons chaleur. Design classique - Nouveau Design.

(79)

Merci ´ enorm´ ement ` a Ma¨ıtˆıne et Pierre pour l’invitation et

l’organisation !

Références

Documents relatifs

Nous voudrions pouvoir utiliser plusieurs fois un m ˆeme g ´en ´erateur au sein d’un programme, mais en d ´ebutant avec des semences diff ´erentes afin de produire des suites

L’essentiel de l’argument revient `a comprendre que l’on ne peut pas avoir d’estimations L ∞ sur les forces en tout temps, justement `a cause des collisions mais que tout se

On veut utiliser un mod`ele d’Ising (avec la convention, potentiel de valeur 0 quand les deux sites voisins sont de mˆeme classe et β quand les deux sites voisins sont dans des

Symmetry in non-magnetic interpolation inequalities Magnetic interpolation in the Euclidean space Magnetic rings: the one-dimensional periodic case Symmetry in Aharonov-Bohm

Mais ces temps de calculs sont compens´ es par une recherche d’un jeu d’hyper-param` etres optimal en un nombre d’it´ erations inf´ erieurs que pour les m´ ethodes de recherche

En r ´ealit ´e le m ´ecanisme est plus complexe, c’est une r ´eaction d’autocatalyse dans laquelle interviennent plusieurs r ´eactions avec des vitesses de diff ´erents ordres

(2003) apply the same model to unemployment rate estimation for the Canadian Labour Force Survey using shorter time series data and do not consider seasonal adjustments.. In this

hi´ erarchique R´ eponse Normale Introduit les Mod` eles de Markov Latents en SAE Enquˆ ete LFS: donn´ ees trimestrielles 2004-2014.. Meilleure Pr´ ediction Empirique SAE avec donn´