• Aucun résultat trouvé

3.5 Extension des algorithmes

4.1.3 Exemple d’application dans un cas simple

Afin d’avoir une r´ef´erence `a laquelle comparer les applications des parties suivantes. Nous illustrons ici la m´ethode de Gauss-Newton avec les r´egularisations d´ecrites `a la section pr´ec´edente sur le cas simple suivant, repr´esent´e sur la Figure 4.1. L’indice exact n? que nous cherchons `a reconstruire a pour support un disque de rayon 1. Ses valeurs sont fix´ees `

a 2 partout sauf dans un petit disque int´erieur o`u l’indice est fix´e `a 2.2, comme illustr´e sur la Figure 4.1. Le nombre d’onde est fix´e `a k = 6, ce qui donne un objet dont la taille est environ le double de la longueur d’onde.

n*=2 R=1

n*=2.2

Figure 4.1: Sch´ema de l’indice recherch´e

Choix du crit`ere d’arrˆet et du param`etre de r´egularisation

Le Lemme4.8pr´esente un exemple de suite λp d´ecroissante vers 0 faisant converger np vers

n?(dans les limites du bruit sur les donn´ees). Cependant la relation (4.13) est par d´efinition assez floue et on constate en pratique que le choix du param`etre λp influe fortement sur

la convergence de la m´ethode. Il nous faut donc fixer ce param`etre. De plus, il faut aussi d´eterminer un crit`ere d’arrˆet des it´erations. Pour ceci, plutˆot que de chercher `a atteindre une certaine pr´ecision sans savoir si elle est atteignable en un temps raisonnable, nous stoppons la reconstruction lorsque la variation relative de la fonction coˆut J (4.3) est inf´erieure `a 1%.

Pour ce qui est du param`etre de r´egularisation λp, le principe de Morozov par exemple

[Tikhonov 1995], consiste `a le choisir tel que le r´esidu de la solution dn(λp) minimisant

JL2 (4.9) (ou JT V (4.14)) soit comparable au bruit sur les donn´ees ε

kF (np) + DF (np) dn(λp) − u∞ε k2L2(D)= ε2. (4.18)

Dans ce cas, que ce soit pour (4.13) ou (4.18), il faut pouvoir estimer le bruit sur les donn´ees ε, ce qui est a priori difficile sans autres informations. Mais surtout, ce principe demande `a calculer plusieurs fois le terme dnp en faisant varier λp pour choisir le meilleur,

ce qui est coˆuteux.

Dans [Hansen & O’Leary 1993], l’approche pour d´eterminer les param`etres λp, sp´ecifique

au terme de r´egularisation RL2, est de choisir le point de courbure maximale de la “L- curve”. Cette “L-curve” est une courbe param´etr´ee (par λp) trac´ee en ´echelle log-log et

d´efinie par

λ 7→kF (np) + DF (np) dnp(λ) − u∞ε k2L2(D), RL2( dnp(λ)) 

, (4.19)

o`u dnp(λ) est la solution de (4.10).

La Figure 4.2pr´esente le trac´e de la “L-curve” obtenue `a la premi`ere ´etape d’une recons- truction de l’indice repr´esent´e sur la Figure 4.1. Sur cet exemple, le point de courbure maximale correspond `a un param`etre λ ≈ 1. Nos exp´erimentations indiquent ainsi que le param`etre λp donn´e par la “L-curve” est tr`es proche du centi`eme de la norme de l’op´e-

rateur qu’on cherche `a rendre inversible  DF (np)

?

DF (np)



4.1. La m´ethode de Gauss-Newton r´egularis´ee 95 10−1 100 101 102 10−5 10−4 10−3 10−2 10−1 100 101 102 103

Figure 4.2: Exemple de “L-curve”

choisissons arbitrairement la suite λp d´efinie par

λp = DF (np) ? DF (np) p · 102 . (4.20)

Cette suite n’est peut-ˆetre pas optimale mais permet une estimation simple et rapide du param`etre de r´egularisation qui ne p´enalisera pas l’ensemble de la r´esolution pour le cas trait´e.

Remarque 4.11. Le choix de param`etre λp propos´e par la “L-curve” est am´elior´e par une

m´ethode it´erative de point fixe dans [Baz´an & Francisco 2009]. Il y est d´emontr´e que le pa- ram`etre λp ainsi obtenu est plus souvent pertinent tout en demandant moins d’´evaluations

du r´esidu kF (np) + DF (np) dnp(λ) − u∞ε k 2

L2(D). En outre, de nombreuses m´ethodes pour d´eterminer le param`etre λp sans connaˆıtre ε ont ´et´e propos´ees, par exemple en d´erivant

JL2 par rapport `a λp pour r´esoudre (4.18) [Kunisch & Zou 1998, Wang & Xiao 2001]. Dans [Clason et al. 2010], l’´equation (4.18) est approch´ee par une fonction `a deux para- m`etres calcul´es uniquement `a partir de F et u∞ε et le param`etre λp optimal est extrapol´e

`

a partir de cette fonction. Cependant, comme nous ne cherchons qu’`a illustrer les m´e- thodes sans avoir besoin de la reconstruction la plus pr´ecise possible de l’indice recherch´e, l’estimation (4.20) nous a paru suffisante.

Discr´etisation du probl`eme

Nous cherchons `a reconstruire l’indice n? sous forme de fonctions constantes par morceaux. On subdivise ainsi le domaine D en N zones (Zi)i=1...N et on les cherche N param`etres

(complexes) (αi)i=1...N tels que l’indice

nε(x) =

X

i=1...N

αi χZi(x), (4.21)

minimise l’´ecart entre simulation et donn´ees (4.3). Tout comme au Chapitre 3.4.2, les zones (Zi)i=1...N de reconstruction sont choisies ind´ependamment du maillage utilis´e pour

Pour les exemples pr´esent´es dans cette section, le nombre de variables d’optimisation N sera fix´e entre 20 et 2000. Par ailleurs, u∞ sera compos´e de 4900 mesures, ce qui cor- respond `a 70 directions d’´emission/r´eception r´eparties sur tout le cercle S1. Dans ce cas on peut explicitement former la matrice DF (np) et r´esoudre le syst`eme (4.10) directe-

ment. Cependant, le calcul du terme de mise `a jour pour la r´egularisation RT Vβ d´efini par (4.14) ne peut ˆetre qu’it´eratif, ind´ependamment du nombre de donn´ees et de variables d’optimisation. Ceci est dˆu `a la non-lin´earit´e du terme de r´egularisation.

Remarque 4.12. Pour traiter le cas de grandes dimensions en N , ou pour optimiser le coˆut de calcul de (4.14), il faudra envisager l’utilisation de solveurs it´eratifs ne faisant intervenir que le r´esultat du produit matrice-vecteur, sans former explicitement la matrice DF (np). Des algorithmes reposant sur les espaces de Krylov sont propos´es dans ce but

dans [Schweiger et al. 2005, Langer 2010].

Application de la m´ethode de Gauss-Newton sans r´egularisation

En premier lieu nous pr´esentons le r´esultat obtenu par la m´ethode de Gauss-Newton (4.10) sans la r´egularisation de Tikhonov (λp = 0). En effet, le fait de rechercher n? dans un

espace de dimension finie est d´ej`a une r´egularisation en soi, appel´ee r´egularisation par projection dans [Engl et al. 1996, Chapitre 3.3] ou r´egularisation par discr´etisation dans [Kirsch 1996, Chapitre 3]. C’est alors la dimension du probl`eme d’optimisation (N ) qui fait office de param`etre de r´egularisation et le conditionnement du probl`eme se d´egrade quand N augmente.

On voit sur la Figure4.3qu’avec un faible nombre de param`etres il n’est pas obligatoire- ment n´ecessaire d’utiliser la r´egularisation de Tikhonov pour obtenir une reconstruction convergente. Bien sur, le faible nombre de param`etres empˆeche une reconstruction pr´ecise de la g´eom´etrie de l’indice.

Toutefois, en augmentant le nombre de param`etres dans le but d’obtenir une reconstruction plus pr´ecise, on voit clairement sur la Figure4.4 que la discr´etisation seule ne suffit plus `

a r´egulariser la reconstruction.

Application de la m´ethode de Gauss-Newton r´egularis´ee

Nous appliquons maintenant la r´egularisation de Tikhonov au probl`eme de reconstruc- tion de l’indice. Les it´erations pour la r´egularisation L2 sont calcul´ees par l’´equation nor- male (4.10) et les it´erations pour la r´egularisation T V sont obtenues en r´esolvant plusieurs fois l’´equation normale (4.17) pour calculer le terme de mise `a jour.

Les r´esultats pr´esent´es sur les Figures 4.5 et4.6 sont obtenus en consid´erant respective- ment la r´egularisation L2 (4.9) puis la r´egularisation T V (4.14). On voit que pour un faible nombre de param`etres, l’ajout d’un terme de r´egularisation n’am´eliore pas la reconstruc- tion.

4.1. La m´ethode de Gauss-Newton r´egularis´ee 97 −1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1 2 2.05 2.1 2.15 2.2

(a) Partie r´eelle de n3(x)

0 1 2 3

100

101

102

(b) Valeurs de kF (np) − u∞kL2(D)en fonction de p

Figure 4.3: M´ethode de Gauss-Newton sans r´egularisation avec N = 36 param`etres com- plexes −1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1 2 2.05 2.1 2.15 2.2

(a) Partie r´eelle de n3(x)

0 1 2 101 102 103 104 (b) Valeurs de kF (np) − u∞kL2(D)en fonction de p

Figure 4.4: M´ethode de Gauss-Newton sans r´egularisation avec N = 2035 param`etres complexes

−1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1 2 2.05 2.1 2.15 2.2

(a) Partie r´eelle de n3(x)

0 1 2 3

100

101

102

(b) Valeurs de kF (np) − u∞kL2(D)

Figure 4.5: M´ethode de Gauss-Newton avec r´egularisation L2 et N = 36 param`etres complexes −1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1 2 2.05 2.1 2.15 2.2

(a) Partie r´eelle de n3(x)

0 1 2 3 4

100

101

102

(b) Valeurs de kF (np) − u∞kL2(D)

Figure 4.6: M´ethode de Gauss-Newton avec r´egularisation T V et N = 36 param`etres complexes

4.1. La m´ethode de Gauss-Newton r´egularis´ee 99 −1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1 2 2.05 2.1 2.15 2.2

(a) Partie r´eelle de n3(x)

0 1 2 3 4 5 6 10−2 10−1 100 101 102 (b) Valeurs de kF (np) − u∞kL2(D)

Figure 4.7: M´ethode de Gauss-Newton avec r´egularisation L2 et N = 2035 param`etres complexes −1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1 2 2.05 2.1 2.15 2.2

(a) Partie r´eelle de n3(x)

0 1 2 3 4 5 6 10−2 10−1 100 101 102 (b) Valeurs de kF (np) − u∞kL2(D)

Figure 4.8: M´ethode de Gauss-Newton avec r´egularisation T V et N = 2035 param`etres complexes

Par contre, avec un nombre de param`etres plus cons´equent, comme illustr´e sur les Fi- gures 4.7 et 4.8, les diff´erences sont visibles. Ainsi, la m´ethode de Gauss-Newton r´egula- ris´ee converge vers un r´esultat stable quand la m´ethode non r´egularis´ee diverge. De plus, les valeurs finales de la fonction coˆut sont significativement am´elior´ees par l’augmentation du nombre de param`etres. Par ailleurs, contrairement aux r´esultats pr´esent´es sur les Fi- gures 4.5 et 4.6, avec un grand nombre de param`etres on observe sur les Figures 4.7(a)

et4.8(a)que l’indice reconstruit d´epend fortement du terme de r´egularisation choisi. Ainsi, le r´esultat pr´esent´e sur la Figure4.7a ´et´e obtenu en consid´erant la r´egularisation L2 (4.9). Comme annonc´e dans la Section 4.1.2-A, on constate que la discontinuit´e entre la zone ext´erieure (o`u l’indice vaut 2) et la zone int´erieure (o`u l’indice vaut 2.2) est liss´ee. La partie int´erieure est ainsi entour´ee d’une couronne de zones o`u les valeurs de l’indice re- construit sont proches de 2.1. De plus, des oscillations apparaissent dans la reconstruction, notamment dans la partie int´erieure qui devrait ˆetre constante `a 2.2. Comparativement, le r´esultat obtenu avec la r´egularisation T V (4.14), pr´esent´e sur la Figure4.8, est visiblement plus net. Ceci rejoint la tendance g´en´eralement constat´ee avec ce type de r´egularisation, comme annonc´e `a la Section 4.1.2-B. Pour un indice exact pr´esentant de grands aplats de valeurs, on obtient manifestement des reconstructions visuellement plus fid`eles avec la r´egularisation T V . Cependant, l’´ecart entre la simulation et les donn´ees est quasiment identique pour les deux types de r´egularisation. Ceci soul`eve la question du choix de la fonction coˆut, ou tout du moins de la norme `a utiliser.

Documents relatifs