2.5 Le probl`eme inverse
2.5.3 M´ethode de Gauss-Newton en tomographie de r´eflexion
. (2.14)
Le respect du principe de Fermat pour la trajectoire (P) implique que l’´equation (2.9) est satisfaite. En injectant l’´equation (2.9) dans (2.14), on aboutit `a la formule suivante :
J (m)ij = N −1 X n=1 ∂(tin+ tin+1) ∂mj . (2.15)
Comme les interfaces et les vitesses du mod`ele m sont d´efinies par des fonctions B-spline cubiques, les ´el´ements J (m)ij de la matrice jacobienne peuvent ˆetre calcul´es explicite-ment (voir [97] pour plus de d´etails sur ces calculs).
Les cons´equences importantes de l’´equation (2.15) sont :
1. une fois que les temps de trajet Ti ont ´et´e calcul´es par la m´ethode de bending, le calcul explicite des ´el´ements de la matrice jacobienne ne coˆute pas cher en temps CPU (pas de nouveau rayon `a calculer),
2. la matrice jacobienne J est creuse ; en effet, chaque temps de trajet (ti n + ti
n+1)
s’exprime comme une somme de fonctions B-spline pond´er´ee par des param`etres B-spline ; et, comme les fonctions B-spline sont nulles partout sauf sur quatres in-tervalles de noeuds (voir annexeA) les temps de trajet (ti
n+ ti
n+1) ne d´ependent que
d’un nombre restreint de param`etres B-spline.
2.5.3 M´ethode de Gauss-Newton en tomographie de r´eflexion
1. les r´esidus des temps de trajet sont relativement faibles en la solution (inf´erieur `a
10 milli-secondes),
2. la matrice jacobienne J est facilement accessible (voir section pr´ec´edente).
Ainsi, d’apr`es les arguments d´evelopp´es dans la section 1.3, la m´ethode de Gauss-Newton est bien adapt´ee pour r´esoudre le probl`eme (2.12). Dans la suite, nous appliquons sp´ecifiquement au probl`eme (2.12) la m´ethode de Gauss-Newton pr´esent´ee dans la sec-tion1.3.3du chapitre th´eorique.
On obtient le probl`eme inverse lin´earis´e (voir d´efinition1.3.9) en lin´earisant la fonction
T autour du mod`ele mkcourant :
T (mk+ δm) ≈ Tk+ Jkδm,
o`u Tk:= T (mk), Jk= J (mk), et δm = m − mkrepr´esente la perturbation de mod`ele. En injectant cette approximation lin´eaire de T dans l’´equation2.12, on obtient le probl`eme
lin´earis´e en mksuivant : (Plin) : min δm Fk(m) := 12 Tk+ Jkδm − Tobs 2 2 + σ22(mk+ δm)>R(mk+ δm). (2.16)
A part quelques cas pathologiques (voir section2.4) le probl`eme lin´earis´e (2.16) est bien pos´e (pour plus de d´etails sur ce sujet, nous renvoyons le lecteur aux travaux de [48] et au chapitre 3 de [47]). Une cons´equence importante de ce r´esultat est que la solution de (2.16) ne d´epend pas de la discr´etisation choisie sur le mod`ele (`a partir d’un certain seuil sur le pas de discr´etisaton).
La fonction Fk est une approximation quadratique en mk de la fonction coˆut non-lin´eaire f , on peut l’´ecrire sous la forme standard suivante :
Fk(δm) = 1 2δm > Hkδm + g>kδm + fk, o`u fk= f (mk), gk = Jk>(Tk− Tobs) + σ2Rmk est le gradient de f en mket Hk = Jk>Jk+ σ2R
est une approximation semi d´efinie positive du hessien de f (en g´en´eral d´efinie positive, notons que le noyau de R est caract´eris´e par l’ensemble des mod`ele “plat”) obtenue en n´egligeant les d´eriv´ees secondes des temps de trajet.
Dans la figure 2.7 nous pouvons observer le spectre de la matrice Hk associ´e `a un mod`ele relativement simple de sous-sol (une seule vitesse et une seule interface). Il ressort de cette figure que l’ajout de la partie r´egularisation (σ2R) `a Jk>Jkest crucial pour rendre la matrice Hk d´efinie positive. De plus on observe que le conditionnement de Hk est tr`es mauvais (≈ 109) pour une matrice d’ordre seulement 500.
Section 2.5 49
Fig. 2.7 Spectre de H (en rouge), de J>J (en bleu) et de R (en vert) pour exemple simple : le mod`ele est compos´e d’une seule vitesse (discr´etis´ee par 400 param`etres B-spline) et d’une seule interface (discr´etis´ee par 100 param`etres B-spline). Cette figure est reprise de la figure 1 de [30].
L’´equation d’optimali´e de (2.16) (voir section1.3.1) s’´ecrit :
Hkδm = −gk. (2.17)
Comme Hk est d´efinie positive, le probl`eme de moindres-carr´es lin´eaires (2.16) peut ˆetre r´esolu en utilisant l’algorithme du gradient conjugu´e sur l’´equation normale (2.17) (voir l’algorithme CGLS de la section 1.3.2). Cet algorithme est d’autant plus efficace (notamment sur des probl`emes de grande taille mal conditionn´es) qu’il est coupl´e `a un pr´econditionneur adapt´e `a la structure de Hk. Dans la figure2.8, nous pouvons observer les ´el´ements non nuls de la matrice hessienne pour un mod`ele complexe de sous-sol : la structure de Hk est d´elimit´ee par des blocs (vitesses / interface) et les ´el´ements non nuls `a l’int´erieur d’un mˆeme bloc sont dispos´es en bandes. Nous pouvons aussi remarquer sur cette figure que la matrice Hkest tr`es creuse.
L’algorithme de Gauss-Newton appliqu´e `a la r´esolution de 2.12 s’´ecrit (voir l’algo-rithme th´eoriqueI.2) :
Fig. 2.8 El´ements non nuls de la matrice hessienne H(m) pour un exemple complexe : le mod`ele est compos´e de 3 vitesses (discr´etis´ees par 2634 param`etres B-spline) et de 10 interfaces (discr´etis´ees par 8514 param`etres B-spline). Cette figure est reprise de la figure 2 de [30].
Section 2.5 51
Data : Choix d’un mod`ele initial m0.
Choix d’un poids de p´enalisation : σ > 0.
Constante 0 < ω1 < 12 (typiquement ω1 = 10−4 ).
begin k = 0
´
Evaluer f0, g0, J0par la r´esolution du probl`eme direct (algorithme de trac´e de rayons).
while ||gk||2 6= 0 do
((1)) Calcul de la direction de descente : prendre pour δmkune solution de (2.17).
((2)) D´eterminer le pas αkpar “rebroussement”, i.e., en prenant le plus grand αkdans {1,12,14, ...} tel que
f (xk+ αkδmk) ≤ f (xk) + ω1αk(gk, δmk).
((3)) Mettre `a jour le mod`ele :
mk+1 = mk+ αkδmk.
((4)) ´Evaluer fk+1, gk+1, Jk+1 par la r´esolution du probl`eme direct (algorithme de trac´e de rayons).
((5)) Accroˆıtre k de 1 : k := k + 1.
endw end
Algorithme I.4 Algorithme de Gauss-Newton en tomographie de r´eflexion
Quelques commentaires sur cet algorithme :
Remarques 2.5.1
1. Les commentaires de l’algorithme g´en´eralI.2s’appliquent `a cet algorithme.
2. L’´etape ((1)) de l’algorithme est importante : il faut r´esoudre rapidement l’´equation
normale (2.17) pour que l’algorithme de Gauss-Newton soit efficace. Etant donn´e
la dimension des syst`emes `a r´esoudre dans nos applications, une m´ethode it´erative
doit ˆetre pr´ef´er´ee `a une m´ethode directe pour r´esoudre le syst`eme (2.17) : c’est
un algorithme du gradient conjugu´e pr´econditionn´e, adapt´e de l’algorithme CGLS
(voir section 1.3.2), qui a ´et´e choisi pour le r´esoudre. Les travaux de [30] ont
montr´e que :
(i) l’utilisation de pr´econditionneurs Jacobi ou Gauss-Seidel par blocs permet d’acc´el´erer la convergence de l’algorithme du gradient conjugu´e et d’obtenir
des solutions plus pr´ecises de (2.17).
(ii) l’algorithme du gradient conjugu´e peut ˆetre d´evelopp´e de mani`ere `a ne pas
peu pr´ecis et coˆuteux des ´el´ements de Hk(voir le point 1. de la remarque1.3.6). Les produits matrices vecteurs sont alors r´ealis´es grˆace au stockage optimis´e
des matrices Jk(stockage morse) et R (stockage bande).
3. Remarquons que la solution obtenue par l’algorithmeI.4est fortement d´ependante
du choix initial du poids de p´enalisation σ. Dans la section suivante nous verrons comment nous choisissons ce poids en pratique.
4. En th´eorie, l’arrˆet des it´erations de Gauss-Newton doit s’effectuer lorsque la norme
du gradient gk est plus petite qu’un certain seuil. Cependant, ce crit`ere n’est pas
suffisant car le seuil qui lui est associ´e est difficile `a ´evaluer. En pratique, l’utilisa-teur dispose de trois crit`eres permettant d’arrˆeter l’algorithme de Gauss-Newton. Ces crit`eres, plus proches des pr´eoccupations de la g´eophysique, comparent les temps de trajet calcul´es aux temps de trajet observ´es. On distingue les crit`eres sui-vants :
(i) le r´esidu maximal :
||T (m) − Tobs||∞,
o`u Nobs repr´esente le nombre de temps de trajet observ´es,
(ii) le r´esidu moyen (ou rms pour “root mean square”) :
rms = s PN T i=1(Ti(m) − Tobs i )2 N T ,
(iii) la distribution des r´esidus (histogrammes des r´esidus, r´epartition des r´esidus en fonction des points d’impact, etc ...).
L’analyse comparative de ces trois crit`eres permet de d´eterminer si la solution d’une inversion est acceptable. Dans le cas d’une solution non acceptable il faut soit, prolonger les it´erations de Gauss-Newton, soit relancer une inversion en par-tant d’un poids de r´egularisation plus faible.
En pratique, dans nos applications en tomographie de r´eflexion, l’algorithme I.4 est tr`es efficace : il permet de trouver une solution du probl`eme (2.15) en tr`es peu d’it´erations de Gauss-Newton (de l’ordre de 5-10 it´erations). Cependant, dans certains cas difficiles, la recherche lin´eaire (voir l’´etape ((2)) de l’algorithme I.4) ne parvient pas `a forcer la convergence de la suite {mk}k≥0 vers une solution du probl`eme (2.15). Cette diffi-cult´e, qui apparaˆıt notamment lorsque la matrice Hk est tr`es mal conditionn´ee, peut ˆetre contourn´ee en utilisant une globalisation par r´egions de confiance (voir [35]) au lieu de la recherche lin´eaire. Notons que cela revient en fait `a remplacer l’algorithme de Gauss-Newton pr´ec´edent par un algorithme proche de celui de Levenberg-Marquardt (voir l’al-gorithme I.3 du chapitre th´eorique). Dans le chapitre suivant, nous verrons que l’utili-sation en tomographie de r´eflexion de l’algorithme de Gauss-Nexton globalis´e par des r´egions de confiance permet de r´esoudre des cas o`u l’algorithmeI.4a ´echou´e.
Section 2.5 53