• Aucun résultat trouvé

M´ethode de Gauss-Newton en tomographie de r´eflexion

2.5 Le probl`eme inverse

2.5.3 M´ethode de Gauss-Newton en tomographie de r´eflexion

. (2.14)

Le respect du principe de Fermat pour la trajectoire (P) implique que l’´equation (2.9) est satisfaite. En injectant l’´equation (2.9) dans (2.14), on aboutit `a la formule suivante :

J (m)ij = N −1 X n=1 ∂(tin+ tin+1) ∂mj . (2.15)

Comme les interfaces et les vitesses du mod`ele m sont d´efinies par des fonctions B-spline cubiques, les ´el´ements J (m)ij de la matrice jacobienne peuvent ˆetre calcul´es explicite-ment (voir [97] pour plus de d´etails sur ces calculs).

Les cons´equences importantes de l’´equation (2.15) sont :

1. une fois que les temps de trajet Ti ont ´et´e calcul´es par la m´ethode de bending, le calcul explicite des ´el´ements de la matrice jacobienne ne coˆute pas cher en temps CPU (pas de nouveau rayon `a calculer),

2. la matrice jacobienne J est creuse ; en effet, chaque temps de trajet (ti n + ti

n+1)

s’exprime comme une somme de fonctions B-spline pond´er´ee par des param`etres B-spline ; et, comme les fonctions B-spline sont nulles partout sauf sur quatres in-tervalles de noeuds (voir annexeA) les temps de trajet (ti

n+ ti

n+1) ne d´ependent que

d’un nombre restreint de param`etres B-spline.

2.5.3 M´ethode de Gauss-Newton en tomographie de r´eflexion

1. les r´esidus des temps de trajet sont relativement faibles en la solution (inf´erieur `a

10 milli-secondes),

2. la matrice jacobienne J est facilement accessible (voir section pr´ec´edente).

Ainsi, d’apr`es les arguments d´evelopp´es dans la section 1.3, la m´ethode de Gauss-Newton est bien adapt´ee pour r´esoudre le probl`eme (2.12). Dans la suite, nous appliquons sp´ecifiquement au probl`eme (2.12) la m´ethode de Gauss-Newton pr´esent´ee dans la sec-tion1.3.3du chapitre th´eorique.

On obtient le probl`eme inverse lin´earis´e (voir d´efinition1.3.9) en lin´earisant la fonction

T autour du mod`ele mkcourant :

T (mk+ δm) ≈ Tk+ Jkδm,

o`u Tk:= T (mk), Jk= J (mk), et δm = m − mkrepr´esente la perturbation de mod`ele. En injectant cette approximation lin´eaire de T dans l’´equation2.12, on obtient le probl`eme

lin´earis´e en mksuivant : (Plin) : min δm  Fk(m) := 12 Tk+ Jkδm − Tobs 2 2 + σ22(mk+ δm)>R(mk+ δm). (2.16)

A part quelques cas pathologiques (voir section2.4) le probl`eme lin´earis´e (2.16) est bien pos´e (pour plus de d´etails sur ce sujet, nous renvoyons le lecteur aux travaux de [48] et au chapitre 3 de [47]). Une cons´equence importante de ce r´esultat est que la solution de (2.16) ne d´epend pas de la discr´etisation choisie sur le mod`ele (`a partir d’un certain seuil sur le pas de discr´etisaton).

La fonction Fk est une approximation quadratique en mk de la fonction coˆut non-lin´eaire f , on peut l’´ecrire sous la forme standard suivante :

Fk(δm) = 1 2δm > Hkδm + g>kδm + fk, o`u fk= f (mk), gk = Jk>(Tk− Tobs) + σ2Rmk est le gradient de f en mket Hk = Jk>Jk+ σ2R

est une approximation semi d´efinie positive du hessien de f (en g´en´eral d´efinie positive, notons que le noyau de R est caract´eris´e par l’ensemble des mod`ele “plat”) obtenue en n´egligeant les d´eriv´ees secondes des temps de trajet.

Dans la figure 2.7 nous pouvons observer le spectre de la matrice Hk associ´e `a un mod`ele relativement simple de sous-sol (une seule vitesse et une seule interface). Il ressort de cette figure que l’ajout de la partie r´egularisation (σ2R) `a Jk>Jkest crucial pour rendre la matrice Hk d´efinie positive. De plus on observe que le conditionnement de Hk est tr`es mauvais (≈ 109) pour une matrice d’ordre seulement 500.

Section 2.5 49

Fig. 2.7 Spectre de H (en rouge), de J>J (en bleu) et de R (en vert) pour exemple simple : le mod`ele est compos´e d’une seule vitesse (discr´etis´ee par 400 param`etres B-spline) et d’une seule interface (discr´etis´ee par 100 param`etres B-spline). Cette figure est reprise de la figure 1 de [30].

L’´equation d’optimali´e de (2.16) (voir section1.3.1) s’´ecrit :

Hkδm = −gk. (2.17)

Comme Hk est d´efinie positive, le probl`eme de moindres-carr´es lin´eaires (2.16) peut ˆetre r´esolu en utilisant l’algorithme du gradient conjugu´e sur l’´equation normale (2.17) (voir l’algorithme CGLS de la section 1.3.2). Cet algorithme est d’autant plus efficace (notamment sur des probl`emes de grande taille mal conditionn´es) qu’il est coupl´e `a un pr´econditionneur adapt´e `a la structure de Hk. Dans la figure2.8, nous pouvons observer les ´el´ements non nuls de la matrice hessienne pour un mod`ele complexe de sous-sol : la structure de Hk est d´elimit´ee par des blocs (vitesses / interface) et les ´el´ements non nuls `a l’int´erieur d’un mˆeme bloc sont dispos´es en bandes. Nous pouvons aussi remarquer sur cette figure que la matrice Hkest tr`es creuse.

L’algorithme de Gauss-Newton appliqu´e `a la r´esolution de 2.12 s’´ecrit (voir l’algo-rithme th´eoriqueI.2) :

Fig. 2.8 El´ements non nuls de la matrice hessienne H(m) pour un exemple complexe : le mod`ele est compos´e de 3 vitesses (discr´etis´ees par 2634 param`etres B-spline) et de 10 interfaces (discr´etis´ees par 8514 param`etres B-spline). Cette figure est reprise de la figure 2 de [30].

Section 2.5 51

Data : Choix d’un mod`ele initial m0.

Choix d’un poids de p´enalisation : σ > 0.

Constante 0 < ω1 < 12 (typiquement ω1 = 10−4 ).

begin k = 0

´

Evaluer f0, g0, J0par la r´esolution du probl`eme direct (algorithme de trac´e de rayons).

while ||gk||2 6= 0 do

((1)) Calcul de la direction de descente : prendre pour δmkune solution de (2.17).

((2)) D´eterminer le pas αkpar “rebroussement”, i.e., en prenant le plus grand αkdans {1,12,14, ...} tel que

f (xk+ αkδmk) ≤ f (xk) + ω1αk(gk, δmk).

((3)) Mettre `a jour le mod`ele :

mk+1 = mk+ αkδmk.

((4)) ´Evaluer fk+1, gk+1, Jk+1 par la r´esolution du probl`eme direct (algorithme de trac´e de rayons).

((5)) Accroˆıtre k de 1 : k := k + 1.

endw end

Algorithme I.4 Algorithme de Gauss-Newton en tomographie de r´eflexion

Quelques commentaires sur cet algorithme :

Remarques 2.5.1

1. Les commentaires de l’algorithme g´en´eralI.2s’appliquent `a cet algorithme.

2. L’´etape ((1)) de l’algorithme est importante : il faut r´esoudre rapidement l’´equation

normale (2.17) pour que l’algorithme de Gauss-Newton soit efficace. Etant donn´e

la dimension des syst`emes `a r´esoudre dans nos applications, une m´ethode it´erative

doit ˆetre pr´ef´er´ee `a une m´ethode directe pour r´esoudre le syst`eme (2.17) : c’est

un algorithme du gradient conjugu´e pr´econditionn´e, adapt´e de l’algorithme CGLS

(voir section 1.3.2), qui a ´et´e choisi pour le r´esoudre. Les travaux de [30] ont

montr´e que :

(i) l’utilisation de pr´econditionneurs Jacobi ou Gauss-Seidel par blocs permet d’acc´el´erer la convergence de l’algorithme du gradient conjugu´e et d’obtenir

des solutions plus pr´ecises de (2.17).

(ii) l’algorithme du gradient conjugu´e peut ˆetre d´evelopp´e de mani`ere `a ne pas

peu pr´ecis et coˆuteux des ´el´ements de Hk(voir le point 1. de la remarque1.3.6). Les produits matrices vecteurs sont alors r´ealis´es grˆace au stockage optimis´e

des matrices Jk(stockage morse) et R (stockage bande).

3. Remarquons que la solution obtenue par l’algorithmeI.4est fortement d´ependante

du choix initial du poids de p´enalisation σ. Dans la section suivante nous verrons comment nous choisissons ce poids en pratique.

4. En th´eorie, l’arrˆet des it´erations de Gauss-Newton doit s’effectuer lorsque la norme

du gradient gk est plus petite qu’un certain seuil. Cependant, ce crit`ere n’est pas

suffisant car le seuil qui lui est associ´e est difficile `a ´evaluer. En pratique, l’utilisa-teur dispose de trois crit`eres permettant d’arrˆeter l’algorithme de Gauss-Newton. Ces crit`eres, plus proches des pr´eoccupations de la g´eophysique, comparent les temps de trajet calcul´es aux temps de trajet observ´es. On distingue les crit`eres sui-vants :

(i) le r´esidu maximal :

||T (m) − Tobs||,

o`u Nobs repr´esente le nombre de temps de trajet observ´es,

(ii) le r´esidu moyen (ou rms pour “root mean square”) :

rms = s PN T i=1(Ti(m) − Tobs i )2 N T ,

(iii) la distribution des r´esidus (histogrammes des r´esidus, r´epartition des r´esidus en fonction des points d’impact, etc ...).

L’analyse comparative de ces trois crit`eres permet de d´eterminer si la solution d’une inversion est acceptable. Dans le cas d’une solution non acceptable il faut soit, prolonger les it´erations de Gauss-Newton, soit relancer une inversion en par-tant d’un poids de r´egularisation plus faible.

En pratique, dans nos applications en tomographie de r´eflexion, l’algorithme I.4 est tr`es efficace : il permet de trouver une solution du probl`eme (2.15) en tr`es peu d’it´erations de Gauss-Newton (de l’ordre de 5-10 it´erations). Cependant, dans certains cas difficiles, la recherche lin´eaire (voir l’´etape ((2)) de l’algorithme I.4) ne parvient pas `a forcer la convergence de la suite {mk}k≥0 vers une solution du probl`eme (2.15). Cette diffi-cult´e, qui apparaˆıt notamment lorsque la matrice Hk est tr`es mal conditionn´ee, peut ˆetre contourn´ee en utilisant une globalisation par r´egions de confiance (voir [35]) au lieu de la recherche lin´eaire. Notons que cela revient en fait `a remplacer l’algorithme de Gauss-Newton pr´ec´edent par un algorithme proche de celui de Levenberg-Marquardt (voir l’al-gorithme I.3 du chapitre th´eorique). Dans le chapitre suivant, nous verrons que l’utili-sation en tomographie de r´eflexion de l’algorithme de Gauss-Nexton globalis´e par des r´egions de confiance permet de r´esoudre des cas o`u l’algorithmeI.4a ´echou´e.

Section 2.5 53