• Aucun résultat trouvé

R´egularisation de Tikhonov pour les probl`emes lin´eaires

La r´egularisation de Tikhonov est une m´ethode tr`es g´en´erale pour la r´egularisation de probl`emes inverses mal pos´es lin´eaires et non-lin´eaires dans les espaces de Hilbert et Banach mais ici on ne consid`ere que le cas lin´eaire.

La m´ethode consiste `a poser

Rαyδ:= arg inf

z {kT z−yδk2+αkzk2}. (6.4) Le terme de moindres carr´ees est ainsi p´enalis´e par la normekzk2pour am´eliorer la stabilit´e de la solution. Le param`etre de r´egularisation αd´etermine le compromis entre la pr´ecision et la stabilit´e:

• La valeur de αd´epend du niveau d’erreurδdans les donn´ees: quand les donn´ees sont peu fiables, αdoit ˆetre grand.

• Pour toutα >0 le probl`eme r´egularis´e est bien pos´e.

• Pour toutα >0 il y a une perte de pr´ecision par rapport `a la solution moindres carr´ees.

• Le param`etreαdoit ˆetre choisi tel que lorsqueδ→0, la solution r´egularis´ee converge versTy.

En ´ecrivant la condition du premier ordre pour le probl`eme de minimisation (6.4), on obtient directement xδα≡Rαyδ= (TT +αI)1Tyδ. (6.5) Le r´esultat suivant montre que l’approche de Tikhonov permet effectivement de r´egulariser un probl`eme mal pos´e dans le sens de la d´efinition donn´ee plus haut. Pour simplifier l’expos´e, nous supposons que le probl`eme inverse admet une unique solution pour la donn´ee non-bruit´eey(mais pas n´ecessairement pour la donn´ee bruit´ee yδ) et nous nous concentrons sur la question de continuit´e.

Th´eor`eme 4. Supposons quey est tel qu’il existe une unique solution x du probl`eme T x=y.

(i) Pour tout α >0, l’op´erateurRα de la r´egularisation de Tikhonov est un op´erateur lin´eaire continu.

(ii) Siα(δ) est choisi tel que

limδ0α(δ) = 0 et lim

δ0

δ2

α(δ) = 0, (6.6)

alors

limδ0kxδα(δ)−xk= 0.

(iii) Si de plus x ∈ R(TT)alors la vitesse de convergence asymptotique maximale est atteinte pour α(δ) = Cδ2/3, dans quel cas on a

kxδα(δ)−xk=O(δ2/3).

Remarque 5. Pour l’op´erateur d’int´egration d´efini dans l’exemple 8, la conditionx ∈TT est ´equivalente `a dire que les donn´ees non-bruit´ees y sont 3 fois diff´erentiables, donc, c’est la mˆeme hypoth`ese qu’on a impos´e dans l’exemple 7, et ceci n’est pas surprenant qu’on obtient la mˆeme vitesse de convergenceδ2/3.

Preuve. (i) Pour toutz∈ Y, on a

kTzk2=k(TT+αI)(TT+αI)1Tzk22k(TT+αI)1Tzk2

+kTT(TT +αI)1Tzk2+ 2αkT(TT+αI)1Tzk2, (6.7) d’o`ukRαzk ≤ α1kTzk, ce qui d´emontr´e la continuit´e deRα(puisqueT est born´e).

(ii) Par l’in´egalit´e du triangle,

kxδα−xk ≤ kxδα−xαk+kxα−xk, (6.8) o`u xα = (TT +αI)1Ty. Par analogie aux probl`emes d’estimation en statistique, le premier terme dans la partie droite peut ˆetre vu comme ’variance’ et le deuxi`eme comme ’biais’. On verra que le premier terme est d´ecroissant enδ et croissant en αet que le deuxi`eme terme est d´ecroissant enα. La valeur optimale deα permettra ainsi d’atteindre un compromis entre ces deux termes.

Pour estimer le premier terme on utilisera le fait que pour toute fonction continue f,

f(TT)T=Tf(T T). (6.9)

Cette ´egalit´e est ´evidente pour les fonctions de type xn et donc pour les polynˆomes, et on peut l’´etendre `a toute fonction continue en l’approchant par une suite de polynˆomes. En utilisant cette ´egalit´e pour la fonction f(x) = x+α1 ,

kxδα−xαk2=kT(T T+αI)1(yδ−y)k2

=hT T(T T+αI)1(yδ−y),(T T+αI)1(yδ−y)i

≤ h(yδ−y),(T T+αI)1(yδ−y)i

≤δ2k(T T+αI)1k ≤ δ2 α,

parce que k(T T +αI)1k ≤ α1 par le mˆeme argument qui a ´et´e utilis´e dans la premi`ere partie de cette d´emonstration. Ainsi, sous la condition (6.6), le premier terme dans (6.8) converge vers z´ero.

Le deuxi`eme terme dans (6.8) peut ˆetre r´e´ecrit comme

kxα−xk=k(TT+αI)1Ty−(TT+αI)1(TT+αI)xk

=kα(TT+αI)1xk (6.10) Pour d´emontrer sa convergence vers 0, on supposera pour simplifier l’expos´e que l’op´erateurTT a un spectre discret{λi}i=1, mais les mˆemes r´esultats peuvent ˆetre obtenu pour les op´erateurs dont le spectre est continu.1 Comme pour tout op´erateur auto-adjoint dans un espace de Hilbert, les vecteurs propres{vi}i=1 associ´es aux valeurs propres{λi}i=1 forment une base orthonorm´ee deX. En plus TT est d´efini positif, ce qui implique λi≥0 pour touti, mais comme on a suppos´e que la solutionx est unique,N(TT) ={0}et doncλi>0 pour touti. Soit{xi}i=1 la d´ecomposition dex dans la base{vi}i=1. En utilisant (6.10), on a

kxα−xk2=

X

i=1

α2x2ii+α)2. PuisqueP

i=1x2i =kxk2<∞, pour toutε >0, on peut trouvern∈Ntel que X

i=n

α2x2ii+α)2 <

X

i=n

x2i ≤ε 2. D’un autre cˆot´e, pour touti,

α2x2i

i+α)22x2i λ2i ,

1Tous les op´erateurs compacts, notamment les op´erateurs int´egrales avec noyau dansL2(X,X) ont un spectre discret.

et on peut donc trouverα0 tel que pour toutα < α0,

n1

X

i=1

α2x2ii+α)2 < ε

2.

Ceci montre la convergence du deuxi`eme terme dans (6.8) vers z´ero sous la condition (6.6).

(iii) Soitx=TT zpour unz∈ X. Alors en utilisant (6.10), on a kxα−xk=αk(TT+αI)1TT zk ≤αkzk, d’o`u

kxδα−xk ≤ δ

√α+Cα.

pour une constante C >0. On en d´eduit imm´ediatement la valeur asymptotiquement optimale de α(δ) ainsi que la vitesse de convergence associ´ee.

Exemple 11(R´egularisation de Tikhonov pour l’op´erateur de diff´erentiation). Pour r´egulariser le probl`eme de diff´erentiation d’une fonctiong∈L2([−1,1]) suivant l’approche de Tikhonov, on devrait r´esoudre le probl`eme suivant:

g= arg inf

fL2([1,1]){kT f−gk22+αkfk22},

o`uT est l’op´erateur d’int´egration d´efini dans l’exemple 8. Il est plus simple de rechercher la fonctionu=T f au lieu def et minimiser ainsi

J(u) ={ku−gk22+αkuk22}. sous la contrainteu(−1) = 0. La condition de 1er ordre pour ce probl`eme est

dJ(u+εh)

dε |ε=0= 0 pour toute fonction testhavech(−1) = 0. Ceci implique

Z 1

1

h(x)(u(x)−g(x))dx− Z 1

1

h(x)u′′(x)dx+αh(1)u(1) = 0.

La fonctionuest donc solution de

αu′′(x)−u(x) =−g(x) (6.11)

avec conditions aux bordsu(−1) = 0 etu(1) = 0. La forme g´en´erale de la solution de (6.11) est u(x) =u0(x) +Aex/α+Bex/α,

o`uu0 est une solution particuli`ere de (6.11). On montre par diff´erentiation qu’une forme possible deu0 est u0(x) =

Z 1

1

g(z) 2√

αe|xαz|dz.

En imposant les conditions aux bords, on trouve u(x) =

Z 1

1

g(z)√ α

sinh

x+z α

+e2/αsinh

xz α

e2/α+e2/α + Z 1

1

g(z) 2√

αe|xαz|dz.

Finalement, en revenant `a f =u, on a f(x) =

Z 1

1

g(z) α

cosh

x+z α

+e2/αcosh

xz α

e2/α+e2/α + Z 1

1

g(z)

α e|xαz|sign(x−z)dz.

Le premier terme est dˆu aux conditions aux bords; il disparaˆıtrait si au lieu de [−1,1] on travaillait sur un intervalle infini. Le terme important est le deuxi`eme terme: il montre que la r´egularisation de Tikhonov pour l’op´erateur de diff´erentiation consiste `a lisser la fonction `a d´eriver avec un noyau exponentiel et appliquer l’op´erateur au r´esultat.

Exercice 27. On se place dans le cadre de l’exercice 26.

1. Calculer la solution de ce probl`eme pour la donn´ee Eδ en utilisant la r´egularisation de Tikhonov avec param`etre de r´egularisationαdonn´ee par

Xαδ = arg inf

X{kAX−Eδk2+αkXk2} pour unα >0 fix´e, que peut-on dire sur la stabilit´e de calcul lorsqueε→0.

2. Supposons queα(δ) est choisi tel queα(δ)→0 quandδ→0. Montrer queXα(δ)δ →X lorsqueδ→0, o`u X est la solution de norme minimale de (B.3). Pourquoi, dans ce cas on n’a pas besoin d’imposer une condition suppl´ementaire (voir le cours) surα(δ) pour avoir la convergence?

Choix du param`etre de r´egularisation Les m´ethodes a priori utilisent l’information sur le niveau d’erreur δ et sur l’op´erateur T ou sur la (r´egularit´e de) solution. Par exemple, si on sait que x ∈ R(TT), on peut poserα=δ23 (m´ethode asymptotiquement optimal) .

Les m´ethodes a posteriori: utilisent aussi les donn´eesyδ. La m´ethode a posteriori la plus utilis´ee est connue sous le nom du principe de discr´epance (divergence). La fonction de discr´epance d’un probl`eme mal pos´e pour une donn´eeyδ fix´ee est d´efinie par

ε(α) =kT xδα−yδk, (6.12)

o`u xδα est donn´e par (6.5). Le principe consiste alors `a choisir α maximal pour la discr´epance est encore acceptable, i.e., l´eg`erement sup´erieure `a l’erreur de donn´ees.

αopt= max{α:ε(α) =cδ},

o`uc >1 est une constante proche de 1. On est oblig´e de prendre une constante strictement sup´erieure `a 1 pour s’assurer queαest toujours positif. Le r´esultat suivant montre que cette proc´edure est bien d´efinie (siδ≥ kyδk il faut prendreα=∞ce qui correspond `axδα= 0).

Proposition 16. La fonction de discr´epance (6.12) est une fonction croissante continue qui satisfait limα0ε(α)≤δ lim

α↑∞ε(α) =kyδk Preuve. En utilisant l’identit´e (6.9), on obtient facilement

ε(α) =αk(T T+αI)1yδk, d’o`u la continuit´e et l’´egalit´e limα↑∞ε(α) =kyδk. D’un autre cˆot´e,

ε(α)≤αk(T T+αI)1(y−yδ)k+kT xα−yk.

La norme du premier terme est inf´erieure `aδ, et dans la preuve du th´eor`eme 4 nous avons vu quekxα−xk →0 lorsqueα→0 d’o`ukT xα−yk →0.

La r´egularisation de Tikhonov avec le param`etreαchoisi selon le principe de discr´epance converge toujours et permet d’atteindre la vitesse optimale sixsatisfait des conditions de r´egularit´e n´ecessaires, e.g. six ∈ R(TT) alors la vitesse est la mˆeme que dans th´eor`eme 4. Le grand avantage du principe de discr´epance est que la connaissance de la r´egularit´e dex n’est pas n´ecessaire pour le choix de param`etreα.

6.5 R´ egularisation du probl` eme de reconstruction de la courbe de