• Aucun résultat trouvé

Approche standard de la NAH : régularisation de Tikhonov

Dans cette section on décrit une méthode largement employée en NAH qui consiste à régulariser le problème inverse 2.9 par la méthode de Tikhonov.

2.3.1 Troncature et discrétisation du plan de mesure

Le problème à résoudre 2.9 est issu du formalisme de Fourier qui suppose un plan de mesure et un plan source infinis. En pratique le plan de mesure, c’est-à-dire l’antenne ho-lographique, est tronqué. Cela revient à multiplier le champ de pressions harmoniques au dessus de la plaque par une fenêtre rectangulaire superposée à l’antenne. Dans le domaine spatial de Fourier, la troncature du champ de pression se traduit par une convolution du spectre de nombres d’ondes avec un sinus cardinal qui fait apparaitre des compo-santes spectrales parasites. La rétro-propagation de ce spectre engendre des effets de bords pouvant être gênants. Afin d’éviter ces effets de bords, une solution serait d’agran-dir l’antenne au dessus de la source jusqu’à atteindre des pressions négligeables ce qui donnerait l’illusion d’une antenne infinie. Cette possibilité n’est pourtant pas acceptable expérimentalement. Une autre solution simple est d’appliquer un fenêtrage moins brutal sur le champ de pression qu’avec une fenêtre rectangulaire. Une fenêtre de pondération de Tukey est couramment utilisée. Thomas et Pascal [TP05] ont proposé une méthode basée sur une décomposition du champ de pression en ondelettes afin d’identifier les artefacts

2.3. Approche standard de la NAH : régularisation de Tikhonov 31 dus à la troncature du plan de mesures. Dans nos expériences, nous utilisons une fenêtre simple de Tukey.

Par ailleurs, les mesures étant discrètes, le théorème de Shannon/Nyquist impose d’échantillonner l’hologramme avec un pas δ ≤ π/kmax dans les direction x et y afin de limiter les effets de repliement de spectre.

2.3.2 Régularisation de Tikhonov

L’hologramme p doit être enregistré à une distance z0 proche de la source afin de collecter les informations décisives portées par les ondes évanescentes [BDM81] dont l’am-plitude est atténuée exponentiellement dans le cas de la NAH plane. Au niveau de l’holo-gramme, l’amplitude des ondes évanescentes est donc faible. Les mesures correspondantes peuvent être contaminées par du bruit ayant de multiples origines. Ainsi, lors de la rétro-propagation naïve (résolution de l’équation 2.9), les ondes évanescentes et le bruit situé dans la même région du plan kxky, c’est-à-dire les nombres d’ondes élevés, sont ampli-fiés exponentiellement. La reconstruction du champ des vitesses de la source est alors considérablement perturbée par l’effet du bruit amplifié.

Il est de ce fait nécessaire de régulariser l’inversion du problème 2.8. La technique de régularisation la plus populaire en NAH est la régularisation de Tikhonov. Cette méthode, expliquée dans la section 1.1, force la solution ˆ˙w a avoir un minimum d’énergie. L’effet

de l’amplification du bruit s’en trouve donc atténué. D’après l’équation 1.10, la solution du problème 2.8 est :

ˆ˙

w = (AHA + λLHL)−1AHp (2.10) Afin de mieux comprendre l’effet de la régularisation, on peut l’écrire sous la forme :

ˆ˙

w = RλA−1p (2.11)

Rλ, qui dépend du paramètre de régularisation λ, s’écrit :

Rλ = (AHA + λLHL)−1AHA. (2.12) L’expression de Rλ montre que cette matrice agit comme un filtre passe-bas dans le domaine des nombres d’ondes. La pente et la fréquence de coupure de ce filtre dépendent du paramètre de régularisation et de la matrice L. En effet, dans l’application basique de la régularisation de Tikhonov où L est choisie comme la matrice identité, les éléments j de Rλ s’écrivent :

rλj = 1

1 + λ|aj|−2 (2.13) Les termes aj sont les éléments diagonaux de A = F−1GF. Dans les basses fréquences

spatiales, lorsque k2

x+ k2

y ≤ k2, |aj| est une constante. Le filtre n’a donc aucun effet sur les ondes propagatives. En revanche, pour des nombres d’ondes élevés (k2

x+ k2

y > k2), |aj|−2

croît exponentiellement avec la fréquence spatiale. Le filtrage agit sur les composantes de bruits mais également sur les ondes évanescentes. L’objectif de la régularisation est prin-cipalement de trouver un compromis entre le filtrage du bruit et des ondes évanescentes.

2.3.3 Régularisation adaptée à la NAH

Les idées pour optimiser le filtre de régularisation ont généré une littérature abon-dante [Wil01, KN04, SLRN08]. Le choix de la matrice L et du paramètre λ sont critiques pour la reconstruction du champ de vitesses. Williams a proposé une version améliorée du filtre de Tikhonov en choisissant comme contrainte sur L l’opposé du filtre en ques-tion [Wil01] :

L = I − Rλ (2.14)

Le choix de cette contrainte permet de repousser légèrement la fréquence de coupure du filtre et d’en raidir la pente. Par conséquent, les ondes évanescentes dont le nombre d’onde est proche de k sont préservées et la reconstruction de la source est améliorée.

Il est aussi essentiel de bien choisir le paramètre de régularisation λ. En effet, des faibles valeurs de λ impliquent un faible filtrage. La reconstruction de la source est alors perturbée par du bruit amplifié par la rétro-propagation. L’énergie de la solution || ˆ˙w||2 2

est donc très grande bien que l’erreur ||p − A ˆ˙w||22soit faible car la solution minimise cette quantité.

D’un autre côté, si le filtrage est trop important (grandes valeurs de λ), alors les ondes évanescentes sont sévèrement filtrées et on perd l’information cruciale à la reconstruction. || ˆ˙w||22 est faible mais l’erreur de reconstruction ||p − A ˆ˙w||22 est élevée.

Il s’agit donc, et c’est tout l’art de la régularisation, de trouver un compromis entre régularité et fidélité de la solution aux mesures.

Afin d’estimer le paramètre optimal de régularisation plusieurs méthodes peuvent être envisagées. Les deux méthodes les plus populaires sont la courbe en L et la méthode de validation croisée généralisée (GCV) qui ne nécessitent aucun a priori sur le niveau de bruit des mesures.

Le principe de la courbe en L est simple : il s’agit de tracer la courbe log || ˆ˙wλ||2

2 =

flog ||p − A ˆ˙wλ||2 2



qui typiquement a une forme de L (mieux visible lorsqu’on est pas en échelle log-log). La courbe est obtenue en faisant varier λ sur un large plage de valeurs. Le paramètre optimal de régularisation est obtenu au maximum de courbure de la courbe en L. Un exemple expérimental est illustré sur la figure 2.9 a). Il est obtenu pour une déformée opérationnelle de la plaque rectangulaire (cf. figure 2.2) à la fréquence 1483Hz.

La validation croisée généralisée (GCV) [GHW79] a été introduite par Golub et Al pour estimer une valeur optimale de λ. Elle s’appuie sur le principe suivant de validation croisée : on estime la source ˆ˙wmλ en enlevant une mesure m puis on prédit la mesure manquante, par calcul du problème direct, en la comparant avec la vraie mesure pm, pour m = 1 . . . M où M indique le nombre de mesures. On ré-itère l’opération pour chaque valeur de λ. Golub a montré qu’en appliquant le principe de validation croisée à la régularisation de Tikhonov, l’estimation optimale de λ est obtenue en minimisant la fonctionnelle :

J (λ) = ||(I − Rλ)p||2 2

[T r(I − Rλ)]2 (2.15) Un exemple expérimental de l’allure de la fonctionnelle J (λ) est illustré sur la figure 2.9