• Aucun résultat trouvé

Chapitre 4. Approche bayésienne pour la résolution du problème inverse acoustique dération spatiale σ2s(rs) sur la covariance a priori de la source :

E{q(rsi)q(rsj)

} =α2σs2(rsi)δ(risrjs). (4.10)

Cette fenêtre de pondération est normalisée telle que Γσ2s(rs)dΓ(rs) =1. La matrice diago-nale Σ2sde taille N ×N qui contient les N éléments de la fenêtre de pondération spatiale σs2(rs) sera par la suite utilisée lors des développements matriciels. Dans le cas où les connaissances

a priori des sources se limitent à un prior spatial mettant en jeu cette fenêtre de pondération,

l’égalité suivante est déduite :

q2s. (4.11)

La structure de covariance des coefficients des fonctions de base Ωc de taille K × K s’en déduit par projection sur les fonctions de base :

−1

c =ΦH−1

q Φ. (4.12)

Finalement, la densité de probabilité a priori des coefficients des fonctions de base est modélisée par une loi gaussienne :

[c∣α2] = Nc(0, α2c) = 1 πKα2Kc∣ exp (−∣∣c∣∣ 2 c α2 ), (4.13)

avec ∣Ωcdésignant le déterminant de la matrice Ωcet la notation ∣∣c∣∣2

c =cH−1

c c. Le choix d’une loi gaussienne facilite les développements mathématiques et permet de retrouver une so-lution régularisée sous la forme de Tikhonov. D’autres possibilités sont envisageables, comme l’utilisation de gaussiennes généralisées proposée par Leclère et al. [87]. Dans cette publica-tion, la forme de la loi est paramétrée par une valeur, nommée p, qui conditionne le caractère parcimonieux de la solution. Dans le cas où cette valeur est égale à 2, la densité de probabilité a priori prend la forme d’une loi gaussienne. Une valeur de p inférieure à 2 favorisera les so-lutions parcimonieuses à mesure que la valeur se rapproche de 0. Cette connaissance a priori concernant la parcimonie spatiale de la solution sera étudiée dans la partie4.4.1de ce rapport.

4.2 Estimateur du maximum a posteriori

La valeur la plus probable de la densité de probabilité a posteriori exprimée en équation 4.6 définit l’estimateur du maximum a posteriori (MAP) :

4.2. Estimateur du maximum a posteriori 41

cM AP = Argmax[c∣p] (4.14)

= Argmax[p∣c][c], (4.15)

où l’évidence [p] ne dépend pas de l’inconnue c. L’objet de cette section est d’exprimer cet estimateur.

4.2.1 Réduction du problème direct

Afin de diagonaliser le problème et pour simplifier les écritures, une décomposition en valeurs singulières est appliquée au propagateur blanchi par la matrice de covariance du bruit de mesure et des sources :

−1/2

b G(ra; rs)1/2

q =USVH, (4.16)

avec G(ra; rs) la matrice de propagation de taille M × N construite à partir des vecteurs g(rai; rs)de l’équation 4.1, S une matrice diagonale contenant les M valeurs singulières et U et V les matrices singulières issues de la décomposition de la matrice de propagation. Ces matrices singulières possèdent des propriétés d’orthogonalité :

UHU = UUH =I, VHV = VVH =I, (4.17)

avec I la matrice identité. Les valeurs singulières réelles apparaissent dans un ordre croissant :

s1>s2>... > sN ≥0.

En remplaçant le vecteur des sources q par son expression approchée de l’équation4.3, le problème direct de l’équation 4.1, s’écrit de façon matricielle :

−1/2

b p = USVH−1/2

q Φc + Ω−1/2

b b. (4.18)

Il a été montré dans [1] que K = M , c’est-à-dire que le nombre de coefficients d’expansion est égal au nombre de microphones. En posant :

Φ = Ω1/2 q V, (4.19) il vient : −1/2 b p = USc + Ω−1/2 b b. (4.20)

42

Chapitre 4. Approche bayésienne pour la résolution du problème inverse acoustique En projetant les mesures sur les bases U, le problème réduit devient :

y = Sc + ν, (4.21)

avec y = UH−1/2

b p et ν = UH−1/2

b b successivement la projection des mesures et du bruit de mesure sur la base U. La projection du problème direct est intéressante puisqu’elle réduit la dimension des inconnues initialement de taille N × M en une taille M × M , avec M ≪ N dans le cas général.

Dans le domaine projeté, la fonction de vraisemblance exprimée dans le domaine physique en équation4.8 s’écrit, dans le domaine réduit :

[y∣c, β2] = Nc(Sc, β2I) . (4.22)

4.2.2 Estimation des coefficients des fonctions de base

Dans le but d’estimer les coefficients des fonctions de base c, la technique employée est de maximiser la probabilité a posteriori. L’estimateur MAP donné en équation4.15 s’écrit :

cM AP = Argmax{[c∣α2, β2, y]}, (4.23)

= Argmax{Nc(Sc, β2I)Nc(0, α2c)}, (4.24) = Argmin{− ln (Nc(Sc, β2I)Nc(0, α2c))}, (4.25) = Argmin{M ln(β2) +N ln(α2) +β−2∣∣y − Sc∣∣I2+α−2∣∣c∣∣2c}. (4.26) Afin de trouver une expression des coefficients à reconstruire, la fonction coût à minimiser s’écrit :

J1(c) = M ln(β2) +N ln(α2) +β−2∣∣y − Sc∣∣2I +α−2∣∣c∣∣2c. (4.27) L’estimateur MAP des coefficients des fonctions de base est calculé en annulant la dérivée de cette fonction coût par rapport à c :

∂J1 ∂c =0, (4.28) d’où : cM AP = ⌈ sk s2 k+η2y, (4.29)

Cette solution a la forme régularisée de Tikhonov. Elle dépend d’une nouvelle inconnue,

η2 = β2

sur-4.2. Estimateur du maximum a posteriori 43

face Γ se déduit en remplaçant les coefficients de fonction de base de l’équation 4.3 par la solution régularisée de l’équation4.29 et les fonctions de base de l’équation4.19.

La figure 4.2 illustre de manière schématique la règle de Bayes appliquée pour estimer les coefficients des fonctions de base. Cette représentation des densités de probabilité en une dimension montre que la solution optimale résulte du compromis entre la fidélité aux données mesurées (la fonction de vraisemblance, notée [p∣c, β2]sur la figure) et une certaine information a priori (la densité de probabilité a priori, notée [c∣α2]). Dans le cas où le prior est non-informatif (suivant une loi uniforme), la solution est fournie par le maximum de vraisemblance, qui est équivalente à la solution non-régularisée. L’introduction d’un prior gaussien rajoute une contrainte sur l’énergie de la source à reconstruire. L’estimation des hyperparamètres α2 et β2(ou l’estimation du paramètre de régularisation) permet de trouver le bon compromis entre ces deux normes.

Figure 4.2 – Schéma illustrant la règle de Bayes, pour un problème exprimé en une dimension [18] :

la densité de probabilité a posteriori est obtenue comme le produit de la fonction de vraisemblance et de la densité de probabilité a priori. La densité de probabilité a posteriori n’est pas normalisée à l’unité.

4.2.3 Estimation du paramètre de régularisation

Afin d’estimer le maximum a posteriori du paramètre de régularisation η2, la formule de Bayes est une nouvelle fois utilisée :

[η2y] =∫ [η2, α2y]dα2 (4.30)

Comme aucune connaissance a priori n’est disponible sur le paramètre de régularisation, la loi a priori de [η2] est une loi impropre uniforme sur [0; +∞[. Sans rappeler les

développe-44

Chapitre 4. Approche bayésienne pour la résolution du problème inverse acoustique ments algébriques donnés dans [19], la densité de probabilité a posteriori du paramètre de régularisation s’écrit : [η2y] ∝η2( Mk=1yk2 s2 k+η2) M−2 Mk=1 (s2k+η2) ⎞ ⎠ −1 . (4.31)

L’estimateur MAP du paramètre de régularisation est alors fourni par la minimisation de la fonction coût J2 : η2M AP =Argmin(J2(η2)) (4.32) avec J2 = Mk=1 ln(s2k+η2) + (M − 2) ln α2, (4.33) et α2= 1 M Mk=1yk2 s2 k+η2. (4.34)

La puissance du bruit peut aussi être déduite :

β2=α2×η2. (4.35)

Une fois que le paramètre de régularisation est calculé, une estimation des coefficients des fonctions de base est disponible. Ensuite, l’application des fonctions de base Φ sur la solution cM AP nous permet de revenir dans l’espace physique et d’estimer les débits des sources qM AP sur l’objet d’intérêt.

4.2.4 Variance des estimateurs

Un des avantages du formalisme bayésien est sa capacité à fournir des estimateurs sta-tistiques pertinents liés au conditionnement du problème et aux informations a priori dispo-nibles. Ainsi, la variance des coefficients de fonctions de base conditionnée aux mesures est donnée par [1] :

Var{ckp} = α2

1 + s2

k/η2. (4.36)

La variabilité des résultats finaux vis-à-vis de l’estimation du paramètre de régularisation peut aussi être prise en compte par deux méthodes différentes. La première consiste à évaluer la densité de probabilité a posteriori [η2p] par échantillonnage en utilisant une méthode de