• Aucun résultat trouvé

Chapitre III Imagerie par corrélation de bruit à l’échelle d’un réservoir

III.2 Rappels méthodologiques

III.2.1 Problèmes inverses

III.2.1.1 Définition

Les problèmes inverses désignent l’ensemble des situations pour lesquelles on cherche à déterminer les causes d’un phénomène dont on connaît les conséquences. On les rencontre très fréquemment en sciences observationnelles et expérimentales car ils permettent de construire des modèles approchant la réalité (causes) à partir de mesures et observations (conséquences). Tous ces problèmes reposent sur l’utilisation d’une fonction « théorie » qui, à un modèle associe des données synthétiques. Mathématiquement, la résolution d’un problème inverse revient à évaluer la réciproque de la fonction théorie pour déterminer le modèle qui explique un jeu de données (e.g. Ramm, 2006; Tarantola, 2005).

On dit qu’un problème inverse est bien posé, au sens de Hadamard, si une solution existe, que cette solution est unique et que la fonction théorie est une fonction continue. En physique, les problèmes inverses sont généralement mal posés. Par exemple, lorsque les données sont entachées d’une erreur, il n’existe aucun modèle capable d’expliquer l’ensemble des données. Dans ce cas, on relâche l’hypothèse d’existence de la solution et on cherche le modèle qui approche au mieux les données, par exemple au sens des moindres carrés. La solution du problème est non unique lorsque plusieurs modèles distincts peuvent expliquer les mêmes observations. On

III.2.1.2 Représentation probabiliste des problèmes inverses

Un problème inverse peut être vu comme un ensemble d’informations. L’information apriori représente les éléments connus du problème inverse. Celle ci comprend, d’une part, les observations et les mesures (données) et d’autre part, une éventuelle estimation apriori de la solution cherchée (modèle apriori). L’information a

posteriori décrit les différentes solutions du problème inverse. Enfin, la théorie du

problème est l’application qui, à un élément de l’espace des modèles (un jeu de paramètres), associe des observations dans l’espace des données.

Tous les problèmes inverses peuvent être traités par la théorie des probabilités en représentant les différents éléments du problème à l’aide de fonctions densité de probabilité. L’espace des solutions du problème est décrit par une densité de probabilité

a posteriori sur l’espace des modèles et on admet que la solution du problème inverse

est le modèle le plus probable du point de vue de cette fonction densité de probabilité. Une première approche permettant d’évaluer la densité de probabilité a posteriori se base sur les probabilités conditionnelles et la formule de Bayes (e.g. Drilleau, 2013). Alternativement, Tarantola (2005) propose de représenter la densité de probabilité a

posteriori comme la combinaisons des « états d’information » du problème.

Formellement, cette représentation est basée les fonctions densité de probabilité suivantes (voir la représentation schématique de la figure III.1):

- Les observations sont représentées par une densité de probabilité sur l’espace des données notée ߩሺ݀ሻ avec d un vecteur de l’espace des données. On peut estimer cette fonction de manière empirique en répétant les observations un grand nombre de fois ; ou bien la modéliser par une loi de probabilité connue comme par exemple, un loi Normale centrée sur la mesure la plus probable notée ݀௢௕௦ et d’écart type l’incertitude sur la mesure.

- La connaissance du modèle apriori est introduite à l’aide d’une densité de probabilité sur l’espace de modèles notée ߩሺ݉ሻ. On peut également la modéliser par une loi Normale centrée sur le modèle favori ݉௣௥௜௢௥ et d’écart type ajusté selon la fiabilité que l’on accorde à ce modèle.

- La théorie du problème est notée ݃. Dans l’hypothèse d’une théorie parfaite, la probabilité que le modèle ݉ produise les observations ݀ ൌ ݃ሺ݉ሻ vaut 1.

- La capacité d’un modèle ݉ à expliquer les observations est décrite par la fonction vraisemblance notée ܮሺ݉ሻ qui est une densité de probabilité sur l’espace des modèles. Elle s’obtient en projetant la loi de probabilité ߩ sur l’espace des modèles par l’intermédiaire de la fonction théorie ݃ et on a ܮሺ݉ሻ ן ߩ൫݃ሺ݉ሻ൯(voir la figure III.1). Au final, la densité de probabilité a posteriori sur l’espace des modèles est notée ߪሺ݉ሻ et s’obtient à partir du produit de la fonction de vraisemblance ܮሺ݉ሻ et de la densité de probabilité sur le modèle apriori ߩሺ݉ሻ.

Figure III.1 : Représentation schématique de la « combinaison des états d’information » pour la résolution des problèmes inverses selon Tarantola (2005). L’axe horizontal dénommé « m » désigne l’espace des modèles. L’axe vertical « d » désigne l’espace des données. La loi g(m) est la théorie du problème inverse et relie les deux espaces, elle est supposée parfaite ici. ߩ஽ désigne la densité de probabilité sur l’espace des données et ݀௢௕௦ est la mesure la plus probable. ߩ désigne la densité de probabilité a priori et ݉௣௥௜௢௥ est le modèle favori. ܮ est la loi de vraisemblance des modèles et ߪ est la densité de probabilité a posteriori qui permet de déterminer les différentes solutions du problème inverse. L’étoile bleue représente le modèle qui satisfait au mieux l’ensemble des informations a priori données par ߩ஽ et ߩெ.

III.2.1.3 Méthodes de résolutions

Dans tous les cas, résoudre le problème inverse équivaut à chercher un maximum de la fonction densité de probabilité a posteriori. Dans certains cas particuliers, il n’est pas nécessaire de déterminer cette fonction dans son ensemble car on dispose d’une expression analytique de la solution. C’est le cas des problèmes linéaires pour lesquels le problème direct peut s’écrire comme un simple produit matriciel :

݀ ൌ ݃ሺ݉ሻ ൌ ܩ ൈ ݉ [III.1]

où ݀ est le vecteur de données, ݉ et le vecteur des paramètres du modèle et ܩ est la matrice théorie. Si on suppose que les fonctions densité de probabilité a priori ɏ et ɏ suivent des lois Normales, alors le maximum de la fonction densité de probabilité s’obtient de manière analytique et la solution du problème est le modèle ݉෥ défini par (Tarantola, 2005)

Avec ݀௢௕௦ le vecteur de données mesurées ; ݉௣௥௜௢௥ le modèle a priori ; ܥ la matrice de covariance sur les composantes du vecteur de données et ܥ la matrice de covariance sur les composantes du modèle apriori.

Dans le cas des problèmes non-linéaires, plusieurs méthodes sont couramment utilisées. On peut linéariser le problème en approchant la fonction théorie ݃ par une loi affine, auquel cas, le problème est ramené au cas linéaire (Tarantola et Valette, 1982). Cette méthode est applicable si on dispose d’une expression de la dérivée de la fonction théorie qui est une fonction vectorielle de l’espace des modèles dans l’espace des données. Comme l’approximation affine n’est valide que localement, l’inversion est répétée de manière itérative et le système converge vers une solution stable (i.e. un maximum local de la densité de probabilité a posteriori ߪ). La méthode dite du gradient est une approche qui consiste à évaluer directement la fonction scalaire ߪainsi que sont gradient pour se déplacer de façon itérative vers un maximum local en suivant la ligne de plus grande pente. Un exemple d’application de la méthode du gradient est présenté dans le cas 2D sur la figure III.2.a. Cet exemple met en évidence le fait que la solution trouvée peut dépendre du choix du modèle de départ si la fonction densité de probabilité possède plusieurs maxima locaux. On ne peut l’utiliser que si la fonction ߪ est suffisamment lisse et que l’on dispose d’une bonne connaissance a priori de la solution cherchée.

Lorsque le problème possède de trop nombreuses solutions, les méthodes présentées précédemment deviennent insuffisantes. Par exemple, le processus itératif peut se trouver piégé dans un maximum local de la fonction densité de probabilité a

posteriori. Dans ce cas, une estimation complète de la densité de probabilité a posteriori

est nécessaire. Elle peut s’obtenir par exploration complète de l’espace des modèles (selon une grille de recherche) ou par les méthodes d’exploration pseudo-aléatoires de Monte-Carlo (Metropolis et Ulam, 1949). Parmi ces méthodes, les chaînes de Markov sont couramment utilisées pour définir la marche aléatoire dans l’espace des modèles. Les modèles générés au cours de cette marche aléatoire sont soumis à un algorithme de Metropolis-Hastings qui sélectionne une partie des modèles et reconstitue la densité de probabilité a posteriori (Hastings, 1970; Tarantola, 2005; Drilleau, 2013). Grâce à cette approche, les zones peu probables de l’espace des solutions sont échantillonnées grossièrement et les zones probables sont échantillonnées plus finement. La figure III.2.b montre un exemple d’inversion par la méthode de Monte-Carlo par chaînes de Markov.

Figure III.2 : Comparaison entre la méthode du gradient et la méthode de Monte-Carlo par chaînes de Markov pour l’évaluation d’une densité de probabilité a posteriori dans un espace à deux dimensions (x, y). (a) fonction densité de probabilité théorique et exemple d’optimisation par la méthode des gradients : Les étoiles bleue et rouge représentent deux modèles initiaux différents, les lignes rouge et bleue sont les lignes de plus grande pente suivies par chacun des deux modèles. Les étoiles vertes sont les maxima locaux identifiés par la méthode des gradients. (b) histogramme des modèles (i.e. des paires de paramètres x et y) gardés par l’algorithme de Metropolis-Hastings. L’espace des modèles est échantillonnée grâce à 12 chaînes de Markov indépendantes.

III.2.1.4 Utilisation des problèmes pour l’imagerie par corrélation de bruit

Les problèmes inverses interviennent à deux étapes de la méthode d’imagerie par corrélation de bruit en ondes de surface. Une première inversion est généralement utilisée pour construire des cartes de dispersion à différentes périodes (e.g. Shapiro et al., 2005). Cette inversion est linéaire et consiste à « régionaliser » les mesures de vitesses des ondes de surfaces effectuées sur plusieurs paires de stations distinctes. Une seconde étape d’inversion est nécessaire pour convertir ces cartes de dispersion en un modèle élastique à 3 dimensions spatiales (e.g. Brenguier, 2007; Stehly et al., 2009; Zigone et al., 2014). Ce second problème inverse est non linéaire et peut être abordé par une inversion linéarisée (e.g. Shapiro et al., 1997) ou à l’aide d’une inversion basée sur les méthodes d’échantillonnage pseudo-aléatoire de Monte-Carlo (e.g. Brenguier, 2007; Stehly et al., 2009). Dans ce travail, on utilise une inversion basée sur la méthode des gradients afin d’interpréter les fonctions de corrélation obtenues dans un milieu hétérogène et pour une distribution non-uniforme des sources de bruit (partie III.3).