• Aucun résultat trouvé

CHAPITRE 4 THÉORIE DES MÉTHODES MPS, SGS ET GDM

4.3 Méthodes MPS

Les méthodes de simulations de faciès géologiques telles que les simulations séquentielles d'indicatrice (Goovaerts, 1997), les gaussiennes tronquées (Matheron et al., 1987) et les plurigaussiennes tronquées (Armstrong et al., 2003; Mariethoz et al., 2009; Armstrong et al.,

2011) utilisent le variogramme pour modéliser la variabilité entre deux points de l'espace. L'utilisation du variogramme limite la capacité de ces méthodes de simulations à modéliser des éléments complexes ayant un lien spatial supérieur à l'ordre 2 (variance et covariance, ou variogramme). Le besoin d'aller au-delà de la comparaison de deux points de l'espace a donné naissance aux statistiques multipoints. Les statistiques multipoints étudient la connectivité entres plusieurs points de l'espace, permettant ainsi de reproduire des structures géologiques complexes (Strebelle, 2002). La connectivité entre les points de l'espace est inférée d'une image d'entrainement ou Training image (TI). La TI est un modèle conceptuel ou une image de la propriété à simuler (cartes de faciès géologiques, coupes géologiques ou des photographies aériennes). Celle-ci n'a pas besoin d'honorer les données locales existantes, mais doit représenter les caractéristiques géométriques spatiales du modèle géologique ou de la propriété physique à simuler (Arpat & Caers, 2007). Selon Journel et Zhang (2006), la TI doit être vue clairement comme un modèle a priori. En effet, le résultat de la simulation ne dépend pas uniquement des données conditionnantes mais aussi de l'image d'entrainement.

L'idée d'utiliser les statistiques multipoints pour simuler les faciès géologiques a été proposée par Guardiano et Srivastava (1993).‎À‎chaque‎nœud‎à‎simuler,‎la‎probabilité‎conditionnelle‎locale‎est‎ inférée de façon empirique à partir du balayage de la TI à l'aide d'un patron géométrique défini par l'utilisateur (Fig. 4.1). L'implémentation initiale des MPS telle que proposée par Guardiano et Srivastava était exigeante en termes de CPU car la TI devait être scannée entièrement pour chaque‎nouveau‎nœud‎à‎simuler.‎Contrairement‎à‎ceux-ci, Strebelle (2000) a proposé l'algorithme SNESIM dans lequel la TI est scannée une seule fois au début de la simulation. Par la suite, les probabilités conditionnelles sont stockées dans un arbre de recherche. Lors de la phase de simulations, l'arbre de recherche sert à déduire directement les probabilités conditionnelles pour un‎nœud‎donné‎en‎fonction‎des‎données‎conditionnantes‎situées‎au‎voisinage.‎L'ensemble‎de‎ces‎ données conditionnantes est désigné en anglais sous le terme de data event (DE). L'algorithme SNESIM est beaucoup plus rapide que celui de Guardiano et Srivastava et a rendu possible l'application industrielle des MPS (Hu & Chugunova, 2008). Cependant à cause de la forte demande de mémoire RAM pour stocker les probabilités conditionnelles, celui-ci semble inefficace pour simuler des champs avec un grand nombre de faciès ou une TI trop large. Le code IMPALA proposé par Straubhaar et al. (2011) utilise des listes pour stocker les probabilités conditionnelles plutôt que des arbres. Les listes ont un besoin de mémoire moins important. Le

logiciel gocad utilisé dans le cadre de cette thèse fonctionne avec le module IMPALA pour les simulations multipoints.

Figure ‎4.1: Principe de la méthode de simulations multipoints (modifié de Paradigm, 2009). À l'aide d'un patron géométrique défini par l'utilisateur, la probabilité conditionnelle locale des faciès est inférée de façon empirique par balayage de l'image d'entrainement (TI) au début de la simulation.

SNESIM et IMPALA simulent‎les‎nœuds‎pixel‎par‎pixel‎et‎souffrent‎de‎deux‎lacunes‎principales.‎ Premièrement, les deux algorithmes ne simulent que des variables discrètes. Deuxièmement, avec SNESIM, si le DE ne trouve pas son exacte réplique dans l'arbre de recherche, sa taille est réduite en‎rejetant‎le‎nœud‎le‎plus‎loin‎du‎nœud‎à‎simuler.‎Cette‎opération‎est‎répétée‎jusqu'à‎trouver‎le‎ DE exact ce qui constitue une perte d'information sur les données conditionnantes (Zhang et al., 2006). Quant à IMPALA, il utilise dans la liste tous les DE qui‎sont‎similaires‎à‎celui‎du‎nœud‎à‎ simuler pour calculer la probabilité conditionnelle. Si l'algorithme ne trouve aucun motif similaire au DE, alors le faciès est tiré des proportions globales des faciès dans la TI et cela se produit généralement au début du processus de simulation.

Afin de résoudre les limitations mentionnées ci-dessus, Mariethoz et al. (2010) proposent un échantillonnage direct ou Direct Sampling (DS). L'algorithme DS est aussi une approche basée pixel qui permet de simuler aussi bien les variables continues que discrètes. La DS scanne la TI à la recherche du premier motif identique au DE trouvé‎au‎voisinage‎du‎nœud‎à‎simuler.‎Lorsque‎ ce‎motif‎est‎trouvé,‎le‎nœud‎central‎est‎directement‎collé‎au‎nœud‎à‎simuler,‎évitant‎de‎scanner‎ toute la TI, et permettant ainsi de sauver de la mémoire. Si aucun motif identique n'est trouvé dans la TI, la DS utilise un calcul de distance pour évaluer le degré de similarité entre les motifs de la TI et la DE du‎nœud‎à‎simuler.

Certains auteurs ont proposé des algorithmes permettant de simuler des groupes de pixels (patchs) au lieu de simuler un pixel à la fois pour répondre à certaines limitations des méthodes par pixel. Ces algorithmes s'appliquent à la fois à des variables continues ou discrètes.

SIMPAT (Arpat & Caers, 2007) procède par collage de patchs sur la grille de simulation. L'algorithme utilise une fonction de distance pour ajuster les patchs ensemble et ne nécessite pas de classification préalable des patchs. Contrairement à SIMPAT, FILTERSIM (Zhang, 2006) mesure la similarité entre les patchs par l'utilisation de filtres. Ces filtres peuvent être des opérations directionnelles linéaires de moyennes, de gradients etc. permettant d'attribuer des scores aux patchs. Ces opérations peuvent être assimilées à une projection des patchs 2D et 3D dans un espace dimensionnel plus petit dans lequel l'analyse statistique peut être effectuée pour les comparer et les classifier. Rezaee et al. (2013) ont proposé une approche mixte qui est un mélange de l'approche DS et la simulation par collage de patchs. Cette méthode permet

d'améliorer le temps de calcul de la simulation par un facteur proportionnel à la taille du patch comparativement à la DS.

D'autres variantes et améliorations de simulations par patchs ont été proposées (El Ouassini et al., 2008; Faucher et al., 2013; Rezaee et al., 2013; Faucher et al., 2014; Rezaee et al., 2015; Rezaee & Marcotte, 2017). De plus, le calcul rapide des distances entre patchs par convolution dans le domaine spatial ou spectral, permet de s'affranchissent complètement des listes ou arbre (Rezaee, 2017).