• Aucun résultat trouvé

B. Méthodologie des modélisations thermiques

BASSE TEMPERATURE SUR APATITE

III.5. B. Méthodologie des modélisations thermiques

Dans cett étude, deux logiciels de modélisations ont été utilisés, HeFTy (Ketcham et al., 2005) et QTQt (Gallagher, 2012). Ces deux logiciels utilisent le modèle de cicatrisation des traces de fission le plus récent (Ketcham et al., 2007) et les modèles d’accumulation/cicatrisation des dommages radiatifs (seulement celui de Flowers et al. (2009) pour HeFTy et les deux dans le cas de QTQt). Ces deux logiciels utilisent des approches différentes mais leur utilisation conjointe est pertinente.

Deux approches peuvent être menées pour produire des histoires thermiques, en approche directe, ou inverse. Générer une histoire thermique repose dans un premier temps sur la capacité à produire un modèle direct. Dans les sections précédentes de cette partie III, j’ai présenté les différentes propriétés des deux thermochronomètres sur apatite. Leur connaissance permet de prédire, a priori, pour une histoire thermique donnée, quelles seront leurs caractéristiques en termes d’âges AFT et AHe, et en termes de distribution des longueurs de traces. Dans cette première approche directe, des histoires thermiques sont testées manuellement et leurs prédictions sont comparées directement aux données mesurées. Une approche dite « inverse » peut également être menée. Pour cette approche inverse, la procédure peut se faire de différentes façons, mais, ainsi que le détaillent Ketcham et al. (2005), ces approches doivent satisfaire à au moins 3 critères. Il faut :

(1) Posséder un moyen statistique pour comparer les prédictions aux mesures.

(2) Déterminer la façon dont le logiciel va entreprendre l’exploration de l’espace (temps, température) pour produire des histoires thermiques qu’il testera au cours de la

85 modélisation face aux données mesurées. Potentiellement, cette exploration peut être non-aléatoire et procéder par amélioration au cours du temps.

(3) Un moyen visuel pour présenter les histoires thermiques valides, au regard des données. Des différences existent entre HeFTy et QTQt en ce qui concerne ces trois points. Pour le point (1) : HeFTy propose pour chaque paramètre (AFT, moyenne des longueurs de traces, AHe) une statistique qui évalue l’adéquation de la valeur prédite à la valeur observée (Ketcham et al., 2000 ; Ketcham et al., 2005). QTQt, quant à lui, présente une valeur de « joint likelihood » (LogLikelihood dans la suite) qui consiste en une valeur globale estimant l’adéquation entre prédictions et observables. De façon pratique, il suffit simplement d’améliorer la valeur du Log-Likelihood dans le cas de QTQt, mais cette valeur unique occulte la multiplicité des paramètres qu’elle compare et il est judicieux de vérifier en détail les prédictions faces aux valeurs mesurées afin de s’assurer de la vraisemblance des préddictions. Pour le point (2), les deux logiciels fonctionnent de façon bien différente. HeFTy considère un degré de liberté (i.e. le nombre de points (T, t) dans l’histoire thermique) très élevé qui permet des infimes variations de température au cours du temps afin de proposer le maximum de complexité contenu dans les données (Ketcham et al., 2005). QTQt laisse aussi les données déterminer le degré de liberté, mais tend globalement à réduire le nombre de points (T, t) (d’après nos différents essais). La différence majeure réside dans le fait que HeFTy procède à une recherche aléatoire (malgré la possibilité de restreindre l’espace temps-température par des domaines de l’espace par lesquels doit passer l’histoire thermique). La particularité de QTQt se situe dans la façon dont il va chercher les histoires thermiques compatibles. Il utilise ainsi une approche bayésienne, qui se sert du dernier modèle testé comme base pour la recherche suivante. Si le modèle n+1 prédit des données moins bonnes que le modèle n, la nouvelle exploration de l’espace reprend à partir du modèle n, sinon, à partir du modèle n+1. Cette exploration (nommée phase de « post-burn-in ») suit une première phase dans laquelle une approche directe est effectuée par le logiciel, qui teste des histoires thermiques, et conservera à la fin, une population de « bons » modèles (phase nommée « burn-in »), comme base pour l’exploration bayésienne présentée ci-dessus. Enfin, en ce qui concerne le point (3), les deux logiciels utilisent des représentations graphiques relativement simples.

La modélisation en « inverse » est souvent privilégiée, mais présente néanmoins ses limites. Cette approche est souvent considérée comme fonctionnant de façon plus « aléatoire » que l’approche directe puisqu’en inverse, les données déterminent d’elles-même les caractéristiques de l’histoire thermique qui, de fait, serait moins biaisée. Cependant, cette approche est aussi objective et impartiale que nos données peuvent l’être. La qualité des données conditionnera en effet très fortement la qualité des modélisations !

86 En pratique, dans un travail sur des domaines cratoniques, la quasi-absence de couverture sédimentaire récente, comme cela peut être le cas sur le Nord du COA, empêche d’introduire des contraintes géologiques robustes qui restreindraient l’espace temps-température dans la recherche des histoires thermiques. D’autre part, la philosophie de la modélisation tend à désapprouver l’usage de telles contraintes, dans la mesure où les données sont supposées auto-suffisantes pour contraindre convenablement l’histoire thermique dans l’espace temps-température. Ceci est probablement vrai pour les cas « simples » de modélisation, mais un degré de complexité élevé du jeu de données rend impossible ce genre d’approche « libre ». Pour exemple, je présente ci-dessous le cas d’un de mes échantillons (Fig. III-13), modélisé de deux façons différentes : d’une façon en inverse « libre » et de l’autre, en utilisant une contrainte géologique observable sur le terrain, à savoir la discordance de dépôts d’âge crétacé inférieur directement sur le socle.

Figure III-13 : De l’usage des contraintes en modélisation thermique. J’ai utilisé un échantillon de socle à proximité de la discordance Crétacé inférieur/socle pour tester l’influence de cette contrainte géologique sur les résultats de modélisation inverse. En haut ont été réalisées des modélisations avec HeFTy. A gauche, aucune contrainte n’a été utilisée. 20 histoires thermiques acceptables et 1 bonne ont été modélisées. A droite, la discordance est traduite en terme de conditions thermiques, à savoir, la présence à la surface, ou proche de la surface, du socle au Crétacé inférieur. 190 histoires thermiques acceptables et 36 bonnes histoires thermiques ont pu être trouvées. Cet exemple illustre le fait que les seules données TBT ne sont pas toujours de qualité suffisante et l’usage d’une contrainte géologique peut restreindre de façon intelligente et vraisemblable l’espace (T,t). En bas a été utilisé QTQt. A gauche, aucune contrainte n’est utilisée et à droite la même contrainte Crétacé inférieur est ré-utilisée.

Dans le cas de la figure III-13, l’utilisation de contraintes n’est clairement pas une sur-interprétation, étant donnée l’évidente discordance dans l’enregistrement géologique (Fig. II-2 ; à l’Ouest du Bouclier Reguibat, à la limite avec le TLDB). L’usage de la contrainte d’âge Crétacé

87 inférieur permet dans le cas de HeFTy de déterminer davantage d’histoires thermiques et modélise d’une meilleure façon les données. En utilisant QTQt, le logiciel trouve des solutions équivalentes, bien que les solutions déterminées avec l’usage de la contrainte soient très légèrement meilleures (Loglikelihood -482, contre -484 pour l’absence de contrainte).

Multiplier les « boîtes de contraintes (T,t) » peut se justifier, à la condition que celles-ci ne soient pas là pour présenter des variations de températures à une résolution que les thermochronomètres ne peuvent pas prendre en compte (i.e. surtout dans les environnements « froids » quand T < 50-60°C et des conditions « chaudes » à plus de 110-120°C.

89

Partie 4

EVOLUTION MESOZOÏQUE-