• Aucun résultat trouvé

Depuis le début des 1980, l’évolution de la modélisation a connu successivement trois dynamiques : scientifique, technique et sociale.

La dynamique scientifique s’est développée aux Etats-Unis dans les années 1950 comme nous l’avons déjà indiqué auparavant, puis s’est disséminée en Suède et au Royaume-Uni. Les ordinateurs (dont la puissance de calcul a augmenté de manière exponentielle) et l’observation par satellite (dotée de moyens considérables) ont révolutionné la modélisation du climat. Ces progrès instrumentaux attirent de jeunes chercheurs issus d’autres champs disciplinaires (comme le mathématicien Von Neumann de Princeton) dans les recherches sur le climat. La portée hautement scientifique de la prévision météorologique et de la modélisation du climat a entrainé une rapide évolution des sciences de la Terre (océanographie, géophysique, sismologie, paléoclimatologie). En 1957, l’une d’elles, la tomographie sismique

ses lettres de noblesse sur la scène internationale (année géophysique internationale) en développant de nouvelles techniques d’investigation telles que les méthodes de datation isotopiques (connaissance du temps géologique). Ces sciences bénéficient de nouveaux programmes de recherches sur la cartographie magnétique des océans, via l’installation des réseaux de mesures météorologiques.

Cette dynamique technique permet le rapprochement entre la climatologie et la paléoclimatologie au cours de la décennie 1970-1980, avec une série de découvertes majeures parmi lesquelles la mise en évidence des cycles glaciaires (à partir des carottes sédimentaires), la confirmation des théories sur l’origine astronomique de ces cycles, la révélation de la rapidité des variations climatiques (par des carottages dans les glaces). Ces différentes recherches ont permis de valider les résultats de certains modèles et ont ouverts la voie à la prise en compte de la dimension sociale du climat. Les nombreuses alertes sur les pollutions urbaines, marines ou océanique des années 1960-1970, ont complètement transformé les représentations des populations sur la nature, les sciences et de leurs progrès technologiques. « En quelques années la

technologie est perçue non plus comme porteuse de bien-être et de savoir, mais comme une source de risques, tandis que l’environnement apparaît vulnérable et menacé par l’homme »

(Guillemot, 2007, p. 98). Notre climat, jadis stable, occupe le devant de la scène par la mobilisation des organisations de la société civile (OSC), les risques qu’encourent notre environnement sont de véritables challenges pour l’expertise mondiale. En effet, à côté des traditionnels pics de pollution atmosphérique, l’humanité doit faire face à d’autres dangers : les pluies acides, le trou d’ozone, l’hiver nucléaire, la sécheresse au Sahel, les inondations…

Au cours de la décennie 90 et 2000, la prise en compte de l’effet de serre et les travaux remarquables des paléo-climatologues sur les corrélations étroites entre température de l’air et les taux de gaz à effet de serre, ont beaucoup contribué à la riposte internationale face au changement climatique. La modélisation du climat se diversifie et se complexifie. Modéliser le climat revient à développer un modèle en le validant à l’aide d’observations du climat réel mais également à chercher à comprendre le véritable climat.

C’est dans ce contexte que les paramétrisations (physiques) sont devenues une étape importante dans l’acte de modélisation (Jeandel, Mosseri, 2011). Les paramétrisations physiques sont une technique utilisée dans les modèles numériques d’atmosphère pour prédire les effets collectifs des phénomènes d’échelle fine localisés à l’intérieur d’un point de grille, en fonction des conditions de longue échelle. Dans les premières générations des modèles de circulation générale de l’atmosphère, la dynamique de l’atmosphère y est décrite à l’échelle de mailles par les algorithmes tirés de la dynamique des fluides. Or, les processus physiques d’échange avec l’atmosphère s’y déroulent à des échelles inférieures à la maille des modèles. Cela signifie que si certaines caractéristiques des processus physiques sont inférieures à la maille des

modèles (dans les nuages, la condensation des gouttes d’eau est de l’ordre d’un micron), elles doivent être représentées par des jeux de paramètres à l’échelle de la maille. L’objet d’une paramétrisation est donc « de représenter l’impact d’un processus

particulier sur l’évolution temporelle des variables d’état du modèle, à savoir les valeurs moyennes de la température, de l’humidité ou du vent. Cette paramétrisation repose sur une description approximative des caractéristiques moyennes de ce processus au sein d’une colonne du modèle. Cette description fait intervenir de nouvelles équations internes à la paramétrisation, qui caractérisent l’état du processus : intensité de la turbulence dans une maille du modèle, fraction de la maille couverte par les nuages… » (Hourdin, 2011, p. 162).

Figure 8 : Colonne d’un modèle de climat

Source : Hourdin (2011, p. 163)

De ce fait, la plupart des modèles de circulation générale d’atmosphèrique disposent de deux modules : un module dynamique qui résout les équations primitives (les équations de Navier-Stokes décrivent le mouvement des fluides dans l’approximation des milieux continus, loi des gaz parfaits, approximation hydrostatique), un module physique qui comprend les paramétrisations des processus sous-mailles. L’une des paramétrisations les plus classiques, utilisée dans la modélisation du climat, est celle de la diffusion turbulente. Les mouvements de petite échelle turbulents sont plus importants près de la surface où ils sont soumis au forçage du vent et au forçage thermique.

De nos jours, ce sont notamment ces paramétrisations physiques qui alimentent le débat sur les controverses du changement climatique (Le Treut, 2014). De ce fait, « si

l’organisation à grande échelle du climat est bien comprise et bien modélisée, les représentations des phénomènes de petite échelle recèlent des approximations et des imperfections qui sont responsables de la dispersion et des incertitudes des prévisions en matière de changement climatique » (Le Treut, 2015). A cela s’ajoute le fait qu’il n’existe pas à ce jour de méthode

universelle de paramétrisation. Les pratiques sont fortement corrélées aux mécanismes physiques à décrire, à la connaissance qu’en ont les scientifiques et aux objectifs visés (Jaendel, Mosseri, 2011).

De ce point de vue, les apports des paléo-climatologues sont de plus en plus déterminants dans le processus de validation des modèles. En effet, dans le grand livre de l’Histoire de la Terre, les géologues ont appris à décrypter l’information paléo- climatique, d’abord dans les roches et les sédiments, puis dans de nombreux supports biologiques. Cela permet de reconstituer des climats anciens aux échelles de temps utilisées en géosciences, de la centaine de millions d’années à l’échelle des générations humaines. Ces archives des paléoclimats apportent depuis quelques années, une nouvelle dynamique dans l’activité des modélisateurs. La modélisation du climat est profondément transformée par le couplage et l’intégration d’un nombre croissant de milieux, d’interactions et de phénomènes dans les nouveaux modèles : les modèles du Système Terre (exemple du projet MISSTERRE, Braconnot, Planton, 2014, modèle Système Terre de l’IPSL, Dufresne, 2018).

Concrètement, il s’agit pour les climatologues de coupler différents modèles qui prennent en compte tous les éléments et toutes les rétroactions qui influencent notre

climat à long terme. Le premier couplage a été celui de l’atmosphère et de l’océan24. Ce

dernier a une influence essentielle sur le climat à long terme notamment dans la redistribution de la chaleur et de son évolution.

Grâce à la révolution du numérique, des modèles globaux d’océans 3D ont été couplés aux modèles d’atmosphère. Ce couplage océan-atmosphère requiert un travail scientifique et informatique très complexe et basé sur une réflexion approfondie sur les échanges physiques entre ces deux milieux. Ainsi pour éviter de tomber sur des modèles couplés présentant des « dérives », les modélisateurs ont recours à « des techniques appelées ajustements de flux », qui permettent d’ajuster en permanence les échanges à la surface océanique pour parvenir à des prédictions acceptables (Guillemot, 2007, p. 106). C’est ainsi que depuis 1992, le GIEC propose plusieurs scénarios possibles d’évaluation de la concentration des gaz à effet de serre dans l’atmosphère afin de simuler les climats futurs. L’emprise du changement climatique

24 Dans le cas du modèle intégré du système climatique de l’IPSL (Institut Pierre Simon Laplace), les

diverses parties sont composées : (1) d’un modèle d’atmosphère (LMDZ), d’un modèle d’océan, de glace de mer et de biogéochimie marine (NEMO), d’un modèle de surfaces continentales (ORCHIDEE) de modèles de chimie troposphérique (INCA) et stratosphérique (REPROBUS). Le couplage entre les modèles atmosphérique et océanique est réalisé à l’aide du coupleur OASIS, développé au CERFACS.

ne se limite pas seulement aux travaux du GIEC, elle se manifeste également au travers des projets de recherches européens, ou mondiaux dans lesquels les scénarios jouent un rôle déterminant.

Figure 9 : Modèle Système Terre de l’IPSL

Source : Dufresne (2017)

Les modèles à intégration assignée (Integrated Assessment Models) symbolisent depuis quelques années, cette nouvelle génération de modèles qui entend intégrer énergie, climat et économie de manière à proposer aux décideurs politiques, les scénarios les plus probables.