• Aucun résultat trouvé

La désagrégation statistique CERFACS

Dans le document The DART-Europe E-theses Portal (Page 98-103)

L A MODELISATION DU CLIMAT : DES MODELES CLIMATIQUES GLOBAUX AUX PROJECTIONS

4.3 Les simulations climatiques : méthodologie et qualité des données Les données que l'on utilise pour représenter le changement climatique proviennent du Centre

4.3.2 La désagrégation statistique CERFACS

Les données fournies par le CERFACS correspondent à trois scénarios de gaz à effet de serre (A1B, A2 et B1), à plusieurs modèles climatiques (GIEC et ARPEGE). En ce qui concerne la descente d'échelle on retrouve dans la littérature principalement deux méthodes : la méthode Quantile-Quantile et celle des types de circulations.

La méthode Quantile-Quantile (Déqué, 2007) fonctionne comme une méthode de correction de biais des modèles climatiques globaux. Elle s’appuie sur une correction appliquée sur le modèle quantile par quantile, à raison d'une division en 100 quantiles (figure 4.3). Pour les précipitations, une correction saisonnière est réalisée seulement si une différence marquée entre les saisons apparait.

Figure 4.3 Schéma explicatif de la correction quantile-quantile, d’après C. Pagé (PDF : probability density functions, densité de probabilité)

Les données désagrégées fournies par le CERFACS dans le cadre d’une convention avec le laboratoire COSTEL sont obtenues par la seconde méthode : les types de circulations. Pour cela dix types de circulations sont définis (Pagé et Terray, 2010). Pour chacun d’eux on détermine la moyenne de la circulation atmosphérique pour chacun des jours associés à ce type de temps. La moyenne pour les jours observés est ensuite comparée à la moyenne pour les jours modélisés. La figure 4.4 présente les variations de précipitations à l'échelle de la France durant l'hiver (décembre, janvier et février) selon les types de circulations 0 à 8.

Figure 4.4 Représentation des types de circulations 0 à 8 à travers l'anomalie de la pression moyenne au niveau de la mer (hPa) et des précipitations (%) pour la période hivernale (Pagé et al., 2010)

Le principe de la descente d’échelle statistique est de concevoir un modèle statistique qui traduit une circulation climatique de grande échelle (prédicteurs) en un état climatique local (prédictant).

Pour cela, une analyse classique en régime de temps (Vautard, 1990) ou en type de temps (Plaut et

al., 2001) est utilisée. Cette dernière étant la plus employée. Elle concerne la région de la France étendue et a connu une classification préliminaire multi-variée à partir de la pression au niveau de la mer (PNM) et des précipitations. Dans cette analyse des centroïdes de types de circulations sont calculés. Chaque jour est affecté au centroïde le plus proche en termes de type de temps. On a 10 types de circulations par saison. Ce travail se fait sur la période 1981-2005 avec des réanalyses NCEP pour les PNM et des analyses SAFRAN pour les précipitations. Concrètement ce sont les pressions atmosphériques moyennes journalières qui sont classées en groupes définis par un centroïde, chaque jour étant plus ou moins proche du centroïde de son groupe. La fréquence d’occurrence des types de circulations est très proche entre le modèle climatique ARPEGE et une réanalyse NCEP des observations.

Ces types de circulations sont la base de la descente d’échelle, il est donc important que ceux-ci soient discriminants afin que les liens physiques soient significatifs entre une répartition spatiale de la précipitation et un certain type de circulation atmosphérique. Cette méthode peut engendrer une variabilité des précipitations qui peut s’expliquer par des modifications inter-groupes (changement de la fréquence d’occurrence des groupes) ou intra-groupe (modification de la distribution des jours à l’intérieur des groupes).

Cette désagrégation statistique repose sur trois hypothèses principales liées aux : i. Prédicteurs, existence de liens forts avec le climat local qui sont simulés correctement par le modèle ; ii. Stationnarité, les relations statistiques sont valides également en cas de climat perturbé ; iii. Changement climatique, les prédicteurs réagissent au signal du changement climatique. Les changements de circulations atmosphériques ne permettant pas de prédire les changements de température, ce paramètre est utilisé aussi comme prédicteur.

Les premiers retours sur la qualité du modèle ont mis en évidence une descente d’échelle statistique globalement meilleure en hiver qu’en été, car l'occurrence des pluies d’orage liées à la convection est moins dépendante de la circulation atmosphérique à grande échelle. Selon les modèles, et pour la même méthode de descente d’échelle, on va avoir des erreurs absolues relatives moyennes des pluies par saisons, qui varient. Cette remarque étant observée à l’échelle du pays, il est possible qu’un modèle soit meilleur pour une région spécifique ou un autre paramètre que les précipitations.

Pour ce qui est de la stationnarité, celle-ci a été vérifiée en s’appuyant sur une phase d’apprentissage, obtenue par le modèle ARPEGE sur la période 1950-1999 pour la PNM et les précipitations simulées. A partir des données de ces deux paramètres, un modèle statistique est créé. Dans un second temps une deuxième simulation est lancée afin d’obtenir de nouvelles PNM et précipitations simulées. Le modèle statistique précédemment conçu va alors s’appuyer sur la PNM simulée pour obtenir une précipitation désagrégée. Cette dernière est ensuite comparée à la précipitation simulée. Finalement, la tendance des précipitations est plutôt bien corrélée (entre 0.5 et 0.9). La stationnarité est donc confirmée partiellement : avec la PNM on peut reproduire correctement les caractéristiques principales des précipitations dans un climat perturbé tel qu'il est simulé par le modèle.

4.3.2.1 Base de données SAFRAN

La régionalisation statistique utilisée au CERFACS s’appuie sur les données SAFRAN. De ce fait la descente d’échelle ne pourra pas être meilleure que les données SAFRAN dont la qualité varie sur le territoire national. Une étude sur la validation de la réanalyse SAFRAN a été produite par Vidal et al. (2010). Les données SAFRAN sont principalement utilisées car elles représentent la base de données la plus complète à l’échelle de la France. La base de données SAFRAN est donc présentée ici afin de comprendre la méthodologie d'obtention de ces données pour en saisir les éventuelles limites.

Les données SAFRAN sont des données de Météo France, concernant le climat du passé récent au présent à l’échelle spatiale de 8 km. Elles utilisent les données d’observation de la Base de données climatologique de Météo-France (BD Clim) et les ébauches des modèles de Prévision Numérique du Temps (PNT) pour les profils verticaux avec un système d’assimilation pour corriger l’analyse. Elles correspondent à une analyse méso-échelle sur la France Métropolitaine, sur la période 1958-2008. La résolution spatiale de 8 km est réalisée à partir de régions climatiques homogènes, appelées zones symposium. Les coordonnées des mailles sont en Lambert II étendu (Quintana-Segui et al., 2007). Ces polygones ne sont pas réguliers, de ce fait la moyenne sur chaque région est calculée et complétée par une interpolation. Il faut donc être conscient que ces données sont déjà prétraitées. Les données SAFRAN sont au pas de temps horaire et couvrent différents paramètres :

 Les précipitations solides et liquides (générées à partir des données journalières). Ce sont ces paramètres qui sont mesurés par le plus grand nombre de stations sur le territoire français.

 Les températures à 2 mètres, générées selon le cycle diurne à partir des données toutes les 6 heures.

 La vitesse du vent à 10 mètres, qui s’avère être un paramètre peu précis.

 La radiation infra-rouge et la radiation visible, incidente à la surface. Ces deux paramètres étant réanalysés à partir d’un modèle car toutes les stations n’ont pas d’information sur la radiation.

 L’humidité spécifique.

4.3.2.2 Le logiciel Dsclim

Le logiciel Dsclim utilisé au CERFACS est open source et téléchargeable en ligne à l’adresse www.cerfacs.fr/~page/work/dsclim. Il consiste en une approche modulaire basée sur des librairies externalisables. Il possède un grand nombre de paramètres de configuration détaillés dans un fichier syntaxe XML de configuration ainsi que dans des fichiers de documentations divers. Ce logiciel, très efficace et performant, est écrit en langage C. Il utilise exclusivement le format de fichier NetCDF avec la convention CF-1.0. Les données nécessaires à son utilisation doivent être à la fréquence journalière. On distingue deux types de données : les longues séries

temporelles d’observations de variables climatiques d’intérêt à l’échelle locale (prédictant), telles que les précipitations et température à 2m ; les variables de grande échelle (prédicteurs) représentant la circulation atmosphérique de grande échelle, telles que la PNM et la température à 2 mètres, le géopotentiel à 500 hPa, ou d’autres variables. Ces dernières données doivent couvrir complètement la région couverte par les observations.

Dans un premier temps, le logiciel Dsclim est utilisé pour une phase de pré-processing. Cette phase se divise en deux temps : 1. Interpolation des variables de grande échelle sur la région d’intérêt 2. Calcul de la fonction EOF (Empirical Orthogonal Function ou décomposition orthogonale aux valeurs propres)de la circulation de grande échelle (prédicteur) et de la variable climatique locale (prédictant). On défini 10 EOF, un plus grand nombre n’étant pas significatif (ces 10 EOF ne sont pas liés aux types de circulations). Une deuxième phase, nommée

« apprentissage », est ensuite effectuée une seule fois tant que la région utilisée à grande échelle ne change pas, que les prédicteurs et prédictants restent les mêmes, que le jeu de données est inchangé et que la période d’étude reste fixe. Au cours de cette phase une normalisation des EOF de la PNM est effectuée pour la période complète. Puis les indices de températures à 2 mètres et des précipitations sont calculés.

Concernant les aspects stochastiques, ils résident notamment dans le choix aléatoire du jour analogue parmi les 11 jours les plus proches : ceci est nécessaire car parfois les jours analogues les plus proches peuvent être identiques plusieurs jours désagrégés de suite, ce qui sous-estime la variabilité journalière.

Ce logiciel a déjà été utilisé afin de désagréger des projections climatiques utilisant trois scénarios SRES : A1B, A2 et B1, pour 15 modèles climatiques ainsi que plusieurs modèles ARPEGE. La plus grande incertitude résidant dans les différents modèles climatiques avant le milieu du 21ème siècle, tandis que pour la fin de siècle les principales sources d'incertitudes sont les scénarios SRES ainsi que les modèles climatiques. Les données du CERFACS sont utilisées dans des projets sur le changement climatique appliqués à des contextes tels que la question de l’eau : sécheresse ou inondation, mais également pour l’agriculture ou la gestion des usages des sols.

4.3.2.3 Limitations et avantages des données simulées

Des limitations existent dans cette méthode de descente d'échelle, notamment car celle-ci ne convient pas à l’étude des extrêmes, principalement parce qu'elle est basée sur le ré-échantillonnage de jours passés, et que chaque jour est traité indépendamment. Les variables, autres que précipitations et températures, ne sont pas toujours de bonne qualité et dépendantes de la qualité du jeu de données d'observations. Des incertitudes résident également dans les modèles climatiques globaux qui possèdent leurs propres limites, notamment en été, période de l’année la moins bien modélisée principalement au niveau des précipitations.

Cependant la désagrégation statistique a ses avantages : les variables utilisées sont cohérentes entre elles ; il est possible de produire des données horaires ; la variabilité est bien représentée.

Travailler à haute résolution spatiale est de plus, particulièrement utile pour les études d’impacts.

Cette méthode a également l’avantage de pouvoir traiter des données externes différentes de

celles utilisées pour la période d’apprentissage. Les données sont de bonne qualité et sont ainsi plus facilement valorisables que les sorties des modèles climatiques globaux non corrigés. Cette méthode possède aussi l’avantage d’être rapide et hautement configurable, ce qui permet de traiter un grand nombre de projections pour une meilleure évaluation des incertitudes.

Ces analyses sont valables à l'échelle de la France (Quintana-Segui et al., 2008). Afin de tester la rigueur du modèle pour une analyse régionale en Bretagne, une comparaison a été effectuée sur la base d'observations en utilisant les données de Météo-France.

4.3.3 Comparaison des données observées (Météo-France) et des

Dans le document The DART-Europe E-theses Portal (Page 98-103)

Documents relatifs