• Aucun résultat trouvé

De la compréhension de l’Enso à la modélisation numérique du climat

système climatique (surfaces continentales, glace de mer) jouent également un rôle important dans la variabilité du climat à l’échelle saisonnière.

La compréhension de ces différents modes de variabilité et sources de prévisibilité a pré- cédé puis accompagné le développement de modèles numériques de climat, dont un aperçu historique est dessiné dans la partie suivante.

1.2

De la compréhension de l’Enso à la modélisation numé-

rique du climat

Dans cette partie, nous présentons les grandes étapes du développement des modèles numé- riques du climat, maintenant fréquemment utilisés pour la prévision saisonnière. Nous revenons pour cela sur l’émergence des modèles et le développement de nouvelles techniques de modé- lisation, en évoquant notamment des projets de recherche internationaux qui ont permis des avancées notables dans le domaine.

1.2.1 Prévisions statistiques à l’échelle saisonnière

Les liens détaillés dans la partie précédente sont souvent utilisés dans le but de prévoir à l’échelle saisonnière certains phénomènes climatiques à l’aide de méthodes statistiques. De nombreux centres de prévision du climat utilisent des méthodes statistiques pour compléter (ou remplacer) l’utilisation de modèles numériques plus complexes. De nombreuses études soulignent la compétitivité de ces méthodes statistiques vis-à-vis des modèles numériques, par exemple pour prévoir l’Enso (Barnston et al., 1999; van Oldenborgh et al., 2005), les phénomènes de mousson (Fontaine et al., 1999; Mo et Thiaw, 2002; Rajeevan et al., 2007) ou encore le climat des latitudes tempérées (Cohen et Fletcher, 2007) à l’échelle saisonnière. Pour une revue détaillée des techniques de prévisions saisonnières statistiques, on pourra se référer à Mason et Baddour (2008).

Toutefois, chaque modèle statistique est développé et optimisé pour un phénomène cli- matique particulier à une échelle donnée. L’inconvénient de ces méthodes est leur très forte dépendance de la qualité des données d’observation utilisées lors de la période d’apprentissage, et leur vulnérabilité à l’heure d’une évolution rapide du climat.2 Les liens statistiques établis

sur une période des 30 ou 40 dernières années entre plusieurs variables physiques du climat ne sont pas nécessairement robustes pour expliquer les liens pour la saison à venir, et certaines études montrent qu’il vaut mieux parfois construire un modèle sur les 10 dernières années observées plutôt que sur l’ensemble de la période de données dont on dispose (Huang et al., 1996; Livezey et al., 2007).

2. Comme l’a rappelé Michel Jarraud, secrétaire général de l’OMM, en clôture du séminaire annuel du CEPMMT portant cette année sur la prévision saisonnière : « The past is no longer a good indicator for the future ».

1.2.2 L’apparition des modèles numériques de climat

En parallèle de la compréhension des phénomènes physiques de grande échelle spatio- temporelle, l’intégration de modèles de circulation générale (MCG) à partir de conditions initiales réalistes se développa au cours des années 1970-1980, avec la réalisation des premières analyses globales opérationnelles aux Etats-Unis et en Europe, et les premières simulations dites « à longue échéance ».

L’apparition de modèles numériques de climat a sans doute été retardée par la relégation au second plan des études statistiques initiées par Sir Gilbert Walker et ses contemporains, au moment de l’émergence de modèles numériques de prévision du temps à courte échéance. Les travaux de Richardson dans les années 1920, puis de Rossby, Eliassen, Charney, Bjerknes et von Neuman dans les années 1940 et 1950 (pour ne citer que quelques grands noms), ont contri- bué au développement des modèles numériques de prévision du temps utilisés aujourd’hui. La théorie de Lorenz a toutefois conforté les chercheurs dans l’idée qu’utiliser des modèles nu- mériques de prévision pour des échéances allant au-delà de quelques jours serait parfaitement inutile.

Au même moment que les travaux fondateurs de Lorenz, Manabe et al. (1965) montrent qu’il est possible d’intégrer un modèle de circulation générale atmosphérique pendant une période de plusieurs mois, et que le climat modélisé comporte certaines caractéristiques cohé- rentes avec les données d’observation. Mais ce sont les travaux de Shukla (1981) qui sont très souvent considérés comme étant à l’origine de la prévision saisonnière avec les MCG. Dans cet article, J. Shukla intègre un modèle de circulation générale atmosphérique neuf fois pen- dant 60 jours en partant de neuf conditions initiales atmosphériques correspondant à trois 1er janvier successifs avec des perturbations initiales. Le modèle est forcé aux frontières par des températures de surface de l’océan, de la glace de mer, et des conditions de surfaces continen- tales climatologiques et identiques pour chaque intégration. En étudiant les moyennes dans le temps et l’espace des variables modélisées, J. Shukla se concentre sur la prévisibilité due aux forçages externes. Le choix de conditions initiales séparées d’un an lui permet d’évaluer au bout de combien de temps la condition initiale atmosphérique est oubliée, de la même ma- nière que l’étude de Lorenz (1969) à l’échelle synoptique. Les résultats montrent qu’il existe une prévisibilité de l’atmosphère aux échéances de 2 semaines à un mois, et que au-delà, la prévisibilité disparaît du fait de trop grandes erreurs du modèle. Ces conclusions ouvrent la voie à de nombreux travaux de recherche en prévision numérique à plus longue échéance.

1.2.3 La prévision saisonnière numérique

1.2.3.1 Principe et développement de la prévision numérique

On a vu précédemment que les composantes lentes qu’étaient l’océan, la surface des conti- nents et la glace de mer expliquaient une part primordiale de la variabilité du climat à l’échelle saisonnière. Très tôt, les chercheurs en modélisation ont donc essayé de représenter non seule- ment l’atmosphère mais ces différentes composantes, avec des degrés de complexité différents. La plupart des travaux de recherche à la fin du XXième siècle se sont focalisés sur la prévision de l’Enso (Goddard et al., 2001). C’est Zebiak et Cane (1987) qui ont réussi en premier lieu à représenter l’Enso avec un modèle couplé océan-atmosphère simplifié, de manière à prévoir l’épisode El Niño de 1986–1987 avec presque un an d’avance.

1.2 De la compréhension de l’Enso à la modélisation numérique du climat

Aujourd’hui, les modèles de circulation générale utilisés en prévision saisonnière de l’at- mosphère entrent le plus souvent dans deux catégories :

1. les modèles à deux étapes, ou « two-tiered » (Bengtsson et al., 1993), pour lesquels on prévoit d’abord les conditions aux bords (océan, surfaces continentales, glace de mer) à l’aide de méthodes statistiques ou dynamiques, puis on force un modèle global d’atmosphère avec ces conditions ;

2. les modèles à une seule étape, ou « one-tiered » où toutes les composantes sont couplées et évoluent simultanément : on parlera de modèles de circulation générale couplés. L’avantage évident des modèles couplés est d’incorporer l’ensemble des interactions entre l’atmosphère et les autres composantes du système climatique. L’utilisation de systèmes de prévision two-tiered suppose implicitement de négliger la rétroaction de l’atmosphère sur l’évo- lution des composantes plus lentes du climat. Un modèle couplé pourra donc en théorie re- produire l’évolution du climat à l’échelle saisonnière de manière plus réaliste. Toutefois, ces modèles couplés sont plus coûteux en ressources de calcul, tant pour l’intégration du modèle qu’au cours de la phase d’assimilation de données atmosphériques et océaniques, et certains centres opérationnels préfèrent encore utiliser des modèles atmosphériques forcés pour leurs prévisions à l’échelle saisonnière (Mason, 2008).

1.2.3.2 Les projets de recherche internationaux

Le développement des techniques de modélisation numérique du climat à l’échelle saison- nière à interannuelle telles qu’utilisées aujourd’hui a fait l’objet de plusieurs projets interna- tionaux qui ont permis d’évaluer méthodes et modèles de prévision.

A la fin des années 1990, les projets Provost (PRediction Of climate Variations On Seasonal to interannual Time-scales) en Europe et DSP (Dynamical Seasonal Prediction) aux Etats-Unis ont coordonné des expériences de rétro-prévisions saisonnières avec plusieurs modèles globaux atmosphériques forcés avec des TSO « parfaites » (Palmer et Shukla, 2000). Ces projets offrent un cadre d’étude commun permettant d’étudier les performances relatives des différents modèles ainsi que celles d’une combinaison des prévisions de plusieurs modèles (ou prévision multi-modèle, voir le paragraphe1.3.2.1). Ils permettent d’estimer la part de la prévisibilité due à la composante océanique par rapport aux conditions initiales (Brankovic et Palmer, 2000), mais également de mettre en évidence l’intérêt de l’approche multi-modèle en prévision saisonnière (Doblas-Reyes et al., 2000).

Les conclusions de ces projets incitent à poursuivre de telles études, mais avec des modèles couplés océan-atmosphère. Ce sera notamment le cadre du projet européen Demeter (Palmer et al., 2004), pour lequel sept modèles couplés océan-atmosphère européens (dont celui du CNRM) sont intégrés sur une période commune de 22 ans, en initialisant neuf prévisions de six mois par modèle, en février, mai, août et novembre de la période. Outre l’utilisation de modèles couplés, la nouveauté du projet Demeter réside en la volonté d’évaluer les prévisions saisonnières d’un point de vue plus adapté à l’utilisateur final, en utilisant par exemple des techniques de descente d’échelle, des modèles de rendements agricoles ou de risques sanitaires. Le projet Demeter a confirmé l’intérêt de l’approche multi-modèle (Hagedorn et al., 2005) et a incité plusieurs centres de prévision européens (le MetOffice anglais, le CEPMMT et Météo-France) à produire un ensemble de prévisions saisonnières en temps réel dans le cadre d’un consortium baptisé Eurosip (EUROpean Seasonal-to-Interannual Prediction).

Le projet européen Ensembles (Doblas-Reyes et al., 2009) a permis d’étudier et de com- parer différentes méthodes de prise en compte des incertitudes dans les dernières générations des modèles couplés en prévision saisonnière. On reviendra plus en détail sur ce point dans la partie 1.3.

1.2.4 Techniques de correction des modèles

La prévision à l’échelle saisonnière à l’aide de modèles couplés de circulation générale ne se limite pas à leur seule intégration. Aux échelles de temps étudiées, les modèles couplés ont tendance à dériver au fur et à mesure de la prévision, et doivent donc être corrigés à la fois en cours d’intégration et après.

1.2.4.1 Correction en cours d’intégration

A l’échelle saisonnière, les modèles couplés posent plusieurs problèmes au modélisateur : celui de la dérive lente due à l’inadéquation du couplage ou des paramétrisations de certaines composantes du modèle (Delecluse et al., 1998), et celui des biais et autres erreurs du modèle. Plusieurs techniques ont été proposées pour corriger cette dérive des modèles couplées. Une solution est la correction de flux (Sausen et al., 1988), qui consiste à introduire un terme de flux entre l’océan et l’atmosphère au cours du couplage, en plus des flux modélisés, de manière à maintenir les valeurs moyennes des flux vus par l’atmosphère ou l’océan proches des états d’équilibre de chaque composante. Un exemple simple de correction de flux est le couplage d’anomalie proposé par Kirtman et al. (1997). Cette méthode consiste à calculer des climatologies de tension de vent de surface de la composante atmosphérique et de température de surface de l’océan de la composante océanique du modèle, puis de corriger les anomalies de tension de vent et de TSO calculées en cours d’intégration du modèle en fonction de l’écart des climatologies des composantes du modèle aux données de référence.

La réduction des erreurs des modèles dynamiques à l’échelle saisonnière a fait l’objet de nombreuses études au fil des ans. Le projet Potentials (Project On Tendency Evaluations using New Techniques to Improve Atmospheric Long-term Simulations) visait à définir des méthodes d’évaluation et de réduction d’erreurs de tendance de modèles de circulation géné- rale atmosphériques de niveaux de complexité différents. Ce projet a donné lieu à plusieurs études qui constituent la colonne vertébrale de la technique de « dynamique stochastique » développée pendant cette thèse. Guldberg et al. (2005) ont utilisé la technique de « nudging » ou relaxation de Newton (voir le paragraphe 2.3.1du chapitre suivant) afin d’estimer les er- reurs de tendance initiale du modèle atmosphérique Arpege pour un ensemble de variables du modèle. En utilisant la climatologie mensuelle de l’opposé de ces termes d’erreur comme cor- rection systématique de la dynamique du modèle en cours d’intégration, les auteurs de l’étude montrent que les biais systématiques du modèle pendant la saison Décembre-Janvier-Février (DJF) sont considérablement réduits. Toutefois, malgré ces améliorations de l’état moyen, les prévisions saisonnières en utilisant cette méthode ne sont pas meilleures sur l’hémisphère Nord.

Dans le cadre de Potentials, D’Andrea et Vautard (2000) ont proposé une autre approche à ce problème, reposant sur une méthode plus complexe avec un modèle atmosphérique global quasi-géostrophique à trois niveaux verticaux (Marshall et Molteni, 1993). Les erreurs sys- tématiques du modèle sont évaluées en utilisant une méthode d’assimilation variationnelle,

1.2 De la compréhension de l’Enso à la modélisation numérique du climat

consistant à estimer le terme de forçage nécessaire pour amener l’état du modèle vers l’état observé au pas de temps suivant. Les termes de correction ainsi définis, D’Andrea et Vautard (2000) ont corrigé le modèle en cours d’intégration en fonction de son état, caractérisé par le champ de vorticité potentielle global aux trois niveaux du modèle. Ils ont pour cela procédé à une classification du champ de vorticité potentielle sur la région Atlantique Nord-Europe. Ensuite, en cours d’intégration, la vorticité potentielle du modèle était forcée par la moyenne des K corrections correspondant aux K plus proches analogues du champ à l’instant t. Cette technique a permis d’améliorer la climatologie et la variabilité du modèle quasi-géostrophique. La représentation des régimes de temps sur la région Atlantique Nord-Europe a aussi été amé- liorée. D’Andrea et Vautard (2000) montrent que la dépendance des corrections de l’état du système est essentielle pour obtenir ces résultats.

Yang et Anderson (2000) ont utilisé une technique similaire à Guldberg et al. (2005) pour corriger un modèle d’océan couplé dans le but d’améliorer les prévisions de l’Enso. Leurs résultats montrent qu’en corrigeant les erreurs de tendance initiale moyennes mais en laissant le modèle d’océan générer son cycle annuel, les prévisions sont améliorées. Barreiro et Chang (2004) ont employé une technique d’approximation linéaire des erreurs de tendance initiale afin de corriger les TSO de l’Atlantique tropical d’un modèle de circulation générale atmosphérique couplé à un modèle d’océan en couches, et ont ainsi amélioré les prévisions saisonnières de TSO et de précipitations.

Plus récemment, les travaux de Danforth et al. (2007) ont porté sur des corrections dépen- dant de l’état du modèle dans le but d’améliorer les prévisions à court terme. Les auteurs ont utilisé une analyse statistique des corrections d’erreurs de tendance et des anomalies prévues afin de calculer la correction du modèle en cours de prévision à chaque pas de temps par régression linéaire. Ils sont parvenus à améliorer les prévisions du modèle quasi-géostrophique de Marshall et Molteni (1993) et du modèle SPEEDY (Molteni, 2003) avec cette méthode.

Une étude de DelSole et al. (2008) a permis d’évaluer plusieurs méthodes de correction em- pirique d’un modèle couplé surfaces continentales - atmosphère à plusieurs échelles de temps. Les auteurs ont testé trois types de correction ne dépendant pas de l’état du modèle : le rappel des variables pronostiques vers une climatologie, la correction des erreurs de tendance initiales estimées par le nudging, et une correction à chaque pas de temps basée sur le biais mensuel moyen du modèle non corrigé. Des trois méthodes étudiées, celle basée sur la correc- tion des erreurs de tendance initiales donne les meilleurs résultats, en utilisant les corrections moyennes du mois calendaire en cours de prévision. L’apport principal est la réduction des biais du modèle, qui permet de réduire l’erreur quadratique moyenne de la température et de l’humidité du sol ainsi que la température de l’atmosphère. Une correction linéaire dépendant de l’état du modèle (où les coefficients linéaires sont optimisés en point de grille) ne permet pas d’améliorer ces résultats.

Les différentes études mentionnées ici montrent que la correction empirique d’un modèle utilisé en prévision saisonnière peut permettre de réduire les biais et d’améliorer les prévisions, mais les résultats obtenus dépendent fortement du modèle étudié et de la méthode employée.

1.2.4.2 Correction et calibration a posteriori

Les sorties des prévisions d’un modèle numérique sont rarement exploitées telles quelles par l’utilisateur final. Une étape fondamentale est celle de la correction a posteriori. Cette cor-

rection nécessite d’étudier précisément les caractéristiques du modèle en prévision saisonnière sur une période historique, en calculant des rétro-prévisions saisonnières et en les comparant à des données de référence. Un ensemble de scores et de statistiques de ces rétro-prévisions permet d’évaluer le modèle et d’avoir une indication de la confiance qu’on peut accorder aux prévisions d’une part, et des corrections à apporter aux sorties du modèle d’autre part. Nous reviendrons plus longuement sur les méthodes d’évaluation des prévisions dans le chapitre suivant (partie2.2).

La correction la plus simple, et qui sera faite systématiquement lors de l’évaluation des prévisions saisonnières étudiées dans cette thèse, est la correction du biais moyen. Les différents projets de recherche et l’implémentation de rétro-prévisions sur des périodes com- munes par plusieurs centres de recherche ont permis d’étudier et de développer des techniques de calibration beaucoup plus poussées, utilisant souvent une formulation probabiliste des pré- visions (voir les travaux de Alessandri et al., 2011; Doblas-Reyes et al., 2005; Stephenson, 2008; Stephenson et al., 2005, pour une revue détaillée). Un des grands avantages de la formulation probabiliste des prévisions saisonnières est d’enrichir les prévisions avec une information sur les incertitudes auxquelles on est confronté à cette échelle.

Synthèse

Dans cette partie, nous avons décrit un historique de la prévision saisonnière à l’aide de modèles numériques de climat, en partant des travaux fondateurs de Manabe et al. (1965) et Shukla (1981) pour arriver aux derniers développements issus de projets internationaux récents comme Ensembles.

Nous nous sommes également attardés sur des techniques de correction empirique des mo- dèles numériques, comme celles étudiées dans le cadre du projet Potentials, qui permettent de corriger des erreurs systématiques des modèles. Certaines de ces techniques s’avèrent assez efficaces, mais les résultats dépendent fortement du modèle étudié.

Un autre aspect fondamental de la prévision saisonnière à l’aide de modèles dynamiques est la prise en compte des incertitudes liées aux conditions initiales et aux choix de modélisation. Cet aspect, qui est au cœur de cette thèse, fait l’objet de la partie suivante.