• Aucun résultat trouvé

Liste des abréviations

Chapitre 3 Modélisation des glaces de mer

Dans cette section, une introduction aux diverses approches de modélisation des conditions de glace de mer est présentée. Sont d’abord introduites sommairement les approches déterministes (modèles physiques) et statistiques de modélisation en présentant les principaux produits existants et les concepts de base sous-jacents à leur production et exploitation. S’en suit une présentation détaillée des concepts clés de l’analyse fréquentielle, sur laquelle repose le développement du modèle présenté dans cette thèse.

3.1 Introduction

La couverture de glace de mer a présenté un important déclin dans les dernières décennies, tel qu’observable dans les observations satellites ayant débutées en octobre 1978. Le déclin des concentrations rendent la région arctique plus accessible à la navigation mais aussi plus vulnérable entre autres à l’érosion côtière, la durée de la saison propice à la fonte augmentant environ d’une semaine par décennie (Stroeve et al., 2014). Traditionnellement, les prédictions des conditions de glace pour les saisons à venir sont faites par un expert ou une experte des glaces, une approche heuristique. Toutefois, pour faire face à l’incertitude engendrée par les changements climatiques, de nouvelles approches de prédiction permettant de prévoir à des échelles saisonnières deviennent pertinentes (Hamilton et al., 2016). Deux types de méthodes de modélisation sont utilisées pour l’étude des glaces; 1. L’approche déterministe, soit les modèles reposant sur la thermodynamique des glaces, et; 2. L’approche statistique, soit les modèles qui estiment les conditions en fonction de modèle de régression ou fréquentiels. Les approches déterministes et statistiques seront présentées dans les sections suivantes, l’approche heuristique n’étant pas pertinente dans le contexte global du projet.

3.1.1 Approches de modélisation déterministes

Les prévisions réalisées par les modèles déterministes sont obtenues selon divers schèmes de modélisation. Ces modèles sont définis sur un domaine (territoire couvert par les résultats) et par des résolutions spatiale (taille de maille) et temporelle (pas de temps entre chaque simulation). Les équations à la base des modèles de glace de mer visent à prendre en compte les phénomènes dynamiques comme les vents et les courants, ainsi que les phénomènes thermodynamiques comme les températures de l’océan et de l’atmosphère ou

18

l’albédo. Les chercheurs peuvent faire appel à des modèles de type glace ou à des modèles couplés de type glace-océan ou atmosphère-glace-océan.

Un modèle de glace utilise des données provenant de sources externes pour son initialisation aux conditions limites. Les conditions limites, comme la température de l’atmosphère à la surface de l’océan ou la température de l’eau, ou les conditions de glace en dehors du domaine, ne peuvent pas être simulées par le modèle de glace et doivent être obtenues via une autre source. C’est ce que l’on nomme les forçages du modèle.

Contrairement à un modèle de glace non-couplé, les modèles couplés comme les modèles glace-océan, ou atmosphère-océan ou encore atmosphère-glace-océan sont, pour certaines ou toutes les composantes nécessaires à leurs calculs, indépendants des forçages extérieurs. En somme, cela signifie que ce type de modèle couplé permet aux composantes de l’atmosphère, de l’océan et de la glace d’évoluer en synergie et d’interagir entre elles, sans être forcées de l’extérieur.

Stefan (1891) réalisa la toute première modélisation de la glace de mer en décrivant sur un plan unidimensionnel, la croissance verticale de la glace en fonction de paramètres thermodynamiques. Cette approche n’était évidemment pas de nature numérique, les ordinateurs n’existant pas à cette époque. Les premiers pas au niveau des simulations numériques des conditions de glace furent réalisés par Untersteiner (1964) qui jeta les bases d’une modélisation détaillée décrivant les transferts de chaleur ainsi que la croissance et la fonte de la glace de mer. Quelques années plus tard, Maykut et al. (1971) développèrent le premier modèle numérique de la thermodynamique des glaces de mer. Depuis les années 80, les modèles de glace sont fréquemment incorporés dans les modèles globaux du climat (GCM), comme dans le cas de Hibler et al. (1987) qui a couplé un modèle de glace à deux couches combinant la thermodynamique et la dynamique (Hibler III, 1979) avec un modèle océanique à baroclines à multiples niveaux (Bryan, 1969).

Citons, parmi les modèles de glace modernes, le Los Alamos Sea Ice Model ou CICE (Hunke et al., 2017), le modèle Earth Climate System Model de l’Université de Victoria (Weaver et al., 2001) et le modèle LIM de Louvain-la-Neuve (Rousset et al., 2015). Ces modèles sont fréquemment couplés avec des modèles océaniques comme le modèle NEMO (Nucleus for European Modeling of the Ocean) qui découle du modèle OPA (Océan Parallélisé) de Madec et al. (1998) ou avec des modèles globaux du climat, tel que l’on peut

19

le constater en découvrant les multiples sources de modélisation sur la glace de mer dans le projet CMIP5 (Stroeve et al., 2012a).

Les variables modélisées portant sur les glaces de mer dans le projet CMIP5 sont multiples, parmi elles : épaisseur du couvert, âge de la glace, concentration et étendue du couvert de glace. L’étendue est l’une des variables les plus utilisées pour évaluer la performance des modèles vis-à-vis les observations provenant de l’imagerie satellitaire (Kattsov et al., 2010). Les modèles présentent un consensus quant au fait que l’étendue de glace suit une pente déclinante (Kattsov et al., 2010), mais la dispersion des résultats indique d’importantes discordances entre les modèles (Agarwal et al., 2018, Massonnet et al., 2012).

3.1.2 Approches de modélisation statistiques

Les modèles statistiques permettent de décrire le comportement des conditions de glace grâce à des outils statistiques comme par exemple, la régression simple ou multiple entre une variable liée au couvert de glace et une ou des variables explicatives. En faisant appel à des observations historiques sur les glaces ou le climat, ces modèles permettent d’inférer les conditions futures du couvert en se basant sur des équations définissant les relations entre la variable à modéliser et les variables explicatives. Les modèles statistiques sont généralement utilisés afin de décrire le comportement moyen des glaces ou pour fournir une prévision dans une perspective à court et moyen terme (semaine, mois, saison ou année) et sont rarement spatialisés, c’est-à-dire qu’ils fournissent une information d’ensemble.

Parmi les variables utilisées pour obtenir une prévision des conditions de glaces citons les conditions de glace connues a priori, les variables atmosphériques (e.g. températures, vents, précipitations, etc.) et océaniques (e.g. courants, température de l’eau, turbidité, etc.) (Ahn et al., 2014). Logiquement, la température à la surface est reconnue dans la littérature comme une variable explicative centrale (Chapman et al., 1993, Hansen et al., 2010) et est de surcroît utilisée dans beaucoup de modèles statistiques. Cependant, utilisée seule, cette variable ne permet pas au modèle d’offrir des résultats stables, c’est pourquoi il est généralement admis d’utiliser d’autres variables dans les modèles (Barnston, 1994, Drobot, 2007).

Les modèles peuvent faire appel à des observations in-situ, à des modélisations externes, à des climatologies ou à des données de télédétection. Les travaux précurseurs de

20

sur les eaux au nord de l’Alaska utilisent l’information sur l’anticyclone de Sibérie pour prévoir la sévérité des conditions de glace au voisinage de la ville de Barrow. Le Barnett Severity

Index (BSI), utilisé pour qualifier la navigabilité des eaux au nord de l’Alaska, est basé sur ces

travaux. Les travaux de Walsh (1980) font quant à eux appel à des décompositions orthogonales en valeurs propres (en anglais : Empirical Orthogonal Functions ou EOF) de données de pression au niveau de la mer, de température de l’air et d’étendue du couvert connue a priori pour prédire l’étendue future quelques mois à l’avance. Plus récemment, les travaux de Pavlova et al. (2014) font appel aux données de vents et aux températures de surface de l’eau pour estimer l’étendue du couvert de glace dans la mer de Barents, au nord de la Scandinavie. Les prédictions du minimum annuel de l’étendue du couvert obtenues grâce à l’approche de régression multiple développée par Drobot et al. (2006) reposent entièrement sur des données de télédétection comme prédicteurs dont la concentration de glace observée, la température de surface de l’océan, l’albédo de surface et l’émissivité de surface.

Une autre perspective statistique, visant à analyser les conditions de glace de mer en fonction de leur probabilité d’occurrence a été utilisée dans quelques travaux récents. Les travaux de Hochheim et al. (2010) sur la Baie d’Hudson utilisent les données historiques du Service Canadien des Glaces et du NSIDC pour établir des cartes de probabilité hebdomadaires des événements de concentrations de glace (SIC) supérieures à 20 % et à 80 %. Avec ces seuils, basés sur les travaux de Galley et al. (2008), la concentration 20 % est utilisée pour suivre l’évolution de la bordure du couvert lors de l’englacement et le seuil de 80 % est utilisé pour identifier les glaces consolidées. Dans Hochheim et al. (2010), les cartes de probabilité sont établies selon la méthode du décompte, qui vise simplement à faire la somme du nombre d’occurrences répondant à une condition donnée (e.g. SIC > 20 %) et à diviser cette somme par le nombre d’année dans la série étudiée. Une autre approche permet de connaître la distribution de probabilité des données; soit l’approche visant à ajuster une distribution théorique aux données et d’en établir les paramètres. C’est dans cette optique que les travaux de Dirkson (2017) ont fait appel à une approche paramétrique, nommée

Trend Adjusted Quantile Mapping (TAQM), pour aider à estimer les probabilités d’occurrences

de concentrations de glace précises en faisant appel à des prévisions d’ensemble générées par un modèle atmosphère-océan global (CanCM3).

21

variées et sont utilisées non seulement pour obtenir des projections mais également, dans certains contextes, comme méthode de comparaison ou approche complémentaire aux approches déterministes.

3.2 La modélisation fréquentielle

3.2.1 Définition et objectifs

L’analyse fréquentielle est une approche statistique de prédiction très utilisée en hydrologie et de plus en plus utilisée pour d’autres champs d’études environnementales. L’approche repose sur l’étude des événements du passé, qui sont caractéristiques du phénomène étudié, afin d’en dériver la probabilité d’occurrence future (Meylan et al., 2008).

Il est possible d’estimer la probabilité d’occurrence future d’un événement précis en ajustant aux données décrivant le comportement passé du phénomène étudié un modèle fréquentiel. Ce modèle fréquentiel est l’expression du comportement du phénomène étudié, exprimé de manière simplifiée sous la forme d’une équation. Cette équation décrit une distribution théorique, ajustée à la distribution de fréquence des occurrences observées du phénomène.

Le processus peut être schématisé, tel qu’en figure 4.

La première étape est une définition juste et claire des buts de l’analyse ce qui permet d’aborder les étapes subséquentes efficacement. Les buts de l’analyse guident les choix en ce qui a trait à l’échelle spatiale (locale, régionale, globale) et temporelle (jour, semaine, mois) des données utilisées dans la démarche.

La deuxième étape est la constitution de la série de valeurs qui est un processus pou- vant s’avérer fastidieux au cours duquel de nombreuses erreurs, liées aux appareils (e.g. sonde thermique, station météorologique, vélocimètre, etc.) et aux conditions d’échantillonnage, peuvent survenir. Il est donc essentiel de procéder à une évaluation de la qualité de la donnée recueillie préalablement aux étapes subséquentes.

L’étape de contrôle de la série statistique vise à tester si la série temporelle des va- leurs réponds à trois conditions préalables à l’ajustement d’un modèle fréquentiel. Ces condi- tions préalables sont l’homogénéité, la stationnarité et l’indépendance des données.

22

Évidemment, le choix du modèle fréquentiel est une étape très importante dans la dé- marche pour assurer que les résultats obtenus soient valides et représentatifs du phénomène à l’étude. Le choix du modèle doit être fait selon la nature du problème à résoudre et les don- nées qui sont disponibles. Généralement, pour assurer un choix optimal, la comparaison de plusieurs distributions théoriques aux données observées permet de sélectionner la meilleure distribution. Néanmoins, avec l’expérience, il est d’usage que certains chercheurs fassent appel directement à une seule distribution (Meylan et al., 2008).

Figure 4: Diagramme des étapes de l'analyse fréquentielle, inspiré de Meylan et al. (2008)

L’étape subséquente est l’ajustement du modèle fréquentiel lequel permet de passer de la distribution empirique des données, mathématiquement complexe à exprimer, vers une forme simplifiée et optimisée grâce à une méthode d’ajustement. Parmi les méthodes d’ajustement les plus utilisées pour ajuster la distribution aux données, notons les méthodes des moments et du maximum de vraisemblance. Une fois ajustée, la distribution théorique peut être exprimée grâce à un petit nombre de paramètres.

Le contrôle de la qualité de l’ajustement peut être fait de manière graphique ou à l’aide de tests et critères spécifiques (Meylan et al., 2008). Notons parmi ces méthodes d’évaluation

Définition des buts de l'analyse