• Aucun résultat trouvé

Choix du modèle à utiliser pour l’estimation d’ET : Modèle MEP

Les différents modèles présentés ci-dessus varient en complexité structurelle, paramétrage et niveau de données requis pour les exécuter. Par conséquent, leur performance dans l’estima- tion de l’évapotranspiration réelle devrait différer selon les types et conditions de surface des terres. De plus, les modèles devraient présenter un comportement différent en ce qui concerne les incertitudes combinées des données d’entrée et des paramétrisations (Massman and Lee,

2002;McCabe et al.,2005;Richardson et al.,2006;Williams et al.,2009;Ershadi et al.,2013,

2014). Par conséquent, la recherche d’un modèle approprié pour une surface terrestre donnée a motivé des chercheurs à lancer des études comparatives des différents modèles. Cependant, la majorité de ces études se sont concentrées sur une évaluation de l’évapotranspiration poten- tielle ou de référence et peu d’études sont concentrées sur l’évaluation de l’évapotranspiration réelle (Trambouze et al., 1998; Xu and Singh, 2002; Lu et al., 2005; Bormann, 2011; Fi- sher et al.,2011;Xystrakis and Matzarakis,2010). Par exemple,Crago and Brutsaert (1992) ont évalué des méthodes complémentaires et combinées, y compris la méthode d’advection- aridité et de Penman-Monteith, sur un site de prairie. Cette évaluation a révélé que l’approche complémentaire avait de meilleures performances dans des conditions généralement humides.

par rapport à des mesures de covariance turbulente de l’évapotranspiration sur un site de pâturage naturel en Floride et ont constaté que la méthode de Priestley-Taylor, avec son coefficient empirique αP T calibré, fournissait les meilleures estimations. Les résultats d’une

étude menée par Cleugh et al. (2007) ont montré que l’approche de combinaison de Penman- Monteith fournit une estimation adéquate de l’évapotranspiration observée et que l’approche basée sur le bilan énergétique ne permet pas d’obtenir une bonne estimation d’ET en rai- son de sa sensibilité aux incertitudes dans les mesures de la température à la surface. Dans une étude de comparaison plus complète, Vinukollu et al. (2011) ont évalué les modèles du bilan énergétique, Penman-Monteith et Priestley-Taylor sur 16 sites de mesure. Les auteurs ont conclu à la supériorité de la méthode de Priestley-Taylor. Plus récemment,Ershadi et al.

(2014) ont évalué quatre différentes méthodes d’estimation d’ET sur vingt sites présentant de caractéristiques de végétation diversifiées. Les modèles différaient par leurs hypothèses, leurs exigences en matière de données et leur paramétrage, allant d’approches plus complexes telles que le modèle de Penman-Monteith et du bilan énergétique à des approches plus simples, telles que les modèles de Priestley-Taylor et d’advection-aridité. Le principal résultat de cette étude de comparaison est qu’il n’existe pas un seul modèle qui performe mieux que tous les autres lorsqu’il est utilisé sur une large gamme de biome. Par exemple le modèle Priestley- Taylor a montré une performance relativement bonne sur l’ensemble des sites à l’exception des sites de type forêts de conifères à feuilles persistante (ENF), probablement en raison de la non-représentativité des indices de végétation dans la paramétrisation de la dynamique phé- nologique. Les résultats de modèle de Penman-Monteith, relativement complexe et décrivant de manière détaillée le processus ET, ont montré une sous estimation significative d’ET sur plusieurs sites testés présentant de biomes différentes. L’évaluation des méthodes ET par rap- port aux mesures a montré que les méthodes testées se sont mieux comportées pendant la saison de croissance mais n’ont pas pu fournir d’estimations fiables d’ET à d’autres périodes de l’année (les mois froids). En plus, une des limites importantes des études d’évaluation des méthodes d’estimation d’ET est l’exclusion de la sublimation de la neige dans les évaluations du modèle (les données pour de telles conditions ont été éliminées dans l’analyse des résul- tats). Bien que le sujet soit important et significatif dans la modélisation ET, la majorité des modèles d’estimation d’ET ont été initialement développés et appliqués couramment dans des conditions non gelées. Cela nécessite une extension de leurs paramètres dans des conditions de gel, une chose en cours de recherche et non encore finalisée. De plus, l’approche hydrologique repose sur le principe du bilan hydrique pour déterminer l’évapotranspiration réelle. Dans cette méthode, l’évapotranspiration est mesurée soit à grande échelle, souvent à l’échelle de l’année (méthode du bilan hydrique), soit à une petite échelle régionale ou échelle ponctuelle (méthode au lysimètre). La méthode micrométéorologique est basée sur l’équation du bilan énergétique ou des équations aérodynamiques pour déterminer l’évapotranspiration. Cepen- dant, les hypothèses de la méthode micrométéorologique sont difficiles à réaliser en réalité, provoquant des erreurs importantes (méthode du rapport de Bowen). De plus, elles néces-

sitent une fabrication complexe de l’instrument, entraînant des difficultés de maintenance et des coûts élevés. Les méthodes fondées sur la physiologie des plantes à travers sa mesure de la consommation d’eau des plantes, déterminent leur transpiration dans le site d’étude. Par conséquent, sa représentativité dans un environnement complexe non uniforme est médiocre. Le principal avantage des approches complémentaires est de diminuer le besoin de données de température de surface et de résistance de surface, mais reposent sur un paramétrage précis de la résistance aérodynamique qui nécessite souvent des paramètres de vitesse et de rugosité du vent. Les modèles de bilan énergétique assouplissent le besoin du paramètre de résistance de surface, mais nécessitent une température de surface et une résistance aérodynamique pré- cises. Les modèles de combinaison détaillent les processus physiques de l’ET, mais nécessitent davantage de données et sont sensibles à la paramétrisation de la résistance de surface, qui est souvent très incertaine. Tous ces problèmes rendent difficile l’applicabilité de ces différentes approches de mesure et d’estimation d’ET dans toutes les conditions climatiques et végétales. Pour que l’estimation de l’évapotranspiration réelle fournisse des informations utiles sur les études hydrologiques et climatiques dans le cadre de changement climatique (variabilité de conditions climatiques et de surface), une approche alternative est nécessaire. Les résultats encourageants obtenus avec la méthode de maximisation de la production d’entropie (MEP) montrent que cette dernière présente une alternative intéressante pour l’estimation de l’évapo- transpiration réelle dans diverses conditions climatiques et de surface (Wang and Bras,2011). Cette méthode présente de nombreux avantages par rapport à d’autres méthodes d’estimation d’ET : (i) elle permet d’estimer les composantes de d’ET séparément notamment l’évapora- tion de sol nu, la transpiration de plantes et la sublimation de neige/glace, contrairement aux autres approches classiques qui nécessite des extensions de leurs paramètres pour les appliquer sur ces différentes surfaces ; (ii) l’estimation d’ET par une telle méthode permet de respecter la fermeture de bilan d’énergie qui est un problème majeur dans les autres approches d’estima- tion classiques ; (iii) la méthode MEP est la méthode la moins exigeante en termes des données d’entrée ce qui la rend moins sensible aux données d’entrée par rapport aux autres méthodes ; (iv) l’estimation de la transpiration ne nécessite pas une paramétrisation de la dynamique phénologique des plantes dans sa structure ce qui permet de simplifier son estimation ; (v) autre que l’estimation d’ET, la méthode MEP permet de déduire les estimations de flux de surface notamment les flux sensible et de surface de sol, ce qui n’est pas le cas dans les autres méthodes classique telle que la méthode de Penman-Montheith qui nécessite le flux de sol lors de l’estimation d’ET ; (vi) même avec moins de variables d’entrée que d’autres modèles ET basés sur des facteurs physiques, le modèle MEP inclut tous les processus physiques essentiels derrière l’ET dans des conditions plus générales (Wang and Bras,2012). Le modèle MEP est donc conçu pour utiliser efficacement un petit nombre de variables d’entrée afin de calculer les flux de surface. Les différentes versions du modèle MEP ont déjà été utilisées avec succès pour estimer l’évaporation sur un sol nu (MEP-Ev), la transpiration sur une végétation dense (MEP-Tr) dans des conditions de disponibilité en eau allant d’humide à modérément limitée

(Wang and Bras,2011) et la sublimation sur une surface neigeuse (Wang et al.,2014b). Des études plus récentes (Shanafield et al.,2015;Wang et al.,2017) ont également testé le modèle MEP-Tr sur un site de forêt humide et le modèle MEP-Ev sur un site aride, sans végétation, avec des résultats encourageants. Cependant, d’autres tests du modèle MEP sont nécessaires pour évaluer sa capacité à estimer la variation saisonnière de l’ET dans des conditions extrêmes à savoir le stress hydrique sévère, la présence de la fonte de neige, la transition printanière en présence d’une couverture partiellement végétalisée. C’est pour ces raisons que nous avons choisi d’étudier la méthode MEP pour estimer ET dans diverses conditions climatiques et végétales afin d’obtenir une estimation pertinente de l’évapotranspiration réelle.

Chapitre 2

Méthode de Maximisation de la

Production d’Entropie (MEP)

Les première et deuxième lois de la thermodynamique établissent des contraintes fondamen- tales pour tout processus naturel. Tandis que la première loi énonce essentiellement la conser- vation de l’énergie, la deuxième énonce de manière spécifique la direction dans laquelle les pro- cessus sont susceptibles d’évoluer. Elle indique que l’entropie d’un système isolé, c’est-à-dire d’un système qui n’échange ni énergie ni de masse avec son environnement, ne peut qu’aug- menter ou, en d’autres termes, que l’énergie libre et les gradients s’épuisent avec le temps. La seconde loi de la thermodynamique fournit ainsi un principe variationnel permettant de déterminer l’état d’équilibre : l’entropie maximale. On peut donc imaginer de contraindre un système à adopter une structure particulière (l’arrangement de molécules, la distribution spa- tiale de l’énergie, la densité, etc.). La structure avec la plus grande entropie est ainsi celle à l’équilibre. Si, à un moment quelconque, le système n’est pas en équilibre (c’est-à-dire qu’il a une structure avec une entropie plus petite), sa structure évoluera alors vers l’équilibre. C’est le principe fondamental de la thermodynamique à l’équilibre (classique). Dans cette thermo- dynamique dite « classique », seules les processus réversibles peuvent être étudiés, au cours desquels le système évolue d’un état d’équilibre à un autre. Cependant, la plupart des pro- cessus réels sont des processus hors équilibre, dynamiques, qui impliquent généralement une dissipation. Une telle dissipation est courante dans les phénomènes naturels tels que le frotte- ment, la déformation permanente des solides, le dégagement de chaleur, etc. Elle ne peut pas être décrite par une physique quasi statique ou invariante dans le temps. Les systèmes mainte- nus loin de l’équilibre thermodynamique dissipent de l’énergie, ce qui entraîne une production d’entropie. Pour les systèmes dépendant du temps ou hors équilibre, de nombreuses tentatives ont été faites pour formuler une loi universelle d’évolution ou un principe variationnel dont l’extrémum déterminerait leur développement. La principale difficulté résulte dans le fait qu’il existe de multiples façons d’être hors équilibre et chaque situation doit encore être étudiée au cas par cas. Les principes variationnels offrent de nombreux avantages conceptuels, mathé-

matiques et informatiques, par rapport aux autres approches Un certain succès a été obtenu dans l’optique (principe de Fermat), la mécanique (principe de la moindre action) et quelques autres disciplines. Les dernières décennies ont vu des avancées significatives, à la fois théo- riques et appliquées, dans la compréhension et la prévision du comportement des systèmes hors d’équilibre au-delà de ce que dicte la deuxième loi. Plusieurs principes hors-équilibres avaient également été proposés, impliquant une production ou une dissipation d’entropie sous une forme ou une autre (voir par exemple l’excellente revue de Martyushev and Seleznev(2006)). La production maximale d’entropie (MEP) est l’un des principes variationnels qui permet de décrire les systèmes hors équilibres dans un état stationnaire. Ce principe est l’objet central de cette thèse. Le principe proposé de maximisation de la production d’entropie (MEP) précise que les systèmes sont poussés vers des états stables pour lesquels ils produisent l’entropie au taux maximum possible compte tenu des contraintes existantes. Le principe de la MEP est une forme d’optimalité qui découle de la thermodynamique de non-équilibre, une conséquence de la deuxième loi de la thermodynamique étendue aux systèmes hors de l’équilibre (Martyushev,

2010a,b).

Cependant, le principe de la MEP est considéré comme non universel étant donné que son application est retreinte à une gamme de systèmes ou encore à des éléments particuliers à la façon dont ces systèmes sont modélisés. En effet, le principe de la MEP est généralement observé pour des systèmes qui sont « suffisamment complexes » ou « ayant suffisamment de degrés de liberté ». Cela pose la question de la manière dont on identifie un système suffi- samment complexe. Par exemple, l’atmosphère de la Terre est loin de l’équilibre, mais n’agit pas comme un système MEP à l’égard de l’absorption et de l’émission des rayonnements de courtes longueurs d’onde, à cause de l’absence de degrés de liberté (Essex, 1984; Dyke and Kleidon,2010). Ainsi, étant donné que le principe de la MEP décrit une certaine catégorie du monde réel, il nous revient d’identifier un à un les systèmes de type MEP. Il s’agit en quelques sortes d’une procédure par essais et erreurs. Un modèle reposant sur le principe de la MEP est alors monté puis vérifié par des observations n’ayant pas servies à son élaboration. Une bonne adéquation entre le modèle et les observations de vérification confirme que ce système est de type MEP, l’inverse réfute cette hypothèse pour ce système. Cette propriété a entrainé une discussion sur le caractère « scientifique » de la MEP. En fait, cette question a été soulevée à plusieurs reprises dans la littérature, depuis le point de vue bien connu de la réfutabilité de Popper(1963). D’une part, un certain nombre d’auteurs (Dewar,2009;Dyke and Kleidon,

2010) ont soutenu l’opinion que la MEP est strictement une astuce statistique pour modéliser le comportement d’un système hors d’équilibre pour lequel les informations sur le système sont insuffisantes. D’autre part, un raisonnement philosophique a été évoqué par I. Lakatos (1970-1978) qui affirme le contraire en arguant le fait que le nombre croissant de documents récents relatifs à la MEP montrant des résultats intéressants vérifiés expérimentalement dans de nombreux domaines de la science, de la physique à la biologie, sont les meilleures preuves à la fois de caractère scientifique et de la puissance de la MEP. Les applications du principe de la

MEP sont en effet nombreuses, allant de la circulation atmosphérique, du cycle hydrologique, aux cycles biogéochimiques. Par exemple, Paltridge (Paltridge, 1978; Paltridge et al., 2007;

Paltridge, 1975) suggère que la circulation atmosphérique maximise la production d’entropie alors que d’autres auteurs ont appliqué ce principe à la biologie (Odum,1969,1988;Schneider and Kay, 1994; Loreau, 1995; Ulanowicz and Hannon, 1987). Le principe de MEP convient aussi aux processus les plus compliqués du système terrestre dont l’évapotranspiration. Wang et al. (2004,2007) ont en effet testé avec succès l’hypothèse que le flux évapotranspiratif à la surface de la terre est maximisé avec les observations de terrain. Étant donné que l’évapotrans- piration est directement liée au transport turbulent de chaleur latente à partir de la surface vers l’atmosphère, ça correspond pour un gradient fixe à la maximisation de la production d’entropie.

Bien que MEP ait été proposé pour des exemples concrets, la production d’entropie en régime permanent est une propriété très générale de la thermodynamique hors équilibre, de sorte qu’elle devrait pouvoir s’appliquer à une grande variété de systèmes hors équilibre. Le pouvoir explicatif du principe MEP n’est pas toujours pleinement apprécié. On ne dispose d’aucun mécanisme ou explication sur la façon dont l’état de la MEP a été atteint dans ces systèmes ou d’autres. Un certain nombre d’études de Dewar (2003, 2005a, 2009) visant à établir ses fondements théoriques sont basés sur la théorie de l’information (Shannon,1948). Cette ligne de recherche vise essentiellement à associer le principe de la MEP à une extension de la procédure d’entropie maximale (MaxEnt) de Jaynes dans les systèmes thermodynamiques hors équilibre.

2.1

Principe du maximum d’entropie (MaxEnt)

L’objectif pratique de la mécanique statistique (à l’équilibre ou hors équilibre) est de prédire le comportement macroscopique sur la base d’un nombre relativement restreint de contraintes dynamiques, sans avoir à résoudre les équations sous-jacentes du mouvement dans toute leur complexité. C’est ici qu’intervient MaxEnt. Dans son contexte de théorie de l’information, MaxEnt est une méthode d’inférence générale que les scientifiques peuvent utiliser pour for- muler les hypothèses et les prévisions les plus précises ou les plus probables à propos des systèmes. Jaynes est parmi les premiers auteurs modernes à avoir introduit le formalisme du MaxEnt par la théorie de l’information. La reformulation de la mécanique statistique par Jaynes en termes de théorie de l’information (Shannon, 1948) a ouvert la voie à l’extension de la logique sous-jacente à la mécanique statistique à l’équilibre à la mécanique statistique hors l’équilibre, ainsi que de nombreux autres problèmes d’inférence statistique (par exemple, reconstruction d’image, analyse spectrale, problèmes inverses). Dans toutes les applications de cette logique, la recette de base consiste à maximiser l’entropie d’informations de Shan- non, sous réserve des contraintes imposées par les informations disponibles - un algorithme désormais connu sous le nom de MaxEnt (Jaynes, 1991, 2003). Dans ce qui suit, nous allons

présenter la dérivation de MEP de MaxEnt. Pour ce faire, nous devons comprendre MaxEnt et plus précisément ce que signifie le choix d’une distribution de probabilité à maximum d’en- tropie contenant une information qui soit compatible avec des contraintes connues sur cette distribution.

2.1.1 Loi de maximum d’entropie (MaxEnt)

Considérons une variable aléatoire discrète X prenant n valeurs x1, ..., xn, et attribuons les pro-

babilités p1, ..., pnà ces valeurs pour représenter notre information partielle sur cette variable.

En science, il arrive très souvent qu’une quantité ne puisse pas être observée directement ou, même si elle le peut, les observations sont entachées par des incertitudes ou du bruit de sorte que si nous répétons les expériences dans les mêmes conditions, nous obtenons en pratique des valeurs différentes. Cependant, dans l’approche bayésienne, pour une expérience donnée, nous devons utiliser les données telles qu’elles sont et nous voulons les déduire de ces obser- vations. Avant de commencer l’observation et la collecte de nouvelles données, nous en avons une connaissance très incomplète. Cette connaissance incomplète se traduit en théorie des probabilités via une loi de probabilités a priori (voir ci-dessous pour plus de détails sur la procédure). Lorsqu’une nouvelle observation (donnée D) sur X devient disponible (directe ou indirecte), nous acquérons des connaissances via la vraisemblance P (D | X). Notre état des connaissances est mis à jour en combinant P (D | X) et P (X) pour obtenir une loi a posteriori P (X | D), qui représente le nouvel état des connaissances sur X. C’est la règle de Bayes, qui s’énonce ainsi :

P (X | D) = P (D | X)P (X)

P (D) (2.1)

Comme P (X | D) doit être une loi de probabilité, nous avons :

P (D) =P

XP (D | X)P (X) (2.2)

La quantité d’informations qu’elle contient est associée à une loi de probabilité.

Dans ce contexte de raisonnement,Shannon(1948) a introduit la notion de quantité d’informa- tion (Ii) associée à l’une des valeurs possibles de xisur X avec les probabilités P (X = xi) = pi

définit par Ii = ln(1

pi) = − ln(pi). D’après cette expression, plus un évènement est rare, plus

le gain de l’information obtenu par sa réalisation est grand. De plus, l’opération logarithme permet la sommation de toutes les informations issues des réalisations des évènements in- dépendants. Ainsi, l’entropie de Shannon correspond à la somme pondérée des informations individuelles de chaque réalisation et son expression est :

S = n X i=1 piln(1/pi) = − n X i=1 piln(pi) (2.3)

L’entropie S correspond à la quantité d’information. C’est une mesure d’incertitude de la dis- tribution p1, p2, ..., pn déterminée uniquement par certaines règles élémentaires de cohérence

logique et d’additivité (Jaynes, 1982,1985). Il est important de souligner que la notion d’en- tropie au sens de Shannon n’a aucun lien direct avec l’entropie classique en thermodynamique, même si pour un système physique particulier, nous pouvons attribuer une loi de probabilité