• Aucun résultat trouvé

Etude des flux entre la couverture atmosphérique et la couverture végétale

N/A
N/A
Protected

Academic year: 2021

Partager "Etude des flux entre la couverture atmosphérique et la couverture végétale"

Copied!
38
0
0

Texte intégral

(1)

HAL Id: hal-02818773

https://hal.inrae.fr/hal-02818773

Submitted on 6 Jun 2020

HAL is a multi-disciplinary open access archive for the deposit and dissemination of sci-entific research documents, whether they are pub-lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.

Etude des flux entre la couverture atmosphérique et la

couverture végétale

Alexis Durand

To cite this version:

Alexis Durand. Etude des flux entre la couverture atmosphérique et la couverture végétale. [Stage] Université Toulouse III - Paul Sabatier (UPS), FRA. 2007, 37 p. �hal-02818773�

(2)

RAPPORT DE STAGE DE DEUXIEME ANNEE :

IUT MESURES PHYSIQUES TOULOUSE

Etudes des Flux entre la couverture atmosphérique et la couverture

végétale

Du 10 avril au 15 juin 2007

(3)
(4)

Remerciements

Je tiens à remercier Jean-Marc BONNEFOND pour avoir pris le temps de me faire découvrir le domaine des flux turbulents pendant le stage, et pour avoir répondu à toutes les questions que je me posais, avec patience et gentillesse.

Je remercie également Didier GARRIGOU et Sandra DEBESA pour m’avoir amené régulièrement sur les différents sites de mesures, et pour tout ce qu’ils m’ont appris.

Je remercie Mr LOUSTAU qui m’a permis d’effectuer mon stage dans le domaine de la grande Ferrade et toute l’équipe d’EPHYSE pour sa bonne humeur et sa convivialité. Merci aussi aux autres stagiaires pour l’aide quotidienne qu’ils m’auront fournie.

Je remercie aussi tous les enseignants de L’IUT Mesures Physiques qui, grâce aux connaissances qu’ils m’auront apprises, m’ont permis de travailler sur ce sujet de stage.

Enfin je tiens à remercier tous les faisans, huppes et autres buses qui ont eu la gentillesse d’égayer mon stage tout au long de ces dix semaines…

(5)

Résumé

La campagne de mesures CarboEurope sur laquelle est basée ce stage permet d’estimer les échanges de carbone et de vapeur d’eau entre l’atmosphère et les couverts végétaux. Pour cela de nombreux capteurs de différents types ont été utilisés (thermocouples, pyranomètres, anémomètres…).

Ainsi dans ce rapport, ont été abordés l’utilisation et le fonctionnement de ces différents capteurs qui auront permis de mesurer ces grandeurs climatiques, ainsi que les précautions d’utilisation nécessaires à leur bon fonctionnement.

Cette étude a permis d’améliorer les tests de qualité sur la sélection des données, en partant d’un protocole établi dans d’autres conditions. Les différents tests auront donc été étudiés afin de pouvoir les optimiser. Puis il aura été montré qu’il est judicieux de séparer les données de jour et les données de nuit pour le test d’écart-type.

Enfin les bornages des tests du skewness et du kurtosis ont été modifiés afin d’améliorer la sélection des données.

Toutes ces modifications auront donc eu pour effet de diminuer à la fois le nombre de données perdues, et d’augmenter l’homogénéité des trois flux étudiés.

The labo where I have undertaken my work experience is part of the integrated measurement campaign “CarboEurope”. The aim of this campaign is to estimate the water vapour and carbon exchanges between the atmosphere and vegetated surfaces. For this reason, several meteorological sensors have been used (thermocouples pyranometers, anemometers…). In this report, we review these different sensors which measured the studied parameters. Also, we study the important precautions for the great functioning of these sensors.

The aim of this study is to improve quality tests for data selections, based on a protocol made in different conditions. Theses different tests have been studied in order to optimize them. Next, we showed that it’s judicious to divide the day data and the night data for the standard deviation test.

Finally, limits of these skewness test and kurtosis test have been altered in order to improve data selection. All these modifications have reduced the number of deleted data and also they have decreased the number of spikes in the three fluxes.

I Introduction

First Key Word: measures chain Secondary Key Words: Sensors

Data treatment Mot-clef principal : Chaîne de mesures

Mots-clefs secondaires : - Capteurs

(6)

I Introduction………....

II présentation du stage………

1) Présentation de l’INRA

a) L’institution nationale

b) L’unité de Recherche EPHYSE

2) Présentation du sujet du stage

a) Définition du sujet du stage ; objectifs b) Environnement de travail

III Méthode d’estimation des Flux et Acquisition des mesures……

1) Méthode directe de mesure des flux

a) Définition d’une densité de Flux b) Méthode de Calcul des Flux

c) Présentation des différents types de Flux 2)

Mesures

a) Mesures de la température b) Mesures du rayonnement c) Mesures du vent

d) Mesures de la vapeur d’eau et du gaz carbonique

IV Tests et dépouillement des données………...

1) Présentation des différents tests

a) Moyenne et écart-type (Tests de vickers) b) Tests du skewness et du kurtosis

c) Tests de Foken

2) Interprétation de l’application de ces tests

V Conclusion………..

VI Bibliographie………....

VII Lexique ………...

VIII Bilan Personnel...

(7)

I Introduction

Le réchauffement climatique est une des problématiques majeures sur lesquelles travaille l’INRA actuellement. L’augmentation des émissions de gaz à effet de serre, et le caractère mondial des dérèglements climatiques a poussé de nombreux pays à se mobiliser. Depuis 1996 avec le projet EuroFlux, et aujourd’hui à travers la campagne CarboEurope, l’unité écologie fonctionnelle et physique de l’environnement de l’INRA étudie les échanges de flux gazeux entre l’atmosphère et les couverts végétaux dans le but de mieux appréhender le réchauffement climatique dû à l’augmentation anthropique de la concentration atmosphérique des gaz à effets de serre.

Ainsi l’INRA, et de nombreux autres organismes comme le CESBIO ou Météo-France, participent depuis février 2007 à la campagne Regional Experiment destinée à mesurer les flux de carbone, de chaleur sensible et latente au-dessus des forêts sur un peuplement de pins maritimes afin de mieux comprendre comment évolue une masse d’air marin quand elle pénètre dans les terres. Ces études sont menées par les groupes de compétences « processus physiques» et « processus biologiques » installés au sein de l’unité EPHYSE de Villenave d’Ornon près de Bordeaux (GIRONDE 33).

C’est dans ce cadre que j’ai suivi l’appareillage de Régional Experiment, nécessaire à l’acquisition des flux, et que s’est situé mon travail sur la qualité des données. Celui-ci consistant à trier les données mesurées, en travaillant sur les différents tests mis en place par certains scientifiques, dans le but de rendre les séries de données plus fiables.

Dans un premier temps nous nous attacherons donc à redéfinir plus longuement le contexte dans lequel a été effectué ce stage, en donnant une description rapide de l’INRA, et en définissant l’environnement de travail.

Puis nous développerons les capteurs qui auront permis de mesurer les grandeurs nécessaires à l’estimation des flux, en ayant auparavant défini ceux-ci. En conséquent nous détaillerons donc le fonctionnement des anémomètres soniques, des analyseurs de gaz, des capteurs de rayonnement.

Enfin nous développerons les tests de qualités et nous détaillerons les améliorations qui auront été effectuées afin d’obtenir des données plus facilement exploitables.

(8)

II Présentation du stage

II.1) Présentation de l’INRA

II.1.a) une institution nationale

Au lendemain de la Seconde Guerre Mondiale, la France n’est plus capable de nourrir ses citoyens. C’est dans ce contexte que fut créé l’Institut National de Recherche Agronomique, avec pour mission de mettre la technologie au service du développement de l’agriculture en améliorant les techniques de production et de sélection animale. Dans les années 1980, les questions agricoles et agroalimentaires se complexifient : phénomènes de surproduction, prise de conscience de la pollution due aux activités agricoles, première politique agricole commune… Partout, les questions sur l'environnement, les conditions de production et la qualité des produits deviennent pressantes. En conséquent depuis 1984, l’institut se voit confier des missions plus variées. A partir de cette année là l’INRA s’occupe donc de l’amélioration de la qualité des produits, ainsi que de la protection et de la gestion des ressources naturelles et de l’espace rural. La finalité de la recherche agronomique est aujourd'hui de contribuer à une alimentation saine et équilibrée, une "éco-agriculture" compétitive, une valorisation performante des produits de l'agriculture et de la forêt, un environnement préservé, un espace rural valorisé, pour un développement durable au niveau planétaire.

Afin de remplir au mieux cette mission, l’INRA est composé de 9 000 personnes, dont 2 500 ingénieurs et 1 900 chercheurs. Ceux-ci sont répartis dans 21 centres regroupant 200 sites de recherche à travers la France métropolitaine et l’Outre Mer. Afin d’organiser cette recherche au mieux, différents axes ont été définis :

- La protection des ressources naturelles grâce à l’étude des écosystèmes cultivés, forestiers et naturels.

- L’alimentation et la sécurité alimentaire par l’amélioration génétique de certains aliments, et l’étude des relations alimentation-santé.

- La bio-informatique.

- La biologie intégrative en étudiant l’être vivant du génome à l’organisme complet. - Les sciences sociales.

L’institut dans un souci de développement, noue de nombreux partenariats aussi bien avec les pays en voie de développement (Inde, Chine), qu’avec d’autres organismes de recherche comme le CNES, le CNRS, le CIRAD...

(9)

II.1.b) L’unité de recherche EPHYSE

La région Aquitaine compte 15 sites répartis de la façon suivante sur le territoire régional :

Les unités basées dans cette région travaillent sur plusieurs thèmes de recherche dont celui des processus de transfert turbulent et le fonctionnement physique et écophysiologique des écosystèmes forestiers à différentes échelles.

L’unité EPHYSE (Ecologie fonctionnelle et Physique de l’Environnement), travaille en grande partie sur ce domaine de recherche. En effet depuis plusieurs années l’unité, dans le cadre de la campagne CarboEurope, quantifie les flux de carbone, de vapeur d’eau, et d’énergie à l’échelle d’une forêt.

Cette unité de recherche d’une trentaine de personnes réparties en 3 groupes de compétences :

- Un groupe « télédétection » qui étudie les capteurs à distance, et la surface de la terre grâce aux images satellites.

- Un groupe « processus biologiques » qui étudie les plantes, tout au long de leur vie, en utilisant des méthodes biologiques (mesure de sève, de circonférence de tronc...)

- Un groupe « processus physiques » qui étudient les flux dans l’atmosphère, sur une période donnée.

(10)

II.2) Présentation du sujet du stage

II.2.a) Contexte : La campagne CarboEurope

Les quantifications des échanges des flux gazeux se font dans le cadre de la réalisation d’une base de données mondiale FLUXNET. Cette base regroupe les données de diverses études regroupant de nombreux pays :

-AmeriFlux pour l’Amérique du Nord et du Sud.

-AsiaFlux pour l’Asie.

-OzFlux pour l’Océanie.

-CarboEurope pour l’Europe.

-Carboafrica pour l’Afrique.

Le but de ce programme est de mieux comprendre les échanges de flux gazeux entre l’atmosphère et les couverts végétaux, en déterminant précisément l’activité de ces dernières. De plus ce programme doit aussi comprendre les mécanismes de fonctionnements du cycle du carbone dans les écosystèmes européens. Enfin à l’heure où se pose enfin la question du réchauffement climatique, ce programme s’inscrit entièrement dans une meilleure compréhension des émissions de carbone et des gaz à effet de serre.

II.2.b) Définition et objectifs du stage

Mon stage, effectué à l’unité EPHYSE s’inscrit dans le cadre de Regional Expériment (cette campagne étant elle-même intégrée à CarboEurope). Il a pour but de suivre les capteurs et les analyseurs qui réalisent l’acquisition des mesures. Ceux-ci étant répartis sur 3 sites différents, qui seront détaillés à la suite de ce paragraphe.

L’objectif principal de mon stage réside dans l’analyse et l’étude des méthodes de traitement des données. En effet, une fois celles-ci récoltées, elles subissent une série de tests mathématiques, dont les limites demeurent très floues. Ces dits tests ayant pour buts d’éliminer les valeurs aberrantes. En fait à l’issue de chaque test, soit la valeur est considérée comme bonne et on lui attribue la valeur 0, soit elle est considérée comme mauvaise, et on lui attribue la valeur 2. Seulement, les tests (et leurs bornages) définis empiriquement, dans d’autres types de couverts végétaux, éliminent un trop grand nombre de données, ce qui ne permet pas de calculer les cumuls des flux avec certitude. Il s’agira donc de faire en sorte de réduire les pertes de données, tout en obtenant des flux propres et non bruités.

Puis, les bornes de ces différents tests devront être étudiées et discutées pour déterminer l’impact du choix de ces bornes sur nos données.

Enfin, nous verrons s’il est possible de déterminer des tests supplémentaires, ou s’il est possible de mettre en place un protocole qui permettrait de s’affranchir de la partie subjective du traitement des données.

II.2.c) Environnement de travail

- Le site du Bray

Le site du Bray est le plus ancien des sites suivis par l’unité, il se situe à une vingtaine de kilomètres de bordeaux, dans la forêt landaise. Il fait partie de ceux qu’on appelle la lande

(11)

humide, c'est-à-dire que le jour où la culture de pin s’arrêtera, la parcelle se retransformera en marécage.

La forêt qui constitue le site est composée de pins d’une quarantaine d’années. Cette dernière sera coupée dans quelques années, ce qui marquera certainement un changement d’étude. Cette zone possède une densité d’arbres de 425 unités par hectare, ces derniers ayant une hauteur moyenne de 22 mètres.

La parcelle est plane et homogène ce qui en fait un site très intéressant pour appliquer la méthode des covariances turbulentes, qui est à la base du stage.

Le site de mesures est constitué d’une cabane, contenant les micro-ordinateurs qui stockent les données prélevées, ainsi que la centrale qui coordonne la chaîne de mesures, et d’une tour d’une hauteur de quarante mètres où sont effectuées toutes les mesures.

Afin de pouvoir estimer le vent dans les couverts végétaux, des anémomètres ont été disposés sur toute la longueur de la tour, ce qui nous permet d’obtenir un profil fiable de la vitesse du vent en fonction de l’altitude. De plus, des psychromètres ont été disposés sur la tour, afin d’obtenir un profil de température, qui une fois couplé avec le profil de vitesse du vent nous permettra de remonter au flux de chaleur sensible

Puis dans le but de déterminer l’énergie stockée dans notre système, on positionne un anémomètre sonique, à quarante mètres, afin de déterminer les flux passant dans la canopée. Un second anémomètre sonique, situé tout en bas de la tour, déterminera les échanges d’énergie entre la zone supérieure et inférieure de la forêt. Aussi, dans le but de donner une estimation des flux de chaleurs latentes et de carbones, des analyseurs de gaz ont été couplés avec les anémomètres soniques. Le fonctionnement de ces analyseurs de type « open path » sera détaillé plus en aval de ce rapport.

Enfin il est nécessaire de suivre l’évolution du rayonnement, grandeur qui influence l’ordre de grandeur des flux gazeux. Pour cela nous utiliserons des pyranomètres (mesure des courtes longueurs d’ondes), des pyrgéomètres (mesures des grandes longueurs d’ondes), des pyrradiomètres (mesure de toutes les longueurs d’ondes) et des capteurs mesurant le rayonnement qu’emmagasine la plante (PAR).

(12)

-Le site de Bilos Le site de Bilos est situé à 50 km de Bordeaux, et à quelques kilomètres de la côte atlantique. Cette parcelle, qui à l’origine était en coupe rase, a été plantée en deux fois. Ainsi la moitié de la parcelle a été plantée, il y a 4 ans, et l’autre moitié un an plus tard. Les flux étudiés étant les mêmes qu’au Bray, des capteurs identiques ont alors été disposés. Ce site est donc composé de deux mâts de mesure contenant chacun un anémomètre sonique. Le mât principal contient également des pyranomètres ainsi que des pyrradiomètres, et des analyseurs d’eau et de carbone de type « open path ». Le fonctionnement de ce type d’analyseur sera détaillé plus loin dans ce rapport.

Des cannes à profils de températures sont également présentes. Toutes ces données sont recueillies par une centrale, puis elles sont stockées dans un micro-ordinateur.

-Le site de la Cape Sud

Le site de la Cape Sud, également situé à 50 km de Bordeaux, est lui implanté sur une culture de maïs irriguée. Le matériel implanté est similaire à celui de Bilos. Il contient également un anémo-girouette qui mesure à la fois la vitesse du vent et sa direction. L’analyseur de gaz est de type close path, de manière à ce que les mesures ne soient pas pertubées par l’arrosage. Tout comme les analyseurs open path, leur fonctionnement sera plus amplement détaillé dans la partie mesure.

(13)

III Méthode d’estimation des flux et Acquisition des mesures

III.1) Méthode directe de mesure des flux

III.1.a) Définition d’une densité de flux

Une densité de flux est une grandeur permettant de quantifier le nombre d’éléments circulant

à un endroit défini pendant un temps donné. Ainsi celui-ci se mesure donc en kg.m-2.s-1.

Seulement il est possible de considérer cette densité comme le produit d’une concentration et d’une vitesse. En effet :

[Flux] = Kg m-2s-1 =kg.m-3*m3.s-1*m-2

Ici nous exprimons cette grandeur comme le produit d’une concentration d’un débit et d’une surface, en intégrant des mètres cubes dans notre équation. Or nous savons, d’après les cours de mécanique des fluides de Mr Olive, qu’une vitesse n’est autre que le quotient d’un débit et d’une surface, par conséquent :

[Flux] = Kg m-2s-1 = kg.m-3*m.s-1

=[C]*[V]

III.1.b) Méthode

Cette méthode est considérée comme une méthode de référence car elle permet une estimation directe de la densité de flux, sans hypothèse contrairement à la méthode du rapport de Bowen.

Le principe de la méthode d’eddy correlation est de prendre chaque point d’un jeu de données x et de dire qu’en fait ce point est tout simplement égal à la moyenne du jeu de donnée plus ou moins un certain écart (décomposition de Reynolds). En effet :

si l’on considère un jeu de données X, on peut lui attribuer une moyenne x et un écart type x’. De là nous pouvons donc dire :

c'

w'

c

w'

c'

w

c

w

)

'

(

*

)

'

(

+

+

+

=

+

+

=

=

Fc

c

c

w

w

WC

Fc

Or si l’on considère que l’on se situe sur une zone suffisamment grande et suffisamment plane, il n’y a pas de déplacement vertical de masse d’air, même si il peut y avoir des tourbillons ou des zones de pertubations locales. Mais en intégrant sur une période de temps importante, il ne devrait pas y avoir de vent vertical. Il est à noter cependant que cette hypothèse ne serait pas correcte en montagne car la pente causerait un déplacement de la masse d’air. Nous pouvons donc dire que la valeur moyenne est nulle. De plus en posant comme hypothèse que la moyenne de la moyenne est égale à la moyenne nous obtenons donc :

(14)

La moyenne du flux de carbone est donc égale à la moyenne du produit des fluctuations de w et de c pendant le temps de mesure. Sur le graphique ci-dessous, on observe facilement l’évolution de la concentration en carbone, indispensable à l’estimation du flux de carbone, qui est constitué de fortes variations autour de sa valeur moyenne.

14 14,2 14,4 14,6 14,8 15 15,2 15,4 15,6 15,8 16 13000 13200 13400 13600 13800 14000 14200 14400 14600 14800 Temps15000 CCO2 (mmol/m3) 1000 1050 1100 1150 1200 1250 CH2Ommol/m3 CO2 H2O

Variation de la concentration en carbone et en eau en fonction du temps (à 20Hz)

III.1.c) Définitions des différents types de flux

Au cours de cette campagne de mesures seront mesurées trois principaux flux de scalaire : le flux de gaz carbonique dont nous nous sommes servis d’exemple pour expliquer l’estimation des flux, mais aussi le flux de chaleur latente et le flux de chaleur sensible.

Flux de chaleur sensible :

H : Flux de chaleur sensible (W.m-2) ρ : masse volumique (kg.m-3) Cp : Capacité calorifique (J.kg-1.K-1)

w’ : Fluctuation du vent vertical T’ : Fluctuation de la température H = ρ.Cp.w’T’

Le flux de chaleur sensible correspond aux échanges d’énergies emmagasinés ou restitués par les couverts végétaux au cours de la journée. Un flux de chaleur sensible est nul juste avant le lever du soleil, augmente régulièrement jusqu'à la mi-journée et ensuite décroît jusqu'à devenir négatif la nuit. En effet l’arbre diffuse de la chaleur toute la journée car l’atmosphère est plus fraîche (l’air absorbant très peu le rayonnement). La nuit le phénomène s’inverse car l’arbre devient plus froid que l’atmosphère, à cause de la température apparente du ciel (qui est en moyenne de -20°C).

Aussi il est donc normal d’observer des variations sur l’amplitude des cycles, ceux-ci dépendant directement du rayonnement.

(15)

Flux de chaleur sensible (H) : Données Brutes septembre 2005

-100 0 100 200 300 400 500 600 26/08/2005 00:00 31/08/2005 00:00 05/09/2005 00:00 10/09/2005 00:00 15/09/2005 00:00 20/09/2005 00:00 25/09/2005 00:00 30/09/2005 00:00 05/10/2005 00:00 temps H (W.m-2)

Flux de chaleur latente :

LE = ρ.L.w’q’

Le flux de chaleur latente correspond au flux d’énergie accompagnant le changement d’état de l’eau en vapeur à température constante. Ainsi tant que le soleil ne s’est pas levé, celui-ci doit être nul vu qu’il n’y a pas de rayonnement arrivant sur le sol. Puis le flux d’évaporation doit régulièrement augmenter au fur et à mesure que le soleil grimpe dans le ciel, pour enfin se mettre à décroître lorsque le soleil commence à décliner et atteindre zéro la nuit.

LE : Flux de chaleur latente(W.m-2) ρ : masse volumique (kg.m-3) w’ : Fluctuation du vent vertical

q’ : Fluctuation de l’humidité

Flux de chaleur latente (LE) : Données brutes MAI 2005

-100 0 100 200 300 400 500 600 16/05/2005 00:00 18/05/2005 00:00 20/05/2005 00:00 22/05/2005 00:00 24/05/2005 00:00 26/05/2005 00:00 28/05/2005 00:00 30/05/2005 00:00 01/06/2005 00:00 03/06/2005 00:00 temps LE

(16)

Flux de carbone : Fc=w’c’

Fc : Flux de gaz carbonique (kg.m-2.s-1)

w’ : Fluctuation du vent vertical c’ : Fluctuation du carbone

Le flux de carbone correspond à la quantité de carbone échangée par mètre carré et par seconde. La nuit, le phénomène qui oriente les échanges de carbone est ce qu’on appelle la respiration : les stomates de l’arbre se ferment, et il évacue du gaz carbonique, auquel vient s’ajouter la respiration des micro-organismes qui séjournent en son sein. Le jour ceux-ci continuent de respirer, mais la photosynthèse s’active, avec l’ouverture des stomates, et devient prépondérante. De ce fait, l’arbre se met à stocker du carbone. Toutefois il arrive que ce cycle soit fortement perturbé par les journées de fortes chaleurs. En effet, à partir de ce moment là, la plante ferme ses stomates et se comporte donc comme si elle se situait en période de nuit.

Flux de Gaz carbonique : Mai 2005 données brutes

-50 -30 -10 10 30 50 70 90 16/05/2005 00:00 18/05/2005 00:00 20/05/2005 00:00 22/05/2005 00:00 24/05/2005 00:00 26/05/2005 00:00 28/05/2005 00:00 30/05/2005 00:00 01/06/2005 00:00 03/06/2005 00:00 tem ps Fc (Kg.m-2.s-1)

Il est bon de constater que de nombreux cycles présentent des anomalies qui n’ont pas de sens du point de vue de l’écophysiologie, alors que d’un point de vue physique il n’y a a priori pas d’erreur. Les tests que nous développerons par la suite auront donc pour but de supprimer ces anomalies tout en conservant les données correctes.

(17)

2) Mesures

a) Mesures de températures

Comme nous l’avons vu en cours de thermodynamique, la force électromotrice du thermocouple vient de la soudure effectuée entre deux métaux différents. Il se produit donc ce que l’on appelle un effet Seebeck, qui produit une différence de potentiel entre les deux métaux lorsque ceux-ci ne sont pas soumis à la même température. Les thermocouples utilisés sont de type T, c'est-à-dire que le premier métal est en fait le cuivre et le second un alliage de cuivre et de nickel (constantan). Ce thermocouple possède une sensibilité de 40 µV / °C et a une étendue de mesure allant de -185°C à +300°C.

Les températures sont exprimées normalement en degré kelvin (système international), mais l’usage des degrés Celsius est bien plus répandu. La transformation à effectuer pour passer de l’un à l’autre est une soustraction ou une somme car il ne s’agit que d’une variation d’offset.

T(°C) = T(°K) – 273,15

La température n’étant pas une grandeur mesurable, il faudra donc veiller à ne pas exposer les capteurs aux rayonnements.

b) Mesures de Rayonnements

La mesure du rayonnement est en fait la mesure d’une partie ou de la globalité du spectre électromagnétique. Il existe deux types de capteurs de rayonnement : les capteurs thermiques qui transforme l’énergie reçue en chaleur, puis cette dernière en force électromotrice, et les capteurs quantiques qui génèrent une force électromotrice proportionnelle au nombre de photons reçus sur la surface active. Les capteurs thermiques peuvent être regroupés en deux types de thermopiles : celles à échanges verticaux, et celles à échanges horizontaux. Les premières sont constituées d’une rondelle en laiton traversée par 2 rangées de tiges de cuivre collées sur lesquelles sont soudées, en zigzag, des lamelles constituées de constantan sur une moitié de leur longueur, et de manganine sur l’autre moitié. La surface constituée par les lamelles étant recouverte d’une couche de peinture absorbante, le rayonnement échauffe cette surface et le flux thermique évacué par conduction produit un gradient de température ; il en résulte aux bornes de la thermopile une force électromotrice quasi-proportionnelle au rayonnement incident.

(18)

Les thermopiles à échanges horizontaux fonctionnent dans un principe un peu différent : le principe consiste à mesurer l’écart de température entre deux surfaces exposées au rayonnement, une noire absorbant le rayonnement et une blanche le réfléchissant. Cet écart créé est proportionnel au rayonnement incident.

Schéma d’une thermopile à échanges verticaux dite de moll

Schéma d’une thermopile à échanges horizontaux

Il existe plusieurs types de capteurs de rayonnements, que nous classerons en trois catégories : ceux qui mesurent les courtes longueurs d’ondes, ceux qui mesurent les grandes longueurs d’ondes, et ceux qui les mesurent toutes. Il est à noter que les thermopiles à échanges horizontaux ne fonctionnent pas dans l’infrarouge, car les composants noirs et blancs ont tous les deux une émissivité de 1. Il vaut donc mieux privilégier les thermopiles à échanges verticaux dans le domaine des grandes longueurs d’ondes. Dans tous les cas, les pyranomètres sont conçus pour mesurer les longueurs d’ondes comprises entre 0 et 3µm.

Dans la première catégorie, nous retrouvons les pyranomètres, qui sont des capteurs thermiques, fonctionnant donc selon le principe d’une thermopile. Ces capteurs mesurent le rayonnement global et aussi éventuellement le rayonnement réfléchi.

Il existe d’autres types de pyranomètres qui mesurent par exemple seulement le rayonnement diffus en cachant les rayons du soleil du capteur. Ainsi seuls les rayons diffus atteindront la zone absorbante.

(19)

Pour les longueurs d’ondes plus importantes, il est nécessaire d’utiliser des pyrradiomètres qui mesurent les longueurs d’ondes de 0 à 3 000 µm. Pour un fonctionnement optimum de ces capteurs il est nécessaire d’obtenir une horizontalité parfaite, et d’éviter les ombres portées des autres capteurs situés à proximité.

Pyrradiomètre mesurant le rayonnement jusqu'à 3 000 µm c) Mesures du vent

Tout comme le rayonnement, il existe de nombreux capteurs pour mesurer la vitesse du vent. Nous ne parlerons que des 3 catégories que nous utiliserons : les anémomètres à coupelles classiques, les anémomètres à hélices (autrement appelés anémo-girouettes), et les anémomètres soniques.

La première catégorie fonctionne en déclenchant une impulsion électrique à chaque fois que la coupelle adopte une position précise. Ce déclenchement varie suivant les marques d’anémomètres, ainsi chez CIMEL une impulsion électrique est envoyée tous les tours, ce qui nous permet de remonter aisément à la vitesse du vent, puisque pour cette marque un tour en une seconde correspond à un mètre parcouru par l’air durant ce même intervalle de temps.

Anémomètre à coupelles

La seconde catégorie est plus sophistiquée, celle-ci n’étant apparue que plus récemment. Tout comme les anémomètres classiques, les anémomètres à hélices sont dotés d’un capteur qui envoie un nombre d’impulsions équivalent au nombre de tours. Mais aussi l’avantage de cet anémomètre à hélices est qu’il se comporte comme une girouette, il est donc directionnel et permet de connaître, non seulement la force du vent à un instant t, mais aussi son sens.

(20)

Anémomètres à hélices.

Enfin il existe ce qu’on appelle les anémomètres soniques, qui mesurent la vitesse du vent dans chaque dimension de l’espace grâce à la vitesse du son. Ces anémomètres sont constitués de trois couples d’émetteur-récepteur identiques. Les émetteurs envoient un signal électronique, que récupère le récepteur, puis une fois la réception effectuée le récepteur devient émetteur et l’émetteur récepteur. Le temps écoulé entre l’émission et la réception du signal permet de remonter à la vitesse du son dans la dimension mesurée. En effet, pour le couple E/R qui mesure w nous avons :

De 2 vers 1 :

d : Distance entre le couple E/R

t2 : Temps mis par l’impulsion pour

aller de 2 vers 1.

t1 : Temps mis par l’impulsion pour

aller de 1 vers 2.

c : vitesse du son dans l’air.

w c d t2 − = 1 2 1 2 t. t t t 2 d w= − D’où : De 1 vers 2 : d w c t1 = + W d t2 t1 E/R E/R 2 1

Schéma d’un anémomètre sonique Anémomètre sonique

Tout comme les capteurs de rayonnements, il est nécessaire de régler l’horizontalité avant d’utiliser les capteurs. De plus il faut les placer de manière à s’éloigner des obstacles ou que ceux-ci ne se trouvent pas dans la direction des vents dominants.

d) Mesures de la vapeur d’eau et du gaz carbonique

Les mesures de la vapeur d’eau et du gaz carbonique sont des éléments essentiels dans la détermination des flux de carbone et d’évaporation. Il existe deux types d’analyseurs, ceux

(21)

dits à cellules ouvertes, et ceux dits à cellules fermées. Les seconds étant plus couteux on ne les emploie que dans les zones avec risque d’arrosage afin de ne pas fausser les mesures. Par exemple, l’arrosage du champ de maïs à la Cape Sud perturberait considérablement la mesure du taux d’humidité dans l’air, si l’analyseur était à cellule ouverte.

Les analyseurs de types open path sont constitués d’une source rayonnante dans le proche infra rouge qui envoie un rayon sur un porte filtres en rotation permanente. Le premier filtre est entièrement opaque, afin de déterminer le zéro du récepteur. Le second filtre est entièrement transparent et laisse passer tout le rayonnement, il sert donc à déterminer le maximum du signal reçu par le récepteur. Les deux derniers filtres étant soit sensibles à l’eau, soit au gaz carbonique. La zone de gaz absorbe donc la longueur d’onde et c’est cette absorbance qui nous permet de remonter à la concentration, grâce à la loi de Beer Lambert.

Récepteur IR Source IR Porte - filtres Lentille Lentille Miroir

Les analyseurs de type close path fonctionnent par mesures différentielles. En effet dans la cellule de référence on fait passer un gaz à concentration en CO2 et H2O connues, et

dans la cellule de mesure le gaz étudié. A l’entrée des deux cellules se trouve un clapet qui sépare le faisceau de manière à le répartir en permanence sur les deux cellules. Une fois que le gaz est mesuré grâce au récepteur infrarouge il est évacué par l’intermédiaire d’une pompe. Tous comme l’autre catégorie d’analyseurs, on remonte à la concentration grâce à l’absorbance mesurée par le récepteur à infrarouge.

Cellule de mesure Cellule de référence Récepteur IR Moteur Pompe Porte - filtre Source IR Echantillon Lentille convergente Gaz de référence

(22)

IV Dépouillement des données

IV.1) Présentation des différents tests

Avant de commencer cette partie sur le traitement des données, il est indispensable de savoir qu’une fois les données enregistrées, ces dernières sont traitées dans le logiciel edire mis au point par l’université d’Edimbourg. Ce programme organise les données, corrige certaines données, et effectue une présélection de celles-ci en supprimant les valeurs détectées comme aberrantes grâce à un lourd protocole de fonctions. Les données exploitées dans ce stage sont des valeurs, qui ont donc été toutes passées dans le logiciel de cette université. Il n’y a donc plus à se préoccuper des corrections à effectuer pour régler l’horizontalité du pyranomètre, ou le positionnement de l’anémomètre sonique.

a) Tests de Vickers et Marht

Les tests de Vickers sont les premiers tests de validité à être apparus dans le domaine de la mesure des flux. Il part du principe que si une donnée mesurée n’est pas physiquement acceptable alors elle fausse. Dans le tableau, ci-dessous, sont regroupées tous les types de valeurs soumis aux tests de Vickers, ainsi que l’intervalle dans lequel elles doivent se situer sous peine d’être tronquées. Les valeurs éliminées sont donc des valeurs qui auraient été mesurées pendant une perturbation d’origine humaine ou mécanique.

CRITERE LIMITES DES GRANDEURS

Vent horizontal (m.s-1) [0 :30]

Vent vertical (m.s-1) [0 :5]

Température (°C) [-20 :60]

Concentration en carbone (ppm) [300 :600]

Concentration en vapeur d’eau (mmol/mol) [3 :48]

Le test sur l’écart type consiste à faire une répartition en classes de tous les écarts-types mesurés, et d’éliminer toutes les valeurs extrêmes. Ainsi on considère que des données qui sont mesurées avec trop peu de répétabilité sont mauvaises et non fiables.

b) Test du skewness et du kurtosis

Avant de définir le skewness et le kurtosis il est nécessaire de définir le moment mathématique puisque ces deux paramètres sont ni plus ni moins que des rapports incluant des moments. En fait le moment d’ordre n est une grandeur telle que pour tout n appartenant à IN :

(23)

Aussi pour n=1, nous obtenons :

µ

1

= E(X – E(X)) = E(X) – E(X) = 0

Aussi pour n=2, nous obtenons :

µ

2

= E(X – E(X)²) = σ² = var(X)

De là nous pouvons donc écrire l’équation du skewness et du kurtosis :

3 3

σ

µ

Sk

=

4 4

σ

µ

k

=

Le coefficient de skewness mesure le degré d’asymétrie d’une distribution. Ainsi pour une distribution parfaitement symétrique le skewness sera égal à 0. Pour une distribution plus importante vers la droite, le skewness sera positif. De manière identique, si la distribution est plus importante à gauche, le skewness sera négatif.

Le coefficient du kurtosis mesure le degré d’écrasement d’une distribution. Cet indice est calculé par rapport à celui de la loi normale centrée réduite qui est de 3. On ôte donc systématiquement 3 lorsqu’on calcule un kurtosis dans la pratique. A partir de là, si un kurtosis est négatif, cela veut donc dire que la distribution est écrasée, donc par conséquent que les données sont très étalées par rapport à la valeur moyenne. Par contre si un kurtosis est positif cela veut donc dire que la distribution est plus resserrée que celle de la loi normale. Nous avons donc tout intérêt à avoir un bornage très large du côté positif, et faible du côté négatif.

Vickers considère qu’une donnée est erronée si son skewness est en dehors de l’intervalle [-2 ;2], ou si son kurtosis est en dehors de l’intervalle [-2;5]. Il introduit également une catégorie de valeurs « suspectes » pour les données qui ont un skewness en dehors de l’intervalle [-1 ;1], ou un kurtosis en dehors de l’intervalle [-1;2]

c) Tests de Foken.

Le premier test de Foken est en fait un tri en différentes classes du rapport de l’écart type d’une variable sur une vitesse de frottement (u*). Cette dernière étant une force symbolisant la variabilité des frottements. Ainsi lorsque la vitesse du vent augmente, la vitesse de frottement augmente. u* est donc corrélé au vent comme le confirme le graphique ci-dessous.

Vitesse du vent, et vitesse des frottements en foncion du temps

0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 20/05/2005 02:15 21/05/2005 03:15 22/05/2005 04:15 23/05/2005 05:15 temps Vfrottement (m.s-1) 0 1 2 3 4 5 6 7 V(m.s-1) Vfrot V vent

(24)

Le calcul d’U* est effectué de la manière suivante :

u’: Fluctuation horizontale du vent(m.s-1) w’: fluctuation verticale du vent (m.s-1)

ρ : Masse volumique de l’air (kg.m-3) ρ

ρ ( ' ')² ( ' ')²

* u w v w

U = − +

Celui-ci se base sur la comparaison, pour chaque valeur, du rapport σ(u,v,w)/u*

théorique, et celui qui est mesuré par les capteurs et celui qui est attendu. Ce dernier étant calculé à partir de l’état de stabilité de l’atmosphère et est exprimé en pourcentage

Ecart constaté Indice attribué

0-15% 1 16-30% 2 31-50% 3 51-75% 4 76-100% 5 101-250% 6 251-500% 7 501-1000% 8 >1000% 9

Les valeurs ayant -50 % d’écart sont considérées comme bonnes. Celles qui ont un indice compris entre 4 et 7 sont considérées comme suspectes, et les valeurs qui ont plus de 501% d’écart sont considérées comme mauvaises.

L’autre test de Foken, autrement appelé test de stationnarité, vérifie la linéarité du flux pour des intervalles suffisamment petits. Pour cela on trace les variations du flux en fonction du temps par intervalle de cinq minutes, et on compare la droite obtenue avec celle qui passe par la valeur du flux au bout de 30 minutes et par l’origine du repère. L’écart entre ces deux droites est calculé en pourcentage, et est classé de manière analogue au premier test de Foken (Voir le tableau ci-dessus).

(25)

IV.2) Applications et interprétations des tests de discrimination

Afin de me rendre compte de l’effet des tests sur les données récoltées j’ai commencé par effectuer tous les tests, avec strictement les mêmes bornages, et en enlevant les données suspectes. Sur la page suivante se trouve le flux de chaleur latente sur une période de plusieurs jours.

On peut facilement constater que les données brutes enregistrent deux pics anormaux, l’un avant le premier cycle, en pleine nuit, et l’autre pendant la journée. La nuit, vu qu’il n’y pas de rayonnements le flux de chaleur latente devrait être égal à 0. Toutefois il est possible que celui-ci soit légèrement négatif à cause du phénomène de condensation qui peut avoir lieu quand les nuits sont fraîches, mais en aucun cas cela n’explique le fait qu’en pleine nuit on ait

eu pendant une demi-heure un flux d’évaporation de 270 W.m-². De même il n’est pas

possible d’avoir un flux de chaleur latente très négatif en pleine journée. Il existe une troisième anomalie sur ces journées de données, dans la nuit du 23 juillet on peut voir qu’il y a un flux d’évaporation assez conséquent, alors qu’il n’y a pas de rayonnement. En y regardant de plus près, on peut s’apercevoir que cette anomalie a été mesurée avec un fort écart-type sur l’eau, et un kurtosis négatif sur cette même valeur. Cela veut donc dire que l’appareil n’arrivait pas à mesurer avec une répétabilité correcte les grandeurs physiques. Ce problème venait donc soit d’un dysfonctionnement de l’appareillage, soit d’une perturbation météorologique. Seulement les capteurs météo n’enregistrent aucune perturbation ponctuelle cette nuit là.

Aussi si l’on compare les données restantes après avoir appliqué les tests de discrimination en respectant strictement les publications scientifiques, nous pouvons nous apercevoir que ces anomalies ont entièrement disparues. Seulement nous nous rendons aussi compte que beaucoup trop de données sont également parties. En réalité il s’agit tout simplement de plus de 44 % des données qui ont été enlevées sur les six mois de mesures étudiés. De plus ces données disparues sont majoritairement des données de nuit, du matin ou du soir. Il est utile de savoir que pour remplacer les données manquantes, on les simule à partir des données restantes. Or s’il n’y a plus beaucoup de données de nuit, on se retrouve donc à simuler des données de nuit par des données de jour, ce qui faussera donc les résultats. Les résultats trouvés sont similaires, à une échelle légèrement moindre sur les autres types de flux.

Si l’on se penche sur les causes de l’élimination de ces données, on remarque que 900 données ont un skewness qui n’entre pas dans l’intervalle [-1 ;1] et 1 600 qui ne sont pas dans l’intervalle [-1 ;2]. Mathématiquement il n’y a pas de raison qui pousse à dire qu’une valeur ayant un kurtosis de 2, soit une mauvaise valeur. Au contraire nous nous retrouvons dans une configuration où l’appareil mesure une grande majorité de valeurs proches de la valeur moyenne. De plus si l’on considère la variabilité du climat, il devient difficile d’obtenir des résultats identiques dans la mesure où le climat peut varier très facilement en l’espace d’une demi-heure.

(26)

Données brutes du flux de chaleur latente (mois de juillet)

Flux de chaleur latente : Données brutes

-100 -50 0 50 100 150 200 250 300 19/07/2005 00:00 19/07/2005 12:00 20/07/2005 00:00 20/07/2005 12:00 21/07/2005 00:00 21/07/2005 12:00 22/07/2005 00:00 22/07/2005 12:00 23/07/2005 00:00 23/07/2005 12:00 24/07/2005 00:00 temps LE (W.m-2)

Flux de chaleur latente : Premiers tests

-100 -50 0 50 100 150 200 250 300 350 200 200,5 201 201,5 202 202,5 203 203,5 204 204,5 205

temps (jours julien) Le(W.m-²)

LECorrWebb7500 Trié (W/m²)

Données triées du flux de chaleur latente (mois de juillet)

-100 -50 0 50 100 150 200 250 300 350 200 200,5 201 201,5 202 202,5 203 203,5 204 204,5 205 LE(W.m-2) temps(jours julien)

données simulées données mesurées

(27)

De plus en approfondissant l’examen des données, je me suis aperçu que les données du matin ou du soir ont pour point commun d’avoir un kurtosis négatif. En fait à ces moments là de la journée se passe ce qu’on appelle un changement d’atmosphère : la nuit l’atmosphère est beaucoup plus stable, tandis que le jour elle devient instable et favorise les échanges de flux. Les données qui se retrouvent donc être à la charnière entre ces deux états ne seront donc pas mesurées dans les mêmes conditions, ce qui favorise l’apparition d’un kurtosis négatif. Or cette particularité n’est pas prise en compte, si l’on s’en tient aux bornages définis par Vickers.

En ce qui concerne le skewness, il n’est pas possible de conserver les bornes définies par Vickers sur toutes les grandeurs, car trop de valeurs sont supprimées alors qu’elles s’intègrent parfaitement dans les cycles de flux. Ainsi sur une grandeur comme le vent qui est aisément mesurable, on peut conserver ces bornages là, et dire que toutes les valeurs qui sont en dehors de l’intervalle [-1 : 1] sont mauvaises. Mais on ne peut pas en faire de même sur les skewness de la mesure de vapeur d’eau, car beaucoup trop de valeurs figurent en dehors de cet intervalle (12%). Il serait donc plus approprié dans ce cas de n’éliminer que les valeurs dites « fausses », c'est-à-dire les valeurs qui ont un skewness en dehors de l’intervalle [-2 : 2], et de ranger les valeurs suspectes comme « bonnes ». De la même manière, nous conserverons les données dans l’intervalle [-2 : 2] pour les répartitions du skewness de la température et du carbone. 0 100 200 300 400 500 600 -3 -2 -1 0 1 2 3 skewness fréquence

Répartition en fréquence du skewness de la vapeur d’eau.

0 200 400 600 800 1000 1200 1400 -3 -2 -1 0 1 2 3 Ske wne ss Fre que nce

(28)

Après avoir déterminé les effets de ces deux premiers tests, je me suis penché sur les conséquences du test de l’écart type tel qu’il était au départ. Vickers n’ayant pas défini de bornes limites, on éliminait tout simplement les valeurs qui avaient les écarts types extrêmes de chaque série, considérant qu’une valeur mesurée avec trop peu de répétabilité était forcément mauvaise. Contrairement aux autres moments mathématiques il n’est pas possible de définir des valeurs d’écarts types limites pour toutes les grandeurs, l’ordre de grandeur des fluctuations n’étant pas le même.

Répartition en fréquence du skewness du vent

Seulement, en réalisant cette démarche nous considérions que les valeurs étaient mesurées dans les mêmes conditions à n’importe quel moment de la journée, ce qui n’est pas tout à fait vrai. En effet la nuit les échanges de vapeur d’eau, comme nous l’avons vu précédemment sont proches de zéro. Par ailleurs à cette même période de la journée, la température varie beaucoup moins vu que l’atmosphère est stable. J’ai donc fait un tri entre les données de jour et les données de nuit, pour les grandeurs où j'ai considéré qu’il y avait toutes les raisons de penser que l’ordre de grandeur des fluctuations était différent le jour et la nuit (voir graphique ci-dessous). Il est utile de préciser que les données de nuit, sont les données qui possèdent un rayonnement strictement nul, et les données de jour sont des données qui ont un rayonnement supérieur à un certains seuil. Les résultats furent conformes à ce qui était prévu : Il y avait bien une différence de fluctuation très nette entre les données de jour et les données de nuit pour les vecteurs représentant la vitesse du vent, la vapeur d’eau et la température. La différence de fluctuations sur le vent était, elle aussi, prévisible car la nuit la vitesse du vent chute considérablement. Seule la mesure du carbone n’est pas affectée par ce changement : En effet, l’ordre de grandeur des échanges reste le même que ce soit en période de jour ou de nuit.

Ainsi si l’on regarde de plus près les graphiques ci-après on s’aperçoit qu’avec les anciens tests, on considérait comme bonnes certaines valeurs de nuit, qui avaient un écart type semblable à une donnée de jour. Cette modification nous permet donc d’éliminer des valeurs de nuit aux écarts-types importants, tout en réintégrant un nombre important de données de jour. Répartition en fréquence de σΤ 0 50 100 150 200 250 0 0,4 0,8 1,2 1,6 σT 2 Fréquence nuit jour total Répartition fréquentielle de σT

(29)

0 50 100 150 200 250 300 350 400 450 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 σQ1 Fréquence Nuit Jour Sans tri Répartition fréquentielle de σQ 140 frequence 0 20 40 60 80 100 120 0 50 100 150 200 250 300 350 400σC nuit jour total Répartition fréquentielle de σC

(30)

En conclusion de cette analyse des tests, il me fallait donc refaire le traitement des six mois de données en changeant les bornages des différents tests. Ceux-ci seront composés de la manière suivante : on enlèvera d’abord les données de flux provenant de mesures physiquement impossibles, en respectant les limites de Vickers dont nous avons déjà parlé. Ensuite un tri sera effectué afin de déterminer les données de jour et les données de nuit, et les écarts-types extrêmes de chaque jeu de données seront éliminés. Puis nous testerons le skewness et le kurtosis des valeurs, en considérant les spécificités de chaque grandeur comme nous l’avons vu ci-dessus. Enfin les tests de Thomas Foken seront toujours appliqués sur les données restantes et nous introduirons un test supplémentaire dont le but sera d’éliminer les données qui sont à la fois suspectes du point du test de Foken et de l’un au moins des tests portant sur les moments mathématiques.

La série de tableau ci-dessous a pour but de mettre en évidence, les effets des tests suivant rigoureusement les mêmes lois que celle établies par Vickers pour ses propres sites de mesures, et les effets des nouveaux bornages.

Bornages de Vickers Nouveaux Bornages

Intervalle limite Données éliminées (%) Intervalle limite Données éliminées (%) Test du skewness (W et C) [-1 :1] 12.4% W : [-1 :0.8] C : [-1.4 :2] 6.0% Test du kurtosis (W et C) [-1 :2] 18.8% W : [-0.6 :5] C : [-1.4 :5] 6.7% Test écart-type (W et C) C : ]0 :300] W : [0.05 :1.3] 11.6% WJ : [0.1 ;1.3] WN: [0.05 :0.9] C : ]0 :300] Jour : 7.0% Nuit : 5,5%

Tous les tests (W et C) 31.7% 24.0%

Test sur le flux de carbone

Bornages de Vickers Nouveaux Bornages

Intervalle limite Données éliminées (%) Intervalle limite Données éliminées (%) Test du skewness (W et T) [-1 :1] 11.4% W : [-1 :0.8] T : [-1.3 :1.7] 4.0% Test du kurtosis (W et T) [-1 :2] 15.1% W : [-0.6 :5] T : [-1.3 :2,7] 8.4% Test écart-type (W et T) T : [0 :2] W : [0.05 :1.3] 4,6% WJ : [0.1 ;1.3] WN: [0.05 :0.9] TJ: [0.12 :0.85] TN: [0.06:0.64] Nuit : 5,5% Jour : 4,0%

Tous les tests (W et T) 25.6% 18.4%

(31)

Bornages de Vickers Nouveaux Bornages Intervalle limite Données éliminées (%)

Intervalle limite Données

éliminées (%) Test du skewness (W et H2O) [-1 :1] 12.0% W : [-1 :0.8] LE : [-2 :2] 4.9% Test du kurtosis (W et H2O) [-1 :2] 27.3% W : [-0.6 :5] LE : [-1.6 :6] 5.6%

Test écart type (W et H2O) LE : [0 :1.5]

W : [0.05 :1,3] 9.4% WJ : [0.1 ;1.3] WN: [0.05 :0.9] LEJ : ]0 :0.6] LEN : ]0 :0.3] Nuit:8,8% Jour :6.1%

Tous les tests (W et H2O) 42.4% 27.1%

Test sur le flux de chaleur latente.

On constate donc que ces nouveaux bornages ont contribué à faire chuter le nombre de valeurs éliminées, ce qui diminuera logiquement l’importance de la simulation de données. Ce résultat est d’autant plus satisfaisant que les données réintégrées sont des données qui intègrent les cycles journaliers des flux.

Toutefois il n’est absolument pas évident de déterminer si qualitativement les données récupérées sont meilleur, puisqu’il n’y a aucun résultat attendu. Autrement dit on ne sait pas précisément ce que l’on mesure. On ne peut donc pas quantifier le gain du point de vue de la qualité des données récupérées. Une solution est donc de comparer si les données récupérées se superposent avec les données simulées de l’ancien modèle, tel que cela est fait ci-après. Le premier graphique nous remontre le résultat final de chaleur latente en respectant strictement les bornages de Vickers, alors que le second nous montre le flux de chaleur latente obtenu avec les bornages redéfinis. Le dernier graphique nous permet de comparer l’ancien gapfilling avec les nouvelles valeurs, afin de voir les limites de celui-ci.

En mettant en relation ces trois graphiques nous pouvons nous apercevoir, de manière un peu subjective, que le gapfilling est plus précis avec plus de données. En effet en lui donnant trop de degrés de libertés, celui-ci a tendance à tracer des courbes imprécises, et se contente de donner l’allure approximative du flux. Avec plus de données, nous observons des variations beaucoup plus fines du flux, et la simulation des données manquantes est beaucoup plus précise.

(32)

-100 -50 0 50 100 150 200 250 300 19/07/2005 00:00 19/07/2005 12:00 20/07/2005 00:00 20/07/2005 12:00 21/07/2005 00:00 21/07/2005 12:00 22/07/2005 00:00 22/07/2005 12:00 23/07/2005 00:00 23/07/2005 12:00 24/07/2005 00:00 tem ps LE (W.m-2)

Données après les tests redéfinis anciennes données simulées

Résultats initiaux : Données mesurées et données simulées

Résultats après redéfinitions des tests : Données mesurées et simulées

-100 -50 0 50 100 150 200 250 300 350 200 200,5 201 201,5 202 202,5 203 203,5 204 204,5 205

temps (jours julien) LE ( W.m-2

)

LE7500(GF_ET) (W/m²) LECorrWebb7500 Trié (W/m²)

-100 -50 0 50 100 150 200 250 300

200 200,5 201 201,5 202 202,5 203 203,5 204 204,5Temps (jours julien)205

LE(W.m-2 )

LE7500(GF_ET) (W/m²) LECorrWebb7500 Trié (W/m²)

(33)

V Conclusion

Pour conclure ce rapport, j’ai donc réalisé certaines modifications sur les traitements des données. En me basant sur les travaux de Vickers et de Foken, j’ai transposé les tests de qualité en modifiant les bornages afin de les rendre compatibles avec les données issues des parcelles sur lesquelles j’ai travaillé. Les résultats trouvés à ce sujet m’ont permis de constater que ces nouveaux bornages ont permis d’éliminer plus de données mauvaises et de récupérer certaines données qui ont été mesurées dans de bonnes conditions. Aussi nous avons montré qu’il était bénéfique de supprimer des données qui ne possédaient pas une bonne stationnarité, et qui avaient des répartitions beaucoup trop écrasées ou dissymétriques. Toutefois après avoir modifié ces tests, il subsiste quelques pics, qui sont d’autant plus surprenants dans la mesure où ils ne sont repérés par aucun des tests mis en œuvre. En les prenant au cas par cas, nous avons pu nous apercevoir que certains d’entre eux résultent de légères perturbations météorologiques qui auraient perturbé les mesures.

L’estimation des flux obtenue au final est plus fiable qu’auparavant, grâce au gapfilling qui avec plus de données a réussi à générer des variations beaucoup plus proches de la réalité. Toutefois le fait de ne pas pouvoir les mesurer directement rend impossible de dire avec certitudes si ces estimations, que nous avons réalisées, se révèlent exactes. De plus les nouvelles bornes que j’ai définies ne s’appliquent qu’au site du Bray et ne seront certainement pas valables sur d’autre type de couverts au vu de la méthode que j’ai utilisée. Ces bornes ne pourront donc servir, avec certitude, qu’au traitement des données du Bray.

Tout ce travail m’aura bien sûr fait découvrir le domaine des flux turbulents appliqués aux couverts végétaux, et de la mise au point méthodologique qu’il reste encore à faire. Aussi je me suis rendu compte de la différence qu’il y avait entre théorie et pratique quand on travaillait sur des énormes échantillons de données. Par exemple le nombre de données suspectes augmente et rend le traitement plus difficile obligeant à automatiser celui-ci.

Il serait intéressant de valider cette méthode en effectuant un traitement similaire sur d’autres types de couverts végétaux comme la parcelle de maïs de la Cape Sud ou la vigne de Couhins.

La modification des tests que j’ai mise en place permettra aux personnes qui analysent les flux de posséder des estimations plus correctes et plus propres. Cela leur permettra également de donner des estimations plus fiables de la quantité de carbone stockée par une forêt en une année. Ce stage et ses résultats, bien que modestes, auront donc eu pour conséquence de gagner en précision dans l’estimation des flux. En effet, il devient de plus en plus important de quantifier avec précision et fiabilité les flux de gaz afin de lutter le plus efficacement possible contre le réchauffement climatique.

(34)

VI Bibliographie

Ouvrages et publications :

Marc HALLAIRE et al. Rayonnement In : Techniques d’études des facteurs physiques de la biosphère. Paris 7eme : INRA , 1970, pp 53-56.

D.Vickers, L.Marht. Quality control and flux sampling problems for tower and aircraft data. Journal of Atmospheric and Oceanic Technoilogy, 1997, Vol. 14 pp 518-526

Rapport de Colloque :

Actes de l’école-Chercheurs INRA en Bioclimatologie, Tome 1, 1995, Le Croisic. Département de Bioclimatologie INRA, Thiverval-Grignon, 1995, 670 p.

Rapport de stages :

Lisa CANTET. Analyse des phénomènes associés à la respiration d’un écosystème forestier : Rapport d’IUP2 Bordeaux, Université de Bordeaux 3 Michel de Montaigne, 2002, 60p.

Aure SEGUELA Etude des flux et stockage de CO2 au sein d’un écosystème forestier

Etablissement d’un modèle de respiration, Rapport d’IUP2 Bordeaux, Université de Bordeaux 3 Michel de Montaigne. 2002, 57p.

(35)

VII Lexique

Analyseur à cellule fermée (Close path) : capteur permettant de mesurer les quantités de

vapeur d’eau et de carbone contenues dans l’air. Ces capteurs aspirent l’air dans une cellule et un récepteur à infrarouge mesurent le rayonnement de la source infra rouge qui aura traversé l’air, afin de déterminer l’absorbance et donc la concentration.

Analyseur à cellule ouverte (Open path) : capteur permettant de mesurer les quantités de

vapeur d’eau et de carbone contenues dans l’air. Ces analyseurs se distinguent des analyseurs

à cellules fermées car ils mesurent les taux de CO2 et de H2O directement dans l’air ambiant.

Anémogirouette : appareil composé d’une girouette et d’un anémomètre combiné.

Anémomètre sonique : capteur mesurant la vitesse du vent en la décomposant en 3

dimensions : u, v et w.

Canopée : interface entre l’atmosphère, et les couverts végétaux.

Flux de Carbone : le flux de Carbone correspond à la quantité de carbone échangée par

mètre carré et par seconde entre les couverts végétaux et l’atmosphère.

Flux de chaleur latente : le flux de chaleur sensible correspond au flux d’énergie

accompagnant l’évaporation de l’eau. Il est exprimé en W/m² afin de pouvoir le comparer directement au rayonnement net.

Flux de chaleur sensible : le flux de chaleur sensible correspond au flux d’énergie

emmagasiné par le système sans qu’il y ait de changement d’état. Il est exprimé en W/m² afin de pouvoir le comparer directement au rayonnement net.

Gapfilling : opération mathématique consistant à simuler les données éliminées lors des tests

de qualité. Cette fonction simule des nouveaux résultats à partir des données météorologiques mesurées et des données qui auront été jugé correctes.

Humidité Relative : rapport entre la quantité de vapeur d’eau contenue dans un milieu et la

quantité maximale qui pourrait être contenue dans des conditions données.

Kurtosis : Coefficient mathématique mesurant le degré d’écrasement d’une distribution

statistique.

Pyranomètre : Capteur utilisé pour la mesure du rayonnement dans les courtes longueurs

d’ondes. Le rayonnement mesuré provient de l’ensemble de l’hémisphère situé au-dessus de l’instrument.

Pyrgéomètre : Capteur utilisé pour la mesure du rayonnement incident dans les grandes

(36)

Pyrradiométre : Capteur utilisé pour la mesure du rayonnement incident dans toutes les

longueurs d’ondes.

Rayonnements Diffus : Ce sont les rayonnements qui ne proviennent pas directement du

soleil mais qui sont d’abord diffractés par un objet rencontré ( Nuages).

Rayonnement Photosynthétiquement Actif (PAR) : fraction du rayonnement visible dans le

domaine des courtes longueurs d’onde (400-700 nm). C’est le domaine du rayonnement utilisé par les plantes pour réaliser le phénomène de la photosynthèse.

Skewness : Coefficient mathématique mesurant le degré d’asymétrie d’une distribution

statistique.

Thermocouple : Capteur utilisé pour repérer la température, utilisant la force électromotrice

générée par effet Seebeck quand on soude des métaux de natures différentes et qu’on place ces soudures à des températures différentes.

(37)

VIII Bilan personnel

En conclusion de ce stage je dirai qu’il aura été très enrichissant et m’aura permis de découvrir l’univers de la recherche pendant dix semaines. Ainsi je me serai rendu compte des contraintes qui orientent les travaux de recherches des chercheurs et ingénieurs de l’équipe d’EPHYSE.

Je me suis rendu également rendu compte de l’importance de l’enseignement de la thermodynamique qui rend sa connaissance nécessaire pour une meilleur compréhension de la théorie des flux entièrement basée sur celle-ci. De plus les flux de chaleur latente et de chaleur sensible sont des notions qui font appel aux cours de première année de thermodynamique. Cette place importante de cette discipline, dans un domaine où on ne le soupçonne pas forcément m’a bien montré l’importance de cette matière dans les programmes de recherche. En effet, avoir suivi ces cours pendant ma formation m’a fait comprendre plus facilement cette théorie qui peut paraître assez complexe au premier abord.

Aussi les premiers cours d’optronique de Mme BRUT sur le rayonnement m’ont bien aidé à saisir les notions de rayonnements nets et de rayonnements photosynthétiquement actifs ainsi que le fonctionnement des capteurs de rayonnements. Le rayonnement étant un paramètre extrêmement important dans l’estimation des flux, car en plus d’être directement corrélé avec le flux de chaleur latente, il faut prendre en compte qu’il pilote la photosynthèse, donc indirectement le flux de gaz carbonique.

Bien sûr le cours sur les capteurs, enseignés par Mr GARDOUX, m’a été très utile car j’ai pu m’adapter facilement à la découverte de nouveaux appareils qui n’avaient pas été étudiés directement en cours. Cette remarque s’applique pour tous les capteurs micro-météorologiques que j’ai eu l’occasion de découvrir pendant dix semaines. Toutefois cette adaptation aurait été plus facile si les cours sur les capteurs avaient été plus développés ce qui n’était pas possible compte tenu du volume horaire attribué à cette matière.

De plus, bien que n’ayant pas utilisé directement les notions que j’ai apprises en métrologie, je dois dire que cette discipline m’a permis de mieux cerner le problème de la justesse de la mesure. En effet j’ai compris à travers ce stage que le fait de diminuer l’erreur sur une mesure était aussi important que d’en améliorer sa précision. Cette sensibilisation sur la qualité de la mesure m’aura permis de m’investir plus facilement sur le thème de stage.

Je pense qu’il serait intéressant d’introduire en cours de mathématiques appliqués à la métrologie, les notions de skewness et de kurtosis qui sont des tests très intéressants quand on travaille sur la qualité de la mesure.

D’un point de vue plus général je dirai que mon stage m’aura permis de faire appel à des connaissances diverses et variées dans de nombreux domaines physico-chimiques, et m’aura fait comprendre la qualité de la formation que j’ai pu acquérir pendant deux ans.

J’ai dû également apprendre à travailler de manière rigoureuse, à cause de la taille conséquente des fichiers de données. Il m’était donc impossible de ne pas m’organiser sérieusement afin d’élaborer une méthode de tri fiable.

Il m’a aussi fallu faire preuve de courtoisie et de bonne humeur afin de me fondre dans l’unité EPHYSE. Il faut savoir trouver le juste milieu entre le sérieux dans le travail sans toutefois être trop distant avec les personnes avec qui j’étais en contact, de manière à rendre le travail agréable. De plus j’ai dû faire preuve de réflexion et de méthodologie afin d’éclaircir et

(38)

de comprendre les différents tests que j’ai manipulés. J’ai donc dû décomposer tous les fichiers, test par test, afin de me rendre compte au mieux de l’effet qu’ils peuvent avoir sur mes séries de données. J’ai dû également faire preuve de patience pour obtenir des résultats exploitables afin d’avancer progressivement dans mes travaux.

En conclusion je dirai que ce stage a été en adéquation avec mon projet personnel car il m’a permis de me faire évoluer dans un secteur que je souhaitais découvrir. Il m’a offert la possibilité de confirmer l’idée de polyvalence de ma formation que je m’étais faite tout au long de ces deux ans, et m’a montré qu’un étudiant possédant un diplôme Mesures physiques de l’université toulousaine peut évoluer dans d’autres domaines.

D’un point de vue professionnel cette expérience a été positive, car elle me fait entamer ma formation d’ingénieur tout en ayant une idée de ce que sont les établissements publics à caractères scientifiques et technologiques. De plus l’autonomie que j’ai acquise pendant ce stage me permettra d’évoluer plus facilement lors de mon arrivée en entreprise.

Références

Documents relatifs

Les biais que nous avons observés sur les flux turbulents évalués avec la méthode aérodynamique des profils ne sont peut être pas identiques, ou n’ont peut être pas la

Directeur de Thèse: Professeur Alain Bernard Octobre 2005 Thèse présentée pour l’obtention de grade de. Docteur en Sciences

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des

Les différences de stockage de C entre NT et CT dans la couche 0-20 cm sont essentiellement attribuées aux quantités beaucoup plus importantes de résidus organiques restituées par

Racines de Brachiaria brizantha sur Am élioration de la structure du so l ferralitique sol dans des galeries de termites. Assurer une couverture permanente du sol par un

Les différences de stockage de C entre NT et CT dans la couche 0-20 cm sont essentiellement attribuées aux quantités beaucoup plus importantes de résidus organiques restituées par

Les prélèvements sur les silos ont été réalisés dans deux zones distinctes sur le front d’attaque des silos, après élimination de la couche non consommable : dans la partie

Le tableau de flux de trésorerie (norme IAS 7) est la représentation financière des choix stratégiques d’une entreprise, c'est -à-dire de son modèle économique (business