• Aucun résultat trouvé

Entre théorie et pratique. La théorie de la turbulence

3.2 La Commission de la Turbulence Atmosphérique (1935-1940)

3.3.2 Une théorie légitimée par l’expérience

Le rôle du concept d’échelle

Dans la théorie Taylor-Von Kármán, ce sont les "particules" composant le fluide et leur mouvement d’agitation qui caractérisent la turbulence. A cette époque-là, cette définition était encore peu précise et nécessitait une plus ample explication. Dans ce contexte, Wehrlé et Dedebant se sont posés la question suivante :

la notion de particule a t-elle une signification physique ou cette notion, au contraire, est-elle une simple commodité mathématique ?

Dans la recherche d’une réponse, ils avaient fortement insisté sur le rôle d’échelle en mécanique des fluides et en météorologie, qui les avait conduit à réfléchir plus profondément sur cette notion et sur son lien avec l’échelle de la turbulence définie par Taylor, en découvrant par la suite les étages de perturba-tions [Dedebant et Wehrlé novembre 1938], [Dedebant et Wehrlé 1935], " qui seuls permettent d’introduire ordre et clarté dans l’interprétation des faits expé-rimentaux" [Kampé de Fériet 1937b, 377]. En d’autres termes, ils donnèrent à la notion d’échelle et de particule utilisée par Taylor une conception météorologique en permettant de lui donner un sens physique. Au contraire de la turbulence en soufflerie, l’atmosphère, considérée dans son ensemble comme un milieu unique, a l’avantage de présenter une gamme d’échelles visiblement plus étendue. A chaque définition de l’échelle correspond un certain niveau de turbulence et un découpage de l’atmosphère en domaines élémentaires, chacun doté d’une certaine valeur constante de température, pression, vitesse, densité, énergie cinétique, etc. Les mesures faites avec des instruments, dont la précision est adaptée à cette échelle, doivent donner des résultats constants dans chaque domaine élémentaire.

D’après Wehrlé et Dedebant, ce sont ces domaines élémentaires qui jouent le rôle de "particules" d’un fluide. En passant d’une échelle à celle immédiatement inférieure, la situation devient de plus en plus complexe : chaque domaine élémen-taire (ou particule) de l’échelle précédente se décompose à son tour en d’autres domaines élémentaires. L’échelle la plus grande est l’atmosphère du globe, dont les distances et durées sont relativement considérables par rapport à l’échelle hu-maine. Les mouvements de l’atmosphère définissent lacirculation générale laquelle

est différenciée par la troposphère, la stratosphère, les fronts polaires etc. Immé-diatement au-dessous, se placel’échelle synoptique dont les domaines élémentaires,

lesparticules synoptiques, sont des masses d’aire relativement bien définies à savoir

les perturbations, les cyclones et les anticyclones. Ces domaines élémentaires sont considérés comme des particules en mouvement d’agitation turbulente par rap-port au calme de la circulation générale qui joue le rôle de mouvement d’ensemble. A cette échelle de turbulence qui vient d’être définie, Wehrlé et Dedebant font cor-respondre la définition d’étage de perturbation. A chaque étage de perturbation, la

vitesse d’une particule sera la somme de la vitesse d’ensemble (vitesse d’agitation de l’étage supérieure) et de la vitesse d’agitation. Le dernier étage de perturbation est celui où les particules coïncident avec les molécules : c’est le chaos moléculaire de la théorie cinétique des gaz.

Jusqu’à ce moment-là, Taylor, Von Kármán, Prandtl et les autres aérodyna-miciens travaillant en soufflerie avaient tendance à n’accepter qu’un seul étage de perturbation, entre le mouvement moléculaire et le mouvement uniforme d’ensemble qui était décrit par les équations de Navier-Stokes d’un mouvement laminaire. Ce concept montre comment leur théorie ne concerne pas seulement la turbulence en soufflerie limitée aux fluides incompressibles comme chez Taylor et Von Kármán, mais, en envisageant le cas de la turbulence atmosphérique, ils conférèrent à leurs recherches un caractère plus général, dans le but d’appliquer les résultats obtenus à la météorologie.

Afin de montrer concrètement la validité de leur raisonnement, ils utilisèrent comme support la théorie cinétique des gaz et le point de vue eulérien dans l’étage de perturbation entre le chaos moléculaire et le mouvement moyen accessible aux équations de Navier-Stokes. Dans ce contexte, un anémomètre permettait d’avoir à disposition une moyenne sur les vitesses des molécules passant pendant un intervalle de temps ∆t dans un volume ∆ω entourant un point P. Là, le procédé statistique utilisé pour confronter les propriétés du mouvement d’ensemble et celles de ses sous-ensembles, à savoir les mouvements d’agitation, fut le crible. Plus précisément, sous l’hypothèse que le fluide est en mouvement stationnaire46, ils subdivisèrent un intervalle de temps relativement long en fractions de durée T

2

numérotées 1,2,..,n et ils groupèrent d’un côté les intervalles de numéros impairs et de l’autre côté de numéros pairs. Ils montrèrent alors que si les deux moyennes des vitesses moléculaires calculées sur tous les intervalles pairs d’une part et tous les intervalles impairs d’autres part, sont identiques, alors leur valeur est égale à la moyenne générale calculée sur un intervalle très long quelconque. Au contraire, si les deux moyennes sont distinctes, alors le procédé du crible révélera l’existence d’une échelle supérieure correspondant à une turbulence d’échelle T , c’est à dire

46. Un mouvement est stationnaire si la moyenne des vitesses (u,v,w) pour un intervalle de temps assez long a une valeur constante quel que soit cet intervalle.

à un étage de perturbation T . D’après cette définition, le spectre de la turbulence est l’ensemble de tous les étages de perturbation T1, ...Tk.

Les variables aléatoires dans la description du phénomène turbulent

Outre le concept d’étage de perturbation, "le pas en avant" [Kampé de Fériet 1937b, 388] qu’a impulsé l’école française à l’étude de la turbulence consiste en la description du phénomène turbulent à travers l’introduction d’un champ de variables aléatoires. En d’autres termes les fluctuations de la vitesse turbulente sont traitées par Wehrlé et Dedebant comme des variables aléatoires. Plus précisément, soit ξ une propriété quelconque du fluide (pression p, température θ, vitesse (u,v,w), densité ρ etc.) et f (P) la valeur moyenne au point P sur tous les intervalles de temps de duréeT

2 (que nous numérotons 1,2,..,n) qui fractionnent un intervalle de temps très long tel que ξ(P) garde la même valeur quel que soit cet intervalle choisi (mouvement stationnaire). A l’aide d’un instrument capable de faire une

moyenne sur la durée T

2 (correspondant à l’étage de perturbation considéré), à chacun des intervalles de durée T

2, les valeurs de ξ(P) mesurées obtenues seront :

ξ1(P),ξ2(P)....,ξn(P)

où pour chacun de ces valeurs ξk sera appliquée la décomposition de Reynolds :

ξk = ξ(P) + ξk(P)

C’est dans ce contexte que l’école de Wehrlé et Dedebant introduit son idée ori-ginale à la théorie statistique de Taylor-Von Kármán afin de conserver la nature aléatoire de la turbulence même, ce qui est plus conforme à l’expérience. À partir de Boussinesq et Reynolds, les théories précédentes, y compris celles de Taylor et Von Kármán, avaient étudié ξk(P) comme une fonction régulière, en préservant ses propriétés de continuité et de dérivabilité et en niant par la suite le caractère aléatoire de la turbulence. En revanche, les membres de l’école française construi-sirent une théorie qui ne repose plus sur cette hypothèse. En effet, ils traitèrent les composantes d’agitation ξk(P) comme des variables aléatoires qui ne seront connues que par des courbes de fréquence et par des équations contenant les paramètres statistiques de ces courbes47:

"Nous nous refuserons désormais à traiter les composantes d’agita-tion f ′ 48autrement que d’un point de vuestatistiquement pur : nous

47. Naturellement, la composante moyenne ξ(P) sera étudiée de la même manière que les prédécesseurs de Wehrlé et Dedebant, à savoir en tant que champ moyen stationnaire décrit par une fonction continue et dérivable de x,y,z.

renoncerons dans la théorie à toute connaissance individuelle des f, nous ne les traiterons plus que comme des variables aléatoires ; nous pulvériserons complètement la chronologie du mouvement n’attachant plus

aucune importance à l’instant (numéro k) où telle valeur fkest réalisée mais seulement à sa fréquence dans l’ensemble. " [Kampé de Fériet 1937b, 380]

C’est l’étude expérimentale de la structure des éléments météorologiques qui les avait menés vers l’idée que les fonctions ordinaires de l’analyse étaient absolument impropres à représenter les phénomènes naturels. En second lieu ce qui change est l’ensemble des règles du calcul de la moyenne d’une propriété du fluide. Taylor, Von Kármán et les autres prédécesseurs avaient toujours utilisé l’intégrale de Riemann pour calculer ξ, c’est-à-dire la moyenne temporelle d’une propriété du fluide ξ. Wehrlé et Dedebant, en reprenant le problème à sa base, au lieu du calcul riemannien de la moyenne, avaient remplacé cette intégrale avec celle de Lebesgue, "qui élimine toute idée de succession chronologique et permet de dériver sous le signeR

les fonctions de distributions en un point jouissant des propriétés de continuité et dérivabilité retirées aux variables physiques" [Dedebant et Wehrlé 1938, 1791] :

ξ =

Z

ξF(ξ/P)dξ

où F(ξ/P) est la fonction de distribution de l’élément ξ au point P et le domaine d’intégration correspond à l’espace des fréquences statistiques.

En d’autres termes, Wehrlé et Dedebant ont renouvelé la théorie de la turbu-lence de Taylor-von Kármán en supposant, ce qui est plus conforme à l’expérience, que la vitesse des particules est une fonction aléatoire du temps et de l’espace. D’après eux tous les éléments météorologiques sont des fonctions aléatoires dont la description logique nécessite deux valeurs : une de moyenne X (les valeurs

probables) et une d’écart (ou dispersion)pX2, les moments statistiques de pre-mier et du deuxième ordre qui sont des fonctions non aléatoires. Chaque élément météorologique doit donc être décrit par ces deux paramètres statistiques, qui sont obtenus par différents instruments très fins opérant par pointé comme le dépouillement micro-photométrique d’une plaque fixe impressionnée par un spot lumineux commandé par l’organe sensible [Dedebant et Wehrlé novembre 1938, 33c].

Des courbes régulières aux courbes de fréquence

Dans le cadre de cette traduction de la turbulence en langage aléatoire, un rôle important est joué par le concept de courbe de fréquence. Les courbes de fréquence se montrent en effet plus efficaces que les courbes régulières dans la jus-tification sur le plan expérimental du point de vue purement statistique de Wehrlé et Dedebant . Plus précisément, d’après Wehrlé et Dedebant, ce sont les courbes de fréquences, et les moyennes qui s’en déduisent, qui justifient leur théorie et qui donnent principalement les renseignements sur ξ qui viennent de l’expérience. Là, la loi de distribution F(ξ/P) peut être vue alors comme une courbe de fréquence. Pour ce qui concerne la vitesse par exemple, le champ de vitesse est un champ de variables aléatoires, plus précisément de fonctions aléatoires du temps. Dans ce contexte, les mesures du champ des vitesses sont effectuées en plaçant les anémomètres en un certain nombre de points fixes (système de variables eulé-riennes). Cependant, en opérant par pointés, ces techniques ne permettent pas un enregistrement continu des vitesses, et l’ensemble des points enregistrés couvrant une certaine région du plan rend impossible le fait de tracer un ordre chronolo-gique de la succession de ces points. Le seul procédé pour leur dépouillement est donc le dénombrement statistique (direct ou photométrique) et son résultat immédiat est une courbe de fréquence. En généralisant ce raisonnement au cas plus complexe de l’atmosphère, ils construisirent la courbe aux voisinage d’un instant t, en choisissant un intervalle de temps autour de t qui soit assez court pour considérer le fluide permanent et assez long pour calculer l’évolution des fréquences.

Dans le cas de la vitesse u définie sur un système de variables lagrangiennes par exemple, l’intégrale u =

Z t+T

t−T u(s)ds n’est pas en général intégrable au sens

de Riemann à cause de la complexité de la courbe u(s). C’est pourquoi Wehrlé et Dedebant décidèrent de procéder par la méthode du dénombrement où la vitesse est décomposée par les points u1, u2, u3, .... Là, ils mesurent le nombre ni de fois où, dans la durée 2T relativement grande par rapport à l’instant t, la vitesse enregistrée a été comprise entre ui et ui+1. Si le nombre total de points des vitesses est N = P ni, on peut dresser un tableau des fréquences Pni

N, c’est à dire une courbe donnant les fréquences en fonction de la vitesse. En conséquence, la valeur moyenne de u sera calculée par la formule :

u =Xni Nu

i

si ui est une valeur comprise entre ui et ui+1, par exemple 12(ui+ ui+1). Cette for-mule n’est qu’une intégration approchée au sens de Lebesgue, inférée à partir de

l’expérience49.

Ainsi, sans recourir aux définitions de fonction aléatoire de Wiener ou de Kolmogorov, ils définissent le champ d’une fonction aléatoire X(t) par une autre voie, à travers la courbe de fréquence F(ξ/P) et la fonction de corrélation entre deux points P et Q du champ. La première est la probabilité tel que :

ξ < X(P) < ξ + dξ

alors que la deuxième est la courbe de fréquence G(ξ/P,η/Q) ou bien la probabilité que simultanément on ait :

ξ < X(P) < ξ + dξ, η < X(Q) < η + dη

Le concept de "courbe" et de "chronologie" de Taylor et Von Kármán sont alors remplacés par "variable aléatoire" et "fréquence" et la fonction aléatoire peut être représentée par un ensemble de points50. Cela est un exemple montrant leurs efforts peut justifier leurs idées sur le plan expérimental. Malheureusement, nous n’avons trouvé aucun document permettant de développer cette partie expérimen-tale. Tous ce que nous avons trouvé se trouve dans l’œuvre de Jean Bass [Bass 1946].

Dans la sous-section suivante, nous montrerons quel est le rôle de l’IMFL dans le cadre de la légitimation de leurs idées. A propos des courbes de fréquence, nous verrons que Kampé de Fériet et son équipe collaboreront avec Dedebant et son assistant Roulleau afin de tirer une méthode pour obtenir la courbe de fréquence d’une fonction aléatoire quelconque.

Un calcul aléatoire fondé sur la dérivée aléatoire de Slutsky

La théorie de Wehrlé et Dedebant repose, outre sur la notion d’échelle et de courbe de fréquence F(ξ/P), sur celle de dérivée aléatoire, ce qui permet d’effectuer un calcul stochastique en moyenne quadratique. Plus précisément, ils montrent

49. La formule peut être mise sous la forme :

u =

Z −∞

+∞ uf (u)du

dans le cas où la courbe de fréquenceni

N est remplacée par la fonction de densité de probabilité

f (ui+1− uifi). Cette formule, qui exprime la moyenne en fonction d’une densité de probabilité, sera à la base des recherches plus théoriques surtout à partir des années 1940 grâce aux travaux du mathématicien Jean Bass.

50. Pour la genèse expérimentale du concept de fonction aléatoire d’après Wehrlé et Dedebant voir [Dedebant et Wehrlé 1944b, 99].

que la dérivée aléatoire au point P (déterminée pour une question de simplicité par son abscisse x) d’une fonction aléatoire X(x) existe si le rapport :

X(x + h)− X(x)

h

admet une limite aléatoire quand h → 0, limite qui est encore elle-même une fonction aléatoire. Cette limite sera la dérivée aléatoire qui sera dénotée par ˙X(x).

En outre, cette dérivée est en moyenne quadratique si : lim h→0       X(x + h)− X(x) h − ˙X(x)       2 = 0

Ce concept est important parce qu’il permet de faire des analogies avec la méca-nique classique : si X(x), supposée dérivable en moyenne quadratique, décrit le déplacement d’une particule du fluide, alors la vitesse de cette particule n’est que sa dérivée aléatoire, c’est à dire U(t) = ˙X(x). Grâce à cette définition, ils pouvaient introduire les propriétés concernant la dispersion σ(x) (ou moment d’ordre 1) de la variable aléatoire X(t), la dispersion ˙σ (ou moment d’ordre 2) de la dérivée aléatoire ˙X ainsi que le coefficient de corrélation entre X(x) et X(x + h) :

σ2= X(x)2, ˙σ2= ˙X(x)2, r(x, x + h) = X(x)X(x + h) σ(x)σ(x + h)

D’après Wehrlé et Dedebant, la dérivée aléatoire devrait jouer en calcul des pro-babilités le même rôle que la dérivée ordinaire en analyse. C’est pourquoi ils étendirent plusieurs règles d’analyse classique au cas de la dérivée aléatoire, en particulier le concept de différentielle aléatoire, la règle de dérivation des fonctions de fonctions, la dérivée seconde aléatoire ¨X(x), la dérivée d’ordre k quelconque

d

dxX(x)k etc. De plus, ils généralisèrent ce concept au cas du point P(x,y,z) et du vecteur statistique (u,v,z) : la dérivée aléatoire sera alors un tenseur dont les composantes sont les neufs dérivées aléatoires ui, vj, zk pour i,j,k = x,y,z.

La définition de dérivée aléatoire adoptée par Wehrlé et Dedebant est celle définie par Slutsky. Dans son travail traduit et publié dans les Comptes Rendus de l’Académie des Sciences, "Sur les fonctions éventuelles continues, intégrables et dérivables dans le sens stochastique" (1928), le mathématicien russe avait donné des définitions concernant la continuité aléatoire, l’intégrale stochastique, et la dérivée stochastique51. Slutsky avait édifié toute une théorie mathématique

51. Nous reviendrons sur la dérivée aléatoire et sur son apport mathématique à la mécanique des fluides dans le chapitre 4. Pour l’instant, il est suffisant de savoir que ce concept permet d’édifier

indépendamment de la théorie de la turbulence ou d’autres théories physiques et, entretemps, Wehrlé et Dedebant avaient développé, au moins au début, cette théorie du calcul aléatoire indépendamment des mathématiciens, selon ce que Wehrlé écrit dans son ouvragel’univers aléatoire :

"Sans le savoir, nous avions été précédés dans cette voie [l’analyse aléatoire] par un mathématicien russe, Slutsky, qui avait défini la dé-rivée aléatoire en moyenne quadratique. C’est quand nous vînmes exposer à M. Fréchet les premiers succès en Physique de notre Analyse aléatoire, qu’il nous révéla le mémoire de Slutsky (paru dans un bul-letin de statistique assez confidentiel) dont il se rappelait l’existence. Quoi qu’il en soit, la publication de Slutsky ayant précédé de quelques mois notre visite à M. Fréchet, sa priorité ne fait pas de doute ; mais il ne semble pas avoir perçu toute la portée de son idée ni lui avoir donné le développement qu’elle méritait. (Voir E. Slutsky, Qualche propagazione relative alle teorie delle funzioni aleatorie, dansGiornale dell’Istituto italiano degli Attuari, 8eannée, N. 2, avril 1937.)" [Wehrlé 1956, 19]

Ainsi, cette extension des règles de l’analyse ordinaire au cas des fonctions aléa-toires avait conduit l’école française vers l’édification d’uneanalyse aléatoire

ca-pable de donner une interprétation différente des concepts de la théorie statistique de la turbulence de Taylor-Von Kármán comme le spectre et le tenseur de cor-rélation [Dedebant et Wehrlé 1939]. En effet, la relation qui lie la transformée de Fourier de la fonction de corrélation entre X(x) et X(x + s) au spectre de la fonction aléatoire X(x) sera justifiée par un théorème de Slutsky selon lequel la valeur probable du carré de la fréquence ω du spectre dans la représentation de

U(x) par une série de Fourier, est égale au terme correspondant de la série de

Fourier qu’il représente. En ce qui concerne la corrélation, à côté de la corrélation géométrique (c’est à dire le tenseur de corrélation de Von Kármán), il introduit celui de corrélation physique d’un fluide turbulent, dont le tenseur correspondant sera défini à partir de la dérivée aléatoire de la vitesse. Cette définition diffère de la définition géométrique car elle concerne les corrélations entre deux points en deux instants différents "en suivant un élément matériel ", ce qui intervient dans les problèmes dynamiques et physiques (les problèmes gouvernés par les phénomènes de diffusion par exemple).

A partir des années 1940-1945, Wehrlé et Dedebant développeront leur ana-lyse aléatoire pour construire unemécanique aléatoire, capable de généraliser la

mécanique classique : si cette dernière repose sur le concept de point matériel

doué d’une masse et concentré en un point géométrique, la mécanique aléa-toire s’appuie sur le concept decorpuscule aléatoire et de connexion aléatoire qui

prennent en compte, sur une voie statistique, outre les propriétés mécaniques, celles thermodynamiques grâce à son énergie d’agitation52. Ainsi, le point ma-tériel est remplacé par le corpuscule aléatoire dont les propriétés thermodyna-miques permettent de décrire les phénomènes de diffusion et de dissipation. Le corpuscule aléatoire V (t) est défini comme l’ensemble des fonctions aléatoires du temps (X,Y ,Z) qui sont dérivables au moins deux fois en moyenne quadratique. Si la fonction aléatoire X(t) admet une dérivée aléatoire U(t) en moyenne qua-dratique, le corpuscule aléatoire défini par les vecteurs position X(t) et vitesse