• Aucun résultat trouvé

Entropie statistique d’un état macroscopique

3.4 Entropie microcanonique

3.4.2 Entropie statistique d’un état macroscopique

Nous cherchons maintenant à généraliser et transposer au cadre micro-canonique la définition de l’entropie (cinétique) que nous avions proposée à la fin du chapitre précédent. Nous gardons à l’esprit l’idée originelle que premièrement l’entropie est, à un facteur près, le logarithme du nombre d’états microsco-piques compatibles avec un état macroscopique donné et deuxièmement, si on a divisé l’espace en petites cellules de mêmes tailles et si l’on est à l’équi-libre, chacune d’elle a la même probabilité d’être occupée.

Mais cette fois le paradigme est un peu différent, car au lieu de découper Ω (voire même TΩ) en petites « cases » et de dénombrer la proportion de N particules dans chaque case, c’est une partie de l’espace des phasesTN (ou TSΩN ) que nous allons découper en petites cellules (qI)I[[1,M]] et, comme l’état microscopique du gaz est alors représenté par un point dans l’espace des phases, nous devons faire appel à un artifice supplémentaire : imaginer une expérience avec N → ∞échantillons macroscopiquement identiques, « tirés au hasard ».

En premier nous devons « calibrer » les cellules qI de façon à ce qu’à l’équi-libre, elles soient toutes équiprobables. Grâce à l’hypothèse ergodique qui,

6Le théorème de Sanov complet fournit en fait aussi un minorant, qui est du même ordre que le majorant, et même égal siΓ est ouvert.

dans le cas du formalisme micro-canonique, privilégie la mesure de Liouville µLiou, l’équiprobabilité s’exprime simplement par la condition µLiou(qI) = µLiou(qI0),∀I, I0. Mais en plus l’entropie est une quantité extensive. Donc ici nous devons choisir une fois pour toute une valeur universelle7 pour la quan-tité µLiou(qI) (qui s’exprime en(kg·m2·s1)3N). Appelons là h3N, où h est une grandeur8qui s’exprime enkg·m2·s1. Alors il n’est pas difficile de définir la valeur de l’entropie à l’équilibre: nous divisons l’espace des phases micro-canoniqueTEE+δE ouTEE+δEN en cellulesqI de taillesµLiou(qI) =h3N. Pour cela nous en consommons un nombre Whd :=µLiou(TEE+δE)/h3N, si nous tra-vaillons sur TEE+δE (particules discernables) etWhi :=µLiou(TEE+δEN)/h3N si nous travaillons sur TEE+δEN (particulesindiscernables). Alors, pour des particules discernables, l’entropie est :

Shd :=klogWhd =klog µLiou(TEE+δE)

h3N (3.10)

et, pour des particules indiscernables, l’entropie est : Shi :=klogWhi =klog µLiou(TEE+δEN)

h3N =klogµLiou(TEE+δE)

h3NN! . (3.11) L’étape suivante consiste à comprendre comment définir l’entropie d’un sys-tème hors de l’équilibre9. Un tel système est défini par une mesure ν sur TEE+δE ou TEE+δEN, qui n’est pas uniforme en général. Ici nous pouvons nous inspirer du paragraphe précédent, où nous avons défini l’entropie relative de deux mesures de probabilité (en adaptant, puisque l’entropie thermodyna-mique est extensive alors que l’entropie relative de 2 mesures de probabilité ne mesure que le degré d’uniformité de la répartition d’une distribution).

7exactement comme pour toutes les quantités extensives (les longueurs, les masses, etc.), pour lesquelles nous devons introduire une unité de mesure (m,kg, etc.).

8Par exemple nous choisissons une échelle d’espace minimaleδx(exprimées enm) et une échelle d’impulsion minimaleδp(exprimée enkg·m·s−1) (avecδxdiamètre(Ω)etδp

2mδE

2mE) et nous utilisons des cubes(qI)I∈[[1,M]]de la formeQN i=1

Q3

α=1[xαi, xαi + δx]×[pi,α, pi,α+δx], où(x, p)TN. Alorsh= (δp)(δx).

9en fait il est nécessaire de supposer que nous sommespresqueà l’équilibre, par exemple que le système est en évolution quasi-statique, pour pouvoir définir les grandeurs thermo-dynamiques qui caractérisent nos échantillons ; pour fixer les idées, on peut imaginer que le système est divisé en deux sous-sytèmes qui sont pratiquement chacun à l’équilibre et qui évoluent de façon quasi-statique en échangeant du travail et de l’énergie

NotonsP =TEE+δEouTEE+δEN l’espace des phases. Soitµ=µLiouLiou(P) la mesure de probabilité représentant l’état d’équilibre et soitνune autre me-sure de probabilité surP, représentant un autre état. Alors, inspiré par (3.10) ou (3.11) et la section précédente, nous définissons l’entropie correspondant à l’état ν par

Remarquons que cette quantité peut s’interpréter comme la somme Sh(ν) =klog µLiou(P)

c’est à dire la somme deS(µ), l’entropie à l’équilibre, et de −k fois l’entropie relative H(ν|µ). Enfin une troisième expression de l’entropie est :

Sh(ν) :=−k

et apparaît comme (−kfois) une généralisation de l’entropie relative de deux mesures de probabilité à des mesures positives qui ne sont pas nécessaire-ment de probabilité. Ici le facteur h3N est essentiel pour que l’argument du logarithme soit sans dimension. Nous remarquons bien sûr que l’entropie dé-pend du choix de l’échelle h. Ainsi pour tout ε > 0, il est immédiat que Sεh(ν) = Sh(ν) + 3N klogε. Cette indétermination n’est pas trop gênante, puisque, dans la première définition de l’entropie, proposée par Clausius sur la base de l’équation dS =q/T (q : gain infinitésimal de chaleur), l’entropie n’était défini qu’à une constante additive près.

Définition 4 Soit ν la mesure de probabilité sur l’espace des phases TN? (discernabilité) ou TN?N (indiscernabilité) représentant un état macro-scopique donné, et donc caractérisé par des grandeurs thermodynamiques E, V,· · ·. Soit P ⊂ TN? (ou TN?N) le support de ν. Supposons que, sur P, ν a une densité régulièreρ par rapport à la mesure de Liouville, c’est à dire : dν = ρdµLiou. Alors on appelle entropie statistique de cet état ma-croscopique la quantité

où hest une grandeur choisie une fois pour toute qui s’exprime enkg·m2·s1 et k est la constante de Boltzmann.

Dans la démarche précédente, le choix de l’échelle h apparaît tout à fait arbitraire et est rendu nécessaire pour des raisons d’homogénéité et parce que nous avons besoin de fixer une certaine échelle pour « compter » le nombre d’états. Il se trouve que la nature privilégie en fait une certaine valeur, très petite, qui sera sensible en physique quantique : la constante de Planck.

3.4.3 Entropie microcanonique

Dans le formalisme microcanonique, l’ensemble des états accessibles pour le système qu’on considère est une tranche TEE+δE de l’espace des phases ou bien son quotient TEE+δEN. La mesure ν associée à un état macroscopique

H=E H=E+dE

q p

Fig. 3.2 – Représentation schématique des états microscopiques accessibles par un système. Ici, le volume du système est borné, ce qui empêche q de sortir d’un intervalle dont l’extérieur est hachuré. Lors d’une détente de Joule par exemple, cette contrainte est suprimée sans que soit rompu l’isolement du système.

de notre système a donc une densité ρ nulle hors de TEE+δE.

Entropie micro-canonique du gaz dilué

Nous allons maintenant calculer l’entropie pour un gaz dilué à l’équilibre.

NotonsP l’espace des états (TEE+δE ouTEE+δEN). A l’équilibre la mesure de probabilitéµest distribuée uniformément par rapport à la mesure de Liouville µLiou et donc on a µ = ρµLiou sur P, où ρ est constant et est donné par Il nous faut donc calculerWh.

Particules discernables— Nous calculons tout d’abordWhd :=h−3NR

TEE+δELiou, ce qui signifie que nous supposons les particules discernables. Il s’agit de calculer le volume d’une tranche comprise entre deux sphères de rayons res-pectifs R et R+δR (fois le volume de |Ω|N), où R = √

2mE/2. Alors, en supposant que α1,

C’est le moment de fixerα: nous supposons que, en plus deα1,|logα| N, ce qui est parfaitement raisonable. Alors le premier terme dans l’expres-sion qui précède est négligeable. Enfin en utilisant E = 32N kT, on obtient

Shd 'kN

log V

h3 (2πmkT)3/2

+3 2

.

Cette quantité présente l’inconvénient de ne pas être extensive, notament à cause de l’argument du logarithme qui croît linéairement avec le volume V. Ce défaut va être corrigé en supposant l’indiscernabilité des particules.

Particules indiscernables — Alors l’espace des phases est P =TEE+δEN et nous devons calculerWhi :=h3NR

TEE+δENLiou. Le calcul est très simple et il suffit de diviser parN!:Whi =Whd/N!. Cela a pour effet que Shi =klogWhi est obtenue en retranchant la quantité klogN! à Shd. Comme

−klogN!' −kN(logN −1), on en déduit que

Shi 'kN

log V

N h3 (2πmkT)3/2

+5 2

. (3.12)

Et on peut constater cette fois-ci que Shi est une quantité extensive.

Retrouver la température

Envisageons un gaz quelconque, dont la valeur de l’énergie est fixée à E et qui, par conséquent, peut être modélisé par le formalisme microcanonique.

Supposons que, par une évolution quasi-statique, le système absorbe une quantité d’énergie infinitésimale et que cette évolution se fait sans change-ment du nombre de particules N, ni changement du volumeV. Cela signifie, sur le plan de la description microscopique, que l’espace des phases TSΩN et l’hamiltonien H ∈ C1(TSΩN ) ne changent pas. Ce qui va changer, c’est HE, c’est à dire la répartition statistique et donc la mesure µ. Sur le plan de la description macroscopique, cet apport d’énergie se fait sous forme de chaleur : dE =dU =q (avec les notations du chapitre 1).

Il découle des considérations thermodynamiques que nous avons faites lorsque nous avons défini l’entropie de Clausius, que dSi = q/T = dE/T. Nous en déduisons une définition de la température à partir de l’entropie statistique micro-canonique

A titre d’application du paragraphe précédent, en utilisant l’expression (3.12) pour calculer la variation infinitésimale de l’entropie Shi, nous obtenons

dShi =kN d que la relation (3.13) est en adéquation avec la définition de Clausius de l’entropie.