• Aucun résultat trouvé

Sur la représentation mathématique des systèmes thermodynamiques

côté, l’entropie de création, toujours positif ou nul, impose le sens de l’évolution de la transformation ψcréation ≥ 0 Donc, on a dψ ≥ Z dQ Ta (2.1)

L’expression ainsi obtenue a été formulée par Clausius. On l’appelle encore inégalité de Clausius. C’est une autre façon d’exprimer le second principe.

Une autre notion, directement liée à l’entropie, est son contraire la disentropie (en-tropie négative ou force de cohésion qui s’oppose à la tendance naturelle à la désorga-nisation des systèmes). La disentropie (non-entropie) trouve son origine dans les travaux du physicien autrichien Erwin Schrödinger en 1944, est développée par les américains Claude Shannon et Warren Weaver en 1948, puis par le français Léon Brillouin en 1956. A l’inverse de l’entropie qui a une tendance naturelle à la désorganisation, la disentropie peut-être assimilée comme une entropie à croissance négative ou une croissance disentro-pique positive. La disentropie est considérée en physique des systèmes comme un facteur d’organisation.

Ainsi, le deuxième principe de la thermodynamique peut aussi être représenté par une inégalité faisant intervenir la disentropie

dφ ≤ Z

dQ × Ta (2.2)

où φ est la disentropie du système. Cette expression s’appelle l’inégalité inverse Clausius. Contrairement à l’énergie, l’entropie et la disentropie sont deux notions non conserva-tives. Particulièrement dans un système isolé, l’énergie totale est toujours constante, mais l’entropie tend à augmenter, tandis que la disentropie a tendance à diminuer. Ces deux notions jouent un rôle très important pour évaluer les performances d’un système.

2.3 Sur la représentation mathématique des systèmes

ther-modynamiques

La représentation mathématique des systèmes thermodynamiques a été largement dé-veloppée par de nombreuses approches. En 2005 Haddad a proposé une représentation discrète basée sur les systèmes compartimentaux [54]. C’est ce modèle qu’on propose

d’exploiter par la suite afin d’introduire la démarche thermodynamique présentée dans ce chapitre.

Les modèles compartimentaux permettent d’étudier l’évolution au cours du temps de quantités de substance au travers de blocs homogènes nommés compartiments, et ils représentent le comportement du système à l’étude au moyen d’équations relatives aux propriétés de ces compartiments. Ainsi, les variables d’état peuvent par exemple repré-senter les tailles des compartiments ou les paramètres et les taux de transfert de substance entre ces compartiments (l’énergie dans le cas des les systèmes thermodynamiques). Dans un modèle compartimental, il est essentiel de faire l’hypothèse d’homogénéité dans les compartiments ; c’est à dire que la matière dans un compartiment ne présente pas de différence, et que toute unité de matière qui entre dans un compartiment se mélange ins-tantanément au contenu du compartiment.

Un système thermodynamique peux être graphiquement représenté par un ensemble de n boîtes (sous-systèmes), chacune étant un compartiment du modèle, et un système d’arcs orientés reliant les compartiments (voir Figure 2.1). Chaque compartiment du ré-seau représente un dispositif de stockage qui contient une quantité variable d’une espèce matérielle ou immatérielle déterminée (masse, énergie, information...).

2.3 Sur la représentation mathématique des systèmes thermodynamiques 31

Soient Ei l’énergie stockée dans le sous-système Ψi, i ∈ {1, · · · , n} et Ei > 0 sa capacité thermique. Alors la température du compartiment Ψiest donnée par :

Ti = Ei/Ei, i ∈ {1, · · · , n} (2.3) Dans les systèmes thermodynamiques, il y a des échanges ou transferts d’énergie entre les sous-systèmes. Ils peuvent se faire soit par des transports physiques d’une localisation à l’autre, soit par des réactions chimiques. Les échanges d’énergie entre les sous-systèmes sont symbolisées par σe

i,j, i 6= j (resp, σe

j,i) qui représente le flux d’énergie entrant à l’instant k dans le compartiment i (resp, j) depuis le compartiment j (resp, i). Par ailleurs, des arcs d’entrée et de sortie supplémentaires représentent les interactions du réseau avec son environnement : soit des flux d’entrée notés rei injectés de l’extérieur dans le sous-système i, soit des flux de sortie dei soutirés du sous-système i vers l’extérieur.

Un système thermodynamique est généralement caractérisé par des équations ma-thématiques qui décrivent l’évolution au cours du temps des variables d’état du modèle que sont les énergie stockées dans chaque sous-système. L’écriture de ces équations re-pose sur le principe de conservation de la masse. Appliqué au sous-système i à l’ins-tant k, ce principe traduit le fait que pendant l’intervalle de temps [k, k + 1] la variation ∆Ei(k) = Ei(k + 1) − Ei(k) de la quantité d’énergie présente dans le sous-système i est égale à la différence entre les sommes des flux entrants et sortants.

Plus précisément, si l’on considère le i-ème sous-système Ψi, l’équation régissant son évolution au cours du temps s’écrit de la manière suivante :

∆Ei(k) = Ei(k +1)−Ei(k) = n X j=1,j6=i  σi,je (k)−σj,ie (k)+rei(k)−dei(k), k ∈ N (2.4) Notons tout de suite que dans cette équation, seuls sont explicités les termes correspondant à des liens effectifs du système. En d’autres termes, les σe

i,j, re i et de

i correspondant à des liens inexistants n’apparaissent pas dans les équations.

Si l’on considère maintenant les n sous-systèmes, l’équation (2.4) peut s’écrire sous la forme matricielle suivante :

E(k + 1) = E(k) + le(k) + re(k) − de(k) (2.5) où E(k) = [E1(k), · · · , En(k)]T est le vecteur d’état du système à l’instant k, re = [re1, · · · , rne]T est le vecteur des flux d’entrée, de = [de1, · · · , den]T est le vecteur des flux de

sortie et le = [le

1, · · · , le

n]T représente tous les échanges d’énergie entre les sous-systèmes, c’est à dire : lei = n X j=1,j6=ii,je − σe j,i), i ∈ {1, · · · , n} (2.6)

2.3.1 Formulation de l’entropie

Pour formuler l’entropie, Haddad [54] a présenté la version discrète suivante de l’in-égalité de Clausius pour le système (2.5)

ψ(E(k + 1)) ≥ ψ(E(k)) + n X i=1 Qi(k) Ta i (k + 1), ∀k ∈ N (2.7) où ψ(E) est l’entropie du système thermodynamique, Tia(k+1) est la température absolue du i-ème sous-système à l’instant k + 1 et Qi(k) est l’énergie échangée par le i-ème sous-système avec le milieu extérieur :

Qi(k) = rie(k) − dei(k), i ∈ {1, · · · , n}

En se basant sur cette inégalité, Haddad a formulé l’entropie du système comme suit : ψ(E) , E∗T ln(τ  + PeE) − TEln τ (2.8) où ln(x) = [ln(x1), · · · , ln(xn)]T, E = [E1, · · · , En]T,  = [1, 1 · · · , 1]T, τ est un scalaire positif tel que Ta

i = τ + Ti, i ∈ {1, · · · , n}, Ti est la température du système donnée par l’équation (2.3) et Pe est une matrice diagonale dont les éléments diagonaux sont 1/Ei.

Notons tout de suite que la formulation de l’entropie (2.8) est identique avec celle de Boltzmann en physique statistique. En effet, on sait que si le i-ième sous-système thermodynamique est sans transition de phases, son entropie à des température absolues différentes (Ta

1, Ta

2) est donnée par [55] :

ψi(E1) − ψi(E2) = EilnT a 1 Ta 2 , (2.9) Or Ta i = τ + Tiet Ti = Ei E∗

i, il vient aussitôt que : ψi(E1) − ψi(E2) = Eiln τ + E1 E∗ i τ + E2 Ei , ∀i ∈ {1, · · · , n} (2.10)

2.3 Sur la représentation mathématique des systèmes thermodynamiques 33

Si maintenant T2 = 0 alors E2 = 0. Ainsi, l’équation (2.10) devient : ψi(E1) = ψi(0) + Eiln τ + E1 E∗ i τ = ψi(0) + Eiln(τ + E1 E i ) − Eiln τ (2.11) Par ailleurs, on sait que (théorème de Nernst) :

ψi(0) = lim

Ei→0ψi(Ei) = 0 (2.12) Par conséquent, l’équation (2.11) devient :

ψi(E1) = Eiln(τ + E1 Ei) − E

i ln τ (2.13) Ainsi, l’entropie du système global est donc donnée par :

ψ(E) = n X i=1 Eiln(τ + Ei E i ) − Eiln τ (2.14) ce qui est exactement la formulation de Haddad (2.8).

Remarque 2.1 Pour un système isolé, i.,e, Qi(k) = 0, ∀i ∈ {1, · · · , n}, l’inégalité (2.7) montre que ψ(E(k + 1)) ≥ ψ(E(k)). Ceci montre que l’entropie définie par (2.8) est une fonction croissante pour un système isolé. Ce qui traduit exactement le deuxième principe de la thermodynamique (l’entropie d’un système isolé ne peut pas diminuer). Néanmoins, la diminution d’entropie d’un système non isolé est possible si l’augmentation de l’entro-pie du milieu extérieur fait plus que compenser la diminution d’entrol’entro-pie de ce système. Le bilan entropique reste alors conforme à la deuxième loi de la thermodynamique et se traduit par une augmentation globale de l’entropie, assimilée à une création d’entropie qui est donc la caractéristique de toutes les transformations réelles. I

2.3.2 Formulation de la disentropie

La disentropie a la caractéristique précise d’entraîner un système en désordre vers un niveau d’auto-organisation. Pour formuler cette fonction, Haddad a présenté dans un premier temps l’inégalité inverse de Clausius suivante :

φ(E(k + 1)) − φ(E(k)) ≤

n

X

i=0

où φ(E) est la disentropie du système thermodynamique, Qi(k) est l’énergie échangée par le i-ème sous-système avec le milieu extérieur, Ti(k + 1) est la température absolue du i-ème sous-système à l’instant k + 1. Ainsi, en se basant sur cette inégalité, Haddad à formulé la disentropie du système comme suit :

φ(E) , 1 2E

T

PeE (2.16)

où Pe est une matrice diagonale dont les éléments diagonaux sont 1/Ei.

Remarque 2.2 Pour un système isolé, i.,e, Qi(k) = 0, ∀i ∈ {1, · · · , n}, l’inégalité (2.15) montre que φ(E(k + 1)) ≤ φ(E(k)). Ceci montre que la disentropie est une fonction décroissante pour un système isolé. Par conséquent, l’entropie augmente si et seulement si la disentropie diminue. Ceci montre la dualité entre l’entropie (mesure du désordre) et la disentropie (mesure de l’ordre). I Dans la section suivante, nous allons voir comment les liens se tissent entre les sys-tèmes de transport et la thermodynamique. Pour cela, plusieurs paramètres et principes thermodynamique vont trouvé leurs parallèles dans le cadre des systèmes de transport.