• Aucun résultat trouvé

Biologie

Dans le document Émergence et entropie (Page 167-178)

3.4 Autres disciplines

3.4.3 Biologie

Historiquement, mais aussi conceptuellement, la récupération du concept d’entropie en biologie se présente sous deux aspects : (i) selon une approche substantielle, en ce sens que l’entropie thermodynamique est simplement appliquée à une classe de phénomènes particuliers, les êtres vivants, considérés comme des systèmes thermodynamiques (généralement) ouverts ; et (ii) selon une approche

analogique, où une fonction d’un espace des phases (généralement) génotypique trouve des similitudes

avec l’entropie statistique et s’insère conséquemment dans le formalisme de la mécanique statistique (Chapitres 6)66.

La relation entre la mécanique statistique et la biologie de l’évolution a une longue histoire (voir Provine 1971 ; Morrison 1997 et 2007 ; Jodoin 2014b). L’utilisation des méthodes statistiques dans la

66 Malheureusement, l’emploi, sur les modes analogique et substantiel, du concept d’entropie en biologie ne peut recevoir ici

caractérisation du comportement des grands ensembles idéalisés constitue la base de l’analogie entre les deux disciplines. Par exemple, l’un des objectifs de Ronald A. Fisher (1890-1962) était de combler les lacunes explicatives du modèle mendélien qui pouvait prédire la descendance d’un individu mais pas d’une population. Il a ainsi été le premier à fournir une véritable description des opérations de la sélection comme « un processus de remplacement des gènes dans une population mendélienne » (Morrison 2007 : 319). L’énoncé de ce que Fisher (1930 : 35) appelle le théorème fondamental de la sélection

naturelle (TFSN) est le suivant : « le taux d’accroissement de la fitness de tout organisme à n’importe

quel moment est égal à sa variance génétique en fitness à ce moment-là ». Formellement, dM/dt = W,

où M est la fitness moyenne de la population et W est ce que Fisher appelle la « variance génétique en

fitness » (« genetic variance in fitness »). Puisque la variance W est une quantité non négative, il s’ensuit que

la fitness populationnelle moyenne M est une quantité non décroissante.

Selon Fisher, le TFSN suggère ainsi que les changements évolutionnaires attribuables à la sélection naturelle sont intrinsèquement directionnels, en ce sens qu’ils évolueraient vers des états finaux caractéristiques. Ce théorème présentait selon lui une « ressemblance remarquable avec la seconde loi de la thermodynamique » (Fisher 1930 : 36). Dans les deux cas, il s’agit de propriétés de populations qui demeurent « vraies » peu importe la nature des éléments qui les composent et dans les deux cas il s’agit de « lois statistiques » requérant un accroissement continu d’une quantité « mesurable », en l’occurrence l’entropie ou la fitness. À l’instar de la seconde loi qui stipule qu’un système isolé évolue toujours d’un état à un autre d’entropie plus élevée, le TFSN semble indiquer qu’une population évolue toujours, sous l’action de la sélection naturelle, d’un état possédant une fitness relativement basse à un état de fitness plus élevée. Ainsi, la sélection naturelle serait un processus de changement dirigée. (Pour un examen critique de cette récupération conceptuelle, voir Jodoin 2013d et 2014b).

Outre cette récupération conceptuelle par analogie formelle, le concept d’entropie est aussi utilisé en biologie selon une approche substantielle, c’est-à-dire par une application de la physique aux systèmes biologiques. Déjà, on l’a vu, Thomson (1852, in 1882 : 514) tirait des conclusions du second principe à l’effet que la terre deviendra tôt ou tard « inhabitable pour l’homme ». Le caractère apparemment inéluctable de l’augmentation de l’entropie a aussi donné l’impression qu’il était incompatible avec le phénomène de la vie. Mais une compréhension élémentaire du principe entropique (Chapitre 4) est suffisante pour balayer cette impression. En effet, si l’entropie d’un être vivant peut diminuer, ce qui équivaut, par abus de langage, à ce qu’on a appelé un apport de « néguentropie », alors nécessairement celle de son environnement augmente, ce qui n’est pas fondamentalement différent, du point de vue physique du moins, du fonctionnement d’un réfrigérateur, un système ouvert et un processus « forcé » selon la distinction de Clausius.

En terminant, et pour bien montrer toute la richesse mais aussi, en quelques sortes, l’amphibologie du concept d’entropie, voici trois autres exemples. D’abord, dans un ouvrage désormais célèbre, issu d’une série de conférences données à Dublin, Schrödinger (1944) a évoqué la nature « énigmatique » des organismes vivants qui semblent « éviter la décadence vers l’équilibre »67 en se nourrissant

d’« entropie négative ». S’appuyant sur la formulation de l’entropie de Boltzmann, il interprète alors l’entropie comme une mesure du désordre, en sorte que la capacité d’un organisme vivant à se maintenir dans un état stationnaire d’ordre relativement élevé consiste à « tirer continuellement de l’ordre de son environnement »68. Ensuite, l’hypothèse Gaïa laisse entendre que la Terre est un

organisme luttant contre des forces entropiques l’amenant vers le désordre (Wikipédia, « Gaïa

Hypothesis »69). Enfin, Chalmers (1996) a proposé l’idée que l’entropie au sens de Shannon était la clé

pour comprendre rien de moins que le dualisme corps-esprit.

67 « evade the decay to equilibrium ».

68 « continually sucking orderliness from its environment ».

69 Je me permets ici de citer l’encyclopédie en ligne Wikipédia, car compte tenu de la nature de l’hypothèse il me paraît

3.5

Conclusion

Au terme de cet historique, aux allures d’une épopée, parfois « tragicomique » pour reprendre l’expression de Truesdell (1980) à propos de l’histoire de la thermodynamique, on constate à quel point le concept d’entropie joue un rôle majeur dans plusieurs disciplines scientifiques. On constate par ailleurs que le concept d’entropie ne se laisse pas facilement appréhendé. Il fut d’abord motivé par un effort technologique d’améliorer le fonctionnement des machines à vapeur, et donc issu des développements de la thermodynamique, avec les travaux de Carnot, Clausius et Thomson, dans un contexte de révolution industrielle. Il découle du second principe de la thermodynamique, selon lequel il ne peut y avoir conversion complète de la chaleur en travail. Curieusement, ce principe a d’abord été proposé, en substance quoiqu’indirectement, par Carnot, avant même que l’énergie soit un concept bien établi. Il semble en effet que les définitions opératoires des transferts d’énergie, sous forme de chaleur ou de travail, étaient suffisamment claires pour qu’on puisse avancer théoriquement, mais modestement, sans l’unification conceptuelle offerte par le concept d’énergie.

L’apport majeur de Carnot est d’avoir offert une quantification de la conversion de la chaleur, le « calorique », en travail, la « puissance motrice ». Et ce faisant il offrait aussi une expression quantitative simple, dépendant seulement des températures d’opération, de l’impossibilité du mouvement perpétuel. Thomson a ensuite reformulé ces résultats, à la lumière des travaux de Joule, et ainsi donné les expressions du premier et du second principe de la thermodynamique, alors naissante. Mais c’est à Clausius que l’on doit le concept original de l’entropie. Il a ainsi exprimé par une fonction d’état ces « valeurs d’équivalence » en supposant un cas limite idéal exemplifiant, comme chez Carnot, la réversibilité, où ces valeurs se compensent mutuellement. Cette fonction d’état a été désignée par la lettre S, pour aucune raison apparente, et nommée « entropie » à partir du grec pour « transformation » et du préfixe « en » pour sa proximité avec le mot « énergie ». Mais cette fonction d’entropie demeure indéterminée pour un processus irréversible, car elle n’offre qu’un seuil minimal pour un cas de réversibilité, ni pour un système qui n’est pas à l’équilibre. Les travaux subséquents, toujours en cours de développement, en thermodynamique traitant du non-équilibre et des processus irréversibles n’ont pas modifié substantiellement le concept d’entropie.

À la fin du XIXe siècle, il s’est retrouvé au cœur de débats portant sur les constituants de la matière

et les fondements de la physique, avec les travaux de Maxwell et Boltzmann. Il a par la suite été récupéré, sans doute en raison de son côté abstrait, dans plusieurs disciplines, comme la mécanique quantique, la théorie des communications et la génétique des populations. En ce sens, il s’agit bien là d’un concept « protéiforme » (Balian 2003). Et sa difficile appréhension exprime certaines difficultés

profondes de l’épistémologie. En effet, d’une part il découle de l’observation de phénomènes physiques maintes fois répétés comme la diffusion de la chaleur ou le fonctionnement de machines et dont le traitement théorique au moyen de ce concept semble parfaitement corroboré. D’autre part, et c’est là le principal schisme conceptuel ouvrant sur la mécanique statistique, il reçoit une formulation et une interprétation à partir d’un traitement mathématique à partir d’une théorie jugée fondamentale, la mécanique, appliquée à un grand nombre d’entités inobservables, d’où les statistiques, mais considérées comme les constituants de la matière observable. L’opposition entre empirisme et rationalisme trouve donc ici l’une de ses expressions les plus vives.

Les écrits de Maxwell et de Boltzmann, les articles comme les correspondances, indiquent bien la nature des débats qui animaient leurs travaux en mécanique statistique. Le premier n’a d’ailleurs jamais tenté d’offrir une interprétation mécaniste du second principe ou de l’entropie, lesquels étaient, selon lui, des concepts de nature statistique, ce que tente d’illustrer son expérience de pensée, le « démon de Maxwell ». Cette expérience, qui fait encore l’objet de débats, laisse entendre que l’entropie « survient » en raison de nos limitations sensorielles et cognitives à suivre la trajectoire d’un très grand nombre de molécules. Le second a suivi les traces du premier, en ceci qu’il s’est appuyé sur l’hypothèse du Stoßzahlansatz et sur une distribution stationnaire des vitesses des nombreuses molécules constituant un gaz macroscopique, c’est-à-dire à notre échelle, pour représenter un l’état d’équilibre. L’accomplissement majeur de Boltzmann est ici d’avoir identifié une quantité, fonction de variables mécaniques, qui décroît dans le temps avant de se maintenir fixe lorsque la distribution des vitesses est de type maxwellien, ce qui reflèterait l’accroissement (inverse) de l’entropie qui atteint un maximum à l’équilibre.

Mais la version statistique de l’entropie a reçu un autre traitement avec la méthodologie des ensembles développée par Gibbs. Très formelle et rigoureuse, à l’image de son fondateur, cette approche se laisse cependant difficilement appréhendée par l’interprétation, procédant pour l’essentiel par analogie. Une méthode qui semble avoir fait école puisqu’Einstein a aussi procédé de la sorte pour l’explication de l’effet photoélectrique, de même Shannon pour la quantification de l’information, von Neumann pour la version quantique de l’entropie et, dans une certaine mesure, Fisher en génétique des populations.

RÉSUMÉ. Le concept d’entropie fait paradoxalement consensus sur deux points : il est

fondamental et personne ne sait vraiment de quoi il s’agit. Il importe donc d’apporter un examen épistémologique critique de ce concept afin d’en définir le sens et d’en identifier le caractère fondamental ainsi que les usages légitimes selon les contextes explicatifs pertinents. Le présent chapitre focalise sur la version thermodynamique du concept d’entropie : discussions sur l’irréversibilité (« flèche du temps »), définitions et principes fondamentaux de la thermodynamique, signification du second principe comme étant distinct du principe entropique, construction et propriétés de la fonction d’état définissant l’entropie, la question du non-équilibre, et la valeur des stratégies explicatives impliquant le principe entropique.

You can’t win with a loosing hands Bob Dylan

Paradoxalement, on l’a vu, le concept d’entropie fait consensus sur deux points : il est fondamental et personne ne sait vraiment de quoi il s’agit. Comme le soulignait Khinchin déjà en 1949 ( : 137), très peu de notions scientifiques ont reçu autant d’efforts afin de clarifier leur signification théorique et philosophique.

Plusieurs auteurs ont donné leur imprimatur au second principe de la thermodynamique en le présentant comme l’un des principes les plus fondamentaux de la physique moderne, voire le plus fondamental. Incidemment le concept d’entropie censé exprimer le sens de ce principe serait un concept physique essentiel. Ainsi, par exemple, Planck (1945 : 107) était persuadé que les futurs métaphysiciens considéreraient le principe entropique (version Planck) comme rien de moins qu’une « vérité apriorique ». Eddington (1928 : 74-5) a écrit ces mots maintes fois cités, qu’il vaut la peine de présenter ici, exprimant le statut privilégié de ce principe :

La loi selon laquelle l'entropie augmente toujours — la seconde loi de la thermodynamique — occupe, je crois, la position suprême parmi les lois de la nature. Si quelqu’un vous fait remarquer que votre théorie fétiche de l’univers est incompatible avec les équations de Maxwell – alors tant pis pour les équations de Maxwell. Si elle se trouve réfutée par l’expérience — eh bien, ces expérimentateurs connaissent aussi leurs

ratées. Mais si votre théorie est en contradiction avec la seconde loi de la thermodynamique, je ne vous accorde aucun espoir ; il ne vous reste qu’à vous écrouler dans la plus profonde humiliation.1

Selon Einstein (1951), la thermodynamique classique est la seule théorie dont le cadre théorique fondamental ne serait jamais révolu. Enfin, et la liste pourrait être encore longue, la validité du second principe de la thermodynamique, pour Brillouin (1949), serait aussi assurée que les lois fondamentales de la mécanique classique.

Le concept d’entropie est pourtant mal compris et souffre d’une multiplicité définitionnelle, d’une polysémie. Ainsi Capek & Sheehan (2005) ne présentent pas moins de vingt-et-une formulations de l’entropie et évoquent les travaux de Hänggi qui en retracerait cinquante-cinq variétés. L’entropie serait ainsi un concept étrange, difficile et multiforme (Darrigol 2003) ; bref, un concept protéiforme (Balian 2003) ; énigmatique (Capek & Sheehan 2005) ; abstrus (Atkins 1987) ; dont le consensus quant à sa signification reste inaccessible (Grandy 2008) ; différent de la plupart des autres quantités physiques (Wherl 1978) ; voire un concept mal nommé et ne signifiant, à toutes fins pratiques, rien (Ben-Naim 2008). Mais il serait (aussi) le concept le plus influent de la mécanique statistique (Sethna 2011) ; et le plus fascinant de la thermodynamique (Rigden 2005) ; un concept nécessaire à la compréhension du comportement des systèmes macroscopiques (Gould & Tobochnik 2006) ; utile à l’analyse des dispositifs d’ingénierie (Çengel & Boles 2006) ; représentant une quantité physique fondamentale (Lieb & Yngvason 2003 ; Brissaud 2005) ; un concept qui mérite le respect (Atkins 1987) ; et plus fondamental que le concept de température (Lieb & Yngvason 2003 ; Thess 2011).

Cette panoplie de références ne fait qu’illustrer l’effervescence entourant ce concept. Et pourtant elle n’est qu’un aperçu. Il a été vu (Chapitre 3) que l’origine du concept d’entropie remonte à la révolution industrielle alors que les ingénieurs tentaient de comprendre et d’optimiser le rendement des machines à vapeur. Les travaux de Sadi Carnot, qui s’appuient sur l’impossibilité du mouvement perpétuel, ont constitué un élément majeur dans l’heuristique du concept d’entropie en ce qu’ils présentent le concept de cycle réversible duquel une quantité maximale de travail peut être extraite d’une quantité de chaleur donnée. Mais ils montrent surtout que la conversion de la chaleur en travail est limitée de principe, ce qui signifie que le rendement de ces machines à vapeur est aussi limité. La formalisation mathématique ainsi que le nom de l’entropie (du grec « transformation ») sont dues au physicien allemand Rudolf Clausius. L’idée générale derrière cette formalisation est qu’une quantité – δQ/T – se conserve lors d’un processus réversible entre deux états d’équilibre mais ne se conserve par

1 « The law that entropy always increases — the second law of thermodynamics — holds, I think, the supreme position among the laws of Nature. If

someone points out to you that your pet theory of the universe is in disagreement with Maxwell’s equations — then so much the worse for Maxwell’s equations. If it is found to be contradicted by observation — well, these experimentalists bungle things sometimes. But if your theory is found to be

lors d’un processus irréversible. Comme la tendance à l’équilibre des systèmes isolés de leur environnement constituait déjà un fait physique bien établi (Fourier), cette quantité est censée augmenter puis se maintenir dans le temps pour tout système isolé de son environnement et atteignant l’équilibre après un certain temps. Or, un processus réversible est une idéalisation qui n’est donc jamais instanciée. Tous les processus ne sont donc pas réversibles, ils sont donc irréversibles. Le concept d’entropie est ainsi articulé au sein d’un principe, le principe entropique, stipulant l’augmentation de l’entropie dans le temps (à cette nuance près qu’une diminution locale est possible, discuté plus loin). Ce principe est donc censé fournir une explication des processus vers l’équilibre et donc irréversibles parce

que l’entropie doit augmenter.

Les concepts de quantité non-conservative2 et de processus irréversible semblaient incompatibles à

première vue avec la mécanique newtonienne, qui est réversible par rapport au renversement du temps. Ludwig Boltzmann a ainsi tenté de traduire ce concept en termes de quantités statistiques dérivées des lois mécaniques. Cette reformulation a permis d’étendre l’application du concept d’entropie aux systèmes qui ne sont pas à l’équilibre bien qu’elle repose sur un certains nombres d’hypothèses discutables. Elle a par ailleurs ouvert la voie, sans doute en raison de son caractère abstrait, à maintes interprétations et à des récupérations par analogie formelle dans d’autres disciplines scientifiques, comme la génétique des populations, la mécanique quantique ainsi que la théorie de l’information. Plusieurs questions demeurent donc ouvertes : quel est la bonne définition du concept d’entropie, quel sens a-t-il et quelle est son articulation au sein du second principe, à quels types de systèmes physiques réfère-t-il, comment l’interpréter, et quelle est sa portée dans les explications scientifiques ? La caractéristique principale du concept d’entropie, du moins celle qui soulève le plus débats, est sans nul doute l’irréversibilité. Puisque le principe entropique est jugé fondamental et qu’il est pour ainsi dire le seul à manifester l’irréversibilité, il est mobilisé au sein d’explication de « phénomènes » irréversibles tout aussi fondamentaux. Il expliquerait ainsi rien de moins que la direction du temps (Reichenbach 1956), ou encore la directionnalité de la sélection naturelle (Rosenberg 2011).

Ce chapitre s’ouvre donc sur une discussion sur l’irréversibilité (section 2). Deux sens sont ici distingués, soit celui de la non-invariance par renversement du temps et celui de l’irrécupérabilité. Face à cette apparente opposition avec la réversibilité des lois physiques, il est opportun de s’interroger sur l’origine de l’asymétrie thermodynamique et de l’irréversibilité ainsi définies par l’augmentation

2 Une force est conservative si elle dépend d’un potentiel, qui lui ne dépend pas du chemin d’intégration, autrement dit du

chemin suivi par son point d’action. De sorte que le travail effectué par cette force est aussi indépendant du chemin d’intégration et ne dépend que du potentiel. Une quantité est dite conservative s’il est possible de construire une équation de conservation de sorte qu’elle se conserve dans le temps. C’est le cas notamment de l’énergie mécanique.

d’entropie. L’approche de Boltzmann de la mécanique statistique offre une réponse en ceci que la croissance d’entropie exprimerait la tendance moyenne d’un système, composée de plusieurs molécules, d'évoluer vers des états de plus en plus probables selon une caractérisation de la gamme des états microscopiques compatibles avec les paramètres macroscopiques de ce système. Mais il n’y a pour ainsi dire rien de consensuel dans cette réponse (Chapitre 5). De plus, le concept d’entropie est censé être au centre de stratégies visant à expliquer plusieurs phénomènes irréversibles, comme les transferts thermiques, un œuf se brisant au sol, le vieillissement, ou de la direction même du temps. Il s’agit de processus qui soit ne peuvent être effectués à l’envers, soit ne retrouvent jamais leur état initial. Cette prétention associée à l’entropie s’est amplifiée au point de rejoindre les tentatives d’explication de la direction du temps lui-même, qui va inexorablement du passé vers l’avenir, mais aussi de plusieurs asymétries temporelles, comme quoi nous avons des souvenirs du passé mais pas de l’avenir, que nous pouvons influencer le futur mais pas le passé, etc. Le principe entropique se présente donc autant comme l’explanandum d’une asymétrie temporelle que comme son explanans. C’est pourquoi ce principe est censé rendre compte de la « flèche du temps ». Il y a cependant beaucoup de confusion autour de cette notion, dont, au premier chef, la notion de temps elle-même. Elle devra donc subir un examen critique afin de circonscrire adéquatement ce qui influence les interprétations du concept d’entropie et

Dans le document Émergence et entropie (Page 167-178)