Accueil > 02 - Livre Deux : SCIENCES > Atome : lois de la Physique ou rétroaction de la matière/lumière et du (...) > Qu’est-ce que l’entropie ?

Qu’est-ce que l’entropie ?

dimanche 10 janvier 2016, par Robert Paris

Le physicien Boltzmann, le père de la notion d’entropie, avec au dessus de sa statue la formule qu’il a donné de l’entropie, pour laquelle il s’est battu contre l’opinion des physiciens les plus influents (Mach, Ostwald, Helm) qui étaient "énergétistes" et s’opposaient à l’"atomisme". L’introduction par Boltzmann de cette interprétation statistique de l’entropie marque un tournant majeur dans la compréhension du passage d’une dynamique microscopique réversible à une évolution macroscopique irréversible. Cette interprétation permit notamment d’éclaircir le sens du théorème H, démontré par Boltzmann en 1872 à partir de son équation pour les gaz. Le théorème H fut en effet vertement critiqué par ses détracteurs. Cette idée d’interprétation statistique, qui avait eu tant de mal à gagner les scientifiques, sera affinée en 1907 avec le modèle des urnes d’Ehrenfest, un modèle stochastique introduit par les époux Ehrenfest.

« La question se pose de savoir quels sont les principes généraux de la Physique sur lesquels nous pouvons compter pour la solution des questions qui nous occupent. En premier lieu, nous serons d’accord pour conserver le principe de l’énergie. Il doit en être de même, selon moi, pour le principe de Boltzmann sur la définition de l’entropie par la probabilité : nous devons en admettre sans réserve la validité. Nous devons à ce principe les clartés bien faibles encore que nous pouvons avoir aujourd’hui sur les états d’équilibre statistique dans lesquels interviennent des phénomènes périodiques. (…) La probabilité W d’un état est ainsi définie par sa fréquence relative lorsque le système est indéfiniment abandonné à lui-même. A ce point de vue, il est remarquable que, dans l’immense majorité des cas, il y a, quand on part d’un état initial déterminé, un état voisin qui sera pris, le plus fréquemment de beaucoup, par le système abandonné indéfiniment à lui-même. (…) Si W est défini comme nous l’avons fait, il résulte de cette définition même qu’un système isolé, abandonné à lui-même, doit parcourir généralement des états successifs de probabilités constamment croissantes, de sorte qu’il en résulte entre cette probabilité et l’entropie S du système la relation de Boltzmann :
S = k log W + cste. Ceci résulte du fait que W, dans la mesure où l’on admet que le système évolue spontanément de manière déterminée, doit augmenter constamment en fonction du temps, et de ce qu’aucune fonction indépendante de S ne peut avoir cette propriété en même temps que l’entropie elle-même. La relation particulière que donne le principe de Boltzmann à la relation entre W et S résulte des propriétés de l’entropie et de la probabilité des systèmes complexes définies par les équations : S total = somme des entropies et W total = produit des W. Si l’on définit W par la fréquence, comme nous l’avons fait, la relation de Boltzmann prend une signification physique précise. Elle exprime une relation entre des grandeurs observables en principe : on peut en vérifier ou en infirmer l’exactitude. On utilise généralement cette relation de Boltzmann de la manière suivante : on part d’une théorie particulière définie (par exemple, de la mécanique moléculaire), on calcule théoriquement la probabilité d’un état et l’on en déduit l’entropie de cet état par application de la relation de Boltzmann, de manière à connaître ensuite les propriétés thermodynamiques du système. On peut aussi procéder en sens inverse : déterminer par des mesures thermiques effectuées sur un système l’entropie correspondante à chaque configuration et en déduire la probabilité par la relation de Boltzmann. (…) L’hypothèse des quanta cherche, de manière provisoire, à interpréter l’expression obtenue pour la probabilité statistique W du rayonnement. Si l’on imagine le rayonnement composé de petits éléments d’énergie égaux à hν, on obtient immédiatement une explication pour la loi de probabilité du rayonnement dilué. J’insiste sur le caractère provisoire de cette conception qui ne semble pas pouvoir se concilier avec les conséquences expérimentalement vérifiées de la théorie des ondulations. Mais, comme il résulte, selon moi, des considérations analogues à celle-ci, que les localisations du rayonnement conformes à notre électromagnétique actuelle ne correspondent pas à la réalité dans le cas du rayonnement dilué, il nous faut introduire d’une manière quelconque une hypothèse comme celle des quanta à côté des indispensables équations de Maxwell. »

Einstein, discutant des interventions suite à son rapport à la Conférence du premier congrès Solvay de Physique en 1911

L’application de la physique de Boltzmann par Planck et Einstein allait révolutionner la thermodynamique mais surtout donner naissance à la physique quantique...

Entre agitation et organisation : l’entropie

Entre entropie (rayonnement, réchauffement, agitation moléculaire) et néguentropie (formation de structures d’amas, de galaxies, d’étoiles, de nuages…)

Qu’est-ce que l’entropie ?

L’entropie est la quantité qui mesure le désordre dans un ensemble d’atomes et de molécules.

Les systèmes proches de l’équilibre thermodynamique sont soumis au théorème de production d’entropie minimum.

La thermodynamique affirme en effet que tout système isolé va vers une perte de niveau d’organisation appelée entropie. Cette loi d’entropie semblait contredire ce que l’on constatait dans certains phénomènes physiques, et tout particulièrement le phénomène de la vie qui produit sans cesse de l’organisation et de la complexification au lieu de détruire des niveaux d’organisation et qui ne tend pas vers l’immobilité. Bien d’autres phénomènes manifestent de cette néguentropie (une perte d’entropie, une augmentation d’organisation) et notamment la formation des atomes, des atomes les plus lourds à partir d’atomes plus légers, des molécules, des étoiles, des galaxies et amas de galaxies…

Mais la première question que l’on est amené à se poser est : pourquoi les systèmes matériels vont-ils vers une perte d’organisation (une augmentation de l’entropie). La réponse moderne est que le vide quantique provoque cette perte d’organisation au niveau microscopique qui se transfert ensuite au niveau macroscopique.
voir ici

La notion d’entropie est réliée à celle d’organisation et aussi à celle d’irréversibilité.

Le physicien-chimiste Ilya Prigogine dans "La fin des certitudes" :

« L’entropie est l’élément essentiel introduit par la thermodynamique, la science des processus irréversibles, c’est-à-dire orientés dans le temps. Chacun sait ce qu’est un processus irréversible. On peut penser à la décomposition radioactive, ou à la friction, ou à la viscosité qui ralentit le mouvement d’un fluide. Tous ces processus ont une direction privilégiée dans le temps, en contraste avec les processus réversibles tels que le mouvement d’un pendule sans friction. (...) La nature nous présente à la fois des processus irréversibles et des processus réversibles, mais les premiers sont la règle et les seconds l’exception. Les processus macroscopiques, tels que réactions chimiques et phénomènes de transport, sont irréversibles. Le rayonnement solaire est le résultat de processus nucléaires irréversibles. Aucune description de l’écosphère ne serait possible sans les processus irréversibles innombrables qui s’y déroulent. Les processus réversibles, en revanche, correspondent toujours à des idéalisations : nous devons négliger la friction pour attribuer au pendule un comportement réversible, et cela ne vaut que comme une approximation. »

Autrefois, on en était restés à l’idée de la tendance naturelle au désordre. Se fondant sur le mélange des gaz, l’établissement d’une température et d’une pression moyennes, sur l’étude des machines thermiques et des moteurs, la thermodynamique appelait entropie cette "tendance au désordre maximum". Aujourd’hui, nous reconnaissons la capacité spontanée de la nature à produire de l’ordre : formation d’une étoile, d’un nuage, d’un flocon de neige, d’un cristal. L’exemple le plus éclatant est celui de la vie. En permanence, des cellules se spécialisent, se distribuent des rôles, interagissent.

L’Ecole de Bruxelles, fondée par I. Prigogine, prix Nobel de chimie, est une école de thermodynamique, regroupée autour du sigle : « structures dissipatives ». Elle étudie la formation de structures organisées dans les systèmes hors de l’équilibre. Elle se fonde sur des principes de minimum de production d’entropie et utilise la production en excès de l’entropie comme un moyen pour rechercher l’apparition d’une instabilité, génératrice de formes.

Ilya Prigogine :

« Contrairement aux systèmes soit à l’équilibre soit proches de l’équilibre, les systèmes loin de l’équilibre ne conduisent plus à un extremum d’une fonction telles que l’énergie libre où la production d’entropie. En conséquence, il n’est plus certain que les fluctuations soient amorties. Il est seulement possible de formuler les conditions suffisantes de stabilité que nous avons baptisé "critère général d’évolution". Ce critère met en jeu le mécanisme des processus irréversibles dont le système est le siège. Alors que à l’équilibre et près de l’équilibre, les lois de la nature sont universelles, loin de l’équilibre elles deviennent spécifiques, elles dépendent du type de processus irréversibles. Cette observation est conforme à la variété des comportements de la matière que nous observons autour de nous. Loin de l’équilibre, la matière acquiert de nouvelles propriétés où les fluctuations, les instabilités jouent un rôle essentiel : la matière devient active. »

« A l’éternité dynamique s’oppose donc le « second principe de la thermodynamique », la loi de croissance irréversible de l’entropie formulée par Rudolf Clausius en 1865 ; au déterminisme des trajectoires dynamiques, le déterminisme tout aussi inexorable des processus qui nivellent les différences de pression, de température, de concentration chimique et qui mènent irréversiblement un système thermodynamique isolé à son état d’équilibre, d’entropie maximale. (…) Cependant, ce serait une erreur de penser que le second principe de thermodynamique fut seulement source de pessimisme et d’angoisse. Pour certains physiciens, tels Max Planck et surtout Ludwig Boltzmann, il fut aussi le symbole d’un tournant décisif. La physique pouvait enfin décrire la nature en termes de devenir ; elle allait pouvoir, à l’instar des autres sciences, décrire un monde ouvert à l’histoire. »
« Entre le temps et l’éternité » d’Ilya Prigogine et Isabelle Stengers

Clausius a montré que le rapport entre Q est la quantité de chaleur reçue par un système et la température T est inférieur ou égal à la variation d’une fonction d’état qu’il a appelée entropie, notée S.

Pour wikipedia :

"Plus l’entropie du système est élevée, moins ses éléments sont ordonnés, liés entre eux, capables de produire des effets mécaniques, et plus grande est la part de l’énergie inutilisable pour l’obtention d’un travail ; c’est-à-dire libérée de façon incohérente."

Rudolf Clausius,"Théorie mécanique de la chaleur ", Eugène Lacroix (1868) :

« Si l’on imagine que l’on ait formé d’une manière conséquente pour l’univers entier, en tenant compte de toutes les circonstances, la quantité que j’ai nommée entropie pour un corps particulier, ainsi que la quantité désignée sous le nom d’énergie [...], on pourra exprimer très simplement, sous la forme suivante, les lois fondamentales de l’univers qui correspondent aux deux principes essentiels de la théorie mécanique de la chaleur :

1. L’énergie de l’univers est constante.


2. L’entropie de l’univers tend vers un maximum. »

C’est à la suite des travaux de Sadi Carnot (Réflexions sur la puissance motrice du feu, 1824) que Rudolph Clausius a dégagé le concept de l’entropie d’un tel système isolé. Carnot analysait le principe des machines thermiques, qui produisent du mouvement à partir de la chaleur, en injectant de la vapeur ou de l’air sous pression dans un cylindre pour déplacer un piston. Il a constaté que la vapeur devait nécessairement se refroidir, et qu’avec une quantité de charbon donnée, l’énergie mécanique qu’on peut récupérer est d’autant plus élevée que la vapeur a plus refroidi. Plus précisément il établit la loi quantitative suivante : Si T1 est la température (absolue, en degrés Kelvin) à laquelle on a chauffé la vapeur et T0 la température à laquelle se refroidit cette vapeur après le passage dans le cylindre ou la turbine, l’énergie mécanique obtenue pour une quantité de chaleur fournie Q sera T0/T1) ×Q et non à Q seul. Cela veut dire que siproportionnelle à (1 par exemple on chauffe de l’air à 273 degrés Celsius dans un cylindre pour qu’il pousse un piston et déplace ainsi un objet lourd, puis qu’on le refroidit à 0 degrés Celsius pour que le piston se rétracte, le T0/T1 sera 0.5 et le travail mécanique de déplacement derapport 1 l’objet lourd aura été la moitié de l’énergie calorifique dépensée pour chauffer l’air dans le cylindre. L’autre moitié se sera perdue dans le refroidissement de l’air. (N. B. cette perte par refroidissement est nécessaire, car sinon le piston ne se rétracte pas tout seul ; il faudrait le pousser et donc perdre le travail mécanique qu’on vient de gagner). Le processus inverse de celui de la machine thermique consisterait à produire la chaleur à partir du mouvement mécanique au lieu de l’obtenir en brûlant du charbon. On peut produire de la chaleur à partir du mouvement par frottement ; on peut même convertir entièrement l’énergie mécanique en chaleur : dans ce cas le mouvement est complètement arrêté par l’effet des frottements. Or la loi de Carnot montre que, sauf si T0 = , la chaleur ne peut jamais être entièrement convertie en0 ou T1 = mouvement. De toute façon la condition T0 = 0 est irréalisable, car pour que la vapeur puisse être refroidie à T0 = 0 il faut maintenir un système de refroidissement bien plus coûteux que l’énergie produite par la machine. Ce constat fait par Carnot marque l’origine du problème de l’irréversibilité : la transformation d’énergie mécanique en chaleur par les frottements n’est pas réversible, en ce sens qu’aucune machine thermique ne pourra retransformer intégralement la chaleur en le mouvement. Quantitativement, si nous reprenons l’exemple ci-dessus avec la vapeur refroidie de 273 degrés Celsius à 0 degrés Celsius, on peut dire que 4184 joules de travail mécanique permettent d’échauffer par frottement 1 kilogramme d’eau de 1 degré, mais inversement, avec une machine thermique fonctionnant entre 273 et 0 degrés Celsius, cette même quantité de chaleur ne permettrait de récupérer que 2092 joules de travail mécanique. Bien entendu dans une machine réelle une grande partie de la chaleur fournie se perd aussi par les défauts d’isolation, en sorte qu’on récupérerait encore bien moins que ces 2092 joules ; la loi de Carnot concerne le cas idéal où on aurait entièrement éliminé ces pertes. Elle dit que même si ces pertes sont rendues infinitésimales, il restera toujours une irréversibilité de principe, car le fonctionnement même de la machine exige qu’une partie de la chaleur soit perdue par le refroidissement. L’explication fondamentale du comportement des corps macroscopiques tels que la dilatation des gaz chauffés dans les machines thermiques, mais aussi l’écoulement des liquides, l’évaporation, la fusion ou la solidification, les échanges de chaleur, etc, a été trouvée dans le comportement aléatoire des mouvements moléculaires. C’est en appliquant la loi des grands nombres au mouvement chaotique d’un nombre immense de molécules qu’on retrouve le comportement des corps macroscopiques. La loi de Carnot mentionnée plus haut peut être déduite ainsi, de même que toutes les lois gouvernant les échanges de chaleur, l’agitation des fluides, etc. Quoique cette explication statistique ait déjà été proposée comme hypothèse par Daniel Bernoulli (Hydrodynamica, 1731), elle n’a commencé à devenir pleinement opératoire que dans la seconde moitié du XIXe siècle. Les travaux fondateurs de cette Mécanique statistique ont été effectués pour l’essentiel par J. C. Maxwell (1860) et Ludwig Boltzmann (1872). L’irréversibilité mentionnée précédemment n’est qu’un aspect du comportement des corps macroscopiques, et au fond, elle ne joue qu’un rôle très marginal dans les préoccupations des physiciens car elle ne vaut que comme principe général et abstrait. Pour celui qui doit calculer ou décrire des phénomènes précis et particuliers, la Mécanique statistique est une science très technique dont le quotidien est bien éloigné des grands principes. Par contre, l’irréversibilité est le genre de problème qui a toujours fasciné les philosophes, ainsi que tous les amateurs passionnés de science, qui connaissent cette dernière bien plus par les ouvrages de vulgarisation que par l’étude approfondie et patiente de problèmes concrets mais ardus. De ce fait, le thème de l’irréversibilité inspire depuis Boltzmann toute une littérature pseudo- ou para-scientifique, pleine de confusion, de rêve, et de visions inexactes ou même carrément fausses. Le point crucial de cette littérature est le paradoxe de Loschmidt. Joseph Loschmidt était un collègue de Boltzmann à l’université de Vienne. Après que Boltzmann eut exposé son explication statistique de l’irréversibilité en 1872, Loschmidt fit remarquer qu’il apparaissait comme paradoxal que, la Mécanique étant entièrement réversible (pour tout mouvement d’un système de points matériels tels que les molécules, le mouvement inverse, c’est-à-dire celui qu’on verrait dans un film projeté en marche arrière, est également possible et tout aussi probable), on aboutisse à des comportements irréversibles lorsqu’on considère un tel mouvement de manière statistique. L’énoncé de ce paradoxe se trouve très fréquemment dans les articles ou ouvrages de vulgarisation, mais sans aucune explication ; très souvent même, il est suggéré que ce paradoxe reste aujourd’hui encore non résolu, qu’il s’agirait là de l’un des mystères de la science. Or Boltzmann avait répondu à la question de Loschmidt, et sa réponse est essentiellement correcte. Elle peut certes être affinée par des connaissances plus récentes, mais rien ne change sur le fond. Par exemple Boltzmann postulait pour les molécules un mouvement newtonien, alors que la Mécanique statistique moderne postule un mouvement quantique, ce qui induit de grandes différences (satistiques de Fermi-Dirac et de Bose-Einstein). Mais l’argument de Loschmidt et la réponse à cet argument ne s’en trouvent pas affectés de manière vraiment essentielle : les mouvements microscopiques quantiques sont, tout comme les classiques, parfaitement réversibles, et la propriété statistique universelle qui explique l’irréversibilité est la même. Pourquoi alors la réponse de Boltzmann est-elle restée lettre morte, et pourquoi subsiste toute une tradition qui maintient le mystère autour de ce problème ?

Ludwig Boltzmann a donné une interprétation microscopique de la loi macroscopique de Clausius.
Il a exprimé l’entropie statistique en fonction du nombre Ω d’états microscopiques, ou nombre de configurations (ou nombre de complexions), définissant l’état d’équilibre d’un système donné au niveau macroscopique. Le nombre Ω est une fonction exponentielle de l’entropie.
L’entropie d’un système à l’équilibre est égale à la somme des entropies de chacune de ses parties. Mais il convient de bien rappeler que cela n’est vrai qu’à l’équilibre…

Lorsqu’on a formulé la loi de la croissance de l’entropie, on a parlé de la conséquence la plus probable d’un état macroscopique pour un moment donné. Mais cet état devait surgir à partir d’autres états comme résultat des processus se déroulant dans la nature. La symétrie par rapport aux deux sens du temps veut dire que, pour tout état macroscopique arbitraire d’un système isolé à un certain moment t = t0, on peut affirmer que la conséquence la plus probable pour t > t0 est non seulement une augmentation de l’entropie, mais également que celle-ci ait surgi des états d’entropie supérieure ; en d’autres termes, le plus probable est d’avoir un minimum de l’entropie en fonction du temps pour le moment t = t0 pour lequel l’état macroscopique est choisi d’une manière arbitraire. Mais cette affirmation n’est évidemment, en aucune mesure, équivalente à la loi de la croissance de l’entropie suivant laquelle dans tous les systèmes isolés existant dans la nature l’entropie ne diminue jamais (fluctuations tout à fait infimes mises à part). Et c’est justement ainsi formulée que la loi de la croissance de l’entropie se trouve entièrement confirmée par tous les phénomènes observés dans la nature.

Se fondant sur une simplification du deuxième principe de la thermodynamique, certains pseudo-scientifiques avancent que la physique interdirait l’évolution.

L’augmentation globale de l’entropie, variable de la thermodynamique quantifiant le désordre statistique d’un système, serait censée interdire l’évolution, qui engendre au contraire la complexité.

Cette affirmation doit être recadrée :

1. Cette « conclusion » s’applique à l’entropie totale d’un système fermé, ce que la Terre n’est pas. L’entropie peut diminuer localement s’il y a échange d’énergie avec un autre endroit où l’on a une augmentation supérieure de l’entropie : typiquement au niveau du Soleil dans le cas de la vie sur Terre. Ou plus précisément dans la transformation du rayonnement solaire reçu par la Terre.
Globalement la Terre reçoit de l’énergie sous une forme plus « ordonnée » qu’elle n’en réémet : les rayons solaires sont reçus depuis une zone précise du ciel (le disque solaire), principalement dans le spectre visible ; alors que la Terre réémet cette énergie reçue sous forme de rayonnement infrarouge, par un nombre bien supérieur de photons ( 20 fois plus) dans toutes les directions du ciel.

2. Or les êtres vivants sont tous des systèmes « ouverts » (thermodynamiquement parlant) ; tendant à toutes étapes de leur existence à s’autoconserver, c’est-à-dire à maintenir leur organisation interne au détriment (au prix) d’une production continue « d’entropie », « de désordre » (rejets, chaleur) payant ainsi le « tribut » à la règle d’entropie. Ils ne sont aucunement des exceptions à ce principe, contrairement à certaines affirmations péremptoires prétendument définitives. De plus, le second principe est un principe général, qui montre qu’un système donné (vivant ou inerte) peut (ou non) fonctionner ; son type interne de fonctionnement est (ou peut être) expliqué par d’autres sciences (chimie, mécanique, électronique…)
La possibilité d’évolution des populations d’êtres vivants est parfaitement conforme au second principe, tout comme leur fonctionnement, leur développement, leur conservation. Cette possibilité s’intègre simplement dans cette succession des générations, qui est elle-même parfaitement conforme au second principe.
L’évolution ne produit pas directement plus « d’informations » ; il est très difficile de préciser « l’information » contenue dans les êtres vivants. Du moins le scénario principal le suggère-t-il à l’échelle des temps géologiques (des centaines de millions aux milliards d’années) ; comme on l’a vu, cette possibilité est conforme au second principe dans la biosphère. Le questionnement se portant sur la (ou les) manière(s) dont ça c’est produit.

3. Il n’est pas immédiat d’assimiler le désordre statistique d’objets indifférenciés et indépendants comme les molécules d’un gaz parfait et l’entropie au sein d’un système prébiotique comportant différents constituants en interaction chimique. L’évaluation statistique effective des configurations les plus probables est bien moins évidente et rien n’empêche certains constituants de se « construire » aux dépens d’autres.
Ainsi il est tout à fait faux de prétendre calculer simplement l’apparition de « la vie » en termes de « probabilités » simplistes, comme présenté ici47, ou parfois ailleurs. Ce type de calcul simpliste ignore implicitement complètement tous les cadres dans lequel les diverses réactions ont (ou peuvent avoir) lieu : mares, évents, plages, volcans, argiles, impacts météoritiques/cométaires apportant des acides aminés et produisant simplement des peptides : voir le lien « Milieu de collision Planète/Noyaux de comètes »…
En gros, toutes les configurations (théoriques) simplement calculées ne sont pas directement équivalentes, ou même ne pourraient même pas apparaître, donc ne sont pas réellement équiprobables. De plus, certains faits présentés comme évidents car observés chez les vivants, comme la chiralité des acides aminés, sont présentés comme un résultat simpliste d’un calcul de probabilité. Ainsi que le fait que les liaisons peptidiques entre les acides aminés ne sont pas équivalentes à d’autres types de liaisons, qui elles changeraient la nature des composés considérés.
Ça occulte totalement tout questionnement que ces faits pourraient résulter d’un ensemble de processus de sélection et de (re)combinaisons dans différents systèmes (hypothétiques) qui pourraient se succéder, rendant totalement caduc ce type de calcul simpliste, présentant ce résultat comme apparaissant « d’un seul coup » !
Ce type de calcul n’apporte qu’à un nombre (théorique) de configurations, sans signification physique immédiate, et en aucune façon une probabilité (globale) d’apparition.
Demeurent toujours certaines interrogations techniques concernant les règles de repliement des protéines ; question centrale dans la théorie probabiliste de l’organisation de la vie. Les maladies à prion témoignent de l’importance des différentes règles de pliages des protéines.

4. La physique comporte déjà plusieurs phénomènes qui peuvent sembler violer le deuxième principe de la thermodynamique si on traduit « entropie » par la notion subjective de « désordre » : avec la formation des étoiles et des galaxies, la nucléosynthèse, l’Univers croît en entropie tout en paraissant plus ordonné.
Il serait plus précis de dire que la matière se présente bien sous forme de structures plus ordonnées, mais l’Univers dans son ensemble est en fait globalement plus désordonné, principalement par le rayonnement émis lors de la formation de ces structures.

Entropie et Dialectique

Les paradoxes de l’entropie

Entropie et Chaos déterministe

L’entropie, pour Ilya Prigogine

Qu’est-ce que l’irréversibilité ?

Extraits de « Les fils du temps » de Rémy Lestienne :

« Les atomes radioactifs ou les particules élémentaires instables se désintègrent spontanément. Le temps qui s’écoule avant la désintégration d’un atome ou d’une particule est extrêmement variable, mais les atomes et les particules d’une espèce déterminée ont une vie moyenne caractéristique de cette espèce. Ainsi, après une période de 6,5 milliards d’années, la moitié des atomes d’uranium 238 présents au début de cette période s’est désintégrée… Les physiciens savent recréer, par les interactions nucléaires, des atomes ou des particules élémentaires dont la durée de vie moyenne est infiniment plus brève que celle de l’uranium. Parmi celles-ci, retenons le cas des mésons pis, dont la vie moyenne à l’état libre ne dépasse pas 0,03 microseconde, et le méson K°, dont il existe deux versions ayant un temps de vie différent, chacun de l’ordre du milliardième de seconde.

La désintégration de ces substances, qu’elles soient naturelles ou créées en laboratoire, couvre une vaste échelle de temps ; la seule existence du phénomène de l’instabilité de la matière suffit à démontrer que le devenir est inscrit au cœur des choses…

La désintégration des particules instables semble obéir à une loi phénoménologique simple, caractéristique des phénomènes d’accroissement d’entropie. Cette loi est la loi exponentielle décroissante, dont la découverte dans le cas des atomes radioactifs remonte aux premières années du XXe siècle…

A la suite des travaux de Rutherford et Soddy, la loi exponentielle a presque toujours été acceptée sans réserve. Habituellement, elle caractérise des phénomènes de relaxation, correspondant à la décharge soudaine d’une énergie lentement accumulée, et dissipée sous forme de chaleur. Ces phénomènes sont fréquents en mécanique et en électronique. Quand, à chaque instant, le flux de la décharge (courant électrique par exemple) est proportionnel au potentiel (différence de potentiel par exemple), alors le flux comme le potentiel décroissent exponentiellement…

Le phénomène peut d’ailleurs se reproduire périodiquement, par un succession monotone de charges et de décharges. On a alors ce que l’on peut appeler une « horloge thermodynamique », par opposition aux « horloges mécaniques » fondées sur des phénomènes d’oscillations entretenues. Dans leur fonctionnement même, les horloges thermodynamiques dissipent de l’énergie ; à l’inverse, dans les horloges mécaniques, il est essentiel que les phénomènes de dissipation (les frottements mécaniques, les courants ohmiques) soient réduits au minimum. En pratique, la loi exponentielle de déclin est la signature d’un phénomène de relaxation. Inversement, tout phénomène auquel on attribue la qualité de phénomène de relaxation est censé obéir à une loi de variation exponentielle dans le temps…

Chaque atome, pris individuellement, pourvu qu’il existe à l’état non désintégré à l’instant t, a la même probabilité de se désintégrer au cours de l’intervalle qui suit, quel que soit l’instant considéré… Cette condition exprime, en somme, l’indifférence de chaque atome pour son propre passé. Elle affirme que la durée est un phénomène collectif, un phénomène mettant obligatoirement en jeu des ensembles ; bref, qu’il s’agit d’un phénomène thermodynamique…

Le temps de la mécanique quantique et le temps classique doivent être distingués dans le problème du « renversement du temps »… En pratique, cela revient à changer en leurs opposés, dans les équations fondamentales de la théorie, les grandeurs temps, vitesses, courants, chaque fois qu’elles apparaissent. Si les lois restent identiques à elles-mêmes après ces transformations, nous conclurons que passé et futur sont interchangeables du point de vue de la théorie physique : nous parlerons d’une symétrie de la nature par renversement du temps. Si elles sont différentes, nous dirons que cette symétrie est absente, ou qu’elle est violée. L’absence de symétrie par renversement du temps implique bien évidemment que la nature n’est pas indifférente au sens de l’écoulement du temps, et que la « flèche du temps » a donc une signification objective.

Toutes les lois de la physique obéissent en fait à la symétrie par renversement du temps, que ce soit en mécanique classique, en mécanique quantique ou en relativité. Par conséquent l’asymétrie observée dans l’évolution des systèmes matériels macroscopiques dont l’étude fait l’objet de la thermodynamique, ne peut être due qu’à des conditions aux limites très particulières…

Chassée des théories physiques, l’irréversibilité temporelle a opéré un discret retour, à partir du milieu du siècle dernier, par l’intermédiaire de la thermodynamique, ou science des machines thermiques.

Dans ses « Réflexions sur la puissance motrice du feu », Sadi Carnot s’était aperçu que la transformation de la chaleur en énergie mécanique était limitée, dans la pratique, par le sens irréversible dans lequel s’accomplissent les transferts de chaleur entre les corps à différentes températures : les transferts de chaleur spontanés s’opèrent toujours et exclusivement des corps chauds vers les corps froids. Cette propriété est non seulement l’archétype, mais bien probablement la base même de l’irréversibilité temporelle. L’ « entropie » est la grandeur qui permet de quantifier cette irréversibilité dans ses rapports avec les transferts de chaleur.

L’équation de Fourier, décrivant la propagation de chaleur dans les milieux continus contraste avec les équations fondamentales de la mécanique, en ce qu’elle n’est pas réversible par rapport au temps… Les autres équations décrivant les phénomènes irréversibles (équation de Fick pour la diffusion de la matière) ont une forme semblable à l’équation de Fourier, sans doute parce qu’elles traduisent toutes, en définitive, une dissipation d’énergie sous forme de chaleur. Même la désintégration des substances radioactives se traduit finalement par une dissipation de chaleur, comme l’atteste la chaleur terrestre, entretenue par la désintégration de métaux radioactifs dans les couches profondes du globe.

On est donc amené à considérer l’irréversibilité des flux de chaleur comme l’archétype des manifestations physiques de l’irréversibilité temporelle. Remarque importante car, si elle est exacte, si tous les exemples d’irréversibilité constatée dans la physique à notre échelle peuvent effectivement se relier directement à des échanges de chaleur, l’analyse de ces processus irréversibles doit pouvoir être faite de façon purement objective, à partir des grandeurs thermodynamiques telles que chaleur, température, etc. Ces dernières grandeurs peuvent sembler moins objectives que les autres mesures utilisées en physique, comme la masse et l’énergie, car elles ne quantifient pas des particules individuelles, mais de vastes ensembles de particules…

En 1850, Clausius est imprégné de l’importance universelle du nouveau concept de conservation de l’énergie mécanique-chaleur, et fasciné par la conservation de l’énergie à travers ses manifestations et transformations diverses. Mais si l’énergie est le concept central de la théorie physique et qu’elle se conserve, il y a quelque chose d’essentiel dans la nature qui échappe au devenir. Plus encore que les autres lois de conservation, la loi de la conservation de l’énergie s’inscrit dans une perspective intemporelle…

La racine grecque du mot « entropie » signifie « transformation »… Ce n’est pas faire injure à la mémoire de Clausius que de prêter au mot entropie le sens de ce qui « change réellement quand en apparence tout redevient pareil ». Dans un cycle de machine à vapeur… de la chaleur est passée de la source chaude (le foyer) à la source froide (le condensateur). L’entropie du système global (la machine et ses sources) a augmenté.

Encore une fois, l’accroissement de l’entropie, telle que l’a définie Clausius, peut paraître un exemple particulier d’irréversibilité, liée aux seules transformations thermiques, alors que la loi de conservation de l’énergie est générale. Il n’en est rien cependant : comme on l’a dit, tous les exemples d’irréversibilité observés, du moins dans la physique macroscopique, semblent être reliés directement à des échanges de chaleur. La loi de Clausius a donc bien le même degré de généralité que la loi de Helmoltz, et la même importance épistémologique.

La loi de l’accroissement de l’entropie est une vérité statistique. Si l’on dénombre les conditions microscopiques d’un volume de gaz qui conduisent à une situation thermodynamique donnée, on se convainc facilement que le nombre de conditions correspondant à l’équilibre thermodynamique, d’entropie maximum, est très grand devant celui correspondant à n’importe quel autre état…

En 1870, Boltzmann croyait avoir démontré que les chocs élastiques entre les molécules au sein d’un gaz entraînaient immanquablement un transfert de chaleur des parties chaudes vers les parties froides, et donc une évolution irréversible qu’il pouvait relier à une grandeur mécanique H qui, comme l’entropie, ne varie que dans un seul sens (théorème H). Mais il fut bientôt clair que sa démonstration reposait, en fait, sur une hypothèse implicite, et dont la validité n’est pas assurée. Cette hypothèse dit de « chaos moléculaire » admet l’absence de corrélations entre les vitesses des molécules dans l’état initial de la massez gazeuse, bien qu’il y en ait, de toute évidence, dans l’état final entre les molécules qui sont entrées en collision. L’hypothèse de chaos moléculaire revient donc subtilement à admettre dès le départ cette irréversibilité que l’on entend démontrer.

Le théorème de Boltzmann provoqua l’embarras parmi les physiciens de son temps. Comment une fonction monotone, variant toujours dans le même sens au cours du temps, pouvait-elle être attachée à un système mécanique, dès lors que les lois de la mécanique qui gouvernent son évolution n’impliquent aucun sens d’évolution privilégié pour aucune des variables dynamiques du système ? Lord Kelvin fut apparemment le premier à souligner que les lois de la mécanique n’interdisent pas, en particulier, d’imaginer qu’à un instant donné on renverse les vitesses de toutes les molécules du gaz dont le théorème « H » prétend étudier l’évolution. Les lois de la mécanique impliquent alors que le volume de gaz doit repasser de proche en proche par tous les états qu’il avait occupés antérieurement, comme si l’on passait à rebours le film de l’évolution originale de cet échantillon. Toutes les fonctions des variables du système qui décroissaient dans l’évolution originale doivent maintenant croître, et vice versa. Il est donc impossible que la fonction « H » ne puisse connaître qu’une évolution monotone. Cette objection est aujourd’hui connue sous le nom de « paradoxe de Loschmidt ». « Eh bien, allez-y, aurait rétorqué un supporter de Boltzmann, vous voulez retourner la vitesse de toutes les molécules du gaz ? Faites-le ! » Ce défi soulignant l’impossibilité « pratique » de préparer des systèmes dont l’entropie décroîtrait spontanément, résume parfaitement l’esprit de la réponse présentée d’abord par Boltzmann. Non, les lois de la mécanique n’interdisent pas que l’entropie d’un système abandonné à lui-même diminue. Mais de tels systèmes n’existent habituellement pas dans la nature : les conditions initiales des systèmes réels sont telles que leur entropie croît…

La décroissance de l’entropie n’est pas exclue, elle est seulement improbable, compte tenu de l’énorme diversité des situations microscopiques caractérisant par exemple le volume d’un gaz, compatibles avec son état d’équilibre thermodynamique, par opposition à la rareté des situations microscopiques compatibles avec un état donné différent de l’équilibre…

Feynman écrit ironiquement dans son « Cours de physique élémentaire » que « l’irréversibilité des phénomènes effectivement observés est due à un très grand nombre de particules concernées. Si nous pouvions voir les molécules individuelles, nous ne pourrions pas décider dans quel sens temporel le système évolue… mais si nous ne voyons pas tous les détails, alors la situation devient parfaitement claire. » Ne doit-on pas plutôt suivre Poincaré, pour qui, si le hasard peut nous aider à prédire le comportement futur des systèmes physiques, il faut bien qu’il « soit autre chose que le nom que nous donnons à notre ignorance. »

L’interprétation probabiliste de l’entropie a, de notre point de vue, un grand mérite et un sérieux inconvénient. Le mérite est de souligner, si besoin était, le caractère collectif, « macroscopique », de ce concept, qui n’a pas de sens pour une particule isolée (qu’est-ce que la température d’une particule isolée ?), mais seulement pour des systèmes ayant un très grand nombre de degrés de liberté. L’inconvénient est de donner l’impression que l’entropie est un concept irrémédiablement entaché de subjectivité, un concept portant sur nos relations aux choses, plutôt qu’une qualité ou une grandeur attachée aux choses elles-mêmes…

On peut imaginer et le développement récent de la physique des processus irréversibles l’a amplement démontré, des situations dans lesquelles l’entropie croît, bien que l’évolution du système s’accompagne d’une apparition d’ordre : la formation de cristaux dans une solution sursaturée en donne un exemple.

Une étape de l’évolution vers un statut subjectif de l’entropie concerne l’identification du concept d’entropie à la notion de perte d’information. L’idée d’une relation entre ces concepts remonte à J.C. Maxwell. Il imagina en 1872 un petit démon microscopique, dont l’intervention permettait selon lui de démentir le second principe. Placé à l’entrée de l’orifice de communication entre deux ballons contenant un gaz à température uniforme, ce démon trie les molécules selon leur vitesse. Il ne laisse par exemple passer que les molécules rapides du réservoir de droite au réservoir de gauche, et les molécules lentes en sens inverse. Aussi provoque-t-il une différence de température entre les deux parties du réservoir initialement en équilibre thermique, ce qui contredit le principe de Carnot. Boltzmann commenta aussi la parenté entre augmentation d’entropie et défaut d’information. Dans les années 1930, le théoricien Richard Tolman, le mathématicien Emile Borel et le physicien Léo Szilard, furent parmi ceux qui portèrent le plus d’attention aux relations entre les deux notions. Mais c’est seulement au lendemain de la Seconde Guerre mondiale que Claude Shannon propose d’assimiler les deux concepts dans son œuvre « The mathematical theory of communication ». Léon Brillouin, enfin, énonce en 1948 un « principe de Carnot généralisé » qui stipule que non seulement l’entropie d’un système isolé est condamnée à croître, mais encore que l’entropie diminuée de l’information acquise sur le système est elle-même condamnée à croître…

Information, volonté, mémoire, faculté d’organisation sont-elles pour autant de même nature que l’entropie ? L’admettre équivaut à renoncer à donner un statut objectif à cette dernière. N’oublions pas que l’identification de l’information et de la néguentropie repose au départ sur une interprétation subjective des probabilités, sur la décision apparemment arbitraire de donner des chances égales à toutes les configurations microscopiques possibles d’un système d’énergie fixée. En physique, l’efficacité d’une telle « recette » est bien mystérieuse : elle évoque, pour Lecomte du Nouy, les tours de passe-passe des prestidigitateurs qui enchantaient son enfance… L’identification de la néguentropie à l’information ouvre en outre la porte à des conclusions difficiles à accepter du strict point de vue de la thermodynamique physique : attribuera-t-on une entropie différente à deux jeux de cartes battus dans les mêmes conditions, selon que l’un des jeux contient ou non des séquences remarquables, ou selon que le joueur a pris ou non connaissance de ce résultat ? (…)

Les travaux pionniers de Boltzmann ont démontré que la loi d’accroissement de l’entropie est une loi statistique, exclusivement valable pour les grands systèmes, ou mieux encore pour les ensembles de systèmes. Il s’agit donc de fonder une interprétation à la fois statistique et objective de l’entropie. Un pas dans cette direction a été tenté dans les décades précédentes par le physicien américain David Layser, qui a suggéré de rattacher les propriétés statistiques de l’entropie aux propriétés du chaos cosmologique… Cette idée repose d’abord sur l’analyse critique de la fonction du démon de Maxwell. Triant les molécules de gaz, celui-ci peut tirer profit d’inhomogénéités locales dans les vitesses des molécules, inhomogénéités qui sont inobservables à notre échelle. A part cela, il agit à son échelle microscopique exactement comme nous pourrions le faire à la nôtre, triant par exemple des balles de tennis. L’accroissement de l’entropie dans l’exemple du mélange par diffusion du gaz entre deux ballons à températures différentes apparaît donc moins comme un problème de disparition de l’information que comme un problème de « changement d’échelle » de l’information. Reprenons, de la même manière, l’exemple de la dispersion d’une goutte de lait dans le café. Globalement, à notre échelle, il y a bien disparition d’information : dans le café au lait nous ne pouvons plus distinguer les deux constituants. Mais un organisme minuscule qui vivrait dans le café observerait la séparation de la goutte de lait en minuscules globules, et continuerait à distinguer ces globules du café environnant. Il aurait toujours la possibilité de pratiquer une séparation entre les deux constituants : le volume total des globules serait d’ailleurs toujours rigoureusement égal au volume de la goutte de lait initiale. L’information n’a pas changé. Ce n’est que lorsqu’on se contente d’une description approximative, fondée sur une notion subjective d’apparence globale, que l’information nécessaire à la description de l’observation change. L’information dépend donc de l’échelle de pertinence de la description. Bien entendu, ce changement d’échelle est aussi, en soi, un phénomène difficilement analysable en termes objectifs : où placera-t-on la limite entre le monde macroscopique, dans lequel l’information est accessible, voire utilisable aux fins d’organisation, et le monde microscopique, où l’information serait inaccessible ? Cette limite dépend-elle de la puissance des instruments d’investigation dont on dispose ?

Pour reprendre les termes de Borel, l’accroissement de l’entropie traduit donc une tendance de l’Univers vers un état à la structure de plus en plus fine : « L’évolution de l’Univers pourrait ainsi être conçue comme tendant à produire un état de plus en plus compliqué ne pouvant être perçu et utilisé que par des êtres de plus en plus petits. » (« Le Hasard », E. Borel)

Le seul processus de création d’entropie réellement objectif, s’il existait, devrait donc être associé à la disparition totale d’information, et non pas à sa transformation à une échelle plus petite. De même, le seul processus de création de néguentropie qui serait réellement objectif devrait être lié à l’apparition absolue d’une quantité d’information, et non pas à son changement d’échelle.

L’Univers pourrait bien constituer cette source d’information objective. Selon Layzer, un mécanisme de production objective de néguentropie s’y trouve à l’œuvre, du fait même de l’expansion cosmologique telle que nous la comprenons aujourd’hui à l’aide de la relativité générale. Une telle affirmation n’est toutefois vraie que dans le cadre d’un modèle précis, obéissant au « principe cosmologique fort ». Selon ce principe, la répartition de la matière et de l’énergie au sein de l’Univers résulte du pur hasard et ne fait apparaître ni lieu ni direction privilégiée. Les irrégularités locales, telles que les galaxies et les étoiles qui les constituent ne sont, à l’échelle de l’Univers, que des fluctuations, reflétant sans doute les fluctuations essentielles d’origine quantique qui présidèrent à l’apparition de la matière, aux tout premiers instants du Big-Bang. Par nature, ces fluctuations échappent à tout déterminisme, et la matière qui forme aujourd’hui l’Univers pourrait donc obéir à ce principe statistique… En bref, l’hypothèse de Layzer écarte la possibilité d’une information ou d’un ordre objectif dans l’Univers à cette échelle de description. Toute apparition d’ordre, ou de néguentropie, à une échelle inférieure est donc une « création ». Seule la création de néguentropie à une échelle inférieure, si elle existe, peut être dite objective.

Les deux étapes de l’expansion de l’Univers interviennent dans le mécanisme proposé de création locale de néguentropie : le refroidissement de la matière et de la lumière, et l’effondrement gravitationnel des nuages de matière froide. Le refroidissement qui accompagne l’expansion de l’espace explique pourquoi la température caractéristique du rayonnement du fond du ciel, vestige fossile d’un univers concentré et chaud, n’est plus aujourd’hui que de 2,7° K. Mais ce refroidissement affecte différemment les photons, dépourvus de masse, et les particules matérielles. Le température des premiers décroît comme l’inverse de R, où R est un paramètre caractéristique pouvant être appelé rayon de l’Univers, tandis que la température des secondes décroît comme l’inverse du carré de R. Ainsi, une source permanente de néguentropie est-elle créée, le flux correspondant prenant naissance grâce aux processus couplant matière et rayonnement. Parmi ceux-ci, les effondrements gravitationnels de particules matérielles froides, provoquant le réchauffement des nuages de gaz et leur condensation en étoiles, jouent un rôle central…

Rappelons que le phénomène d’accroissement de l’entropie relève du collectif. Un atome, même radioactif, n’a pas d’âge : il a toujours la même probabilité d’exister la minute suivante. Par contre, une collection d’atomes radioactifs, un échantillon de matière radioactive, permettent de construire une horloge thermodynamique. Plus l’échantillon est massif, plus l’horloge est précise. La durée thermodynamique semble donc être infusée dans la matière avec une possibilité de précision qui dépend de la taille de l’échantillon étudié…

Dans l’Univers, la structure externe est la durée cosmologique, la flèche que l’expansion universelle confère au temps…

(…)

Pour Kant, espace et temps étaient des catégories de l’entendement, c’est-à-dire des idées innées qui nous permettent d’ordonner le monde, mais elles n’appartenaient pas tout entières à la nature : elles reflètent en partie les structures de notre esprit. En outre, nos perceptions ne nous livraient qu’une version déjà interprétée du monde, à travers précisément ces catégories d’espace et de temps. Ce n’est pas dans cette version interprétée du monde, celle des « phénomènes », que s’applique la causalité… Mais depuis que nous savons dissocier temps et causalité, et que nous connaissons les limites de cette notion, il ne paraît pas nécessaire de recourir à l’artifice kantien pour ouvrir dans la nature une brèche par laquelle la liberté pourrait s’engouffrer…

Hegel avait déjà fait du devenir la « forme d’être de la nature », et en cela le mouvement récent de la science nous rapproche de lui…

Grâce au concept d’entropie, nous essayons d’affirmer le caractère absolu du devenir, la réalité du changement dans le monde… »

Messages

  • Bonjour,

    Peut-on avoir l’indentité de l’auteur de cet article, ainsi que les différentes sources utilisées ?

    Il est en effet difficile de lire un tel article où les mots "je pense" sont omniprésents, sans connaître qui est son auteur, et donc sa légitimité à parler d’un tel sujet.

    Merci bien,

    Cordialement.

    • Cher lecteur,
      si l’auteur est bel et bien Robert Paris, il faut bien dire que les véritables auteurs des idées qui y sont exprimées sont nos grands physiciens favoris comme Feynman ou Prigogine, et bien d’autres. Pour te répondre plus précisément, il faudrait savoir quelles idées parmi celles de ce textes t’ont posé quels problèmes.

  • Bonjour,
    J vous remercie pour votre article. Il me permet de mieux appréhender l’entropie. Bien que je comprenne quel peu cette necessité de la multitude des possibilités, il y a qq chose qui m’échappe. Nous vivons dans un monde de certitudes mais pourtant nous découvrons ces incertitudes nécessaires à l’ordre, y aurait il des forces... quiqui de cachent pour l’heure à nos analyses ?

  • "Plus l’entropie du système est élevée, moins ses éléments sont ordonnés, liés entre eux, capables de produire des effets mécaniques, et plus grande est la part de l’énergie inutilisable pour l’obtention d’un travail ; c’est-à-dire libérée de façon incohérente".

    Remarque sur ce paragraphe
    Dans une centrale thermique, l’état du fluide dans le système eau-vapeur l’état vapeur à 500°C-200bar (sortie chaudière) donne S=6,2Kj/kg/°C (diagramme T-S) qui est supérieure à celle de état eau condensée à 50°C-400mbar puisque S= 0,4KJ/kg/°C (condenseur). La vapeur en sortie de chaudière à une capacité de transformation supérieur à celle de l’eau condensée à 50°C malgré son entropie plus élevée. Contradiction ? Où est l’erreur de raisonnement ?

    Emmanuel Aubert

    • "Plus l’entropie du système est élevée, moins ses éléments sont ordonnés, liés entre eux, capables de produire des effets mécaniques, et plus grande est la part de l’énergie inutilisable pour l’obtention d’un travail ; c’est-à-dire libérée de façon incohérente".
      Voici mon avis concernant la réflexion sur la centrale thermique, où la vapeur en sortie de la chaudière possède une entropie S=6,2kJ/kg K. Le pourcentage de travail mécanique que produit la vapeur pourrait être plus important si cette entropie était plus basse. On parle bien en « part relative » et non de manière absolue. Il est clair qu’une entropie supérieure à 6,2kJ/kg K permettrait de produire un travail mécanique encore plus grand, mais le pourcentage d’énergie inconvertible en travail serait également plus grand. Le rendement global du cycle eau-vapeur chuterait alors que la puissance en sortie alternateur augmenterait. Ceci reflète la non-linéarité de la part de l’énergie inutilisable vis-à-vis de l’entropie.

  • Emmanuel,
    merci de ta contribution. Ta remarque est parfaitement judicieuse. Je voudrais dire, dans un premier temps, que la définition de wikipedia n’est pas parfaite. Je ne pense pas que le lien entre entropie et énergie utilisable pour l’obtention du travail soit si direct que ça.
    L’entropie est une fonction d’état : à partir d’un état donné on ne peut pas préjuger quel type de transformation on va avoir, avec quelle proportion de travail et de chaleur échangée ?

    D’autre part, je ne pense pas que l’on puisse comparer ainsi l’entropie du fluide, avant et après, comme si le fluide était isolé alors qu’il fait partie du système global qui comprend la centrale thermique.

  • Il ne me semble que l’on puisse tout à fait formuler cela ainsi. Dans une machine thermique, on ne peut pas isoler et dissocier la source chaude de la source froide. C’est le cycle entier qui permet la conversion d’une partie de la chaleur en travail. L’eau vapeur et l’eau condensée sont deux éléments interactifs du cycle. Et donc la généralité indiquée doit subir un bémol. Ce n’est pas l’eau chaude seule qui agit. Le moteur thermique à une seule source (chaude), ça n’existe pas.

  • Je ne vois pas comment fonctionne la variation d’entropie, ce qui la cause et ce qu’elle régule. Est-ce que l’entropie augmente dans tous les cas, quand elle ne reste pas identique ?

  • La variation d’entropie est déterminée par deux changements possibles :

    1°) un échange de chaleur (qui entraîne une augmentation ou une diminution d’entropie)

    2°) un changement irréversible d’état (dans ce cas la variation d’entropie est nécessairement positive : l’entropie augmente)

    Ce sont ces deux points qui sont à conserver en tête même si on résume souvent par :

    « Si un système est isolé, son entropie reste constante ou augmente. »

    Ceci dit, il faut voir quelles propriétés physiques de la matière sont sous-jacentes à de telles remarques, à la notion d’entropie et à sa variation.

    Il faut d’abord remarquer que l’existence de changements irréversibles signifie que le transfert d’énergie passe d’un type d’énergie à un autre avec impossibilité de réaliser physiquement l’évolution inverse. L’existence de « qualités » diverses de l’énergie avec des sauts sous-entend des discontinuités dans la transmission d’énergie et il convient d’en comprendre la source en termes de fonctionnement de la matière.

    On pourrait penser que l’énergie ne que quantitative, qu’elle pourrait agir de manière continue : il suffirait de transmettre sans cesse une énergie faible pour agir continûment ou presque. Mais c’est sans comprendre que c’est la matière qui émet l’énergie ou l’absorbe. Or la matière est discontinue. Elle est de plus fondée sur des échelles d’organisation successives et emboîtées. Cela entraîne des discontinuités avec des sauts. Or l’énergie émise ou absorbée doit correspondre aux échelles de la matière concernée. La longueur d’onde correspondante doit être semblable à la taille caractéristique de la matière à cette échelle.

    Donc l’énergie est aussi discontinue que la matière. La continuité n’est qu’illusion ou approximation (pour des petits changements successifs et réguliers).

    Et aussi les échelles de la matière entraînent des échelles de l’énergie, avec des sauts et l’impossibilité de sauter en arrière.

    Cela signifie qu’il existe de n’ombreux passages de l’ordre au désordre comme du désordre à l’ordre. Il existe des passages d’une somme de deux ordres à un seul ordre mais pas l’inverse. On peut obtenir un seul système ayant un équilibre qui parte de deux systèmes ayant deux niveaux d’équilibre différents, mais l’inverse ne peut pas physiquement être réalisé.

    L’augmentation d’entropie indique cette discontinuité et ces sauts. Quand la variation d’entropie diminue, cela signifie que l’irréversibilité est moindre. La variation d’entropie mesure donc la taille du saut entre deux états.

    La transmission de chaleur est un exemple classique en thermodynamique pour la variation d’entropie. En termes de structure de la matière, cette transmission de chaleur signifie un échange de quantité d’agitation des structures matérielles. C’est donc du désordre qui s’échange ainsi.

    • Merci de ces débat constructifs.

      Ce qui manque cependant c’est la référence aux progrès récents et pourtant décisifs en matière de dissipation : c’est le principe de dissipation maximal d’entropie notamment développé par Jeffrey Wicken ou Roderick Dewar et si bien décrits avec rigueur et pédagogie par François Roddier dans son ouvrage "Thermodynamique de l’évolution" .
      Cette notion permet d’intégrer comment et pour-quoi de telles structures dissipatives émergent localement et évoluent, du fait de cette maximalisation précisément de leur capacité dissipative. Voir à ce sujet la relation entre complexité des structures et leur capacité dissipative au cours de l’évolution décrite par Eric Chaisson.
      Tout cela nécessite bien sûr des développements plus importants que ce qui n’est possible et raisonnable ici ..

      Bien dissipativement,

    • Je ne connais effectivement pas ces développements. Est-ce du même type que ce type d’étude : lire ici

  • Pour ceux qui veulent suivre les développements de François Roddier, voici deux vidéos :

    La thermodynamique de l’évolution : du Big Bang aux sciences humaines

    Et dans un autre domaine :

    La thermodynamique des transitions économiques

    Il va de soi que ce point de vue est différent du nôtre...

  • Je serai intéressé de savoir quel est le parcours intellectuel de Monsieur Robert Paris. Si l’article est intéressant, il est aussi plein d’imprécisions, voir de fautes d’interprétation. E.g. la conception statistique de la physique de Boltzmann et sa fameuse reformulation de l’entropie thermodynamique, Planck et sa constante pour résoudre le problème de la formule d’émission d’un corps noir et enfin Einstein qui repère ce que Planck n’avait pas vu : le quanta d’énergie dont il se servira pour sa théorie de la relativité générale. Cette histoire des sciences, au tournant du XXe siècle, a ceci de passionnant qu’elle laisse entrevoir que les grandes découvertes suivent rarement des parcours rationnels et que la sérendipité y joue un rôle important.
    De mon côté, j’ai eu une formation de physicien, j’ai travaillé trente ans dans le spatial et je termine un master de philosophie. Ce sujet de l’entropie m’intéresse de loin dans le cadre d’un dialogue avec un ami qui, lui s’y intéresse de près. Je cherche donc des arguments sérieux et bien étayés.

    • Cher lecteur,
      comment te satisfaire en t’exposant mon parcours intellectuel.

      Disons d’abord que je ne m’intéresse pas particulièrement à la physique mais à la conception générale issue de l’étude du monde. Du coup, effectivement, tu ne peux pas me considérer comme spécialiste d’aucun domaine et j’ai le défaut que je ne cache pas de parler de tout, ce qui déplait à tous ceux qui ne veulent pas qu’on parle de plusieurs domaines dont on n’est pas spécialiste.

      Mes études personnelles m’ont donc mené un peut partout et je vais aussi bien m’intéresser à la disparition des Anasazis, à l’apparition des espèces, au noyau terrestre et à la tectonique des plaques.

      Désolé si ce cv n’est pas très suggestif pour toi.

    • Comme tu parles d’imprécisions, je t’en rectifie une : "le quanta d’énergie" en effet cela n’existe pas !

      Le quanta n’est pas une énergie mais une ’action’ qui se définit comme le produit d’une énergie et d’un temps !!!

      https://www.matierevolution.fr/spip.php?article4152

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.