Accueil > 02 - Livre Deux : SCIENCES > Atome : lois de la Physique ou rétroaction de la matière/lumière et du (...) > Les paradoxes de l’entropie

Les paradoxes de l’entropie

jeudi 15 mars 2018, par Robert Paris

« La thermodynamique, correctement interprétée, ne permet pas seulement l’évolution darwinienne ; elle le favorise… L’énergie disponible est l’objet principal de la lutte pour l’existence et l’évolution du monde… La lutte générale pour l’existence des êtres vivants n’est pas une lutte pour les matières premières, matières essentielles qui pour les organismes sont dans l’eau et le sol, tous abondamment disponibles, ni pour l’énergie qui existe en abondance dans le soleil et dans tout corps chaud sous forme de chaleur, mais plutôt une lutte pour l’entropie, qui devient disponible par la transition de l’énergie du soleil chaud à la terre froide. » écrit Ludwig Boltzmann.

Les paradoxes de l’entropie

L’entropie est une notion issue de la thermodynamique, celle qui relève l’existence d’une flèche du temps c’est-à-dire d’une irréversibilité inhérente au processus naturel (qui est exposée notamment dans le second principe de la thermodynamique) et qui pose un grand nombre de problèmes. Et notamment elle a mené à plusieurs paradoxes. Le premier de ces paradoxes est qu’il s’agit d’une fonction d’état et qui change sans cesse (elle augmente spontanément et de manière aussi bien interne que par interaction avec l’extérieur du système). On se souvient que les paradoxes ont été la source de nombreuses évolutions conceptuelles considérables des sciences, qu’il s’agisse des paradoxes de Zénon ou d’autres… En ce domaine, les paradoxes ont introduit la physique statistique, la conception de la flèche du temps, la notion de qualité de l’énergie, la conception qui allait mener à la physique quantique…

« Si l’on imagine que l’on ait formé d’une manière conséquente pour l’univers entier, en tenant compte de toutes les circonstances, la quantité que j’ai nommée entropie pour un corps particulier, ainsi que la quantité désignée sous le nom d’énergie [...], on pourra exprimer très simplement, sous la forme suivante, les lois fondamentales de l’univers qui correspondent aux deux principes essentiels de la théorie mécanique de la chaleur : 1. L’énergie de l’univers est constante. 2. L’entropie de l’univers tend vers un maximum. » rapporte Rudolf Clausius, dans sa « Théorie mécanique de la chaleur ».

« La question se pose de savoir quels sont les principes généraux de la Physique sur lesquels nous pouvons compter pour la solution des questions qui nous occupent. En premier lieu, nous serons d’accord pour conserver le principe de l’énergie. Il doit en être de même, selon moi, pour le principe de Boltzmann sur la définition de l’entropie par la probabilité : nous devons en admettre sans réserve la validité. Nous devons à ce principe les clartés bien faibles encore que nous pouvons avoir aujourd’hui sur les états d’équilibre statistique dans lesquels interviennent des phénomènes périodiques. (…) La probabilité W d’un état est ainsi définie par sa fréquence relative lorsque le système est indéfiniment abandonné à lui-même. A ce point de vue, il est remarquable que, dans l’immense majorité des cas, il y a, quand on part d’un état initial déterminé, un état voisin qui sera pris, le plus fréquemment de beaucoup, par le système abandonné indéfiniment à lui-même. (…) Si W est défini comme nous l’avons fait, il résulte de cette définition même qu’un système isolé, abandonné à lui-même, doit parcourir généralement des états successifs de probabilités constamment croissantes, de sorte qu’il en résulte entre cette probabilité et l’entropie S du système la relation de Boltzmann : S = k log W + cste. Ceci résulte du fait que W, dans la mesure où l’on admet que le système évolue spontanément de manière déterminée, doit augmenter constamment en fonction du temps, et de ce qu’aucune fonction indépendante de S ne peut avoir cette propriété en même temps que l’entropie elle-même. La relation particulière que donne le principe de Boltzmann à la relation entre W et S résulte des propriétés de l’entropie et de la probabilité des systèmes complexes définies par les équations : S total = somme des entropies et W total = produit des W. Si l’on définit W par la fréquence, comme nous l’avons fait, la relation de Boltzmann prend une signification physique précise. Elle exprime une relation entre des grandeurs observables en principe : on peut en vérifier ou en infirmer l’exactitude. On utilise généralement cette relation de Boltzmann de la manière suivante : on part d’une théorie particulière définie (par exemple, de la mécanique moléculaire), on calcule théoriquement la probabilité d’un état et l’on en déduit l’entropie de cet état par application de la relation de Boltzmann, de manière à connaître ensuite les propriétés thermodynamiques du système. On peut aussi procéder en sens inverse : déterminer par des mesures thermiques effectuées sur un système l’entropie correspondante à chaque configuration et en déduire la probabilité par la relation de Boltzmann. »expose Einstein, discutant des interventions suite à son rapport à la Conférence du premier congrès Solvay de Physique en 1911.

« Comment expliquer dans ce cas (l’agitation des molécules) le phénomène de l’entropie ? Il résulte du caractère aléatoire du mouvement des particules, du fait qu’elles peuvent se déplacer dans n’importe quel sens, et se trouver à n’importe quel endroit. C’est ici que le physicien va employer pour la première fois les termes d’ordre et de désordre dans un sens technique spécifique. Imaginez un cylindre, un piston et un gaz. Puisque le gaz est formé de molécules, celles-ci doivent bombarder les parois du cylindre dans toutes les directions. Qu’appelle-t-on « ordre » ? Le fait qu’au lieu de taper dans toutes les directions, elles ne se meuvent que vers le piston. Si une telle chose arrive, le piston sera déplacé efficacement. Du travail sera fourni. (…) Le travail n’est rien d’autre que le résultat d’un état ordonné des molécules. La chaleur est le contraire. (…) Mais alors que signifie l’entropie (…) Elle signifie simplement qu’un système physique fermé n’est pas spontanément ordonné. (…) L’entropie augmente tant que l’état de désordre n’est pas maximal, c’est-à-dire un état où effectivement les molécules peuvent se trouver dans n’importe quel endroit avec n’importe quelle direction. (…) Sur le long terme, on peut donc effectivement vérifier que les molécules se déplacent n’importe comment, même si sur le court terme il y a des fluctuations. » expose le philosophe des sciences Paul-Antoine Miquel dans « Comment penser le désordre ? ».

« La notion d’entropie développée par Ludwig Boltzmann (...) en physique statistique et en thermodynamique, mesure le degré de désordre d’un système physique. Cette notion d’entropie, dès l’époque de Boltzmann, entretenait des liens solides avec la philosophie, par exemple en ce qui concerne la direction de la flèche du temps. Boltzmann s’est suicidé en partie parce que sa théorie très controversée de l’entropie croissante, postulant que les systèmes physiques passent d’un état ordonné à un état désordonné, impliquant une direction du temps, en contradiction flagrante avec la physique newtonienne (...). » explique Gregory Chaitin, dans « La complexité, vertiges et promesses ».

« L’entropie est l’élément essentiel introduit par la thermodynamique, la science des processus irréversibles, c’est-à-dire orientés dans le temps. Chacun sait ce qu’est un processus irréversible. On peut penser à la décomposition radioactive, ou à la friction, ou à la viscosité qui ralentit le mouvement d’un fluide. Tous ces processus ont une direction privilégiée dans le temps, en contraste avec les processus réversibles tels que le mouvement d’un pendule sans friction. (...) La nature nous présente à la fois des processus irréversibles et des processus réversibles, mais les premiers sont la règle et les seconds l’exception. Les processus macroscopiques, tels que réactions chimiques et phénomènes de transport, sont irréversibles. Le rayonnement solaire est le résultat de processus nucléaires irréversibles. Aucune description de l’écosphère ne serait possible sans les processus irréversibles innombrables qui s’y déroulent. Les processus réversibles, en revanche, correspondent toujours à des idéalisations : nous devons négliger la friction pour attribuer au pendule un comportement réversible, et cela ne vaut que comme une approximation. » affirme Ilya Prigogine dans « La fin des certitudes ».

« Le vivant fonctionne loin de l’équilibre, dans un domaine où les processus producteurs d’entropie, des processus qui dissipent l’énergie, jouent un rôle constructif, sont source d’ordre. » remarque Ilya Prigogine dans « La nouvelle alliance ».

Petit rappel des principes de la thermodynamique

Les principes de la thermodynamique sont les principales lois (principes en fait, car non démontrées) qui régissent la thermodynamique :

• Premier principe de la thermodynamique : principe de conservation de l’énergie ; introduction de la fonction énergie interne, U.

• Deuxième principe de la thermodynamique : principe d’évolution ; création d’entropie, S.

• Troisième principe de la thermodynamique ou principe de Nernst : l’entropie d’un corps pur est nulle à T = 0 K.

On parle aussi du Principe zéro de la thermodynamique et on évoque quelques fois la théorie d’Onsager comme le Quatrième principe de la thermodynamique.

Selon le premier principe de la thermodynamique, lors de toute transformation, il y a conservation de l’énergie.

Dans le cas des systèmes thermodynamiques fermés, il s’énonce de la manière suivante :

« Au cours d’une transformation quelconque d’un système fermé, la variation de son énergie est égale à la quantité d’énergie échangée avec le milieu extérieur, sous forme d’énergie thermique (anciennement nommée chaleur) et de travail. »

Le deuxième principe de la thermodynamique (également connu sous le nom de deuxième loi de la thermodynamique ou principe de Carnot) établit l’irréversibilité des phénomènes physiques, en particulier lors des échanges thermiques. C’est un principe d’évolution qui fut énoncé pour la première fois par Sadi Carnot en 1824. Il a depuis fait l’objet de nombreuses généralisations et formulations successives par Clapeyron (1834), Clausius (1850), Lord Kelvin, Ludwig Boltzmann en 1873 et Max Planck (voir Histoire de la thermodynamique et de la mécanique statistique), tout au long du XIXe siècle et au-delà. Le second principe introduit la fonction d’état entropie : S, usuellement assimilée à la notion de désordre qui ne peut que croître au cours d’une transformation réelle.

Le troisième principe de la thermodynamique, appelé aussi principe de Nernst (1906), énonce que :

« L’entropie d’un cristal parfait à 0 kelvin est nulle. »

Cela permet d’avoir une valeur déterminée de l’entropie (et non pas « à une constante additive près »). Ce principe est irréductiblement lié à l’indiscernabilité quantique des particules identiques.

Dans une autre acception, le troisième principe de la thermodynamique fait référence, dans le cas d’un système ouvert, à l’auto-organisation du système conduisant à la maximisation de la dissipation d’énergie.

Le principe zéro de la thermodynamique permet de définir en thermodynamique la notion de température, en tant que grandeur repérable. La thermométrie est du ressort de ce principe zéro. L’étude du gaz réel aux basses pressions permettra (via la loi d’Avogadro) de donner à la température absolue T le statut de grandeur mesurable, qui se finalisera avec le deuxième principe de la thermodynamique et la variable d’état d’équilibre entropie. En fait le "principe zéro" se déduit alors du deuxième principe et ne jouit en fait que du statut éphémère d’introduction à la notion de température repérable.

Les paradoxes qui en découlent et la manière de les résoudre

Une première petite discussion simple

Paradoxe de Gibbs

Paradoxe Bacon-Mpemba

Paradoxe de Loschmidt (en)

Encore appelé « paradoxe de la réversibilité »

Paradoxe dit « du démon de Maxwell »

Paradoxe dit du « démon de Laplace »

Paradoxe dit « des cerveaux de Boltzmann »

Entropie et énergie : le paradoxe

« Paradoxalement, cette entropie jugée néfaste crée les conditions de l’innovation structurant le nouveau système issu de l’état marginal à venir. »

Paradoxe dit « des trous noirs »

Paradoxes entropiques en cosmologie

Paradoxe de l’information thermodynamique

Paradoxe de la flèche du temps

Qu’est-ce que l’entropie ?

Entropie et Irréversibilité

Entropie et contradictions dialectiques

Entropie et chaos déterministe

Entropie et mouvement perpétuel

L’entropie croissante est-elle contradictoire avec l’auto-organisation

Pourquoi la matière s’organise spontanément et de manière stable

La vie, l’homme et la société, qui sont néguentropiques, s’opposent-ils aux lois physiques de la matière

Les idées d’Ilya Prigogine sur l’entropie

Dialectique ordre/désordre

Dialectique et chaos déterministe

Qu’est-ce qu’un paradoxe et que nous enseigne-t-il

Les paradoxes de la physique

Les paradoxes de Zénon d’Élée

Une interprétation du paradoxe de l’irréversibilité

Qu’est-ce que l’irréversibilité ?

Qu’est-ce que le temps ?

Quelques conférences :

L’entropie du second principe

Exercices sur le second principe

Thermodynamique : énergie et entropie

Quatre questions sur la thermodynamique

Le concept d’énergie

Loin de l’équilibre

La compétition ordre/désordre

La flèche du temps

Messages

  • "La Fin des Certitudes" de Ilya Prigogine :

    « La nature nous présente des processus irréversibles et des processus réversibles, mais les premiers sont la règle, et les seconds l’exception. Les processus macroscopiques, tels que réactions chimiques et phénomènes de transport, sont irréversibles. Le rayonnement solaire est le résultat de processus nucléaires irréversibles. Aucune description de l’écosphère ne serait possible sans les processus irréversibles innombrables qui s’y déroulent. Les processus réversibles, en revanche, correspondent toujours à des idéalisations : nous devons négliger la friction pour attribuer au pendule un comportement réversible, et cela ne vaut que comme une approximation. (...)

    [...] Après plus d’un siècle, au cours duquel la Physique a connu d’extraordinaires mutations,1’interprétation de 1’irreversibilité comme approximation est présentée par la majorité des physiciens contemporains comme allant de soi. Qui plus est, le fait que nous serions alors responsables du caractère évolutif de 1’univers n’est pas explicité. Au contraire, une première étape du raisonnement qui doit mener le lecteur a accepter le fait que 1’irréversibilité n’est rien d’autre qu’une conséquence de nos approximations consiste toujours à présenter les conséquences du second principe comme évidentes, voire triviales. Voici par exemple comment Murray Gell-Mann s’exprime dans The Quark and the Jaguar [1] : "L’explication de 1’irréversibilité est qu’il y a plus de manières pour les clous ou les pièces de monnaie d’être mélangés que triés. I1 y a plus de manières pour les pots de beurre et de confiture d’être contaminés 1’un par 1’autre que de rester purs. Et il y a plus de manières pour les molécules d’un gaz d’oxygène et d’azote d’être mélangées que séparées. Dans la mesure où on laisse aller les choses au hasard, on peut prévoir qu’un système clos caractérisé par quelque ordre initial évoluera vers le désordre, qui offre tellement plus de possibilités. Comment ces possibilités doivent-elles être comptées ? Un système entièrement clos, décrit de manière exacte, peut se trouver dans un grand nombre d’états distincts, souvent appelés "microétats ". En mécanique quantique, ceux-ci sont les états quantiques possibles du système. Ils sont regroupés en catégories (parfois appelées macroétats) selon des propriétés établies par une description grossière (coarse grained). Les microétats correspondant à un macroétat donné sont traités comme équivalents, ce qui fait que seul compte leur nombre. " Et Gell-Man conclut : " L’entropie et 1’information sont étroitement liées. En fait, l’entropie peut être considérée comme une mesure de l’ignorance. Lorsque nous savons seulement qu’un systeme est dans un macroétat donné, l’entropie du macroétat mesure le degré d’ignorance à propos du microétat du système, en comptant le nombre de bits d’information additionnelle qui serait nécessaire pour le specifier, tous les microétats dans le macroétat étant considérés comme également probables". J’ai cité longuement Gell-Mann, mais le même genre de présentation de la flèche du temps figure dans la plupart des ouvrages. Or cette interprétation, qui implique que notre ignorance, le caractère grossier de nos descriptions, seraient responsables du second principe et dès lors de la flèche du temps, est intenable. Elle nous force à conclure que le monde paraîtrait parfaitement symétrique dans le temps à un observateur bien informé, comme le démon imaginé par Maxwell, capable d’observer les microétats. Nous serions les pères du temps et non les enfants de l’évolution. Mais comment expliquer alors que les propriétés dissipatives, comme les coefficients de diffusion ou les temps de relaxation, soient bien définis, quelle que soit la précision de nos expériences ? Comment expliquer le rôle constructif de la flèche du temps que nous avons évoqué plus haut ? (...) »

    [1]. M. Gell-Mann, The Quark and the Jaguar, Londres. Little Brown and Co, 1994, p. 218-220

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.