Accueil > 02 - Livre Deux : SCIENCES > Atome : lois de la Physique ou rétroaction de la matière/lumière et du (...) > Qu’est-ce que la physique statistique ?

Qu’est-ce que la physique statistique ?

dimanche 9 avril 2017, par Robert Paris

Léon Rosenfeld : « Probabilité ne veut pas dire hasard sans règle, mais juste l’inverse : ce qu’il y a de réglé dans le hasard. Une loi statistique est avant tout une loi, l’expression d’une régularité, un instrument de prévision. »

Qu’est-ce que la physique statistique ?

La dialectique de l’ordre et du désordre, qui est sans cesse remarquée dans les lois de la matière, impose que les deux soient sans cesse imbriqués au point que, plus il y a de désordre à un niveau hiérarchique de la matière, plus la loi est un ordre strict au niveau hiérarchique supérieur d’organisation de la matière. Cela signifie que la loi physique est le produit de l’agitation sous-jacente et donc est une loi statistique…

Comme l’écrit Robert B. Laughlin, dans « Un univers différent » : « L’exactitude est un effet collectif qui se produit en raison de l’existence d’un principe d’organisation. Par exemple : le rapport entre la pression, le volume et la température d’un gaz comme l’air. Le nombre universel qui définit la loi des gaz parfaits est connu à une exactitude d’un millionième, mais d’énormes erreurs apparaissent quand on le mesure dans de trop petits échantillons de gaz et il cesse complètement d’être mesurable au niveau de quelques atomes. La raison de cette sensibilité à la taille, c’est que la température est une propriété statistique. L’exactitude collective est un concept que les non-scientifiques ont souvent du mal à comprendre, mais il n’est pas si difficile. On a de nombreux exemples familiers dans la vie quotidienne. »

Thermodynamique, radioactivité, quantique, physique des solides sont des exemples de physique statistique.

Ludwig Boltzmann et Willard Gibbs ont en effet montré que la thermodynamique statistique qui détermine température et pression dans les gaz est fondée sur une agitation désordonnée et aléatoire. Le désordre des chocs entre molécules et parois d’un espace de volume fixé produit un ordre, la température et la pression moyens du gaz. C’est ce que font remarquer les physiciens Banesh Hoffman et Michel Paty dans « L’étrange histoire des quanta » rappelant que Louis de Broglie parlait déjà de « thermodynamique cachée des particules » : « La température est l’effet moyen des énergies en jeu (des molécules) , la pression résulte des forces d’impact des molécules sur les parois, etc. De même, selon cette conception, les quantités calculées par la théorie quantique –fonctions d’onde, observables, etc – seraient des effets moyens résultant de mouvements internes des systèmes, plus fins que les phénomènes quantiques observés. »

Banesh Hoffman et Michel Paty écrivent ainsi dans « L’étrange histoire des quanta » : « Le fait de considérer qu’une particule quantique a une certaine probabilité d’être dans un état donné ne doit pas être considéré comme la traduction d’une ignorance mais celle d’une propriété de la particule. »

Des grands physiciens, Boltzmann, Planck, Einstein, Poincaré, ont montré qu’un apparent désordre dominait la physique ôtant sa prédictibilité au déterminisme et nécessitant des lois statistiques fondées sur des probabilités et non sur des descriptions directes de processus individuels.

Mais c’est Boltzmann qui est véritablement le père de la physique statistique et il a eu un mal de chien à la faire accepter, ce qui ne s’est pas produit de son vivant, et pas sans qu’il y laisse la vie puisque c’est son combat pour ses idées qui a été tellement contré qu’il a fini par se suicider ! Les principaux adversaires de Boltzmann étaient Mach et Ostwald.

Les critiques d’Ostwald contre Boltzmann

Les travaux de Boltzmann en physique statistique (en anglais)

Il est impossible de savoir dans quel état va être une particule que l’on va capter, impossible de prédire à quel moment un atome excité va émettre un photon, impossible de deviner à quel moment un noyau radioactif instable va se décomposer de manière radioactive, impossible de prévoir si un photon va traverser le miroir ou se réfléchir, etc… Les physiciens espéraient que leur science allait devenir prédictible en atteignant le niveau des particules. Au contraire, plus on s’approche des particules dites élémentaires, plus l’imprédictibilité s’accroît !

Cela ne veut pas dire que l’agitation trépidante de tels phénomènes les rende inaptes à l’étude et sujets seulement à la contingence. Tout n’est pas possible, loin de là. Une loi permet de déterminer les possibles mais pas de trancher celui qui sera adopté par la dynamique. Car ce qui le choisit, c’est la loi du niveau inférieur. La dynamique est décrite seulement par des lois dites statistiques parce qu’elle découle d’un phénomène déterministe rapide imbriqué (interactif, contradictoire et combiné) dans un phénomène déterministe beaucoup plus lent. Croyant que le caractère statistique des lois menait à l’indéterminisme, les physiciens avaient déjà manifesté leur rejet de cette façon de voir face aux découvertes du physicien Ludwig Boltzmann qui étudiait l’agitation moléculaire.

La dynamique est décrite seulement par des lois dites statistiques parce qu’elle découle d’un phénomène déterministe rapide imbriqué (interactif, contradictoire et combiné) dans un phénomène déterministe beaucoup plus lent.

Dès 1860, James Clerk Maxwell introduisit des considérations probabilistes à la thermodynamique. Mais il faut attendre 1877 pour que Ludwig Boltzmann établisse les règles du dénombrement statistique des états microscopiques compatibles avec un même état macroscopique d’un système. Il démontra que l’état macroscopique d’équilibre résulte d’une évolution statistique du système et donne une interprétation statistique de l’entropie S des systèmes en la reliant au dénombrement de leurs états microscopiques : S=k.Log. La probabilité des états observables est donc directement liée à celle des états microscopiques.

En thermodynamique statistique, on peut assimiler l’état d’équilibre à l’état macroscopique le plus probable. On peut ainsi établir une relation entre l’entropie et la probabilité thermodynamique. Et c’est pourquoi les résultats statistiques ont si longtemps été primordiaux lors des études antérieures.

Croyant que le caractère statistique des lois menait à l’indéterminisme, les physiciens avaient déjà manifesté leur rejet de cette façon de voir face aux découvertes du physicien Ludwig Boltzmann qui étudiait l’agitation moléculaire.

En 1872 Ludwig Boltzmann inventa le "théorème H" que l’on peut résumer comme suit : "Dans un mélange gazeux, l’entropie ne peut varier que dans un seul sens. Le mouvement des particules tend vers l’équilibre". En soumettant ce modèle aux scientifiques, Boltzmann allait s’opposer aux arguments de plusieurs physiciens, dont Zermelo et Poincaré. Le "théorème H" ou théorème de l’irréversibilité appliquait les lois de la physique classique. En fait il confortait les thèses mécanistes et réversibles de la physique. Boltzmann exprimait les lois de la thermodynamique en termes de mouvements de milliards de molécules régis par des lois statistiques (mécanique statistique). Mais avec des milliards de molécules, un gaz peut difficilement rester ordonner. Or depuis Galilée et Leibniz l’évolution dynamique des systèmes était réversible. Leibniz avait même énoncé le principe de "raison suffisante" car il était persuadé que la réversibilité déterministe allait de soi. Mais l’interprétation statistique de Boltzmann n’était pas valable pour les systèmes ouverts car ils n’avaient aucune tendance vers le désordre total.

L’explication fondamentale du comportement des corps macroscopiques tels que la dilatation des gaz chauffés dans les machines thermiques, mais aussi l’écoulement des liquides, l’évaporation, la fusion ou la solidification, les échanges de chaleur, etc, a été trouvée dans le comportement aléatoire des mouvements moléculaires. C’est en appliquant la loi des grands nombres au mouvement chaotique d’un nombre immense de molécules qu’on retrouve le comportement des corps macroscopiques. La loi de Carnot mentionnée plus haut peut être déduite ainsi, de même que toutes les lois gouvernant les échanges de chaleur, l’agitation des fluides, etc. Quoique cette explication statistique ait déjà été proposée comme hypothèse par Daniel Bernoulli (Hydrodynamica, 1731), elle n’a commencé à devenir pleinement opératoire que dans la seconde moitié du XIXe siècle. Les travaux fondateurs de cette Mécanique statistique ont été effectués pour l’essentiel par J. C. Maxwell (1860) et Ludwig Boltzmann (1872). L’irréversibilité mentionnée précédemment n’est qu’un aspect du comportement des corps macroscopiques, et au fond, elle ne joue qu’un rôle très marginal dans les préoccupations des physiciens car elle ne vaut que comme principe général et abstrait. Pour celui qui doit calculer ou décrire des phénomènes précis et particuliers, la Mécanique statistique est une science très technique dont le quotidien est bien éloigné des grands principes. Par contre, l’irréversibilité est le genre de problème qui a toujours fasciné les philosophes, ainsi que tous les amateurs passionnés de science, qui connaissent cette dernière bien plus par les ouvrages de vulgarisation que par l’étude approfondie et patiente de problèmes concrets mais ardus. De ce fait, le thème de l’irréversibilité inspire depuis Boltzmann toute une littérature pseudo- ou para-scientifique, pleine de confusion, de rêve, et de visions inexactes ou même carrément fausses. Le point crucial de cette littérature est le paradoxe de Loschmidt. Joseph Loschmidt était un collègue de Boltzmann à l’université de Vienne. Après que Boltzmann eut exposé son explication statistique de l’irréversibilité en 1872, Loschmidt fit remarquer qu’il apparaissait comme paradoxal que, la Mécanique étant entièrement réversible (pour tout mouvement d’un système de points matériels tels que les molécules, le mouvement inverse, c’est-à-dire celui qu’on verrait dans un film projeté en marche arrière, est également possible et tout aussi probable), on aboutisse à des comportements irréversibles lorsqu’on considère un tel mouvement de manière statistique. L’énoncé de ce paradoxe se trouve très fréquemment dans les articles ou ouvrages de vulgarisation, mais sans aucune explication ; très souvent même, il est suggéré que ce paradoxe reste aujourd’hui encore non résolu, qu’il s’agirait là de l’un des mystères de la science. Or Boltzmann avait répondu à la question de Loschmidt, et sa réponse est essentiellement correcte. Elle peut certes être affinée par des connaissances plus récentes, mais rien ne change sur le fond. Par exemple Boltzmann postulait pour les molécules un mouvement newtonien, alors que la Mécanique statistique moderne postule un mouvement quantique, ce qui induit de grandes différences (satistiques de Fermi-Dirac et de Bose-Einstein). Mais l’argument de Loschmidt et la réponse à cet argument ne s’en trouvent pas affectés de manière vraiment essentielle : les mouvements microscopiques quantiques sont, tout comme les classiques, parfaitement réversibles, et la propriété statistique universelle qui explique l’irréversibilité est la même. Pourquoi alors la réponse de Boltzmann est-elle restée lettre morte, et pourquoi subsiste toute une tradition qui maintient le mystère autour de ce problème ?

Ludwig Boltzmann a donné une interprétation microscopique de la loi macroscopique de Clausius. Il a exprimé l’entropie statistique en fonction du nombre Ω d’états microscopiques, ou nombre de configurations (ou nombre de complexions), définissant l’état d’équilibre d’un système donné au niveau macroscopique. Le nombre Ω est une fonction exponentielle de l’entropie. L’entropie d’un système à l’équilibre est égale à la somme des entropies de chacune de ses parties. Mais il convient de bien rappeler que cela n’est vrai qu’à l’équilibre…

Il n’est pas immédiat d’assimiler le désordre statistique d’objets indifférenciés et indépendants comme les molécules d’un gaz parfait et l’entropie au sein d’un système prébiotique comportant différents constituants en interaction chimique. L’évaluation statistique effective des configurations les plus probables est bien moins évidente et rien n’empêche certains constituants de se « construire » aux dépens d’autres. Ainsi il est tout à fait faux de prétendre calculer simplement l’apparition de « la vie » en termes de « probabilités » simplistes, comme présenté ici47, ou parfois ailleurs. Ce type de calcul simpliste ignore implicitement complètement tous les cadres dans lequel les diverses réactions ont (ou peuvent avoir) lieu : mares, évents, plages, volcans, argiles, impacts météoritiques/cométaires apportant des acides aminés et produisant simplement des peptides : voir le lien « Milieu de collision Planète/Noyaux de comètes »… En gros, toutes les configurations (théoriques) simplement calculées ne sont pas directement équivalentes, ou même ne pourraient même pas apparaître, donc ne sont pas réellement équiprobables.

La physique statistique (appelé aussi « thermodynamique statistique ») fut introduite initialement sous la forme de la théorie cinétique des gaz à partir du milieu du XIXe siècle, principalement par Kelvin, Maxwell et Boltzmann. Cette première approche visait à proposer un modèle simple de la matière à l’échelle atomique, et en particulier des collisions entre atomes ou molécules, pour reproduire le comportement de certaines quantités macroscopiques. C’est à cette époque que l’interprétation de la pression comme mesure de la quantité de mouvement des constituants d’un gaz a été formalisée.

La mécanique statistique fut formalisée en 1902 par Gibbs, son formalisme permettant de généraliser et de justifier a posteriori les principes de la thermodynamique d’équilibre.
Le postulat fondamental de la physique statistique d’équilibre (aussi connu comme le postulat des probabilités a priori égales) est :

Étant donné un système isolé en équilibre, il se trouve avec probabilités égales dans chacun de ses micro-états accessibles.

Ce postulat est une hypothèse fondamentale en physique statistique : il signifie qu’un système n’a pas de préférence pour n’importe quel de ses microétats accessibles. Étant donnés Ω microétats à énergie donnée, la probabilité que le système se trouve à un microétat particulier est p = 1/Ω. Ce postulat, nécessaire, permet de conclure que pour un système à l’équilibre, l’état thermodynamique (le macroétat) qui peut résulter du plus grand nombre de microétats est aussi le macroétat le plus probable du système.

Par rapport aux postulats sous-tendant la théorie cinétique des gaz, il s’agit d’un saut dans l’abstraction qui permet toutes les généralisations. Cet énoncé remplace avantageusement les modèles microscopiques à la fois simplistes et pourtant lourdement calculatoires par des incertitudes statistiques. Le modèle s’applique a priori à tout système possédant un mécanisme de redistribution statistique de l’énergie au niveau microscopique.

La statistique de Maxwell-Boltzmann est une loi de probabilité ou distribution utilisée en physique statistique pour déterminer la répartition des particules entre différents niveaux d’énergie. Elle est notamment à la base de la théorie cinétique des gaz.

Les premières extensions de la physique statistique, par rapport à la mécanique statistique, ont été l’introduction des propriétés électriques et magnétiques de la matière au sein des modèles, permettant la description des transitions de phase dans les matériaux magnétiques ou diélectriques, comme la transition ferromagnétique.

Une autre étape importante fut la modification des formules statistiques, entre les années 1920 et 1930, pour tenir compte des effets de l’indiscernabilité au niveau quantique des particules (principe d’exclusion de Pauli). Cette modification fut effectuée par Bose et Einstein pour les systèmes de particules de spin entier (bosons) et par Fermi et Dirac pour les systèmes de particules de spin demi-entier (fermions).

La première théorie quantique, celle de Planck, Einstein et de Broglie, fut essentiellement nourrie par la thermodynamique statistique, celle de Botzmann…

Einstein déclarait au premier conseil de physique Solvay de 1911 : « Le résultat du paragraphe précédent peut se résumer ainsi : quand un corps échange de l’énergie par un mécanisme quasi périodique de fréquence µ, les propriétés statistiques du phénomène sont les mêmes que si l’énergie se déplaçait par quanta entiers de grandeur h fois µ. (...) Ces discontinuités qui rendent la théorie de Planck si difficiles à accepter semblent vraiment exister dans la nature. »

Si Einstein a initié les changements philosophiques radicaux de la physique quantique (dualité onde/corpuscule, caractère statistique de la description, discontinuité,…), il s’est également battu contre des conséquences philosophiques qu’il estimait nuire au réalisme selon lui indispensable en sciences et qui lui semblait remis en question par les thèses de Bohr et de l’ « école de Copenhague ».

« Son « dieu ne joue pas aux dés » montre son insatisfaction à l’égard de lois probabilistes.

Pourquoi n’y a-t-il pas de grand étonnement philosophique extraordinaire à trouver des lois différentes pour des individus et pour des structures fondées sur des grands nombres d’individus ? Parce nous vivons tous les jours sous nos yeux de telles expériences. On appelle cela des lois statistiques ou lois des grands nombres. On appelle aussi cela des lois sociales pour des grands nombres d’êtres humains. Mais nous savons tous que ce qui vrai même à 100% de manière statistique n’est pas identique à ce qui est vrai à 100% de manière individuelle. Précisément, un phénomène statistiquement impossible n’est pas individuellement impossible. Par exemple, l’apparition de la vie sur Terre est reconnue par les scientifiques comme statistiquement absolument improbable mais il se trouve que ce phénomène improbable s’est produit. Il n’y a pas de loi statistique pour les individus ou pour les événements singuliers. Il n’y a donc pas les mêmes lois à l’échelle individuelle et à l’échelle des grands nombres. Il n’est pas si étrange que cela qu’il n’y ait pas les mêmes lois à l’échelle des particules individuelles et à l’échelle des structures de la matière impliquant un très grand nombre de particules. Et pas non plus d’étonnement qu’il soit aussi difficile de discuter la valité des expériences et des observations de particules par des appareillages et des observateurs qui n’existent qu’à grande échelle…. L’observation étant une interaction (ce n’est pas l’observation consistant simplement à regarder) est un changement d’état quantique car deux systèmes quantiques qui interagissent s’interpénètrent et forment un seul système possédant une seule série d’états superposés. Il est légitime de s’interroger sur ce qui se produit quand interagissent un système quantique en superposition d’états (la particule observée) et un autre système macroscopique sans superposition d’états (l’appareillage plus l’observateur).

Henri Poincaré dans « La valeur de la science » :

« Peut-être est-ce la théorie cinétique des gaz qui va prendre du développement et servir de modèles aux autres... La loi physique alors prendrait un aspect entièrement nouveau... elle prendrait le caractère d’une loi statistique… »

Henri Poincaré : « L’hypothèse des quanta » dans « Dernières pensées » :

« Thermodynamique et probabilité – Reportons-nous à la théorie cinétique des gaz : les gaz sont formés de molécules qui circulent dans tous les sens avec de grandes vitesses ; leurs trajectoires seraient rectilignes si de temps en temps elles ne se choquaient entre elles, ou si elles ne heurtaient les parois du vase. Les hasards de ces chocs finissent par établir une certaine distribution moyenne des vitesses, soit que l’on considère leur direction, soit que l’on envisage leur grandeur ; cette distribution moyenne tend à se rétablir d’elle-même dès qu’elle est troublée, de sorte que, malgré la complication inextricable des mouvements, l’observateur qui nepeut voir que des moyennes n’aperçoit que des lois très simples qui sont l’effet du jeu des probabilités et des grands nombres. Il observe l’équilibre statistique. C’est ainsi par exemple que les vitesses seront également réparties dans toutes les directions, car si elles cessaient un instant de l’être, si elles tendaient à prendre une direction commune, les chocs au bout de très peu de temps la leur auraient fait perdre. »

« La loi du rayonnement – Les physiciens ne se préoccupèrent pas d’abord de ces difficultés, mais deux faits nouveaux vinrent changer la face des choses ; le premier, c’est ce qu’on appelle la loi du rayonnement du corps noir. Un corps parfaitement noir est celui dont le coefficient d’absorption est égal à 1 ; un pareil corps porté à l’incandescence émet de la lumière de toutes les longueurs d’onde et l’intensité de cette lumière varie suivant une certaine loi en fonction de la température et de la longueur d’onde. L’observation directe n’est pas possible, parce qu’il n’y apas de corps parfaitement noirs, mais il y a un moyen de tourner la difficulté : on peut enfermer le corps incandescent dans une enceinte entièrement ffermée ; la lumière qu’il émet ne peut s’échapper et subit une série de réflexions jusqu’à ce qu’elle soit entièrement absorbée ; quand l’état d’équilibre est atteint, la température de l’enceinte est devenue uniforme et l’enceinte est remplie d’un rayonnement qui suit la loi du rayonnement noir. Il est clair que c’est un cas d’équilibre statistique, les échanges d’énergie s’étant poursuivis jusqu’à ce que chaque partie du système gagne en moyenne, dans un court espace de temps, exactement ce qu’elle perd. Mais c’est ici que la difficulté commence. Les molécules matérielles contenues dans l’enceinte sont en nombre fini, quoique très grand, et elles n’ont qu’un nombre fini de degrés de liberté… L’explication de ces phénomènes doit être cherchée snas faire table rase des principes de la thermodynamique ; il faut avant tout admettre la possibilité de l’équilibre statistique sans quoi il ne resterait rien du principe de Carnot ; on ne peut admettre dans la thermodynamique, aucune brèche sans tout s’écroule… L’hypothèse de Mr Planck consiste à supposer que chacun de ces résonateurs ne peut acquérir ou perdre de l’énergie que par « sauts brusques », de telle façon que la provision d’énergie qu’il possède doit toujours être un multiple d’une même quantité constante appelée quantum, qu’elle doit se composer d’une nombre entier de quanta… L’équilibre statistique ne peut s’établir que s’il y a échange d’énergie entre les résonateurs, sans quoi chaque résonateur conserverait indéfiniment son énergie initiale qui est abritraire, et la distribution finale n’obéirait à aucune loi… Un système physique n’est susceptible que d’un nombre fini d’états distincts ; il saute d’un de ces états à l’autre sans passer par une série continue d’états intermédiaires… Tous ces états doivent être considérés comme également probables. »

Jean Perrin dans « Mouvement brownien et molécules » :

« Voici donc une agitation qui se poursuit indéfiniment sans cause extérieure.
Il est clair que cette agitation n’est pas en contradiction avec le principe de la conservation de l’énergie. Il suffit que tout accroissement de vitesse d’un grain s’accompagne d’un refroidissement du fluide en son voisinage immédiat, et de même que toute diminution de vitesse s’accompagne d’un échauffement local, nous apercevons simplement que l’équilibre thermique n’est, ici aussi, qu’un équilibre statistique. Mais on doit observer, et cette idée très importante est encore due à Gouy, que le mouvement brownien n’est pas conciliable avec les énoncés tranchants que l’on donne trop souvent au principe de Carnot. »

Paul Langevin dans « La physique du discontinu » :

« Ce fut Boltzmann qui compléta l’œuvre de Maxwell, et vit pleinement l’importance que devaient prendre en Physique moléculaire les considérations de probabilités. En même temps que Gibbs et avec plus de précision, je crois, il réussit à fonder une mécanique statistique en montrant comment il faut définir la probabilité, pour un système dynamique, de se trouver dans un état donné compatible avec les conditions qui lui sont imposées. Dans toutes ces questions, la difficulté principale est, comme nous le verrons, de donner une définition correcte et claire : de la probabilité. Le reste est surtout affaire de calcul. Ce pas décisif franchi, Boltzmann put atteindre l’interprétation statistique du principe de Carnot et le sens caché de la notion fondamentale d’entropie. Grâce à l’impulsion donnée par Boltzmann et aux efforts de ses continuateurs les raisonnements statistiques ont pénétré maintenant dans tous les domaines de la Physique et y joueront bientôt, pour les raisons que j’ai dites, un rôle prépondérant. Malgré l’extrême diversité de leurs applications, les raisonnements sont en général très simples et je voudrais essayer de montrer sur des exemples que la plupart d’entre eux se ramènent à deux types principaux bien connus des mathématiciens et qui se sont introduits tout naturellement dès la création du calcul des probabilités. Dans un premier groupe de questions, il s’agit de chercher la distribution ou la configuration la plus probable que peut prendre un système de particules ou d’éléments soumis à des conditions données. C’est essentiellement le problème des états d’équilibre et des régimes permanents (équations des fluides, statique des gaz, théories du magnétisme et des phénomènes électro— et magnéto-optiques, théorie du rayonnement et des chaleurs spécifiques, interprétation statistique des lois de la Thermodynamique). Je montrerai que certaines questions comme celles de l’équation d’état des fluides ou de la pression osmotique n’attendent pour être complètement élucidées que la solution d’un problème bien défini de probabilités géométriques et de distribution probable. Dans un second groupe de questions, on cherche à prévoir l’importance des fluctuations spontanées du système autour de cette distribution ou de cette configuration qui est la plus probable mais non la seule possible et ne s’observe qu’en moyenne. Ce frémissement universel autour des configurations rigides prévues par la thermodynamique est intimement lié à la discontinuité de structure, au fait que nos systèmes sont composés d’un nombre fini, quoique très grand, d’éléments et son observation a pris une importance particulière parce qu’elle nous apporte une méthode générale pour atteindre ces éléments et les soumettre à la mesure. Pour mieux faire comprendre comment les raisonnements, toujours les mêmes, du calcul des probabilités, peuvent s’appliquer à des problèmes de Physique si nombreux et si variés, je commencerai par examiner le mécanisme de ces raisonnements sur des cas particulièrement simples où leur emploi est familier à tous, sur des exemples tirés des jeux de hasard tels que celui de pile ou face ou de la roulette. Il paraîtra moins singulier qu’on puisse, pour ainsi dire, jouer à pile ou face la solution des questions de Physique, quand on aura bien vu que toute théorie de probabilité, si simple soit-elle, a en réalité la même structure que toutes nos théories et qu’on fait déjà de la Physique en étudiant les problèmes posés par les jeux de hasard. On a dit, par boutade, que tout le monde croit aux lois du hasard, les mathématiciens parce qu’ils y voient un résultat de physique et les physiciens parce qu’ils les prennent pour des théorèmes de mathématiques. En réalité ces lois sont déduites, par des raisonnements parfaitement rigoureux, de postulats très simples introduits à priori dans la définition des probabilités et affirmant en général l’équivalence de diverses circonstances possibles, l’absence de cause qui favorise les unes à l’exception des autres, l’égale probabilité que la roulette s’arrête sur la rouge ou la noire et que la pièce lancée retombe pile ou face. Ces postulats jouent ici exactement le même rôle que nos hypothèses, placées à la base des théories physiques, et dont nous essayons, par une analyse aussi rigoureuse que possible, de déduire des conséquences dont la comparaison avec l’expérience nous permettra de savoir si ces hypothèses sont justifiées ou non, si nous pouvons continuer à nous en servir pour édifier notre représentation du monde. De même la comparaison avec les faits des lois de grands nombres liées rigoureusement à nos postulats nous permettra de savoir si ceux-ci sont exacts, si la roulette n’est pas truquée ou la pièce plombée d’un côté. Tout raisonnement de probabilités est destiné à permettre la confrontation des postulats avec les faits, comme nos théories physiques permettent la confrontation des hypothèses avec l’expérience. Dans un cas comme dans l’autre, la rigueur n’existe qu’entre les postulats ou hypothèses et les lois qui s’en déduisent. L’accord des lois prévues avec les faits ne se produit pas nécessairement et la comparaison seule nous permet de’décider dans quelle mesure nos points de départ peuvent être conservés. On fait de la Physique en déduisant d’une expérience de pile ou face dans laquelle les coups pile prédominent de manière exagérée, que la pièce est dissymétrique et doit avoir été plombée du côté face. Il vaudra mieux même, comme en Physique, recommencer plusieurs fois l’expérience si l’on veut pouvoir remonter des faits aux causes avec quelque sécurité. Et tout se termine, en Physique comme au jeu, par une question de probabilité des causes du genre de celle que posait Henri Poincaré : je joue à l’écarté avec un monsieur que je ne connais pas, et il retourne trois fois de suite le roi ; quelle est la probabilité pour que ce soit un tricheur ? Le désaccord entre l’expérience et les conséquences déduites par le calcul des probabilités du postulat que le jeu est honnête indiquera dans quelle mesure ce postulat est légitime, et la certitude viendra si l’expérience donne toujours le même résultat. Notre certitude en Physique est tout à fait de même nature : nous avons confiance dans nos représentations et dans nos hypothèses en raison de l’accord constant de leurs conséquences mathématiques avec l’expérience. Dans les raisonnements de probabilités, on fait des mathématiques entre les postulats et les lois du hasard et de la Physique quand on compare celles-ci aux faits pour en déduire des conclusions relatives aux postulats. Outre la plus grande clarté tenant à ce que les postulats de définition des probabilités y sont intuitifs et simples, nous trouverons un autre avantage à étudier d’abord les questions posées par les jeux de hasard. Elles font intervenir des considérations de probabilités discontinues, où les divers cas possibles sont en nombre limité sans qu’on puisse passer de l’un à l’autre de manière continue. Par exemple, sur un nombre total donné de coups joués à la roulette, le nombre des fois qu’elle tombe dans une case noire ne peut varier que de manière discontinue puisqu’il est nécessairement entier. Il semble au contraire, au premier abord, que la Physique nous pose uniquement des problèmes de probabilités continues, où le nombre des cas possibles est infini et forme une série continue. Il en est ainsi, par exemple, de la position dans un intervalle de temps donné d’un événement tel que la destruction spontanée d’un atome radioactif : les instants où l’explosion peut se produire sont en nombre infini ou plutôt transfini puisque leur ensemble est continu. Il en est de même, au moins en apparence, pour l’ensemble des configurations que peut prendre un : système dynamique. Les lois relatives aux probabilités continues se présenteront à nous tomme les formes limites vers lesquelles tendent les résultats des problèmes discontinus quand on y suppose que le nombre des cas possibles augmente indéfiniment. On pourrait obtenir de manière plus simple, et par des raisonnements directs, les formules applicables aux problèmes continus ; mais il nous sera utile d’avoir à notre disposition les formes plus générales relatives au cas de la discontinuité entre les cas possibles. En effet, un des résultats les plus surprenants, et les plus énigmatiques d’ailleurs, que la comparaison avec l’expérience nous ait révélés, c’est que, dans un grand nombre de problèmes tels que ceux du rayonnement thermique d’équilibre ou des chaleurs spécifiques, les lois expérimentales s’accordent avec l’hypothèse de la probabilité discontinue et pas du tout avec les.conséquences déduites, en toute rigueur du postulat de continuité. C’est là un aspect nouveau et singulier de la Physique du discontinu, celui des quanta, d’après lequel non seulement nous devons pour comprendre les faits appliquer des raisonnements de probabilités aux éléments multiples et discrets dont la matière est composée, mais encore ces raisonnements eux-mêmes doivent tenir compte de discontinuités d’un autre ordre et procéder comme si les configurations que ces systèmes d’éléments peuvent prendre ne variaient elles aussi que de manière discontinue. »

Paul Langevin dans « Statistique et déterminisme » :

« C’est la théorie cinétique, et plus précisément la mécanique statistique de Gibbs et de Boltzmann, construite par application du calcul des probabilités aux mouvements désordonnés, mais soumis aux lois de la mécanique classique, d’un grand nombre de molécules, qui a permis d’obtenir ces résultats. Elle attribue une probabilité à chaque configuration du système, c’est-à-dire à chaque distribution des molécules qui le composent entre les diverses positions et les divers états de mouvement possibles, et constate qu’il existe, pour chaque ensemble de conditions imposées au système, quand le nombre de molécules cet grand, une configuration infiniment plus probable que toutes les autres et vers laquelle le système reviendra spontanément lorsqu’il en aura été écarté. La mécanique statistique définit en effet la probabilité de chaque configuration par le nombre de manières différentes dont celle-ci peut être réalisée et interprète l’entropie correspondante comme étant elle-même proportionnelle au logarithme de cette probabilité, avec un coefficient qui est une constante universelle, la constante de Boltzmann. La configuration la plus probable se trouve bien ainsi avoir l’entropie maximum. Tant que le nombre des molécules est suffisamment grand, et c’est le cas pour tous les systèmes à notre échelle, la configuration la plus probable l’emporte de moulière si écrasante sur toutes les autres, que la théorie cinétique est entièrement d’accord avec le principe de Carnot, ne prévoit aucun écart appréciable aux résultats de la thermodynamique, ou, plus exactement, prévoit des écarts ou fluctuations, dont l’importance. relative est mesurée, au moins dans le cas des gaz, par l’inverse de la racine carrée du nombre des molécules présentes dans le système. Comme la moindre trace de matière directement perceptible à nos sens contient un nombre énorme de molécules, les fluctuations qui la concernent seront complètement insensibles. Par exemple, le nombre des molécules contenues, en moyenne, dans chaque millimètre cube à l’intérieur d’un récipient plein d’air en équilibre normal de température et de pression, est tellement grand qu’il ne varie guère que d’un milliardième d’un instant à l’autre, du fait de l’agitation désordonné. des molécules d’air qui traversent constamment, pour entrer ou sortir, les limites qui séparent notre millimètre cube des éléments de volume voisins. C’est dire que, si nous prenions la peine d’isoler et de mesurer, de temps en temps, la masse d’air contenue dans un semblable millimètre cube, elle ne manifesterait que des variations de l’ordre du milliardième, complètement insensibles à nos moyens de mesure. A l’échelle du millimètre cube, l’air contenu dans un récipient à la pression atmosphérique peut donc être considéré comme ayant une densité pratiquement uniforme, conformément aux conclusions de la thermodynamique, qui prévoit l’uniformité complète de la distribution de l’air dans le récipient. Passons maintenant à l’échelle microscopique, celle du dixième de micron, ou dix-millième de millimètre par exemple. Le nombre des molécules contenues en moyenne à l’intérieur du gaz dans un cube ayant ce côté sera un million de millions do fois moindre qu’à l’intérieur d’un millimètre cube et les fluctuations du nombre de molécules, inversement proportionnelles à la racine carrée de ce nombre, y seront un million de fois plus importantes, c’est-à-dire de l’ordre du millième au lieu de l’ordre du milliardième. Les fluctuations, par un raisonnement analogue, atteindraient l’ordre de l’unité à l’échelle du millième de micron ou millionième de millimètre. Plus exactement, d’après ce que nous savons maintenant sur les grandeurs moléculaires, un cube ayant trois fois ce côté, découpé à l’intérieur du récipient, a autant de chance de contenir une molécule que de n’en contenir aucune. L’air, parfaitement homogène à notre échelle, doit donc être considéré comme un milieu d’autant plus hétérogène, d’autant plus trouble, qu’on l’examine à une échelle plus réduite. Ces considérations de pure statistique sur les fluctuations de concentration à l’intérieur d’un gaz à l’équilibre, sont venues, de manière aussi imprévue que précise, apporter l’explication d’un phénomène considérable, celui du bleu du ciel. En effet, un milieu matériel comme l’atmosphère, traversé par de la lumière, celle qui vient du soleil, par exemple, diffuse celle-ci dans toutes les directions dans la mesure où il est inhomogène, trouble, à l’échelle de la longueur d’onde du rayonnement dont il s’agit. Or la lumière, dont la longueur d’onde varie de trois à six dixièmes de micron quand on passe du bleu au rouge fournit un excellent moyen d’exploration microscopique, et les fluctuations de concentration dans l’air, qui sont, à cette échelle, de l’ordre du millième, sont suffisantes pour que l’atmosphère diffuse une portion appréciable de la lumière qui lui vient directement du soleil ; la proportion de lumière diffusée est plus importante pour le bleu que pour le rouge puisque la longueur d’onde dans le bleu est à peu près moitié de celle du rouge et que l’atmosphère est par conséquent plus trouble pour le bleu que pour le rouge. Voilà pourquoi le ciel est bleu. Et de l’observation de la lumière qui nous en vient, quand il est pur, on peut déduire le degré de trouble de l’air à l’échelle de chaque longueur d’onde et remonter de là au nombre des molécules contenues dans un cube ayant cette longueur d’onde pour côté, puis à celui des molécules contenues dans un volume quelconque de gaz, et enfin au nombre N d’Avogadro, nombre des molécules contenues dans une molécule-gramme d’un corps pur quelconque. On conçoit quelle peut être la diversité de ces effets de fluctuations autour des configurations d’équilibre prévues par la thermodynamique : fluctuations de concentration dans l’opalescence critique, mouvements browniens de particules en suspension dans un fluide en équilibre de température, etc. L’agitation que représente le mouvement brownien de translation ou de rotation, correspond, en vertu d’un résultat fondamental de la théorie cinétique, le théorème d’équipartition, à une énergie cinétique moyenne égale à 2*k*T par degré de liberté de ce mouvement, T étant la température absolue et k cette même constante de Boltzmann qui figure dans l’expression donnée par la mécanique statistique pour l’entropie d’une configuration en fonction de sa probabilité. La constante de Boltzmann traduisant l’existence des molécules auxquelles s’appliquent les raisonnements de la mécanique statistique, on conçoit qu’elle puisse être étroitement liée au nombre de ces molécules, au nombre N d’ Avogadro. La connaissance de k entraîne celle de N et réciproquement. Il en résulte que l’observation d’un phénomène de fluctuation quelconque, observation le plus souvent microscopique, sauf dans les cas comme celui du bleu du ciel où l’élément microscopique nécessaire est représenté par la longueur d’onde de la lumière, apporte une possibilité de mesurer N et d’en déduire toute la série des grandeurs moléculaires, masses et dimensions individuelles des atomes par exemple. Jean Perrin a insisté sur la remarquable convergence des résultats ainsi obtenus, et enlevé les derniers retranchements des énergétistes intransigeants. Le déterminisme statistique. — Ces résultats marquaient un triomphe et une revanche pour le mécanisme combiné à l’atomisme, et l’introduction d’un nouvel aspect du déterminisme, plus proche du point de vue humain et qu’on peut appeler le déterminisme ou mécanisme statistique. Tout en maintenant la conception de Laplace et l’hypothèse d’un univers composé de molécules soumises aux lois de la mécanique newtonienne, on admet franchement, non plus la possibilité d’erreurs sur les conditions initiales, mais, comme dans les jeux de hasard, notre ignorance complète de ce qui concerne les cas individuels, et le rôle prépondérant de la statistique dans la prévision des résultats d’observation qui portent en général sur des foules de corpuscules extraordinairement nombreuses. Dans la plupart des cas, le nouveau déterminisme est entièrement d’accord avec la thermodynamique, qu’il domine en l’interprétant, et la plupart des lois de la physique ont le caractère de lois statistiques concernant les configurations les plus probables, seules pratiquement réalisées. Dans le domaine du microscopique, en raison de la moindre complexité des systèmes, la probabilité des configurations autres que la plus probable cesse d’être négligeable et des fluctuations apparaissent autour de cette dernière ; l’importance de ces fluctuations permet d’évaluer le degré de complexité du système et par conséquent d’atteindre les grandeurs moléculaires. Ces résultats se sont trouvés confirmés et précisés lorsque, à la fin du siècle dernier et au commencement de celui-ci, en même temps que se développait l’atomisme statistique, la découverte de l’électron et celle des rayons de Röntgen sont venues permettre la détermination directe, individuelle, et non plus statistique, de certaines de ces grandeurs : charge électrique élémentaire ou grain d’électricité, dimensions des cellules occupées par les atomes dans les divers réseaux cristallins ; puis, par leur intermédiaire, la détermination précise du nombre N d’ Avogadro et de la constante k de Boltzmann. Le déterminisme statistique, non seulement réalisait la synthèse nécessaire entre le mécanisme et la thermodynamique, mais venait encore offrir à la spéculation philosophique la possibilité d’échapper au fatalisme impliqué dans le déterminisme absolu et de laisser sa place à l’action. Il suffisait d’admettre la faculté pour l’être vivant de mettre à profit, à la façon du démon de Maxwell ou d’un joueur heureux, les fluctuations favorables, et d’aiguiller, en quelque sorte, l’évolution du monde dans un sens déterminé par sa volonté ou par son instinct. Cette solution du problème de la liberté, vraiment trop facile, me semble fallacieuse en tant qu’elle reporte la difficulté sur l’aiguillage, sur la trappe du démon de Maxwell et sur la manière, nécessairement mécanique, dont il la manoeuvre. Je n’y fais allusion que parce qu’elle a été sérieusement proposée. Ce triomphe du mécanisme, sous sa forme atomique et statistique, devait être sans lendemain. En même temps qu’il se produisait, commençait à se développer la crise des quanta, issue des progrès de nos connaissances des faits qui concernent les interactions ai complexes de la matière et de la lumière et de la nécessité de concilier le double aspect corpusculaire et ondulatoire de la réalité. »

La polémique sur les lois statistiques de la physique quantique, entre grands physiciens qui ont tous grandement contribué au développement de la physique statistique dans le domaine des quanta :

Max Planck dans « Initiations à la physique » :

« La méthode de la physique statistique relève de considérations tout à fait différentes de l’idée de causalité pure et son développement conditionne de la façon la plus étroite l’évolution de la physique moderne. Au lieu de s’évertuer à découvrir les lois dynamiques obscures régissant le détail compliqué des phénomènes, on se contente, pour un phénomène donné, de rassembler le résultat d’observations éparses répétées un grand nombre fois. Ceci fait, pour chaque catégorie de résultats, on calcule la moyenne des valeurs trouvées. Or, on peut découvrir pour ces moyennes des règles expérimentales, variables selon les circonstances, qui permettent de prévoir le cours futur des phénomènes. Cette prédiction n’est jamais, il est vrai, absolument certaines ; mais elle a une probabilité qui équivaut très souvent, en pratique, à la certitude et elle porte, non plus, sur le détail complexe des phénomènes qui n’a, le plus souvent, aucune importance, mais sur le comportement moyen de l’ensemble. Cette méthode, avec son caractère, en somme provisoire, peut ne pas satisfaire notre besoin d’exactitude scientifique ; car ce besoin ne peut être apaisé que par la découverte du lien causal. On peut aussi la juger peu satsfaisante et n’éprouver aucune sympathie pour elle, mais il n’en reste pas moins vrai qu’elle est devenue pratiquement indispensable en physique, on ne pourrait y renoncer sans anéantir les conquêtes les plus récentes de cette science. D’ailleurs, il ne faut pas l’oublier, on n’a jamais affaire en physique à des grandeurs absolument déterminées ; car tout nombre exprimant le résultat d’une mesure est affecté d’une erreur possible. Vouloir ne tenir compte que de nombres précis sans admettre une certaine latitude d’erreur reviendrait donc à renoncer à l’utilisation rationnelle des résultats de la méthode inductive. De l’état des choses qui vient d’être décrit, il résulte avec une évidence suffisante que, si l’on veut comprendre vraiment le caractère essentiel de toute connaissance en physique, on ne saurait accorder trop d’importance à la distinction existant entre ces deux espèces de lois : les lois statistiques et les lois dynamiques. On me permettra donc d’insister en donnant quelques exemples. Commençons par un exemple banal, prenons deux tubes de verrer reliés entre eux par un tuyau de caoutchouc et versons un liquide pesant, du mercure par exemple, par l’extrémité supérieure d’un des deux tubes ; nous verrons alors le liquide remonter par l’autre tube en passant par le tuyau de caoutchouc et l’ascension se poursuivra jusqu’à ce que les niveaux soient les mêmes dans les deux tubes. En outre, l’état d’équilibre se rétablira de lui-même s’il vient à être dérangé d’une façon quelconque. Si nous élevons brusquement l’un des deux tubes de telle sorte que le mercure soit soulevé un instant et que par suite son niveau devient supérieur à ce qu’il est dans l’autre, le mercure redescendra aussitôt jusqu’à ce que l’égalité des niveaux soit rétablie, telle est la loi élémentaire bien connue des vases communicants dont le siphon n’est qu’une application. Passons maintenant à un autre phénomène. Prenons un morceau de fer, portons le à une température élevée en le mettant dans un four et jetons-le ensuite dans un récipient rempli d’eau froide, la chaleur du fer se répandra dans l’eau et l’échauffement de l’eau durera jusqu’à ce que l’égalité de température soit établie. On arrive à ce que l’on appelle l’équilibre thermique, cet équilibre se rétablit lorsqu’on le perturbe. Il y a donc une analogie évidente entre les deux phénomènes que nous venons de décrire, pour tous les deux, la condition nécessaire de modification est l’existence d’une certaine différence. Cette différence sera, dans le premier cas, une différence de niveau, dans le second une différence de température. L’équilibre a lieu quand la différence s’annule. C’est pourquoi on dit quelquefois que la température est le niveau thermique et que, dans le premier cas, l’énergie de gravitation, dans le second, l’énergie thermique tombe d’un niveau supérieur à un niveau inférieur, chute se poursuivant dans les deux cas jusqu’à l’égalité des niveaux… Cependant l’analogie entre le cas de la gravitation et le cas de la chaleur est en réalité tout à fait superficielle. Un abîme profond sépare les lois auxquelles ces deux phénomènes sont soumis. De l’ensemble des faits expérimentaux accumulés à ce sujet, il résulte en effet, avec certitude que le premier phénomène obéit une loi dynamique et le second à une loi statistique. En d’autres termes, si le liquide coule d’un niveau supérieur vers un niveau inférieur, c’est là une nécessité, tandis que si la chaleur passe d’une température élevée à une autre plus basse, ce n’est qu’une probabilité… La tâche que je me propose est de montrer le contraste existant entre les lois statistiques et les lois dynamiques. En ce qui concerne la nécessité de la chute di lquide pesant on peut montrer facilement qu’elle est une conséquence du principe de la conservation de l’énergie, car si la surface du liquide placée au niveau le plus élevé s’élevait encore davantage sans l’aide d’aucune impulsion extérieure entraînant un abaissement correspondant, il y aurait création d’énergie, ce qui est contraire au premier principe de la thermodynamique. Dans le cas de l’autre phénomène, il n’en est déjà plus ainsi, car le transport de chaleur pourrait aussi bien se faire de telle sorte que la chaleur passât de l’eau froide dans le fer chaud sans que le principe de la conservation de l’énergie fût violé. Tout ce que ce principe demande, c’est que la chaleur fournie par l’eau soit égale à la chaleur cédée au fer. Mais il y a encore une autre différence entre les cours des deux phénomènes qui ne saurait échapper, même à l’observateur le moins averti. Le liquide qui tombe d’un niveau élevé vers un niveau plus bas coulera d’autant plus vite qu’il s’abaissera davantage et quand l’égalité des niveaux dont nous avons parlé plus haut s’est établie, le liquide ne restera pas au repos dans la positon d’équilibre, il la dépassera au contraire en vertu de son inertie, de telle sorte que le liquide qui était tout à l’heure au niveau le plus élevé sera maintenant au niveau le plus bas. Dans cette seconde phase du phénomène, la vitesse du liquide ira en diminuant jusqu’à devenir nulle, puis le phénomène se renouvellera dans l’ordre inverse. Si toute perte d’énergie provenant, soit de la résistance de l’air, soit du frottement du liquide entre les parois, pouvait être évitée, le liquide oscllerait indéfiniment autour de sa position d’équilibre. C’est pourquoi le phénomène peut être dit réversible. Il en est tout autrement dans le cas de la chaleur, plus la différence de température entre le fer et l’eau sera petite et plus le transport de chaleur sera lent. Si l’on calculait au bout de combien de temps l’équilibre sera établi, on trouverait qu’il faut un temps infini pour y parvenir. En d’autres termes, entre le fer et l’eau on trouvera toujours une petite différence de température, aussi longtemps que l’on attende. Il n’y a donc pas trace d’un mouvement oscillatoire de la chaleur entre les deux corps, le transport a toujours lieu dans le même sens, et l’on doit dire que le phénomène est irréversible… Ainsi donc, pour des raisons tirées, tant de la théorie que de la pratique, il est indispensable d’établir une distinction fondamentale entre les lois nécessaires et celles qui sont simplement probables. Toutes les fois que l’on sera en présence d’une loi, la première chose à se demander sera donc : cette loi est-elle une loi statistique ou une loi dynamique ? Il y a là un dualisme, et même un dualisme inévitable dès lors que les considérations statistiques ont droit de cité en physique, néanmoins bien des gens n’en ont pas été pleinement satisfaits et ont cherché à le faire disparaître. Dans ce but, ils se sont résignés à nier l’existence de toute certitude et de toute impossiblité absolue et à n’admettre que des probabilités plus ou moins grandes. Selon eux, il n’y aurait plus de lois dynamiques dans la nature, mais seulement des lois statistiques et le concept de nécessité absolue serait à exclure de la physique. Contre cette opinion, qui est une erreur grossière et pernicieuse, on peut objecter que tous les phénomènes réversibles, sans exception, sont régis par des lois dynamiques, il n’y a donc aucune raison de supprimer cette dernière catégorie de lois. Mais il y a mieux encore : la physique, pas plus que n’importe quelle autre science, que cette science soit une science de la nature ou une science de l’esprit humain, ne peut se passer de la notion de loi absolue ; sans cette notion, la statistique elle-même ne fournirait que des résultats dénués de leur fondement le plus essentiel. Il ne faut pas l’oublier, en effet, les lois elles-mêmes du calcul des probabilités non seulement peuvent, mais encore doivent, être prouvées rigoureusement, aussi voyons-nous de tout temps ces questions de probabilité susciter au plus haut point l’intérêt des mathématiciens les plus éminents… De tout ce qui précède, il résulte que le dualisme qui oppose lois statistiques et lois dynamiques est étroitement lié à l’opposition du macrocosme et du microcosme, qui est elle-même un fait d’expérience. Il n’est point de théorie capable d’annihiler les faits. Aussi, qu’on le veuille ou non, il est impossible de ne pas attribuer, tant aux lois statistiques qu’aux lois dynamiques, la place qui leur revient légitimement dans l’ensemble des théories physiques. Cependant la dynamique et la statistique ne devront pas être conçues comme se trouvant l’une vis-à-vis de l’autre dans un simple rapport de coordination et placées de ce fait sur un pied d’égalité. Les lois dynamiques satisfont en effet complètement à notre besoin de causalité et elles ont, à cause de cela, un certain caractère de simplicité. Les lois statistiques, par contre, forment toujours un ensemble complexe qui ne se présente jamais comme quelque chose de définitif, car elles comportent toujours, à l’état latent, le problème de leur réduction à des lois dynamiques élémentaires… On distingue en physique deux sortes d’observations : l’observation macroscopique, plus grossière, sommaire et l’observation microscopique, plus détaillée. Il n’y a de hasard et de probabilité que pour l’observateur macroscopiste ; et leur grandeur, leur importance dépendent essentiellement des connaissances sur lesquelles il s’appuie, tandis que l’observateur microscopiste ne voit partout que certitude et rigoureuse causalité. Le premier ne compte que par addition de valeurs, il ne connaît que des lois statistiques, le second compte par valeurs isolées etleur applique les lois dynamiques dont le sens est parfaitement précis. Si nous considérions microscopiquement le coup de dés, pris par nous pour exemple tout à l’heure, c’est-à-dire si nous connaissions exactement dans chaque cas particulier, outre la structure du dé, sa position et sa vitesse initiales, aussi bien que les influences extérieures du dessus de la table et de la résistance de l’air, il ne serait plus question de hasard ; mais nous serions chaque fois en mesure de calculer avec précision le lieu et la position dans lesquels, en fin de compte, le dé s’arrêterait. Il n’est pas besoin d’exposer ici, plus en détail, que la science physique, en ce qui concerne tous les phénomènes du monde moléculaire et atomique, cherche à nous ramener autant que possible de la méthode macroscopique, qui s’offre toujours naturellement la première en ce domaine, à la méthode microscopique et, par la suite, des lois statistiques à l’application sévère et rigoureusement causale des lois dynamiques… L’introduction en physique de lois statistiques a été très féconde et elle a été la cause de grands progrès, c’est pourquoi il s’est produit, à leur égard, un changement remarquable dans les idées des physiciens… Aujourd’hui, au contraire, nous voyons s’ébaucher, un peu partout, des tentatives ayant pour but de mettre au premier plan les lois à forme statistique en y ramenant toutes les autres lois, jusqu’alors regardées comme dynamiques ; même les lois de la gravitation, à tel point qu’il n’y aurait plus dans la nature aucune loi absolument contraignante… A s’en tenir au point de vue logique, l’hypothèse que toutes les lois sont à forme statistique est tout à fait justifiée. Mais si l’on me demandait, chose tout à fait différente, cette hypothèse est-elle recommandable ? Je répondrai résolument non. Il faut, en effet, bien se rendre compte que les seules lois à forme strictement dynamique satisfont pleinement à notre besoin de savoir ; alors que les lois statistiques resteront toujours défectueuses, tout simplement parce qu’elles ne sont pas d’une exactitude absolue et qu’elles comportent des cas particuliers exceptionnels… Certes, nous le concédons, jamais aucune mesure ne pourra permettre de savoir si une loi, qui a toujours été vérifiée, aux erreurs d’expérience près, est, ou non, de nature statistique. Mais ceci est tout autre chose que de regarder cette loi comme étant de l’une ou l’autre catégorie en vertu de considérations théoriques. »

Max Planck dans « Initiations à la physique » :

« Il était réservé à Ludwig Boltzmann de découvrir, par le moyen de considérations atomistiques, la cause profonde de toutes les particularités communes à tous les phénomènes irréversibles, particularités qui sont la raison des difficultés insurmontables que rencontre une explication dynamique de ces phénomènes. (…) D’après l’hypothèse atomistique, l’énergie thermique d’un corps n’est pas autre chose que l’ensemble des mouvements irréguliers et extrêmement rapides dont les molécules de ce corps sont animées. La valeur de la température correspond à la force vive moyenne des molécules et le transport de chaleur d’un corps chaud vers un corps plus froid est dû à ce que les forces vives des molécules tendent à s’égaliser en moyenne, de part et d’autre de la surface de contact des deux corps, par suite de nombreux chocs. (…) L’explication de ce phénomène, découvert par le botaniste anglais Brown, a été donnée il y a déjà vingt-cinq ans par le français Gouy. D’après ce physicien, le mouvement brownien est causé par l’agitation thermique des molécules du liquide. Ces molécules invisibles, par leurs chocs incessants contre les particules visibles qui flottent disséminées parmi elles, provoquent les mouvements irréguliers observés. Mais la preuve décisive de l’exactitude de cette opinion n’a été apportée que tout récemment. Einstein et Schmoluchowski sont en effet parvenus à formuler une théorie statistique du mouvement brownien dont on peut déduire les lois régissant la densité de répartition des particules, leurs vitesses, la valeur de leur parcours et même la valeur de leurs rotations. Ces lois ont été brillamment vérifiées par l’expérience, grâce surtout aux travaux de Jean Perrin. (…) La chaleur est identique aux mouvements des molécules et la conductivité thermique, comme tous les autres phénomènes irréversibles, obéit à des lois statistiques, c’est-à-dire à des lois de probabilité et non à des lois dynamiques. »

Bohr en 1931 :

« On a parfois dit que la théorie quantique laissait entièrement de côté l’idée de causalité. Je crois qu’il faudrait plutôt dire que nous essayons, dans le cadre de la théorie quantique, d’exprimer certaines lois qui se situent si profond qu’elles ne peuvent pas être visualisées, ou bien dont on ne peut pas rendre compte au moyen de la description ordinaire en termes de mouvement. Cet état de choses conduit au fait que nous devons utiliser dans une large mesure des méthodes statistiques et parler des choix que fait la nature entre les possibles. »

« Sciences et dialectiques de la nature », ouvrage collectif – La Dispute :

« L’absorption ou l’émission d’un photon par un atome qui change de niveau d’énergie, la désintégration spontanée d’un noyau radioactif ou d’une particule instable, une réaction particulaire provoquée dans une expérience auprès d’un accélérateur sont des processus que nous devons renoncer à décrire individuellement de manière déterministe. Il nous faut les intégrer à des ensembles statistiques descriptibles en termes de probabilités. (…) Comme l’a dit Léon Rosenfeld, « probabilité ne veut pas dire hasard sans règle, mais juste l’inverse : ce qu’il y a de réglé dans le hasard. Une loi statistique est avant tout une loi, l’expression d’une régularité, un instrument de prévision. »

Max Born dans « La statistique en physique » :

« La physique est regardée comme la plus exacte des sciences, comme modèle de la constitution des lois exactes, réglant le déroulement des événements de la nature. Néanmoins, il y a cent ans que des considérations statistiques commencèrent à jouer un rôle important en physique. Elles gagnèrent du terrain de plus en plus, et l’on pourrait dire aujourd’hui que la physique moderne s’appuie tout à fait sur une base statistique. Ce fait se rattache à la victoire de l’atomistique. Les corps sont composés de molécules et d’atomes, ceux-ci de noyaux et d’électrons, les noyaux de protons et de neutrons. L’immense nombre des particules rend impossible toute description déterministe et nous force à appliquer des méthodes statistiques. Autrefois ces méthodes n’étaient rattachées que de manière assez lâche à la construction des théories mécaniques et électrodynamiques. Aujourd’hui la théorie des quanta nous a conduits à une conception plus profonde : elle a introduit un lien plus étroit entre la statistique et les fondements de la physique. C’est là un événement dans l’histoire de l’esprit humain, dont l’importance dépasse de beaucoup le domaine de la science elle-même. L’instrument mathématique de la statistique est le calcul des probabilités. Sa méthode formelle est aussi évidente et claire que celle de toute autre branche des mathématiques. Mais ses fondements philosophiques sont un peu obscurs. Comment expliquer que des prédictions de la statistique puissent être aussi sûres que les calculs basés sur des lois causales ? Sur quelle idée la validité objective des lois de probabilité repose-t-elle ? On a fait beaucoup de spéculations sur ces questions. Des philosophes essayèrent de résoudre le problème par une analyse des idées. Mais au lieu d’idées, il s’agit plutôt de faits, d’événements objectifs, spécialement ceux qui appartiennent au domaine de la physique. Le dernier développement de la statistique physique a fourni quelques contributions importantes à ces problèmes fondamentaux. Le thème de ma communication sera divisé par conséquent en deux parties : La première concernera les fondements théoriques et les méthodes mathématiques de l’ancienne statistique physique. La seconde traitera de la statistique quantique et des questions principales, qui s’y rattachent. La théorie cinétique des gaz fut la première branche de la physique où l’on appliqua les méthodes statistiques. Les molécules des gaz sont considérées comme des balles élastiques se mouvant selon les lois mécaniques en ligne droite et subissant à l’occasion d’une rencontre des déviations brusques. En heurtant une paroi elles sont repoussées et transmettent par choc une impulsion à la paroi ; c’est ainsi que s’explique la pression du gaz. L’observation des molécules isolées est impossible, parce qu’elles sont trop petites et trop nombreuses. On peut observer seulement certaines valeurs moyennes et c’est le but de la théorie de les calculer. Dans presque tous les autres domaines l’application de la statistique s’appuie sur la collection des observations, sur la fréquence des événements individuels étudiés. A l’aide de tableaux empiriques les valeurs moyennes sont calculées et combinées les unes aux autres par les méthodes de la mathématique. Naturellement, cela n’est pas possible avec les molécules individuelles des gaz. Il ne nous reste que la possibilité de formuler des hypothèses sur les cas d’égale probabilité, d’en tirer les conséquences et de voir si elles sont d’accord avec l’expérience. Au fond on retourne à la forme ancienne et souvent méprisée du calcul des probabilités… »

Werner Heisenberg dans « La nature dans la physique contemporaine » :

« Les lois statistiques – Nous nous servons toujours de concepts qui ont trait au comportement des phénomènes à grande échelle sans nous intéresser aux processus isolés à l’échelle corpusculaire. Cette idée d’un concours statistique de nombreux petits processus isolés, la science antique de l’atome l’a déjà utilisée comme base de son explication de l’univers ; elle l’a généralisée dans la représentation selon laquelle toute qualité sensible de la matière est indirectement suscitée par la position et le mouvement des atomes… Si l’on explique ainsi les phénomènes perceptibles par le concours de très nombreux petits processus isolés, il en résulte presque nécessairement que l’on considère les lois de la nature uniquement comme des lois statistiques. Des lois statistiques peuvent, il est vrai, conduire à des affirmations d’un degré de probabilité si élevé qu’il équivaut presque à une certitude. Mais il existe des exceptions à ce principe. Il semble souvent que le concept de loi statistique soit rempli de contradictions. On entend dire d’une part qu’il est possible d’imaginer que les processus naturels sont régis par des lois et d’autre part que ces processus se déroulent sans aucun ordre et que les lois statistiques ne représentent rien. Rappelons cependant que dans la vie quotidienne nous ne faisons pas un pas sans rencontrer des lois statistiques qui servent de base à nos actions pratiques. Lorsque, par exemple, un technicien construit une installation hydraulique, il compte avec une quantité moyenne de chutes de pluie, bien qu’il ne puisse pas prévoir quand il pleuvra et combien d’eau il tombera. Les lois statistiques signifient d’habitude que l’on ne connaît qu’incomplètement les systèmes physiques dont il s’agit. Le jeu de dés fournit l’exemple le plus connu. Comme aucune face du dé ne se distingue de l’autre et que nous ne pouvons prévoir d’aucune manière sur quelle face il tombera, on peut supposer que, seule la sixième partie d’une très grande quantité de coups aura la chance de faire sortir la face portant cinq points. Au début de l’ère moderne on a tout de suite tenté d’expliquer du point de vue qualitatif aussi bien que quantitatif le comportement de la matière par le comportement statistique de ses atomes. Robert Boyle a déjà montré qu’on pouvait comprendre les rapports entre la pression et le volume d’un gaz dès que l’on expliquait cette pression par les nombreux chocs que provoquent des atomes isolés contre la paroi d’un récipient. On a expliqué d’une manière analogue les phénomènes thermodynamiques en admettant que les atomes se meuvent avec plus de violence dans un corps chaud que dans un corps froid. On a réussi à donner à cette observation une forme quantitative et mathématique et à faire comprendre ainsi les lois de la science de la chaleur. Cette utilisation de lois statistiques a trouvé sa forme définitive dans la deuxième moitié du siècle dernier par la mécanique dite statistique. Dans cette théorie, dont les lois de base découlent simplement de la théorie newtonnienne, on examina les conséquences de la connaissance incomplète d’un système mécanique complexe. On n’abandonna donc pas le principe du déterminisme pur, et on admit que, selon la mécanique newtonnienne, les processus isolés étaient complètement déterminés. Mais il s’y ajouta l’idée que les propriétés mécaniques du système n’étaient pas entièrement connues. Gibbs et Boltzmann ont réussi à exprimer objectivement en formules mathématiques le genre auquel appartient la connaissance incomplète, et surtout Gibbs a su montrer que le concept de température est étroitement lié justement à une connaissance incomplète. Connaître la température d’un système signifie que ce système fait partie d’un groupe de systèmes équivalents. On peut formuler avec une précision mathématique ce groupe de systèmes, mais non pas le système isolé dont il est question. Par cette découverte, Gibbs, sans s’en rendre entièrement compte, avait fait à vrai dire un pas qui fut suivi par les conséquences les plus importantes. Le premier, Gibbs introduisit un concept physique qui ne peut s’appliquer à un objet de la nature que si notre connaissance de cet objet est incomplète. Si, par exemple, le mouvement et la position de toutes les molécules d’un gaz étaient connus, parler de la température de ce gaz n’aurait plus de signification. Le concept de température ne peut être utilisé que si un système est insuffisamment connu et que l’on désire tirer des conclusions statistiques de cette connaissance incomplète. »

« Caractère statistique de la théorie des quanta – Bien que, depuis les découvertes de Gibbs et de Boltzmann, la connaissance incomplète d’un système ait été comprise dans la formulation des lois physique, on n’abandonna pas le principe du déterminisme jusqu’à la célèbre invention de Max Planck : la théorie des quanta. Planck, dans ses travaux sur la théorie des radiations, n’avait d’abord trouvé qu’un élément de discontinuité dans les phénomènes de radiation. Il avait montré qu’un atome rayonnant n’émet pas son énergie de manière continue mais discontinûment, par chocs. Cette émission d’énergie discontinue et par chocs, comme toutes les notions de la théorie des atomes, a fait supposer que l’émission de rayons est un phénomène statistique. Il a pourtant fallu vingt-cinq ans pour trouver que, en effet, la théorie des quanta contraint à donner aux lois une formule statistique et à abandonner le principe du déterminisme… En premier lieu, on peut exprimer la divergence entre la physique contemporaine et la physique d’autrefois par ce qu’on appelle la relation d’indétermination. On a établi qu’il est impossible d’indiquer simultanément, à volonté et exactement, la position et la vitesse d’une particule atomique… La connaissance incomplète d’un système doit représenter une part essentielle de chaque énoncé de la théorie des quanta. Les lois de la théorie quantique doivent être de nature statistique. Voici un exemple : nous savons qu’un atome de radium peut émettre des rayons alpha. La théorie des quanta est capable d’indiquer, par unité de temps, le degré de probabilité pour la particule alpha, d’abandonner le noyau ; mais elle ne peut prévoir le moment précis de cet événement, lequel est indéterminé par principe. On ne peut pas davantage supposer que, dans l’avenir, de nouvelles lois seront découvertes qui nous permettraient alors de déterminer ce moment précis… Cet élément statistique de la physique atomique ne joue en général aucun rôle dans les processus à grande échelle car, dans ce domaine, la probabilité des lois statistiques est si élevée que l’on peut considérer ce processus comme pratiquement déterminé.Il est vrai qu’il existe toujours des cas où le processus à grande échelle dépend du comportement d’un seul ou de quelques rares atomes ; on ne peut alors prévoir que statistiquement ce processus… Ceci fait comprendre que la physique atomique se soit éloignée de plus en plus desreprésentations déterministes. D’abord, et dès les débuts de la science de l’atome, par le fait que l’on s’est mis à considérer les lois déterminantes des processus à grande échelle comme des lois statistiques. »

Erwin Schrödinger dans « La situation actuelle en mécanique quantique » :

« Le concept classique d’état se perd, puisqu’on ne peut tout au plus affecter de valeurs définies qu’à une moitié judicieusement choisie de l’ensemble complet des variables… L’autre moitié reste totalement indéterminée, tandis que tout élément supplémentaire présente un degré plus ou moins grand d’indétermination… S’il n’est pas possible de déterminer à chaque instant l’ensemble des variables en fonction de certaines d’entre elles, il est à plus forte raison impossible de déterminer leurs valeurs à un instant ultérieur, à partir de celles qui sont accessibles à un instant donné. On peut appeler cela une rupture avec le principe de causalité, mais, eu égard au point ci-dessus, ce n’est pas véritablement une nouveauté. Un état qui n’existe à aucun moment au sens classique ne peut évoluer selon des règles déterministes. Ce sont les valeurs statistiques ou probabilités qui évoluent, et elles le font de manière parfaitement déterminée. Certaines valeurs peuvent devenir plus précises alors que d’autres deviennent imprécises… Mais que signifient les termes « imprécis », « statistique », « probabilité » ? La mécanique apporte la réponse suivante. Elle emprunte telle quelle au modèle classique la liste infinie de toutes les variables (ou éléments de définition) imaginables et, qui plus est, mesurable avec la précision que l’on veut (tant qu’il ne s’agit que de chaque élément pris isolément)… L’appareil mathématique de la nouvelle théorie nous fournit le moyen d’associer à chaque variable une répartition statistique parfaitement définie (à l’instant considéré ou à tout instant ultérieur), c’est-à-dire de lui associer l’indication du pourcentage de cas où elle prendra telle ou telle valeur ou bien se trouvera dans tel ou tel petit intervalle de valeurs (c’est ce qu’on appelle également probabilité). »

F. London et E. Bauer dans leur ouvrage « Exposés de Physique Générale » de 1939 :

« La théorie de l’observation en mécanique quantique

« On sait que la physique théorique s’est transformée depuis le début de ce siècle en une doctrine essentiellement statistique et que c’est la découverte des quanta qui a rendu cette révolution inévitable. L’objet principal de cette étude sera l’interprétation statistique du formalisme de la théorie quantique. Bien que ces questions d’interprétation fussent déjà réglées il y a environ dix ans (par W. Heisenberg, J.V. Neumann et P.A.M. Dirac), on rencontre encore souvent des idées assez vagues sur le sens de l’apparition des probabilités dans la physique moderne. D’après certains, ce caractère statistique serait un symptôme de ce que notre connaissance des lois atomiques est encore incomplète : il resterait à trouver des « paramètres cachés », déterminant les processus que, provisoirement, nous nous contentons de décrire en langage statistique. A les en croire, on pourrait espérer réussir quelque jour à refondre la théorie dans un moule déterministe. D’autres comprennent que c’est « l’action de l’observateur » qui est en jeu. Ils pensent parfois que celle-ci serait une action causale, mais incomplètement connue, parce qu’on ne sait jamais exactement dans quel état se trouve l’observateur. De là résulterait la dispersion statistique des mesures, dont il serait peut-être possible de prévoir les résultats exacts, si l’on pouvait mieux tenir compte de l’intervention de l’observateur. On a dit aussi que la loi de causalité serait peut-être valable mais inapplicable, parce qu’il n’y aurait aucun moyen de reproduire deux fois les conditions identiques. La discussion de ces questions n’est point un objet de spéculation, c’est un problème positif, qu’on doit traiter en appliquant la théorie quantique au processus même de mesure, sur lequel elle fournit des précisions essentielles. On peut se convaincre que les distributions statistiques, telles qu’elles sont données par la mécanique quantique et confirmées par l’expérience, ont une structure telle qu’elles sont données par la mécanique quantique et confirmées par l’expérience, ont une structure telle qu’elles ne peuvent pas être réduites à l’aide de paramètres cachés. Il ne s’agit pas, comme on l’a souvent prétendu, d’une question d’interprétation philosophique : la mécanique quantique devrait être « fausse objectivement », si les processus atomiques étaient déterminés en réalité et seulement connus incomplètement… C’est un trait assez général de la physique moderne que souvent ses conquêtes ne sont obtenues que par le sacrifice de certaines de nos convictions philosophiques traditionnelles… C’est ainsi que la discussion de ce formalisme (de la nouvelle mécanique quantique) nous apprit que le point de départ philosophique apparent de la théorie, l’idée d’un monde observable, totalement indépendant de l’observateur, était une idée vide. Sans avoir eu l’intention d’aborder une théorie de la connaissance, bien qu’ils fussent même guidés par une philosophie assez contestable, les physiciens furent entraînés, pour ainsi dire malgré eux, à découvrir que le formalisme de la mécanique quantique implique déjà une théorie bien définie de la relation entre l’objet et l’observateur, relation bien différente de ce réalisme naïf, qui semblait jusqu’alors une des bases nécessaires de toute science de la nature… L’emploi de conceptions statistiques en physique atomique est beaucoup plus ancien que la mécanique ondulatoire. Le premier pas en ce sens a peut-être été fait au moment où l’on décrivit par des lois de probabilité les décompositions radioactives spontanées. Bien entendu, on a pensé d’abord qu’il s’agissait d’un état de choses provisoire provenant de notre ignorance de ce qui se passe à l’intérieur des noyaux. Mais quand Bohr, évidemment guidé par une analogie avec ces conceptions statistiques, construisit son modèle d’atome avec ses sauts quantiques spontanés, et surtout quand Einstein établit sa démonstration célèbre de la loi fondamentale du rayonnement de Planck en prenant pour base l’idée de probabilités élémentaires de transition spontanée ou forcée (coefficients de probabilité A et B), on eut déjà le sentiment net que ces probabilités devraient être quelque chose de fondamental et d’irréductible. Dans un monde de phénomènes discontinus, l’apparition d’une forme statistique des lois élémentaires semblait presque inévitable. La théorie de Bohr, bien qu’elle ne fournit pas encore un schème mathématique complet et cohérent, permettait déjà de poser les questions principales auxquelles devait répondre plus tard la théorie quantique : dans une physique concernant des grandeurs dont les domaines de variation ne sont pas nécessairement continus ils ‘agit de savoir 1- quelles sont les valeurs possibles d’une grandeur physique ? 2- avec quelles probabilités sont-elles réalisées dans un système et dans des circonstances données ? (…) Déjà dans le mémoire classique (1926) où il posa les premières bases de l’interprétation statistique de la mécanique des quanta, Born remarqua que les probabilités qu’il y introduisait devaient avoir un caractère assez étrange et très différent de ce que l’on entend en général lorsqu’on parle de probabilités. C’est ce qu’il exprima sous une forme un peu paradoxale : « Bien que les mouvements des particules ne soient déterminés que par des probabilités, ces probabilités mêmes évoluent conformément à une loi causale ». Ce qu’il entend ici par « loi causale », c’est une connexion entre des « états » à différents instants, telle que la connaissance d’un état initial à un instant quelconque implique univoquement la connaissance de l’état à tout instant ultérieur. Un « état », d’autre part, c’est une collection bien définie de données relatives au système en question, à un instant donné. Il n’y a naturellement aucun moyen de prévoir a priori si, dans un certain domaine des sciences, il existe des lois causales ainsi définies et quelles sont les données nécessaires et suffisantes pour les constituer. Si l’on n’aboutit pas à des prévisions univoques, si l’on se voit forcé de se contenter de probabilités, cela peut provenir ou bien de ce que notre connaissance de « l’état » n’est pas encore complète, ou encore de ce qu’il n’y a pas de causalité. Mais, par contre, lorsqu’on a réussi à établir des lois causales, cela est évidemment un critérium du fait que l’on a atteint une connaissance complète de l’objet, dont on dispose ainsi, en quelque sorte, d’une description maximum. Or l’équation de Schrödinger présente tous les caractères d’une connexion causale : si la fonction phi est connue à un moment donné, elle est déterminée pour tout instant ultérieur : il semble donc difficile de concevoir que cette fonction contienne néanmoins une collection de statistiques. On pourrait concevoir que la fonction phi a le caractère d’une fonction de probabilités ordinaires telles qu’on en fait usage par exemple pour décrire le mouvement brownien : une fonction de ce type contient certaines prédictions statistiques, que nous pouvons vérifier… Dans ce cas, la fonction phi représenterait donc l’état de notre connaissance partielle de l’objet et non l’état de l’objet lui-même… Supposons que la fonction phi ait un caractère « objectif » comme, par exemple, les fonctions d’onde de l’optique. Elle prétend alors représenter, sous une forme idéalisée et simplifiée, quelque chose de complet, une image maximum de l’état de l’objet. Mais s’il en est ainsi, il semble difficile de comprendre comment cette fonction phi peut impliquer une statistique : si l’on soumet à un contrôle expérimental les prédictions qu’on peut en déduire et si l’on observe lequel est réalisé parmi les cas possibles -, de quel droit pouvons-nous ajouter cette nouvelle connaissance à notre connaissance antérieure prétendue complète ? C’est Heisenberg qui trouva la solution de ce dilemme. Il remarqua que c’est le processus de mesure lui-même qui introduit l’élément d’incertitude sur l’état de l’objet. Ainsi l’élément statistique n’interviendrait qu’à l’occasion d’une mesure et si la fonction phi nous fournit des probabilités, elle ne le fait qu’en vue d’une mesure éventuelle. Ce ne sont donc pour ainsi dire que des probabilités « potentielles » qui entrent seulement en vigueur à l’occasion d’une mesure actuelle. Elles ne touchent pas la précision avec laquelle l’état du système est actuellement connu ; celle-ci est maximum lorsque la fonction phi est donnée. Bien entendu, il peut arriver qu’il existe en outre une incertitude sur l’état du système, c’est-à-dire sur la fonction phi elle-même. Dans ce cas il s’agit de probabilités au sens ordinaire du mot : elles proviennent d’une connaissance incomplète de l’état de l’objet ; il faut les distinguer clairement des probabilités potentielles fournies par les fonction phi… A première vue, il semble qu’en mécanique quantique le concept d’objectivité scientifique soit fortement ébranlé. Depuis la période classique on s’est accoutumé à l’idée que l’objet de la physique est quelque chose de réel, existant en dehors de l’observateur, indépendant de lui, indépendant en particulier du fait qu’il soit soumis ou non à une mesure. Il n’en est plus de même en mécanique quantique. Loin qu’il soit possible d’attribuer à un système, à chaque instant, ses propriétés mesurables, on ne peut pas prétendre que cela ait un sens défini de lui attribuer une fonction d’onde, à moins de se référer explicitement à une mesure effective. En outre, il semble que le résultat d’une observation soit lié intimement à la conscience de celui qui l’a faite et que la mécanique quantique nous entraîne ainsi vers le solipsisme total. Et pourtant, nous savons qu’en réalité les relations des physiciens entre eux n’ont pratiquement pas changé depuis la découverte de la mécanique quantique ; ils ne sont pas enfermés chacun dans un isolement solipsiste, ils se servent des mêmes moyens d’échange scientifique qu’autrefois et sont capables d’étudier en commun le même objet. Il existe donc en fait quelque chose comme une communauté de conscience scientifique, un accord sur ce qui constitue l’objet de la recherche, et c’est ce qu’il faut encore justifier. Tout d’abord, il est facile de se rendre compte que l’acte d’observation, c’est-à-dire le couplage entre l’appareil de mesure et l’observateur, est en vérité une action macroscopique et non pas essentiellement quantique ; on a par conséquent toujours le droit de négliger la réaction sur l’appareil du « regard » de l’observateur ; et, en remontant le cours du temps, on obtiendra des conclusions certaines sur l’appareil (ou de la plaque photographique) et, par suite, de l’objet avant l’observation (mais, bien entendu, après leur couplage). En outre, rien n’empêche un autre observateur de regarder le même appareil et l’on peut prévoir qu’à moins d’erreur, ses observations seront les mêmes. La possibilité de faire abstraction de l’individualité de l’observateur et de créer une conscience scientifique collective ne saurait donc être mise sérieusement en question… Dans la physique actuelle, le concept d’ « objectivité » est en fait un peu plus abstrait que celui qui dérive de la notion classique d’objet matériel. Par sa cohérence interne et par la portée de ses applications, la théorie nouvelle montre qu’il n’est pas vrai que « l’objectivité » d’un objet doive être garantie par la possibilité formelle de lui attribuer ses propriétés mesurables de façon continue aux époques où il n’est pas soumis à une observation. Il suffit évidemment que ses propriétés soient présentes au moment de leur mesure et qu’elles soient prévues par la théorie en accord avec l’expérience. »

Einstein :

« Dans l’interprétation usuelle, la mesure, qui impose une référence à l’observateur en théorie quantique, correspond à une brisure de symétrie temporelle. En revanche, l’introduction de l’instabilité dans la théorie quantique conduit à une brisure de la symétrie du temps. L’observateur quantique perd dès lors son statut singulier ! La solution du paradoxe du temps apporte également une solution au paradoxe quantique, et mène à une formulation réaliste de la théorie. Soulignons que cela ne nous fait pas revenir à l’orthodoxie classique et déterministe ; bien au contraire, cela nous conduit à affirmer encore davantage le caractère statistique de la mécanique quantique. Comme nous l’avons déjà souligné, tant en dynamique classique qu’en physique quantique, les lois fondamentales expriment maintenant des possibilités et non plus des certitudes. Nous avons non seulement des lois mais aussi des événements qui ne sont pas déductibles des lois mais en actualisent les possibilités. »

Einstein en 1949 :

« Les physiciens contemporains sont convaincus qu’il est impossible de rendre compte des traits essentiels des phénomènes quantiques (changements apparemment discontinus et non déterminés dans le temps de l’état d’un système, propriétés à la fois corpusculaires et ondulatoires des entités énergétiques élémentaires) à l’aide d’une théorie qui décrit l’état réel des choses au moyen de fonctions continues soumises à des équations différentielles. [...] Surtout, ils croient que le caractère discontinu apparent des processus élémentaires ne peut être représenté qu’au moyen d’une théorie d’essence statistique, où les modifications discontinues des systèmes seraient prises en compte par des modifications continues des probabilités relatives aux divers états possibles. »

Banesh Hoffman et Michel Paty dans « L’étrange histoire des quanta » :

« Si l’espace et le temps ne sont pas les matériaux de base de l’univers, mais simplement des effets moyens statistiques, d’une multitude d’entités plus fondamentales et plus profondes, il ne paraît plus du tout étrange que ces entités fondamentales, lorsqu’on imagine leur existence dans l’espace et le temps, exhibent des caractéristiques aussi peu appropriées que celle de l’onde ou de la particule. (...) Cette notion d’effets moyens qui n’appartiennent pas à l’individuel n’est pas nouvelle pour la science. La température si réelle et précise que nous pouvons la lire sur un thermomètre ordinaire, n’est qu’un effet statistique des mouvements moléculaires désordonnés... Le fait de considérer qu’une particule quantique a une certaine probabilité d’être dans un état donné ne doit pas être considéré comme la traduction d’une ignorance mais celle d’une propriété de la particule… L’électron nu n’existe pas réellement puisqu’il est toujours impensable sans son champ. »

Annie Lesne :

« Les notions d’ordre et de désordre sont généralement envisagées à une échelle donnée. Ainsi la mécanique statistique décrit comment un ordre macroscopique émerge du désordre microscopique des molécules en agitation thermique. Mais il existe des phénomènes, dits « critiques », où ce désordre microscopique est amplifié, jusqu’à devenir observable à notre échelle. Des fluctuations géantes et des structures fractales se forment : l’ordre macroscopique est détruit. Un exemple classique est l’aspect opalescent d’un fluide à sa température critique, opalescence due à des fluctuations de densité de tailles comparables aux longueurs d’onde visibles. De ce désordre extrême qui abolit la séparation entre le monde microscopique et le monde macroscopique émerge une nouvelle forme d’ordre : les propriétés aux différentes échelles sont similaires et se correspondent comme des poupées russes. L’ordre se situe maintenant dans cet emboitement autosimilaire : le décrire permet d’expliquer et de prédire les phénomènes. Stabilisée par des mécanismes de rétroaction, cette forme d’ordre « traversant les échelles » pourrait être à l’œuvre dans de nombreux systèmes complexes physiques ou biologiques. »

N. Campbell dans "Philosophical foundation of quantum theory" :

« La notion de temps découle d’une conception statistique ne possédant de signification que pour de grands nombres d’atomes (...) L’intervalle de temps entre des événements atomiques a aussi peu de sens que de parler de la température d’une molécule isolée. »

« La notion de corpuscules et d’atomes », Paul Langevin :

« La notion d’individu me semble n’avoir pas de limite inférieure nette et se dégager de plus en plus clairement à mesure que la structure se complique. Divers arguments peuvent être invoqués en faveur de cette idée. Le plus important, à mon sens, est tiré du succès de ce que nous appelons les nouvelles statistiques. En effet, lorsque, de l’hypothèse atomique ou moléculaire, on a voulu tirer des conséquences, ç’a été tout d’abord, du côté de la Physique, par l’intermédiaire de la théorie cinétique dans laquelle on envisage des systèmes composés chacun d’un grand nombre de particules. Suivant la manière dont ces particules se distribuent entre les divers états possibles comme position et comme mouvement, le système qu’elles constituent peut prendre diverses configurations. La manière dont il nous apparaît macroscopiquement représente en général une moyenne entre ces configurations. Ou bien, au contraire, si on l’observe plus finement, on peut voir tantôt l’une, tantôt l’autre et constater, dans l’aspect du système, des fluctuations comme celles qui donnent lieu au mouvement brownien. Nous pourrons prévoir le comportement du système complexe et les fluctuations auxquelles il donne lieu, par application du calcul des probabilités aux diverses configurations possibles. La probabilité de chacune de ces configurations, c’est-à-dire la fraction du temps pendant laquelle elle est réalisée, s’évalue en tenant compte des éléments particulaires nombreux dont le système est composé. C’est de cette évaluation de la probabilité relative des configurations qu’on pourra tirer la prévision, soit des effets de moyennes comme la pression d’un gaz par exemple, soit des écarts à partir des propriétés moyennes, c’est-à-dire des fluctuations. Une même configuration d’ensemble du système, caractérisée par certaines valeurs déterminées des paramètres macroscopiques, géométriques ou mécaniques servant à la définir peut, au point de vue microscopique, être réalisée d’un plus ou moins grand nombre de manières par des distributions convenables des particules constitutives. Si on considère chacune de ces manières, chaque complexion, comme également probable a priori, la probabilité d’une configuration doit être considérée comme proportionnelle au nombre de manières dont cette configuration peut être réalisée, au nombre de complexions qui lui correspondent. Cela permet de calculer la probabilité de chaque configuration et d’en déduire la configuration moyenne ainsi que les écarts ou fluctuations à partir de celle-ci. Ces considérations sont à la base même de la mécanique statistique. Les fondateurs de cette mécanique statistique, Boltzmann et Gibbs, tout en considérant comme indiscernables les particules semblables dont le système était composé, ont attribué une individualité à ces particules puisqu’ils ont considéré comme différentes des complexions telles qu’on passe de l’une à l’autre par la simple permutation de deux particules semblables. On calcule ainsi, dans cette statistique, par la considération de permutations, ce qu’on appelle « le nombre de complexions » et, par conséquent, la probabilité de chaque configuration pour l’ensemble du système. Un fait remarquable est que l’expérience ne confirme pas les prévisions de cette statistique. Au contraire, de nouvelles statistiques se sont développées, celle de Bose-Einstein et celle de Pauli-Fermi, qui diffèrent de la précédente en ce qu’on n’y attribue pas de personnalité ou d’individualité aux particules. On y considère que les distributions des particules entre les différents états possibles ne peuvent être caractérisées que par le nombre et non par l’individualité des particules qui -se trouvent dans chacun de ces états. Deux complexions qui ne diffèrent l’une de l’autre que par la permutation de deux particules considérées d’ailleurs comme indiscernables, ne sont plus considérées comme différentes. Cela change la statistique, puisque cela change le nombre de complexions correspondant à une configuration macroscopique quelconque de l’ensemble et par conséquent la probabilité attribuée à cette configuration. Dans ces nouvelles statistiques, on n’attribue d’individualité qu’aux états dans lesquels peuvent se trouver les particules et non aux particules elles-mêmes. La particule, dont le nom devrait d’ailleurs être changé, cesse d’être un objet pour devenir un simple degré d’excitation de l’état qui lui est attribué, et seul compte, naturellement, pour définir une complexion, le nombre des degrés d’excitation attribués à chacun des états possibles. Je veux donner, sur un exemple simple, une idée de la différence profonde entre ces statistiques, qui se traduit par une différence dans les probabilités attribuées aux diverses configurations macroscopiques et par conséquent dans les prévisions qui peuvent être soumises au contrôle de l’expérience. Imaginons un récipient contenant deux molécules du même gaz. Je suppose qu’il soit partagé en deux compartiments égaux, soit par une cloison effective avec un trou, ce qui fait qu’une molécule, de temps en temps, pourra passer d’un compartiment dans l’autre ; soit simplement par une cloison idéale, chaque molécule passant alors plus fréquemment d’un côté à l’autre ; considérons la probabilité des configurations que peut prendre un semblable système : Soit un compartiment à gauche et un compartiment à droite. Cela a un sens expérimental d’attribuer à chacun de ces compartiments une individualité. Pour ce qui concerne les molécules, si je les considère comme des objets, comme des particules individualisables, je les désignerai, l’une par A, l’autre par B. Il y a pour chacune d’elles deux possibilités équivalentes : qu’elle soit à droite ou qu’elle soit à gauche. Si je considère les deux molécules comme indépendantes, cela fait pour leur ensemble quatre complexions possibles : 1) j’aurai à la fois A et B à gauche et rien à droite ; 2) j’aurai A du côté gauche, B du côté droit ; 3) ou bien, au contraire, A du côté droit et B du côté gauche ; 4) ou bien enfin, rien du côté gauche et A comme B du coté droit. Ces quatre possibilités, qui sont les seules, doivent être considérées comme également probables a priori. Par conséquent, il y aura deux possibilités pour la répartition égale des molécules entre les deux compartiments, une possibilité pour qu’elles soient toutes les deux à gauche, et une possibilité pour qu’elles soient toutes les deux à droite. Cela se traduira physiquement par ceci : pendant la moitié du temps le gaz sera également réparti entre les deux compartiments ; pendant un quart du temps, il sera tout entier dans le compartiment de gauche, et pendant le dernier quart du temps, il sera tout entier dans le compartiment de droite. La première configuration se présente dans cette statistique comme deux fois plus probable que chacune des deux autres parce qu’il lui correspond deux complexions différant l’une de l’autre par permutation des deux molécules A et B. On pourra se servir de ces résultats pour étudier ce qu’on appellera les fluctuations autour de la configuration moyenne, qui correspondra à des densités égales dans les deux compartiments. On trouve facilement que l’écart quadratique moyen (racine carrée du carré moyen des écarts) est égal pour chaque compartiment à (1/sqrt(2)).molécule. J’avoue que j’avais été gêné, quand j’ai fait, au Collège de France, autrefois, un enseignement de cette mécanique statistique, par l’inconséquence qu’il y a à affirmer, d’une part, que les molécules sont identiques et par conséquent indiscernables et d’autre part, à leur attribuer une individualité pour évaluer le nombre des complexions ; ce qui conduit à considérer comme différentes les complexions 2) et 3) tout en reconnaissant, comme conséquence de la première affirmation, que rien ne permet de les distinguer, que la différence faite entre elles n’a aucun sens expérimental. La saine doctrine en physique, qui a si bien servi Einstein en particulier dans le développement de la relativité, dit que la théorie, autant que possible, ne doit rien introduire qui n’ait une signification expérimentale, qui ne corresponde au moins à une expérience imaginable sinon facile. C’est précisément le cas pour les nouvelles statistiques qui se présentent, à ce point de vue, de manière plus raisonnable que l’ancienne. Du moment que nous sommes incapables de distinguer entre la molécule A et la molécule B, nous devons considérer que les complexions 2 et 3 n’en font qu’une, qu’il n’y a qu’une seule manière de répartir également le gaz entre les deux compartiments.. A ce nouveau point de vue, nous ne devons considérer que le :, nombres de molécules présentes dans chaque compartiment et cela donne trois possibilités également probables a priori : 1) deux molécules à gauche et zéro à droite ; 2) une molécule à gauche et une à droite ; 3) rien à gauche et deux molécules à droite. Remarquons bien qu’en raisonnant ainsi nous cessons de considérer les molécules comme des objets pour ne porter notre attention que sur les compartiments et sur le nombre de molécules que chacun d’eux contient. Les molécules ne figurent ici que comme des degrés dans la manière dont les compartiments sont occupés, des degrés dans la manière dont l’état que chacun de ces compartiments représente est excité. Dans la nouvelle conception, chacune des trois possibilités doit être réalisée pendant un tiers du temps et, par conséquent, la répartition égale du gaz entre les deux compartiments n’aura que la probabilité un tiers au lieu d’avoir la probabilité un demi. Cette nouvelle statistique avantage les distributions qui s’écartent de la moyenne ; elle doit donc conduire à prévoir des fluctuations plus importantes que la statistique ancienne. Si, en effet, on calcule, avec les nouvelles valeurs des probabilités, l’écart quadratique moyen dans chaque compartiment, on le trouve égal à sqrt(2/3) au lieu de sqrt(1/2) molécule. C’est à l’expérience de dire si la nature se comporte comme le prévoit la doctrine qui individualise les corpuscules ou si elle se comporte, au contraire, conformément à la doctrine qui n’individualise que les compartiments, les états où peuvent se trouver les particules. Il est à peine besoin de dire qu’elle donne raison à la seconde conception, à celle qui est logique avec elle-même et qui, affirmant que les particules sont indiscernables, ne tient pas en même temps compte de leurs permutations. Il est assez curieux de suivre les conséquences expérimentales de cette nouvelle statistique, celle de Bose-Einstein, qui substitue des combinaisons aux permutations. Elle a été appliquée, par Bose, aux photons. Ce qu’on appelle la théorie de Debye pour le rayonnement du corps noir n’est pas autre chose qu’une forme d’application de ce raisonnement. Dans l’exemple examiné plus haut, j’ai supposé seulement, pour simplifier, deux compartiments. On peut en supposer un plus grand nombre, et tenir compte, pour caractériser les états possibles d’une particule, non seulement des changements de position d’un compartiment à un autre, mais encore des changements de vitesse ou de quantité de mouvement de la particule. On est ainsi conduit à la notion d’une « extension en phase », divisée en compartiments, en cellules ayant chacune une étendue finie déterminée par la constante h de Planck et correspondant chacune à un état également probable a priori pour la particule. La statistique de Bose-Einstein ne fait intervenir, pour caractériser une complexion, que le nombre des particules occupant chaque cellule, la particule jouant le rôle d’un degré d’excitation de l’état correspondant à la cellule et non pas celui d’un objet. Par exemple, en appliquant ces raisonnements au rayonnement électromagnétique en équilibre thermique dans un récipient, on peut retrouver la composition expérimentale du rayonnement noir. Avec Jeans, on peut décomposer ce rayonnement en un certain nombre de modes stationnaires d’oscillations électromagnétiques qui correspondent chacun à une des cellules d’extension en phase, à un des états possibles pour les photons intérieurs au récipient. En supposant que ces différents états peuvent recevoir des degrés d’excitation discontinus correspondant à la présence de nombres entiers de photons dans chaque état, tout en n’attribuant pas d’individualité aux photons, l’application de la nouvelle statistique conduit exactement, pour le rayonnement, à la formule de Planck, vérifiée par l’expérience ; tandis que si on attribue une individualité au photon, et si on lui applique la statistique de Boltzmann-Gibbs, on est conduit pour le rayonnement noir à la formule de Wien, contredite par l’expérience. Il semble bien que, pour les gaz, il doive en être de même. L’application de la statistique de Bose-Einstein aux molécules d’un gaz conduit à prévoir une dégénérescence, c’est-à-dire des écarts à la loi des gaz parfaits, qui se trouvent, pour les gaz ordinaires, en dehors des possibilités de vérification expérimentale. Si on s’adresse aux électrons, au lieu de s’adresser aux photons, ou aux atomes, ou aux molécules neutres, on se trouvera obligé d’introduire une troisième statistique qui, elle aussi, renonce à l’individualité des électrons, mais introduit en plus ce qu’on appelle « le principe d’exclusion de Pauli » en vertu duquel chacun des états possibles pour les électrons, chacun des modes stationnaires des ondes électroniques de de Broglie ou de Dirac, ne peut être occupé que par zéro ou un électron. Dans la cellule électronique d’extension en phase, dans le compartiment qui correspond à chacun de ces états ou modes ondulatoires stationnaires possibles, il n’y a place au plus que pour un électron, il ne peut y avoir que zéro ou un degré d’excitation. Ce principe d’exclusion de Pauli revient à affirmer l’impénétrabilité réciproque des électrons dans l’extension en phase qui leur correspond, alors que rien d’analogue n’existe pour les photons. Celles de ces cellules qui correspondent aux états d’énergie négative de Dirac dont j’ai parlé tout à l’heure seraient toutes normalement occupées, et pour tout l’espace, par des électrons ; quand l’un de ces états cesserait d’être occupé, son degré d’excitation devenant zéro au lieu de un, cela ferait une lacune, cela ferait un positron. On peut interpréter la conductibilité des métaux par la présence à leur intérieur d’électrons libres. D’autres propriétés en résultent aussi, en particulier leur diamagnétisme, et le paramagnétisme indépendant de la température de certains métaux. En appliquant aux électrons libres la statistique de Pauli, on obtient de manière remarquable l’interprétation de ce paramagnétisme indépendant de la température, qui avait longtemps intrigué les physiciens ; il y a là un autre succès expérimental de la nouvelle statistique, qui fournit un argument très fort en faveur de l’idée que ni les photons, ni les électrons, ni les protons ne peuvent être considérés ni traités comme des objets ; et ceci vient confirmer entièrement les conclusions que je crois nécessaire de tirer du principe d’indétermination. Un autre argument me paraît également avoir de l’importance : lorsqu’on interprète la constante h de Planck comme fixant les limites du domaine corpusculaire dans lequel règne l’indétermination et devant lequel s’arrête la loi purement statistique de causalité, j’ai l’impression que cette indétermination est singulièrement déterminée, puisque la constante h est connue au millième près. Devant l’apparition de cet h, qui semble jouer un rôle si fondamental dans les lois profondes de la nature et auquel se relient avec tant de précision tant de phénomènes importants, on aimerait savoir un peu mieux d’où il vient et ne pas renoncer à l’attitude scientifique au moment où elle n’a jamais été plus nécessaire ni probablement plus féconde. Il ne me parait pas suffisant de dire : « h détermine une indétermination ». Le succès même de la mécanique ondulatoire montre la nécessité de rester fidèle au guide le plus sûr de l’activité du physicien qui est d’aller toujours plus loin dans la recherche d’un déterminisme. »

Un exemple de loi statistique : les fentes de Young

Un autre exemple : le mouvement brownien

Un troisième exemple : les lois thermodynamiques

Lire Louis de Broglie sur la statistique en mécanique ondulatoire

Introduction à la physique statistique

Lire le cours de physique statistique d’Eric Brunet

Lire le cours de physique statistique de Nicolas Pavloff

Lire le cours de physique statistique de Bahram Houchmandzadeh

Lire le cours de physique statistique de la faculté d’Orsay

Messages

  • Per Bak, dans « Quand la nature s’organise » :

    « Les physiciens ont l’habitude de manipuler des théories probabilistes pour lesquelles on peut prédire, non pas l’issue exacte d’une expérience, mais seulement quelques caractéristiques statistiques. Il existe trois théories fondamentales en physique qui sont de nature statistique. Tout d’abord, la mécanique statistique qui traite des grands systèmes en équilibre, comme les gaz d’atomes que constitue l’air qui nous entoure. Elle nous dit comment calculer des propriétés moyennes de ce grand nombre d’atomes, telles que la température et la pression, mais elle ne nous permet pas d’accéder aux positions ou aux vitesses des atomes individuels (informations qui, d’ailleurs, ne nous intéresseraient pas). Deuxièmement, la mécanique quantique qui nous enseigne que l’on ne peut prédire précisément, au même instant, à la fois la position et la vitesse d’une petite particule comme un électron, mais seulement la probabilité de trouver la particule à une position donnée…. Troisièmement, la théorie du chaos qui nous dit que des systèmes mécaniques simples, par exemple des pendules excités périodiquement, peuvent présenter des comportements imprévisibles. Il est impossible de savoir où sera exactement où sera exactement le pendule après une longue période, quelle que soit la précision avec laquelle on connaît les équations du mouvement et les conditions initiales. »

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.