Accueil > 01 - Livre Un : PHILOSOPHIE > La nature fait des sauts (ou le règne universel de la discontinuité) > La matière, la lumière et la discontinuité selon le physicien Paul Langevin

La matière, la lumière et la discontinuité selon le physicien Paul Langevin

mercredi 19 février 2020, par Max

La matière, la lumière et la discontinuité selon le physicien Paul Langevin

« (…) L’expérience et la théorie sont d’accord pour voir dans le rayonnement et dans la matière les deux constituants essentiels de l’univers physique, et pour les opposer l’une à l’autre sous une forme qui s’est singulièrement modifiée depuis trente ans. L’examen de cette évolution me permettra de souligner certains traits essentiels dans l’orientation de la physique moderne.

On croyait autrefois que la propriété la plus fondamentale et la plus caractéristique de la matière était d’être à la fois pesante et inerte, de manière invariable pour chaque portion de matière à travers tous les changements physique ou chimique qu’elle pouvait subir. Cette double propriété de pesanteur et d’inertie était caractérisée par une seule et même grandeur appelée la masse. Cette masse mesurait également la capacité de la matière comme véhicule d’énergie cinétique, proportionnelle au carré de la vitesse, et de quantité de mouvement, proportionnelle à la vitesse. Le rayonnement, au contraire, était considéré comme impondérable, et comme transportant uniquement de l’énergie à l’exclusion de quantité de mouvement.

Le développement de la théorie électromagnétique en prévoyant l’existence, confirmée par l’expérience, d’une pression exercée par le rayonnement sur les obstacles matériels qu’il rencontre, a fait considérer celui-ci comme véhicule de quantité de mouvement aussi bien que d’énergie. Nous savons aussi, depuis la relativité généralisée, que le rayonnement est pesant, que la lumière est déviée, comme le serait un projectile matériel, au voisinage d’une masse importante, celle du soleil par exemple. Nous savons aussi qu’un corps change de poids en même temps que d’inertie lorsqu’il absorbe ou émet du rayonnement.

Un rapprochement s’est donc effectué, à ce point de vue déjà, entre la matière et le rayonnement qui sont tous deux pesants, tous deux véhicules d’énergie et de quantité de mouvement. Indépendamment de toute question de structure, une seule différence, profonde il est vrai, subsiste entre eux au point de vue mécanique : la matière peut prendre, par rapport à nous, des vitesses variables de manière continue, depuis la valeur nulle correspondant au repos, jusqu’à une limite supérieure que nous savons aujourd’hui être égale à la vitesse de la lumière dans le vide. Le rayonnement, au contraire, ne se propage dans le vide qu’avec une seule et même vitesse pour toutes les fréquences, la vitesse de la lumière. Cette limite, impossible à atteindre pour la matière sans une dépense infinie d’énergie, est sensiblement égale à trois cent mille kilomètres par seconde, c’est-à-dire considérable par rapport aux vitesses avec lesquelles la matière, même en astronomie, se présente d’ordinaire à nous.

Au point de vue de l’idée que nous nous faisons de leur structure, l’opposition entre la lumière et la matière se rattache à celle qui existe entre les notions théoriques du continu et du discontinu.

Cette dernière opposition est vieille comme le monde ou plutôt comme l’esprit ; l’histoire des mathématiques est dominée par les efforts faits pour la préciser et pour la résoudre, et elle joue dans le développement des théories physiques un rôle non moins important.

L’idée du continu et de l’infiniment divisible est à la base de notre représentation spatio-temporelle. La permanence d’un individu ou d’un objet ne ce conçoit qu’à travers une succession continue d’états au cours du temps, et le mouvement d’un objet dont l’individualité se conserve nous apparaît comme lié à une série continue de positions dans l’espace. Le calcul différentiel, en précisant la notion d’infiniment petit, a donné son expression complète à l’idée de continuité.

Le discontinu, qui prend également son origine dans la notion d’individu ou d’objet s’opposant au milieu qui l’entoure ou aux autres objets, trouve son expression abstraite dans les notions de l’un et du nombre ; son domaine le plus pur est l’arithmétique ; l’effort des mathématiciens pour arithmétiser la géométrie et l’analyse, pour construire, grâce à la notion d’incommensurable, le continu à partir du discontinu, ne peut être encore considéré comme ayant complètement abouti. Il est remarquable que les physiciens se trouvent confrontés aujourd’hui avec la nécessité d’une synthèse analogue.

Nous avons cru, il y a trente ans, pouvoir éviter le conflit en réservant à chacun des deux termes de cette opposition son domaine en physique : au continu celui du rayonnement et au discontinu celui de la matière. Nous pensions ainsi pouvoir interpréter la nature profonde des deux oppositions, rayonnement et matière, continu et discontinu, en les ramenant à une seule, et en les interprétant l’une par l’autre.

Le XIXe siècle s’achevait en effet par le triomphe de la théorie électromagnétique et ondulatoire du rayonnement, d’une part, de la théorie atomique, d’autre part, où la matière apparaissait comme construite à partir de grains d’électricité.

A la théorie de l’émission de Newton qui attribuait à la lumière une structure discontinue, s’était victorieusement opposée la conception d’Huyghens, reprise par Fresnel, Maxwell et Herz, selon laquelle le rayonnement résulte de la propagation, avec une vitesse, définie dans le milieu, d’une perturbation de structure continue, décomposable en une infinité continue d’ondes périodiques simples de diverses fréquences. La perturbation y est caractérisée en chaque point de l’espace et à chaque instant par les deux vecteurs champ électrique et champ magnétique qui déterminent l’état du milieu ainsi que la distribution, continue dans l’espace, de l’énergie et de la quantité de mouvement transportés par le rayonnement…

A la même époque, début du siècle actuel, comme conséquence des succès de la théorie cinétique et de la découverte de l’électron, nous étions conduits à attribuer à la matière une structure essentiellement granulaire et discontinue. L’étude expérimentale des relations entre la matière et l’électricité avait montré que les charges électriques s’y comportent toujours comme composées de grains, tous identiques entre eux pour chaque signe des charges, électrons pour les négatives et protons pour les positives, chacun de ces grains possédant, outre son électrisation, les attributs fondamentaux de la matière, inertie et pesanteur…

Ces deux éléments fondamentaux nous paraissaient suffisants pour construire la matière sous ses formes infiniment diverses, constituées les unes et les autres par des agrégats de protons et d’électrons, chaque particule électriquement, atome, molécule ou ensemble plus complexe contenant des nombres égaux d’électrons et de protons…

Cette conception d’un rayonnement composé d’ondes électromagnétiques continues et d’une matière formée de grains électrisés discontinus, semblait ainsi pouvoir rendre compte, non seulement des caractères opposés de l’un et de l’autre, mais encore de leurs actions réciproques, de l’absorption et de l’émission du rayonnement par la matière…

Il a fallu très vite renoncer l’espoir que je viens d’évoquer : deux crises successives qui compteront parmi les plus importantes dans l’histoire de la physique, la crise de la relativité et surtout celle des quanta, sont venues nous montrer combien nous étions encore loin d’une représentation satisfaisante des faits.

Ce sont des expériences concernant à la fois la matière et le rayonnement qui se trouvent à l’origine de chacune de ces crises…

Loin d’être plus complexe, la nouvelle mécanique (relativiste) s’est montrée plus simple que l’ancienne. Elle comporte en effet, comme conséquence essentielle, l’identification de la notion de masse avec celle d’énergie. Alors que l’ancienne mécanique devait, pour être conséquente avec elle-même, introduire une masse invariable lorsque l’état du corps et par conséquent son énergie interne varie, la nouvelle mécanique affirme l’inertie de l’énergie, c’est-à-dire la variation de la masse d’un corps proportionnellement à l’énergie interne de celui-ci, unissant en une seule les deux notions de masse et d’énergie, qui étaient autrefois distinctes et faisaient l’objet de deux principes de conservation entièrement indépendants. On sait combien cette découverte de l’inertie de l’énergie s’est montrée féconde puisqu’elle a permis, en particulier, de comprendre l’origine des petits écarts entre les poids atomiques rapportés à celui de l’hydrogène et les nombre entiers, de faire triompher la doctrine de l’unité de la matière, et de connaître, précisément par l’intermédiaire de ces petits écarts, l’énergie libérée quand l’hydrogène se condense pour donner naissance aux autres éléments chimiques…

La liaison entre l’inertie et la pesanteur que révèle l’identité de la masse inerte et de la masse pesante devait faire prévaloir, à partir de l’inertie de l’énergie, la pesanteur de l’énergie, la pesanteur de la lumière à partir de l’inertie de la lumière. C’est tout d’abord par cette voie qu’Einstein a été conduit à passer de la relativité restreinte à la relativité généralisée…

La crise des quanta, en pleine évolution, est plus grave encore que celle de la relativité et présente, au point de vue philosophique, une signification également profonde.

Elle aussi est issue de l’expérience optique, qui concerne à la fois la matière et le rayonnement ; mais au lieu d’exiger, comme la confrontation de la cinématique ancienne avec les faits, toute la précision des méthodes interférentielles de mesure comme dans l’expérience de Michelson, l’opposition de la théorie avec l’expérience se présente ici sous une forme aigüe, violente, que permet de constater l’expérience la plus immédiate dans le domaine du rayonnement thermique ou de la photoélectricité.

Il s’agit ici de phénomènes qui concernent plus particulièrement les échanges d’énergie entre la matière et le rayonnement, échanges que comme je l’ai dit tout à l’heure, la théorie électromagnétique se représentait sous l’aspect de processus continus…

La contradiction flagrante dont il s’agit ici (émission du corps noir) entre l’expérience et la théorie qui admet des échanges continus entre la matière et le rayonnement, s’est imposée de manière aigüe à l’attention des physiciens depuis plus de trente ans, et surtout depuis que Max Planck a montré, en 1900, que les raisonnements statistiques donnent au contraire un résultat conforme à l’expérience si l’on suppose, en contradiction avec la théorie électromagnétique, que les échanges d’énergie, l’absorption et l’émission du rayonnement par la matière, se font de manière discontinue, par quantités finies ou quanta, de grandeur proportionnelle à la fréquence du rayonnement émis ou absorbé, avec un coefficient de proportionnalité connu depuis sous les nom de constante de h de Planck…

Einstein a montré, quelques années plus tard, qu’il fallait, pour comprendre les lois des péhnomènes photoélectriques, découverts par herts il y a un epue plus de quarante ans, non seulement introduire cette discontinuité dans les échanges entre la matière et le rayonnement, mais encore renoncer à la structure continue du rayonnement lui-même.

Ces phénomènes consistent en une émission d’électricité négative par la matière sous l’action du rayonnement, en une émission d’électrons, par toute matière lorsqu’elle est soumise à l’action d’un rayonnement de fréquence suffisamment élevée. L’expérience montre que chaque électron ainsi arraché par une radiation de fréquence déterminée, reçoit du rayonnement, une énergie précisément égale au quantum de Planck, proportionnelle à la fréquence avec le même coefficient h nécessaire pour interpréter les lois du rayonnement thermique.

Le fait remarquable est que l’énergie prise ainsi par un seul électron pour une fréquence donnée du rayonnement est toujours la même quelle que sit l’intensité, forte ou faible, de ce rayonnement, quelle que soit aussi la matière dont l’électron est arraché. Cette énergie ne dépend absolument que de la fréquence incidente. Ce résultat est inconciliable avec l’idée que l’énergie du rayonnement est distribuée de manière continue dans l’espace avec une densité proportionnelle à l’intensité du rayonnement.

Il faut, au contraire, comme l’a montré Einstein, la supposer concentrée en grains discontinus ou photons, transportant chacun avec la vitesse de la lumière une énergie égale au quantum de Planck et une quantité de mouvement égale au quotient de ce quantum par la vitesse de la lumière.

C’est par photons entiers que se fait l’absorption et l’émission du rayonnement par la matière et c’est la rencontre d’un photon avec un électron qui, transmettant à celui-ci l’énergie du photon, donne lieu à l’effet photoélectrique.

L’introduction, par le photon, d’une structire discontinue du rayonnement, est venue interpréter un nombre considérable de phénomènes nouveaux, concernant toujours les échanges entre la matière et la lumière, en particulier ceux qui sont connus sous les noms d’effet Compton et d’effet Raman…

Le double aspect, ondulatoire et corpusculaire, de l’expérience optique semble imposer à la fois une conception continue et une conception discontinue de la structure du rayonnement…

Le fait remarquable est que le rayonnement se présente à nous sous ce double aspect ondulatoire et corpusculaire et qu’une synthèse est nécessaire entre les deux conceptions continue et discontinue autrefois opposées l’une à l’autre…

La même nécessité d’associer, dans la lumière, à l’élément ondulatoire et continu un élément corpusculaire et discontinu, aux ondes de Fresnel, des photons qu’elles pilotent, s’est imposée dans l’ordre inverse également à la matière. Il a fallu, en effet, au cours du développement récent de la crise des quanta, constituer une mécanique ondulatoire, associer aux grains de la conception ancienne, électrons, protons, atomes ou molécules, des ondes d’un type nouveau, les ondes de De Broglie et de Schrödinger. Comme les ondes lumineuses par rapport aux photons, les ondes nouvelles sont unies aux corpuscule matériels par un lien dont nous ne connaissons encore que l’aspect statistique : les ondes nouvelles, déterminant la probabilité de présence des grains de matière comme les ondes électromagnétiques déterminent la distribution des grains de lumière ou photons…

L’opposition entre rayonnement et matière cesse ainsi de se confondre avec l’opposition entre le continu et le discontinu. Du côté du rayonnement, comme du côté de la matière, il est nécessaire, au moins pour l’instant d’associer un élément continu, ondulatoire, à un élément discontinu, corpusculaire. (…) »

Conférence de Paul Langevin, « L’orientation actuelle de la physique » (1930)

« (…) Vous savez – Jean Perrin vous le rappelait tout à l’heure – que notre confiance n’a fait que croître dans la représentation atomique ou corpusculaire, qui a évolué depuis que les philosophes grecs ont imaginé la matière qui nous entoure comme composée de petits grains extrêmement durs et comparables aux objets individualisables dont nous avons l’habitude, mais infiniment plus ténus et représentant la limite de la divisibilité. Cette notion a pris, au cours des deux derniers siècles, une importance considérable, surtout à cause du développement de la Chimie. Perrin revendiquait tout à l’heure pour la Chimie le domaine de la discontinuité. Effectivement, c’est bien la Chimie qui a introduit dans nos connaissances le caractère de discontinuité que présentent ses combinaisons.

La nécessité s’est imposée ainsi de considérer les divers éléments isolés par les chimistes comme constitués par des atomes, tous identiques entre eux, ou plus exactement, depuis que les physiciens s’en sont occupés, chacun de ces éléments comme un mélange d’isotopes, chaque isotope représentant un groupe d’atomes, tous identiques entre eux. Ces atomes s’associent pour former des molécules suivant des lois discontinues, et sont eux-mêmes construits à partir de corpuscules électrisés, dont la découverte remonte aux trente et quelques dernières années…

A la même époque où J. J. Thomson identifiait le corpuscule cathodique ou électron négatif comme particule de masse connue, la théorie électromagnétique, entre les mains de Lorenz et de ses continuateurs, arrivait aux mêmes conceptions, à la nécessité d’une structure granulaire électrisée de la matière, et interprétait par là, en particulier, le phénomène de Zeeman… L’existence de l’électron dans tous les atomes se trouvait par là confirmée.

Vous savez que le développement admirable de la spectroscopie, depuis la découverte du phénomène de Zeeman, a montré que ce phénomène se présente sous une forme plus complexe que ne l’imaginait Lorentz et que, pour l’interpréter, il fallait attribuer à l’électron négatif non seulement une charge électrique, mais encore un moment magnétique – un spin, comme on dit aujourd’hui en utilisant un terme anglais…

La découverte du spin a introduit l’idée que cette petite sphère électrisée pivotait sur elle-même pour donner naissance au moment magnétique que nous devons attribuer à l’électron…

Et cette croyance, singulièrement féconde, dans l’existence de corpuscules individuels et individualisables, s’est trouvée encore confirmée par les admirables expériences de C.T. R. Wilson, expériences qu’on a appelées les plus belles du monde – je crois qu’elles le méritent. Elles nous ont permis, en utilisant la condensation de la vapeur d’eau rendue sursaturante par détente dans un gaz conducteur, de voir les ions dont, jusque là, nous avions parlé, que nous avions vus avec les yeux de l’esprit, et de voir aussi les trajectoires des corpuscules électrisés, de ces électrons que nous imaginions…

La photographie que nous examinions tout à l’heure semble bien suggérer cette conception de la structure granulaire du rayonnement, de l’existence du photon, comme nous le disons, parce que là où apparaît un électron photoélectrique, une molécule que rien, a priori, ne différenciait des autres molécules du gaz, est l’objet de la part du rayonnement, d’une action tout à fait exceptionnelle. Vous avez vu le très petit nombre de ces effets d’énergie, alors que les voisines ne s’aperçoivent de rien.

Cela suggère l’idée que le rayonnement se comporte comme s’il était composé de grains d’énergie qui, par un phénomène analogue à un choc, rencontrent certaines molécules et sont captées par celles-ci, leur énergie étant utilisée d’abord pour arracher l’électron, et ensuite pour communiquer à celui-ci l’énergie cinétique avec laquelle il est lancé et grâce à laquelle il ionise le gaz sur son parcours.

L’idée du corpuscule se généralise ainsi et passe de la matière à la lumière. Cette conception corpusculaire de la lumière s’est trouvée encore confirmée par la découverte de ce que nous appelons l’effet Compton… Cet effet Compton apporte une confirmation expérimentale très précise à la structure corpusculaire non seulement de la matière par les électrons, mais aussi de la lumière par les photons qui peuvent rencontrer les électrons, en observant toutes les lois habituelles de conservation de l’énergie et de la quantité de mouvement dans le choc. »

Conférence de Paul Langevin, « La Notion de corpuscules et d’atomes » (16 octobre 1933)

LA PHYSIQUE DU DISCONTINU
Le changement profond qui s’est produit récemment en Physique est caractérisé surtout par la pénétration, dans tous les domaines de notre science, de la notion fondamentale de discontinuité. Nous devons aujourd’hui fonder notre conception du monde et notre prévision des phénomènes sur l’existence des molécules, des atomes et des électrons. Il semble bien aussi nécessaire d’admettre que les moments magnétiques sont tous des multiples entiers d’un élément commun, le magnéton, et que la matière ne peut émettre de rayonnement électromagnétique que de manière discontinue, par quanta d’énergie de grandeur proportionnelle à la fréquence. Nous ne connaissons encore que très imparfaitement les lois exactes, individuelles, qui régissent tous ces éléments ainsi que leurs relations les uns avec les autres. Il est probable même que la plupart de ces lois ne pourront pas s’exprimer dans le langage du calcul différentiel et intégral, créé pour traduire analytiquement la notion de continuité. Cet admirable instrument ne convient qu’à l’étude des systèmes accessibles à nos sens et qui sont en général composés d’un nombre énorme d’éléments. Les grandeurs qu’atteignent nos moyens de mesure intéressent d’ordinaire tant d’éléments à la fois par somme ou par moyenne des grandeurs individuelles, que nous pouvons, sans erreur sensible, les traiter comme continues. Mais les propriétés de pareils ensembles sont nécessairement déterminées par les lois élémentaires sous-jacentes et nous ne pouvons espérer comprendre l’aspect superficiel des choses qu’à condition de le raccorder avec l’aspect profond que l’expérience vient de nous révéler. C’est la tâche qui s’impose actuellement à nous : établir la liaison entre le fond et la surface, entre les propriétés du grain et celles de l’agrégat, pour expliquer les faits d’ensemble quand les lois élémentaires sont connues ou plus souvent encore pour essayer d’atteindre ces dernières à partir des échos lointains qui seuls nous sont perceptibles. Nous ne pouvons éluder cette nécessité : l’existence des éléments est certaine, un monde nouveau nous est révélé dont les lois dominent toute la Physique. Nous devons tenter de remonter jusqu’à elles et pouvons espérer les trouver plus simples que leurs conséquences lointaines, que les résultats moyens ou statistiques auxquels nous sommes habitués. Il arrive souvent aussi que la forme particulière des lois individuelles s’élimine, disparaît, quand on passe aux propriétés de l’ensemble dont certaines résultent uniquement du très grand nombre des éléments présents, ont le caractère de lois purement statistiques. Il semble bien, par exemple, que le principe de Carnot, la loi de destruction spontanée des substances radioactives, la loi d’action de masse et bien d’autres appartiennent à cette catégorie et soient uniquement des lois de grands nombres. Nul ne contestera que dans ce cas nous atteignons d’emblée l’explication complète de ces lois, la compréhension profonde de leur signification. Bien plus, nous prévoyons par là qu’elles doivent, comme toutes les lois de grands nombres, donner lieu à des écarts, à des fluctuations d’autant plus importantes qu’on les applique à des systèmes plus simples, comprenant un moindre nombre d’éléments. Vous savez tous que l’observation de ces écarts, dans des directions très variées, est venue apporter des arguments décisifs en faveur de l’existence des éléments discontinus, ainsi qu’une méthode générale et précise pour atteindre le nombre et la grandeur de ces éléments. Pour constituer cette Physique du discontinu qui s’impose aujourd’hui, nous devons nécessairement faire usage de raisonnements statistiques, nous servir constamment du calcul des probabilités qui est le seul lien possible entre le monde des atomes et nous, entre les lois élémentaires et nos observations. L’introduction du calcul des probabilités en Physique fut réalisée pour la première fois de manière explicite par Maxwell à propos de la théorie cinétique des gaz. Comme on l’imagine aisément, l’adaptation à un domaine nouveau d’un mode de raisonnement souvent fort délicat ne fut pas immédiate : il reste même : encore beaucoup à faire dans ce sens. Les premiers raisonnements de Maxwell manquaient de rigueur et soulevèrent des objections qui, autant que la difficulté des calculs, empêchèrent la majorité des physiciens d’accorder à la théorie cinétique l’attention qu’elle méritait et de reconnaître la beauté des résultats obtenus. Ce fut Boltzmann qui compléta l’œuvre de Maxwell, et vit pleinement l’importance que devaient prendre en Physique moléculaire les considérations de probabilités. En même temps que Gibbs et avec plus de précision, je crois, il réussit à fonder une mécanique statistique en montrant comment il faut définir la probabilité, pour un système dynamique, de se trouver dans un état donné compatible avec les conditions qui lui sont imposées. Dans toutes ces questions, la difficulté principale est, comme nous le verrons, de donner une définition correcte et claire : de la probabilité. Le reste est surtout affaire de calcul. Ce pas décisif franchi, Boltzmann put atteindre l’interprétation statistique du principe de Carnot et le sens caché de la notion fondamentale d’entropie. Grâce à l’impulsion donnée par Boltzmann et aux efforts de ses continuateurs les raisonnements statistiques ont pénétré maintenant dans tous les domaines de la Physique et y joueront bientôt, pour les raisons que j’ai dites, un rôle prépondérant. Malgré l’extrême diversité de leurs applications, les raisonnements sont en général très simples et je voudrais essayer de montrer sur des exemples que la plupart d’entre eux se ramènent à deux types principaux bien connus des mathématiciens et qui se sont introduits tout naturellement dès la création du calcul des probabilités. Dans un premier groupe de questions, il s’agit de chercher la distribution ou la configuration la plus probable que peut prendre un système de particules ou d’éléments soumis à des conditions données. C’est essentiellement le problème des états d’équilibre et des régimes permanents (équations des fluides, statique des gaz, théories du magnétisme et des phénomènes électro— et magnéto-optiques, théorie du rayonnement et des chaleurs spécifiques, interprétation statistique des lois de la Thermodynamique). Je montrerai que certaines questions comme celles de l’équation d’état des fluides ou de la pression osmotique n’attendent pour être complètement élucidées que la solution d’un problème bien défini de probabilités géométriques et de distribution probable. Dans un second groupe de questions, on cherche à prévoir l’importance des fluctuations spontanées du système autour de cette distribution ou de cette configuration qui est la plus probable mais non la seule possible et ne s’observe qu’en moyenne. Ce frémissement universel autour des configurations rigides prévues par la thermodynamique est intimement lié à la discontinuité de structure, au fait que nos systèmes sont composés d’un nombre fini, quoique très grand, d’éléments et son observation a pris une importance particulière parce qu’elle nous apporte une méthode générale pour atteindre ces éléments et les soumettre à la mesure. Pour mieux faire comprendre comment les raisonnements, toujours les mêmes, du calcul des probabilités, peuvent s’appliquer à des problèmes de Physique si nombreux et si variés, je commencerai par examiner le mécanisme de ces raisonnements sur des cas particulièrement simples où leur emploi est familier à tous, sur des exemples tirés des jeux de hasard tels que celui de pile ou face ou de la roulette. Il paraîtra moins singulier qu’on puisse, pour ainsi dire, jouer à pile ou face la solution des questions de Physique, quand on aura bien vu que toute théorie de probabilité, si simple soit-elle, a en réalité la même structure que toutes nos théories et qu’on fait déjà de la Physique en étudiant les problèmes posés par les jeux de hasard. On a dit, par boutade, que tout le monde croit aux lois du hasard, les mathématiciens parce qu’ils y voient un résultat de physique et les physiciens parce qu’ils les prennent pour des théorèmes de mathématiques. En réalité ces lois sont déduites, par des raisonnements parfaitement rigoureux, de postulats très simples introduits à priori dans la définition des probabilités et affirmant en général l’équivalence de diverses circonstances possibles, l’absence de cause qui favorise les unes à l’exception des autres, l’égale probabilité que la roulette s’arrête sur la rouge ou la noire et que la pièce lancée retombe pile ou face. Ces postulats jouent ici exactement le même rôle que nos hypothèses, placées à la base des théories physiques, et dont nous essayons, par une analyse aussi rigoureuse que possible, de déduire des conséquences dont la comparaison avec l’expérience nous permettra de savoir si ces hypothèses sont justifiées ou non, si nous pouvons continuer à nous en servir pour édifier notre représentation du monde. De même la comparaison avec les faits des lois de grands nombres liées rigoureusement à nos postulats nous permettra de savoir si ceux-ci sont exacts, si la roulette n’est pas truquée ou la pièce plombée d’un côté. Tout raisonnement de probabilités est destiné à permettre la confrontation des postulats avec les faits, comme nos théories physiques permettent la confrontation des hypothèses avec l’expérience. Dans un cas comme dans l’autre, la rigueur n’existe qu’entre les postulats ou hypothèses et les lois qui s’en déduisent. L’accord des lois prévues avec les faits ne se produit pas nécessairement et la comparaison seule nous permet de’décider dans quelle mesure nos points de départ peuvent être conservés. On fait de la Physique en déduisant d’une expérience de pile ou face dans laquelle les coups pile prédominent de manière exagérée, que la pièce est dissymétrique et doit avoir été plombée du côté face. Il vaudra mieux même, comme en Physique, recommencer plusieurs fois l’expérience si l’on veut pouvoir remonter des faits aux causes avec quelque sécurité. Et tout se termine, en Physique comme au jeu, par une question de probabilité des causes du genre de celle que posait Henri Poincaré : je joue à l’écarté avec un monsieur que je ne connais pas, et il retourne trois fois de suite le roi ; quelle est la probabilité pour que ce soit un tricheur ? Le désaccord entre l’expérience et les conséquences déduites par le calcul des probabilités du postulat que le jeu est honnête indiquera dans quelle mesure ce postulat est légitime, et la certitude viendra si l’expérience donne toujours le même résultat. Notre certitude en Physique est tout à fait de même nature : nous avons confiance dans nos représentations et dans nos hypothèses en raison de l’accord constant de leurs conséquences mathématiques avec l’expérience. Dans les raisonnements de probabilités, on fait des mathématiques entre les postulats et les lois du hasard et de la Physique quand on compare celles-ci aux faits pour en déduire des conclusions relatives aux postulats. Outre la plus grande clarté tenant à ce que les postulats de définition des probabilités y sont intuitifs et simples, nous trouverons un autre avantage à étudier d’abord les questions posées par les jeux de hasard. Elles font intervenir des considérations de probabilités discontinues, où les divers cas possibles sont en nombre limité sans qu’on puisse passer de l’un à l’autre de manière continue. Par exemple, sur un nombre total donné de coups joués à la roulette, le nombre des fois qu’elle tombe dans une case noire ne peut varier que de manière discontinue puisqu’il est nécessairement entier. Il semble au contraire, au premier abord, que la Physique nous pose uniquement des problèmes de probabilités continues, où le nombre des cas possibles est infini et forme une série continue. Il en est ainsi, par exemple, de la position dans un intervalle de temps donné d’un événement tel que la destruction spontanée d’un atome radioactif : les instants où l’explosion peut se produire sont en nombre infini ou plutôt transfini puisque leur ensemble est continu. Il en est de même, au moins en apparence, pour l’ensemble des configurations que peut prendre un : système dynamique. Les lois relatives aux probabilités continues se présenteront à nous tomme les formes limites vers lesquelles tendent les résultats des problèmes discontinus quand on y suppose que le nombre des cas possibles augmente indéfiniment. On pourrait obtenir de manière plus simple, et par des raisonnements directs, les formules applicables aux problèmes continus ; mais il nous sera utile d’avoir à notre disposition les formes plus générales relatives au cas de la discontinuité entre les cas possibles. En effet, un des résultats les plus surprenants, et les plus énigmatiques d’ailleurs, que la comparaison avec l’expérience nous ait révélés, c’est que, dans un grand nombre de problèmes tels que ceux du rayonnement thermique d’équilibre ou des chaleurs spécifiques, les lois expérimentales s’accordent avec l’hypothèse de la probabilité discontinue et pas du tout avec les.conséquences déduites, en toute rigueur du postulat de continuité. C’est là un aspect nouveau et singulier de la Physique du discontinu, celui des quanta, d’après lequel non seulement nous devons pour comprendre les faits appliquer des raisonnements de probabilités aux éléments multiples et discrets dont la matière est composée, mais encore ces raisonnements eux-mêmes doivent tenir compte de discontinuités d’un autre ordre et procéder comme si les configurations que ces systèmes d’éléments peuvent prendre ne variaient elles aussi que de manière discontinue.
PREMIER PROBLÈME.
La probabilité d’une distribution. — Une des premières questions qui se posent à propos d’un jeu comme la roulette est celui de la distribution des coups où sort une certaine couleur, la noire par exemple, entre des intervalles successifs pendant chacun desquels un même nombre total de coups est joué. Nous prendrons le problème tout d’abord sous la forme suivante : étant donné que, dans l’ensemble de m intervalles de ce genre, la noire est sortie au total N fois, quelle est la probabilité pour que, dans un intervalle particulier, elle soit sortie un nombre donné de fois, n ? Pour trouver cette probabilité, définie comme à l’ordinaire par le rapport du nombre des cas favorables au nombre total des cas possibles, il faut calculer chacun de ces deux nombres à partir des postulats. Nous remarquerons que chaque coup de roulette possède une individualité caractérisée par les circonstances, variables d’un coup à l’autre, qui l’ont accompagné et ont déterminé la couleur sortie. Nous désignerons par les symboles alpha, beta, gamma,…, zeta, en nombre égal à N, les groupes de circonstances qui ont déterminé les N coups pour lesquels la noire est sortie. Nous ignorons le détail de ces circonstances sans quoi nous aurions pu dans chaque cas prévoir ce qui allait se passer, mais nous introduirons comme postulat fonda-mental que chacun de ces groupes de circonstances peut se produire indifféremment dans l’un quelconque des m intervalles. et nous admettons aussi, naturellement, comme second postulat, que ces groupes sont complètement indépendants les uns des autres que les coups de roulette se succèdent sans exercer aucune influence mutuelle, que l’apparition d’un groupe particulier de circonstances dans un intervalle déterminé n’a aucune répercussion sur la position des autres groupes parmi les intervalles.. Chacun de ceux-ci, qui comporte toujours un même nombre total de coups,.est considéré comme équivalent aux autres au point de vue de la possibilité de production à son intérieur d’un groupe déterminé de circonstances, alpha par exemple. En langage ordinaire, ces groupes sont supposés distribués au hasard entre les intervalles. Toutes les distributions possibles de ces N groupes entre les m intervalles sont considérées comme équivalentes, comme également probables par définition. Le nombre de ces distributions ou nombre des cas possibles est facile à évaluer. Si le groupe alpha se produit dans un intervalle déterminé, nous affecterons alpha d’un indice égal au rang de cet intervalle, cet indice pouvant être Indifféremment 1, 2, 3,… jusqu’à m. Le nombre des manières différentes de distribuer les m indices entre les N groupes, ou les groupes entre les intervalles est évidemment m^N. C’est là le nombre des cas possibles. Si nous voulons la probabilité pour que, sur les N, n coups se produisent dans le premier intervalle, nous devons chercher le nombre des distributions dans lesquelles n des symboles alpha, beta,… porteront l’indice 1, les autres indices étant différents de 1 et d’ailleurs quelconques. Ceci nous donnera le nombre des cas favorables. Les n symboles portant l’indice 1 dans une distribution formeront une des combinaisons n à n des N symboles différents. A cette combinaison particulière peuvent être associées toutes les distributions des m-1 indices restants entre les N-n autres symboles ; elles sont en nombre (m-1)^(N-n), et comme il y a N ! /[(n !)*(N-n) ! ] combinaisons différentes, cela fait au total :
[N ! /[(n !)*(N-n) ! ]]*[(m-1)^(N-n)]
pour le nombre des cas favorables ; d’où pour la probabilité cherchée
(1) P(n)=N ! /[(n !)*(N-n) ! ]*[(1/m)^(n)]*[1-1/m]^(N-n)
On vérifierait aisément que, comme cela doit être, la somme des probabilités obtenues pour les diverses valeurs possibles de n, depuis zéro jusqu’à N, est bien égale à 1, puisque la somme des P(n) n’est autre chose que le développement suivant la formule du binome de
((1/m)+1-(1/m))^(N)
c’est-à-dire identiquement l’unité. On vérifierait aisément aussi que P(n) est maximum pour une valeur de n égale au plus grand entier contenu dans (N+1)/m, c’est-à-dire précisément égale au nombre moyen nu=N/m de coups par intervalle si ce nombre est entier. Ce résultat pouvait être aisément prévu puisque la distribution la plus probable des N coups entre m intervalles équivalents par définition est évidemment la distribution uniforme à raison de nu par intervalle. Ce qui intéresse le joueur, ce sont précisément les variations autour de cette moyenne, variations dont la formule (1) nous donne la probabilité. C’est de ces variations que dépend son bénéfice ou sa perte. La formule peut se mettre sous une forme plus simple quand on suppose que la moyenne nu correspond à un nombre m très grand d’intervalles. On trouve aisément comme forme limite de (1) pour m très grand :
(2) P(n)=exp(-nu)*((nu^n)/(n !))

Les probabilités correspondantes aux diverses valeurs de n s’obtiennent en multipliant exp(-nu) par les termes successifs du développement en série de exp(nu). La somme est bien encore égale à 1 et le maximum a lieu pour n = nu si nu est entier ou sinon pour le plus grand entier que contient nu. Au jeu de roulette, si la rouge et la noire sont également probables, ce qui est un postulat indépendant de ceux que nous avons faits, la moyenne nu des noires portant sur un grand nombre d’intervalles est évidemment égale à la moitié du nombre des coups joués dans chacun de ces intervalles.
La loi des écarts. —Si nous introduisons dans la formule, au lieu du nombre n, l’écart delta = n-nu à partir de la moyenne, et si nous supposons n assez grand pour qu’on puisse remplacer n ! par la formule bien connue de Stirling, la probabilité d’un écart delta prend la forme
(3) P = [1/sqrt(2*Pi*nu)]*exp(-(delta^2)/(2*nu))
qui rappelle exactement la loi des erreurs de Gauss. Si au lieu de l’écart absolu, nous introduisons l’écart relatif epsilon = delta/nu, il vient :
(4) P = [1/sqrt(2*Pi*nu)]*exp(-nu*(epsilon^2)/2)
Cette dernière forme met en évidence un fait fondamental sur lequel je reviendrai tout à l’heure à propos de la théorie des fluctuations : c’est que la probabilité d’un écart relatif donné epsilon est d’autant plus faible que nu est plus grand, qu’il y a en moyenne un plus grand nombre de coups dans chaque intervalle. D’où la possibilité de déduire ce nombre de coups de l’observation des écarts. Nous allons retrouver ce même fait sous une autre forme en calculant sur la formule générale (1) la valeur probable du carré moyen de l’écart relatif epsilon, en posant toujours :
epsilon = delta/nu = (n-nu)/nu.
La probabilité de l’écart epsilon étant P(n), il en résulte pour la valeur probable du carré moyen :
(epsilon^2)(moyen) = sum (1…infini) (P(n)*(epsilon^2))
Un calcul simple donne, si l’on remplace P(n) par la valeur (1) :
(5) (epsilon^2)(moyen) = 1/nu — 1/N
Si l’on introduit, au lieu du carré moyen, la somme Sigma(epsilon^2) des carrés des écarts dans les m intervalles à partir de la moyenne, la valeur probable de cette somme est m*(epsilon^2)(moyen) et satisfait à la relation
(6) Sigma(epsilon^2)/(m-1) = (1/nu)
On voit que les écarts relatifs, les fluctuations de n autour de sa moyenne, doivent diminuer d’importance à mesure que cette valeur moyenne augmente. Ainsi que je l’ai dit tout à l’heure, la véritable signification de ces résultats est la suivante : ils représentent l’aboutissement d’une théorie basée sur des hypothèses et nous permettront, par comparaison avec l’expérience, de savoir si ces hypothèses peuvent être conservées. Le joueur qui voudra s’assurer de la sincérité du jeu se servira d’eux comme nous nous servons de nos théories physiques pour contrôler, par comparaison de leurs résultats avec l’expérience, la légitimité de nos représentations. La constance de l’accord nous donnera la seule certitude que nous puissions atteindre, au jeu comme en Physique, relativement aux causes.
Autre méthode. — Nous pouvons retrouver les formules fondamentales (5) et (6) en nous plaçant à un autre point de vue et en cherchant, non plus la probabilité pour que, sur les N coups, il y ait un nombre déterminé n dans l’un des m intervalles équivalents, mais la probabilité pour que les N coups se distribuent d’une manière déterminée n(1), n(2),…, n(m) entre les intervalles, pour qu’il y ait en même temps n(1) coups dans le premier intervalle, n(2) dans le second, etc. Nous ne pouvons appliquer ici le théorème des probabilités composées et nous servir de la formule (1) en calculant P(n(1)), P(n(2)),… et multipliant ces probabilités. En effet, les n(1), n(2),… ne sont pas indépendants puisque leur somme doit être égale à N. Nous pouvons cependant utiliser la formule (1) en procédant de la manière suivante : la probabilité pour qu’il y ait n(1) coups dans le premier intervalle est bien :
N ! /[n(1) ! *(N-n(1)) ! ]*[(1/m)^(n(1))]*[(1-(1/m))^(N-n(1)]
Les m-1 autres intervalles ne peuvent contenir que N-n coups, et la probabilité pour que le premier d’entre eux contienne n(2), est de la même manière :
[(N-n(1)) ! /[(n(2) !)*(N-n(1)-n(2)) !)]]*[(1/(m-1))^(n(2))]*[(1-1/(m-1))^(N-n(1)-n(2))]
et ainsi de suite. Si l’on fait maintenant, comme il est correct, le produit de toutes les probabilités composantes, on obtient pour la probabilité cherchée :
(1/(m^N))*[N ! /(n(1)) ! *(n(2)) ! *…*(n(m)) ! ]
Autrement dit, puisque le nombre total des distributions possibles est (m^N), le nombre de manières dont on peut obtenir dans les différents intervalles les nombres de coups assignés est :
(7) W = N ! /[(n(1)) ! *(n(2)) ! *…*(n(m)) ! ]

Nous aurions pu obtenir ce résultat plus directement en cherchant de combien de manières il est possible de distribuer entre les N symboles de groupes alpha, beta,… zeta, des nombres déterminés d’indices de chaque sorte, n(1) indices 1, n(2) indices 2,…., n(m) indices égaux à m. Chaque distribution correspond à un des ordres dans lesquels on peut ranger ces N indices qui ne sont pas tous différents, à une des permutations de ces indices. Le nombre cherché est celui des permutations complètes de N objets dont n(1) d’une même espèce, n(2) d’une autre, etc. Il est bien donné par la formule (7). Ce nombre W de manières dont on peut réaliser une distribution donnée (n(1), n(2),…, n(m)) des N symboles entre m intervalles équivalents, au point de vue de la présence possible de chacun d’eux, est proportionnel avec le coefficient 1/(m^N) à la probabilité de cette distribution. Nous pourrons souvent prendre W comme mesure de cette probabilité.
On voit aisément que, pour une valeur donnée de N, W est maximum quand les n sont tous égaux. Nous voyons ainsi d’une autre manière que la distribution la plus probable est celle qui se fait également entre les divers intervalles, du moins lorsque aucune condition supplémentaire n’est imposée qui pourrait venir exclure certaines distributions. Nous allons traiter dans un instant un problème où s’introduiront de semblables exclusions. Les m-1 autres intervalles ne peuvent contenir que N-n coups, et la probabilité pour que le premier d’entre eux contienne n(2), est de la même manière :
[(N-n(1)) ! /[(n(2) !)*(N-n(1)-n(2)) !)]]*[(1/(m-1))^(n(2))]*[(1-1/(m-1))^(N-n(1)-n(2))]
et ainsi de suite. Si l’on fait maintenant, comme il est correct, le produit de toutes les probabilités composantes, on obtient pour la probabilité cherchée :
(1/(m^N))*[N ! /(n(1)) ! *(n(2)) ! *…*(n(m)) ! ]
Autrement dit, puisque le nombre total des distributions possibles est (m^N), le nombre de manières dont on peut obtenir dans les différents intervalles les nombres de coups assignés est :
(7) W = N ! /[(n(1)) ! *(n(2)) ! *…*(n(m)) ! ]
Nous aurions pu obtenir ce résultat plus directement en cherchant de combien de manières il est possible de distribuer entre les N symboles de groupes alpha, beta,… zeta, des nombres déterminés d’indices de chaque sorte, n(1) indices 1, n(2) indices 2,…., n(m) indices égaux à m. Chaque distribution correspond à un des ordres dans lesquels on peut ranger ces N indices qui ne sont pas tous différents, à une des permutations de ces indices. Le nombre cherché est celui des permutations complètes de N objets dont n(1) d’une même espèce, n(2) d’une autre, etc. Il est bien donné par la formule (7). Ce nombre W de manières dont on peut réaliser une distribution donnée (n(1), n(2),…, n(m)) des N symboles entre m intervalles équivalents, au point de vue de la présence possible de chacun d’eux, est proportionnel avec le coefficient 1/(m^N) à la probabilité de cette distribution. Nous pourrons souvent prendre W comme mesure de cette probabilité. On voit aisément que, pour une valeur donnée de N, W est maximum quand les n sont tous égaux. Nous voyons ainsi d’une autre manière que la distribution la plus probable est celle qui se fait également entre les divers intervalles, du moins lorsque aucune condition supplémentaire n’est imposée qui pourrait venir exclure certaines distributions. Nous allons traiter dans un instant un problème où s’introduiront de semblables exclusions.
La formule (7) donne également le moyen de calculer les écarts à forum partir de la distribution uniforme de probabilité maximum. Soit en effet nu la valeur moyenne N/m du nombre des coups par intervalle, et soient epsilon(1), epsilon(2),… epsilon(m) les écarts relatifs à partir de cette valeur dans une distribution quelconque :
n(1) = nu*(1+epsilon(1)), n(2) = nu*(1+epsilon(2)),…, n(m) = nu*(1+epsilon(m)).
Les epsilon sont nuls dans la distribution la plus probable et sont dans tous les cas, puisque le nombre total N est donné, soumis à la condition Sigma(epsilon) = 0. En prenant le logarithme des deux membres de (7), remplaçant chaque factorielle par la formule asymptotique de Stirling,
n ! = (sqrt(2*Pi*n))*((n/e)^n)
et négligeant le logarithme de chaque grand nombre tel que n par rapport à celui-ci, on obtient, C étant une constante qui dépend seulement de N :
(8) log W = C — sum(1…n) (n*log(n))
Remplaçant n par nu(1+epsilon) et développant log(1+epsilon) suivant les puissances de epsilon, il vient, si l’on tient compte de la condition Sigma(epsilon) = 0, et si on limite le développement aux termes du second ordre :
log W = log (W(0)) — nu*(Sigma(epsilon^2))/2
ou
W = W(0)*exp(-nu*Sigma(epsilon^2)/2),
W(0) étant la probabilité maximum, celle qui correspond à la distribution uniforme. Ayant ainsi la probabilité qui correspond à chaque système de valeurs des epsilon, on calcule aisément la valeur moyenne d’une expression quelconque x telle que Sigma(epsilon^2) par :
Sigma(W*x)/Sigma(W).
En remplaçant chacune des deux sommes par une intégrale et en tenant compte de la condition Sigma(epsilon) = 0, on retrouve aisément la formule (6) :
Sigma(epsilon^2)/(m-1) = 1/nu,
en moyenne. Bien que ce second mode de raisonnement soit moins direct que le premier et ne s’applique qu’au cas des grands nombres, il était important de le rappeler parce qu’il envisage les choses sous un nouvel aspect et prépare la voie pour la solution des autres problèmes dont nous aurons à nous occuper.
Applications. — On peut faire, au jeu comme en Physique, deux sortes d’applications de la relation (6). Tout d’abord, comme je l’ai déjà dit, on peut l’utiliser pour vérifier, par sa concordance avec les faits, si les postulats d’indépendance et d’indifférence placés à la base de nos raisonnements sont légitimes. Le joueur qui voudra se rendre compte de la sincérité du jeu observera les nombres de coups sortis dans m intervalles équivalents, calculera la moyenne nu et les écarts relatifs individuels epsilon, et verra dans quelle mesure la relation (6) est vérifiée. Cette vérification doit être d’autant plus exacte que le nombre m d’intervalles considérés est plus grand. On peut également s’en servir pour déterminer le nombre moyen nu et par conséquent N quand on connaît seulement les écarts relatifs epsilon. Par exemple on se donne, pour chacun de m jours consécutifs équivalents, la somme totale gagnée par un joueur sans en retrancher les pertes. Quel est le nombre des coups joués chaque jour et quelle est la mise ? La connaissance des gains quotidiens entraîne celle des écarts relatifs et celle-ci suffit à connaître le nombre des coups joués à l’aide de la formule (6). Celle-ci traduit quantitativement le fait que les écarts relatifs entre les gains quotidiens sont d’autant plus faibles que le nombre des coups joués chaque jour est plus grand.
Cette question est tout à fait comparable à celles qu’on se pose en Physique quand on cherche à déduire le nombre des molécules et les grandeurs moléculaires de l’observation des écarts relatifs sur les grandeurs mesurables, de la mesure des fluctuations ou de leurs conséquences.
Fluctuations radioactives et fluctuations de concentration. — Donnons d’abord quelques exemples de questions de Physique où les résultats qui précèdent trouvent une application immédiate. Prenons une substance radioactive de vie assez longue pour que nous puissions considérer son activité comme constante pendant toute la durée de nos expériences et comptons, parmi les particules alpha qu’elle émet, celles qui tombent sur un écran ou traversent un appareil de numération pendant des intervalles de temps successifs égaux entre eux. Nos postulats fondamentaux, parallèles aux précédents, seront que les circonstances, tant intérieures qu’extérieures à l’atome radioactif, qui permettent l’arrivée d’une particule a, peuvent se produire indifféremment à un instant quelconque, dans l’un quelconque de nos intervalles de temps égaux, et de plus qu’il y a indépendance complète entre les groupes de circonstances qui correspondent à deux particules différentes, que les circonstances déterminant l’explosion d’un atome dans des conditions favorables à l’arrivée d’une particule n’influent en rien sur celles qui détermineront ou accompagneront l’explosion d’un autre atome. La légitimation de ces postulats, par vérification de leurs conséquences, a une très grosse importance pour la théorie des phénomènes radioactifs. Le premier, pour ce qui concerne les circonstances intérieures à l’atome qui déterminent son explosion, signifie que ces circonstances peuvent se produire indifféremment à un instant ou à un autre, que les chances pour l’atome de continuer à vivre sont indépendantes du temps pendant lequel il a déjà vécu ; en d’autres termes qu’il ne vieillit pas, et qu’il meurt seulement par suite d’accidents dus à un hasard interne. Je dis interne parce qu’il semble bien qu’aucune circonstance externe, du moins parmi celles que nous pouvons modifier, n’influe sur la vitesse de transformation des substances radioactives. Si nos postulats sont exacts et si nous recevons au total N particules alpha pendant m intervalles de temps égaux, la probabilité pour qu’il arrive n particules pendant un de ces intervalles est donnée par la formule (1), les écarts à partir de la moyenne N/m = nu doivent satisfaire à la relation (6). Ce résultat a été vérifié de manière très exacte dans les expériences de M. Rutherford. Nous en rencontrerons plus loin un autre du même genre et de plus grande importance au point de vue de la numération des particules. Il y a bientôt quinze ans que M. Smoluchowski a prévu de la même manière les fluctuations spontanées qui doivent se produire dans la distribution des molécules d’un gaz entre les diverses portions du volume qu’il occupe, les fluctuations de concentration. Pour que nous puissions appliquer à ce problème les résultats obtenus, il nous faut partir des postulats suivants : la présence d’une molécule particulière est également possible dans des portions égales du volume total ; ceci est intuitif et nous conduit à remplacer nos m intervalles par m régions d’égal volume. et contenant chacune en moyenne nu molécules. De plus nous devons admettre que la présence d’une molécule dans une de ces régions n’influe en rien sur la présence possible d’une autre, ce qui nous oblige à négliger les actions mutuelles entre ces molécules ou le volume de chacune d’elles par rapport au volume total. Le gaz doit donc être supposé suffisamment rare. Quand le fluide est dense, les fluctuations peuvent être très différentes de ce que nous allons prévoir, ou beaucoup moindres si les molécules sont serrées au point d’occuper la plus grande partie du volume total, de façon à exercer entre elles surtout des actions répulsives, ou beau-coup plus importantes si les actions attractives l’emportent, comme c’est le cas pour les fluides au voisinage d’un état critique. Pour un gaz peu dense, tel que l’atmosphère, les formules (1), (2) et (3) s’appliquent à la probabilité pour qu’une portion du volume contienne n molécules si m portions égales en contiennent N au total. Ici encore les fluctuations spontanées seront d’autant plus importantes que le nombre moyen de molécules sera plus faible. Nous trouverons l’application de ces résultats dans la théorie du bleu céleste. M. Svedberg a pensé pouvoir mettre en évidence les fluctuations spontanées de concentration qui doivent se produire de la même manière dans une solution étendue en observant les fluctuations du nombre des particules alpha émises par une solution radioactive quand on s’arrange de manière à ne recevoir sur un écran que les particules émises par une petite fraction du volume total de la solution. Il pensait que, les hasards de distribution des atomes radioactifs dans le volume s’ajoutant aux hasards internes qui déterminent l’explosion, on devrait observer des fluctuations plus importantes qu’avec une matière radioactive solide, et a effectivement obtenu, pour le même nombre moyen de particules reçues dans chaque intervalle de temps, un carré moyen des écarts relatifs double environ de celui que prévoit la formule (5). Le raisonnement général par lequel nous avons obtenu cette formule montre que s’il y a bien, conformément au second postulat, indépendance entre toutes les circonstances qui déterminent les arrivées sur l’écran de deux particules alpha, le résultat de M. Svedberg ne peut pas être exact. En raisonnant sur les groupes de circonstances qui permettent l’arrivée d’une particule alpha sur l’écran comme nous l’avons fait pour les groupes de circonstances qui déterminent la sortie d’une noire à la roulette, on verra que la formule donnant l’écart relatif moyen en fonction du nombre moyen des coups reste applicable sous les deux postulats d’indifférence et d’indépendance. La superposition du hasard de distribution des atomes radioactifs dans le liquide au hasard interne qui détermine l’explosion augmente simplement la complexité des circonstances favorables, complexité dont la formule est indépendante. Si de nouvelles expériences confirment les observations faites par M. Svedberg, cela prouvera, ou bien que l’explosion d’un atome peut influer sur celle d’un atome voisin, et ceci est en contradiction avec le fait que la radioactivité globale d’une substance s’est montrée jusqu’ici tout à fait indépendante de sa concentration, ou bien que la présence dans une région d’un atome radioactif entraîne aussi celle d’autres atomes radioactifs dans cette même région ; autrement dit que les atomes dissous vont par groupes associés, que la solution de M. Svedberg était colloïdale. De toute. manière son résultat, s’il est exact, n’a rien à voir avec les fluctuations spontanées de concentration dont nous avons parlé.
Grandeurs moléculaires. — Voyons maintenant quelques exemples d’application de la formule (6) à la détermination des grandeurs moléculaires par l’intermédiaire des fluctuations auxquelles cette formule s’applique, comme celles des émissions radioactives ou de concentration dans les milieux dilués, cas où les postulats d’indifférence et d’indépendance se trouvent vérifiés. Avant qu’on sût faire les numérations de particules par la méthode des scintillations ou par l’élégant procédé de Rutherford, M. v. Schweidler avait observé que le courant d’ionisation produit par les rayons alpha était soumis à d’importantes fluctuations. Pendant des intervalles de temps égaux entre eux, les quantités d’électricité libérées dans une chambre d’ionisation par l’électromètre sont proportionnelles aux nombres de particules alpha émises pendant ces intervalles, de sorte que les écarts relatifs entre ces quantités et leur moyenne donnent les écarts relatifs entre les nombres de particules et leur moyenne ; d’où la possibilité de calculer cette dernière moyenne à partir des écarts relatifs observés à l’électromètre en appliquant la relation (6). De manière plus indirecte, on peut comprendre comment la diffusion de la lumière par l’atmosphère est due aux fluctuations spontanées de concentrations de l’air prévues par Smoluchowski et comment la mesure de l’éclat du ciel permet de remonter aux grandeurs moléculaires.
En raison de ces fluctuations, du frémissement continuel de l’atmosphère autour de la distribution uniforme de ses molécules en volume, l’air se comporte au point de vue optique comme un milieu trouble et diffuse la lumière solaire. De l’importance des fluctuations régie par les lois de probabilité, on peut déduire la proportion de lumière diffusée pour chaque longueur d’onde et par suite le rapport de l’éclat du ciel à celui du Soleil. On conçoit d’ailleurs que cette proportion augmente à mesure que la longueur d’onde diminue et que le ciel soit bleu ; en effet, pour une lumière de longueur d’onde donnée, la proportion d’énergie diffusée est déterminée par le degré d’hétérogénéité du milieu à l’échelle de la longueur d’onde, c’est-à-dire par les fluctuations relatives de concentration dans un cube ayant pour côté la longueur d’onde, et comme le nombre moyen des molécules présentes dans ce cube est proportionnel au cube de cette longueur d’onde, on conçoit que le milieu se comporte comme d’au-tant plus trouble et plus diffusant que la longueur d’onde est plus courte. Inversement, la comparaison expérimentale de l’éclat du ciel à celui du Soleil pour une longueur d’onde quelconque détermine l’importance relative des fluctuations, dans un cube de côté égal à cette longueur d’onde, et, par application de la formule (6), permet de remonter au nombre des molécules présentes en moyenne dans un tel volume. Quand le milieu est dense, les actions mutuelles interviennent et changent l’importance relative des fluctuations. Pour traiter le problème dans le cas général il va nous falloir aboutir à la mécanique statistique en analysant de nouveaux problèmes de probabilités au double point de vue de la distribution la plus probable et des fluctuations spontanées autour de celle-ci.
DEUXIÈME PROBLÈME.
Le problème des séries de coups. — Une des questions qui intéressent le plus les joueurs est celle de la distribution des coups d’une même couleur en séries. Nous allons voir que ce problème est étroitement lié à celui de la mécanique statistique, aux applications les plus importantes qui aient été faites du calcul des probabilités à la Physique. Posons-nous la question suivante : Étant donné que, sur un nombre total N + R de coups de roulette, la noire est sortie N fois et la rouge R fois, quelle est la probabilité pour que les coups rouges, par exemple, soient distribués d’une manière donnée en séries, qu’il y ait n, coups rouges isolés, n., séries de deux coups consécutifs, n, de trois coups, et ainsi de suite. Le nombre total des rouges étant R on a évidemment :
(8) n(1) + 2*n(2) + 3*n(3) +… = R.
Chaque série de rouges est située dans un des intervalles entre deux noires consécutives ou à chacune des deux extrémités de l’ensemble des coups, de sorte que, si nous désignons par no et appelons nombre des séries rouges d’ordre 0, le nombre des intervalles entre les noires où ne se trouve aucune rouge, nous devons avoir n(0) + n(1) + n(2) +…, égal à N + 1, d’où
(9) n(0) + n(1) + n(2) +… = N + 1.
Le postulat d’indépendance entre les coups nous permet d’affirmer que chaque intervalle entre deux noires peut indifféremment renfermer une série d’ordre 0, 1, 2, 3,…, puisque la couleur d’un coup n’est nullement conditionnée par la couleur du coup qui l’a précédé. Il y aura donc autant de manières de réaliser la distribution donnée des rouges en N + 1 séries qu’il y a de manières différentes de ranger ces séries, de distribuer entre elles n(0) indices 0, n(1) indices 1, n(2) indices 2, etc, l’indice attribué à une série indiquant l’ordre auquel elle appartient. C’est, comme tout à l’heure, le nombre des permutations complètes des N séries données :
(10) W = (N + 1) ! /[(n(0)) ! *(n(1)) !…]
La probabilité de la distribution donnée est proportionnelle à cette quantité, au nombre de cas favorables, c’est-à-dire au nombre de manières dont on peut la réaliser, mais contrairement à ce qui se passait dans le problème précédent, les nombres n ne sont pas seulement assujettis à la condition d’avoir une somme donnée égale ici à N + 1, mais doivent encore satisfaire à la relation (8). C’est elle qui limite maintenant le nombre des cas possibles comme, dans le problème précédent, ce nombre était limité par la condition, absente ici, qu’il y ait m indices différents. Un raisonnement simple montre que ce nombre total des cas possibles est égal au nombre des permutations complètes qu’on peut former avec les N noires et les R rouges, c’est-à-dire à
(N + R) ! /(N ! *R !)
d’où l’on déduit aisément, en divisant (10) par (11), l’expression cherchée pour la probabilité.
La distribution la plus probable. — Dans le problème précédent, la probabilité maximum correspondait à la distribution uniforme ; à cause de la liaison imposée par la relation (8), la distribution la plus probable des N séries entre les divers ordres ne sera pas uniforme. Pour l’obtenir il nous faut chercher les valeurs de n(0), n(1), n(2), satisfaisant à la fois aux relations (8) et (9) et donnant la plus grande valeur possible à l’expression (10) de W. Cette question peut être résolue de manière simple quand on suppose les nombres n assez grands pour que chaque factorielle puisse être remplacée par la formule de Stirling :
n ! = [sqrt(2*Pi*n)]*[(n/e)^(n)]
Prenant le logarithme de W et laissant de côté des termes négligeables dans l’hypothèse où les n sont grands, plus exactement en remarquant que le logarithme d’un grand nombre est négligeable devant celui-ci, on obtient :
(12) log W = C — (n(0)*log(n(0) + n(1)*log(n(1)) +…) = C — Sigma(n*ln(n))
C étant une constante qui a la même, valeur pour toutes les distributions dont on veut comparer’les probabilités. Puisque les n et par conséquent N sont très grands, nous pouvons négliger l’unité dans la condition (9) et chercher le maximum de (12) sous les conditions (8) et (9). On trouve immédiatement que ce maximum correspond à la distribution représentée par la loi
(13) n(i) = [(N^2)/(R+N)]*[R/R+N]^(i)
i pouvant prendre les valeurs entières 0, 1, 2,… On voit que la distribution la plus probable des rouges en séries correspond à des nombres de séries qui varient suivant une progression géométrique décroissante de raison R/(R+N) à mesure que l’ordre i de la série augmente. Quel que soit le nombre moyen des coups dans les séries, ce sont toujours les petites séries qui seront les plus fréquentes, mais la diminution de fréquence avec l’ordre i est d’autant plus lente que R/N, ordre moyen des séries, augmente, puisque la raison tend vers l’unité quand R/N augmente. Si le jeu de roulette est tel que sur un grand nombre de coups, il y ait autant de rouges que de noires, la raison de la progression est égale à 1/2 et l’on a, en faisant R = N,
n(0) = N/2, n(1) = N/4, n(2) = N/8,…, n(i) = N/(2^(i)).
Il est donc probable que les coups rouges isolés seront deux fois plus fréquents que les séries de deux coups, celles-ci deux fois plus fréquentes que les séries de trois coups, et ainsi de suite. La vérification de ce résultat pourra servir à ceux qui jouent la série à s’assurer que le jeu est honnête et conforme aux postulats que nous avons admis. Si le jeu est combiné de manière que R soit différent de N, si par exemple le nombre des cases rouges est différent de celui des noires, la distribution la plus probable des séries se fera avec une raison R/(R+N) différente de 1/2. Si nous avions eu uniquement en vue la recherche de la distribution la plus probable des séries entre les diverses valeurs possibles et non celle de la probabilité d’une distribution quelconque, nécessaire pour l’étude des fluctuations autour de la plus probable, nous aurions pu aboutir beaucoup plus rapidement en raisonnant de la manière suivante : Chaque fois qu’un nouveau coup est joué, les chances de sortie de la rouge et de la noire sont entre elles comme R est à N. Une série étant commencée, elle se prolonge si la rouge sort et se termine si c’est la noire. Les chances qu’a une série quelconque de se prolonger sont donc à celles qu’elle a de se terminer comme R est à N. Ceci se traduit par l’équation, valable quel que soit i dans la distribution la plus probable des séries :
(n(i))/(n(i+1)+n(i+2)+…) = N+R
ou
(n(i))/(n(i)+n(i+1)+…) = N/(R+N),
et comme
n(i-1)/(n(i)+n(i+1)+…) = N/R,
on obtient par division la relation de récurrence :
n(i)/(n(i-1)) = R/(R+N),
d’où la relation (13) si l’on tient compte de (9).
Probabilités continues et probabilités discontinues. — Nous pouvons mettre encore nos résultats sous une autre forme qui va nous permettre de passer au cas limite des probabilités continues. Supposons que les coups de roulette soient joués uniformément dans le temps ; l’intervalle de temps entre deux coups consécutifs étant constant et égal à epsilon. La durée d’une série d’ordre i sera t = i*(epsilon) e t la durée totale de nos séries est donnée égale à R*(epsilon), autrement dit la durée moyenne est donnée égale à
t(barre) = (R/N)*(epsilon).
Chaque série ne pouvant contenir qu’un nombre entier i de coups, sa durée t ne peut être qu’un multiple entier de epsilon. Nous avons bien affaire à un problème de probabilités discontinues avec un domaine élémentaire de probabilités epsilon fini. La relation (13) peut encore s’écrire
(14) n(i) = [(N^2)/(R+N)]*exp(-t/tau) = C*exp(-t/tau),
en posant
(15) exp(-epsilon/tau) = R/(R+N) = t(barre)/(t(barre)+epsilon),
Ceci revient à remarquer que les points obtenus en portant en abscisses les valeurs de i et en ordonnées les valeurs correspondantes de n dans la distribution la plus probable se trouvent sur une courbe exponentielle dont l’équation est donnée par (14). La valeur du module tau est déterminée par la relation (15). Nous verrons que ce module joue dans la question actuelle le même rôle que joue la température dans les distributions les plus probables que prévoit la mécanique statistique et nous pourrions l’appeler la température de notre distribution probable des séries. Ceci va nous apparaître en examinant de plus près la relation entre ce module et la durée moyenne des séries. On peut en effet écrire la relation (15), en la résolvant par rapport à t(barre) :
(16) t(barre) = epsilon/(exp(epsilon/tau)-1),
Cette relation est représentée par la courbe I (fig. 1) qui part de l’origine avec une tangente horizontale et monte ensuite en tendant vers l’asymptote t = tau — epsilon/2. Cette courbe présente une analogie frappante avec celle qui représente la variation en fonction de la température de l’énergie thermique nécessaire pour porter un corps solide du zéro absolu à la température T, telle qu’elle résulte des recherches expérimentales de M. Nernst et de ses collaborateurs ; au lieu de l’énergie thermique totale on peut envisager aussi bien l’énergie moyenne epsilon(barre) d’une molécule en fonction de la température (courbe II, fig. 1). Plus exacte encore quantitativement est l’identité de notre courbe avec celle qui représente la distribution de l’énergie du rayonnement noir en fonction de la longueur d’onde et de la température. On sait que l’énergie contenue dans l’unité de volume d’une cavité en équilibre thermique est représentée, d’après les lois de Boltzmann et de Wien, pour la partie comprise entre les longueurs d’onde lambda et lambda + d(lambda), par
(1/(lambda^5))*F(lambda*T)*d(lambda).
Les mesures les plus précises faites dans un intervalle considérable de longueurs d’onde ont conduit pour la fonction F à la forme :
F (lambda*T) = C/(exp(c/lambda*T)-1)
C et c étant des constantes. Si nous portons en abscisses la variable (lambda*T) et en ordonnées la fonction F (lambda*T) telle que l’expérience la fournit, nous obtenons une courbe qui, pour un choix convenable d’échelle, coïncide exactement avec la nôtre (courbe III, fig. 1). L’analogie devient encore plus frappante quand on passe au cas limite des probabilités continues. Si nous supposons que les coups de roulette se précipitent de plus en plus, se succèdent à des intervalles epsilon de plus en plus petits, les séries de durée observable contiendront un très grand nombre de coups et n’existeront que si R est très grand par rapport à N, c’est-à-dire t(barre) et par conséquent tau par rapport à epsilon. Notre problème devient celui de la distribution la plus probable des intervalles de temps t entre N événements consécutifs (les coups noirs) qui se produisent au hasard, la valeur de l’intervalle moyen entre eux étant donnée. Si dans la formule (16), nous faisons tendre epsilon vers 0, nous obtenons
t(barre) = tau,
et (14) devient
(17) dn = (N/tau)*exp(-t/tau)*dt,
dn étant le nombre des intervalles dont la longueur est comprise entre t et t+dt.
La loi exponentielle subsiste ainsi dans le cas des probabilités continues ; ce sont toujours les intervalles les plus courts qui sont les plus fréquents, mais nous avons ce caractère particulier que la durée moyenne devient égale au module et que la courbe I est remplacée par la droite t(barre) = tau, parallèle à l’asymptote précédente. Or nous verrons que l’application des probabilités continues à la Thermodynamique conduit à prévoir, pour l’énergie moyenne d’une molécule dans un solide, une valeur proportionnelle à la température, conforme à la loi de Dulong et Petit, et représentée par une droite analogue à la précédente, parallèle à l’asymptote de la courbe expérimentale. De même, l’application des probabilités continues à la théorie du rayonnement conduit à une loi, donnée par Lord Rayleigh, d’après laquelle la fonction F(lambda*T) est proportionnelle à (lambda*T) et l’expérience confirme cette loi pour les grandes valeurs de (lambda*T), c’est-à-dire que la droite passant par l’origine que prévoit la probabilité continue est encore parallèle à l’asymptote de la courbe expérimentale. La conclusion qui s’impose, et dont M. Planck a eu la gloire de montrer la nécessité en créant sa théorie des quanta, c’est que nous ne pouvons espérer représenter les faits relatifs au rayonnement noir ou aux chaleurs spécifiques des solides qu’en introduisant la discontinuité jusque dans l’application des probabilités à la Physique, en tenant compte de l’étendue finie que doivent avoir les domaines élémentaires de probabilité. Bien d’autres faits sont venus depuis confirmer cette conclusion. Nous verrons tout à l’heure quelles doivent être la nature et la grandeur de ces domaines élémentaires.
La distribution des libres parcours. — Faisons de suite quelques applications à la Physique de la loi de distribution (17) relative aux probabilités continues. Nous aurions pu obtenir cette loi de manière plus directe et plus rapide si je n’avais eu le souci, pour les raisons qui précèdent, de la raccorder avec la loi plus générale des probabilités discontinues. Si N+1 points sont distribués au hasard sur une droite, sous la condition que leur intervalle moyen soit égal à lambda, le nombre d’intervalles entre deux points consécutifs dont la longueur est comprise entre l et l + dl devra être, dans la distribution la plus probable donnée par (17) :
dn = (N/lambda)*exp(-t/lambda)*dl.
Le hasard correspond ici aux postulats que la position d’un point quelconque peut se trouver indifféremment dans l’un quelconque des intervalles égaux, si petits qu’ils soient, dans lesquels on peut décomposer la droite, et que les positions des divers points sont considérées comme absolument indépendantes les unes des autres. Des écarts pourront se produire autour de cette distribution la plus probable, mais, comme toujours, leur importance relative diminuera à mesure que le nombre des points considérés sera plus grand. La même formule nous donnera la distribution des libres parcours d’une molécule gazeuse entre les diverses valeurs possibles l lorsque le libre parcours moyen est égal à lambda. Les postulats qui la rendent applicable sont ici que chaque choc contre une molécule particulière peut se produire indifféremment en un point quelconque du parcours total et qu’un choc n’influe en rien sur le temps qui peut s’écouler avant qu’un autre se produise.
Les intervalles d’émission des particules alpha. — Une application importante de cette même formule est relative à la distribution des intervalles de temps entre les émissions radioactives lorsque l’intervalle moyen est égal à tau, c’est-à-dire lorsque N+1 émissions se distribuent sur un temps total donné N*tau. Le moyen le plus simple pour vérifier l’exactitude de la loi est d’enregistrer au moyen d’un électromètre, comme l’a fait Mme Curie, les arrivées des particules individuelles sur une bande photographique déroulée à vitesse constante. On compte le nombre de ceux des intervalles d’une série dont la longueur est supérieure à l. Si la formule est exacte, c’est-à-dire si le hasard seul, interne ou externe, détermine l’explosion radioactive, on doit avoir pour ce nombre :
N(l) = (N/lambda)*sum(l…infini) exp(-l/lambda)*dl = N*exp(-t/tau),
dans la distribution la plus probable. L’expérience montre qu’il en est bien ainsi avec des écarts qui ne dépassent pas en, moyenne ce que peut, prévoir le calcul des probabilités. Si l’on porte l en abscisses et en ordonnées le logarithme de N(l), les points obtenus se rangent bien sur une droite dont l’inclinaison détermine lambda et l’ordonnée à l’origine le logarithme de N (fig. 2). Seuls ceux qui sont relatifs aux très petites valeurs de l restent quelquefois au-dessous de la droite et ceci s’explique par le fait que, les émissions consécutives devenant indiscernables quand les intervalles sont trop petits, il a été en réalité émis un peu plus de particules qu’on n’en a comptées. On peut corriger cette erreur et déterminer exactement le nombre total des particules émises en se servant de la loi précédente puisque l’ordonnée à l’origine doit donner la valeur exacte de log N. On peut ainsi vérifier l’importante et remarquable loi du hasard interne qui régit les explosions radioactives et apporter plus de précision dans les numérations de particules alpha qui fournissent actuellement la meilleure méthode pour la détermination des grandeurs moléculaires. La série représentée par la figure 2 comprenait 10 000 intervalles. La loi des transformations radioactives. En réalité, les substances radioactives que nous avons supposées constantes, dans les applications faites jusqu’ici, se détruisent par les explosions atomiques et leur activité diminue au cours du temps suivant une loi exponentielle qui est celle des réactions chimiques monomoléculaires. Si N atomes radioactifs sont présents à l’origine du temps, le nombre de ceux qui se détruisent entre les instants t et t + dt est donné par :
dN = (N/tau)*exp(-t/tau)*dt,
tau étant la période de la transformation ou la vie moyenne d’un atome, ou, ce qui revient au même en raison de la forme particulière de la loi, sa durée moyenne comptée à partir d’un instant quelconque et non plus à partir de sa production par un atome générateur. Ce fait, qui semble paradoxal, tient précisément à l’intervention du hasard„ au fait que la durée ultérieure probable d’un atome est indépendante du temps pendant lequel il a déjà vécu. La concordance. de la loi expérimentale avec notre formule (17) montre que la destruction d’un nombre donné d’atomes, radioactifs se fait suivant la loi la plus probable qui soit compatible avec une vie moyenne donnée.
La formule du nivellement barométrique. — Considérons une colonne cylindrique de gaz que nous supposerons à température uniforme T. Si aucune condition n’est imposée à la distribution du gaz dans le volume qui lui est offert, celle qui s’établira sera la plus probable au sens de notre premier problème : elle sera uniforme aux fluctuations près dont nous avons parlé et qui seront sensibles seulement dans, de très petites portions du volume total en raison du nombre énorme des molécules. La densité du gaz sera la même partout et indépendante de l’altitude z au-dessus du fond. Mais, si le gaz est pesant, nous savons que la densité variera avec l’altitude suivant une loi bien connue qu’on obtient de la manière suivante : Si p est la pression en un point où la concentration est c en molécules-gramme par unité de volume, on a :
p = R*T*c,
R étant la constante des gaz parfaits. Si M est la masse moléculaire la densité au point considéré est M*c et la loi fondamentale de statique des fluides donne :
dp = — M*c*g*dz
d’où
c = c(0)*exp(-M*g*z/R*T).
Si N est le nombre d’Avogadro, nombre de molécules dans une molécule-gramme, et m la masse d’une molécule, on peut écrire, en posant
k = R/N,
la relation précédente :
(18) c = c(0)*exp(-m*g*z/k*T),
c(0) étant la concentration pour l’altitude zéro. Le nombre dn de molécules comprises en moyenne entre les altitudes z et z + dz sera de la forme
dn = C*exp(-m*g*z/k*T)*dz.
L’analogie de cette loi avec notre formule (17) nous montre que la distribution qui s’établit dans un gaz sous l’action de la pesanteur est la plus probable qui soit compatible avec une altitude moyenne donnée z = k*T/m*g (quand la colonne est supposée limitée en hauteur), c’est-à-dire avec une hauteur donnée du centre de gravité, si l’on introduit comme postulats de probabilité que la présence d’une molécule est indifféremment possible dans des couches d’égale épaisseur et que la présence d’une molécule à une certaine hauteur n’exerce aucune influence sur la possibilité de présence des autres, ce qui suppose le gaz assez rare, comme nous avons dû le faire d’ailleurs pour appliquer la loi des gaz parfaits. Si nous remarquons que m*g*z représente l’énergie potentielle Psi de pesanteur d’une molécule située à l’altitude z, la formule devient :
(18)’ dn = C*exp(-Psi/k*T)*dz.
L’expérience nous montre, sur le cas particulier de la distribution d’un gaz pesant en hauteur, que celui-ci se distribue spontanément de la manière la plus probable qui soit compatible avec une énergie potentielle donnée.
LA MÉCANIQUE STATISTIQUE.
La loi de Boltzmann. — C’est l’œuvre essentielle de Boltzmann que d’avoir généralisé de manière complète le résultat précédent et montré que la configuration d’équilibre prévue par la Thermodynamique pour un système matériel quelconque est toujours la plus probable qui soit compatible avec son énergie totale, potentielle et ciné-tique. Pour donner un sens précis à cet énoncé, il faut indiquer nettement quels sont les postulats fondamentaux dans la définition des probabilités. On y parvient par la notion d’extension en phase qu’introduisirent Boltzmann et Gibbs et qui est à la base de la mécanique statistique. La configuration et la position d’un système matériel, qui peut d’ailleurs ne contenir qu’une seule molécule, sont déterminées par certaines coordonnées q(1), q(2),… q(r) en nombre égal à celui des degrés de liberté du système, et son état de mouvement par les moments ou quantités de mouvement correspondants, p(1), p(2),…, p(r). En prenant les coordonnées et les moments comme déterminant la position d’un point dans un espace généralisé à 2*r dimensions, ou extension en phase, on peut représenter chaque configuration dynamique d’un tel système par un point de cet espace et ses changements au cours du temps par une ligne ou trajectoire ; par chaque point passe d’ailleurs une trajectoire et une seule. Les diverses configurations possibles du système correspondent aux différents points de l’extension en phase comme les diverses positions possibles du centre d’une molécule dans un récipient correspondaient aux différents points du volume intérieur à ce récipient. Pour définir les probabilités dans le cas de la distribution en volume, nous avons considéré comme équivalentes des portions d’égale étendue du volume total. Nous pouvons aussi partager notre espace généralisé en éléments d’égale extension d(omega) et un théorème fondamental dû à Liouville montre que, si notre système est régi par des équations analogues à celles de la Dynamique et réductibles à la forme Hamiltonienne, ces éléments d’égale extension, comme tout à l’heure nos éléments égaux de volume, doivent être considérés comme équivalents au point de vue de la probabilité, au point de vue de la présence possible à leur intérieur du point représentatif de la configuration de notre système. En effet, le théorème de Liouville consiste en ceci que, si nous suivons au cours du temps des systèmes dont les points représentatifs sont situés initialement dans un élément donné de l’extension en phase, l’élément se déplace et se déforme dans l’espace généralisé, mais en conservant une étendue constante. Donc la présence initiale du point représentatif dans un élément est exactement aussi probable que sa présence ultérieure dans un élément d’égale étendue ; deux éléments d’égale étendue doivent être considérés comme équivalents au point de vue de la présence possible du point représentatif, au même titre que deux éléments égaux du volume ordinaire au point de vue de la présence possible des molécules. Ce sera là notre postulat fondamental de définition des probabilités et, comme toujours, il trouvera sa justification complète dans l’accord de ses conséquences avec les faits. Considérons un ensemble composé d’un grand nombre N de systèmes identiques au précédent, comme un gaz est composé d’un grand nombre de molécules semblables. A tout état dynamique de l’ensemble, à toute distribution des N systèmes qui le composent entre les diverses configurations possibles, correspond une distribution donnée des N points représentatifs dans l’extension en phase. Pour calculer la probabilité de cette distribution, découpons l’extension en phase en éléments équivalents delta(omega) d’égale étendue que nous supposerons pouvoir diminuer indéfiniment dans l’hypothèse des probabilités continues. Si delta(n(1)), delta(n(2)),… sont les nombres de points représentatifs présents dans ces éléments pour la distribution considérée, et si nous faisons de plus le postula analogue à celui de la rareté du gaz, de l’indépendance mutuelle des positions des divers points, nous obtenons pour le nombre W de manières dont la distribution considérée peut être réalisée, nombre proportionnel à sa probabilité :
(19) W = N ! /[(delta(n(1))) ! (delta(n(2))) !…]
Si maintenant nous supposons donnée l’énergie totale U de l’ensemble, somme des énergies individuelles E dont la valeur est déterminée pour chaque système par le point représentatif de sa configuration, les distributions possibles sont assujetties à la condition, comparable à (8) :
(20) E(1)*delta(n(1)) + E(2)*delta(n(2)) +… = U,
E1, E2,… étant les énergies qui correspondent à la position de points représentatifs dans les différents éléments équivalents d’extension. La distribution de probabilité maximum sera représentée, comme il résulte d’un calcul comparable à celui qui nous a donné la relation (14), par :
delta(n) = C*exp(-E/Thêta)*delta(omega).
La densité en phase rho = delta(n)/delta(omega) qui correspond à la distribution la plus probable de nos N systèmes est donc donnée par la loi des ensembles canoniques de Gibbs
(21) rho = C*exp(-E/Thêta).

Le module Thêta de la distribution et le coefficient C sont déterminés par les conditions équivalentes à (8) et (9) et que j’écris en notation différentielle pour passer au cas limite des probabilités continues
(22) C*sum(E*exp(-E/Thêta)*d(omega) = U et C*sum(exp(-E/Thêta)*d(omega) = N.
Nous allons montrer que cette distribution la plus probable compatible. avec les conditions imposées à notre ensemble de N systèmes est précisément celle qui correspond à la configuration d’équilibre prévue par la Thermodynamique. En même temps se dégagera la signification profonde au point de vue statistique des diverses notions fondamentales de la Thermodynamique : de même que l’énergie totale U représente l’énergie interne de notre ensemble. de N systèmes (de N molécules par exemple), nous allons être conduits à considérer la température absolue comme proportionnelle au module Thêta de la distribution ; l’entropie et l’énergie utilisable seront proportionnelles respectivement aux logarithmes de la probabilité W et de la constante C.
Cas d’un gaz pesant. — Appliquons tout d’abord notre loi générale de distribution la plus probable au cas d’un gaz pesant composé de molécules identiques les unes aux autres et de masse m. Chaque molécule représentera l’un de nos systèmes et le gaz tout entier représentera l’ensemble dont nous cherchons la distribution. Admettons de plus qu’il s’agisse d’un gaz monoatomique dans lequel nous n’aurons pas à introduire de rotations des molécules ; chacune de celles-ci sera assimilable à un point matériel avec seulement trois degrés de liberté de translation auxquels correspondront les coordonnées x, y, z et les composantes u, v, w de la vitesse. L’énergie E d’un système, somme de l’énergie cinétique et de l’énergie potentielle de pesanteur d’une molécule, a pour expression
E = (1/2)*m*(u^2 + v^2 + w^2) + m*g*z.
L’espace généralisé ou extension en phase est ici à six dimensions, trois pour les coordonnées x, y, z et trois pour les moments ou quantités de mouvement correspondants, m*u, m*v, m*w, de sorte que chaque état possible d"une molécule, comme position et mouvement., est représenté par un point distinct, dans cet espace généralisé, dont l’élément d(omega) a pour valeur
d(omega) = (m^3)*dx*dy*dz*du*dv*dw.
La distribution des points qui dans cet espace représentent à un moment donné l’état des molécules de l’ensemble nous donne à la fois la répartition de ces molécules entre les diverses positions et les diverses vitesses possibles. Dans la distribution la plus probable, compatible avec une énergie totale donnée, la densité de ces points est donnée par
(23) rho = C*exp(-m/(2*Thêta))*(u^2 + v^2 + w^2) — m*g*z/Thêta.
On reconnaît, pour ce qui concerne les vitesses, la loi de distribution de Maxwell. On déduit immédiatement de cette formule que l’énergie cinétique correspondant à un degré de liberté, (1/2)*m*(u^2) par exemple, a pour valeur moyenne Thêta/2, quel que soit le degré de liberté considéré. Il en serait encore de même si nous avions supposé la molécule susceptible de rotations ou de déformations l’énergie cinétique d’une molécule étant mise sous forme d’une somme de carrés correspondant chacun à un degré de liberté, la valeur moyenne, dans la distribution la plus probable, est la même pour chacun de ces termes et a pour valeur Thêta/2. C’est le théorème bien connu d’équipartition, qu’on étendrait sans peine au cas d’un mélange de diverses espèces de molécules par des considérations de probabilités analogues aux précédentes. Il est à remarquer que l’énergie cinétique moyenne pour un degré de liberté reste la même Thêta/2 quand, au lieu de la calculer pour l’ensemble de toutes les molécules, on considère seulement celles qui sont contenues dans un élément de volume de l’espace ordinaire dx, dy, dz, ou dans une tranche dz de la colonne cylindrique dans laquelle nous pouvons supposer notre gaz renfermé. La distribution des vitesses entre les molécules d’un gaz pesant, et par conséquent l’énergie ciné-tique moyenne, est la même à toutes les altitudes. D’après la théorie cinétique, la pression d’un gaz est proportionnelle à l’énergie cinétique moyenne de ses molécules. Si c’est la concentration du gaz à l’altitude z, en molécules-gramme par unité de volume, et N le nombre d’Avogadro, la valeur Thêta/2 pour l’énergie moyenne d’un degré de liberté conduit pour la pression à
p = N*c*Thêta.
L’identification avec la loi des gaz p = R*c*T donne la relation
(24) Thêta = (R/N)*T = k*T.
Le module Thêta de la distribution la plus probable est donc proportionnel à la température absolue et donne la signification statistique de la notion de température. La distribution la plus probable d’un gaz, comme d’un ensemble quelconque d’ailleurs, est la distribution isotherme. Si nous cherchons maintenant la variation de densité du gaz avec l’altitude dans la distribution donnée par la formule (23), en tenant compte de la relation (24), après intégration de —rho*d(omega) par rapport à u, v, w, entre les limites —infini et +infini, nous retrouvons précisément la loi représentée par la formule (18), c’est-à-dire la loi du nivellement barométrique. C’est là une justification, sur cet exemple particulier, de la manière dont nous avons défini la probabilité d’une configuration de notre ensemble de systèmes, à partir du postulat d’équivalence des éléments égaux d’extension en phase.
Entropie et probabilité. — Pour obtenir l’interprétation statistique du principe de Carnot, examinons tout d’abord le cas des transformations réversibles. Pour réaliser une semblable transformation, nous supposerons qu’on fait varier les conditions imposées à notre ensemble de systèmes (grandeur de l’énergie totale U, forces extérieures exercées sur chaque système) assez lentement pour qu’à chaque instant l’ensemble ait le temps de prendre la distribution la plus probable qui soit compatible avec les conditions actuelles. Nous aurons donc à chaque instant une distribution de la forme (21) avec des constantes C et Thêta qui varieront d’un instant à l’autre. La quantité W, donnée par la formule (19) et que nous appellerons la probabilité, aura à chaque instant la plus grande valeur compatible avec les conditions imposées, et cette valeur variera au cours de la transformation. Cherchons de quelle manière. L’extension en phase étant partagée en éléments delta(omega) tous égaux entre eux, très petits mais cependant assez grands pour que chacun d’eux renferme un grand nombre delta(n) = rho*delta(omega) de points représentatifs, nous pouvons, en appliquant la formule de Stirling à chacune des factorielles qui entrent dans l’expression de W et en ne conservant que les termes importants, écrire
log(W) = N*(log(N) — Iog(delta(omega)) — Sigma(rho*log(rho))*delta(omega).
Le premier terme est constant au cours de la transformation, le second varie avec la distribution. En remplaçant par une intégrale la somme qui figure dans ce terme et qui est étendue à tous les éléments d’extension en phase, nous obtenons, en représentant le premier terme par une constante A :
log(W) = A — sum(rho*log(rho)*d(omega)).
Si nous admettons qu’à chaque instant soit réalisée la distribution la plus probable, nous pouvons remplacer p par l’expression (21) et il vient, en tenant compte des conditions (22) :
(25) log(W) = A + U/Thêta — N*log(C).
Différentions cette dernière relation
d(log(W)) = dU/Thêta — U/((Thêta)^2)*d(Thêta) — N*(dC/C).
Différentions également la seconde des conditions (22) ; elle donne
N*(dC/C) + (U/(Thêta^2))*d(Thêta) — (C/Thêta)*sum(exp(-E/Thêta))*dE*d(omega) = 0,
d’où
d(log(W)) = dU/Thêta — (1/Thêta)*sum(rho*d(omega)*dE).
Or l’intégrale sum(rho*d(omega)*dE) représente l’accroissement d’énergie potentielle de l’ensemble résultant du changement des conditions extérieures, c’est-à-dire le travail d(tau) fourni à l’ensemble pendant l’élément de transformation réversible. Donc
d(log(W)) = (dU — d(tau))/Thêta.
La différence dU — d(tau) entre l’accroissement d’énergie interne et le travail fourni est la quantité de chaleur dQ fournie à l’ensemble ; en tenant compte de la relation (24), il vient :
dQ/T = k*d*log(W) = d(k*log(W)).
Donc, pour une transformation consistant en une succession d’états de probabilité maximum, le quotient de la chaleur fournie dQ par la température absolue est une différentielle exacte. C’est un des énoncés du principe de Carnot appliqué aux transformations réversibles. Nous démontrons ainsi que les distributions moléculaires de probabilité maximum jouissent de toutes les propriétés imposées par la Thermodynamique aux configurations d’équilibre, et donnons, grâce à la définition dynamique des probabilités par l’introduction de l’extension en phase, un sens précis à la notion intuitive que la distribution moléculaire la plus probable, se réalisant par là même incomparablement plus souvent que toutes les autres en raison de la complexité de l’ensemble, doit représenter la configuration d’équilibre de celui-ci sous les conditions données. On déduit aussi la signification statistique de l’entropie des résultats précédents :
dS = d(k log W),
ou, à une constante près :
(26) S = k log W.
L’entropie, dans le cas où la Thermodynamique permet de la définir, c’est-à-dire dans le cas des transformations réversibles, se trouve donc proportionnelle au logarithme de la probabilité de la configuration d’équilibre, c’est-à-dire de la configuration la plus probable compatible avec les conditions imposées à l’ensemble considéré. Nous obtenons en même temps le moyen de généraliser la notion quantitative d’entropie et de l’étendre aux configurations qui ne peuvent faire partie d’une transformation réversible. Comme nous savons par (19) définir la probabilité W pour une configuration quelconque de notre ensemble, il suffit de considérer comme générale la relation (26) pour obtenir une définition générale de l’entropie et pour atteindre la signification profonde, purement statistique, de cette notion autrement si obscure. Le fait qu’un ensemble tend spontanément vers la configuration la plus probable compatible avec les conditions qui lui sont imposées généralise et éclaire profondément le théorème de Clausius d’après lequel l’entropie tend vers un maximum à énergie interne donnée. La conséquence la plus importante peut-être de ce résultat est que la configuration d’équilibre prévue par la Thermodynamique, la configuration d’entropie maximum, nous apparaît maintenant comme la plus probable, mais non la seule possible pour l’ensemble. Celui-ci prend au cours du temps toutes les configurations possibles dans la proportion de leurs probabilités. La plus probable est seulement la plus fréquente et prédomine d’autant plus que l’ensemble est plus complexe, que le nombre N des systèmes qui le composent est plus grand. Mais des fluctuations doivent se produire autour de cette configuration la plus probable ; nous verrons tout à l’heure comment la relation (26) généralisée permet d’en prévoir l’importance dans tous les cas et comment l’observation directe de ces fluctuations est venue confirmer de la manière la plus complète ces conséquences du point de vue statistique et apporter des moyens nouveaux, en nombre illimité, pour atteindre les grandeurs moléculaires par l’intermédiaire de ces fluctuations. Le principe de Carnot perd ainsi sa signification absolue : les configurations d’équilibre qu’il permet de prévoir et qu’il présente comme rigides ne correspondent en réalité qu’à un aspect moyen autour duquel la matière est en frémissement continuel et effectue des fluctuations d’autant plus importantes relativement que le nombre des molécules présentes est plus faible. En tenant compte des relations (24) et (26) et en choisissant convenablement la constante arbitraire dans l’expression de l’entropie, nous pouvons écrire l’équation (25) sous la forme
U-TS = N*Thêta*log(C) = R*T*log(C),
si R est la constante des gaz pour un nombre N de molécules égal au nombre des systèmes de notre ensemble. Nous obtenons ainsi l’expression de l’énergie utilisable et sa relation avec la constante C de la loi de distribution la plus probable
Psi = R*T*(log(C)),
Comme la température, l’énergie utilisable n’a de sens que pour une distribution d’équilibre, de probabilité maximum, puisque ces notions sont définies à partir des constantes Thêta et C caractéristiques d’une telle distribution. L’entropie au contraire est susceptible d’une définition plus générale puisqu’elle est reliée à la probabilité W dont la relation (19) donne l’expression pour une configuration quelconque de l’ensemble. Ceci montre l’importance particulière qui s’attache à cette notion d’entropie dont l’introduction s’est imposée longtemps avant qu’on en vît clairement les raisons profondes. Il est bien évident, d’ailleurs, que lorsqu’un ensemble complexe ne se trouve pas en équilibre thermodynamique, lorsque sa température n’est pas uniforme par exemple, on peut le décomposer en ensembles plus simples, en éléments de volume, au sens ordinaire du mot, pour chacun desquels l’équilibre est au moins approximative-ment réalisé, pour chacun desquels on peut définir une température et une énergie utilisable, et calculer l’entropie au sens thermodynamique de sa définition. Cette remarque trouve son application dans nombre de raisonnements relatifs aux fluctuations. Nous venons d’obtenir une interprétation statistique de la Thermodynamique en suivant la voie ouverte par Boltzmann ; on peut avec Gibbs se placer à un point de vile un peu différent, mais le fond des raisonnements reste le même et je n’insisterai pas sur les différences entre les deux méthodes. Celle de Boltzmann me paraît, du reste, la plus claire et la plus féconde.
Les lois d’actions moléculaires. — Nous venons de voir dans la Thermodynamique un aspect des résultats de la Mécanique statistique. Celle-ci est beaucoup plus riche de contenu et beaucoup plus profonde que celle-là, puisqu’elle en complète les énoncés en même temps qu’elle en donne la signification véritable. Non seulement elle permet de prévoir les fluctuations spontanées que la Thermodynamique ignore complètement ou plus exactement dont la Thermodynamique nie la possibilité, mais encore elle seule permet d’atteindre les propriétés des ensembles moléculaires où se reflètent les lois profondes d’actions individuelles exercées sur les molécules ou par les molécules les unes sur les autres. J’ai rappelé au début que certaines propriétés des ensembles sont indépendantes de ces lois individuelles et ne contiennent rien de plus que l’affirmation de la complexité de l’ensemble et du rôle qu’y joue la probabilité. Celles qu’on déduit de l’application du principe de Carnot, de la Thermodynamique, appartiennent à cette catégorie. Elles expriment uniquement ceci que la configuration d’équilibre ordinairement observée est la plus probable de toutes celles dont l’ensemble est susceptible, et la grossièreté habituelle de nos moyens d’observation fait que cette probabilité se change progressivement en certitude à mesure que l’ensemble devient plus complexe, ou plutôt parce que les ensembles observés sont généralement très complexes. Ces propriétés thermodynamiques, en retour, ne permettent pas d’atteindre les lois individuelles dont elles sont indépendantes. Au contraire, la’loi de distribution la plus probable donnée par la formule (in) fait intervenir ces lois individuelles par l’intermédiaire de l’énergie E relative à chaque système et permet d’obtenir par intégration des propriétés de la configuration d’équilibre, des lois accessibles à nos mesures où interviennent les lois d’actions moléculaires et dont l’observation doit nous permettre de remonter à celles-ci. De là résulte une puissance nouvelle d’investigation que nous commençons à peine à savoir mettre en valeur.
L’orientation moléculaire. — Je citerai, comme premier exemple, la théorie d’orientation moléculaire dont j’ai montré toute l’importance pour rendre compte des phénomènes de paramagnétisme et de biréfringence électrique et magnétique. Lorsque, sous l’action d’un champ extérieur, chaque molécule est soumise à un couple tendant à l’orienter, l’énergie E relative à une molécule contient un terme qui représente le travail effectué par ce couple et la formule (21) détermine la manière dont les molécules s’orientent, dont elles se distribuent entre les diverses orientations possibles dans la configuration la plus probable de l’ensemble. Cette formule traduit l’effet superposé de l’agitation thermique tendant à réaliser la distribution isotrope et de l’action directrice du champ qui tend à disposer parallèlement toutes les molécules dans l’orientation d’énergie minimum.
La distribution d’équilibre étant ainsi connue, une simple intégration donne la grandeur mesurable, moment magnétique résultant dans le cas du paramagnétisme ou indice de réfraction dans le cas de la biréfringence. On peut alors, ainsi que je l’ai montré, remonter de l’observation au moment magnétique moléculaire ou à la dissymétrie optique de chaque molécule. Le cas est beaucoup plus complexe où le couple directeur qui s’exerce sur une molécule dépend, non plus seulement du champ extérieur et de l’orientation par rapport à lui de la molécule considérée, comme pour les substances paramagnétiques diluées par exemple, mais résulte des actions mutuelles entre molécules. L’énergie U de l’ensemble fait alors intervenir des termes où figurent à la fois les orientations de deux ou plusieurs molécules, et le calcul de la con-figuration de probabilité maximum compatible avec une valeur donnée de U devient beaucoup plus difficile. C’est ainsi que la question se pose pour les substances ferromagnétiques ou pour les cristaux liquides où les actions directrices mutuelles jouent le rôle prépondérant. On sait quels progrès ont déjà été réalisés dans l’étude du ferromagnétisme, grâce à l’hypothèse du champ moléculaire par laquelle M. Pierre Weiss a proposé de traduire la résultante des actions mutuelles exercées sur une molécule. Les résultats donnés par cette simplification du problème font prévoir de quelle importance serait la solution complète.
Les équations d’état. — Les choses se présentent plus simplement lorsque au lieu d’actions mutuelles d’orientation on suppose seulement entre les molécules des forces centrales, s’exerçant suivant une loi donnée en fonction de leur distance. L’équation d’état d’un fluide composé de semblables molécules s’obtiendrait de manière complète par la voie statistique si l’on savait résoudre le problème suivant, de nature purement géométrique : N points étant distribués au hasard dans un volume donné, quelle est la probabilité pour que les à distances mutuelles entre ces points, en nombre égal à [N*(N-1)]/2, soient distribuées d’une manière donnée entre les diverses valeurs possibles ? Ce problème résolu, l’équation d’état s’obtient immédiatement et fait intervenir, naturellement, la loi d’action mutuelle entre deux molécules. Cette équation permettrait, inversement, de remonter à la loi d’action à partir des isothermes obtenues expérimentalement pour le fluide considéré. Il y a là une question fondamentale de cohésion et je signale, à l’attention des mathématiciens, le problème de probabilités purement géométrique dont dépend toute sa solution. Ce même problème domine également toute la théorie des mélanges de fluides et de la pression osmotique en particulier. De même que, par son intermédiaire, l’équation d’état d’un fluide pur donnerait la loi d’action entre molécules identiques, les propriétés bien connues des mélanges donneraient la loi d’action entre molécules d’espèces différentes. Ici encore, les progrès de la Physique dépendent de la solution d’un problème de probabilités. Il s’agit toujours de trouver la distribution la plus probable compatible avec des conditions données.
Le problème général des fluctuations. — Dans ces premiers exemples d’applications des raisonnements généraux de la Mécanique statistique, nous avons considéré seulement la distribution la plus probable autour de laquelle nos ensembles effectuent constamment des fluctuations, généralement insensibles à cause de la grande complexité des ensembles de molécules sur lesquels portent nos observations. Mais ces fluctuations peuvent devenir accessibles à l’expérience, lorsque le nombre des molécules contenues dans le système diminue (mouvement brownien de petites particules ou diffusion de la lumière, déterminée par les fluctuations de concentration dans des petits volumes de l’ordre du cube de la longueur d’onde). Nous avons vu comment on peut prévoir leur importance par des raisonnements très simples de probabilités dans le cas des fluctuations de concentration de gaz peu denses ou de solutions diluées où les positions des diverses molécules peuvent être considérées comme indépendantes les unes des autres. La question est alors purement géométrique. Si les actions mutuelles interviennent pour diminuer les fluctuations quand ces actions sont répulsives ou pour les augmenter quand elles sont attractives, il n’y a plus indépendance et la question, devenue dynamique, ne peut être résolue que par les considérations nouvelles de probabilités qu’introduit la Mécanique statistique. Dans le problème général des fluctuations, il s’agit d’étudier les variations spontanées d’une grandeur observable x caractéristique du système (altitude ou vitesse d’un granule brownien, densité du fluide dans un petit volume, intensité du courant dans un circuit, etc.) autour de la valeur x(0) qui correspond à l’état le plus probable (altitude du point le plus bas qu’il puisse occuper et vitesse nulle pour le granule, densité correspondante à la distribution uniforme d’un fluide, valeur nulle du courant si le circuit ne comporte pas de force électromotrice, etc.). La question revient en somme à chercher la probabilité W(x)*dx pour que la grandeur considérée soit comprise entre x et x+dx. Cette probabilité connue, on en déduira aisément la valeur moyenne d’une fonction quelconque de x-x(0) ou les effets produits par les fluctuations sur la propagation de la lumière par exemple, la fréquence avec laquelle se présente l’écart x-x(0) étant, comme dans tout ce qui précède, proportionnelle au coefficient de probabilité W(x). Deux procédés différents peuvent être employés pour atteindre cette probabilité. On peut tout d’abord supposer isolé le système complexe formé par notre ensemble de molécules, c’est-à-dire supposer son énergie interne constante et utiliser la formule (19) pour calculer la probabilité d’une configuration quelconque soumise à la condition d’énergie donnée. En ajoutant les probabilités ainsi obtenues pour toutes les configurations telles que la grandeur observable soit comprise entre x et x+dx, on aura précisément W(x)*dx. On obtient ainsi ce que nous pouvons appeler les fluctuations à énergie constante. Bien qu’il soulève des difficultés, le raisonnement suivant, dû à M. Einstein, permet d’arriver très vite au résultat. A chaque valeur de x correspond, au sens thermodynamique, une valeur de l’entropie S de notre système qui prend son maximum So pour x= xo. En généralisant la relation de Boltzmann (26) entre l’entropie et la probabilité, nous pouvons admettre, entre S et la valeur correspondante du coefficient W(x), la relation
S = k log W,
ou, ce qui élimine la constante arbitraire non écrite dans cette équation,
S-S(0) = k*log(W/W(0)),
ou encore
(27) W = W(0)*exp((S-S(0))/k).
On peut encore écrire cette formule autrement. Comme notre système est complexe et que la grandeur x est un seul des paramètres en nombre énorme nécessaires pour la description complète de l’état du système, la variation de x dans les limites que les fluctuations pourront atteindre ne modifiera pas appréciablement la température du système qui correspond à une énergie interne donnée. Autrement dit, la configuration la plus probable sous les conditions que U ait la valeur donnée et que x soit compris entre x et x+dx correspond à un module Thêta et par conséquent à une température T sensiblement indépendante de x. Dans ces conditions, si Psi et Psi(0) sont les valeurs de l’énergie utilisable qui correspondent à x et x(0) sous cette température, on a, l’énergie interne restant fixe :
S — S(0) = (Psi(0) — Psi)/T,
et l’on peut écrire la relation (27) sous la forme
(28) W = A*exp(-Psi/(k*T)),
A étant une constante. Nous pouvons retrouver ce même résultat par une autre voie, grâce à la remarque suivante : la très faible variation de température qui accompagne les fluctuations à énergie constante à cause de la complexité du système fait que ces fluctuations restent les mêmes quand ce système, au lieu d’être isolé, fait partie d’un ensemble de systèmes complexes analogues avec lesquels il peut échanger de l’énergie, c’est-à-dire quand on considère les fluctuations comme isothermes’au lieu de les considérer comme s’effectuant à énergie constante. On voit immédiatement que l’étude de ces fluctuations isothermes se ramène à celle de la distribution la plus probable des diverses configurations possibles dans un ensemble de systèmes complexes. C’est un problème tout à fait analogue à celui que résout la formule (21), à ceci près que, au lieu d’avoir une seule molécule pour chacun des systèmes dont est composé l’ensemble, chaque système est lui-même composé d’un grand nombre de molécules. De sorte que l’extension en phase doit avoir maintenant un nombre énorme de dimensions, puisque chaque système complexe contient N fois plus de paramètres que chacune des molécules dont il est composé. La distribution cherchée est déterminée par une formule analogue à (21), mais où E représente, non plus l’énergie d’une molécule, mais celle de notre ensemble de N molécules en fonction de tous les paramètres qui fixent la configuration de cet ensemble. Si d(Omega) est un élément de la nouvelle extension en phase, la probabilité pour que le point représentatif se trouve contenu dans cet élément sera
(29) C*exp(-E/Thêta)*d(Omega),
Si nous voulons étudier les fluctuations relatives à un certain paramètre x, accessible à nos mesures, c’est-à-dire chercher la probabilité pour que ce paramètre soit compris entre x et x+dx, nous devons chercher la portion de l’extension Omega qui contient les points représentatifs pour lesquels la grandeur x est comprise entre les limites indiquées. En intégrant dans cette portion l’expression (29) nous obtiendrons la probabilité cherchée sous la forme
W(x)*dx.
En se reportant à la définition statistique que nous avons obtenue pour l’énergie utilisable, on démontre que la probabilité précédente peut s’écrire :
W(x)*dx = A*exp(-Psi(x)/Thêta)*dx,
A dépendant de x, mais de façon à varier d’ordinaire très peu en valeur relative quand x varie autour de x(0). On peut alors considérer A comme une constante, et la connaissance de Psi(x) suffit, c’est-à-dire de l’énergie utilisable du système relative à la grandeur x, et à la température T, le module Thêta étant pris égal à k*T. Nous retrouvons bien la formule (28), obtenue en supposant les fluctuations adiabatiques.

On voit ainsi que l’étude des fluctuations isothermes d’un système complexe, comme notre ensemble primitif de N molécules, autour de sa configuration la plus probable, se ramène à l’étude de la distribution la plus probable d’un ensemble de systèmes complexes, identiques au premier, entre les diverses configurations possibles. C’est là un fait général en calcul des probabilités, les écarts à partir d’une distribution probable s’obtenant par la considération de la distribution la plus probable d’un ensemble plus complexe que le premier. Voyons maintenant quelques applications de la formule (28) à la Physique.
Mouvement Brownien et distribution de granules. — Si le système complexe est constitué par un granule et le fluide qui l’environne, nous pouvons prendre pour grandeur x soit la vitesse du mouvement d’ensemble du granule suivant une direction, soit son altitude.
Dans le premier cas Psi est égal à l’énergie cinétique correspondante à la direction considérée et proportionnelle au carré de la vitesse. L’application de (28) donne, pour valeur moyenne de cette énergie cinétique, Thêta/2 ou k*T/2. Nous retrouvons ainsi sous un nouvel aspect, applicable aux mouvements visibles, le théorème d’équipartition de l’énergie cinétique entre les degrés de liberté d’un système complexe. J’ai montré comment ce théorème permet de retrouver très simplement la formule célèbre donnée par M. Einstein pour les déplacements d’un granule par mouvement Brownien de translation ou de rotation. On retrouve cette équipartition sous une forme généralisée toutes les fois que l’énergie utilisable Psi est une fonction continue de la grandeur x. En effet Psi(0), valeur qui correspond à la configuration d’équilibre, devant être un minimum pour Psi, on peut écrire, en limitant le développement à cause de la faible amplitude des variations spontanées :
Psi — Psi(0) = alpha*((x-x(0))^2),
alpha étant une constante. L’application de (28) montre encore que la valeur moyenne de Psi — Psi(0) est égale à k*T/2, c’est-à-dire que les fluctuations correspondent, pour chaque paramètre tel que x, à un écart moyen d’énergie utilisable égal à l’énergie cinétique moyenne k*T/ 2 d’une molécule par degré de liberté à la même température ; c’est dire la petitesse de telles fluctuations. On conçoit la généralité des applications possibles de ce résultat aux déformations spontanées d’un corps élastique tel qu’un diapason, à la charge spontanée d’un condensateur dont les plateaux sont réunis par un fil et dont l’énergie électrostatique aura la valeur moyenne k*T/2 aux fluctuations de courant dans un circuit dont l’énergie de self-induction aura cette même valeur moyenne, etc. Dans tout système susceptible d’effectuer des vibrations périodiques comme le diapason ou le condensateur fermé, la valeur moyenne de l’énergie potentielle est égale à k*T/2 comme la valeur moyenne de l’énergie cinétique (ou magnétique). La valeur moyenne de l’énergie totale doit donc être égale à k*T pour chaque mode possible de vibration. Ce résultat cesse d’être exact quand l’énergie utilisable n’est pas une fonction continue de la variable x. Il en est ainsi par exemple dans le cas des fluctuations d’altitude d’un granule pesant. Si m est sa masse, Delta sa densité, delta celle du fluide dans lequel il est plongé et z son altitude au-dessus du fond du vase, on a
Psi = m*g*(1-delta/Delta)*z,
pour z > 0, et Psi pratiquement infini pour z négatif puisqu’il faudrait déformer le fond du vase pour faire descendre le granule au-dessous de z=0. Psi est donc bien minimum pour z=0, mais le développement n’a plus la même forme que précédemment. W est nul pour z négatif en vertu de (28) et pour z positif égal à
W = W(0)*exp(-(m*g/k*T)*(1-delta/Delta)*z),
on reconnaît la loi de distribution vérifiée expérimentalement par M. Perrin. La Thermodynamique prévoit la position d’équilibre z = 0 pour laquelle l’énergie utilisable est minimum et la présence des granules dans le liquide au-dessus du fond correspond à des fluctuations d’altitude régies par la loi de probabilité que nous venons d’obtenir. On reconnaît encore, sur cet exemple, qu’un même problème peut être envisagé soit comme un problème de distribution la plus probable, soit comme un problème de fluctuations. Si l’on calcule dans le cas actuel la valeur moyenne de ou des fluctuations d’énergie utilisable correspondant à la variable z, on trouve, à cause de la forme particulière de cette fonction, la valeur k*T au lieu de k*T/2.
Fluctuations de concentration. — Le cas des fluctuations de concentration, dans un fluide dont les molécules agissent les unes sur les autres, rentre dans le cas général. Pour un petit volume donné au milieu d’un fluide, la concentration moyenne varie autour de celle qui correspond à la distribution uniforme du fluide. L’écart Psi — Psi(0) est proportionnel, en première approximation, au carré des variations de concentration et celles-ci sont donc telles que la valeur moyenne de Psi — Psi(0) soit égale à k*T/2. Cela suffit pour donner toute la théorie quantitative de l’opalescence critique puisque l’on connaît le degré de trouble du fluide à toutes les échelles de grandeur.
Probabilités continues et probabilités discontinues. — Nous avons vu qu’à tout mode possible de vibration périodique dans un système, la Mécanique statistique telle que nous l’avons obtenue prévoit une énergie moyenne totale égale à k*T. Ce résultat, appliqué aux molécules d’un solide, conduit à prévoir pour le solide une chaleur spécifique constante à toutes températures et, appliqué aux résonateurs électromagnétiques de M. Planck, conduit à la loi de Rayleigh pour la distribution d’énergie dans le rayonnement noir. L’expérience est en contradiction formelle avec ces conséquences. D’où viennent ces difficultés ? Dans nos raisonnements de Mécanique statistique, et en particulier dans le calcul des valeurs moyennes qui nous a conduits au théorème d’équipartition, nous avons implicitement admis qu’il s’agissait de probabilités continues et remplacé partout les sommations par des intégrations, ce qui revient à considérer comme infiniment petit le domaine élémentaire d’extension en phase delta(omega) que nous avons introduit pour définir la probabilité. Or ce passage à la limite soulève de grosses difficultés. En dehors du fait que des éléments d’extension en phase évanescents cesseront de contenir des nombres delta(n) de points représentatifs assez grands pour qu’on puisse continuer à utiliser la formule de Stirling, nous pouvons remarquer que la constante A de la formule (25) qui donne le logarithme de la probabilité contient le terme log(delta(omega)) qui devient infini quand delta(omega) tend vers zéro. On évite ces difficultés en même temps qu’on rend compte des lois expérimentales des chaleurs spécifiques et du rayonnement noir en admettant avec M. Planck une étendue finie et déterminée pour le domaine élémentaire delta(omega), c’est-à-dire en remplaçant les probabilités continues par des probabilités discontinues. La loi de distribution la plus probable est toujours donnée par la formule (21) de même que dans notre première partie la formule analogue (14) s’applique dans tous les cas. Mais la relation est changée entre le module Thêta ou tau et la valeur moyenne de la variable E ou t. Les probabilités continues nous ont donné t = tau, pour la durée moyenne des séries comme elles nous donnent E = Thêta pour l’énergie moyenne d’un résonateur. L’introduction des probabilités discontinues donne la formule (16) et M. Planck a montré que, dans le cas du résonateur, si h est la valeur imposée au domaine élémentaire d’extension en phase, la variation d’énergie qui lui correspond est epsilon = h*nu, nu étant la fréquence du résonateur, et l’on obtient la formule tout à fait comparable à (16)
(30) E(barre) = epsilon/(exp(epsilon/Thêta)-1)
On peut, au moyen de ce résultat, représenter au degré de précision des mesures la variation de capacité calorifique des solides avec la température et la distribution de l’énergie dans le rayonnement noir. En effet notre résonateur est en équilibre avec un rayonnement représenté exactement par la loi expérimentale rappelée antérieurement :
F(lambda*T) = C/(exp(c/lambda*T)-1)
en posant :
c/(lambda*T) = epsilon/Thêta = (h*nu)/(k*T),
ou, si V est la vitesse de la lumière :
c = h*V/k.
La constante h, qui vient de s’introduire comme mesurant l’étendue du domaine élémentaire de probabilité dans le problème du résonateur, semble bien avoir une importance capitale en Physique et figurer dans les lois d’un grand nombre de phénomènes. On conçoit qu’il en doive être ainsi puisque cette même constante détermine probablement le domaine élémentaire de probabilité dans toutes les questions de Mécanique statistique, quelle que soit la complexité du système étudié. L’expérience a confirmé son intervention, non seulement dans la théorie du rayonnement noir, mais encore dans celles de l’émission des rayons de Röntgen, des rayons cathodiques secondaires, des phénomènes photoélectriques et jusque dans les lois de la Mécanique chimique. Il paraît également certain qu’elle détermine la grandeur du magnéton ou élément discontinu de moment magnétique moléculaire. Ainsi le discontinu semble de tous côtés dominer la Physique. Non seulement nous devons admettre des éléments structuraux discrets, électrons, atomes ou molécules, mais encore il semble bien que nous devions introduire un élément nouveau de discontinuité dans les raisonnements statistiques par lesquels nous passons pour construire une image du monde à partir de ces éléments.

Paul Langevin, « La physique depuis vingt ans » (1923)

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.