English German Espagnol Portugese Chinese Japanese Arab Rusian Italian Norvegian Dutch Hebrew Polish Turkish Hindi
Accueil du site > 01 - Livre Un : PHILOSOPHIE > LIVRE UN - Chapitre 02 : Matière à philosopher ? > Physique et Philosophie, pour le physicien-philosophe Cohen-Tannoudji

Physique et Philosophie, pour le physicien-philosophe Cohen-Tannoudji

lundi 11 octobre 2021, par Robert Paris

Physique et Philosophie, pour le physicien-philosophe Cohen-Tannoudji

Le physicien Gilles Cohen-Tannoudji explique dans son ouvrage « La Matière-Espace-Temps » que sa démarche est aussi bien scientifique que philosophique :

« Certaines phrases ou paragraphes dans ce livre sembleront peut-être s’apparenter autant à la philosophie qu’à la physique des particules ; c’est que, selon nous, la philosophie est présente dans la physique. Et la réciproque est vraie. »

Gilles Cohen-Tannoudji expose l’importance de la révolution quantique dans "Les constantes universelles" :

« On dit souvent que la constante de Planck a fait apparaître du discontinu dans la matière ; en quoi elle aurait subitement et durablement dérouté les physiciens. En réalité, le discontinu que découvre le physicien allemand affecte non la matière mais les interactions, les forces. Et voilà la surprise la plus considérable ! Car enfin, même si elle suscitait au début de ce siècle encore bien des débats, l’hypothèse atomique, qui n’est rien d’autre que la discontinuité de la matière, ne présentait pas un caractère de nouveauté radicale ; elle était déjà sous-jacente à la thermodynamique, et l’on vient de rappeler comment elle avait déjà guidé bien des physiciens parmi les plus éminents et permis d’obtenir des résultats remarquables. Mais une discontinuité logée dans ce que nous appelons aujourd’hui les interactions, c’est-à-dire dans les forces, voilà qui apparaissait beaucoup plus difficile à admettre et qui provoqua une véritable "crise" de la pensée physique ! (...) On découvrait la nécessité d’introduire le discontinu dans une "interaction". Il s’agit là non d’un concept, mais de ce que j’appellerais "une catégorie" qui désigne "à vide", tout ce qui concourt à la formation d’une structure, à son évolution, à sa stabilité ou à sa disparition. (...) Selon la physique classique, l’émission et l’absorption de lumière par la matière s’effectuent de façon absolument continue. La quantité d’énergie lumineuse doit donc s’écouler, tel un fluide, continûment. Or, Planck s’aperçut que le rayonnement émis par une enceinte fermée (...) s’effectue de manière discontinue, par valeurs "discrètes", par "quanta". (...) Il s’agissait d’une révolution si radicale dans la pensée physique que Planck a d’abord reculé devant ses conséquences, et qu’il a fallu toute l’audace du jeune Albert Einstein pour interpréter h comme introduisant du discontinu dans les interactions. »

Article « Le réel, à l’horizon de la dialectique » de Gilles Cohen-Tannoudji :

« La portée vraiment universelle de la découverte de Planck et Einstein (celle des quanta) lui vient de ce que le caractère discontinu n’affecte pas seulement le rayonnement le rayonnement électromagnétique mais encore l’ensemble des interactions : dans tout l’univers, il n’y a pas d’interaction qui ne mette en jeu une action au moins égale à la constante de Planck h. (…) L’irruption du discontinu dans l’action nous contraint à renoncer définitivement à une description causale et déterministe des processus mettant en jeu des actions du même ordre de grandeur que le quantum d’action. L’absorption ou l’émission d’un photon par un atome qui change de niveau d’énergie, la désintégration spontanée d’un noyau radioactif ou d’une particule instable, une réaction particulaire provoquée dans une expérience auprès d’un accélérateur sont des processus que nous devons renoncer à décrire individuellement de manière déterministe. Il nous faut les intégrer à des ensembles statistiques descriptibles en termes de probabilités. (…) Comme l’a dit Léon Rosenfeld, « probabilité ne veut pas dire hasard sans règle, mais juste l’inverse : ce qu’il y a de réglé dans le hasard. Une loi statistique est avant tout une loi, l’expression d’une régularité, un instrument de prévision. »

Gilles Cohen-Tannoudji dans « La Matière-Espace-Temps » :

« L’irréversibilité reste au cœur des phénomènes physiques, même en théorie quantique relativiste. » C’est l’irréversibilité qui fait de la matière, de la vie et de la société des produits historiques, comme le physicien-chimiste Ilya Prigogine s’est acharné à le démontrer. Si Einstein a montré que le temps n’est pas définissable par un écoulement continu, c’est lya Prigogine qui a souligné qu’il ne l’est pas non plus par une transformation réversible. Prigogine explique dans « Temps à devenir » que le temps est marqué par la fondation de structures issues du désordre et que « Les phénomènes irréversibles, loin d’être (...) le chemin vers le désordre, ont au contraire un rôle constructif extraordinaire. »

Lire aussi « Physique et matérialisme dialectique », d’après le physicien Cohen-Tannoudji

Qu’est-ce que la matière aujourd’hui par Cohen-Tannoudji

À propos de Remarque sur l’idée de complémentarité, de Ferdinand Gonseth, de Gilles Cohen-Tannoudji

Actualité de la philosophie de Ferdinand Gnonseth

Pourquoi la physique quantique nous pose autant de problèmes philosophiques ?

Physique quantique et philosophie

La Philosophie et la Physique au 20ème siècle

Gilles Cohen Tannoudji

Avertissement : ce texte ne doit pas être copié dans un but lucratif.

Deuxième avertissement : ce texte est une traduction par nos soins de l’écrit en anglais :

Lire le texte en anglais

Troisième avertissement : dans ce texte Cohen-Tannoudji rapporte le point de vue anti-dualiste qui tranche en faveur des ondes alors que notre point de vue antidualiste tranche en faveur des corpuscules. Lire ici sur ce point

INTRODUCTION

La célébration en 2005 du centenaire de « l’année miraculeuse » au cours de laquelle Einstein a produit ses articles sur les quanta d’énergie, sur le mouvement brownien et sur la relativité restreinte a permis de dresser un bilan global de la contribution de la physique du 20ème siècle à la connaissance humaine. Il faut reconnaître que cette contribution est impressionnante. La physique contemporaine a rendu disponible ce qui est connu sous le nom de modèle standard, à savoir un ensemble de théories efficaces qui, à l’aide d’un ensemble fini de paramètres ajustables, conduisent à un accord acceptable avec toutes les données expérimentales ou observationnelles sur la structure microscopique de la matière et sur l’évolution de l’univers.

L’étude de la structure microscopique de la matière est l’objectif de la physique des particules élémentaires et des interactions fondamentales. Cette partie de la physique est l’héritière de la conception atomiste des philosophes grecs antiques, selon laquelle toutes les formes de la matière sont déterminées par les arrangements combinatoires d’un grand nombre de constituants infinitésimaux et irréductibles qui existent dans un petit nombre d’espèces différentes, et, en tant que tel, elle a des implications philosophiques de grande envergure. Dans ce domaine, la norme modèle est constitué, d’une part, par la chromodynamique quantique (QCD), la théorie de les interactions fortes des quarks et des gluons, et, d’autre part, par la théorie électrofaible des interactions électromagnétiques et faible des quarks, leptons, intermédiaires et bosons de Higgs. Le cadre théorique de cette partie du modèle standard est la théorie quantique des champs (1) qui réalise la fusion de la physique quantique et de la relativité restreinte.

L’étude de l’univers dans son ensemble est l’objectif de la cosmologie, domaine qui, jusqu’à récemment, appartenait plutôt à la philosophie qu’à la science. Ce n’est pas le moindre mérite de la physique du 20ème siècle d’avoir fourni à ce domaine une base scientifique à travers la théorie de la relativité générale d’Einstein (2). Ce cadre théorique a permis de rassembler les données d’observation dans un modèle standard cosmologique, qu’on appelle modèle du big bang.

Les modèles standards de la physique des particules et de la cosmologie impliquent tous deux une relation temps-énergie : dans la physique des particules, qui appartient à la physique quantique, cette relation est une conséquence des inégalités d’Heisenberg affirmant que le produit (le résultat de la multiplication) des indéterminations sur les mesures des variables de temps et d’espace, ainsi que le produit de celles sur la mesure des variables d’énergie et de quantité de mouvement, sont forcément plus grandes qu’un quantum d’action égal à la constante de Planck ; en cosmologie, selon le modèle du big bang, l’univers est en expansion, dilution et refroidissement après une singularité initiale, le big bang, lorsqu’il était infiniment dense et chaud ; dans son état primordial, l’univers est modélisé comme un fluide homogène dont la température, à savoir l’énergie cinétique moyenne de ses constituants, décroît comme l’inverse de la racine carrée du temps écoulé depuis le big bang. De ce fait, la physique des particules et la cosmologie acquièrent, par leur convergence, une dimension temporelle fascinante : explorer le monde de l’infiniment petit avec une sonde à haute énergie revient à simuler, en laboratoire, les conditions régnant dans l’univers primordial, peu après le big bang, la température correspondant à l’énergie de la sonde. La représentation de l’univers que les modèles standards de la physique des particules et de la cosmologie nous offrent est celle d’un univers en évolution, en devenir, à partir d’une phase primordiale où toutes les interactions et particules ont été unifiées à l’état dans lequel il peut maintenant être observé à travers une longue séquence de transitions de phase dans laquelle les interactions se différencient, les particules acquièrent leurs masses, des symétries se brisent, de nouvelles structures se forment, de nouveaux états de la matière émergent. Dans cette exploration, on doit s’appuyer sur les méthodes de la physique statistique, domaine dans lequel d’importantes questions philosophiques se posent. En tout cas, encore une fois, la physique prend pied dans un domaine qui appartient par excellence à la philosophie, à savoir la cosmogonie (3).

L’objectif du présent chapitre est de présenter à un public de philosophes des sciences les implications philosophiques de la physique du 20ème siècle telles qu’elles sont comprises par les physiciens. Nous aurons à discuter les fondements du cadre théorique du modèle standard en rapport avec certaines questions philosophiques concernant la réalité, l’objectivité, la causalité et la complétude, la flèche du temps, le réductionnisme et le déterminisme. Pour cette discussion, nous nous appuierons fortement sur la contribution d’Einstein, non seulement parce qu’il a initié presque tous les développements de la physique du 20ème siècle, mais aussi parce que ses écrits épistémologiques (4), y compris sa critique aiguë de la physique quantique, fournissent des lignes directrices très utiles pour ceux qui veulent comprendre la philosophie de la physique contemporaine. Rappelons d’abord le programme de la mécanique rationnelle dont le but était de comprendre l’ensemble de la réalité physique en termes de mouvement de la matière, des objets, dans l’espace et le temps, et qui s’est développé depuis les travaux de Newton jusqu’à l’apogée de la fin du XIX ème siècle. Nous décrirons ensuite la crise conceptuelle profonde que ce programme a traversée au début du 20ème siècle, puis tenterons d’expliquer les profondes transformations des fondements conceptuels de la physique qu’appellent cette crise et qui sont validées par les succès des modèles standards. C’est cette validation par la confrontation de la théorie et de l’expérience qui nous permet d’atteindre une compréhension fiable des implications philosophiques de la physique moderne. Au début de ce chapitre, je tiens à m’excuser pour certains détails techniques dans les développements suivants qui peuvent sembler difficiles à suivre pour un non-spécialiste : en effet je crois que le prix à payer pour cette compréhension fiable, c’est avoir au moins conscience des enjeux réels des développements conceptuels qui ont conduit aux réalisations actuelles.

Les problèmes rencontrés par les fondateurs de la physique contemporaine étaient extrêmement difficiles en raison de leurs implications philosophiques de grande envergure. Pour résoudre ces problèmes, les physiciens ne pouvaient et ne voulaient s’appuyer sur aucun système philosophique préétabli, car l’adhésion même à un système aurait restreint le champ des possibles à la recherche d’une issue à la crise conceptuelle à laquelle ils étaient confrontés. Cette attitude envers les systèmes philosophiques, que j’adopterai dans le présent chapitre, est très bien exprimée par Einstein dans sa « Réponse aux critiques », incluse dans « Albert Einstein : Philosophe-Scientifique » :

« Le rapport réciproque de l’épistémologie et de la science est d’une nature assez remarquable. Elles dépendent l’une de l’autre. L’épistémologie, en l’absence de contact avec la science, devient un schème vide. La science sans épistémologie est – pour autant qu’elle soit alors seulement pensable – primitive et embrouillée. Cependant, à peine l’épistémologue, qui recherche un système clair, s’est-il frayé un chemin vers un tel système, qu’il est tenté d’interpréter le contenu de la pensée de la science dans le sens de son système et de rejeter tout ce qui n’y entre pas. Le scientifique, quant à lui, ne peut pas se permettre de pousser aussi loin son effort en direction d’une systématique épistémologique. Il accepte avec reconnaissance l’analyse conceptuelle de l’ ́epistémologie ; mais les conditions externes, qui interviennent pour lui au travers des faits de l’expérience, ne lui permettent pas de se laisser trop restreindre dans la construction de son monde conceptuel par l’adhésion à un système épistémologique quel qu’il soit. Il doit donc apparaître à l’épistémologue systématique comme une espèce d’opportuniste sans scrupule : il apparaît comme un réaliste dans la mesure où il cherche à décrire un monde indépendant des actes de la perception ; comme un idéaliste dès lors qu’il considère les concepts et les théories comme des libres inventions de l’esprit humain (elles ne peuvent être déduites logiquement du donné empirique) ; comme un positiviste s’il considère que ses concepts et ses théories ne sont justifiés que dans la mesure où ils fournissent une représentation logique des relations entre les expériences des sens. Il peut même apparaître comme un platonicien ou un pythagoricien s’il considère que le point de vue de la simplicité logique est un outil indispensable et effectif de la recherche. » (5)

Le programme rationnel de la mécanique

Le programme général de mécanique dite rationnelle, initié par les travaux de Galilée et Newton, marque, au lendemain de la Renaissance, ce que l’on peut appeler la naissance de la science moderne. Ce programme consiste à essayer de réduire l’ensemble de la physique à la mécanique, c’est-à-dire à l’étude du mouvement des objets matériels dans l’espace et le temps. Les deux notions de base du programme de mécanique sont le point matériel et la force, points de départ des deux chemins qui mènent aux concepts physiques actuels de la particule élémentaire et de l’interaction fondamentale. La notion de point matériel est une sorte de concept asymptotique : il correspond à l’objet matériel le plus simple dont le mouvement dans l’espace et dans le temps peut être déterminé selon le programme de la mécanique. Cela correspond évidemment à l’intuition atomistique des éléments élémentaires, ponctuels, sans structure, constituants de la matière, ce qui implique que le programme de la mécanique finira par converger avec la conception atomiste du monde. Le concept de force, d’autre part, est en quelque sorte l’angle mort du programme. En effet, en mécanique rationnelle, les forces sont censées être données, elles ne font l’objet d’aucune dérivation théorique, pour utiliser une terminologie courante, « je n’avance pas d’hypothèses » (« hypotheses non fingo » dit Newton), elles peuvent agir instantanément à distance. En mécanique mathématisée, les forces sont souvent prises comme dérivant d’un potentiel. Le programme de mécanique peut alors être réduit aux deux questions réciproques suivantes :

- Étant donné un système de points matériels, et de quelques forces, quel mouvement ces forces vont-elles induire pour le système de points matériels (à condition que les conditions initiales soient fixées) ?

- Compte tenu du mouvement de certains points matériels, quelles sont les forces qui ont donné naissance à ce mouvement ?

L’immense succès du programme de la mécanique, notamment lorsqu’il fut appliqué au mouvement des planètes, est incontestablement due à l’efficacité de ses méthodes mathématiques. Newton est bien le fondateur, en même temps et, indépendamment de Leibniz, de ce qu’on appelle maintenant le calcul différentiel et intégral, ce qui lui a permis de développer le formalisme mathématique de la mécanique. Sous l’action des continuateurs de Newton, comme Euler, Lagrange, Hamilton et Jacobi, la mécanique rationnelle s’est considérablement développée et a atteint, à la fin du XIXème siècle, une véritable apogée. Il est intéressant de noter qu’en dépit de la crise qu’elle a traversée au début du 20ème siècle, l’ambition de la mécanique reste un véritable fil conducteur de principe de recherche en physique théorique contemporaine.

Destiné au départ à rendre compte du mouvement de points matériels simples, la mécanique s’est immédiatement attaquée à la description des mouvements les plus généraux affectant des objets matériels de toute nature. Après le point matériel, l’objet le plus simple que l’on puisse considérer est le corps solide rigide, dont le mouvement est divisé en mouvement de translation de son centre de masse, et un mouvement de rotation autour de ce centre de masse. La mécanique s’étend alors à la dynamique des fluides, que l’on décompose par la pensée en cellules infinitésimales comparables à des points matériels. Il apparaît ainsi qu’avec les concepts du point matériel et de la force, la mécanique a vocation à s’étendre à la description de la somme totale de tous les phénomènes physiques, à condition que l’on effectue l’extension de son applicabilité à des phénomènes comme la lumière, l’électricité, le magnétisme ou la chaleur.

Une telle extension de la mécanique nécessitait évidemment des explorations empirique et expérimentale mais aussi des améliorations significatives du formalisme de la mécanique qu’elle doit aux continuateurs de l’œuvre de Newton mentionnés précédemment. Lagrange révolutionne donc la mécanique en l’axiomatisant dans ce qu’il appelle la mécanique analytique. Il unifie mathématiquement la mécanique, en établissant un cadre formel la rendant capable de résoudre tous les problèmes de mécanique, y compris la statique et la dynamique, pour les solides ou les fluides. Cette reformulation de la mécanique attribue un rôle central au concept d’énergie, que l’on décompose en énergie cinétique et énergie potentielle ; les équations du mouvement sont dérivées du principe de moindre action qui avait été postulé d’une manière heuristique par Maupertuis, et a été formalisé de manière rigoureuse par Euler, Lagrange et Hamilton. L’intérêt de cette formulation de la mécanique tient à sa nature systématique : il fournit une véritable méthodologie, comportant des règles strictes, qu’il suffit d’observer rigoureusement pour dériver les équations du mouvement pour tout système matériel. Comme cette méthodologie reste, malgré certaines adaptations et généralisations, au cœur de la physique contemporaine, cela vaut la peine de prendre le temps de discuter de ses principaux concepts et de ses étapes.

Un degré de liberté est un paramètre, dépendant du temps, qui entre dans la définition de la position d’un objet matériel dans l’espace. Un point matériel, par exemple, dépend de trois degrés de liberté, ses trois coordonnées dans un certain référentiel, et donc un système de N points matériels indépendants dépend de 3 fois N degrés de liberté. Un fluide (liquide ou gazeux) est un système dépendant d’un nombre infini de degrés de liberté, coordonnées des cellules infinitésimales qui la composent et qui sont comparables à des points matériels. L’état d’un fluide peut alors être défini à l’aide d’une ou plusieurs fonctions de ces coordonnées, qu’on appelle un champ. En tant que systèmes dépendant d’un infini nombre de degrés de liberté, les champs peuvent donc en principe être intégrés dans le programme de mécanique. Notons cependant qu’à ce stade, la notion de champ n’est pas un concept primitif : c’est un concept secondaire permettant de rendre compte de l’état d’un système matériel complexe donné.

L’état d’un système dépendant de N degrés de liberté est représenté par un seul point dont les coordonnées, dans un espace abstrait à N dimensions appelé l’espace de configuration, sont les N degrés de liberté. Pour un tel système, le programme de la mécanique rationnelle consiste à déterminer, à l’aide des équations du mouvement et des conditions initiales, la trajectoire du point représentant le système dans l’espace de configuration.

La formulation lagrangienne de la mécanique consiste à faire dériver les équations du mouvement d’un principe variationnel, connu sous le nom de principe de moindre action. En termes mathématiques, ce principe stipule que la trajectoire suivie dans l’espace de configuration par le point représentatif d’un système est celui qui minimise une certaine intégrale, appelée l’intégrale d’action, l’intégrale dans le temps d’une fonction appelée le Lagrangien. Ce lagrangien, qui a des dimensions d’énergie, est, pour le plus simple des systèmes mécaniques, égal à la différence entre l’énergie cinétique et l’énergie potentielle.

La formulation lagrangienne de la mécanique repose sur la puissante méthode variationnelle qui consiste à élucider la dynamique d’un processus physique, à considérer l’ensemble de toutes les manières que, virtuellement, le processus peut suivre et, en établissant un critère sur la manière possible, de déterminer celle réellement suivie.

Un autre avantage de la formulation lagrangienne est qu’elle met particulièrement bien en évidence la coordination entre relativité, propriétés de symétrie (6) et lois de conservation. Le principe galiléen de relativité est le véritable principe fondateur de toute la mécanique, car il joue un rôle essentiel en permettant une approche objective de la réalité physique : sont objectifs les aspects de la réalité qui sont maintenus quand on change le référentiel, c’est-à-dire lorsqu’on change le point de vue à partir duquel cette réalité est observée. Encore faut-il définir ce qui « est maintenu » lorsque le changement du cadre de référence a lieu. On a alors recours à deux concepts : d’une part l’ invariance (ou symétrie ), c’est-à-dire le fait que les équations du mouvement ne change pas quand on effectue certaines transformations et, d’autre part, la conservation au cours du temps de certaines quantités. La formulation lagrangienne de la mécanique permet d’établir un théorème fondamental, dû à Emmy Noether, qui rend mathématiquement compte de cette coordination : à n’importe quelle propriété de la relativité est associée une certaine symétrie du Lagrangien, c’est-à-dire une certaine invariance du Lagrangien par rapport à certaines transformations, et la loi de conservation au cours du temps de certaines quantités. En mécanique, le théorème de Noether s’applique :

- à la relativité du temps, en relation avec l’invariance en ce qui concerne les translations de temps et la conservation de l’énergie,

- à la relativité de l’espace, en relation avec l’invariance en ce qui concerne les translations d’espace et la conservation de la quantité de mouvement,

- et à l’isotropie de l’espace, en relation avec l’invariance en ce qui concerne les rotations et la conservation du moment cinétique.

La crise de la Mécanique

Grâce à l’amélioration de son formalisme, la mécanique analytique a renforcé l’espoir qu’on puisse fonder sur elle une conception scientifique capable de rendre compte de l’ensemble du domaine des phénomènes physiques observables. Mais pour que cette perspective prenne forme, il était nécessaire d’élargir son champ d’application à des phénomènes qui semblaient jusqu’ici étrangers à celui-ci. Les extensions de la mécanique se répartissent en deux grandes catégories en ce qui concerne ses deux concepts de base, le point matériel et la force. En lien avec le concept de point matériel sont les phénomènes qui ont pu être intégrés en mécanique grâce à l’hypothèse atomistique, comme les phénomènes thermiques, la thermodynamique et même la chimie.

En relation avec le concept de force, ce sont les phénomènes électriques et magnétiques que la théorie électromagnétique de la lumière développée par Maxwell a permis d’associer avec des phénomènes optiques. Essentiellement, ces extensions de la mécanique ont été réalisées par la physique du 20ème siècle, mais seulement au prix d’une restructuration complètement ses fondations.

Au début, la crise a été signalée par quelques problèmes, à savoir certains phénomènes que l’on n’a pas pu expliquer quantitativement au moyen des modèles mécanistes ou d’inspiration mécaniste disponibles. A ces énigmes appartiennent l’effet photoélectrique qui ne rentrait pas dans le cadre de la théorie de Maxwell de l’électromagnétisme ; l’avance du périhélie de Mercure, un effet en désaccord avec les prédictions de la théorie de la gravitation de Newton ; la chaleur spécifique des substances polyatomiques qui remettaient en cause la théorie cinétique de la matière de Maxwell, visant à unifier la mécanique à la conception atomistique ; le spectre du rayonnement du corps noir, qui ne pouvait pas être décrit avec les outils de la thermodynamique et de l’électromagnétisme.

La crise a également été alimentée par des découvertes expérimentales inattendues comme celles des rayons X par Roentgen en 1895, de l’électron par Thomson en 1897, et de la radioactivité par Becquerel en 1896 et Pierre et Marie Curie en 1898. La découverte de la radioactivité était la plus intrigante, car, bien qu’elle suggère que les atomes existent réellement, elle a également suggéré qu’ils ne sont pas éternels et qu’ils peuvent subir un changement d’espèce par un processus de transmutation.

En plus des énigmes et découvertes mentionnées ci-dessus, le programme de la mécanique a été confronté à des questions conceptuelles qui l’ont conduit à un état de crise.

Cette crise concernait les trois domaines de la physique statistique, relativiste et quantique que nous allons passer en revue dans les sections suivantes.

La physique statistique et le problème de la réalité des atomes

On peut attribuer à Carnot le fondement de la thermodynamique théorique : dans un ouvrage passé presque inaperçu de 1824, « Réflexions sur la puissance motrice du feu » (7) , il fait l’hypothèse que la chaleur est un fluide, et partant d’une analogie entre la puissance de la chaleur et celle d’une cascade, il établit ce que l’on peut considérer comme l’origine du second principe de la thermodynamique. Pour qu’un moteur thermique puisse donner de l’énergie, il faut une différence en température entre un corps chaud et un corps froid, et la puissance de tout moteur thermique est nécessairement inférieur à un (la puissance maximale étant égale au rapport de la différence des deux températures à la température la plus élevée). Mais, en 1831, il remet en question l’hypothèse du fluide calorifuge et un peu plus loin il énonce ce qui n’est autre que le premier principe de la thermodynamique (qu’il a énoncé après le deuxième !), le principe de conservation de l’énergie.

La formalisation complète de la thermodynamique est l’œuvre de Clausius qui énonce clairement les deux principes de la thermodynamique : le premier exprime la conservation de l’énergie et le second exprime, en termes d’augmentation de l’entropie, l’impossibilité du mouvement perpétuel du second type (qui consisterait à produire du travail à partir d’une seule source de chaleur). La tendance de la chaleur à passer par un chemin irréversible des corps chauds aux corps froids s’explique par ce second principe.

Après les travaux de Clausius, la thermodynamique semblait une théorie bien établie, mais ses relations avec la mécanique n’étaient pas claires. Si l’énergie semblait se prêter à une interprétation mécaniste, d’autres concepts de la thermodynamique comme la pression, la température ou l’entropie ne semblaient pas faciles à intégrer dans le cadre de la mécanique. C’est grâce à la conception atomiste de la matière et au recours à des méthodes statistiques que la synthèse de la thermodynamique et de la mécanique a eu lieu à travers la théorie cinétique de la matière et la thermodynamique statistique développées par Maxwell et Boltzmann.

La théorie cinétique de la matière a permis, grâce aux méthodes statistiques, de déterminer certaines caractéristiques des constituants hypothétiques de la matière appelés atomes ou molécules, et de commencer à relier les quantités physiques de la thermodynamique aux notions de mécanique. Un lien est ainsi établi entre les lois microscopiques de la collision élastique de molécules et le premier principe de la thermodynamique, établi au niveau macroscopique, celui de la conservation de l’énergie.

La température est interprétée en termes d’agitation moléculaire : elle est proportionnelle à l’énergie cinétique moyenne des molécules, à savoir la moitié du produit de leur masse par la valeur moyenne du carré de leur vitesse. Le facteur de proportionnalité est la constante de Boltzmann k. C’est Boltzmann qui achève la synthèse de la thermodynamique et de la mécanique en établissant une interprétation mécaniste de l’entropie à la base du deuxième principe : celle de la constante Boltzmann quiagit comme un facteur de proportionnalité entre l’entropie S et le logarithme du nombre W de configurations microscopiques, appelées complexions, donnant lieu à un état macroscopique,

S = k Ln W.

L’entropie donne ainsi une mesure du désordre qui tend à augmenter avec le temps pour un système isolé, et le deuxième principe de la thermodynamique rend compte du fait que, dans la mesure où l’aléatoire est à l’œuvre, il est probable qu’un système présentant un certain ordre ira vers le désordre, qui offre tant d’autres possibilités (8).

Dans une conférence destinée à un large public, sous le titre « Molécules », Maxwell a présenté le recours aux méthodes statistiques comme un pis-aller auquel nous sommes contraints par l’imperfection de nos moyens de connaissance et d’observation : « Ainsi, la science moléculaire nous enseigne que nos expériences ne peuvent jamais nous donner plus que des informations statistiques, et qu’aucune loi qui en découle ne peut prétendre à l’absolue précision (9).

Pour atteindre un monde « où tout est certain et immuable », Maxwell dit qu’il faut passer « de la contemplation de nos expériences à celle des molécules elles-mêmes, pour quitter le monde du hasard et du changement. Cela marque une grave difficulté conceptuelle : si des molécules existent, elles sont si petites qu’elles ne seront jamais observables et notre connaissance à leur sujet sera toujours basée sur des hypothèses statistiques, c’est-à-dire incomplètes. Cette difficulté a conduit certains philosophes ou physiciens comme Mach et Oswald à adopter une position positiviste et à rejeter la conception atomiste.

La sortie de cette difficulté a nécessité, d’une part, de doter les méthodes statistiques d’un terrain théorique plus solide et, d’autre part, de découvrir des manières de rendre les atomes ou molécules observables expérimentalement.

Au tout début du 20 ème siècle, en 1902 précisément, il apparaît, à travers les travaux de Gibbs et encore une fois du tout jeune Einstein (10), que la méthodologie statistique n’est pas forcément un pis-aller mais que sa portée est peut-être fondamentale et universelle. Dans l’avant-propos de ses Principes élémentaires de mécanique statistique, Gibbs explique le changement de point de vue majeur qu’il propose pour le recours aux méthodes statistiques :

« On peut imaginer un grand nombre de systèmes de même nature, mais qui différent par la configuration et les vitesses qu’ils ont à un instant donné, et qui différent non seulement de manière infinitésimale, mais peuvent le faire de manière à embrasser toutes les combinaisons imaginables de configuration et de vitesses ; et ici, nous pouvons poser le problème, non pas de suivre un système particulier dans sa succession de configurations, mais de déterminer comment le nombre de systèmes sera réparti entre les différentes configurations et vitesses à tout moment requis, lorsque la distribution a été donnée à un moment donné. » (11).

L’avantage de procéder ainsi est que, comme Gibbs le dit un peu plus loin :

« Les lois de la mécanique statistique s’appliquent aux systèmes conservateurs de n’importe quel nombre de degrés de liberté, et sont exactes. Cela ne les rend pas plus difficiles à établir que les approximations des lois pour des systèmes à un grand nombre de degrés de liberté, ou pour des classes limitées de tels systèmes.

C’est même plutôt l’inverse, car notre attention n’est pas détournée de l’essentiel par les particularités du système considéré, et nous ne sommes pas obligés de nous assurer que l’effet des quantités et les circonstances négligées seront négligeables dans le résultat. »

Les articles publiés par Einstein en 1902, sans être cités dans le livre de Gibbs, procèdent de son effort constant d’élaborer les principes fondamentaux à travailler dans une théorie physique, plus précisément en physique statistique, l’objet principal de ses préoccupations à ce moment-là, tout en gardant un contact aussi étroit que possible avec l’expérience. Pour Einstein, comme pour Gibbs, les concepts de physique statistique s’appliquent à des ensembles de systèmes.

Einstein considère les ensembles que l’on appelle aujourd’hui, à la suite de Gibbs, canoniques, c’est-à-dire des ensembles à température fixe. Einstein s’efforce aussi de transcender la mécanique et de découvrir les lois statistiques les plus générales qui ne dépendent pas de la modélisation mécanique.

. L’effort d’Einstein procède du même processus de pensée pour montrer que les fluctuations, c’est-à-dire des écarts par rapport aux lois de l’équilibre thermodynamique, pouvant affecter les « petits systèmes » visibles au microscope, sont accessibles à l’observation des expérimentateurs, ce que ni Boltzmann, ni Gibbs ne croyaient. Il suppose que l’ordre de grandeur de ces perturbations est lié à la constante de Boltzmann k et, depuis 1900, envisage des moyens de déterminer les caractéristiques des atomes (leur nombre, leurs tailles), à partir de l’observation de ces fluctuations. En 1905, il réussit à élaborer une théorie du mouvement brownien qui pourrait, en principe, être testée expérimentalement. Quand l’existence d’atomes a été clairement établie, après que les expériences aient été menées conformément à cette théorie par Jean Perrin en 1908, cette réalisation était considérée comme un véritable triomphe de la mécanique rationnelle, fournissant la base scientifique de la conception de l’atomistique. .

La relativité restreinte, les particules et les champs relativistes

Une autre difficulté conceptuelle de la mécanique rationnelle est liée à la controverse concernant la nature de la lumière : la lumière est-elle faite d’ondes ou de corpuscules ? Cette controverse était l’un des sujets de préoccupation des théoriciens à la fin du XIXe siècle. Certes, Newton avait proposé un modèle corpusculaire pour la lumière, mais la découverte des phénomènes d’interférences et de diffraction avait fait pencher la balance du côté d’une interprétation ondulatoire de la lumière. La théorie du champ électromagnétique développée par Faraday, Maxwell et Heaviside, a fortement renforcé cette interprétation lorsqu’Hertz a mis en évidence le fait que les ondes du champ électromagnétique se propagent précisément à la même vitesse que la lumière : la propagation de la lumière était alors comparable à la propagation des ondes du champ électromagnétique. Mais cette conception soulevait de difficiles questions d’ordre théorique : on n’avait jusqu’ici jamais rencontré de vagues qui ne soient pas portées par un certain milieu, ou un certain fluide (on savait qu’il n’y a pas d’ondes de son dans le vide) ; quel était alors le médium « porteur des ondes lumineuses » ? On postulait ainsi l’existence d’un fluide mystérieux, appelé éther, qui était censé transporter les ondes lumineuses. Mais alors, un tel médium devait être descriptible au moyen de la mécanique rationnelle, il devait induire des effets observables, comme « un vent d’éther » dû au mouvement de la terre. Cependant, tous les efforts théoriques et expérimentaux pour établir l’existence de ce fluide mystérieux paraissait vaine.

On peut dire qu’en 1905 la physique des interactions électromagnétiques était en pleine crise. L’échec des expériences de Michelson et Michelson et Morley, visant à tester l’existence d’un vent d’éther, a fait l’objet de diverses interprétations.

Indépendamment du modèle de l’éther, il a été reconnu que les équations de Maxwell ne sont pas invariantes pour les transformations dites galiléennes, qui traduisent mathématiquement le principe de relativité, principe fondamental en mécanique selon lequel les lois de la physique s’expriment de la même manière dans deux référentiels d’inertie (c’est-à-dire en l’absence de toute force extérieure l’un par rapport à l’autre) en mouvement relatif rectiligne et uniforme. C’est Lorentz qui a découvert les transformations, appelées par Poincaré « transformations de Lorentz », et qui a Montré qu’elles forment, avec les rotations spatiales, un groupe qui laisse invariant les équations de Maxwell.

Cependant, la signification de cette invariance n’a pas été comprise et ses implications telles que la contraction de la longueur et la dilatation du temps sont apparues très mystérieuses.

En 1905 Poincaré et Einstein ont produit presque simultanément et indépendamment leurs travaux sur la relativité. L’œuvre de Poincaré, fondée sur l’invariance de Lorentz des équations de Maxwell, modélisait l’électron comme un objet étendu, subissant la « pression d’éther » sous la forme d’une contraction dans le sens de son mouvement. Celle d’Einstein, la théorie de la relativité, qui élimine l’idée même d’éther, est très différente : elle affecte la partie la plus fondamentale de la mécanique, à savoir la cinématique, la doctrine même de l’espace et du temps. Einstein montre d’abord qu’en raison du temps fini que met cette lumière (ou tout autre signal éventuellement porteur d’informations) à se propager, il est impossible de décider de façon absolue de la simultanéité de deux événements instantanés spatialement séparés. Il réinterprète ainsi la vitesse « c » de la lumière dans le vide comme une constante universelle traduisant l’absence d’interaction instantanée, et il repense la mécanique en ajoutant au principe de relativité le principe de l’invariance de la vitesse de la lumière. Cette refondation implique que l’on abandonne le caractère absolu du temps (deux horloges en mouvement relatif ne marquent pas le même temps) et le caractère absolu de la métrique spatiale (deux règles identiques en mouvement relatif ne mesurent pas la même longueur). Selon l’expression suggérée quelque temps après par Minkowski, le temps dans cette nouvelle cinématique doit être considéré comme la quatrième dimension de l’espace-temps, un continuum dont les trois autres dimensions sont celles de l’espace. Dans cette nouvelle cinématique, les transformations de Lorentz expriment la manière dont les coordonnées spatio-temporelles changent dans un mouvement rectiligne avec une vitesse nécessairement inférieure ou égale à la vitesse de la lumière.

Peu de temps après cet article historique, toujours en 1905, Einstein établit le principe de l’inertie de l’énergie, qui se traduit dans sa formule la plus célèbre E = mc². Une matière de masse m considérée comme ponctuelle, se déplaçant dans un mouvement rectiligne uniforme a une énergie E et a une impulsion p qui forment un vecteur à quatre dimensions de l’espace-temps, appelé le quadrivecteur énergie-impulsion (l’analogue d’un trivecteur dans l’espace tridimensionnel de la mécanique classique).

La célèbre formule d’Einstein est un cas particulier de la relation entre la masse, l’énergie et la quantité de mouvement, connue sous le nom de masse inerte de particule réelle ou « relation de dispersion » qui exprime le fait que la norme du quadrivecteur énergie-impulsion (l’analogue de la longueur d’un trivecteur d’un espace à trois dimensions), égale à mc², est invariante pour les transformations de Lorentz (de la même manière que la longueur d’un trivecteur est invariante par rotations spatiales).

Dans un référentiel spatio-temporel où le point matériel est au repos, c’est-à-dire là où sa quantité de mouvement s’évanouit, la norme du quadrivecteur réduit au repos l’énergie ou l’énergie propre, qui est donc égale à mc². Cette relation entre masse et énergie est une véritable nouveauté de la relativité : en mécanique classique une particule au repos n’a pas d’énergie puisque la seule énergie qu’un point matériel peut avoir est son énergie cinétique qui s’annule lorsque la vitesse s’annule, alors que, en relativité, même au repos (vitesse nulle), une particule a une énergie propre (mc²), qui, vue la grandeur considérable de la vitesse de la lumière c, est énorme. Il est intéressant de noter que la relation masse-énergie permet la valeur zéro pour la masse, ce qui est aussi une nouveauté par rapport à la mécanique classique, pour laquelle que pourrait signifier un point matériel de masse nulle ?

En relativité, une particule sans masse n’est jamais au repos, elle se déplace, tout comme la lumière, à la vitesse de la lumière dans n’importe quel référentiel ; elle a une énergie et une quantité de mouvement égales à l’énergie divisée par c. En un sens on pourrait dire que, alors qu’en mécanique classique la masse précède l’énergie (il n’y a pas d’énergie sans masse), en relativité l’énergie précède la masse (il n’y a pas de masse sans énergie).

Note du traducteur : pour ceux qui connaissent ces formules, on écrit que : le carré de l’énergie E² égale p²c² + m²c4 où E est l’énergie et p est l’impulsion. Et cette formule est vraie même si la masse est nulle.

Avec cette cinématique relativiste, impliquant l’invariance de Lorentz pour tout phénomène, il devient possible d’intégrer la théorie électromagnétique dans le cadre renouvelé de la mécanique. Dans ce cadre, le nouveau concept fondamental est la notion de champ, dont le champ électromagnétique est un archétype. Un champ est un objet physique, avec un nombre infini de degrés de liberté, étendu à l’ensemble de l’espace-temps : il correspond à la définition, en chaque point de l’espace et à tout instant du temps, d’une fonction ou d’un ensemble de quelques fonctions. Ainsi conçu, le champ électromagnétique n’a pas besoin d’éther non spécifié ou de tout milieu porteur ; il est lui-même le siège de phénomènes oscillatoires liés à la propagation de la lumière.

Le champ électromagnétique porte de l’énergie et une quantité de mouvement égale à l’énergie divisée par c, on peut donc dire que c’est un champ sans masse. Une particule comme l’électron a une propriété spécifique, appelée sa charge électrique, ce qui le rend capable de produire un champ électromagnétique et de réagir à l’action d’un tel champ. L’interaction électromagnétique ne se propage pas instantanément à distance : une particule chargée en mouvement produit une variable champ électromagnétique dont les variations peuvent par la suite mettre en mouvement un autre particule spatialement séparée de celui-ci.

La relativité généralisée, la gravitation et la cosmologie

Einstein s’est alors emparé de ce concept de champ et a essayé d’en faire le concept le plus fondamental de l’ensemble de la physique. Ses recherches se sont ensuite portées sur la théorie de la relativité généralisée. Ne voyant aucune raison pour que le principe de relativité soit restreint aux changements de référentiels inertiels, il a cherché à étendre ce principe aux changements de référentiels les plus généraux. Il a réussi à atteindre cet objectif grâce à un détour par la théorie de la gravitation : en constatant que l’accélération produit par gravitation sur un corps matériel ne dépend pas de la masse de ce corps, il a montré qu’un changement de référentiel comportant une accélération équivaut à un champ gravitationnel d’accélération opposée. Plus généralement, il a établi que tout changement de référentiel peut, localement, être remplacé par un certain champ gravitationnel, et que, réciproquement, tout champ gravitationnel peut, localement, être remplacé par un certain changement de base de référence. Dans cette phrase, l’adverbe « localement » signifie que l’équivalence entre le champ gravitationnel et le changement de repère n’est possible que dans une région infinitésimale de l’espace-temps. Appliqué à la propagation de la lumière, ce raisonnement implique que la lumière subit l’action de la gravitation, qui, rappelons-le, est l’accélération.

Pour sauvegarder l’invariance de la vitesse de la lumière, Einstein a été amené à postuler que l’effet de la gravitation est une modification de la métrique de l’espace-temps : la gravitation influence la longueur des règles de mesure et la marche des horloges, de telle sorte que la vitesse de la lumière reste constante ! Ainsi la généralisation de la théorie de la relativité conduit à une nouvelle théorie de la gravitation universelle, de nature géométrique : la matière et le gravitationnel qu’il induit sont remplacés par un espace-temps dont la métrique est un domaine universel. En 1915, Einstein mettait en équation ce chef-d’œuvre, en termes de théorie de la gravitation universelle, qui englobe celle de Newton, se réduit à lui à l’approximation des champs faibles, permet de résoudre le mystère du mouvement de le périhélie de Mercure, et enfin, prédit de nouveaux effets, tels que la déviation de la lumière par les étoiles lourdes, qui a été observée lors de l’éclipse solaire de 1919.

Immédiatement après avoir élaboré la théorie de la gravitation universelle basée sur la relativité générale, Einstein a essayé de l’appliquer à la cosmologie. Il a d’abord remarqué que la théorie de la gravitation universelle de Newton n’est pas en harmonie avec l’observation selon laquelle la densité de la matière dans l’univers est en moyenne à peu près uniforme, alors qu’elle prédit plutôt une densité maximale d’étoiles en une sorte de centre et décroissant jusqu’à zéro loin de ce centre : « un univers stellaire [qui] devrait être une île finie dans l’océan infini de espace » (12). Il montra ensuite que grâce au caractère non euclidien de la géométrie impliquée par la relativité générale, on peut concevoir un univers qui est fini et pourtant sans frontière.

La relativité et le problème de l’espace

Le titre de cette section est tiré de la cinquième annexe ajoutée par Einstein en 1952 à la quinzième édition de son livre « La Relativité », dans lequel il avait expliqué, dès 1917, relativité restreinte et générale pour un large public. Dans cette annexe, il exprime le souhait « de montrer que l’espace-temps n’est pas nécessairement quelque chose auquel on peut attribuer une existence séparée, indépendamment des objets réels de la réalité physique » (13) et enfin que « la notion d’’’espace vide’’ perd son sens ». Dans ce texte très dense, Einstein expose ses vues épistémologiques sur l’espace et le temps. Pour concevoir la réalité physique, il faut le concept d’événement et le concept d’objet matériel. Il note d’abord que « c’est juste la somme totale de tous les événements que nous entendons lorsque nous parlons de ’monde extérieur réel’ » et ensuite « qu’il [lui] apparaît, donc que la formation du concept d’objet matériel doit précéder nos concepts de temps et d’espace. Il commence par discuter de l’évolution de la conception de la matière, de l’espace et du temps à partir de la Mécanique newtonienne et jusqu’à la relativité restreinte et générale. En mécanique newtonienne, la réalité physique est pensée comme indépendante du sujet qui l’étudie, a été conçue comme consistant, au moins en principe, de l’espace et du temps d’une part, et des points matériels existants en permanence, se déplaçant par rapport à l’espace et au temps, d’autre part. L’idée de l’existence indépendante de l’espace et du temps peut être exprimée de façon drastique de cette manière : si la matière disparaissait, l’espace et le temps resteraient derrière (comme une sorte de scène pour le happening physique) (14).

Le passage de la mécanique classique à la relativité restreinte est caractérisé par la promotion de la notion de champ qui « devient un élément irréductible de la description, irréductible au même sens que le concept de matière dans la théorie des Newton. » Cependant cette évolution dans la description physique n’affecte pas l’idée de l’existence de l’espace (plus précisément cet espace avec le temps associé) comme une composante indépendante de la représentation. Aussi, même lorsqu’elles ont été rendues compatible avec la relativité restreinte, la théorie électromagnétique et le reste de la mécanique a encore besoin de la notion de points matériels, éventuellement porteurs de charges électriques.

Dans la théorie de la relativité générale, le concept de champ acquiert un statut plus important, car, sur la base de cette théorie, « L’espace, par opposition à « ce qui remplit l’espace », qui dépend des coordonnées, n’a pas d’existence. […] Si l’on imagine le champ gravitationnel […] supprimé, il ne reste absolument rien. […] il n’existe pas d’espace ’’vide de champ’’ » (15).

Physique quantique : de la découverte du quantum d’action à la mécanique quantique

L’introduction du quantum élémentaire d’action par Planck en 1900, dans sa formule tenant compte du spectre du rayonnement du corps noir, a initié une longue période de recherches et de vives controverses qui ont conduit à l’accord universel actuel sur le statut fondamental de la physique quantique. Certes, les implications du quantum d’action étaient très intrigantes : dès qu’un accord a été trouvé sur l’interprétation de la lumière, on a découvert, à travers la formule de Planck et son interprétation par Einstein en termes de quanta d’énergie, qu’elle a aussi une potentielle interprétation corpusculaire ; dès qu’il a été possible de rejeter clairement les objections positivistes contre la conception atomistique, on a découvert qu’en raison de leurs propriétés, les atomes ne peuvent pas être considérés comme des points matériels. Plus fondamentalement, en tant qu’éléments de discontinuité en action, la constante de Planck et la physique dans laquelle elle entre ont porté la crise de la mécanique à son paroxysme, car elles remettent en cause les deux piliers de toute l’entreprise scientifique, à savoir la causalité et l’objectivité. La causalité est remise en cause car, en mécanique classique, comme nous l’avons dit plus haut, les lois causales du mouvement dérivent d’un principe de moindre action, qui requiert impérativement la continuité d’action, et on ne sait pas l’appliquer s’il existe un quantum élémentaire d’action. L’objectivité est également remise en cause puisque, au niveau quantique, l’objet à observer est modifié, est transformé, par l’observation. Si l’on veut observer une structure microscopique avec une grande précision spatiale et temporelle (c’est-à-dire avec une faible marge d’erreur spatiale et temporelle), il faut lui reporter, pendant une certaine durée une certaine quantité d’énergie. Le produit de cette durée par cette énergie doit être au moins égal à la constante de Planck. Mais, comme la durée de la mesure ne doit pas dépasser la marge d’erreur temporelle tolérée, l’énergie nécessaire pour l’obtention d’un résultat de mesure sera au moins inversement proportionnelle à ce temps marge d’erreur. Certes, cette condition n’a aucune conséquence tant que l’on reste dans le domaine de la physique classique, c’est-à-dire lorsque les actions mises en jeu sont très grandes par rapport au quantum élémentaire d’action, mais dès qu’on veut explorer avec suffisamment de précision le monde atomique ou subatomique, il nous oblige à renoncer au préjugé implicite selon lequel il est toujours possible, au moins en principe, de ne pas tenir compte de la condition d’observation : dans sa préparation, comme dans ses résultats, toute l’expérience dans le monde microscopique dépend de façon si essentielle de ces conditions qu’elles doivent être prises en compte jusque dans le formalisme lui-même. Une telle contrainte semble remettre en cause la possibilité d’une description objective du monde microscopique.

La résolution d’une telle crise a nécessité une trentaine d’années d’essais et d’erreurs, de controverses, de nouvelles découvertes expérimentales et d’innovations conceptuelles pour ce qui s’ est appelé la mécanique quantique, comprenant un formalisme mathématique rigoureux et une interprétation physique. Bien que la découverte du quantum d’action ait place dans le domaine des rayonnements électromagnétiques, domaine non directement lié à la mécanique, et bien que les contributions d’Einstein, jusqu’au milieu des années 1920, concernaient principalement la théorie quantique du rayonnement, les fondateurs de la physique quantique se sont concentrés sur la « quantification » de la mécanique non relativiste des particules ponctuelles, reportant à une étape ultérieure la quantification de la théorie (relativiste) des champs.

La formalisation de la mécanique quantique s’est effectuée à un rythme effréné dans les années 1925 et 1926. C’est d’abord Heisenberg qui, en 1925 et en collaboration avec Born et Jordan, a développé une approche complètement nouvelle qui s’appelait la mécanique des matrices, qui associe aux grandeurs physiques observables des matrices obéissant ç des relations de commutation. De son côté, P. Dirac est arrivé par une autre démarche de pensée à une formalisation de ce qu’il appelait la mécanique quantique, (le titre de la thèse qu’il a défendue en 1926). C’est également en 1926 que Schrödinger développa, dans le but de faire comprendre la dualité onde-corpuscule de De Broglie, une troisième approche, appelée « mécanique ondulatoire », basée sur la « fonction d’onde » qui obéit à la désormais célèbre équation de Schrödinger.

Quelques temps plus tard, toujours en 1926, Schrödinger montra l’équivalence de sa démarche avec celle d’Heisenberg, ainsi que celle de Dirac. UN SEUL formalisme cohérent, fondé essentiellement sur l’équation de Schrödinger, commença ainsi à émerger, ce qui permit de rendre compte de manière précise des observations issues de l’expérimentation comme, par exemple, les effets Stark et Zeeman.

A ces avancées dans la formalisation, il convient d’ajouter deux contributions majeures concernant sa compréhension : l’interprétation probabiliste de la fonction d’onde suggérée par Max Born en juin 1926, et le principe d’indétermination énoncé par Heisenberg en 1927. Ainsi, à la fin des années 20, un consensus s’est dégagé sur un formalisme et une interprétation, dite « interprétation de Copenhague », qui permettait d’élucider les problèmes laissés ouverts par la physique classique et d’entreprendre une exploration systématique de l’univers quantique.

Bien qu’on l’appelle mécanique, la physique que la mécanique quantique est censée décrire a plusieurs caractéristiques qui semblent complètement étrangères à la mécanique rationnelle. Une première de ces caractéristiques est la « dualité particule-onde ». Considérant que l’observation de l’effet Compton a confirmé l’existence d’une structure corpusculaire dans le champ électromagnétique qui, jusqu’alors, n’était conçu que de manière ondulatoire, Louis de Broglie, proposa, dans sa thèse de doctorat en 1924, que les corpuscules de matière, comme les électrons, peuvent montrer des aspects ondulatoires. Ces idées ont été confirmées par l’observation du phénomène d’interférences et de diffraction induites par les électrons.

« L’œuvre de de Broglie a fait sur moi une grande impression. Il a levé un coin du grand voile » (16) a déclaré Einstein, impressionné par cette vision. Progressivement, il est en effet apparu que dans le monde quantique (c’est-à-dire lorsque les actions sont de l’ordre de grandeur du quantum élémentaire d’action), tant dans le domaine de la structure de la matière, et dans celui des interactions, les phénomènes sont soumis à deux descriptions, ce qui serait tout à fait contradictoire dans le cadre de la physique classique, l’un en termes d’ondes et un autre en termes de particules.

La fréquence et le vecteur d’onde qui caractérisent la propagation de l’onde sont proportionnels à l’énergie et à la quantité de mouvement qui caractérisent le mouvement de la particule avec un facteur de proportionnalité égal à la constante de Planck.

Une autre caractéristique très intrigante de la mécanique quantique est le « principe de superposition ». Alors qu’en mécanique classique, les états d’un système sont représentés par des points de l’espace de configuration, ils sont représentés, en mécanique quantique, par des vecteurs d’un « espace de Hilbert », un espace vectoriel linéaire de fonctions complexes sur lesquelles sont définis une norme et un produit scalaire. On utilise aussi le terme de « fonction d’onde » pour désigner un vecteur de l’espace de Hilbert représentant un état quantique. La linéarité de l’espace de Hilbert correspond au principe de superposition selon lequel les états quantiques peuvent se combiner, se superposer, c’est-à-dire peuvent être ajoutés comme le font des nombres complexes, en physique classique, pour les ondes ou les champs. Cette propriété de « cohérence » est l’une des caractéristiques de tout l’univers quantique. Mais c’est aussi cette propriété qui est à l’origine des aspects les plus déconcertants et paradoxaux de cette nouvelle physique : on pourrait donc imaginer des expériences de pensée dans lesquelles un système physique pourrait être dans un état de superposition de deux états contradictoires (comme le pauvre chat que Schrödinger avait imaginé, à la fois mort et vivant).

La critique d’Einstein de la mécanique quantique

Une autre caractéristique essentielle de la mécanique quantique qui est révélée par la radioactivité est que sa prévisibilité est « probabiliste ». On est obligé de recourir à des probabilités, d’une part parce qu’il y a des processus mettant en jeu une action de l’ordre du quantum élémentaire d’action, comme une désintégration radioactive ou une réaction particulaire, qu’il est impossible de décrire de manière déterministe en utilisant des équations différentielles, et, d’autre part, parce qu’il faut inclure dans le formalisme les conditions d’observation et que ces conditions ne peuvent en général être mieux déterminé que de manière statistique. Cette caractéristique était la principale préoccupation d’Einstein dans sa critique de la physique quantique. Son attitude envers la physique quantique a varié selon les périodes. Jusqu’au milieu des années 1920, non seulement Einstein ne critiquait pas la physique quantique mais, étant de ses fondateurs, il a très chaleureusement salué les avancées qu’elle a rendues possibles. Une lecture attentive de ses articles montre que ce qu’il essaie d’établir est une théorie quantique des champs plutôt qu’une mécanique quantique : cela apparaît dans son article de 1905 sur l’effet photoélectrique et dans son célèbre article de 1917, « Théorie Quantique des Radiations », dans lequel il fournit une démonstration de la formule de Planck pour le rayonnement du corps noir ; de même dans ses articles en 1924 et 1925 sur la théorie quantique du gaz parfait mono-atomique, dans lesquels il intègre les statistiques de Bose (maintenant connues sous le nom de statistiques de Bose-Einstein) dans le cadre de la physique quantique, il note qu’« il est possible d’associer un champ d’ondes pour un gaz. En tout cas, la caractéristique qu’il n’a jamais acceptée est le recours aux probabilités au niveau fondamental, car ce recours impliquerait que « la théorie est incomplète ». Dans sa « Réponse aux critiques », citée plus haut, il considère une décroissance décrite en mécanique quantique au moyen d’une « fonction Psi » (c’est-à-dire une fonction d’onde) :

« Cette fonction Psi donne la probabilité que la particule, à un instant choisi, soit réellement dans une partie choisie de l’espace (c’est-à-dire où elle s’y trouve effectivement par une mesure de position). D’autre part, la fonction Psi n’implique aucune affirmation concernant l’instant temporel de la désintégration de l’atome radioactif. Maintenant, nous posons la question : cette description théorique peut-elle être considérée comme la description complète de la désintégration d’un seul atome individuel ? La réponse immédiatement plausible est : non. Car on est tout d’abord enclin à supposer que l’atome individuel se désintègre à un certain moment ; cependant, une telle valeur de temps définie n’est pas impliquée dans la description par la fonction Psi. Si, par conséquent, l’atome individuel a un temps de désintégration défini, alors en ce qui concerne l’atome individuel, sa description au moyen de la fonction Psi doit être interprétée comme une description incomplète. Dans ce cas, la fonction Psi doit être considérée comme la description, non d’un système singulier, mais comme description idéale d’un ensemble de systèmes. Dans ce cas, on est conduit à la conviction qu’une description complète d’un système unique devrait, après tout, être possible, mais pour une description aussi complète, il n’y a pas de place dans le monde conceptuel de la théorie quantique statistique. » (17).

Dans le célèbre article « EPR » Physical Review, écrit en 1935 en collaboration avec Boris Podolsky et Nathan Rosen, « La Mécanique quantique peut-elle être considérée comme une description complète de la réalité physique ? » (18), Einstein propose une expérience de pensée qui pourrait conduire à un paradoxe ruinant peut-être toute la cohérence de la physique quantique.

Dans cet article, le paradoxe a été formulé au moyen d’une pure expérience de pensée concernant la détermination des positions et des moments d’une paire de particules produite dans un état quantique bien défini. Bien que, pour chaque particule de la paire, la position et la quantité de mouvement obéissent à la loi de non-commutation et peuvent donc être déterminées seulement avec des incertitudes contraintes par les inégalités de Heisenberg, la différence des positions commute avec la somme des impulsions. Il semblerait ainsi que l’on puisse mesurer avec une précision arbitrairement élevée cette différence et cette somme et que, par conséquent, on puisse prédire avec précision soit la valeur de la position, soit celle de la quantité de mouvement de la première particule de la paire, si, respectivement, la valeur de la position ou celle de la quantité de mouvement de la deuxième particule de la paire est mesurée. Depuis, le moment de la mesure, l’interaction directe entre les particules de la paire a cessé, la position et la quantité de mouvement de la première particule peuvent être considérées comme des attributs physiques d’un objet isolé, ce qui signifie que l’on pourrait « battre les inégalités d’Heisenberg », et donc que la mécanique quantique ne fournit pas une description de la réalité.

Dans une lettre à Schrödinger du 19 Juin 1935, Einstein reconsidère l’expérience de pensée EPR, dont il présente les implications sous la forme d’une véritable antinomie : soit la théorie quantique est incomplète soit elle viole ce qu’il appelle un « principe de séparation » selon lequel si l’on considère un système dont l’état réel est composé des états réels de deux sous-systèmes A et B, alors l’état réel du sous-système B ne peut pas dépendre de n’importe quelle façon de l’expérience que l’on effectue sur le sous-système A.

L’élucidation complète du paradoxe EPR a pris plusieurs années. Il a fallu plusieurs avancées sur le plan expérimental et théorique. Une première avancée a été faite par David Bohm, qui a imaginé des expériences possibles, plus réalistes que celle évoquée dans l’article EPR, dans lequel la position et le moment sont remplacés, comme éléments observables non commutatifs, par des composantes de spins sur différents axes, qui, en mécanique quantique, sont représentés par des opérateurs qui ne font pas la navette. Sur le plan théorique, c’est John Bell qui, en 1964, établit des inégalités que devraient satisfaire les résultats des expériences imaginées par Bohm, dans la première hypothèse où la mécanique quantique serait incomplète et devrait donc être complétée par des « variables cachées », et dans la seconde hypothèse de « localité », c’est-à-dire l’hypothèse d’absence, conformément au principe de séparation d’Einstein, d’une connexion instantanée entre des systèmes spatialement séparés. Ces inégalités ont ainsi permis de soumettre l’argument d’Einstein à un test quantitatif précis : soit il serait satisfait, et alors Einstein aurait raison, ou ils serait violé, et puis au moins l’une des deux hypothèses faites par Bell (variable cachée ou localité) serait fautive. Dans les années 1970, des expériences visant à tester les inégalités de Bell ont été réalisées en physique et en physique nucléaire, mais c’est en 1982 que l’avancée expérimentale décisive s’est produite : Alain Aspect et ses collaborateurs ont réussi à réaliser une véritable expérience EPR (dans la version d’une expérience de Bohm) ; ils ont trouvé, et cela a été confirmé par de nombreuses autres expériences menées depuis, une violation flagrante des inégalités de Bell, confirmant ainsi les prédictions de la théorie quantique.

La physique quantique parvenue à sa maturité et la théorie quantique des champs

Avec l’échec du procès en incomplétude intenté par Einstein contre la physique quantique, le verdict de l’expérience est sans appel : la physique quantique est déchargée de l’accusation. Par conséquent, dans au moins une de ses critiques, Einstein avait tort. Avec la vue globale que plus de soixante-dix ans de mise en œuvre de la physique quantique donne, il convient de réévaluer les objections qu’il a faites à cette physique, de situer dans quelle mesure il avait raison et en quoi il avait tort, et aussi d’évaluer, dans une révision critique, l’interprétation de Copenhague pour corriger ses éventuels défauts.

Nous pensons que c’est le passage de la mécanique quantique à la théorie quantique des champs qui permet de répondre aux objections épistémologiques soulevées par Einstein avec ses exigences de localité, de réalité et de complétude, et ainsi résoudre la crise de la physique initiée par la découverte du quantum élémentaire d’action.

Non seulement Einstein avait tout à fait raison d’exiger ce qu’il appelait le principe de séparabilité, mais on peut reprocher à l’interprétation de Copenhague de ne pas l’avoir suffisamment respecté. Explicitement défendu par Steven Weinberg, qui l’appelle le « principe de décomposition en clusters », dans son manuel sur la théorie quantique des champs, il affirme que :

« Les expériences qui sont suffisamment séparées dans l’espace ont des résultats sans rapport. Les probabilités des diverses collisions mesurées au Fermilab ne devraient pas dépendre du type d’expériences en cours faites au CERN. Si ce principe n’était pas valable, nous ne pourrions jamais faire de prédictions sur aucune expérience sans tout savoir de l’univers. » (19)

Ce principe, aussi appelé « principe de localité », semble en effet être l’un de ceux avec lesquels il est vraiment impossible de faire des compromis.

Plusieurs des requêtes d’Einstein sur la physique quantique sont liées à la question de la réalité : la croyance en l’existence d’une réalité matérielle, indépendante de toute observation, et descriptible dans l’espace et le temps ; la difficulté de définir ce qu’est la « réalité » puisqu’elle ne nous est connue que par la description que la physique en donne ; le dualisme du champ et du point matériel, deux descriptions possibles mais contradictoires.

Ce dualisme, qu’Einstein a toujours rejeté et dont il n’a pas su se débarrasser, est bien dépassé par la théorie quantique des champs, comme le dit Weinberg dans un article, sous le titre « Qu’est-ce que la théorie quantique des champs et qu’est-ce que nous croyions que c’est ? » dans lequel il met en évidence quelques thèmes de son manuel :

« Dans sa forme mature, l’idée de la théorie quantique des champs est que les champs quantiques sont les ingrédients de base de l’univers, et les particules ne sont que des faisceaux d’énergie et de quantité de mouvement des champs. Dans sa version relativiste, la fonction d’onde est une fonction de ces champs, pas une fonction des coordonnées des particules.

« La théorie quantique des champs a donc conduit à une vision plus unifiée de la nature que l’ancienne interprétation dualiste en termes de champs et de particules. » (20)

Pour répondre à la question de la complétude de la physique quantique, il faut revenir à l’articulation susmentionnée des deux concepts de base nécessaires à la conception de la réalité, le concept d’objet et le concept d’événement. La notion d’objet appartient au domaine de la théorie, alors que le concept d’événement appartient au domaine de l’expérience : le but de la théorie est de constituer un objet scientifique, un élément de réalité indépendant de la façon dont il est observé ; les événements, d’autre part, sont les modalités par lesquelles la réalité est empiriquement ou expérimentalement celle que nous connaissons. La complétude est une exigence « théorique », et pas une exigence expérimentale qui concerne donc l’objet et non l’événement. D’un côté, Einstein avait raison quand il a reproché à la mécanique quantique de conserver à la particule son statut primitif d’objet tout en donnant à la fonction d’onde une interprétation probabiliste (c’est-à-dire incomplète) ; mais, d’un autre côté, il s’est trompé dans son espoir que les événements quantiques soient individuellement prévisibles de manière déterministe. La finitude du quantum élémentaire d’action interdit toute subdivision en individus dans les processus quantiques. Ces processus doivent être considérés comme des événements irréductibles qui ne sont ni individuellement prévisibles ni reproductibles. Dans le cadre de la relativité générale, la covariance exige que les événements soient strictement localisés dans l’espace-temps. Dans le cadre quantique, même en l’absence d’effets relativistes, c’est le principe de localité qui exige que les événements quantiques soient strictement localisés dans l’espace et dans le temps. La seule prévisibilité possible concernant les processus quantiques est probabiliste, au moyen de statistiques donnant des moyennes sur des ensembles d’événements strictement localisés se produisant dans une certaine région de l’espace-temps.

Un champ quantique est une entité physique définie à chaque position dans l’espace et à chaque instant dans le temps. Alors qu’une entité de champ classique est une fonction réelle ou complexe des coordonnées de l’espace-temps, une entité de champ quantique est un opérateur qui produit ou détruit une particule dans un événement quantique strictement localisé aux coordonnées spatio-temporelles. Selon la théorie quantique des champs, la dualité particule-onde est interprétée de manière non dualiste : les champs quantiques sont des « objets » qui se comportent, soit comme des particules, soit comme des ondes selon qu’ils sont impliqué ou non dans des « événements quantiques » réels. Comme le dit Feynman dans l’article par lequel il a introduit la reformulation de la physique quantique par l’« intégrale de chemin », « L’électron agit pour ainsi dire comme une onde tant qu’on ne cherche pas à vérifier qu’il s’agit d’une particule ; pourtant on peut déterminer, si l’on veut, par quelle route il voyage comme s’il s’agissait d’une particule ; mais, quand on fait cela, [la manière classique de combiner les probabilités] s’applique et cela agit comme une particule. » (21)

La quantification de la théorie des champs est souvent appelée « deuxième quantification ». Selon cette terminologie, la première quantification est l’association avec un système de particules d’une fonction d’onde considérée comme un champ classique dont la quantification apparaît comme la deuxième quantification. En fait, il semble plutôt que la théorie quantique des champs est un changement complet de perspective. En mécanique quantique, les « états du système » sont représentés par des « vecteurs » de l’espace de Hilbert, et les « grandeurs physiques observables » sont représentées par des « opérateurs » agissant sur ces vecteurs. En théorie quantique des champs, il existe un changement complet de point de vue : les opérateurs sont associés à l’objet, le quantum, alors que les vecteurs sont associés aux états, non du système, mais plutôt du dispositif expérimental. Un opérateur de champ quantique qui produit ou détruit une particule agit sur l’état du détecteur de particules. En mécanique quantique, la fonction d’onde d’une particule est une fonction complexe des coordonnées spatiales et temporelles, ou de l’énergie et de la quantité de mouvement, dont le module au carré est la probabilité que « la » particule ait ces coordonnées ou ces valeurs d’énergie et de quantité de mouvement. D’autre part, selon le point de vue théorique du champ quantique, la fonction d’onde est un champ d’amplitude, une fonction complexe, dont le module au carré est la probabilité de compter « une » particule produite par le champ quantique à la position correspondante ou avec l’énergie et la quantité de mouvement correspondantes. En fait, il s’avère qu’en physique quantique, toutes les expériences sont plus naturellement interprétées selon le point de vue de ce champ quantique théorique que selon le point de vue de la mécanique quantique, car tous les détecteurs qui nous permettent d’observer expérimentalement le monde atomique ou subatomique ne sont que des « compteurs d’événements », incluant éventuellement des filtres qui permettent, par exemple, de sélectionner des particules avec une composante de spin donnée, mais jamais des appareils qui nous permettraient de déterminer la fonction d’onde d’une particule isolée. Ayant cela à l’esprit, on comprend pourquoi le passage du point de vue de la mécanique quantique au point de vue théorique du champ quantique apporte une solution au paradoxe de l’EPR : comme Einstein lui-même l’a remarqué, il n’y a pas de paradoxe si les expériences sont interprétées en termes de statistiques d’ensembles. La seule erreur commise par Einstein a été de considérer de tels ensembles comme ensembles de systèmes et non comme ensembles d’événements.

La théorie quantique des champs et la physique des interactions fondamentales

Historiquement, la théorie quantique des champs a été appliquée pour la première fois dans l’électrodynamique quantique (QED) qui est la théorie quantique des champs des interactions électromagnétiques des électrons et des positons. C’est dans le but d’élaborer un schéma fidèlement adapté à cet effet que Feynman a été amené à élaborer sa « quantification par intégrale de chemin » susmentionnée comme une alternative à la méthode standard de quantification qui était disponible à ce moment-là. En partant de l’exemple le plus simple, c’est-à-dire de la mécanique quantique d’un système à une particule, il réécrit l’équation de Schrödinger comme une équation d’intégrale fonctionnelle, dont la solution, la fonction d’onde de la particule dans une position spatio-temporelle donnée, est une intégrale fonctionnelle (c’est-à-dire une intégrale de dimension infinie) sur tous les « chemins » ou trajectoires qui pourraient éventuellement amener la particule d’une position arbitraire dans le passé infiniment éloigné à sa position actuelle. Présentée ainsi, la reformulation peut sembler très compliquée dans le cas très simple considéré, mais elle peut être appliquée à des situations très générales, y compris le traitement des interactions fondamentales par la théorie quantique des champs.

L’intégrande (la fonction à intégrer) de l’intégrale de chemin, à savoir le poids donné à la contribution de chaque chemin (dans le cas d’une théorie des champs, on devrait plutôt parler de chaque « histoire du champ ») fait intervenir le lagrangien de la théorie dans lequel sont encodées toutes les informations concernant l’interaction considérée (les champs impliqués, les masses, les spins et autres nombres quantiques de leurs quanta, les symétries de l’interaction, les « constantes de couplage » qui caractérisent l’intensité de l’interaction au niveau élémentaire, etc). Le Lagrangien est la somme des termes d’énergie cinétique correspondant à une propagation libre des champs impliqués et des termes d’interaction correspondant aux interactions ou couplages des champs. Le principe de localité contraint tous les termes du Lagrangien à être sous la forme de produits de champs, ou de dérivés de champs évalués en « un même point d’espace-temps ».

La quantification de la théorie des champs s’est heurtée à deux difficultés majeures, des énergies négatives et des infinis, dont le dépassement est l’une des clés de la réussite du modèle standard.

La première difficulté est apparue dès qu’on a essayé d’élaborer une théorie relativiste généralisant l’équation de Schrödinger. Même pour les particules libres, cas dans lequel la quantification standard et l’intégrale de chemin peuvent être élaborés explicitement et conduire aux mêmes résultats, une telle généralisation conduit à des solutions à énergie négative qui impliqueraient qu’aucun état quantique ne pourrait être stable puisque l’énergie ne serait pas bornée par en bas. L’interprétation physique de ces solutions d’énergie négative est impossible dans le cadre de la mécanique quantique où le nombre de particules est fixe et conservé. C’est précisément le passage de la mécanique quantique à la théorie quantique des champs qui permet de surmonter cette difficulté : en théorie quantique des champs, le nombre de particules n’est pas conservé ; des particules peuvent être produites ou détruites, et le problème des énergies négatives est résolu en contraignant l’énergie négative, c’est-à-dire non liée à une physique des particules à « remonter dans le temps » et à remplacer une telle particule d’énergie négative par une charge donnée par une énergie positive, c’est-à-dire une « antiparticule » physique de charge opposée qui « avance dans le temps ». Avec ce schéma, le temps est axiomatiquement donné par une flèche : « seules les particules physiques ou antiparticules avancent dans le temps ». La découverte expérimentale du positon, l’antiparticule de l’électron, puis des antiparticules de toutes les particules connues a clairement démontré l’adéquation de ce schéma à la réalité.

Lorsque les interactions sont prises en compte, les méthodes classiques de quantification conduisent à des calculs très lourds, presque insolubles, alors que la quantification par l’intégrale de chemin conduit à un schéma très puissant connu sous le nom de « développement perturbatif » en termes de « diagrammes et amplitudes de Feynmand. Pour tout processus s’appuyant sur une donnée relative à une interaction fondamentale, l’amplitude dont le module au carré est la probabilité de son occurrence, peut être étendu en puissances de la constante de couplage, les coefficients qui sont une somme des amplitudes de Feynman associées aux diagrammes de Feynman. Ces diagrammes de Feynman permettent de se représenter de manière très suggestive l’idée de base de l’intégrale de chemin par décomposition d’un processus « réel » en termes de somme de termes associés aux processus « virtuels ». Plus l’exposant de la puissance de la constante de couplage est élevé, plus les diagrammes de Feynman sont complexes, donc, si la constante de couplage est un petit nombre (comme c’est le cas dans QED), on peut espérer obtenir avec la contribution de quelques processus virtuels simples une bonne approximation de l’amplitude de l’ensemble.

.

L’amplitude associée à un diagramme de Feynman s’écrit toujours en termes d’intégrales multiples sur un nombre fini de variables. A ce stade, il faut affronter la difficulté des infinis : en général les intégrales nécessaires au calcul de Feynman « divergent » en amplitude, c’est-à-dire sont égales à l’infini. En fait, cette difficulté, qui semble ruiner peut-être tout le programme théorique du champ quantique, est profondément enraciné dans le conflit, déjà soulevé par Einstein, entre localité et complétude : la localité exige de considérer des couplages ponctuels de champs, ce qui nécessite à son tour de prendre en compte des processus virtuels impliquant de grandes énergies arbitraires responsables de la divergence des Intégrales ; si, pour obtenir des amplitudes finies, on ignorait simplement le processus virtuel impliquant des énergies supérieures à un « seuil » arbitraire, alors la théorie pourrait être blâmée pour incomplétude. L’idée d’une issue à cette difficulté est de scinder les valeurs des paramètres de la théorie en leurs « valeurs nues », c’est à dire les valeurs qu’ils auraient en absence d’interaction, et leurs « valeurs physiques », c’est-à-dire les valeurs qu’elles acquièrent du fait des interactions. Dans la QED, où les paramètres sont la masse de l’électron et la charge de l’électron, il s’avère que des infinis surviennent lorsque l’on essaie d’exprimer les amplitudes physiques en termes de valeurs nues des paramètres, alors qu’il n’y a pas d’infini dans l’expression des amplitudes en fonction des valeurs physiques des paramètres. D’une théorie, comme la QED, dans laquelle un tel "miracle" se produit pour toutes les amplitudes et à tous les ordres de grandeur du développement perturbatif, on dit qu’elle est « renormalisable ». Du moment que les valeurs des paramètres physiques peuvent être déterminés expérimentalement, il est possible de comparer à l’expérimentation les prédictions d’une théorie renormalisable. Dans le cas de la QED, pour quelques grandeurs physiques qui sont théoriquement calculables et expérimentalement mesurables, l’accord entre la théorie et l’expérience est étonnamment bon.

Vers une nouvelle catégorie philosophique : l’horizon de réalité

De l’explication rationnelle de ce « miracle », on peut tirer les principales leçons du présent chapitre. En fait, les valeurs physiques des paramètres dépendent implicitement d’une énergie associée au « grain grossier » avec lequel l’interaction est observée expérimentalement. La réalisation de cette dépendance au gros grain est un atout de ce que l’on appelle l’« interprétation moderne » de la physique quantique qui, à son tour, est un atout de la méthode de quantification par l’intégrale de chemin. Afin de pouvoir attribuer des probabilités à des événements réels produits par des champs quantiques en interaction, l’on doit effectuer l’intégration de chemin avec un grainage suffisamment grossier pour que des interférences, qui pourraient empêcher d’attribuer des probabilités additives à des événements indépendants, puissent les annuler. (22)

Maintenant, à cause de cette condition, une théorie renormalisable comme la QED ne peut pas être considérée comme une théorie fondamentale valable à toutes les énergies, mais plutôt comme une théorie « efficace », adaptée pour décrire l’interaction à une résolution donnée liée à la grossiereté du grain d’énergie. Mais cela n’implique-t-il pas qu’une telle théorie soit incomplète puisqu’elle dépend de paramètres variant avec l’énergie ? En fait, ce n’est pas le cas parce que la façon dont les paramètres dépendent des gros grains de l’énergie n’est pas arbitraire : elle doit être telle que les grandeurs physiques mesurées et calculées « n’en dépendent pas ».

Les équations qui traduisent cette indépendance physique par rapport à la grossièreté du grain sont appelées des « équations du groupe de renormalisation ». Selon les équations du groupe de renormalisation de la QED, la « constante de structure fine », égale au carré de la charge électronique divisé par le produit de la constante de Planck et de la vitesse de la lumière n’est pas constant : il est « prédit » de varier de 1/137 à une énergie d’un MeV (un million d’électron-volt) à 1/128 cent GeV (cent milliards d’électrons-volts), et cette prédiction a été confirmée par l’expérience. Sur le terrain physique, la grande réussite du modèle standard est que l’on a intégré la QED dans un ensemble de théories renormalisables (la théorie électrofaible et la chromodynamique quantique, QCD) conduisant à des prédictions qui ont été confirmées expérimentalement avec une excellente précision.

Sur le plan épistémologique, ces réalisations ont mis au premier plan un concept qui joue actuellement un rôle croissant dans le contexte de la cosmologie quantique, la notion d’« horizon ». En physique contemporaine, ce concept est pertinent dans l’interprétation des limites fondamentales de la connaissance humaine qu’impliquent certaines constantes universelles (23) comme la constante de Planck ou la vitesse de la lumière : ces limitations ne sont pas à considérer comme des obstacles insurmontables mais plutôt comme « des horizons informationnels », à savoir des limites au-delà desquelles se trouvent des informations inaccessibles. Le fait de supposer l’existence d’un horizon informationnel ne signifie pas que l’on néglige ou qu’on oublie les informations qui se trouvent au-delà. La méthodologie qui permet de suivre cette information manquante est basée sur l’intégration fonctionnelle : pour évaluer les probabilités des valeurs des variables dynamiques portant l’information accessible (les variables observables) on « intègre » les variables dynamiques portant l’inaccessible information (les variables non observables).

Une telle méthodologie est utilisée en physique statistique où des configurations microscopiques qui conduisent au même état macroscopique (ce que l’on appelle des « complexions ») sont traités comme variables non observables qui sont intégrées à travers les moyennes statistiques conduisant à la définition de la distribution de probabilité Boltzmann-Gibbs des variables observables. Fondamentalement, la quantification par l’intégrale de chemin repose sur la même méthodologie : la sommation, avec une certaine grossièreté de grain, sur tous les chemins possibles ou toutes les histoires du champ, correspond à l’intégration des variables non observables. En effet, on peut montrer que la similitude entre la distribution de probabilité de Boltzmann-Gibbs en physique statistique classique et l’intégrale de chemin en physique quantique n’est pas une simple analogie, mais plutôt une rigoureuse correspondance mathématique, avec un « traducteur » strict où la constante de Boltzman est traduite en constante de Planck, et l’entropie (ou l’information) en action, inverse de la température en temps imaginaire, les phénomènes critiques se produisant à un second ordre de transition phase traduits en résultats d’une théorie quantique des champs renormalisable. Le dernier élément de ce dictionnaire a conduit dans les années 70 à une remarquable synthèse interdisciplinaire, puisqu’on a pu utiliser, avec beaucoup de succès, les mêmes outils théoriques dans deux domaines de la physique qui semblaient jusqu’ici complètement déconnectés, la physique des phénomènes critiques d’un côté et la chromodynamique quantique, la physique des interactions fortes des quarks et des gluons, de l’autre. A cet égard, il est intéressant de noter que la même correspondance a permis de concevoir des simulations informatiques de la QCD, ce que l’on appelle le « réseau QCD », donnant un aperçu du régime non perturbatif de cette théorie quantique des champs.

Un dernier commentaire s’impose sur la correspondance entre la physique statistique classique et la physique quantique. Puisqu’un temps imaginaire peut être considéré comme une quatrième dimension euclidienne de l’espace, on peut dire que la quantification ajoute en quelque sorte une dimension spatiale à la physique classique : la physique quantique dans un espace tridimensionnel est équivalente à la physique statistique classique dans un espace à quatre dimensions. Une telle caractéristique est analogue à ce qui se passe dans la reconstruction d’une scène tridimensionnelle au moyen d’un « hologramme » à deux dimensions. Suivant cette ligne de pensée, certains développements très importants se produisent actuellement en cosmologie. La gravitation est la seule interaction capable de courber tellement l’espace-temps que cela conduit à la formation d’un horizon spatial, à savoir une « membrane unidirectionnelle », un horizon informationnel bidimensionnel cachant des informations se trouvant au-delà. En raison de l’expansion de l’univers, il existe en cosmologie un horizon, appelé « horizon des particules » qui est défini par la distance au-delà de laquelle se trouvent les galaxies dont la lumière n’a pas eu le temps de nous atteindre. Au-delà de cet horizon, on soupçonne l’existence d’un autre horizon, appelé « horizon des événements » qui serait défini par la distance au-delà de laquelle aucune information ne pourra « jamais » nous parvenir. Cet horizon des événements est généralement supposé reposer sur la « cosmologie quantique », c’est à dire le domaine de la cosmologie dans lequel la gravité doit être quantifiée. Un laboratoire théorique pour explorer la physique d’un tel horizon des événements est la physique des « trous noirs ». L’horizon des événements d’un trou noir est la surface l’entourant au-delà duquel toute matière (et donc toute information), piégée par le le trou noir, échappe à la perception. Bien que la physique des trous noirs soit classique, dans la mesure où c’est la gravitation qui est concernée, à l’horizon, le champ gravitationnel classique est si intense qu’il peut induire dans la matière certains effets quantiques tels que la production de paires particule-antiparticule, qui doivent être traitées. Puisque, en statistique quantique, l’information manquante équivaut à l’entropie, il est naturel, dans ce cadre, d’attribuer une entropie à un tel horizon. Bekenstein et Hawking ont montré que l’entropie correspondant à l’information piégée à l’intérieur d’un trou noir est proportionnelle à la surface de l’horizon des événements plutôt qu’au volume qu’il contient. Il semble possible de généraliser ce résultat aux métriques spatio-temporelles impliquant un horizon qui conduit à la conjecture que la cosmologie associée à de telles métriques est complètement déterminée par les propriétés quantiques de l’horizon. (24) Selon un tel « principe holographique » (25), l’information totale contenue dans un univers impliquant un horizon ne serait pas proportionnelle au volume inclus par l’horizon mais seulement à la zone de l’horizon.

Sur le plan philosophique, je voudrais conclure ce chapitre en soulignant la pertinence pour la philosophie des sciences d’un concept qui pourrait agir comme une véritable catégorie philosophique, le concept d’horizon de réalité. L’horizon de réalité est l’un des concepts clés de la philosophie de Ferdinand Gonseth (1890-1975), un mathématicien-philosophe suisse qui connaissait bien la physique théorique (c’était un proche ami de Michele Besso (26), l’ami le plus proche d’Einstein ; Georges Lemaître, l’un des fondateurs de la cosmologie moderne, lui a demandé de rédiger la préface de son livre « L’hypothèse de l’atome primitif » (27 ) et il a conçu ce que je pense être la philosophie que la science du 20ème siècle mérite. Dans un développement dans son livre majeur « La géométrie et le problème de l’espace », consacré à l’articulation des trois aspects de la géométrie, à savoir l’intuition, les axiomes et l’expérience, il note que :

« Les résultats précédents ont une valeur qui dépasse le cadre de la géométrie. Ils concernent l’ensemble de la connaissance, nous entendons par là l’état dans lequel la connaissance nous parvient, à un instant donné. Rien ne nous autorise à penser que notre savoir, même à ses dernières frontières, est plus qu’un savoir limité par un horizon ; que les dernières « réalités » que nous avons conçues sont plus qu’un horizon de réalité. » (28)

Il me semble que tous les développements de la physique du 20ème siècle, depuis la résolution de la crise de la mécanique rationnelle aux spéculations prometteuses sur la cosmologie quantique à travers les succès du modèle standard, confirment la validité de cette philosophie ambitieuse et pourtant humble : nous sommes tels, et le monde est tel qu’il ne nous est jamais donné dans sa pleine réalité mais comme un horizon de réalité.

NOTES

1- Pour un manuel destiné aux physiciens, voir Weinberg, 1995 (fondations) et Weinberg, 1996 (application moderne) ; une introduction interprétative à la théorie quantique des champs est donnée dans Teller, 1997

2- Einstein, 1916

3- Lemaître, 1946

4- Paty, 1993

5- Einstein, 1949, dans Schilpp 1949, p. 683-684

6- La référence de base sur la symétrie est Weyl, 1952 ; une présentation pédagogique de la symétrie est donnée dans Rosen, 1995

7- Carnot, Réflexions sur la puissance motrice du feu et sur les machines propres à développer cette puissance

8- Pour une discussion pédagogique voir Gell-Mann, 1994

9- Maxwell, 1873

10- Pour une discussion des contributions de Gibbs et Einstein aux fondements de la physique statistique, voir Barberousse, 2002

11- Gibbs, 1902, p. xii –ix

12- Einstein, 1961, p. 106

13- Einstein, 1961, p. vi

14- Einstein, 1961 p. 144

15- Einstein, 1961 p. 156

16- de Broglie, 1956

17- Einstein, 1949

18- Einstein, 1935

19- Weinberg, 1995 p. 177

20 Weinberg, 1997

21 Feynman, 1948 p. 370

22 Gell Mann, Hartle, 2006

23 G. Cohen-Tannoudji, 1991 Lehoucq et Uzan, 2005

24 Smolin, 2001, Padmanabhan 2006

25 Susskind, 2005

26 Gonseth, 1967

27 Lemaître, 1946

28 Gonseth, 1949, p. IV-46 (310).

BIBLIOGRAPHIE

Barberousse, Anouk (2002), « La mécanique statistique – De Clausius à Gibbs » –, Paris, Belin, 2002.

Broglie, Louis de (1956), « Le dualisme des ondes et des corpuscules dans l’œuvre d’Albert Einstein », discours à l’Académie des sciences, Paris, 5 décembre 1955, in Nouvelles perspectives en microphysique, Paris, Albin Michel, 1956.

Cohen-Tannoudji, Gilles (1991), « Les Constantes Universelles », Paris, Hachette, 1991.

Einstein, Albert (1916) « Le fondement de la théorie de la relativité généralisée » ( Die Grunlage der allgemeinen Relativitätstheorie ), Annalen der Physik, ser. 4, XLIX, 1916, 769-822.

Einstein, Albert (1935), Physical Review, vol.XLVII, 1935 p. 777-780.

Einstein, Albert (1949), « Réponse à la critique ». Remarques concernant les essais apportés ensemble dans ce volume coopératif. Dans Schilpp, 1949.

Einstein, Albert (1961), Relativity, “The Special and the General Theory - A populaire Exposition” – (traduction anglaise de Ueber die spezielle und die allgemeine Relativitätstheorie, Gemeinverständlich, Braunschveig, Vieweg, 1917), New York, Livres de poche de la Couronne, 1961.

Feynman, Richard P. (1948), « Approche spatio-temporelle du quantum non relativiste Mécanique », Revue de Physique Moderne , Vol. 20, numéro 2, p. 367-387.

Gell-Mann, Murray (1994), Le Quark et le Jaguar – Aventures dans le simple et le complexe –, New York, WH Freeman and Company, 1994.

Gell-Mann, Murray ; Hartle, James B. (2006), « Grainage grossier quasi-classique et Entropie thermodynamique", (arXiv:quant-ph/0609190).

Gibbs, J. Willard (1902), Principes élémentaires de mécanique statistique - La fondation rationnelle de la thermodynamique –, New York, les fils de Charles Scribner, Londres, Edward Arnold, 1902.

Gonseth, Ferdinand (1949), La géométrie et le problème de l’espace , Neuchâtel, Éditions du Griffon, 1949.

Gonseth, Ferdinand (1967), « Connaissance de la nature et connaissance philosophique chez Albert Einstein », in Science et synthèse , Paris, Gallimard NFR, 1967, p. 21-28.

Lemaître, Georges (1946), L’Hypothèse de l’Atome Primitif –Essai de Cosmogonie–(Préface de Ferdinand Gonseth) , Neuchâtel, Éditions du Griffon, 1946

Maxwell, James Clerk (1873), « Molecules », Nature , septembre 1873, pp. 437-441.

Padmanabhan, Tanu (2006), « L’énergie noire, mystère du millénaire », Conférence présentée à la Conférence internationale du siècle Albert Einstein au Palais de l’Unesco, Paris, juillet 2005 (arXiv:astro-ph/0603114), 2006.

Paty, Michel (1993), Einstein Philosophe, Paris, Presse Universitaire de France, 1993

Rosen, Joe (1995), Symmetry in Science – Une introduction à la théorie générale – Nouveau York, Berlin, Heidelberg, Barcelone, Budapest, Hong Kong, Londres, Milan, Paris, Santa Clara, Singapour, Tokyo, Springer, 1995.

Schilpp, Paul Arthur (1949) Albert Einstein : philosophe-scientifique, La bibliothèque du vivant philosophes, Lasalle (Ill), Open Court, 1949.

Smolin, Lee (2001), Trois routes vers la gravité quantique, New York, Basic Books, 2001.

Susskind, Leonard et Lindesay, James (2005), Trous noirs, Information et Révolution de la théorie des cordes – Un Univers holographique –, New Jersey, Londres, Singapour, Pékin, Shanghai, Hong Kong, Taipei, Chennai, World Scientific, (006).

Teller, Paul (1997) Une introduction interprétative à la théorie quantique des champs, Princeton (NJ), Chichester (Royaume-Uni), Princeton University Press, 1997.

Uzan, Jean-Philippe et Lehoucq, Roland (2005), Les Constantes Fondamentales, Paris, Belin, 2005.

Weinberg, Steven (1995), The Quantum Theory of Fields (Volume I Foundations),Cambridge, New York, Melbourne, Cambridge University Press, 1995.

Weinberg, Steven (1996), La théorie quantique des champs (Volume II Modern Applications) , Cambridge, New York, Oakleigh, Madrid, Le Cap, Cambridge Presse universitaire, 1996.

Weinberg, Steven (1997), « Qu’est-ce que la théorie quantique des champs et qu’en avons-nous pensé », Exposé présenté à la conférence « Réflexions historique et philosophique sur les fondations of théorie quantique des champs », à l’Université de Boston, mars 1996 (arXiv:hep- e/9702027).

Weyl, Herman (1952), Symétrie, Princeton, Princeton University Press, 1952.

Voir et lire aussi :

Relativité et quanta : Une nouvelle révolution scientifique, par Gilles Cohen-Tannoudji et Michel Spiro :

https://www.google.fr/books/edition...

Causalité et finalité, par Gilles Cohen-Tannoudji et Emile Noël :

https://www.google.fr/books/edition...

Le réel et ses dimensions, par Gilles Cohen-Tannoudji et Emile Noël :

https://www.google.fr/books/edition...

Relativité et complémentarité générales en cosmologie quantique, par Gilles Cohen-Tannoudji :

https://www.youtube.com/watch?v=SrK...

Relativité et complémentarité générales en cosmologie quantique par Gilles Cohen-Tannoudji :

https://www.youtube.com/watch?v=SrK...

Relativité et complémentarité générales en cosmologie quantique, par Gilles Cohen-Tannoudji :

https://www.youtube.com/watch?v=SrK...

Claude Cohen-Tannoudji - Refroidissement et piégeage d’atomes par des faisceaux laser :

https://www.youtube.com/watch?v=Ca5...

Claude Cohen-Tannoudji - Relativité et quanta, le mariage impossible :

https://www.youtube.com/watch?v=QB6...

Claude Cohen-Tannoudji à l’Université de tous les savoirs :

https://www.canal-u.tv/video/scienc...

Conférence :

https://www.canal-u.tv/video/scienc...

Conférence :

https://www.canal-u.tv/video/scienc...

Une brève histoire de la matière :

https://www.canal-u.tv/video/cerime...

Manipulation et visualisation des ondes de matière :

https://www.canal-u.tv/video/univer...

Répondre à cet article

SPIP | squelette | | Plan du site | Suivre la vie du site RSS 2.0