Accueil > 02 - Livre Deux : SCIENCES > Atome : lois de la Physique ou rétroaction de la matière/lumière et du (...) > Quelques notions de physique moderne

Quelques notions de physique moderne

dimanche 21 septembre 2008, par Robert Paris

Le succès de la Chine

Les textes qui suivent ne sont pas des textes de notre site "matière et révolution" mais exposent un point de vue intéressant le débat que nous souhaitons ouvrir.

Initiation à la physique quantique

Jean Zin

Initiation à la physique quantique, la matière et ses phénomènes, Valerio Scarani, Vuibert, 2003

L’intérêt de ce livre, préfacé par Jean-Marc Lévy-Leblond, est moins dans sa tentative d’initiation à la physique quantique que dans la reformulation de ses paradoxes à la lumière des dernières expériences (qui datent de 1998). Il faut dire que ces vérifications expérimentales répétées ne sont pas encore assez prises en compte par les physiciens eux-mêmes, alors que les interprétations initiales des mystères quantiques ne sont plus tenables, pas plus d’ailleurs qu’une prétendue remise en cause de notre logique qui nourrit tous les délires sous prétexte de notre incompréhension (on est toujours tenté d’expliquer les mystères par des causes encore plus mystérieuses). L’étonnant c’est que l’incertitude quantique ne se réduit pas aux limitations expérimentales, comme on l’a longtemps cru, ni aux contraintes de l’information, ce qui est la dernière mode, mais relève plus fondamentalement du monde quantique lui-même où les particules n’existent pas en dehors de leurs interactions. Nous verrons que la primauté du continu sur le discontinu est une contrainte ontologique avant d’être épistémologique. La discontinuité de la matière est constitutive, elle ne peut être divisible à l’infini comme le montrait déjà le sophisme d’Achille qui ne peut jamais rattraper la tortue car il lui faudrait parcourir une infinité de points... Il ne faut pas se précipiter à conclure pour autant que cela supprimerait toute continuité physique alors que la continuité reste indispensable à la topologie de l’espace, au mouvement comme à la durée des choses. Il ne peut y avoir de discontinuité sans continuité, ce qui devient une question entièrement physique avec la "dualité onde-particule" qui se manifeste notamment par les corrélations de particules jumelles aussi éloignées qu’elles soient. La vérification répétée de ces corrélations pose des problèmes difficiles de représentation d’action à distance, comme si on revenait au temps de Newton, mais réfute le caractère aléatoire des phénomènes quantiques. Certes, il n’y a pas de stabilité au niveau quantique (il n’y a stabilité que des liaisons électromagnétiques des atomes et des contraintes de symétrie) mais si les fonctions d’onde ne sont effectivement que des probabilités, ce sont des probabilités absolument déterministes et rigoureuses, jusqu’à relier rigidement les propriétés de deux particules corrélées.

On comprend donc un peu mieux le monde quantique qui semble même très simple, cela ne veut pas dire qu’on le comprenne vraiment, ni qu’il soit facile de se faire une représentation ondulatoire de la matière ou des corrélations à distance. L’électrodynamique quantique est à peu près complète dans l’unification des forces. Reste la difficulté à construire une théorie quantique de la gravitation, ce que tente la "théorie des Cordes" de façon purement mathématique. On peut s’étonner de l’incompatibilité, proclamée par Einstein lui-même, de la physique quantique avec la relativité alors qu’elles semblent procéder de la même source. Une alternative à la théorie des cordes qui tente de géométriser toutes les forces serait peut-être, si on suit Feynman, de remettre en cause la géométrisation de la gravitation par la Relativité Générale, ce dont il faut mesurer toutes les conséquences. Tout ceci montre que si nous en savons beaucoup sur la matière, nous ne savons pas encore vraiment ce que c’est !

1. Discontinuité de la matière (quanta) et continuité des champs

Max Planck montre en 1900 que pour rendre compte de l’expérience des rayonnements d’un four (qui est une sorte de "corps noir" sans rayonnement extérieur ou presque), il fallait introduire une constante h proportionnelle à la fréquence et qu’il appelle QUANTUM. L’étonnant, en effet, c’est que l’énergie des ondes électromagnétiques ne varie pas de manière continue mais admet seulement des multiples de cette constante h x f (où h = 6,63 x 10-34 Joules par seconde et f représente la fréquence mesurée). Il faut comprendre que si la constante de Planck a été introduite seulement pour rendre compte des mesures effectives, ce n’est pourtant pas à cause d’une limitation de l’expérience car si les variations étaient réellement complètement continues et non quantifiées, comme la théorie le prétendait jusqu’alors, cela aurait eu pour impossible conséquence une énergie totale de rayonnement à l’intérieur d’un four qui aurait été infinie puisqu’il y aurait une infinité de rayonnements. Au contraire, à partir des ultra-violets, plus la fréquence était élevée et moins il y avait de rayonnements (c’est ce qu’on a appelé la "catastrophe ultraviolette"). La quantification est une contrainte du réel, de sa finitude, et non une limitation théorique. Cette découverte est la base de la physique quantique, même si elle ne devait commencer vraiment qu’en 1905 avec Einstein qui en généralise la portée, en établissant l’équivalence entre masse et énergie (E=mc2), à partir du fait que la lumière est elle-même quantifiée, constituée de photons, expliquant ainsi notamment l’effet photoélectrique (on y reviendra). C’est d’ailleurs en grande partie contre Einstein, mais dans un dialogue intense avec lui, que se construira la physique quantique dont il n’acceptera jamais le caractère probabiliste lié à la discontinuité des quanta (alors même qu’il avait prouvé en 1905 l’existence des atomes à partir d’une interprétation probabiliste des fluctuations d’entropie dans le mouvement brownien).

Les physiciens contemporains sont convaincus qu’il est impossible de rendre compte des traits essentiels des phénomènes quantiques (changements apparemment discontinus et non déterminés dans le temps de l’état d’un système, propriétés à la fois corpusculaires et ondulatoires des entités énergétiques élémentaires) à l’aide d’une théorie qui décrit l’état réel des choses au moyen de fonctions continues soumises à des équations différentielles. [...] Surtout, ils croient que le caractère discontinu apparent des processus élémentaires ne peut être représenté qu’au moyen d’une théorie d’essence statistique, où les modifications discontinues des systèmes seraient prises en compte par des modifications continues des probabilités relatives aux divers états possibles. (1949) Einstein, p221-222

Toute la spécificité et les paradoxes de la physique quantique découlent donc de ce caractère discontinu des quanta qui s’opposent à la mécanique classique avec ses mouvements continus à base de fonctions mathématiques continues dont on peut calculer une dérivée. L’existence d’un saut quantique (on passe d’un quantum à un autre sans transition) introduit un effet de seuil qui est aussi un effet de particule mais qui n’est plus entièrement calculable et garde une part d’incertitude, liée à la sensibilité aux conditions initiales comme au contexte immédiat, ce que les théories du chaos ont généralisé (Prigogine), mais aussi aux fluctuations quantiques d’autant plus grandes que le temps est court. Il y a une limite à la connaissance du Réel, pas seulement l’absence d’accès aux dynamiques sub-quantiques ou l’impossibilité d’intégrer des données innombrables car le caractère imprévisible des phénomènes chaotiques, comme des sauts quantiques, n’est pas dû à une limitation de notre savoir, c’est une composante intrinsèque du phénomène (l’effet de particule est bien réel). Nos connaissances relèvent toujours en fin de compte des probabilités, qui peuvent être très grandes sans jamais pouvoir être complètement exactes. Aussi bien les théories du chaos que la théorie quantique nous obligent à intégrer les processus non-linéaires de transition de phase, nouvelle physique prenant ses distances avec la géométrie du continu et le réductionnisme mathématique. Il semble que l’aboutissement actuel en soit la théorie des cordes qui remet en cause la notion de point sans dimension en physique. En effet, il faudra ajouter à la constante de Planck une longueur de Planck (2 x 10-35 mètres) et un temps de Planck (10-43 seconde) en dessous desquels on perd tout sens physique, toutes les valeurs devenant infinies. La matière et l’énergie sont discontinus, ils ont une épaisseur et une localisation, rugosité sur l’espace lisse de la géométrie.

D’une certaine façon, Zénon d’Elée avec ses sophismes (Achille et la tortue, la flèche immobile) avait déjà montré que la divisibilité à l’infini du continu abolit le mouvement et qu’un point sans dimension n’a aucune existence. Le caractère discontinu, fini, des phénomènes est une condition de l’existence elle-même ("Il est nécessaire que chaque existant ait une certaine grandeur, une certaine épaisseur, et qu’il y ait une certaine distance de l’un par rapport à l’autre"). L’infini est le signe qu’on a quitté la physique. Une physique entièrement continue est donc bien contradictoire. Ce n’est pourtant pas une raison pour abolir toute continuité, comme John Archibald Wheeler voulant tout réduire à l’information ("IT from BIT", l’être vient du bit prétend-il. Il serait plus juste de dire que l’être est relation, interaction). On ne peut penser la discontinuité des choses sans la continuité des mouvements dans l’espace et le temps.

René Thom qui, dans "Prédire n’est pas expliquer", attribuait "l’origine de la pensée scientifique" aux paradoxes de Zénon (p82), soutenait pourtant bien que toute discontinuité phénoménologique renvoyait à une dynamique sous-jacente (L’Antériorité Ontologique du Continu sur le Discret), les singularités ou les catastrophes constituant des points de rupture de fonctions continues, saillances qui ne peuvent surgir que d’un fond continu sur lequel elles se détachent. Toute topologie se définit par la continuité de son substrat et ne peut être reconstruite à partir du discontinu. Pourtant rien n’existe que le discontinu, ce qui a un bord (cobordisme). Le mouvement et l’espace impliquent donc aussi bien la continuité que la discontinuité car "seule la discontinuité se propage" (p104). Pour René Thom, "la mécanique quantique est incontestablement le scandale intellectuel du siècle" (p86) car il est persuadé qu’"il y a une dynamique continue, infra-particulaire, sous-jacente à la mécanique quantique" (p85). Dans la lignée de la théorie des cordes, il prenait d’ailleurs l’image d’une "ficelle enroulée autour d’un tambour [...] Un tour de tambour, c’est le quantum" (p83). Pour lui, on peut rendre compte des discontinuités et des phénomènes aléatoires par des "variables cachées" correspondant à des dimensions supplémentaires.

Les singularités apparaissent lorsque l’on soumet en quelque sorte l’espace à une contrainte. La manche de ma veste, si je la comprime, je fais apparaître des plis. C’est une situation générale. Cela ne relève pas de la mécanique des matériaux. J’énonce en réalité un théorème abstrait : lorsque’un espace est soumis à une contrainte, c’est-à-dire lorsqu’on le projette sur quelque chose de plus petit que sa propre dimension, il accepte la contrainte, sauf en un certain nombre de points où il concentre, si l’on peut dire, toute son individualité première.

La difficulté est bien de penser en même temps la continuité topologique et la discontinuité matérielle sans confondre les caractères ondulatoire et corpusculaire de la lumière ou de la matière en général. C’est une contrainte ontologique plus qu’épistémologique, ne pouvant justifier la réduction de la matière à l’information. En effet, contrairement à l’information, ce qui définit la matière ou une force c’est d’être localisée, d’occuper un lieu bien délimité. Le principe d’exclusion de Pauli qui stipule qu’un fermion ne peut pas prendre la même place qu’un autre fermion est donc absolument essentiel, principe fondateur de l’espace matériel, d’une position occupée ou non, niveau d’énergie piégé par une liaison électrique et qui fait masse.

S’il y a des positions matérielles, inévitablement discrètes, ayant une épaisseur minimale et des bords, celles-ci se détachent pourtant d’un substrat continu et de l’espace qui les sépare, par leur mouvement au moins. D’ailleurs, la physique quantique se caractérise par la généralisation des ondes électro-magnétiques comme la lumière (constituée d’un champ magnétique et d’un champ électrique oscillants), c’est une "mécanique ondulatoire" ce qui implique que "la somme de deux ondes est encore une onde. Cette propriété formelle qu’on appelle le principe de superposition, traduit en quelque sorte la quintessence du concept d’onde. La physique quantique va la reprendre et la généraliser afin de lui donner une portée beaucoup plus vaste [...] Cette description des états physiques par des vecteurs d’état (ou, si l’on préfère, l’affirmation équivalente que le principe de superposition leur est applicable) est l’idée fondamentale de la physique quantique. En somme, elle exige l’addition pour tout le monde" Étienne Klein, p74-76. Ces vecteurs d’état qu’on appelait aussi fonctions d’onde, forment un espace vectoriel qui est bien continu. "Ils sont des fonctions de l’espace et du temps" 76 même s’il ne s’agit finalement que de probabilité et de la superposition de tous les états possibles.

C’est donc bien à la fois par une fréquence continue, une fonction d’onde qui se propage, et par une interaction discontinue que les particules peuvent être décrites. Le caractère corpusculaire de la matière ou de l’énergie, de même que l’effet de seuil quantique, loin de réfuter toute physique du continu, et donc toute mathématisation, sont impensables sans la continuité de l’espace et de dynamiques sous-jacentes (un jeune physicien, Peter Lynds, a insisté récemment sur le caractère continu du temps indispensable à la continuité des choses et du mouvement, temps qu’on ne peut arrêter. 09/2003). La physique quantique n’apporte qu’une imprécision locale à des forces continues de longue portée puisqu’il n’y a rien que des ondes qui interagissent.

2. Dualité onde-particule

On peut dire que la dualité onde-particule renvoie à la dualité ontologique du continu et du discontinu, cependant avec la "mécanique ondulatoire" cette dualité devient une question entièrement physique se manifestant à la fois dans l’effet corpusculaire photoélectrique et dans les phénomènes d’interférences ou de diffraction ondulatoires (comme l’arc-en-ciel).

Dès 1905 Einstein expliquait l’effet photoélectrique par le fait que la lumière était constituée de quanta d’énergie, appelés photons, dont l’absorption par un métal produisait de l’électricité, ou pour un gaz une ionisation, car "leur énergie est transformée, au moins en partie, en énergie cinétique des électrons" (p247). Ce n’est pourtant qu’en 1917 qu’il donnera la véritable "théorie quantique du rayonnement". En 1913, Niels Bohr avait bâti un modèle d’atome basé sur la discontinuité quantique, interprétant les niveaux d’énergie de l’électron comme autant d’ondes stationnaires séparées par un quantum d’énergie, l’électron ne pouvant sauter d’un niveau à l’autre si l’énergie est insuffisante (inférieure à hf). Ces niveaux d’énergie croissante correspondent à des états stables d’inertie sans rayonnement (l’électron ne tourne pas mais tombe dans un puits de potentiel). La production d’électricité solaire applique quotidiennement ce principe de transformation des photons en électricité.

L’existence des quanta produit ainsi des sauts quantiques et des effets de seuil qui vont se répercuter à tous les niveaux phénoménaux (électrons, atomes, molécules, etc.). Toute réalité physique se retrouve soumise aux perturbations des transitions de phase, à l’indétermination chaotique dès le plus bas niveau. Ces discontinuités sont responsables du caractère corpusculaire de la lumière, comme de tous les rayonnements qui sont pourtant clairement ondulatoires comme on va le voir, puisqu’ils manifestent des phénomènes d’interférence et de diffraction.

Il a fallu attendre 1923 pour que Louis de Broglie généralise cette dualité onde-particule à toute la matière en posant l’équivalence mC2=hf qui semble impliquer la fusion de la mécanique ondulatoire (mécanique quantique) avec la relativité restreinte. La quatrième relation d’incertitude d’Heisenberg implique aussi que plus la longueur d’onde est petite et plus l’énergie est grande (paradoxalement, les transferts d’énergie sont d’autant plus élevés que les distances sont petites, ce qu’on constate avec une corde mollement ou fortement agitée). Dans ce cadre la matière se caractérise par une longueur d’onde trop courte pour se transmettre, sauf si on peut refroidir considérablement les atomes, et donc en diminuer la fréquence, jusqu’à obtenir ce qu’on appelle un condensat de Bose-Einstein exhibant leurs propriétés ondulatoires dans des "lasers de matière" par exemple (voir les atomes ultra-froids). Aussi étonnant que cela puisse paraître on obtient des signes caractéristiques d’interférence avec des "ondes" de matière. La matière est donc un "train d’ondes" (ou "paquet d’ondes") qui reste normalement localisé, comme l’électron qui se stabilise sur une onde stationnaire compatible avec sa longueur d’onde, piégé dans une interaction électrique (force de couplage, puits de potentiel). Mais le plus troublant c’est que l’atome lui-même, avec tous ses constituants, se ramène à une fréquence et un spectre uniques (spectrographie de masse). Pour Einstein, ce qui fait que l’énergie reste enfermée dans la masse, ce qui arrête sa propagation, c’est d’avoir une longueur d’onde trop courte (qui rebondit ?), et pour retrouver ses propriétés ondulatoires macroscopiques, il suffit d’arriver à une longueur d’onde plus grande que la taille de la molécule (en la refroidissant, ce qui baisse son énergie, sa masse et sa fréquence en augmentant donc la longueur d’onde). Il est paradoxal que plus la masse est grande et plus sa longueur d’onde est petite, comme si on s’enfonçait dans les profondeurs. Le fait que les fréquences de la matière soient plus courtes que celles des rayonnements lumineux explique pourquoi les microscopes électroniques sont plus précis que les microscopes optiques puisque la longueur observable L = h /(mv). Aussi étonnant que cela nous paraisse, les particules ont vraiment des propriétés ondulatoires alors qu’elles ont à l’évidence des comportements corpusculaires. En fait, on verra qu’il semble qu’on puisse considérer que les constituants élémentaires de l’atome ne sont pas à la fois des particules et des ondes mais alternativement, selon qu’il y a interaction (échange d’énergie) ou transmission de l’énergie (onde).

On peut noter que la théorie des cordes semble résoudre cette dualité onde-particule puisqu’une corde est un objet discontinu doté de vibrations ondulatoires, se déplaçant dans des dimensions continues. Il n’en reste pas moins difficile de comprendre l’articulation entre ces deux aspects contradictoires d’objet localisé et de champs ondulatoires à longue portée. L’expérience décisive ici est celle de la double fente de l’interféromètre de Young. Il s’agit d’un montage très simple : une source de lumière qui éclaire une plaque avec 2 fentes et derrière, un écran qui reçoit la lumière qui passe par les fentes (voir schéma). Le résultat manifeste classiquement le caractère ondulatoire de la lumière par une alternance de zones sombres ou éclairées. Rien que de très banal pour l’instant. L’étonnement vient lorsqu’on envoie un seul photon à la fois, en contrôlant l’énergie d’émission et de réception (un laser excite un atome qui absorbe un photon puis le reémet) : les interférences apparaissent encore manifestant que cet unique photon est bien passé par les deux fentes, ce qui semble pourtant incompatible avec le caractère quantique de la lumière puisqu’il faudrait admettre qu’un demi photon est passé par chaque fente. Voilà comment se pose physiquement l’énigme d’un photon à la fois onde et particule depuis les travaux de David Bohm (interférence à une particule, dit effet Aharonov-Bohm).

En fait ce n’est que depuis 1974 et les expériences de Davisson et Germer montrant ces phénomènes d’interférences avec un seul électron qu’on a du écarter l’explication d’une interférence entre plusieurs particules. Il s’agit bien d’une seule particule qui emprunte plusieurs chemins à la fois, chemins dits "indiscernables" (on en reparlera). Cette expérience a été répétée avec des neutrons en 1975 par Rauch et même sur de grandes molécules en 1998 par Zeilinger (molécule de 60 atomes de carbone, notées C60) ce qui semble bien impliquer une sorte de division de la molécule (particules et interactions) entre les fentes et sa reconstitution ultérieure !

3. Principe d’indiscernabilité ou de complémentarité (Principe d’incertitude)

Il faut souligner que les interférences disparaissent si on veut mesurer par quel trou passe une particule. La mesure effectuée sur une des deux fentes a pour conséquence de matérialiser la particule entièrement du côté où elle est détectée. Comme plus rien ne passe de l’autre côté, il n’y a plus d’interférence du tout ni d’indiscernabilité. Ce phénomène est d’ailleurs à la base de la cryptographie quantique car toute tentative d’espionnage est immédiatement détectée par la perturbation qu’elle introduit. En fait on peut montrer que la condition pour qu’une particule se divise en deux est la stricte égalité des distances à parcourir. Pour être indiscernables deux parcours doivent être équivalents, de même longueur notamment, ce qui veut dire de probabilités approchées. Si un des parcours est plus long il ne sera jamais emprunté comme le prouvent les expériences avec l’interféromètre de Mach-Zehnder déséquilibré (ci-dessous où la rallonge de gauche fait passer la probabilité d’arriver en TT de 50% à 100%). La transmission va (presque) toujours au plus court. C’est la raison pour laquelle toute mesure intermédiaire détruit l’égalité des parcours et l’indétermination initiale, faisant passer la probabilité de détection de la particule de 50% à 100% du côté mesuré. C’est le paradoxe connu sous le nom du chat de Schrödinger : impossible de ne pas déterminer la réalité quantique en voulant la mesurer (cela n’a rien à voir avec un subjectivisme où la réalité dépend de l’observateur car "les résultats des expériences seront rigoureusement les mêmes quelle que soit la personne qui les lit" Étienne Klein, p146).

Jusqu’à ces interférences à une seule particule, on expliquait l’influence de la mesure sur le résultat par le "mécanisme d’Heisenberg" ou principe d’incertitude d’Heisenberg qui se ramène à la grossièreté de nos mesures à l’échelle de Planck, ou des problèmes de collisions, et non à une modification effective des trajectoires, encore moins à la multiplication de ces trajectoires. Les dernières expériences nous obligent à une toute autre interprétation qu’une limitation dans la précision des mesures, bien plus proche du principe de complémentarité de Bohr entre dispositif et mesure. C’est bien le chemin emprunté qui est modifié par l’interposition d’un instrument de mesure et l’incertitude engendrée par l’indiscernabilité disparaît lorsqu’on rend les différentes trajectoires discernables, c’est-à-dire inégales.

Les relations d’incertitude - ou d’indétermination - de Heisenberg semblaient dire tout autre chose par l’impossibilité de mesurer en même temps la position et la vitesse d’une particule. L’incertitude sur l’autre mesure étant au moins de l’ordre de la constante de Planck, on pouvait penser qu’on avait seulement très légèrement perturbé sa vitesse, mais c’est plus grave. "Lorsque la quantité de mouvement d’une particule est connue, sa position n’a pas de réalité physique" (EPR 1935) Einstein, p459. Une conséquence, c’est que plus un atome est froid, et donc plus sa vitesse se précise (proche de zéro), et plus sa localisation devient floue formant alors "des taches des dizaines de milliers de fois plus grosses qu’un atome à température ambiante" (Pour la Science, 07/2004, p68). En fait, au regard de l’indiscernabilité, il faut comprendre cette limitation comme n’étant pas due à l’imprécision de la mesure mais bien au fait que "les deux grandeurs ne peuvent avoir de réalité simultanée". Ce que Einstein refusait c’est qu’entre deux boîtes qui ont 50% de chances d’avoir une bille dedans, le simple fait d’ouvrir la boîte suffisait à ce que la bille y soit, selon une probabilité de 100% ! C’est pourtant bien ce qui se passe dans le monde quantique où il est impossible de ne pas interagir avec l’objet mesuré, au-delà de l’aspect quantifié et corpusculaire qui ne s’actualise que ponctuellement dans une interaction (le quantum étant le niveau minimum d’interaction), alors que l’énergie, elle, peut tout-à-fait se diviser entre plusieurs fentes avec un niveau infraquantique, pour reconstituer ensuite un unique photon sur une cible, par une interaction de niveau quantique. On ne doit donc pas concevoir les photons comme des billes dans leur rayon de lumière, encore moins un chat en chair et en os, mais plutôt comme une dilution (onde) et une recomposition (particule). Seulement il ne faut pas voir l’onde comme un rayon mais comme un champ, une surface, un tissu sur lequel s’applique une tension. Pour montrer que le photon n’est pas simplement reflété par le milieu du miroir, il suffit d’enlever le milieu et constater qu’il est alors reflété par les bords ! Il faut distinguer ainsi la transmission ondulatoire de l’énergie par tous les chemins possibles d’avec sa matérialisation où elle se condense et se dépense dans une interaction. L’interprétation statistique des fonctions d’onde d’Erwin Schrödinger ne résulte pas d’une incomplétude de la théorie encore moins d’une remise en cause du déterminisme mais simplement du fait que l’interaction dépend du contexte, de la mesure ou des interventions extérieures qui expliquent ainsi le fait que différentes mesures puissent donner des résultats différents.

La fonction d’onde d’Erwin Schrödinger

fonctions d’onde d’Erwin Schrödinger

Fonction d’onde
Y (x) = cos (px/h) + i sin (px/h)
px est l’impulsion de x : vitesse * masse (mv)

La fonction d’onde, notée psy, est un nombre complexe fonction de la position et du temps. Son interprétation ne peut pas être "réaliste" mais seulement d’une probabilité de matérialisation, comme Max Born l’a montré, puisque c’est la mesure qui crée l’interaction (constituant "l’effondrement de la fonction d’onde" ou une "réduction du paquet d’onde", passage de la probabilité au fait). On additionne des "amplitudes" dont le carré (|Y|2) donnera la probabilité de mesure. "Une amplitude de probabilité est un nombre complexe, défini par une partie réelle et une partie imaginaire, ou par un module et une phase, dont le carré du module est une probabilité, c’est-à-dire un nombre réel compris entre zéro et un qui donne la probabilité de position" Gilles Cohen-Tannoudji). La fonction d’onde pourrait se déduire du principe de moindre action.

A partir de là, le monde quantique est principalement celui de l’interaction des photons avec les électrons, leur absorption (excitation), leur réémission (rayonnement) ainsi que la création de paires électron-positron (creux et bosses) sous l’effet de la perturbation magnétique d’un photon au voisinage d’un noyau lourd, et la production de photons par une collision électron-positron, ou toute autre création et désintégration de particules (plus l’énergie d’une particule est élevée, plus courte est sa durée de vie).

http://www.astrosurf.com/lombry/quantique-ondulatoire2.htm

Reste la quatrième relation d’incertitude qui énonce que l’énergie peut fluctuer dans un rapport inverse au temps (dt x dE >= h ou h /2p ce qui est strictement la généralisation de la constante de Planck et qui établit un rapport entre le temps et la portée d’une interaction). Plus le temps mesuré est court, plus la fluctuation d’énergie est grande (notamment la fluctuation du vide). Là aussi, ce pourrait être un défaut des instruments de mesure alors qu’on peut en déduire que, "tout se passe comme si le temps de vie fini d’un système instable impliquait une indétermination de son énergie, appelée largeur (en énergie) du système" Cnrs p43. On pourrait presque imaginer qu’au plus petit écart de temps possible (inférieur au temps de Planck ?), la fluctuation de l’énergie est telle qu’elle peut s’étendre à l’univers entier, sans pourtant se matérialiser (la portée de la fluctuation est inversement proportionnelle à la masse se propageant sur un rayon r = h/mc). Je suis malgré tout gêné par le fait qu’on fait comme si cette fluctuation était une déduction de principe et non une observation expérimentale. Il y a une image intéressante du vide quantique donnée par Gilles Cohen-Tannoudji, c’est celle du moment de vide qui précède une élection. Le vote est encore indéterminé et fluctuant avant l’ouverture des bureaux de vote, mais une fois exprimé, c’est comme si le 21 avril par exemple, existait depuis toujours. C’est dire que la tension préexistait mais ne s’était pas encore matérialisée dans l’interaction avec le dispositif.

4. Corrélations entre particules et non localité

L’expérimentation des interférences avec une seule particule change donc l’interprétation des phénomènes quantiques et de la dualité onde-particule, mais le passage à deux particules va nous apporter de nouveaux enseignements, faisant intervenir cette fois la corrélation entre particules. Ainsi, un interféromètre de Franson (ci-dessus) qui envoie deux particules (deux photons reémis par un atome excité) dans des sens opposés vers des montages identiques où elles peuvent aboutir, avec des probabilités de 50%, sur deux cibles correspondant soit à un chemin court, soit un chemin long, permet de montrer que "les deux particules ont donné chaque fois le même résultat", observant ainsi une étonnante "corrélation parfaite" quelque soit la distance. Ce n’est pas tout. Il suffit en effet de légèrement rallonger un des deux chemins longs (pas l’autre) pour s’apercevoir que "les deux particules ont donné chaque fois le résultat opposé", manifestant cette fois, lorsque l’interféromètre est déséquilibré, une "anti-corrélation parfaite" (p68).

Lorsque deux systèmes quantiques sont corrélés, il devient impossible de les décrire séparément (Schrödinger), et cela quelle que soit la distance qui les sépare (EPR) p85.

Non seulement donc tout se passe comme si une particule explorait tous les chemins pour trouver le plus court, en passant malgré tout par tous les chemins possibles, toutes les ouvertures, tous les interstices, pour aboutir finalement en un seul point, mais en plus, des particules peuvent être en corrélation parfaite et immédiate quelque soit la distance qui les sépare ! A ce stade "la délocalisation induite par le principe d’indiscernabilité est encore plus dramatique" p70. C’est ce que Einstein considérait comme un preuve d’inconsistance de la physique quantique dans l’article EPR de 1935 : qu’un système séparé puisse être influencé par une mesure sur un autre système. C’est pourtant bien ce que l’expérience confirme : une intrication des états quantiques, une non-séparabilité quelque soit la distance, comme s’il pouvait y avoir une action à distance immédiate (ne respectant pas la limite de la vitesse de la lumière et donc d’ordre géométrique). Il faut préciser que la non-séparabilité se manifeste au niveau des propriétés, par exemple des spins opposés, alors même que le spin de l’une ou de l’autre peut prendre toutes sortes de valeurs imprévisibles. Ce qui est prévisible c’est uniquement la corrélation. Du coup, on n’est plus du tout ici dans les probabilités mais dans une exacte corrélation, ce qui amène à réviser la place de l’indétermination au niveau quantique qui n’est pas, comme en statistique, due au trop grand nombre de particules, ni à un quelconque déterminisme mou qui pourrait enfreindre en quoi que ce soit le principe de causalité (Comme disait Léon Rosenfeld : "Une loi statistique est avant tout une loi, l’expression d’une régularité, un instrument de prévision"), mais bien aux variations contextuelles (il faudrait d’ailleurs distinguer probabilité, marge d’incertitude, effets de seuil et fluctuations quantiques). Le caractère rigide du déterminisme est même ce qui permet de concevoir un ordinateur quantique ou bien la cryptographie quantique qui n’admettent pourtant aucune erreur.

Les expériences décisives dont le livre de Valério Scarani rend compte en détail, ont établi qu’il ne s’agissait pas simplement de corrélations établie à la source, à variables cachées (ce qui impliquerait de respecter "l’inégalité de Bell" entre les mesures a ou a’ d’un côté et b ou b’ de l’autre, d’une valeur 0 ou 1 : (a+a’)b+(a-a’)b’ <= 2). Alain Aspect a montré en 1981-1982 que les corrélations quantiques violent l’inégalité de Bell, résultat confirmé sur une portée de 400m par Zeilinger en 1998, avec changements rapides de configurations postérieures à l’envoi des particules. "Les corrélations persistent et violent l’inégalité de Bell : l’échappatoire de localité est définitivement fermée !" p92, sans qu’il puisse y avoir échange d’information à une vitesse supérieure à celle de la lumière. Il faudra attendre pourtant les premières tentatives de cryptographie quantique pour faire tomber ces résultats étonnants du statut de problèmes philosophiques insolubles à celui de réalités physiques concrètes, bien que tous les physiciens n’en tiennent pas assez compte encore, loin de là.

Parfois on entend formuler l’interprétation orthodoxe de manière plus rapide, en disant que d’après cette approche la théorie quantique ne décrit pas directement la réalité "en soi", mais l’information que nous pouvons avoir sur elle. Il y a un goût kantien dans cette formulation.

En disant cela, on ouvre cependant les portes à un raisonnement qu’il est difficile d’éviter - c’est d’ailleurs le raisonnement qui marque le passage de Kant à l’idéalisme de Fichte : si la chose en soi est de toute façon inconnaissable, comment savons-nous qu’elle existe ? Pourquoi ne pas en conclure que l’information elle-même est la réalité ? p100

David Deutsch se base sur la notion d’ordinateur quantique, notion dont il est un des créateurs. L’idée de l’ordinateur quantique consiste à regarder le fait qu’un objet quantique explore différents chemins à la fois, comme une forme de calcul en parallèle, un calcul dans lequel le résultat final dépend de toutes les variantes possibles. p100

Pour finir, penchons-nous sur l’interprétation dite des "ondes-guides" ou des "ondes vides", suggérée par Louis de Broglie et formalisée par David Bohm. Il s’agit d’une interprétation qui essaye de remplacer le critère d’indiscernabilité par un mécanisme physique sous-jacent.

Nous avons vu dans les premiers chapitres de ce livre que les particules quantiques se comportent tantôt comme des corpuscules (chaque particule n’excite qu’un détecteur), tantôt comme des ondes (interférences). L’idée astucieuse de de Broglie consiste à explorer la possibilité que le corpuscule et l’onde ont tous deux une réalité physique. Plus précisément, les particules quantiques seraient des corpuscules, bien localisés, qui se déplaceraient guidés par une onde. C’est l’onde qui explore tous les chemins possibles, et c’est la modification des propriétés de l’onde qui influence les "choix" du corpuscule à chaque séparateur [...] L’hypothétique onde quantique ne doit pas transporter d’énergie, d’où le nom d’onde vide avec laquelle on la connaît. En fait, l’onde quantique qui guide le corpuscule serait inobservable [...] mais si l’on considère les interférences des corrélations entre deux particules distantes l’image devient plus problématique. En effet, pour expliquer les corrélations quantiques à distance, il faudrait postuler que les opérations effectuées sur une particule changent l’onde ressentie par l’autre particule de manière instantanée. Ceux qui connaissent un peu l’histoire de la physique ne tarderont pas à remarquer que les ondes vides de De Broglie et Bohm constituent en fait une version quantique de l’éther, ce support hypothétique pour la lumière dont la théorie de la relativité d’Einstein a décrété l’inutilité. Troisièmement, l’onde vide n’est pas une onde dans l’espace à trois dimensions, comme les vagues de la mer ou les ondes sonores. Pour s’en rendre compte, il suffit de rappeler que les interférences ne dépendent pas seulement des différences de longueur des chemins, mais de n’importe quelle différence (le spin de l’expérience de Rauch, l’état d’énergie dans l’expérience de Constance, la polarisation dans l’expérience d’Aspect...) p104-105

Même si cette théorie des ondes vides semble la plus proche de la réalité, elle n’est pas entièrement satisfaisante. Il semble bien, en effet, que les quanta se matérialisent là où une interaction est sollicitée (c’est un quantum d’action, un échange d’énergie, produit d’une durée par l’énergie transférée ou d’une longueur par une impulsion), et par le plus court chemin, celui qui dépense le moins de temps ou d’énergie. Plutôt que d’ondes vides, je parlerais plutôt de tension, de champ, d’ondes d’énergie infraquantique mais qui semblent occuper tout l’espace (éther, topologie, cordes), les interactions ayant un rôle d’attracteur, de puits de potentiel capables d’aspirer de l’énergie qui ne peut s’échanger que par quanta. Les quanta n’ont pas une réalité constante, comme une bille lancée d’un endroit à l’autre, mais sont la force d’arrachement de l’énergie de sa forme d’onde, force d’échange et de localisation d’une énergie ondulatoire qui est bien, elle, fréquence continue et non locale. Le caractère fondamental des ondes, le caractère ondulatoire de l’être qu’on retrouve partout est remarquable. Il résulte d’une agitation, une tension appliquée à un support qui la propage en se déformant plus ou moins rapidement. L’existence des ondes me semble impliquer l’existence d’un éther, d’une substance vibrante et donc qu’il n’y a pas vraiment de vide dans l’espace (on retrouve Aristote).

Par leur immédiateté, les corrélations semblent relever de contraintes géométriques de symétrie qui nous échappent encore mais plaident pour une dimension supplémentaire réunissant les particules éloignées, ou bien, à l’opposée, pour l’hypothèse "holographique" faite par Susskind et ’t Hooft réduisant l’espace à deux dimensions au lieu des trois habituels. On peut d’ailleurs se demander si le comportement des bosons (comme le photon) est comparable sur ce plan à celui des fermions (comme l’électron). Je trouve pour ma part qu’une corrélation entre fermions (interférences localisés) est beaucoup moins compréhensible qu’une corrélation entre bosons qui ne font que matérialiser un champ d’ondes.

En tout cas, il faut préciser, comme Alain Aspect le souligne, que la non-séparabilité ne se manifeste qu’en l’absence de perturbations. Toute mesure ou interaction a un effet de décohérence (perte d’information dont on peut penser qu’elle fonde, avec la durée de vie des particules, l’irréversibilité du temps et l’entropie). Dès lors la séparabilité peut être considérée comme un effet du bruit environnant qui isole chaque particule dans des interactions locales (sinon "mathématiquement, la cohérence quantique est traduite par la propriété de linéarité de l’espace de Hilbert" Gilles Cohen-Tannoudji, sauf qu’il ne se passe jamais rien dans l’espace de Hilbert que toute mesure va perturber).

5. Physique quantique et gravitation

Il est admis par la plupart des physiciens, en premier lieu par Einstein lui-même, qu’il y aurait une incompatibilité entre la mécanique quantique et la relativité, mais c’est une affirmation qu’il faut fortement nuancer car les deux théories ont de nombreux recoupements et bases communes (E=mc2, équations relativistes de l’électron de Dirac, théorie quantique des champs, etc.). En fait, à part le problème de l’immédiateté des corrélations qui semblent briser la limite de la vitesse de la lumière (paradoxe EPR), il y a surtout une difficulté à construire une théorie quantique de la gravitation (ce à quoi travaille la théorie des cordes pourtant), ne serait-ce qu’à cause de l’extrême faiblesse des forces gravitationnelles au niveau quantique par rapport aux autres forces. S’il y a incompatibilité ce n’est sans doute pas avec la relativité restreinte mais peut-être avec la géométrisation de la gravité opérée par la relativité générale.

En théorie de la relativité générale, la gravitation joue donc un rôle qui la distingue des autres forces - en particulier des forces électromagnétiques - dans la mesure où les dix fonctions qui représentent le champ de gravitation déterminent également les propriétés métriques de l’espace de mesure à quatre dimensions. Einstein, p344

Pour Richard P. Feynman "l’un des aspects les plus curieux de la théorie de la gravitation, c’est qu’elle admet à la fois une interprétation en termes de champ et une interprétation géométrique [...] L’interprétation géométrique n’est pas vraiment nécessaire, ni indispensable à la physique. Il se pourrait bien que toute cette coïncidence ne représente qu’une sorte d’invariance de jauge" p138. La géométrisation implique une immédiateté des forces alors qu’un champ se caractérise par des ondes gravitationnelles qui se transmettent à la vitesse de la lumière. En tout cas, particulariser la gravitation en l’assimilant à une déformation de l’espace est un obstacle à l’unification des forces électro-magnétiques et de la gravitation, comme le note Einstein lui-même. Ce qui particularise la gravité et permet d’assimiler le champ gravitationnel à une courbure de l’espace, c’est l’absence de pôles négatif et positif dans la gravitation contrairement aux forces électromagnétiques (de spin 1/2 ou 1). La gravitation n’intervient qu’entre des corps neutres (mais formés de charges électriques opposées), ce n’est pas une mince différence avec l’intervention de forces de liaison par complémentarité (entre + et -), forces d’attraction et de couplage résultant donc d’une symétrie brisée qui se reconstitue. On peut constater cette différence avec le caractère fractal de la gravitation (étoiles, galaxies, amas de galaxie, etc.), ce qui n’est pas le cas des phénomènes électromagnétiques qui s’annulent par paire et ne laissent que de très légères traces d’ionisation et de rares éclairs d’électricité aux niveaux supérieurs. D’un autre côté ce caractère fractal de la gravitation selon des échelles de temps proportionnelles aux échelles d’observation semble plaider pour un champ de forces gravitationnelles qui n’est pas immédiat, et donc pas d’ordre géométrique, mais implique une vitesse limitée de transmission. La Théorie des Cordes tente pourtant d’unifier toutes les forces en faisant de la gravitation un "monopôle magnétique" (inspirés des instantons de Donaldson), supposant une bien curieuse fuite énergétique dans d’autres dimensions, ainsi qu’en géométrisant les forces électromagnétiques dans des dimensions supplémentaires comme l’avait proposé Theodor Kaluza en 1919 déjà (Einstein p224), la dimension supplémentaire n’étant pas perceptible car elle serait plus petite que la longueur d’onde de la matière. Si Einstein avait rejeté la suggestion, c’est bien que cela remettait en cause la Relativité Générale et le privilège donné à la gravitation.

Il faut donc revenir sur ce qui motive la relativité générale, c’est-à-dire le principe d’équivalence entre gravitation et accélération (entre le poids et l’inertie), cas particulier de l’exigence d’une physique qui doit être indépendante des coordonnées et donc de l’accélération des corps. Les lois de la physiques doivent ainsi être covariantes non seulement à la transformation de Lorentz (vitesse de la lumière constante quelque soit notre vitesse, comme dans la relativité restreinte), mais elles devraient aussi être covariantes à tous les mouvements accélérés, non linéaires, dont la chute dans un champ de gravitation n’est qu’un exemple. Accélérations et vitesses relatives n’ont de sens qu’entre des masses et non par rapport à la vitesse de la lumière. Feynman remarque pourtant "qu’une charge accélérée rayonne, tandis qu’on n’attend pas d’une charge soumise à un champ gravitationnel qu’elle émette du rayonnement" p149. Il y a donc peut-être un moyen de différencier accélération et champ de gravité, mais ce que la Relativité Générale prétend obtenir par sa métrique riemannienne résultant de la déformation de l’espace physique sous l’influence de la matière, c’est bien l’indépendance de tout référentiel. Pour Einstein, "les coordonnées sont des paramètres mathématiques sans signification physique" p308. L’universalité des lois, quelque soit le lieu de l’univers ou le déplacement, est un principe de base de la physique depuis Galilée, auquel la Relativité Générale ajoute simplement "quelque soit l’accélération", car l’accélération est elle-même relative aux autres mouvements. Ces équivalences sont d’ailleurs formalisées par ce qu’on appelle maintenant les "théories de jauge".

Pour comprendre si la gravitation a une spécificité qui l’oppose aux champs polarisés, il faudrait sans doute mieux comprendre la masse, la matière elle-même, sa gravité qui se confond avec son inertie (bien que le photon, sans masse ni inertie, soit courbé par la gravitation comme s’il subissait la pesanteur, poids sans masse ?). Einstein s’inspirant de Ernst Mach considérait qu’il y avait inertie ou accélération seulement relativement aux autres masses. Il n’y a "pas accélération en soi mais accélération par rapport aux masses des autres corps" p305. "L’inertie dans ma théorie, c’est juste en fin de compte une interaction entre les masses" p388. Ce qui peut se comprendre lorsqu’on prend les masses comme déjà données, selon un arrangement arbitraire, mais devient carrément problématique lorsqu’on prend en compte la formation de la matière et de l’inertie elle-même à partir de l’absorption de rayonnements. En effet, l’acquisition de masse apparaît alors comme ce qui limite la portée d’une interaction, la ralentit ou la fixe, constituant sans doute une interférence localisée, une dissymétrie (fermions), une relation qui elle n’est pas relative. Rappelons que la masse ne dépend pas de la vitesse, c’est une masse au repos. Une particule sans masse n’est jamais au repos mais toujours à la vitesse de la lumière. On pourrait mettre ainsi en doute les principes de la Relativité Générale tout en gardant la spécificité de la gravitation par rapport à l’électromagnétisme. Cela supprimerait du même coup le conflit avec la mécanique quantique mais aussi les rêves de grande unification de la théorie des cordes. (Le rôle de l’entropie thermodynamique, du refroidissement qui pourrait augmenter l’intensité des liaisons ne devrait pas être négligé non plus). Mais revenons au niveau quantique.

En effet, qu’est-ce que la matière ? Selon la formule bien connue, E=mc2, c’est de l’énergie emprisonnée, de l’inertie, caractérisée par une longueur d’onde ultra-courte qui ne se propage plus mais s’enferme dans sa masse ou occupe un niveau d’énergie sous l’effet d’une force électrique, d’une interaction locale où les forces électriques s’annulent, produisant du même coup sa force d’inertie et de gravité (le temps). Ce qu’il faut comprendre, c’est la transformation d’énergie en matière, d’une interférence en inertie localisée. Pour Einstein (en 1905) "le rayonnement transfère de l’inertie entre les corps qui émettent et les corps qui absorbent". Les photons, bien que sans masse (ou si peu), transportent de la masse pourtant puisque la masse c’est de l’énergie. Une collision de photons produit des particules (et anti-particules : paire électron-positron, voir Dirac et l’antimatière), donc de la masse mais qui ne dure qu’à être prise dans une liaison électrique : seules existent des relations. Les constituants de la matière sont les quarks et les électrons qui forment les fermions chargés électriquement (sauf les neutrinos) et s’opposent aux bosons dont certains pourraient avoir une masse énorme, ce que je ne comprends pas. En effet, les bosons (spin 1 ou 0) sont de simples véhicules des interactions comme le photon, c’est de l’énergie libre qui se transmet à des vitesses proches de celles de la lumière, émission ou absorption d’énergie, et se manifestent quantiquement seulement dans les interactions, alors que les fermions (spin 1/2) constituent l’inertie elle-même, la matière, sa localisation (principe d’exclusion de Pauli), son épaisseur, sa résistance, sa gravité. C’est, semble-t-il, le caractère impair des fermions, leur incomplétude qui les rend réactifs et manifeste leur existence matérielle localisée, bien différemment d’une matérialisation quantique de particule énergétique. En effet, les fermions ont tendance à se lier par paire et les paires liées se comportent alors comme des bosons (ils ne sont plus réactifs). Ceux qui restent fermions solitaires, donc incomplets, forment ainsi des fermions composites qui peuvent se décrire comme une assemblage de n bosons + 1 fermion, le "plus-un" constituant le défaut de transmission, la brisure de symétrie de la matière, ce que Aristote appelait sa privation, déterminant son orientation, sa cause finale.

A cette analyse de la matière comme improbable brisure de symétrie se manifestant par ses interactions durables et son caractère incomplet, il faut ajouter que les particules (ou les cordes) se caractérisent par un certain nombre de dimensions qui rendent compte des types de liaison des particules, de leurs complémentarités, ce qu’on appelle l’espace interne quantique. Ce sont ces dimensions que la théorie des cordes ajoute à notre espace-temps comme modes de vibration des cordes, multiples brisures de symétrie (ou degrés de liberté) dans différentes dimensions qui sont sans doute, selon la théorie quantique : charge, masse, isospin, hypercharge, étrangeté, couleur (types de quarks). Avec les 4 dimensions de l’espace-temps, on en est donc déjà à 10. On voit que la masse n’est ici qu’une valeur comme une autre, dont un hypothétique "boson de Higgs" de spin 2 serait porteur, ce qui semble contradictoire avec une masse résultant de l’inertie de liaisons de charges électriques opposées, et encore plus d’une déformation de l’espace.

Il me semble nécessaire de séparer la cause de la matière, comme force électromagnétique de cohésion, et son effet inertiel localisé déterminant sa géométrie, son accélération et sa gravité. Il semble bien, en effet, que c’est l’énergie de liaison qui est la véritable cause de la matière puisque cela implique qu’il faut dés lors un apport d’énergie extérieur pour "briser cette brisure de symétrie", c’est-à-dire que la force de liaison empêche désormais la désintégration de la particule malgré les fluctuations quantiques (en l’absence d’apport d’énergie). Il n’y a donc pas de commune mesure entre les effets quantiques de fluctuation de l’énergie et la rigidité d’une matière constituée de relations très solides, matière cristallisée qui dure et pèse de tout son poids, ayant besoin d’une énergie plus ou moins importante pour se désintégrer en libérant l’énergie considérable qu’elle retenait dans son inertie. La matière relève de la relativité (inertie, relation) plus que des quanta (énergie, transmission) qui la constituent pourtant. Il n’y a pas grand chose de commun entre ces différents niveaux de réalité qui n’obéissent pas aux mêmes lois.

Examinons pour finir quelques hypothèses hétérodoxes. Ainsi un inconnu, Glen Angus Graham, suggère qu’il y aurait une contradiction à parler d’une longueur de Planck dans le cadre de la théorie de la relativité pour laquelle distance et taille dépendent de la vitesse. Par contre, le principe d’incertitude (vitesse/position) en Mécanique Quantique découlerait de la relativité elle-même. Il va jusqu’à dire que "La Mécanique Quantique résulte de la Relativité générale qui est sujette aux lois de la Relativité restreinte (dualité taille/distance)". Dans ce cadre, la dualité onde-particule serait une question de vitesse, la particule s’observant à l’arrêt (interaction), alors que l’onde transporte l’énergie à la vitesse de la lumière. Tout ceci me semble sujet à caution, pas du tout assez fondé, mais suscite quelques questions à creuser. Etant complètement incompétent en physique, je ne prétend à rien d’autre qu’à témoigner des questions suscitées par ce que je peux en comprendre, c’est-à-dire fort peu, comme la plupart.

Annexe sur les constantes de la physique :

La matière se caractérisant par une longueur d’onde implique longueur, durée et localisation.

Il y a 3 grandeurs fondamentales : longueur, durée et masse auxquelles sont associées 3 constantes fondamentales : c, h et G (il faudrait ajouter la charge électrique eV). "c", vitesse de la lumière, est une fréquence multipliée par une longueur d’onde. Dans les formules E=mc2 ou E=1/2mv2, l’énergie correspond à une masse multipliée par une longueur au carré divisée par un temps au carré même si dans le cadre de la relativité générale longueur et durée sont inséparables (temps propre).

Rappelons que, selon la formule de Louis de Broglie, la masse m=hf/c2.

On peut vouloir relier comme Einstein (note page 200) les constantes à des phénomènes physiques au-delà bien sûr de leur valeur numérique qui dépend de l’échelle de mesure choisie.

Pour un amateur comme Glen Angus Graham, il faudrait relier G et h, la constante de Planck représentant l’énergie minimum nécessaire pour échapper à G.

"La force gravitationnelle entre deux électrons est 1043 inférieure à la force de répulsion électrique entre leurs charges négatives" (Pour la Science p108). Dirac remarquait que ce rapport de 1043 est approximativement égal au nombre de tours effectués par l’électron autour du proton depuis le big bang" ! Selon cette hypothèse "la constante gravitationnelle est proportionnelle à l’inverse de l’âge de l’univers" (p100).

On peut préférer l’hypothèse de Di Mario pour qui le rapport entre gravité et force électrique (2.4001117x10-43 ) est à rapprocher plutôt du temps de Planck. A l’inverse (pour Feynman) le rapport force électrique sur force gravitationnelle est de 4,17 x 1042.

Pour des physiciens très sérieux, du CNRS par exemple, le proton ayant une masse 1019 fois inférieure à l’énergie de Planck et une taille 1019 fois supérieure à la distance de Planck, il pourrait y avoir unification des forces de gravitation et des forces électromagnétiques à des distances de 10-19 mètre, mais tout cela reste plus qu’hypothétique (rappelons que cela impliquerait que la charge électrique soit une forme de gravitation alors que la gravitation n’a pas de pôles opposés ce qui permet sa géométrisation).

- c = 299 792,458 km/s (vitesse de la lumière)
- G = 6.6729177325x10-11 m3 kg-1 S-2(force de gravité)
- eV = 1,6 x 10-19 J (charge de l’électron correspondant à une longueur d’onde de 1,2 nanomètre)

- h = 6.62606883731x10-34 J (constante de Planck)
- La longueur de Planck est 2 x 10-35 mètre, correspondant à la force gravitationnelle au niveau quantique. L=racine de Gh/c3
- Le temps de Planck, 10-43 seconde permet de parcourir la longueur de Planck à la vitesse de la lumière. Plus exactement : Planck time = 2.3950193x10-43
- La fréquence de Planck est 1043 hertz.
- L’énergie de Planck est de 1019 gigaélectronvolts (ou 1028 électronvolts), énergie maximum correspondant à la longueur de Planck ("plus un choc met d’énergie en jeu, plus les distances qui interviennent dans la collision sont petites" Pour la Science 01/2003, p108).

Il faudrait ajouter la constante K de Boltzmann, coefficient de proportionnalité de l’entropie, ou quantum d’information, permettant de calculer l’entropie S = K log W, où W est le nombre de complexions, de variables indépendantes, de degrés de liberté c’est-à-dire la probabilité de son état (position, vitesse). L’entropie peut se définir comme l’information perdue, le désordre, la multiplication des configurations possibles, des irrégularités, la perte de forces structurantes à longue portée et le manque d’information qui en résulte. Pour toute augmentation d’entropie on a dS = Se + Si, combinant entropie externe qui peut être réversible (Se) et "génération d’entropie" interne irréversible (Si) dont s’occupe la thermodynamique des processus irréversibles. L’irréversibilité est liée aux frottements, aux échanges (thermiques ou autres), aux phénomènes de décohérence, au temps de désintégration (durée de vie) mais surtout à l’évolution vers l’état de plus grande probabilité, la perte des contraintes initiales.

k = 1,380 66 × 10-23 JK-1
ou = 8,617 x 10-5 électron-volt/Kelvin

L’information exprime une interaction. La constante de Planck h est interprétée comme la quantité minimale d’interaction et la constante de Ludwig Boltzmann K comme le coût minimal d’une information (en fait le rapport entre quantum d’énergie en Joule et quantum de température de Kelvin, l’énergie qu’il faut pour élever la température d’un degré à pression et volume constant, or la température, l’agitation des molécules, c’est l’entropie de Clausius). Dans la "constante des gaz parfaits" R = KBNA, KB est la constante de Boltzmann et NA le nombre d’Avogadro (6,022 x 10-23) mais c’est la constante de Boltzmann qui est déduite de la constante des gaz parfaits et non l’inverse. On comprend qu’on retrouve K dans la formule de Shannon mesurant la quantité d’information puisque c’est basé sur le coût électrique d’une information transmise.La statistique quantique est basée sur ces deux constantes h et K alors que la théorie du champ quantique est basée sur h et c, comme la relativité générale sur G et c. La longueur de Planck, à la base de la théorie des cordes unifie h, c et G.

Valeur des constantes et unités de mesure : http://hpiers.obspm.fr/eop-pc/models/constants_fr.html

Gilles Cohen-Tannoudji sur les constantes de la physique :
http://perso.club-internet.fr/gicotan/DossierPoly2003/2003_IV2.htm

Références :

Initiation à la physique quantique, Valerio Scarani, Vuibert, 2003
Petit voyage dans le monde des quanta, Etienne Klein, Flammarion, 2004
Voyage au coeur de la matière, Belin-CNRS, 2002
Albert Einstein, Textes choisis et commentés par Françoise Balibar, Points, 2002
Richard P. Feynman, Leçons sur la gravitation, Odile Jacob, 2001
Particules et lois de la physique, Richard Feynman - Steven Weinberg, Interéditions, 1989
Pour la Science (spécial Gravitation) 01/2003

René Thom, Prédire n’est pas expliquer, 1991, Flammarion, Champs
La théorie de la relativité d’Einstein, Ernst Cassirer (1921), Cerf, 2000
http://nazim.fates.free.fr/Epistemo/Cassirer1921/commentaire_Cassirer.html

Néhémie Mathieu

Extraits de
"Le système de Leibniz et la physique quantique" :

Exposé de la problématique quantique

2.1. Introduction

Il est maintenant temps de s’intéresser à la physique quantique pour réunir tous les éléments nécessaires pour mettre rigoureusement le système de Leibniz à l’épreuve. Mais la confrontation du système de Leibniz et de la mécanique quantique ne peut se faire à armes égales car, malgré toute l’étendue, toute la complexité et toute la perspicacité que nous lui attribuons, le système de Leibniz reste le travail d’un seul homme tandis que la physique quantique est le fruit du travail de centaines de théoriciens et d’expérimentateurs pendant un siècle entier. Donc si nous nous sommes refusé l’exhaustivité dans le premier cas pour des questions de méthode, entreprendre l’exposé complet de toute la théorie quantique est non seulement hors de nos capacités mais il faudrait plusieurs vies d’hommes au meilleur des physiciens ou des épistémologues pour achever une telle entreprise. Et cela n’est pas uniquement dû à la masse des travaux qui ont été fournis dans ce domaine par plusieurs générations de physiciens mais également au fait que la théorie quantique est exprimée dans un formalisme mathématique d’une extrême complexité qui utilise parmi les plus pointus des modèles mathématiques imaginés. Comprendre tous les rouages de ce formalisme est donc une prouesse qui nous est inaccessible. Fort heureusement, une telle compréhension n’est pas nécessaire à l’objectif que nous nous sommes fixé.

Cet objectif n’est pas l’exposé de toute la théorie quantique ni de tout son formalisme, mais uniquement de ses aspects philosophiquement problématiques, afin de pouvoir opérer ensuite une fructueuse confrontation avec le système leibnizien. Comme nous allons le voir, si la problématique quantique est clairement liée aux particularités de son formalisme, elle ne réside pas dans ses détails et peut être mise en évidence par des cas types assez simples pour nous être parfaitement accessibles. On peut voir cependant que, comme c’est également le cas dans d’autres domaines scientifiques aussi spécialisés, nous devrons accorder une foi quelque peu aveugle dans les données que nous fournissent les scientifiques car l’actuelle spécialisation des domaines de recherches nous empêche d’opérer de réelles vérifications dans un domaine qui n’est pas le nôtre (d’autant plus que les vérifications expérimentales demandent des moyens immenses). Là encore nous pouvons mettre en avant que cela n’est pas gênant dans la mesure où, si la physique quantique est le sujet de nombreuses controverses et luttes intestines -sûrement plus que dans toute autre science d’ailleurs, celles-ci ne portent quasiment pas sur ses aspects techniques ou sur le contenu de son formalisme. Au contraire la physique microscopique jouit d’un consensus très fort quand à l’efficacité opératoire de ses outils mathématiques et c’est bien davantage sur la question de la signification de ces outils et sur la nature des objets étudiés que des interprétations divergentes s’affrontent. D’ailleurs nombreux sont les microphysiciens qui, pour comprendre des outils épistémiques parfaitement efficaces et maîtrisés, ont dû se tourner vers la philosophie afin d’étudier la genèse et la signification de certains concepts issus de la physique classique qui ne revêtent plus la même évidence concernant la physique quantique.

Les découvertes de la physique quantique durant la première partie du vingtième siècle sont souvent rassemblées sous le terme de 'révolution quantique''. Nous allons donc commencer par éclairer ce point par l'étude plus ou moins chronologique de la naissance des concepts quantiques, centrée sur les questionnements qu'imposent ces découvertes. Nous serons alors en mesure de déterminer dans quelle mesure et sur quels points la microphysique peut être qualifiée de révolutionnaire. La communauté des physiciens ne s'étant pas arrêtée là et ayant fourni de nombreuses réponses de multiples formes aux problèmes que soulève la mécanique quantique, nous tenterons de passer en revue les différents types de solutions proposés. Ce sera l'occasion d'aborder la façon dont s'articulent, dans la problématique quantique, les traditionnelles antinomies que sont l'idéalisme et le réalisme ainsi que l'opératoire et le théorique. A cette occasion, des questions majeures d'ordre ontologique et épistémologique concernant la physique quantique seront abordées. 2.2. Les problèmes posés par la physique quantique 2.2.1. L'échec des conceptions classiques Discontinuité et quanta Tout d'abord il nous faut faire un rapide rappel des acquis de la physique à la fin du dix-neuvième siècle. La mécanique newtonienne est toute puissante et universellement reconnue. La nature fondamentalement corpusculaire de la matière fait plus que jamais l'unanimité, de même que le déterminisme qui gouverne son mouvement. La physique électromagnétique bénéficie également d'une stabilité et d'un consensus exceptionnels, ayant permis de réunir dans une même théorie l'optique comme l'ensemble des phénomènes magnétiques. Il faut également remarquer que presque toute la communauté scientifique est alors complètement immergée dans un paradigme atomiste. Il est admis que la matière est entièrement composée d'atomes, eux-mêmes composés d'un ou plusieurs électrons en orbite autour d'un noyau, mais surtout de vide. Cependant certains points concernant l'atome sont encore flous, notamment les modalités mécaniques qui permettent à un électron de se maintenir ainsi en orbite autour du noyau. La thermodynamique, stimulée par la révolution industrielle, est également très florissante, permettant d'expliquer de nombreux phénomènes concernant les transferts d'énergie et les rapports entre interaction moléculaire et évolution d'un système macroscopique. Ce sont justement des travaux de thermodynamique qui permirent à Max Planck, au tout début du vingtième siècle, d'introduire la constante h qui porte son nom, résultat traditionnellement pris comme commencement à la physique quantique. Alors qu'il tente de mesurer le rayonnement du corps noir, c'est-à-dire la lumière émise par un métal porté à une très haute température en l'absence de tout autre rayonnement, il s'avère que l'énergie ne se mesure que par’paquets’’. L’introduction de la constante de Planck correspond clairement à l’apparition d’une certaine discontinuité dans les transferts d’énergie observables. Pourtant Planck n’y voit encore qu’un artifice de calcul car il partage l’idée universellement admise que l’énergie peut théoriquement être mesurée dans des quantités aussi petites que l’on veut.

C’est Albert Einstein qui prend toute la mesure de cette découverte en supposant qu’à tout rayonnement lumineux correspondent des 'grains de lumière'' (qui seront plus tard appelés photon). Il s'agit de la première apparition du concept de quanta par l'interprétation ontologique que fait Einstein de la constante de Planck : si l'énergie se transmet de manière discrète, que des nombres entiers apparaissent inévitablement à une certaine échelle dans tout processus de quantification de l'énergie, c'est qu'elle doit avoir une nature corpusculaire. Par cette supposition, le jeune physicien de vingt six ans parvient d'ailleurs à résoudre un autre problème majeur que peinait à solutionner la physique ondulatoire, l'effet photoélectrique. Il n'est pas nécessaire de préciser la nature de cet effet mais il faut seulement remarquer que là où la théorie purement ondulatoire de la lumière ne permettait pas d'expliquer une bizarrerie de l'interaction entre matière et lumière, une vision corpusculaire y parvient. En réalité, Einstein voit dans cette apparition de la discontinuité l'opportunité de réunifier dans un paradigme unique et cohérent l'atomisme, qui pose fondamentalement la discontinuité, et la continuité radicale qui caractérise la formulation traditionnelle de l'électromagnétisme. C'est également ce but là qui guide Niel Bohr lorsqu'il parvient, en utilisant cette même constante de Planck et en n'admettant que des transferts discrets d'énergie, de rendre compte du fait qu'un électron en orbite autour d'un noyau atomique ne finit pas par perdre toute son énergie pour venir s'écraser sur ce dernier comme le prédit la mécanique de Newton. La théorie qu'il met en place permet également d'expliquer les transferts d'électrons qui s'effectuent entre atomes et dont la mécanique classique ne rend pas compte non plus. Ainsi, de la même manière que les nombres entiers apparaissent dans les mesures de Planck, seuls certaines orbites sont permises à un électron, ce qui lui permet de garder le même orbite sans perdre d'énergie, jusqu'à ce qu'il émette un quantum d'énergie en passant d'une orbite à l'autre (qui peut être d'un atome à l'autre). Bohr vient de créer le concept de saut quantique qui n'est absolument pas géré par la mécanique newtonienne et par conséquent met parfaitement en évidence la contradiction qui naît entre un tel modèle discontinuiste et les fondements de mécanique classique. On peut voir comment, à première vue, l'apparition de la physique quantique correspond à une confirmation du modèle atomiste autant qu'à l'échec des postulats de la physique newtonienne. L'idée que la discontinuité puisse être ontologique a le vent en poupe, mais bientôt des problèmes théoriques directement liés à cette discontinuité feront leur apparition. Ondes et particules Un des problèmes majeurs soulevés par la nouvelle théorie quantique est que l'apparition d'une vision corpusculaire de l'énergie est symétrique celle d'une onde de matière. Cela ne fut pourtant pas immédiatement évident dans un contexte où tous les objets de la physique, jusqu'à ce moment là, appartenaient soit au domaine des corpuscules, soit à celui des ondes. La conception ondulatoire de la lumière, ainsi définie avec efficacité par la physique électromagnétique, entre donc en opposition avec les grains de lumière de nature corpusculaire de Einstein, qui montrent pourtant eux aussi leur validité opératoire. C'est Louis de Broglie qui eut le premier l'idée que des particules élémentaires comme le photon devaient être pilotées par une onde pour qu'elles puissent évoluer de cette manière une fois étudiées en grand nombre. Là encore la rupture avec les conceptions classiques est radicale car non seulement cette idée d'onde pilote associée à toute particule matérielle est inédite mais aucune théorie ne peut à ce moment là en rendre compte. L'aspect le plus dérangeant d'une telle théorie est apparue cependant lorsqu'elle fut confirmée expérimentalement par les expériences de Davisson et Germer et ensuite par d'autres types d'expériences. La physique classique connaît un moyen très simple, par le dispositif des fentes de Young, de montrer si un phénomène est de nature corpusculaire ou ondulatoire. Il s'agit tout simplement de placer entre l'instrument émettant corpuscules ou onde et l'écran capteur un panneau percé de deux fentes. Si on a affaire à des corps comme des billes, il est aisé pour n'importe qui de prévoir quelle figure se présentera sur le capteur : n'apparaîtront sur l'écran capteur que des marques localisées pour les billes ayant étés lancées dans l'axe d'une des fentes si seulement l'une des deux est ouvertes, ou dans l'axe des deux si les deux sont maintenues ouvertes. On ne peut faire la différence entre les résultats d'une expérience faite avec les deux fentes ouvertes et l'addition pure et simple des mesures de deux expériences effectuées une fois avec une seule fente ouverte et ensuite avec l'autre. Dans le cas d'une onde projetée avec une seule fente ouverte, l'écran sera marqué d'une manière assez similaire à un phénomène corpusculaire, dans l'axe de la source et de la fente. La différence apparaît dans le cas d'une onde projetée lorsque les deux fentes sont ouvertes : entrant dans deux fentes différentes l'onde se divise en deux ondes séparées qui interfèrent alors entre elles dans l'intervalle qui sépare le panneau de l'écran capteur. Sur ce dernier apparaissent alors des franges d'interférence qui sont des zones où l'onde n'a pas été détectée bien que située dans l'axe entre la source et une fente. En d'autres termes, le résultat de l'expérience effectuée avec une onde et deux fentes ouvertes n'aboutit pas aux mêmes mesures que si on effectuait successivement une expérience avec seulement l'une des deux fentes ouvertes puis une autre avec la seconde fente et que l'on juxtaposait leurs résultats. Cette expérience est décisive pour distinguer les phénomènes corpusculaires des phénomènes ondulatoires dans la mesure où seulement dans le cas de ces derniers des franges d'interférences apparaissent. L'expérience de Davisson et Germer est une simple transposition de cette expérience à l'échelle quantique grâce à un canon à électrons. Lorsque les électrons sont projetés un part un, des marques de même type que les marques des billes apparaissent sur l'écran capteur, c'est-à-dire des marques individuelles, bien localisées et sans franges d'interférence. Cela confirme leur nature corpusculaire car de telles marques ne peuvent pas être données par des ondes. Mais les choses se corsent lorsque les électrons sont émis en grands nombres car des franges d'interférence apparaissent bien qu'ils soient toujours possibles d'observer des impacts localisés d'entités corpusculaires. Il semble donc nécessaire de traiter un ensemble de nombreux corpuscules comme une onde et de lui donner une longueur d'onde ainsi qu'une fréquence bien que cela soit en totale opposition avec les bases de la physique classique. Le plus intéressant et le plus original dans une telle découverte ce n'est pas tant que la physique a mis en évidence un nouvel objet aux propriétés inédites, car cela peut arriver souvent, mais le problème naît que ce nouvel objet est censé constituer les fondements de toute matière et de tous les phénomènes que nous observons. Nous ne voyons pas les objets macroscopiques qui nous entourent se déplacer comme dirigés pas une onde, pas plus que des corps effectue des déplacements arithmétiques dans un intervalle de temps nul comme lors d'un saut quantique. Si la mécanique newtonienne, comme la plupart des théories de physique classique, est fort intuitive et ne fait que préciser des notions de mouvement et de corps qui nous sont en réalité très familières, la physique quantique voit apparaître des entités et des principes qui semblent totalement hétérogènes avec notre expérience commune. Bien que pour l'instant cela puisse être considéré -avec cependant un manque de rigueur caractéristique- comme une vulgaire curiosité, une telle distance entre la physique quantique et le sens commun ne fera, comme nous le verrons plus tard, que s'accentuer. 2.2.2. La construction du formalisme Fonction d'onde et vecteur d'état L'idée d'une onde pilote ayant été posée, il restait pour la prouver à fournir un outil basé sur la notion d'onde capable de prédire la trajectoire d'une particule. En effet une telle conception, aussi novatrice et séduisante qu'elle paraisse, ne peut être rigoureusement adoptée que si elle passe l'épreuve de l'expérience, c'est-à-dire que ses prévisions soient avérées lors de constructions expérimentales appropriées. Si de Broglie n'avait pas donné de moyen mathématique pour obtenir de telles prévisions, Edwin Schrödinger fut celui qui permit cette validation en fournissant l'équation qui porte son nom. La célèbre équation de Schrödinger est une équation d'onde, c'est-à-dire qu'elle permet de décrire et de prédire le comportement de l'onde associée à toute particule que de Broglie avait mis en évidence. Pour être exact il faut tout de même noter que Schrödinger avait d'ores et déjà complètement abandonné le concept de particule pour ne conserver que celui d'onde. Cela montre comment une telle association entre onde et corpuscule était particulièrement difficile à admettre à ce moment là. Pour Schrödinger, ce que l'on peut observer comme présentant quelques analogies avec une particule, comme l'aspect discret des transferts d'énergie, ce sont les minuscules paquets d'ondes qui y correspondent et qui donnent l'impression ou l'illusion d'un objet corpusculaire. Ainsi l'électron n'est pas un corpuscule qui gravite autour du noyau atomique mais une onde centrée sur celui-ci. Quoiqu'il en soit l'équation de Schrödinger fournit le moyen, encore utilisé aujourd'hui, de prédire l'évolution dans le temps des entités étudiées en physique quantique au moyen de fonctions d'onde. La conception purement ondulatoire de Schrödinger montra tout de même ses limites. Plusieurs difficultés liées à la notion de fonction d'onde furent notées, comme la prévision de la réaction d'une telle onde lors de collision qui est en désaccord avec le comportement bien plus proche de celui d'un corpuscule qui est observé expérimentalement. L'abandon du concept d'onde permet de faire disparaître ce type de problèmes, mais, pour d'autres raisons, il est impossible d'y substituer une conception corpusculaire. Ainsi l'équation de Schrödinger produit ce que l'on appelle le principe de superposition, c'est-à-dire que, d'une manière analogue au comportement des ondes classiques, toute interaction de deux fonctions d'onde produit une nouvelle fonction d'onde qui réunit les deux premières et reste entièrement soumise au principe d'évolution de l'équation. Ce principe, non seulement rend caduque une conception corpusculaire, mais pose également une difficulté non négligeable à une théorie ondulatoire : une fonction d'onde évolue dans un espace à 3n dimensions, où n est le nombre de particules qu'elle décrit (ou paquets d'ondes dans le langage de Schrödinger). On doit à Paul Dirac la reformulation du formalisme de Schrödinger qui est encore beaucoup utilisée aujourd'hui et que l'on qualifie souvent de point de vue orthodoxe. S'il y est usuellement fait référence à des particules, c'est davantage de système dont on parle car un système peut être composé de plusieurs particules. On ne se prononce d'ailleurs guère sur le statut de ces particules et sur leur nature fondamentale, elles ne bénéficient guère mieux que d'une définition essentiellement opératoire. Le concept de fonction d'onde est remplacé par celui de vecteur d'état, bien plus abstrait et neutre concernant la nature de l'objet considéré, et ces vecteurs d'état évoluent dans des espaces de Hilbert tout autant abstrait et dotés de n dimensions, où n est le nombre d'observables du système (ce qui revient au même que les 3n dimensions de la formulation précédente et permet de conserver sans problème le principe de superposition). On peut dans un premier temps noter que cette reformulation n'est que la première, et dans un certain sens le modèle archétypal, des restructurations dont la physique quantique est perpétuellement l'objet. Les outils mathématiques sont globalement conservés mais les termes sont changés, plus souvent pour des raisons de cohérence logique et théorique qu'à cause de nouvelles données expérimentales. Dans le cas présent le formalisme évolue vers plus d'abstraction et vers les aspects consensuels de la microphysique, à savoir les succès opératoires qu'elle connaît, mais d'autres reformulations plus discutées et plus nombreuses seront proposées pour orienter la théorie quantique vers davantage de prétentions ontologiques. Ainsi certaines idées de de Broglie et Schrödinger, bien qu'ayant été mises en échec par les difficultés que nous avons évoquées, seront remises au goût du jour par des théories tentant de surmonter ces difficultés. Enfin, malgré le langage parfois corpusculaire de la formulation orthodoxe de Dirac (avec les références faites à des particules), on peut remarquer que toutes les précautions sont prises pour qu'aucun avis ne soit donné sur la caractère ondulatoire et/ou corpusculaire des entités quantiques. De même aucune signification ni aucun explication n'est donnée à la présence dans un tel formalisme d'espaces dotés de plus de trois dimensions. Ce parti pris permit de construire un formalisme inattaquable et très efficace mais incapable de fournir un réel discours sur la nature des choses. Probabilité et prévisibilité Voyons comment la théorie quantique, dans sa formulation orthodoxe, peut être qualifiée de statistique ou d'ensembliste. Ces expressions peuvent s'avérer trompeuses dans certaines circonstances mais elles possèdent une part de vérité que nous allons dégager. Dans un espace de Hilbert, un vecteur d'état (ou une fonction d'onde) ne correspond pas rigoureusement à un système précis mais à un ensemble de systèmes physiques que l'on peut considérer comme identiques. En d'autres termes, il décrit un dispositif expérimental reproductible et par conséquent se définit de manière très opératoire. Cela est encore plus clair si l'on remarque que la notion de grandeur physique est remplacée par celle d'observable pour des raisons que nous éclaircirons ultérieurement. Un vecteur d'état permet donc de prédire quelle valeur de tel observable sera mesurée, non pas sur tel système physique, mais sur un ensemble de systèmes. Il permet donc de calculer une fréquence statistique, c'est-à-dire le nombre de fois n que la valeur en question sera observée sur N dispositifs expérimentaux identiques. Dans le cas d'un système individuel, c'est-à-dire pour un dispositif expérimental particulier, la prédiction que pouvait fournir le vecteur d'état en terme de fréquences statistiques devient la probabilité d'obtenir telle ou telle valeur sur lobservable mesurée. Une réelle prédiction, c’est-à-dire la possibilité de prédire que telle valeur sera obtenue ou pas, sur un système individuel, n’est possible que dans les cas très particuliers où la probabilité en question est de 1 ou 0.

L’apparition d’une théorie des probabilités en physique n’a rien d’original, elle est très courante dans toute entreprise prévisionnelle où les données en possession de l’expérimentateur sont insuffisantes. En physique classique, les probabilités sont un palliatif lié à l’absence ou à l’imprécision de certaines données. Par exemple, si l’on ne peut mesurer la masse de chacun des éléments d’un ensemble observé, on prendra une moyenne et on sera alors en mesure de calculer la probabilité que tel élément de l’ensemble soit dans tel état. Mais la physique quantique ne dispose de rien d’autre que cette probabilité, la question se pose alors de savoir à quoi elle constitue un palliatif car nous ne disposons d’aucun autre moyen plus précis de quantifier un système microscopique que le formalisme que nous avons évoqué. De plus, par sa structure mathématique très particulière en espaces vectoriels avec un nombre de dimensions variable, la théorie des probabilités utilisée par la physique quantique est très différente de celle traditionnellement utilisée dans toutes les autres sciences, dans un certain sens elle utilise même la théorie classique comme sous-système. C’est pourquoi le point de vue orthodoxe, afin d’éviter toute forme de spéculation que les physiciens pourraient qualifier de manière quelque peu péjorative de métaphysique, se limite à cette seule formulation abstraite en termes de probabilités et d’ensembles statistiques, sans pour autant admettre qu’il s’agit de la seule réalité ou que la réalité est structurée ainsi.

Schrödinger a introduit son équation d’onde, sans y introduire le moindre concept de probabilité car il avait expulsé la notion de particule et avec elle celles de trajectoire et de position. Dirac, dans la reformulation qu’il en a fait, en réintroduisant des éléments corpusculaires à la théorie, a transformé un outil de calcul de l’évolution d’une onde en outil de calcul des probabilités d’observer une position ou une trajectoire (ou d’autres observables tout autant corpusculaires). C’est encore cet usage qui est fait traditionnellement de l’équation de Schrödinger et qui reste en désaccord avec l’esprit dans lequel elle a été découverte.

2.2.3. La notion d’observateur

Contrafactualité et contextualité

Définie par un vecteur d’état, une particule se trouve dans un état superposé lorsque plusieurs valeurs sont possibles pour l’une de ses observables, c’est-à-dire que plusieurs possibilités possèdent une probabilité supérieure à 0. De même une fois que deux particules sont entrées en interaction, elles doivent être décrites par un seul vecteur d’état qui n’est pas une simple addition ou un simple produit de leurs vecteurs d’état respectifs, elles sont alors dites dans un état enchevêtré.

Par exemple, de deux particules a et b enchevêtrées, leur vecteur d’état commun nous apprend que l’une sera observée dans une position x et l’autre dans une position y quoique, avant toute mesure, nous soyons dans l’incapacité de déterminer laquelle de a ou de b est dans la position x et de même pour y. Le vecteur d’état associe une chance sur deux à chaque particule d’être dans chaque position. Cela nous permet de prédire avec efficacité que sur un ensemble statistique de n mesures effectuées sur n paires de particules a et b dans des dispositifs expérimentaux identiques, on doit observer (si n est assez grand) une moitié de particules a dans la position x et l’autre moitié dans la position y et de même pour b. Comme les prédictions fournies par la mécanique quantique sont vraies, c’est bien ce résultat que l’on obtient, et on est alors tenté d’en conclure qu’avant ces mesures la moitié des particules a étaient bien dans la position x et l’autre dans la position y. C’est ce qu’on appelle la contrafactualité et ce type de raisonnement ne pose aucun problème en physique classique comme dans toutes les autres sciences empiriques.

Cependant ce raisonnement s’expose à de graves contradictions logiques et mathématiques en physique quantique de sorte que l’on est obligé d’en conclure que ni a ni b n’avaient avant la mesure de position prédéfinie. Elles étaient chacune à la fois en x et en y, ou du moins affirmer qu’elles étaient chacune dans une seule position n’a tout simplement pas de sens. Les prévisions de la mécanique quantique portent toujours sur la valeur qu’aura une observable après la mesure, parler de la valeur qu’elle a avant est dénué de sens. On doit à Bohr la première et la plus célèbre formulation de l’impossibilité de la contrafactualité en théorie quantique. Il affirme sans complexe qu’une particule n’a pas de position, de trajectoire ou n’importe quelle autre grandeur physique indépendamment du contexte qui permet son observation. Cela le rapproche de la position positiviste tenue par le Cercle de Vienne et qui consiste à ne définir aucune propriété physique sans préciser le ou les contextes expérimentaux qui permettent de la réaliser ; bien que les philosophes de cette obédience aient été davantage motivés par le souci de limiter tout contenu cognitif aux possibilités offertes par la logique formelle. On appelle cette caractéristique très spécifique de la théorie quantique la contextualité.

Ainsi, si en physique classique plusieurs expériences complémentaires peuvent en général être librement associées et leurs résultats ajoutés via quelques transformations et corrections mathématiques, la physique quantique ne jouit pas d’une telle liberté. Toute description d’une entité à l’échelle quantique doit préciser le contexte expérimental qui a permis son observation. De plus, comme certaines observables sont mathématiquement incompatibles, les expériences qui les mettent en lumière le sont également. Enfin l’ordre dans lequel les différentes mesures son effectuées est primordial.

C’est pourquoi on n’admet aucune grandeur physique existant en soi mais on définit des observables dans un espace de Hilbert dont les valeurs propres sont les valeurs que ces observables peuvent prendre lors d’une éventuelle mesure. Cela explique également que chaque vecteur d’état correspond à une préparation expérimentale bien particulière. L’équation de Schrödinger permet alors de calculer l’évolution d’un vecteur d’état entre le début de la préparation et le moment où survient l’opération de mesure.

Le problème de la mesure

Nous allons maintenant voir en quoi l’opération de mesure revêt un aspect tout particulier en physique quantique, mais rappelons tout d’abord comment elle est généralement traitée dans les sciences physiques. L’influence que peut exercer une mesure sur un système étudié est un fait fort connu des scientifiques et ceux-ci disposent de moyens très efficaces pour gommer cette perturbation de leurs résultats. Pour cela une mesure est considérée comme n’importe quelle action physique et il suffit qu’une expérience préalable ait pu quantifier cette influence pour que de simples opérations mathématiques permettent de restituer en propre ce qui revient au système étudié. Malheureusement la théorie quantique ne peut, pour plusieurs raisons, appliquer une telle méthode.

En l’absence de tout observateur, un vecteur d’état est soumis à une loi d’évolution définie par l’équation de Schrödinger. Cette dernière permet de tenir compte de l’influence que peut subir une particule ou un système, de prévoir les effets d’interactions entre entités microscopiques, etc. Malgré la forme mathématique très particulière qu’elle revêt, cette partie du formalisme quantique est presque aussi bien maîtrisée que toute autre loi d’évolution en physique. Le problème apparaît avec le principe de réduction du paquet d’ondes. Comme nous l’avons vu, un vecteur d’état, sauf cas particuliers, est un état superposé qui définit des probabilités d’observation, c’est-à-dire que pour une observable, chacune de ses valeurs propres est associée à une probabilité comprise entre 0 et 1. Cependant, lorsque le système sera effectivement mesuré, une seule valeur précise pour cette observable sera obtenue. Outre l’aléatoire qui caractérise cette détermination et sur lequel nous reviendrons, nous avons vu que l’impossibilité de la contrafactualité en physique quantique nous interdit d’en conclure que l’observable avait bien cette valeur avant qu’un instrument de mesure rentre en interaction avec lui. Au contraire, la théorie quantique conventionnelle, qui ne définit un système que par le formalisme du vecteur d’état car seul celui-ci s’avère efficace, ne peut tenir compte d’une opération de mesure que par une modification soudaine du vecteur d’état, qui cesse d’être dans un état superposé, et au cours de laquelle toutes les valeurs propres de l’observable tombent à 0, sauf une qui prend la valeur 1. Tout le problème réside dans le fait qu’une telle modification du vecteur d’état ne semble pas du tout être prévisible au moyen de l’équation de Schrödinger.

Non seulement il est particulièrement gênant en physique que deux principes d’évolution soient nécessaires pour rendre compte de l’influence que peut subir un système, mais cela pose un grave problème épistémologique que la séparation entre les champs d’application de ces deux principes soit aussi floue. En effet le premier principe définit l’évolution 'normale'' du système tandis que le second s'applique spécifiquement à toute opération de mesure. Celle-ci se trouve alors dans en position d'exception et il est nécessaire d'établir une définition précise de ce qu'est une opération de mesure, un instrument de mesure et un observateur. C'est un problème qui a fait couler beaucoup d'encre et il semble impossible d'obtenir une solution qui ne soit pas fortement dualiste ou complètement anthropocentrique. Si les plus positivistes des physiciens peuvent être prêts à faire ce type de concessions, les scientifiques qui ont foi en une réalité indépendante de nous ne peuvent que difficilement s'y résigner. Il y a cependant un moyen de réunifier ces deux principes d'évolution pour ne garder que celui de l'équation de Schrödinger. Comme, après tout, l'instrument de mesure comme l'observateur lui-même sont effectivement composés de molécules, d'atomes et donc de particules, il est complètement envisageable de faire intervenir dans les calculs ces entités macroscopiques comme des systèmes quantiques composés d'un grand nombre de particules. L'observateur et son instrument de mesure peuvent donc en théorie être définis comme un système S ayant un vecteur d'état qui est un état enchevêtré de toutes leurs particules. Aussi, lors d'une opération de mesure effectuée sur le système étudié E, les système S et E entrant en interaction doivent par la suite composer un grand système G décrit par un seul vecteur d'état qui est l'enchevêtrement de toutes les particules de l'observateur, de l'instrument de mesure et de la préparation expérimentale. Le premier problème qui se pose alors est que dans ce grand système G, puisqu'il est dans un état enchevêtré inséparable, il n'est plus possible d'établir une distinction rigoureuse entre l'observateur, l'instrument de mesure et le système étudié et cela nous interdit de déterminer ce qui, des résultats de l'expérience, revient en propre à chaque élément. Ce point est l'autre fondement de la contextualité de la physique quantique et explique que celle-ci ait le plus grand mal à fournir un discours sur la nature des choses indépendamment de nous. Le second problème est qu'un tel état enchevêtré est également à coup sûr un état superposé. Comme seule la réduction du paquet d'ondes pouvait rendre compte du fait qu'un tel état doit soudainement changer pour prendre une valeur définie, avoir expulsé ce principe nous ferme cette possibilité. Nous devons donc par exemple considérer que, pas plus que la particule, ni l'observateur ni l'instrument de mesure n'ont de position bien définie. Apparaît un problème récurrent de la physique quantique et que nous avons déjà évoqué : comment faire le lien entre les lois du monde macroscopique et celles radicalement hétérogènes du monde microscopique sachant que les deux théories sont confirmées expérimentalement mais que la seconde est censée décrire le détail des éléments de la première ? Pour illustrer ce point Schrödinger avait fourni un célèbre paradoxe qu'il est intéressant de résumer ici. Il suffit d'imaginer une particule qui est dans l'état superposé des deux états possibles A et B. Un dispositif qu'il n'est pas nécessaire de décrire a pour conséquence d'émettre un gaz mortel si la particule est dans l'état A. Accompagné d'un chat, tout cela est placé dans une boîte fermée afin d'éviter toute observation pour que l'état en question reste superposé. Un raisonnement identique à celui du paragraphe précédent doit nous faire conclure que puisque la particule est à la fois en A et en B le chat doit à la fois être mort et vivant. Il ne devrait connaître un état défini que lorsque nous ouvrirons la boîte et réduirons le paquet d'ondes. La question se pose alors de savoir d'un côté, si les lois quantiques sont ainsi transposables aux entités macroscopiques, et de l'autre, puisque la conscience semble jouer un rôle clé dans la réduction du paquet d'ondes, si l'observation que le chat effectue spontanément de son propre état peut suffire. Dans tous les cas le principe de réduction du paquet d'ondes semble difficile à mettre de côté. Une célèbre théorie, communément admise dans la communauté des physiciens, a souvent été proposée comme solution au problème de la mesure, il s'agit de la décohérence. Celle-ci montre que l'état de superposition d'un système quantique est lié à sa cohérence interne. Là encore nous ne rentrons pas dans les détails mathématiques d'une telle théorie mais il faut juste noter qu'elle consiste à prendre en compte, outre celle de l'instrument de mesure, l'influence de l'environnement. Si dans un dispositif expérimental de quelques particules il est possible d'isoler le système de l'environnement extérieur, pour des raisons physiques liées à leur niveau d'énergie et à la constante de Planck, il est impossible d'isoler les systèmes macroscopiques de la sorte. Seul un système isolé peut être dit cohérent tandis que l'effet qui se manifeste quand on augmente d'échelle est justement la décohérence. Celle-ci a pour conséquence d'approcher toutes les valeurs propres d'une observable aussi proche de 0 qu'on le veut, sauf une qui par conséquent s'approche de 1 de la même manière. Ainsi, pour les systèmes macroscopiques, l'influence de l'environnement a pour conséquence de limiter les états de superposition car en pratique la valeur propre majorée peut être considérée comme égale à 1 et les autres à 0. Ainsi on tend à expliquer pourquoi les objets macroscopiques nous apparaissent comme ayant une position et une trajectoire bien définies. Mais, en toute rigueur, l'état de l'objet reste superposé et aucune de ses valeurs propres n'a une probabilité d'être observée de 1. Donc, pour expliquer qu'au moment d'une mesure c'est bien telle ou telle valeur qui est observée, il est nécessaire de réintroduire le principe de réduction du paquet d'ondes. La décohérence est une théorie confirmée par l'expérience qui a le grand mérite de nous aider à mieux comprendre le comportement quantique des entités macroscopiques, mais rigoureusement elle ne résout pas cet épineux problème que pose l'opération de mesure en physique quantique. 2.2.4. Les grandes violations Incertitude et indétermination Si nous avons attribué à Dirac la reformulation en termes probabilistes de l'équation de Schrödinger, pour être juste il nous faut préciser que l'on doit à Max Born la première interprétation de cette équation comme définissant des probabilités d'observation. Cette interprétation eut le mérite de résoudre les problèmes que posait la représentation purement ondulatoire de Schrödinger mais introduisit une incertitude et une indétermination gênante dans la physique quantique. Une telle équation, déterministe concernant une onde, ne peut nous décrire une trajectoire et même très difficilement une position, seules des probabilités concernant les résultats de mesure peuvent être obtenues avec elle. Il faut noter qu'il ne s'agit pas là d'une simple incertitude comme on pourrait la constater dans d'autres domaines, où l'imperfection de nos instruments nous empêche de mesurer avec suffisamment de précision les grandeurs nécessaires à une prévision, comme Born l'affirmait, nous ne disposons pas de telles grandeurs dont la connaissance gommerait l'incertitude en question. Cette indétermination qui fait que seulement dans de rares cas il est possible de prédire réellement, c'est-à-dire avec une probabilité de 1, la valeur d'une variable est une conséquence directe de la structure mathématique du formalisme quantique. Nous avons déjà rapidement remarqué qu'en raison de cette originalité du formalisme de l'espace de Hilbert, certains observables, n'étant pas compatibles mathématiquement, ne le sont pas non plus expérimentalement. On doit à Werner Heisenberg d'avoir prouvé ce point grâce à ses relations d'incertitude (ou d'indétermination). Ainsi la position et la quantité de mouvement d'une particule ne peuvent être simultanément mesurées, pas plus que l'énergie d'un système et sa durée, du moins la précision de la mesure d'un des éléments entraîne inéluctablement l'imprécision du second. Plus généralement, s'il est possible, lors de préparations expérimentales ne prenant en compte qu'une seule variable, de déterminer, une fois une expérience effectuée, le résultat de tout autre expérience identique que l'on pourra tenter ultérieurement, dés qu'à un vecteur d'état sont associées plusieurs variables conjuguées (plusieurs observables sur une même particule ou plusieurs particules corrélées), seules des probabilités d'observation pourront être calculées. Si Born était plus circonspect, Heisenberg n'hésitait pas à affirmer que « la mécanique quantique établit l'échec final de la causalité ». Cette conclusion a cependant subi de nombreuses et pertinentes critiques, notamment il peut être remarqué que dans une formulation classique de la causalité : lorsque l'on connaît suffisamment les conditions, on peut en déterminer les conséquences, seule la prémisse est remise en cause par le formalisme quantique, pas la conclusion. En effet, définie ainsi sur la prévisibilité des phénomènes, le principe de causalité n'est pas proprement remis en cause par la microphysique, il est seulement rendu inapplicable. La question de savoir s'il est inapplicable pour des raisons contingentes liées aux limites de nos facultés cognitives et/ou à des attributs des choses en elles-mêmes reste encore de nos jours un sujet de controverse sur lequel nous aurons l'occasion de revenir. Toutefois, si l'on peut remarquer qu'un certain indéterminisme règne sur le fonctionnement des entités à l'échelle atomique, cela n'évacue par toute forme de déterminisme de la théorie quantique. Si en général elle n'est pas en mesure de prédire rigoureusement l'évolution d'un système particulier, concernant des ensembles statistiques, elle permet d'obtenir des prédictions ayant le même degré de précision que ce qu'il est possible d'obtenir concernant des systèmes physiques classiques. Alors que des variables conjuguées comme la vitesse et la position d'une particule ne semblent pas satisfaire aux conditions établies par le formalisme pour obtenir des prévisions au sens strict, les distributions statistiques de telles variables peuvent être prédites à l'aide d'un vecteur d'état avec le même degré de certitude que dans la plupart des expériences scientifiques. Le principe de succession selon une règle, essentielle à toute démarche scientifique, peut donc être conservé dans la mécanique quantique conventionnelle à condition que l'on ne recherche plus des règles déterministes concernant des corpuscules, mais concernant des ensembles statistiques. Cela pose de nouveau la question de savoir s'il est toujours nécessaire de conserver de telles notions corpusculaires ainsi qu'une nouvelle interrogation concernant la réalité qu'il faut attribuer à de tels ensembles statistiques. L'article EPR et les inégalités de Bell L'article fourni en 1935 par Einstein, Podolsky et Rosen, souvent qualifié de manière abusive de paradoxe EPR, est sûrement le texte le plus cité de toute la littérature scientifique. Il faut dire que sa formulation profondément réaliste mais d'une structure logique difficilement contestable eut l'audace de s'attaquer à une hypothèse généralement admise à ce moment là parmi les physiciens quantiques, l'hypothèse de complétude. Cette dernière affirme tout simplement que la théorie quantique, puisque n'ayant jamais (même de nos jours) été remise en cause par une quelconque expérience, doit constituer une description adéquate de la réalité. Cette hypothèse, d'inspiration fortement positiviste, n'est cependant absolument pas nécessaire à l'efficacité opératoire de la théorie quantique. Le texte EPR mérite davantage d'être appelé théorème EPR car il en a bien plus la structure logique et cette appellation correspond d'ailleurs mieux au réel dessein de ses auteurs. L'article est donc composé de prémisses et d'une conclusion et, s'il use d'un exemple particulier exprimé dans le formalisme quantique, le théorème EPR ressemble plus à un raisonnement philosophique et épistémologique qu'à un traité de physique. Ses prémisses sont d'une grande simplicité et d'une évidence certaine quoiqu'en partie appuyées sur le sens commun. Il est possible de les résumer en deux principes. Le premier, qui a été appelé localité ou séparabilité einsteinienne bien qu'il ait également été baptisé autrement en d'autres occasions, est fortement inspiré de la théorie de la Relativité et suppose juste que, si deux régions de l'espace sont suffisamment éloignées, puisque aucune influence plus rapide que la lumière n'est admise, les évènements qui se déroulent dans l'une sont complètement indépendants de ce qui se passe dans l'autre. Le second principe, dit critère de réalité, spécifie que si l'on peut prédire avec certitude la valeur d'une grandeur physique, c'est qu'un élément de réalité physique doit y correspondre. On peut d'ores et déjà constater comment ces deux principes ne sont guère difficiles à admettre et peuvent aisément faire l'unanimité sauf chez les plus idéalistes des épistémologues. L'exemple utilisé dans l'article EPR pour son raisonnement peut être remplacé par l'exemple standard que David Bohm proposa dans la même lignée et qui est d'une bien plus grande généralité. Il consiste à mettre en jeu une paire de particules corrélées, c'est-à-dire deux particules ayant un vecteur d'état commun et générées de sorte que l'une de leurs observables ait toujours une somme commune ; si l'une a une valeur de 1 l'autre doit avoir une valeur de -1. Ces deux particules sont ensuite projetées dans deux régions de l'espace assez éloignées pour que s'applique la séparabilité einsteinienne. Les règles de la mécanique quantique prévoient alors qu'en observant cette observable sur l'une de ces particules on connaisse sa valeur mais également celle de l'autre particule. Pour l'instant rien ne semble particulièrement problématique mais puisque l'on ne doit pas admettre la contrafactualité, cet exemple, avéré expérimentalement, signifie que observer l'une des deux particules réduit le paquet d'ondes, modifie le vecteur d'état commun et détermine les valeurs des deux particules. Si l'on admet à la fois l'hypothèse de complétude et le critère de réalité, il faut en déduire qu'un élément de réalité physique doit correspondre à chacune de ces deux valeurs, donc à chacune des deux particules, et que l'opération de mesure, non seulement influence la particule observée, mais également celle située dans une région de l'espace séparée. Autrement dit l'hypothèse de complétude, la localité et le critère de réalité ne peuvent tout trois être admis en même temps. C'est ainsi que EPR tenta de prouver l'incomplétude de la physique quantique et ouvrit la voie aux théories à variables supplémentaires que nous aborderons ultérieurement. Bien après que l'article EPR ait fait couler beaucoup d'encre, c'est John Bell qui démontra en 1964 une batterie de trois théorèmes qui fournit réellement de quoi progresser sur cette question. Ces trois théorèmes possèdent la même structure, ils posent chacun une série de prémisses à partir desquelles il est possible de déduire des inégalités dont on peut montrer qu'elles sont violées par des prédictions vérifiées de la mécanique quantique. Ainsi il est possible d'en apprendre beaucoup car ces prémisses ne peuvent alors pas être conservées ensembles. Le raisonnement de Bell se place dans la même lignée que le théorème EPR, philosophiquement en se fixant un but similaire -prouver l'incomplétude de la mécanique quantique- et méthodologiquement en adoptant une structure logique sensiblement similaire. Il a été perfectionné à plusieurs reprises et dans plusieurs sens par d'autres auteurs de sorte que désormais, si son interprétation est l'objet de discussion, sa validité logique fait l'unanimité. Les théorèmes de Bell posent les mêmes prémisses que celles d'Einstein, localité et réalité, ainsi que d'autres toutes aussi simples comme le libre choix de la mesure par l'expérimentateur et la validité du raisonnement par induction. Par des raisonnements par l'absurde du même type que celui de l'article EPR mais bien trop complexes pour être rapportés ici, les inégalités de Bell montrent essentiellement que la mécanique quantique, comme toute autre théorie visant à reproduire les mêmes prévisions, doit soit abandonner le critère de réalité soit la localité. En effet, puisque le formalisme quantique est non-local dans tous ses outils épistémiques, on peut considérer que celui-ci a une validité strictement opératoire et ne nous informe absolument en rien sur la nature d'une quelconque réalité fondamentale, dans ce cas on est encore en droit de supposer que cette dernière pourrait être purement locale. Sinon, si l'on veut affirmer que le formalisme quantique correspond, ne serait-ce que partiellement, à des éléments de réalité, il faut admettre que cette réalité doit être non-locale, c'est-à-dire que sont possibles des influences instantanées entre des éléments de deux régions séparées de l'espace-temps. Ce point est d'une importance capitale pour la compréhension de notre monde et/ou de la nature de notre connaissance des choses, et il sera d'un grand usage pour la suite de notre étude et notamment lors de l'analyse des diverses interprétations du formalisme quantique. Pour le moment il est déjà possible de constater comment le fait d'adopter une vision positiviste ou réaliste en physique quantique a une importance dans la structure logique de la théorie alors que, dans n'importe quel autre domaine scientifique, il ne s'agit que de points de vue philosophiques qu'il n'est pas nécessaire d'introduire dans les débats strictement scientifiques. 2.3. Les solutions proposées 2.3.1. La réforme conceptuelle Les théories à variables supplémentaires Il est impossible de fournir ici la moindre description exhaustive de toutes les théories de ce type qui ont pu être proposées, c'est pourquoi nous nous contentons d'une rapide description structurelle et d'un bref et incomplet historique de l'apparition de ces théories. C'est à partir du résultat de l'article EPR que les partisans, comme Einstein, de l'incomplétude de la mécanique quantique tentèrent de construire une théorie qui devait dépasser, en l'intégrant, la théorie actuelle pour proposer les mêmes prédictions tout en rendant compte de manière plus cohérente du monde. Toutes ces tentatives sont classées comme théories à variables cachées, quoique beaucoup d'auteurs préfèrent parler de théories à variables supplémentaires car si la première formulation est consacrée par l'usage, la seconde est moins trompeuse et plus exhaustive. Bell étant de ces physiciens soucieux de retrouver une description du monde plus proche de ce que peut nous procurer notre intuition, c'est en travaillant à ce projet qu'il découvrit ses inégalités. Ces dernières posent d'ailleurs un cadre essentiel à toute entreprise de ce type, mais un cadre très restrictif comme nous l'avons vu car il y est établi qu'une théorie destinée à reproduire les prévisions de la mécanique quantique tout en revendiquant une description complète de la réalité doit contrevenir à la localité. C'est en effet en tentant de contourner ce point que ces théories furent considérées comme introduisant des variables cachées. Car la localité au sens de la Relativité n'interdit pas tout à fait toute forme d'influence plus rapide que la lumière mais seulement tous les transferts de signaux plus rapides que la lumière ; ce qui limite toutefois grandement le type d'influence non-locale permis. Le seul moyen alors de réconcilier une théorie ayant ce genre de visées ontologiques avec la théorie de la Relativité est de supposer que les influences à distance qui y sont possibles doivent correspondre à des variables qui nous sont complètement inaccessibles. Cependant nombre d'autres théories à variables supplémentaires introduisent pour d'autres raisons des variables qui n'ont rien de caché, ce qui explique le choix de la présente formulation. Si elles sont regroupées dans la même école de pensée, c'est que ces théories présentent un certains nombre de similitudes structurelles et conceptuelles. Elles ont toutes le même objectif : réinterpréter le formalisme quantique pour lui donner une signification ontologique. En d'autres termes, il s'agit de construire une théorie mathématiquement équivalente au formalisme conventionnel mais qui a prétention à décrire le réel tel qu'il est en soi, c'est-à-dire en définissant la nature des objets étudiés, le statut des particules et des opérateurs mathématiques, etc. En général d'une construction plus complexe que la théorie orthodoxe, ces alternatives réutilisent tout son bagage mathématique permettant la prédiction des phénomènes, substituent les termes du formalisme pour lui donner du sens et introduisent de nouveaux outils afin de gérer les variables ajoutées. Si l'engouement pour les théories à variables supplémentaires correspond plus ou moins à l'article EPR, on peut remarquer que la première construction de ce type fut la théorie de l'onde pilote que de Broglie proposa dans les années vingt, avant même que s'établisse le point de vue conventionnel en physique quantique que nous avons évoqué et que ces théories doivent remplacer. Bohm repris cette théorie à la suite de l'article EPR dans la perspective einsteinienne de compléter la physique quantique et Bell entreprit la synthèse et l'actualisation des travaux des deux physiciens dans une même optique. On peut sans trop de risque affirmer que la théorie de l'onde pilote, ainsi augmentée et raffinée, est l'archétype d'une théorie à variables cachées et nous permet d'en donner un bon exemple. Cette théorie consiste à supposer l'existence d'une fonction d'onde de l'Univers qui piloterait toutes les particules de l'Univers. Chacune d'entre elles possède alors position, vitesse et donc trajectoire, ce qui nous réconcilie avec des conceptions familières. Les particules sont alors des existences fondamentales qui possèdent une persistance ontologique, de même que cette fonction d'onde qui définit le potentiel quantique tout aussi réel de chaque particule. C'est ce potentiel, comparable à un champs de force et donc lui aussi susceptible d'une compréhension relativement intuitive, qui détermine les particules à parfois adopter un comportement si particulier, comme les franges d'interférence dans l'expérience de Davisson et Germer. Ce qui provoque alors les nombreux problèmes épistémologiques que nous avons remarqués, c'est le fait déjà constaté qu'une fonction d'onde ou un vecteur d'état décrivant plusieurs particules enchevêtrées n'est pas la somme ou le produit des vecteurs d'état de toutes ces particules. Comme nous ne pouvons connaître et quantifier en détail le vecteur d'état du système qu'est l'Univers, nous en sommes réduit à ne considérer que des sous-systèmes de celui-ci et leurs vecteurs d'état respectifs qui ne contiennent par conséquent pas toutes les informations permettant de décrire le comportement des particules qui y évoluent. De même l'influence de l'observateur que l'on peut considérer concernant le problème de la mesure se résout par le fait que nous aussi, observateurs, nous sommes composés de particules pilotées par la fonction d'onde de l'Univers et donc enchevêtrées avec toutes les autres. A l'instar de la théorie de l'onde pilote, on peut en général remarquer que les théories à variables supplémentaires, pour donner une interprétation ontologique à la physique quantique, réaménagent son formalisme pour réintroduire, sauvegarder ou renforcer des concepts classiques qui avaient étés plus ou moins abandonnés et notamment des conceptions corpusculaires. C'est par là même que de telles théories présentent un intérêt et un attrait certain, elles ont l'avantage d'offrir une description du monde quantique qui satisfasse à la grille de lecture classique avec laquelle nous avons tendance à raisonner. Nous allons maintenant voir qu'elles ont à faire face à un certain nombre de difficultés qui ne peuvent être négligées. Les difficultés Outre les théories à variables supplémentaires qui doivent être abandonnées car des erreurs mathématiques et logiques ont pu être décelées dans leur formulation, des difficultés très particulières d'ordre épistémologique et conceptuel sont communes à toutes les théories de ce type qui présentent pourtant une validité incontestée sur le plan logique. Premièrement il nous faut rappeler le commerce très spécial que doit entretenir toute théorie à variables supplémentaires avec la Relativité en raison des inégalités de Bell. Même s'il est possible de trouver des astuces structurelles qui permettent de réconcilier les deux par une légère modification du formalisme quantique ou de la Relativité, il demeure qu'en poursuivant son objectif de proposer une alternative à la mécanique quantique conventionnelle à l'aide de conceptions classiques, toute théorie à variables supplémentaire doit introduire une non-localité fortement contre intuitive. Aussi, si en effet une théorie à variables cachées permet une description plus intuitive des évènements du monde microscopique dans des cas simples ou des exemples types, l'équivalence avec le formalisme orthodoxe à laquelle ces théories doivent souscrire leur fait perdre toute cette simplicité dans des cas plus complexes, notamment lorsque augmente le nombre de dimensions de l'espace abstrait dans lequel évoluent les vecteurs d'état. On est donc en droit de penser que la cohérence que semble présenter ce type de théories pour rendre compte du monde quantique ne tient qu'à une efficacité pédagogique. La simplicité basée sur l'usage de termes classiques comme ceux de corps, position et vitesse dont ces théories peuvent faire preuve pour expliquer le comportement d'une particule se dissout progressivement lorsque le cas considéré se complexifie. De telles théories à variables supplémentaires présentent également une difficulté liée au fait même qu'elles aient pour but de fixer la nature fondamentale des existants du monde quantique, difficulté qu'elles partagent avec d'autres travaux théoriques à visée ontologique dans d'autres domaines scientifiques. En effet, une fois que la théorie a déterminé et décrit les éléments de réalités qui correspondent aux phénomènes quantiques, une rigidité a été introduite qui peut poser un certain nombre de problèmes conceptuels dés que de nouvelles données expérimentales sont apportées. De nouvelles avancées scientifiques peuvent alors sonner le glas d'une théorie à variables supplémentaires comme la théorie de Relativité remit en cause l'existence (mais pas l'efficacité) des champs de gravité newtoniens car le type d'existants fondamentaux qui avait été postulé se trouve impossible à conserver dans la nouvelle théorie. Ainsi, si la théorie conventionnelle, essentiellement opératoire, se garde de ce type de problèmes car elle s'abstient de se prononcer sur la nature des objets étudiés, une théorie qui a prétention à décrire la réalité fondamentale ne peut qu'avoir une postérité bien incertaine. Un problème bien plus radical et plus spécifique à la physique quantique caractérise toutes les théories à variables supplémentaires qui ont pu être construite. Si toutes ces théories, pourvu qu'elles soient correctement construites, reproduisent toutes les prédictions permises par la mécanique quantique, aucune n'a jamais fourni une prédiction vérifiée qui ne puisse être fournie par la théorie quantique conventionnelle. Autrement dit aucune n'a pu fournir la moindre preuve expérimentale de sa supériorité sur le modèle orthodoxe. D'autant plus que les théories à variables supplémentaires, puisque d'une construction mathématique plus complexe, ont toujours plus de mal à assimiler de nouvelles données fournies par l'expérience. Par conséquent ces théories ne peuvent avancer que leur clarté conceptuelle et leur efficacité pédagogique pour soutenir leur supériorité. Cela est particulièrement symptomatique si l'on considère que parmi les multiples modèles à variables supplémentaires qui ont pu être proposés et qui présentent chacun une parfaite cohérence interne, aucun n'a pu présenter d'argument décisif pour montrer sa supériorité sur les autres. Ainsi, même le physicien soucieux d'adhérer à une théorie décrivant le réel fondamentalement aurait bien du mal à discriminer parmi tous les modèles disponibles. Nous ne pouvons donc en toute rigueur, c'est-à-dire uniquement sur la base d'arguments rationnels, adhérer à aucune de ces théories à variables supplémentaires. Mais, à la suite de Bernard d'Espagnat, nous pouvons tout de même considérer ces modèles comme de bons « laboratoires théoriques » permettant de mieux analyser les enjeux ontologiques et épistémologiques que présente le formalisme quantique. Comme exemple ou contre-exemple, de telles constructions, visant à décrire avec un maximum d'objectivité le monde quantique, permettent d'éviter certaines conclusions et généralisations hâtives à partir de données expérimentales qui pourraient être interprétées de diverses manières. 2.3.2. Les problèmes ontologiques Le concept de corps matériel Quel que soit l'objectif du physicien, qu'il ait une véritable volonté théorique visant à décrire les choses en soi ou qu'il se cantonne à un travail opératoire et à l'établissement de règles de prédiction efficaces, certaines questions d'ordre ontologique ne peuvent être ignorées car elles doivent inévitablement se poser au scientifique qu'il soit d'inspiration plutôt réaliste ou plutôt positiviste. Ainsi la question de savoir si le concept de corps matériel doit être conservé en physique quantique est inévitablement posée car quelle que soit l'obédience du discours, il fait invariablement référence à des objets précis dont la nature doit, à un moment ou à un autre, être traitée. Même si l'on estime que la nature des objets étudiés en physique quantique ne peut être fixée, on a d'ores et déjà admis que le concept de corps matériel n'y a plus l'évidence qu'il revêt dans la physique classique. Pour reprendre le propos de l'épistémologue Michel Bitbol, en toute rigueur il n'est pas possible de retrouver en physique quantique le type d'invariants dont l'on dispose en physique classique comme dans la vie courante et qui nous permettent de faire usage en toute légitimité du concept de corps matériel. Si l'on définit comme lui un corps matériel comme « un secteur d'espace tridimensionnel objectivé par la détermination d'effets locaux invariants sous un ensemble de changements réglés », ni une localisation précise ni aucun effet particulier ne nous sont disponibles pour justifier l'usage en mécanique quantique d'une telle notion corpusculaire. De même, quelle que soit la théorie de la référence utilisée, les conditions nécessaires à une objectivation ne sont pas réunis, que ce soit des procédures de suivi ou des modalités trans-temporelles de réidentification. Mais les pères fondateurs de la microphysique ne s'y sont pas trompés en faisant preuve d'une grande prudence, dés la naissance de la physique quantique, quand à la nature des entités étudiées. Ainsi Schrödinger abandonna très tôt le concept de corpuscules dés lors qu'il n'était plus possible d'avoir de position et de trajectoire clairement définies. Ce sera Bohr qui ira le plus loin en affirmant que l'on est réduit à décrire des dispositifs et des résultats expérimentaux et que les hypothétiques propriétés de corps existant indépendamment de toute observation nous sont inaccessibles et n'ont même aucun sens. Cependant, malgré son caractère particulièrement opératoire, la théorie quantique, dans sa formulation orthodoxe, n'est pas exempte de considérations corpusculaires. Il y est constamment fait référence à des particules mais dont on n'exige pas que leur description réunisse tous les éléments nécessaires à une objectivation rigoureuse du type de celle d'un corps matériel et dont on ne s'attend pas à ce qu'elles reproduisent tous les comportements généralement associés à une entité corpusculaire. Ainsi une particule possède une position et une vitesse bien définies, mais uniquement lors d'une mesure et jamais simultanément. Cet usage d'une notion très proche de l'idée d'un corps matériel mais qui n'en présente que peu de caractéristiques est symptomatique, non seulement du flou qui caractérise les objets étudiés dans la physique quantique conventionnelle, mais également de l'impossibilité d'y utiliser le concept intuitif de corps matériel dont nous disposons. En général les théories à variables supplémentaires s'attachent à restaurer pleinement toutes les conditions nécessaires à l'usage d'un tel concept. Cependant cela se paye d'un coût épistémologique très lourd car, outre la non-localité qui doit être admise, des variables inobservables empiriquement doivent être acceptées pour que l'on puisse continuer à parler des particules comme de petits corps matériels disposant en permanence d'une position, d'une vitesse, d'une trajectoire, etc. Cela se rajoute aux difficultés que nous avons traitées précédemment et nuit grandement à leur crédibilité car c'est par des invariants qui ne correspondent à aucune donnée observable, donc à aucune modalité référentielle, qu'une stabilité suffisante est trouvée pour redonner du sens au concept de corps matériel. Pourtant, dans nombre d'expériences, il est possible d'effectuer des observations enchaînées ou des détections coordonnées de sortes que l'on puisse constater des impressions de trajectoire concernant une particule, mais, en raison des relations d'incertitude d'Heisenberg, seule l'introduction de données supplémentaires non-empiriques permettent d'en conclure logiquement à la présence localisée, même en l'absence de mesure, de la particule en chacun des moments de la trajectoire. Cette survie artificielle de notions corpusculaires inutiles au formalisme, pour son efficacité prédictive, peut alors rapidement passer pour une simple astuce conceptuelle, voire un vulgaire réflexe défensif, de la part des ultimes partisans de la réalité fondamentale des corps matériels. Nous avons cependant déjà remarqué que même si l'on n'admet aucune théorie à variables supplémentaires, il est possible de leur trouver une grande utilité épistémologique. Quoiqu'il en soit, même un modèle à variables cachées est obligé d'admettre le comportement souvent fort contre intuitif des particules et la présence d'autres entités réelles et non corpusculaire comme des potentiels ou champs quantiques pour rendre compte de ces bizarreries. Il arrive que les interprétations de la théorie quantique dites statistiques ou stochastiques soient présentées comme résolvant la question de la nature des entités du monde microscopique. Une telle interprétation part du fait que le formalisme du vecteur d'état et de l'espace de Hilbert est une description complète et adéquate d'ensembles statistiques de systèmes physiques. La parfaite prédictibilité dont fait preuve le formalisme quantique au sujet de distributions statistiques suscite en effet l'unanimité, pourtant diverses interprétations basées sur cette certitude sont envisageables. Ainsi on ne peut considérer ni les vecteurs d'état ni les ensembles statistiques comme réels tout en leur restituant la complète validité opératoire qui leur est due, ou considérer le formalisme quantique comme une description complète et adéquate de la réalité à condition que ces ensembles statistiques constituent des entités réelles. Dans le cadre de la première hypothèse il est alors possible, dans une optique réaliste, de construire sur cette base une théorie à variables supplémentaires qui assigne à chaque système individuel toutes les propriétés d'un corps matériel en considérant qu'ils ne sont pas soumis individuellement aux étrangetés de ce formalisme. Mais il est également acceptable, sur la même base, de tenir un discours d'inspiration positiviste où cette seule efficacité opératoire est considérée comme suffisante et où le concept de corps matériel n'est plus alors nécessaire. La seconde hypothèse, si elle n'établit pas quelle est la nature des entités qui composent les ensembles statistiques, a cependant le mérite de sauvegarder le déterminisme, car s'il ne s'applique pas aux systèmes individuels, il reste complètement opérant au sujet de ces ensembles. Il faut tout de même remarquer qu'une interprétation positiviste qui ne se prononce pas sur la nature des entités individuelles, contrairement à une théorie stochastique à variables supplémentaires, reste condamnée à invoquer le principe de réduction du paquet d'ondes pour rendre compte qu'à chaque mesure on observe sur chaque système individuel des valeurs bien définies. Dans tout les cas, si les interprétations statistiques du formalisme quantique permettent de construire de cohérentes théories à variables supplémentaires et peuvent expliquer l'efficacité opératoire de la physique quantique concernant des distributions statistiques, elles n'apportent pas vraiment de réponse au problème ontologique posé quand au maintien ou non du concept de corps matériel pour le monde microscopique. Ainsi on peut voir clairement que pour expliquer la théorie quantique comme pour prouver son efficacité, celle-ci n'a absolument pas besoin de notions corpusculaires. Cependant, comme Bitbol le suggère, si de telles notions sont maintenues dans le langages de la plupart des physiciens c'est peut-être parce qu'elles sont nécessaires pour conserver un lien entre ce formalisme si particulier et l'expérience commune qui est la nôtre et dans laquelle nous pouvons en général toujours compter sur des entités spatialement bien localisées et dont le suivi ne pose guère de problème. Le statut de la conscience Il nous faut maintenant revenir au problème de la mesure que nous n'avons fait que poser précédemment et notamment sur le statut particulier que le principe de réduction du paquet d'ondes semble donner à l'observation et donc à la conscience. Dans une perspective réaliste ce problème du statut de la conscience est très grave car il devient alors très complexe de construire une description objective de la réalité indépendante. Mais le physicien positiviste doit également être gêné par ce statut très particulier et très important qui est donné à l'influence de l'observateur dans toute opération de mesure car il empêche à première vue de trouver une équation prédictive purement déterministe concernant les résultats de mesures possibles sur un système individuel. La question est donc de savoir si la théorie quantique donne vraiment un statut exceptionnel à la conscience ou s'il est possible de retrouver une description purement physicaliste du réel qui réutilise le même formalisme. Dans un premier temps il faut remarquer que la plupart des théories à variables supplémentaires, dans l'optique d'une description cohérente du réel, évacuent complètement le principe de réduction du paquet d'ondes, et donc toute intervention de la conscience. Pour cela elles supposent généralement que toutes les observables d'un système ont toujours des valeurs bien définies bien qu'elles ne soient pas données par son vecteur d'état. Dans ce cas l'opération de mesure, comme dans toutes les autres sciences, ne fait que dévoiler une donnée préexistante et le vecteur d'état, qui n'est pas plus une description complète du système, n'est actualisé que grâce à l'apport de cette nouvelle donnée comme dans tout fonctionnement probabilistique en physique classique. Cependant nous avons déjà assez précisé les problèmes épistémologiques que soulèvent les théories à variables cachées pour que nous ne nous suffisions pas des solutions qu'elles proposent et qui ne sont de toute manière pas admissibles dans une optique positiviste. Nous devons tenter d'éclaircir le problème posé par le statut de la conscience dans le strict cadre de la théorie quantique conventionnelle. Partons pour cela de la célèbre théorie des états relatifs proposée par Hugh Everett. Celle-ci évacue complètement le principe de réduction du paquet d'ondes mais d'une manière très particulière : il n'est pas question de supposer pour cela des valeurs prédéterminées aux observables du système, bien au contraire, même après la mesure, ces observables ne sont toujours pas considérées comme ayant des valeurs déterminées. Pour se passer ainsi de la réduction du paquet d'ondes et résoudre le problème de la mesure, la théorie des états relatifs se propose de traiter la conscience comme une propriété purement physique de l'observateur, lui-même conçu comme un automate de sorte qu'il n'y ait aucune différence entre lui et n'importe quel autre instrument de mesure. Ainsi, après l'interaction, entre un observateur et un système étudié, que nous appelons communément opération de mesure, le grand système composé de leur combinaison se trouve dans un état enchevêtré, et superposé car il n'y a pas eu réduction du paquet d'ondes. L'observateur, comme tout système quantique dans la théorie orthodoxe, est alors considéré comme étant dans plusieurs états en même temps. Mais comment expliquer alors l'unicité que nous observons perpétuellement à propos de la valeur d'une observable mesurée aussi bien qu'au sujet de notre propre conscience ? La théorie des états relatifs montre comment il découle directement des règles de la mécanique quantique que les différentes’branches’’ du vecteur d’état du système total, qui correspondent chacune à un état précis, ne communiquent pas entre elles et sont individuellement cohérentes. En réalité, selon cette théorie, lors d’une mesure, nous observons toutes les valeurs possibles de l’observable considérée mais dans autant d’états de conscience qui ne communiquent pas entre eux. On comprend alors bien comment la théorie de Everett a pu être à la base de la tout aussi célèbre théorie des mondes multiples de Bryce De Witt. Toute opération de mesure crée plusieurs ramifications qui peuvent cohabiter sans encombre en raison du cloisonnement qui les caractérise. Etant donné le nombre de consciences et de mesures effectuées dans l’univers on peut imaginer un nombre astronomique et en augmentation constante pour ces ramifications. Le concept des mondes multiples vient tout simplement de l’idée, que l’on ne peut ni réfuter ni prouver, qu’à la création d’une ramification doit correspondre celle d’un univers correspondant de sorte que le nombre des univers parallèles doit lui aussi être dans une augmentation constante. Aussi étrange qu’elle puisse paraître, la théorie des états relatifs est logiquement très cohérente et permet d’expulser efficacement le principe de réduction du paquet d’ondes sans introduire de données inobservables. Que l’on considère son modèle comme valide ou non, le coup de génie d’Everett demeure qu’il ait songé à faire glisser le problème de la mesure de considérations physiques à une conception davantage psychologique, tout en admettant comme valide l’essentiel des règles de la mécanique quantique conventionnelle. Cependant, dans l’analyse que d’Espagnat a pu en proposer, il est possible de remarquer que la théorie des états relatifs peine quelque peu à donner un statut à la mémoire de l’observateur et qu’il est nécessaire pour régler ce point de retomber sur un certain dualisme car l’état de conscience de l’observateur est alors une propriété particulière soumise à un régime spécial. Dans ce dernier cas, si la théorie des états relatifs a le mérite de refuser à la conscience une quelconque influence lors de l’opération de mesure, elle ne parvient pas tout à fait à lui enlever son statut particulier.

Quelle que soit la tournure dans laquelle nous prenons le formalisme quantique orthodoxe, on doit inévitablement constater que les notions d’observation et d’observateur ne peuvent en être expulsées. Etant donné que toute forme d’observation suppose une conscience correspondante et que toute formulation de loi en physique quantique conventionnelle ne peut manquer de faire appel à ce concept d’observation, une vision matérialiste de la théorie quantique du type de celle habituellement adoptée en physique classique, c’est-à-dire éjectant complètement toute référence à l’esprit humain, n’est tout simplement pas envisageable. Et cela est tout à fait indépendant du problème posé par la réduction du paquet d’ondes car par exemple la règle de Born, qui sert à calculer la probabilité que telle valeur soit mesurée sur telle observable, ne peut être transformée en une règle nous permettant de déterminer la valeur que telle observable a avant la mesure que si l’on se place dans le cadre d’une théorie à variables supplémentaires. Donc soit on prend le formalisme dans sa mouture orthodoxe et on est alors dans l’incapacité de tenir l’habituel discours scientifique et physicaliste, soit on adhère à l’une des théories à variables cachées mais, en admettant ainsi des données non-empiriques, on s’expose à l’accusation scientiste, habituellement réservée aux théories les moins matérialistes, d’accepter des hypothèses métaphysiques. Comme le remarque Bitbol, cette irréductible présence de l’expérimentateur dans la formulation de la théorie quantique fera rappeler à Bohr ce fait, pourtant déjà remarqué par la tradition philosophique mais oublié dans la construction de la méthode scientifique, que « nous sommes aussi bien acteurs que spectateurs dans le grand drame de l’existence ».

2.3.3. La critique épistémologique

La victoire du positivisme

L’inéluctable présence dans la théorie quantique des notions d’observation et d’observateur, et donc la nécessité de préciser dans toute description scientifique d’un phénomène les conditions expérimentales de son apparition, peut dans une large mesure être vue comme une victoire d’un point de vue positiviste dans la physique moderne. En effet, dans sa formulation conventionnelle, la mécanique quantique, en raison notamment de la contrafactualité et de la contextualité, ne peut fournir un discours portant sur des objets existant en eux-mêmes. Seuls des dispositifs expérimentaux précisant à chaque fois les procédés d’émission et de mesure employés peuvent être décrits par des vecteurs d’état et donc être susceptibles de fournir des prédictions. De même ces prédictions ne peuvent être exprimées qu’en termes de mesures futures, jamais comme portant sur des états de fait indépendants de tout observateur.

Il est intéressant de remarquer que ce ne sont pas les modalités d’assertabilité qui n’ont pu aller plus loin que le cadre opératoire de l’expérimentation, mais, bien plutôt, est-ce la volonté théorique et réaliste qui caractérisait l’essentiel des pères fondateurs de la physique quantique qui s’est trouvée en échec face à ces nouvelles données expérimentales. Cette victoire que l’on peut attribuer à l’opérationalisme tient donc au fait que les grilles de lecture théoriques avec lesquelles les physiciens ont tenté d’extraire spontanément les phénomènes quantiques des conditions de leur apparition se sont montrées inappropriées. L’aspect bien trop original de cette nouvelle classe de phénomènes a conduit les scientifiques à contrevenir à un point de méthode essentiel dans toute construction théorique. Ainsi, en reprenant de nouveau l’analyse de Bitbol, faut-il en général isoler des invariants, pouvant être reproduits et réidentifiés, comme condition d’une objectivation suffisante pour établir la nature des objets étudiés. C’est donc parce que le concept de corps matériel est utilisé sans que les conditions nécessaires au degré d’objectivité qu’il sous-entend ne soient réunies qu’il se montre inapproprié pour décrire le monde quantique convenablement. Schrödinger avait bien constaté ce point lorsqu’il décida d’abandonner le concept de particule, quoique sa vision ondulatoire ait également montré le même genre de limites.

On est, dés lors, en droit de penser que si la totale efficacité expérimentale d’un usage purement opératoire de la mécanique quantique provoque nombre d’incohérences dans le cadre de la conception corpusculaire qui est toujours celle de la majorité des physiciens quantiques, c’est parce que cette conception est tout simplement inappropriée. Si l’on peut donc accorder une certaine victoire à l’opérationalisme dans la mesure où seule dans ce strict cadre la mécanique quantique se montre pleinement cohérente, cela n’est pas exempt de possibles conclusions d’ordre ontologique. Le fait qu’une conception corpusculaire, pourtant d’une efficacité rarement égalée avec la mécanique classique, se montre inappropriée à une échelle microscopique est une information d’une portée et d’une profondeur difficilement contestable pour quiconque s’intéresserait à la structure fondamentale du réel. La négation du modèle corpusculaire a un pendant positif en limitant d’une manière ou d’une autre le type de construction théorique envisageable pour rendre compte du monde.

Enfin, s’il est indéniable qu’une attitude positiviste est celle qui résiste le mieux aux grandes problématiques sur lesquelles butent les différents modèles théoriques construits pour rendre compte de la mécanique quantique, cela tient peut-être au fait qu’une telle démarche est tout simplement beaucoup moins exigeante quant aux objectifs de la science. Ce n’est pas en déclarant forfait sur des questions d’ordre ontologique qu’on les résout, et encore moins que l’on prouve qu’elles sont insolubles.
Réalité empirique et réalité indépendante.

Malgré le nombre et la variété des tentatives de théories à visée ontologique qui ont pu être proposées, du type de celles à variables supplémentaires ou d’autres sensiblement similaires, aucune ne s’est montrée décisive et on est alors tenté d’en conclure qu’il est impossible de construire la théorie décrivant le réel tel qu’il est indépendamment de nous. Pourtant, nombreuses sont les théories de ce genre qui présentent une description cohérente de ce réel. Pour éclairer ce point nous allons reprendre une vieille distinction que l’on pourrait établir sous la forme du réel et du sensible, qui a connu ses lettres de noblesse dans la dualité kantienne des phénomènes et des noumènes, mais dont nous emploierons les formulations, empruntées à d’Espagnat, de réalité empirique et réalité indépendante. Ces deux derniers termes ont le mérite de pouvoir tout deux et sans ambiguïté être qualifiés d’objectifs car d’Espagnat distingue deux types d’objectivité, l’une faible et l’autre forte. Un énoncé est dit objectivement faible s’il reste vrai pour n’importe qui indépendamment des particularités individuelles. Il est objectivement fort s’il décrit le réel tel qu’il est indépendamment de tout paramètre humain. Le premier type d’objectivité est le critère de la réalité empirique tandis que le second est celui de la réalité indépendante. Il est à noter que l’objectivité faible se distingue de la pure est simple subjectivité dans ce sens qu’elle porte sur ce qui des phénomènes est commun à toute subjectivité et doit donc nous permettre de trouver le type d’invariants nécessaire, selon Bitbol, à une rigoureuse objectivation.

Au terme de l’analyse qu’il fournit de la physique quantique en tant que physicien mais aussi comme épistémologue, à partir notamment de plusieurs arguments que nous avons déjà évoqués, d’Espagnat refuse au discours scientifique toute prétention à accéder à l’objectivité forte et donc à porter sur la réalité indépendante. L’ultime raison qu’il invoque tient au fait qu’une théorie visant à décrire la réalité indépendante à l’échelle quantique devrait en toute rigueur se mettre en accord avec la théorie de la Relativité. Nous avons déjà vu que cela est envisageable malgré de lourdes difficultés. Cependant la Relativité telle qu’énoncée par Einstein est à objectivité faible car elle fait d’explicites et capitales références aux points de vue des observateurs. Pour proposer une théorie quantique relativiste à objectivité forte il faut donc modifier la théorie de la Relativité pour qu’elle soit elle aussi à objectivité forte. Cela est possible mais nécessite que l’interdiction faite à la transmission de signaux à une vitesse plus rapide que la lumière se transforme en l’interdiction de toute influence plus rapide que la lumière. Comme nous avons vu que les inégalités de Bell impliquent que toute tentative de description du réel tel qu’il est à l’échelle quantique, donc à objectivité forte, doit admettre une non-localité en désaccord avec l’interdiction que nous venons d’évoquer, on peut alors en conclure que toute tentative de construction d’une théorie quantique relativiste à objectivité forte est vouée à l’échec. En d’autres termes cela peut être vu simplement comme l’échec du critère de réalité tel qu’énoncé dans l’article EPR.

Dans cette optique, la physique porte uniquement sur la réalité empirique et la mécanique quantique conventionnelle peut être considérée comme une description appropriée de cette réalité à l’échelle microscopique. A cette condition la physique peut garder, pour parler du monde quantique, un langage qui ne soit pas exclusivement opératoire si le caractère empirique de la réalité décrite est précisé en avant-propos. La réalité indépendante est quand à elle jugée inaccessible, ce qui amène d’Espagnat à la qualifier de réel voilé. Cette formulation est toutefois une manière de mitiger son discours dans le sens où il admet que le contenu de la physique quantique nous donne des indications structurelles mais très parcellaires sur cette réalité indépendante. C’est pourquoi il admet qu’une théorie à visée ontologique puisse éventuellement décrire la réalité indépendante dans une certaine mesure, bien que cela reste purement spéculatif puisque nous n’avons aucun moyen de comparer les affirmations de la théorie en question avec une quelconque connaissance de la réalité indépendante. D’Espagnat a parfaitement conscience que la restriction qu’il pose n’a rien de nouveau et que nombre de philosophes l’ont maintes fois répétée, son propos est davantage de montrer que la physique quantique apporte, selon lui, la preuve tant attendue de cette impossibilité de toute théorie ontologique à objectivité forte.

Cependant, l’idéalisme le plus radical est alors en droit de demander pourquoi doit-on admettre une telle réalité indépendante étant donné que notre connaissance ne porte que sur la réalité empirique. Autrement dit pourquoi ne pas considérer ce type de réalité comme la seule réalité, les phénomènes comme les seuls éléments de réalité fondamentaux, et toute forme de réalité extérieure comme superfétatoire ? Pour répondre à cette question sans trop nous étendre sur le sujet reprenons les arguments que d’Espagnat utilise car, sans être pleinement décisifs, ils ont le mérite de se montrer quelque peu novateurs par rapport aux arguments classiques des partisans du réalisme. Dans la perspective de décrédibiliser l’existence d’une réalité indépendante, l’idéalisme en vient souvent à avancer que lorsque nous croyons analyser les structures du réel ce sont en fait les structures de notre esprit, les modes à priori de notre sensibilité ou de notre entendement dans un paradigme kantien, qui sont l’objet de notre étude. Contre cet argument on peut remarquer que, parmi les innombrables modèles mathématiques parfaitement valides construits par l’homme, seuls un très petit nombre sont appropriés pour décrire la réalité empirique. De même il est possible de construire des théories mathématiques parfaitement en accord avec les critères humains de beauté, d’ordre et de simplicité mais qui se trouvent violemment réfutées par l’expérience, donc par la réalité empirique. Il semble, dans ce cas, que ce soit bien quelque chose d’extérieur qui dise 'non'' à certains modèles mathématiques et à certaines théories et’oui’’ à d’autres. Il est difficile d’argumenter que ce serait les structures de notre esprit qui diraient 'non'' à certaines théories alors que ce sont elles qui nous font croire en leur validité. Bien au contraire cette’résistance’’ de la part de la réalité empirique ne semble pouvoir être expliquée que par une réalité indépendante de nos facultés cognitives, à la source de cette réalité empirique. Aussi l’idéalisme radical, cette fois en opposition avec Kant, critique traditionnellement le fait que ce soient des choses en-soi qui causeraient les phénomènes pour affirmer bien plutôt que ce sont bien plus les phénomènes que connaît notre sensibilité qui nous font croire en l’existence d’une réalité extérieure. On peut répondre à cela qu’affirmer ainsi qu’une connaissance sensible comme un phénomène soit antérieure à une existence est un manque caractéristique de rigueur logique. Il peut en effet être considéré comme insuffisant à la viabilité d’une telle théorie que de poser une connaissance comme cause de son objet et donc une connaissance sans objet.

Finalement on peut noter qu’un idéalisme, qui admettrait l’existence d’une réalité indépendante mais qui la jugerait complètement inaccessible, et où toute la réalité empirique est créée par notre esprit mais sous l’influence de quelque chose d’extérieur, n’entrerait pas vraiment en opposition avec la théorie du réel voilé de d’Espagnat. Il faut en effet préciser que, outre les spéculations très personnelles qu’il propose avec réserves et que nous allons évoquer ci-dessous, d’Espagnat affirme uniquement l’existence d’une réalité indépendante mais laisse la question de sa nature ouverte. Que cette réalité soit les Idées de Platon, la substance de Spinoza ou le Dieu de Berkeley, seule est affirmée l’existence d’un quelque chose qui ne dépend pas de nous.

2.3.4. Les questions ouvertes

Spéculations ontologiques

Voyons maintenant, dans une optique purement spéculative, ce que d’Espagnat s’autorise comme conclusions au sujet de la réalité indépendante à partir de notre connaissance de la réalité empirique à l’échelle quantique. Rappelons encore une fois les réserves qu’il émet à l’égard de ces conclusions et le fait qu’il n’attribue à ces spéculations ni la validité ni l’exhaustivité du savoir qui nous est accessible au sujet de la réalité empirique.

Traitons dans un premier temps la question de savoir si la réalité indépendante est insérée dans l’espace et le temps. La théorie de la Relativité peut nous laisser à penser que le réel est bien immergé dans l’espace-temps mais celui-ci n’est pas le cadre ordinaire, stable et indépendant, de type cartésien/newtonien. La relativité de l’espace et du temps dans lesquels sont plongés les évènements implique des transformations et distorsions liées à la notion de point de vue qui nous laisse penser que la description spatiotemporelle du réel que propose la Relativité ne porte que sur la réalité empirique. Pour ce qui est de la mécanique quantique, on peut remarquer dans un premier temps que son formalisme, qui est le seul à faire l’unanimité, dépasse complètement le cadre de l’espace à trois dimensions pour celui d’un espace abstrait ayant un nombre de dimensions variable. Les objets quantiques ne peuvent être vraiment pensés comme s’inscrivant dans l’espace-temps quadridimensionnel que dans le cadre d’une théorie à variables supplémentaires, seul un modèle de ce type pouvant leur conserver positions et trajectoires à tout moment. Mais nous avons déjà remarqué comment toute théorie à variables cachées doit admettre une non-localité qui ne peut être compatible avec l’espace-temps relativiste que si celui-ci est pensé comme objectivement faible. Nous pouvons donc dire que la mécanique tend à contredire tout modèle objectivement fort de description de la réalité dans un cadre spatiotemporel classique. Pour être plus précis c’est essentiellement l’existence d’un espace objectivement fort qui est contredit mais l’équivalence partielle entre temps et espace impliquée par la théorie de la Relativité peut nous permettre d’étendre cette contradiction au temps. La légitimité d’un modèle spatiotemporel quadridimensionnel comme description de la réalité empirique en physique classique comme dans notre vie de tous les jours se trouve cependant conservée grâce à l’efficacité dont il fait preuve à cette échelle. Seul le fait d’étendre ce modèle à la description de la réalité indépendante est devenu inadmissible ; et cela a d’ailleurs le mérite de rendre cohérent l’abandon de l’espace tridimensionnel en physique quantique. C’est au terme d’un raisonnement sensiblement similaire que Bitbol en vient à suggérer que « la signification majeure de la révolution quantique est celle d’un parachèvement et d’un élargissement de la 'révolution copernicienne'' au sens de Kant », en effet l'espace et le temps ne sont que des schèmes sensibles qui ne se trouvent appropriés que pour décrire la réalité empirique (et semble-t-il pas toute la réalité empirique). Le second point qu'il nous faut aborder et qui est fortement lié au premier est la question de la causalité. En effet, si nous ne pouvons admettre ni un temps ni un espace fortement objectif, il est difficile de construire le type d'influence impliqué par la notion de causalité. On peut également remarquer avec d'Espagnat et d'autres que toute définition d'une relation causale est la description d'une succession réglée de phénomènes. Il est cependant toujours possible d'imaginer que cette succession est causée par une autre cause commune à ces phénomènes et le seul moyen de contourner cette objection est de construire une définition opératoire de la causalité. « Si A et B sont deux évènements répétables, si A est antérieur à B et si A est d'un type tel qu'il soit possible de le faire survenir à volonté, alors A cause B si à chaque fois que l'on fait se produire A, B se produit également et si chaque fois qu'on fait en sorte que A ne se produise pas, B ne se produit pas non plus. » Cette définition calquée sur l'implication logique fait référence aux possibilités humaines et doit donc n'être que faiblement objective. Là encore la physique quantique peut nous permettre d'accorder à Kant le fait que la causalité ne soit qu'une modalité humaine permettant l'organisation des phénomènes et ne porte donc pas sur la réalité indépendante. En conséquence du caractère faiblement objectif de l'espace, du temps et de la causalité, les notions étranges de non-localité et d'influence à distance qui apparaissent dans la mécanique quantique, n'acquièrent de sens que dans le cadre de la réalité empirique. En effet l'espace-temps et la causalité, parce que leur association implique contradiction dans le cas de la non-localité, peuvent être considérés comme de simples principes humains dans la mesure où cela permet de lever la difficulté en question. Abordons maintenant un autre sujet de spéculation essentiel concernant la physique quantique, celui de l'atomisme. Nous avons déjà vu que le modèle corpusculaire classique se trouve en échec concernant la physique quantique et que cela nous laisse à penser qu'il est inapproprié pour décrire la réalité indépendante. De plus, si l'on abandonne le cadre spatial tridimensionnel au sujet de cette réalité, la notion de localisation nécessaire à celle de corps matériel doit également être rejetée. Il semble donc là encore, même si de nombreux philosophes ont déjà pu le soutenir, que la physique quantique peut être considérée comme apportant la preuve que la réalité fondamentale ne peut être composée de microscopiques portions de matière ontologiquement constituées. Du moins soutenir leur existence serait faire preuve d'un manque total de rigueur en posant la réalité de ces atomes de matière par hypothèse et de fournir une théorie ad hoc pour expliquer que nous ne puissions les observer. Si la physique continue de parler de particules et notamment de particules élémentaires cela est, selon la plupart des physiciens eux-mêmes, qu'un langage métaphorique et évocatoire généralisé par l'usage et par son efficacité pédagogique. Pour illustrer ce point il faut prendre la théorie quantique des champs qui est une reformulation récente, mais conventionnelle, de la mécanique quantique destinée à en fournir une version relativiste. Dans cette théorie le système étudié est considéré comme la réalité fondamentale tandis que le nombre et la nature des particules qui le composent ne sont considérés que comme des variables de ce système. Ainsi on ne parle plus d'un système à n particules mais du nième état du système. Une particule devient une observable qui revêt donc autant de réalité qu'une propriété dynamique telle que la vitesse ou l'énergie ; selon les règles quantiques une telle observable ne peut être considérée comme ayant une valeur avant la mesure et n'a donc autrement qu'une réalité mathématique. Cette version du formalisme quantique a entre autre l'avantage de régler le problème posé par les créations et annihilations de particules que l'on doit admettre à l'échelle quantique si l'on veut conserver un sens ontologique aux particules, ces créations et annihilations cessent de constituer des problèmes épistémologiques en devenant de simples changements d'état. A partir de la théorie quantique des champs on peut donc imaginer, comme d'Espagnat, que le réel n'est absolument pas composé d'une myriade d'entités mais seulement d'une entité, une substance unique que nous connaîtrions au moyen d'une myriade d'entités mathématiques, qui correspondent peut-être à autant de propriétés de cette substance. La non-séparabilité qui caractérise les phénomènes d'enchevêtrement en physique quantique cesse alors d'être problématique dans la mesure où cela signifie simplement que le type de découpage épistémologique correspondant à des particules n'est tout simplement plus approprié à la situation. Quel que soit le degré spéculatif de ces conclusions ontologiques, il est clair que l'on ne peut pas admettre une vulgaire transposition de nos modes familiers d'appréhension du monde à la structure fondamentale du réel. Bien au contraire l'étrangeté de la physique quantique semble suggérer un éloignement conceptuel considérable mais difficile à estimer entre les constantes humaines que nous connaissons bien et avec lesquelles nous devons composer, et les structures de la réalité indépendante que nous pouvons tout juste effleurer. Aussi, même si nous admettons ce type de conjectures et donc la possibilité d'un certain savoir concernant la réalité indépendante, il faut constater que ce savoir est essentiellement négatif et consiste en général à dire que cette réalité’ne peut être ainsi’’.

L’accord intersubjectif.

Pour finir le tour d’horizon de la problématique quantique que nous avons entrepris, abordons le problème de l’intersubjectivité qui est un point assez secondaire mais qui permet quelques éclaircissements. S’il n’apparaît dans les détails d’aucun des thèmes que nous avons abordés, c’est parce qu’il s’agit d’un problème sous-jacent à l’ensemble de la théorie quantique et même à toute forme d’entreprise théorique.
L’accord intersubjectif est couramment conçu comme un acquis, consistant dans la correspondance que l’on peut observer entre les points de vus de différents observateurs. En général pouvons-nous nous accorder aisément sur la présence de tel objet, en tel lieu et sur la plupart de ses propriétés. C’est notamment sur cette base qu’est fondée la traditionnelle dualité entre les qualités primaires et les qualités secondes. En effet les premières bénéficient habituellement d’un accord intersubjectif sans faille tandis que les secondes sont souvent le théâtre de divergences entre points de vue. L’accord intersubjectif est également traditionnellement utilisé pour appuyer les thèses réalistes. Comme seule explication à cet accord on suppose que si plusieurs observateurs voient tel objet avec telles propriétés c’est qu’un existant réel et disposant bien de ces propriétés doit y correspondre. Voyons maintenant comment ce point de vue résiste à l’analyse que nous pouvons en faire sur la base des données que nous avons apportées.

Premièrement nous devons noter que l’accord intersubjectif se constate sans ambiguïté dans l’ensemble des phénomènes étudiés par la physique quantique. Si plusieurs observateurs, avec chacun leur propre instrument, mesure la même observable sur un même système, ils obtiendront la même valeur (pour peu que les mesures soient assez rapprochées dans le temps pour que cette valeur n’ait pas changé). Sans accord intersubjectif la physique quantique n’aurait à coup sûr jamais été considérée comme une science valide et les étrangetés de la théorie pourraient être simplement expliquées par l’absence d’une réalité sous-jacente correspondante. Le point essentiel qui se dégage de la cohabitation entre intersubjectivité et théorie quantique découle de la contrafactualité qui caractérise cette dernière. L’impossibilité de déduire d’une mesure sur un système que celui-ci possédait la valeur obtenue sur telle observable avant cette mesure met inévitablement en échec le raisonnement réaliste que nous avons présenté au paragraphe précédent. C’est en effet entrer en contradiction avec les lois quantiques que de déduire de l’accord intersubjectif constaté lors de la mesure d’une propriété dynamique à l’échelle microscopique qu’un existant fondamental doit posséder cette propriété en l’absence de mesure. On peut remarquer que cette contradiction s’étend à l’existence même des particules si l’on se place dans le cadre de la théorie quantique des champs que nous avons rapidement évoquée dans la section précédente. Non seulement l’accord intersubjectif constatable en physique quantique ne peut nourrir un argument réaliste pour en conclure l’existence et la nature des objets considérés mais cela a également pour conséquence de nous interdire cette explication de l’intersubjectivité.

La théorie quantique est cependant capable d’en fournir une et tel est le rôle du principe de réduction du paquet d’ondes. Si un premier observateur mesure une observable dans un état superposé pouvant prendre deux valeurs possibles, comme il n’observe que l’une de ces valeurs, la fonction d’onde se réduit de sorte que cette valeur possède dés lors une probabilité de 1 d’être obtenue lors de toute mesure ultérieure, la probabilité qu’un second observateur obtienne la seconde valeur est alors de 0 et il est donc impossible de constater un désaccord intersubjectif. Même en évacuant la réduction du paquet d’ondes il est possible de rendre compte de l’intersubjectivité. Ainsi, dans le même exemple, le premier instrument (et l’observateur correspondant dans la théorie des états relatifs d’Everett), en entrant en interaction avec le système mesuré, se trouve alors dans un état enchevêtré avec celui-ci, lorsque le second instrument effectue une mesure il entre en interaction avec ce système total de sorte qu’au final les deux instruments et le système étudié se trouvent dans un état enchevêtré descriptible par un seul vecteur d’état. Les corrélations quantiques entre les différents éléments de ce vecteur d’état permettent alors d’expliquer sans ambiguïté que les aiguilles des deux instruments donneront toujours les mêmes valeurs. Non pas que la physique quantique contredise le réalisme, nous avons déjà vu un certain nombre d’arguments en sa faveur qui n’ont pas étés remis en cause, elle interdit uniquement de conclure à l’existence de ses objets à partir de l’intersubjectivité. Elle présente par contre le grand mérite de fournir une explication, que l’on peut qualifier de scientifique, de l’accord intersubjectif qui soit neutre philosophiquement parlant, il n’est pas nécessaire d’adhérer au réalisme ou à l’idéalisme pour admettre sa validité. Et comme la physique quantique se veut la théorie des rouages de la matière, on peut étendre cette explication à l’intersubjectivité observée à l’échelle macroscopique.

Comme nous avons vu que notre connaissance ne peut semble-t-il pas rigoureusement porter sur la réalité indépendante, il est évident que l’accord intersubjectif concerne essentiellement la réalité empirique. Cela est d’ailleurs renforcé par le fait que l’intersubjectivité à l’échelle quantique ne porte que sur des résultats de mesure et ne peut servir à déduire l’existence d’objets. En conséquence il nous est en général impossible de déterminer si tel accord intersubjectif constaté est dû à la présence d’une réalité fondamentale correspondante, ou plutôt à telle modalité perceptive ou cognitive commune à tous les observateurs.

2.4. Conclusion

Au terme de cet exposé, ce que nous sommes le plus certain d’avoir réussi, c’est d’avoir mis en évidence le caractère philosophiquement très problématique de la théorie quantique, ce qui explique le choix du titre de cet exposé. Il ne faudra cependant pas prendre celui-ci pour un essai sur la physique quantique se suffisant à lui-même. Si nous avons tenté de donner quelques détails techniques lorsque cela était nécessaire, nous invitons vivement le lecteur à se renseigner sur les différentes théories évoquées s’il souhaite pleinement les comprendre. Les résumés que nous avons donnés doivent cependant permettre de dégager les problèmes épistémologiques et ontologiques essentiels posés par la mécanique quantique.
En effet nous avons d’un côté les questions strictement épistémologiques qui gravitent autour de la physique microscopique. La plupart n’ont rien d’original mais la théorie quantique leur apporte une matière nouvelle particulièrement fructueuse pour alimenter les débats. Notamment les dualités classiques entre positivisme et réalisme ou entre idéalisme et réalisme jouent un rôle majeur dans les querelles d’interprétation concernant la mécanique quantique. Celle-ci semble mettre à mal toutes les tentatives de discours réalistes qui ont été tentées sans pour autant donner le moindre argument qui les rendent caduques a priori. Au contraire l’échec à son sujet de toutes les grilles de lectures classiques dont nous avons l’habitude nous laisse à penser que doit exister quelque réalité indépendante se distinguant fortement de la réalité empirique que nous construisons naturellement. La physique quantique ne constitue donc pas la découverte qui va clore ce débat plusieurs fois millénaire mais elle évite, d’un côté un réalisme naïf qui croirait en un quasi-isomorphisme entre les phénomènes et les choses en soi, et de l’autre un idéalisme qui considérait la chose en soi comme une vulgaire copie du phénomène. Quant au positivisme, s’il est toujours d’une efficacité incontestée pour prédire le comportement des entités quantiques, plus que jamais il nous laisse dans un flou théorique difficilement acceptable en suspendant la question de savoir ce qui est réel parmi tous les objets épistémologiques utilisés (particules, vecteurs, champs, ensembles, etc.). De plus un tel discours positiviste ne peut manquer d’être exprimé dans un certain langage qui possède quand à lui toujours un certain parti pris ontologique.

Ce sont bien les questions ontologiques qui constituent l’autre classe de problèmes que pose la physique quantique. Même les physiciens les plus positivistes n’ont pu éviter de participer à ce type de débat car pour adopter un langage neutre encore faudrait-il définir cette neutralité. Les questions ontologiques posées par la théorie quantique, et surtout par les diverses interprétations tentées pour lui donner un sens réaliste, s’articulent avec les problèmes épistémologiques qu’elle pose dans la mesure où ce sont les particularités dont témoigne la mécanique quantique sur ce plan qui fixent les limites de tout discours réaliste portant sur elle. Nous avons pu voir que si ce sont bien des quantités discrètes qui ont été introduites avec la théorie quantique, cela ne peut être interprété comme une confirmation du modèle atomiste. En effet, les concepts de matière et de corps ne peuvent être difficilement conservés à l’échelle quantique. Ce n’est donc pas tant qu’aucune conclusion ontologique ne soit envisageable à partir des données de la mécanique quantique, bien plutôt est-ce le paradigme matérialiste usuel qui est incapable d’en tirer rien d’autre que des incohérences. Que l’on admette ou pas des particules élémentaires, il est difficile de rendre compte de la théorie quantique dans une optique ontologique sans faire intervenir des potentiels ou champs qui constituent également des réalités fondamentales. Celles-ci doivent par ailleurs présenter des caractéristiques qui dépassent toute conception ondulatoire ou corpusculaire ainsi que la discrétisation qui se constate lors des mesures. Plus généralement, expliquer les phénomènes tridimensionnels et déterministes observés à une échelle humaine nécessite à l’échelle quantique l’usage d’entités probabilistiques, dimensionnellement variables, et dans une certaine mesure atemporelles, de sorte que l’on soit tenté d’en conclure que, si de telles entités nous donnent des fragments d’information concernant la réalité fondamentale, celle-ci doit également présenter ce type de caractéristique. Tout du moins ce serait faire preuve d’un bien trop naïf réalisme que de penser que nos modalités perceptives familières nous donnent une bien plus sûre description de la réalité indépendante que les modèles mathématiques les plus vérifiés par l’expérience. Il semble plus sage de penser que nous construisons une réalité empirique à partir de notre expérience du monde et que, au fur et à mesure que cette expérience gagne en précision, en raffinement et en efficacité prédictive, ses structures doivent tendre à s’approcher de celles de la réalité indépendante, quoique nous ne soyons jamais en mesure de déterminer la distance qui sépare ces deux réalités. Cette incertitude tend d’ailleurs à identifier sémantiquement un tel réalisme et un idéalisme mitigé qui admettraient tout deux une réalité fondamentale inaccessible et qui plongeraient l’expérience humaine dans une autre réalité hétérogène et gouvernée par ses propres contraintes cognitives. Finalement, si l’on cloisonne complètement réalité indépendante et réalité empirique, on doit admettre que ni le paradigme du temps plat et de l’espace tridimensionnel ni le paradigme relativiste spatiotemporel quadridimensionnel ne peuvent convenir pour saisir l’ensemble des phénomènes de la réalité empirique.

Fort de ces conjectures sur les plans épistémologique et ontologique ainsi que des données que nous avons réunies sur la physique quantique, nous pouvons nous estimer relativement bien équipés pour mettre le système de Leibniz à l’épreuve de cette branche très problématique de la physique moderne. Il nous faudra cependant toujours garder à l’esprit cette particularité de la physique quantique que nous avons bien mise en évidence, à savoir que si son formalisme connaît unicité et unanimité, ses diverses interprétations à visée ontologique ne connaissent ni consensus ni preuve de leur validité. En conséquence c’est essentiellement à ce formalisme que nous confronterons le système de Leibniz bien que nous conserverons à ces modèles le rôle de 'laboratoire théorique'' que d'Espagnat leur attribue. 3. La mise à l'épreuve du système de Leibniz 3.1. Introduction Voici venu le moment d'entreprendre le troisième et dernier chapitre de notre étude et qui consiste en la mise à l'épreuve du contenu du premier chapitre à l'aide des données du second. Cette confrontation est essentielle dans la mesure où elle doit permettre de réunir ces deux visions hétérogènes dans un nouveau point de vue plus abouti. Ce sera l'occasion d'introduire de nouvelles idées et de nouveaux concepts, dont l'apparition aura été permise par l'intérêt que nous avons montré pour le système de Leibniz comme pour la physique quantique, et qui justifieront la présente mise à l'épreuve. Nous n'entreprenons cependant pas une comparaison systémique classique, dans la mesure où ce ne sont pas deux systèmes philosophiques ou deux théories scientifiques qui sont comparés entre eux, mais d'un côté un modèle métaphysique datant du dix-septième siècle et de l'autre une construction scientifique particulièrement originale du vingtième siècle. Nous ne devrons donc pas oublier les mutations épistémologiques qu'ont pu connaître la philosophie comme les sciences naturelles entre ces deux périodes. Mais ce n'est pas pour autant que nous allons éluder les différences, voir les contradictions, dont témoignent ces deux points de vue en affirmant qu'ils n'appartiennent pas à des domaines comparables. Si un système a la prétention de décrire la réalité physique dans la moindre mesure, il doit être mis à l'épreuve des plus récentes avancée de la physique moderne pour qu'il puisse prétendre à la validité. On peut attester de la validité d'un modèle mathématique par le simple travail de l'esprit, mais toute construction visant à décrire des faits concrets doit se soumettre à toutes les vérifications empiriques disponibles. L'hétérogénéité la plus caractéristique, qui marque un système comme celui de Leibniz et une théorie scientifique, est dû au divorce que nous avons déjà remarqué entre métaphysique et science. Cette séparation épistémologique, qui imprègne désormais toute la méthode scientifique, en est arrivée à faire du discours métaphysique l'opposé du discours scientifique. En général, dans la littérature scientifique comme dans le positivisme philosophique, sont taxées de métaphysique, avec un ton péjoratif indéniable et souvent avoué, toute tentative de description de la réalité qui n'est pas suffisamment appuyées sur des données empiriques. Le système leibnizien entre tout à fait dans le cadre de cette critique dans la mesure où il propose une description de la réalité qui porte explicitement sur des aspects inobservables de celle-ci. Nous devrons donc voir comment la démarche de Leibniz peut résister à ces critiques et continuer de prétendre à rendre compte de la matière et des corps en toute légitimité. A cette occasion nous devrons inévitablement revoir la question des rapports entre physique et métaphysique. Mais le problème se complexifie si on prend la mesure de ce que nous avons remarqué au sujet de la théorie quantique. Dans sa formulation la plus consensuelle, celle-ci n'est pas vraiment une description de la réalité (même empirique) à l'échelle quantique, mais seulement un ensemble de règles de prédiction concernant des mesures possibles sur des systèmes physiques microscopiques. La signification ontologique de ces règles, c'est-à-dire en termes de description de la réalité empirique, est davantage ambiguë et équivoque quoique nous ayons réuni, dans le chapitre précédent, de quoi préciser le type d'interprétations viables de la mécanique quantique. Notre exposé de la problématique quantique a en effet mis en évidence les problèmes récurrents auxquels se confronte toute tentative de description de la réalité. Notamment le fait que, en conséquence de ces problèmes, les théories à visée réaliste doivent porter sur la réalité empirique, car la réalité indépendante n'est pas à la portée d'une telle description exhaustive. Cela peut être considéré, en première analyse, comme s'opposant à la tradition philosophique systémique dans laquelle s'inscrit Leibniz. Pour régler ce point nous devrons éclaircir les rapports que peuvent entretenir son système avec les deux types de réalité que nous avons empruntés à d'Espagnat. En raison de la rupture dont fait preuve la physique quantique avec les axiomes traditionnels de la science, et surtout de la physique, et du fait que Leibniz a construit son système à une période que l'on peut associer à la fondation de cet axiomatique, la première étape de la présente confrontation portera sur des considérations structurelles assez générales. Par analogie avec les deux mondes que Leibniz superpose, à savoir celui des âmes et celui des corps, pour finir seront traités successivement les mondes microscopique et macroscopique. Dans la seconde partie il s'agira donc essentiellement de comparer la description du monde que propose la microphysique à l'échelle quantique avec la théorie leibnizienne de la substance. Dans la dernière c'est la vision leibnizienne du monde des corps qui sera confrontée à la manière dont la mécanique quantique se propose de rendre compte des phénomènes macroscopiques. 3.2. Considérations structurelles 3.2.1. Le système de Leibniz et les deux types de réalité Métaphysique leibnizienne et réalités Il peut paraître étrange de tenter de comprendre le système de Leibniz à l'aide d'une grille de lecture qui lui est bien postérieure et qui a de plus été construite dans un tout autre but. Leibniz devait sûrement disposer d'un découpage analogue à celui des réalités empirique et indépendante lorsqu'il a construit son système, mais l'objectif de la présente section n'est pas de spéculer sur le point de vue que Leibniz aurait eu s'il avait dû s'expliquer au sujet d'une telle dualité. Bien plus nous allons tenter ici de dégager comment le système leibnizien peut s'articuler, de la manière la plus cohérente, avec les deux types de réalité que d'Espagnat dégage et dont nous avons vu l'utilité pour traiter de la physique quantique. Si nous voulons comparer le système de Leibniz et la théorie quantique, nous devons en effet leur trouver des grilles de lecture communes. Voyons tout d'abord quelles places doivent occuper les deux types de réalités dans la métaphysique leibnizienne, à quoi doivent correspondre les réalités indépendante et empirique dans le système ontologique de Leibniz. S'il accorde bien une place essentielle à la perception dans sa théorie de la connaissance, Leibniz lui donne également un rôle capital dans sa métaphysique et dans sa description ontologique du monde. On pourrait alors conclure qu'une telle référence à la perception, comme les références faites aux observateurs dans la théorie quantique et dans la théorie de la Relativité, signifie que la métaphysique leibnizienne n'est qu'à objectivité faible. Cependant le système leibnizien donne un statut ontologique stable et indépendant de l'homme à la perception, il en fait même le principe d'action de base dans la réalité. Puisqu'il ne partage pas le dualisme cartésien, Leibniz fait de la perception une réalité en soi dans le monde physique, il en fait même la réalité fondamentale de ce monde. Pour éclairer ce point, nous devons préciser les définitions que nous avons données des réalités indépendante et empirique. Une description de la réalité indépendante doit rendre compte des existences et de leur nature, abstraction faite des modalités cognitives de celui qui l'énonce. Au contraire une connaissance de la réalité empirique ne peut manquer de faire référence à ces modalités et doit donc porter sur les phénomènes plus que sur les choses en soi. Si Leibniz introduit dans sa description des existences fondamentales une théorie de la perception, cela n'implique pas un idéalisme qui exclurait la dualité en question, car il n'est pas fait spécifiquement référence à la perception humaine mais à celle que connaissent toutes les substances. Au contraire Leibniz utilise explicitement une distinction assez classique entre choses en soi et phénomènes, quoique la différence entre les deux ne soit pas basée sur l'usuelle présence d'influences sensibles. La réalité en soi, chez Leibniz, concerne les substances individuelles, conçues comme des âmes, leurs modalités d'interaction et notamment le flux de perception que connaît chacune d'elles. Les rapports structurels d'entre-expression que connaissent les monades sous forme de perception mutuelle, comme le fait que toute monade doit percevoir toute les autres dans une certaine mesure et qu'à la perception distincte de l'une doit correspondre celle confuse de l'autre, sont indépendants du contenu contingent de ces perceptions et peut donc satisfaire à une objectivité forte. La réalité empirique concerne quand à elle la perception que peut avoir une substance particulière, ou une classe de monades ayant plus ou moins le même degré de perfection, et c'est là que l'on trouve la réalité des entités composés que sont les corps par exemple. L'objectivité faible de d'Espagnat concerne alors les agrégats que tous les humains observent en raison de leur ressemblance contingente mais qui ne disposent que d'une réalité phénoménale et empirique. Il nous faudra cependant vérifier que les spéculations que nous avons tentées, avec d'Espagnat, à propos de la réalité indépendante, n'entrent pas en contradiction avec la partie du système de Leibniz que nous avons associé à cette réalité. La causalité étant d'emblée phénoménale chez Leibniz, son abandon pour la réalité indépendante ne pose donc aucun problème. La spontanéité de la substance étant définie de manière individuelle et algorithmique, cela a pour conséquence d'autoriser une définition à objectivité forte de la prédestination leibnizienne. Une monade évolue selon une suite d'états prédéterminée en totale autonomie et cette définition a priori ne peut pas souffrir des critiques que nous avons évoquées concernant les définitions à objectivité forte de la causalité. Pour ce qui est de l'atomisme et de l'abandon des concepts d'espace tridimensionnel et de temps, nous laissons leur analyse à des sections ultérieures car il s'agit de points plus complexes et plus problématiques. Le système de Leibniz n'est un idéalisme que dans la mesure où il place la perception, et les fonctionnements spirituels en général, à une place ontologiquement centrale. La distinction réaliste classique entre ce qui est dû à notre sensibilité et ce qui revient en propre aux existants peut donc être conservée mais il faudra cependant prendre garde à ne pas ranger toute assertion faisant référence à des modalités perceptives dans la réalité empirique. Seules des références à des perceptions particulières devront être comprises comme nous interdisant une description de la réalité indépendante. La théorie leibnizienne de la connaissance Maintenant que nous avons statué sur les places respectives des réalités indépendante et empirique dans la métaphysique leibnizienne, voyons dans quelle mesure une connaissance de la réalité en soi peut être jugée accessible dans le système de Leibniz. Dans un premier temps, d'un point de vue formel, Leibniz utilise un langage qui semble témoigner d'une prétention à décrire le réel tel qu'il est, donc la réalité indépendante. Il faut noter que le type de prudence sceptique, coutumière concernant toute entreprise systémique en philosophie depuis le dix-neuvième siècle, est assez étranger aux discours des philosophes du dix-septième siècle. Mais cela ne signifie pas pour autant qu'ils ne fassent pas preuve d'esprit critique concernant les limites de la connaissance humaine. Quand au système de Leibniz, si le principe de raison signifie que l'on peut rendre compte totalement de tout existant, cette possibilité n'est réellement accessible qu'à un entendement infini. La perception individuelle de toute être humain est inévitablement emprunte d'une certaine confusion qui l'empêche de rendre dernièrement raison de tout existant particulier. Concrètement donc, Leibniz n'accorde à toute connaissance humaine sur des faits qu'une pertinence parcellaire et une incomplétude liée à l'imperfection individuelle de tout esprit. Cependant, Leibniz nous accorde la possibilité d'accéder à une compréhension totalement adéquate des vérités nécessaires, c'est-à-dire concernant les essences ; seul à leur propos, puisque cela ne produit pas une régression à l'infinie, il est possible de clore la réduction en vérités identiques nécessaire à une connaissance claire et distincte. Nous pouvons d'ores et déjà imaginer une manière d'articuler les réalités indépendantes et empiriques dans la théorie leibnizienne de la connaissance : une connaissance de la réalité indépendante nous serait accessible concernant les possibles seuls, tandis que seule la réalité empirique est l'objet d'une connaissance humaine portant sur des existants. Ce pose alors un problème d'ordre métaphysique si l'on se demande comment doit se comprendre le concept de réalité indépendante concernant des potentialités. Mais les possibles, dans le système leibnizien, ne sont pas de simples virtualités, ils ont bien une certaine réalité, quoique le seul possible soit moins réel que l'existant. Comme nous l'avons déjà noté, la connaissance adéquate dont nous sommes susceptibles concernant les essences ne porte pas sur leur détail mais sur leurs relations structurelles et ces relations correspondent aux vérités nécessaires auxquelles nous pouvons accéder par la logique et les mathématiques. Bien que l'on ne puisse nier l'objectivité qui caractérise ces vérités, il est difficile de dire s'il s'agit d'une objectivité forte ou d'une objectivité faible. Nous pouvons répondre à cette question en faisant appel à la hiérarchie des êtres que Leibniz construit dans son souci de continuité. Les âmes sensitives, inférieures aux esprits humains, si elles possèdent mémoire et entendement empirique, n'ont pas la conscience d'elles-mêmes nécessaire à la connaissance de ces vérités nécessaires. Par contre Dieu, infiniment plus parfait que les humains, dispose de tout temps de la connaissance la plus parfaite de toute chose et donc également des vérités éternelles. Il semble alors que, dans le système de Leibniz, si les vérités nécessaires sont bien indépendantes de toute constante humaine, leur maîtrise par les humains, et les modalités de cette maîtrise, sont cependant une conséquence de leur degré particulier de perfection, de leur position dans la hiérarchie des êtres. Cela est encore plus évident si l'on rappel le fait, affirmé par Leibniz à plusieurs reprises, encore une fois par fidélité à son principe de continuité, que, si l'on pouvait dévoiler tous les replis d'une monade, on y découvrirait le détail de toutes les monades, possibles comme existantes. Autrement dit, potentiellement, toutes les substances possèdent une perception parfaite de toute la réalité indépendante. Cependant, en raison de l'imperfection de chacune, aucune monade n'a une perception de cette réalité indépendante qui soit assez distincte pour prétendre à la conscience et à la connaissance. La référence que nous sommes ici obligés de faire au fait que l'imperfection de toute substance particulière joue dans sa connaissance de la réalité, signifie que cette connaissance porte sur la réalité empirique et pas directement sur la réalité indépendante. Nous devons tout de même remarquer, ce qui rejoint le point de vue de d'Espagnat, que la continuité que nous venons d'évoquer entre perception confuse et inconsciente de la réalité indépendante et connaissance plus distincte de la réalité empirique, laisse à penser que celle-ci doit bien nous fournir quelques indices structurels sur ce réel voilé. Il est en effet plus fidèle à la philosophie de Leibniz d'imaginer une continuité sous-jacente entre ces deux réalités, bien que cette distinction puisse conserver son utilité et sa pertinence une fois que l'on a pris conscience de cette continuité. 3.2.2. Les grands principes leibniziens et le formalisme quantique Principe de contradiction Le principe de contradiction, que Leibniz identifie dans son système à la nécessité, est un de ses piliers. Cela n'a pourtant rien d'original car, en tant que pierre angulaire de toute logique, il est également le pilier de tout système rationnel. Et le formalisme quantique ne fait pas exception à cela, d'autant plus qu'il compense en général l'impermanence de son objet par une rigueur mathématique exceptionnelle. Le succès que connaissent les règles quantiques en termes de prévisibilité, malgré l'absence d'interprétation ontologique décisive à son sujet, milite pour confirmer le rôle essentiel que doit jouer le principe de contradiction dans toute entreprise rationnelle, et notamment dans toute recherche empirique. Ce principe n'est de toute façon pas susceptible de connaître un désaveu en conséquence d'une quelconque théorie scientifique car, justement, seul lui est capable de discriminer parmi les axiomes des théories en excluant ceux qui présentent contradiction. Aussi, parce qu'il sépare précisément le principe de contradiction du principe de raison suffisante et qu'il fait du premier la seule règle des vérités nécessaires, Leibniz met la nécessité logique à l'abri de la menace que peut faire peser la physique quantique sur le déterminisme et la causalité. Le principe de contradiction concerne uniquement les propositions réductibles en vérités identiques et celles-ci ne craignent aucune remise en cause par le formalisme quantique car celui-ci en fait un grand usage. L'efficacité prédictive dont fait preuve la physique quantique en conservant une foi certaine dans le principe de contradiction, même si on limite le formalisme quantique à la description de la réalité empirique, signifie que ce principe doit bien correspondre à quelque chose dans la réalité indépendante. Pour peu que l'on admette que la réalité empirique est, d'une manière ou d'une autre, une conséquence de la réalité indépendante, il est difficile d'imaginer comment le principe de contradiction pourrait se montrer efficace au sujet de la réalité empirique sans l'être également dans le cas fictif où nous aurions accès à la réalité indépendante. Si l'on admet que la moindre information structurelle puisse être dérivée de notre expérience au sujet du réel voilé, on ne pourra rien conclure à son sujet sans admettre en premier lieu la nécessité logique. Principe de raison suffisante Le principe de raison suffisante entretient cependant une relation plus conflictuelle avec le formalisme quantique. En effet nous avons pu voir que ce formalisme implique, mathématiquement, les relations d'indétermination, ou d'incertitude, d'Heisenberg, relations qui ont pu faire croire à ce dernier en l'échec de la causalité. Le principe leibnizien de raison signifie que, de toute chose, on peut rendre raison ; il s'agit de l'équivalent de la causalité dans le système de Leibniz, bien qu'il soit plus fondamental, car la causalité est phénoménale chez Leibniz. En d'autres termes on doit toujours pouvoir expliquer une vérité contingente par d'autres vérités contingentes antérieures et il est vrai que le formalisme quantique nous interdit cela au sujet des mesures concernant les particules élémentaires. Il faut noter tout de même que le principe de raison de Leibniz, au sujet des vérités contingentes, implique, à cause de l'infinité du monde, que la chaîne qui permet de rendre compte d'une existence contingente est composée d'une infinité de maillons, qui sont autant de vérités de fait. En conséquence de la finitude intrinsèque de toute créature, aucun humain n'est en mesure de parcourir cette chaîne et il doit donc finir par se trouver incapable de satisfaire au principe de raison, quoiqu'en droit celui-ci continue de s'appliquer. Cela explique l'incapacité, que Leibniz pouvait déjà remarquer à son époque, dont les sciences peuvent témoigner pour déterminer de manière définitive la cause exacte d'un phénomène précis. Cependant, comme nous l'avons déjà vu, l'indéterminisme dont semble témoigner la physique quantique ne peut pas être rapporté ainsi à la méconnaissance de certaines données. Bien plus il s'agit d'une règle mathématique qui empêche de connaître avec précision certaines variables conjuguées sur un système étudié. Nous avons pourtant vu l'étendue des controverses que connaît la physique quantique, même au sein du formalisme conventionnel, concernant la nature de ses objets. On est alors en droit de penser, comme tous les défenseurs des théories à variables cachées mais sans pour autant estimer avec eux qu'un meilleur formalisme soit possible, que ce doit bien être l'incomplétude de notre description des systèmes physiques quantiques qui provoque l'incertitude mathématique qui en résulte, aussi bien que les controverses évoquées. Donc, si le formalisme quantique est une description de la réalité empirique qui ne satisfait pas pleinement au principe de raison suffisante, il est tout à fait envisageable -voir naturel étant donné l'utilité générale que l'on peut trouver à ce principe- de supposer que la réalité indépendante y souscrive. Il faut en effet rappeler que, comme la métaphysique leibnizienne fait de l'entre-expression le rapport de base entre les existants, le principe de raison peut s'appliquer dans une plus grande mesure à la réalité fondamentale qu'au strict domaine du connaissable humain. Autrement dit, si un esprit humain ne peut pas trouver de quoi rendre compte du résultat de certaines mesures à l'échelle quantique, même si cela est dû à une nécessité mathématique, on ne peut pas en conclure que la raison qui détermine telle observable à prendre telle valeur ne se trouve dans aucune monade. D'ailleurs, par définition, Dieu, en raison de sa perfection, contient nécessairement de quoi rendre compte de toute chose. Il est également possible de voir ici une analogie avec l'exemple récurrent que Leibniz utilise pour expliquer la présence du mal dans le monde par la notion de moindre mal : un carré parfait implique, par une nécessité mathématique, que sa diagonale soit un nombre incommensurable. Il n'est pas exclu que l'incomplétude de la mécanique quantique soit simplement due au même type d'incompossibilité entre essences. Pour faire coexister un maximum de substances dans la création, Dieu a peut-être dû les concevoir dans une organisation défiant les capacités rationnelles humaines. Malgré le caractère particulièrement spéculatif de ces dernières assertions, de la même manière que les théories à variables cachées à propos du déterminisme, elles ont le mérite indéniable de pouvoir servir de contre-exemple à toute conclusion hâtive à partir du formalisme quantique qui tenterait d'établir l'échec du principe de raison suffisante leibnizien. Celui-ci, comme la causalité, n'a pas été contredit mais seulement rendu inapplicable. De plus, si on limite le formalisme quantique à la réalité empirique et que l'on admet la théorie de la substance de Leibniz, on peut pleinement envisager que le principe de raison suffisante garde tout son sens au sujet de la réalité indépendante à l'échelle quantique. 3.2.3. Le problème de la continuité Atomisme et vide Le modèle atomiste fut adopté suite aux découvertes de Jean Perrin en 1906 et l'on doit à Ernest Rutherford, en 1910, la preuve du fait que ces atomes soient principalement constitués de vide. Nous avons déjà assez vu les limites des conceptions corpusculaires en physique quantique pour ne pas nous arrêter à la vision familière mais erronée des atomes comme de petits noyaux de matière autour desquels gravitent des électrons. Si la décohérence permet d'observer pour les atomes, parce qu'ils sont composés de plusieurs particules, des comportements plus ressemblant à ce que nous avons l'habitude avec les entités corpusculaires macroscopiques, ils restent entièrement soumis aux lois quantiques. Les invariants nécessaires pour en faire rigoureusement et légitiment des corps matériels sont à peine plus réunis au sujet des atomes que pour les particules élémentaires. Il faut préciser que l'atomisme que réfute Leibniz fait des atomes les derniers éléments du monde matériel, il en fait des éléments élémentaires. La science moderne, si elle conçoit des atomes, les définit comme composés de particules plus élémentaires, qui par contre, en tant que portions étendues de matières indivisibles, correspondent davantage à l'atomisme philosophique auquel s'oppose Leibniz. Même si l'on retient une définition corpusculaire des atomes, il demeure que tous les arguments logiques que Leibniz présente pour montrer qu'ils ne peuvent constituer les derniers éléments de la nature restent valides. Si un atome ne peut être scindé en parties pour des raisons physiques, il n'empêche qu'il peut l'être en droit et que cette inséparabilité est donc contingente. Comme l'étendue n'est que phénoménale, les atomes ne doivent leur statut qu'au vide qui les séparent. Il est vrai que tous les types d'atomisme, antiques comme scientifiques, ne peuvent appuyer leur cohérence que sur la possibilité du vide. Au contraire l'indiscernabilité, la relativité de l'étendue et de l'espace, comme l'impossibilité du vide, sont les trois éléments nécessaires à la théorie leibnizienne de la substance. Comme tous ses contemporains, Leibniz pensait à l'impossibilité du vide pour des raisons philosophiques et théologiques. La définition philosophique du vide est celle du non-être, du néant pur où rien n'existe sous quelque forme que ce soit, du moins est-ce ainsi que Leibniz devait le concevoir. Mais le vide tel qu'il a été ainsi introduit puis étudié en physique, s'il signifie l'absence de particules matérielles, reste parcouru de champs quantiques. Il est clair alors que le vide physique est qualitativement différent du vide philosophique. Si un modèle matérialiste comme celui de Descartes, qui refuse un vide comme absence de matière, peut être remis en cause par un tel vide physique, la métaphysique leibnizienne conçoit des existences fondamentales qui ne sont pas matérielles et peut donc admettre que les champs qui parcourent le vide évitent que celui-ci soit conçu dans son sens philosophique. Quelque chose parcoure donc bien le vide à l'échelle quantique et nous avons déjà vu l'ambiguïté qui caractérise la nature des entités considérées à cette échelle. Par ailleurs, la théorie de la Relativité rejoint la vision leibnizienne de l'espace et du temps sur la question de leur réalité. Dans le système de Leibniz comme dans la construction d'Einstein, ni l'espace ni le temps ne sont des substances, ils sont relatifs aux objets qu'ils contiennent et un espace sans objet ni a donc tout simplement pas de sens. Il est donc naturel que la théorie quantique des champs, dont il faut rappeler qu'elle est la version la plus aboutie du formalisme quantique en cela qu'elle se conforme le mieux à la Relativité, exclue également le vide. Là où la mécanique quantique non-relativiste voit des créations et des annihilations de particules au sein des portions vides d'un espace newtonien, la théorie quantique des champs voit ces champs partout, fait d'eux la réalité fondamentale et, à leur égard, il n'y a pas de vide. L'usage des concepts de vide et de particules dans la théorie quantique relativiste devient alors purement formel et il ne peut donc pas suffire pour contredire la réfutation du vide et des atomes que Leibniz affirme avec l'ensemble de la tradition philosophique. Enfin, pour peu qu'on accepte que des entités, ou une entité, doit occuper la réalité indépendante, si la notion d'espace n'est pas retenue à son sujet, l'idée d'un espace sans être, nécessaire pour définir le vide, ne peut être que difficilement obtenue. Quanta et discontinuité L'apparition de quantités discrètes et du concept de quanta dans la microphysique sera très rapidement considérée par une grande partie de la communauté des physiciens comme l'échec du principe de continuité tel qu'énoncé par Leibniz. En effet c'est lui qui a énoncé la célèbre phrase « la nature ne fait pas de saut » et que Bohr remis en cause avec sa notion de saut quantique. Mais ce qui a surtout été rompu, c'est la croyance, unanimement répandue dans la communauté scientifique et que Leibniz devait sûrement partager, que l'énergie comme le mouvement doit théoriquement être mesurable dans des quantités aussi petites que l'on veut. La continuité de Leibniz est quelque peu différente car il s'agit davantage d'un principe logique que d'un énoncé de physique : « lorsque la différence de deux cas peut-être diminuée au-dessous de toute grandeur donnée in datis ou dans ce qui est posé, il faut qu'elle se puisse trouver aussi diminuée au dessous de toute grandeur donnée ». Leibniz en a certes proposé une interprétation physique car, comme nous l'avons souligné, il l'estimait devoir s'appliquer dans tous les domaines. Le paradigme mécaniste classique dans lequel Leibniz concevait la physique lui a donc fait faire quelques conclusions hâtives car, si nous pourront remarquer dans la suite de ce chapitre l'intuition exceptionnelle dont il a fait preuve, Leibniz ne pouvait deviner l'ampleur de la complexité qui caractérise les évènements de la réalités à une échelle qui lui était radicalement inaccessible. Mais de telles conclusions sur des existences contingentes, erronées en raison d'une carence de connaissances de fait, ne permettent pas de contredire le principe utilisé. Un tel raisonnement est invalide pour les mêmes raisons que la conclusion d'Heisenberg au sujet de l'échec de la causalité. Dans le principe de continuité tel qu'énoncé ci-dessus, ce n'est pas la conclusion qui est réfutée, mais la prémisse. La constante de Planck signifie que lorsque l'on tente de mesurer une quantité d'énergie aussi petite que l'on veut, on ne parvient pas à trouver une quantité inférieure à cette constante. Ce n'est pas tant le principe qui est réfuté mais plutôt la possibilité de le vérifier expérimentalement puisqu'on ne peut diminuer la différence de deux cas au-dessous de toute grandeur donnée. Comme la causalité ou le principe de raison suffisante, la continuité peut être dit inapplicable en physique quantique, mais cela ne signifie pas qu'elle soit erronée. Quoiqu'il en soit, après l'apparition de cette discontinuité et la popularité que connurent les modèles corpusculaires et discrets de description de la réalité physique, la construction des outils mathématiques essentiels du formalisme quantique poussèrent progressivement à l'abandon d'une telle vision. Comme nous l'avons vu, l'abstraction dans laquelle est plongée le monde quantique par le formalisme conventionnel rend très prudent les physiciens sur les conséquences des quantités discrètes que ce formalisme implique. Nous avons déjà remarqué que la contextualité nécessite d'introduire, dans le compte-rendu de toute mesure, la description du dispositif expérimental qui la permise. Nombre de physiciens et d'épistémologues, une fois cette contextualité exceptionnelle mise en évidence, furent prompte à lui attribuer l'apparition de nombres entiers lors des mesures. C'est en effet par un nombre fini et discret de dispositifs de mesure qu'un système peut être décrit, et ce nombre ne peut disparaître en raison de la contextualité ; autrement dit, celle-ci nous empêche de pouvoir attribuer cette discontinuité au système lui-même ou à l'instrument de mesure. Cela est encore plus claire si l'on rappel que le formalisme quantique, en l'absence de toute mesure, décrit les différentes valeurs de chaque observable par des probabilités comprises entre 0 et 1, donc d'une manière continuiste, et que les quantités discrètes 0 ou 1 apparaissent seulement lors des mesures par le principe de réduction du paquet d'ondes. D'une autre manière, mais toujours dans le but d'écarter une vision discontinuiste, Schrödinger construisit sont modèle ondulatoire pour que les « nombres entiers s'introduisent de la même manière naturelle que le nombre des noeuds d'une corde vibrante » en physique classique ondulatoire (qui est continuiste). Plus généralement, que ce soit à cause de ses aspects ensemblistes ou probabilistiques, ce sont aux particularités du formalisme mathématique de la physique quantique que fut attribuée la présence de quantités discrètes dans la description d'un système. 3.3. Le monde microscopique 3.3.1. Entités quantiques et substances simples Les particules élémentaires selon la théorie de la substance La quête des derniers éléments de la nature, des entités élémentaires à partir desquelles tout est construit, est courante en philosophie, et notamment dans les divers atomismes. Leibniz chercha lui aussi la nature des existants fondamentaux de la réalité, mais, fidèle à la tradition philosophique, il tenta d'en définir a priori les propriétés essentielles via la métaphysique. Comme à l'accoutumée, il travailla à cela avec un maximum de rigueur logique. Le système leibnizien propose donc une théorie de la substance qui prétend déduire les structures essentielles des derniers éléments de la nature par un raisonnement métaphysique gouverné par la stricte logique. C'est sur cette base qu'est réfuté le mécanisme pur comme l'atomisme matérialiste. Les sciences empiriques, avec l'apparition et le perfectionnement des microscopes, ce sont également fixé pour but de déterminer les existants fondamentaux, quoique les appareils utilisés de nos jours pour sonder les détails de la matière soient d'une nature très différente. C'est d'ailleurs à ce sujet que fut créée la physique quantique. Celle-ci, par des moyens de plus en plus perfectionnés mais toujours plus différents de nos schèmes sensibles usuels, sonde la matière pour découvrir son fonctionnement comme ses composantes fondamentales. Le but est alors de dégager les particules élémentaires, c'est-à-dire les’briques’’ qui composent l’univers. La physique estime avoir découvert la plupart des particules élémentaires qui composent tous les phénomènes observables qu’ils soient corpusculaires ou autre. Ainsi connaît-on pour le moment plusieurs leptons, quarks et bosons. Mais le critère qu’utilise la science pour juger si une particule est élémentaire tient à ce que l’on ne puisse lui déterminer de structure interne ni de composants. Au vu de la distinction que nous avons retenue, avec d’Espagnat, entre objectivité forte et objectivité faible, il est clair que ce critère ne peut convenir pour définir les éventuelles particules élémentaires de la réalité indépendante (d’Espagnat ne semble d’ailleurs pas croire en l’existence fondamentale de telles particules). En effet il fait référence à nos capacités de détermination et on peut remarquer que, dans son histoire, il est souvent arrivé à la microphysique de retenir comme élémentaires des particules dont des composants plus fondamentaux furent ensuite découverts. Les conditions nécessaires pour observer un détail sont bien plus contraignantes si son échelle est petite, notamment les quantités d’énergie nécessaire deviennent très importantes ; cela laisse à nombre de physiciens l’espoir de découvrir des particules plus fondamentales lorsque les niveaux d’énergie nécessaire seront réunis. Autrement dit, on peut légitimement penser que les particules élémentaires, ainsi dénommées par la physique, ne sont les ultimes composants que de la réalité empirique.

Bien que les termes d’antan puissent maintenant porter sur des entités différentes, comme nous l’avons déjà noté, le paradigme des particules élémentaires en physique moderne correspond bien plus à l’atomisme philosophique que Leibniz met en question. Ses critiques et sa théorie de la substance visent, non pas à réfuter l’existence de tels atomes ou particules de matière, mais à leur refuser le statut de derniers éléments de la nature. Les propriétés des existences fondamentales, tel que Leibniz les définit, imposent des critères bien plus contraignants que la seule inséparabilité pratique. La substance leibnizienne doit donc être une et inétendue car il n’y a qu’ainsi définie qu’elle ne pourra plus être divisée, et cela dans un sens fortement objectif. On peut alors remarquer que les particules élémentaires considérées par la physique quantique possèdent en générale masse et taille et ne peuvent donc pas être identifiées à des substances simples au sens de Leibniz. Quand bien même l’énergie nécessaire pour rompre un électron ne serait pas disponible dans tout l’univers, il demeurerait que celui-ci est divisible en droit et que cette impossibilité contingente ne lui autorise pas le statut de substance simple.

L’autre particularité, que Leibniz associe aux substances simples et qui découle directement de leur indivisibilité, est la spontanéité dont elles doivent faire preuve. Chacun des états que connaît une monade n’est qu’une conséquence de sa constitution interne sans qu’aucune influence externe ne soit ni nécessaire ni possible (excepté Dieu comme toujours). Une entité ontologiquement indivisible, ne pouvant rien gagner ni rien perdre, ne peut en effet subir ni exercer d’influence, en aucune manière que ce soit. La physique explique pourtant, ou tente d’expliquer, tous les phénomènes qu’elle répertorie par des transferts de bosons entre particules des deux autres types, leptons et quarks ; toutes ces particules étant considérées comme élémentaires. Cependant, le langage des physiciens, en évoquant des gluons liant les quarks entre eux ou des photons passant d’électron en électron, ne nécessite-t-il pas des entités sous-jacentes pour expliquer ces interactions ? En reprenant le raisonnement de Leibniz, pour garantir à ces particules leur statut ontologique, nous n’avons guère d’autre solution que de leur accorder une spontanéité similaire à celle que lui-même prête aux substances simples. Cela permet en effet de résoudre la difficulté, quoique nous devions pour cela faire abstraction des arguments que nous avons avancés précédemment pour refuser aux particules élémentaires leur statut ontologique.

Cependant la théorie quantique des champs milite contre cette solution, car ces champs permettent de prédire le comportement des particules comme leurs interactions sans être eux-mêmes décrit par aucun modèle corpusculaire. Même si, là encore, on ne peut pas en déduire que ces champs doivent exister tel quel dans la réalité indépendante, les particularités épistémologique de la physique quantique devant nous rendre prudents, nous pouvons tout de même supposer, en raison de leur efficacité, que quelque chose doit y correspondre ; et ce quelque chose ne peut être aucune des particules élémentaires en question, mais une ou plusieurs entités plus fondamentales.

Finalement, il paraît assez évident qu’aucune des découvertes de la physique quantique concernant les particules élémentaires ne peut être vue comme apportant un argument convaincant contre la division actuelle à l’infinie de la matière que Leibniz déduit a priori de principes logiques et métaphysiques.

Les substances simples et la physique quantique

Il nous est également possible de poser la question du rapport entre les substances simples et les particules élémentaires dans l’autre sens. En admettant que les particules quantiques ne sont pas les substances simples de Leibniz, voyons si celles-ci ne pourraient pas tout de même devenir des objets de la physique quantique.

D’emblé Leibniz estime prouver que ces entités sont inobservables par le simple fait qu’elles sont inétendues, de la même manière que l’on ne peut voir un véritable point mathématique. Par définition, c’est par une division à l’infinie de la matière qu’un physicien pourrait espérer en arriver à isoler une monade ; celui-ci étant irrémédiablement borné, il ne lui reste aucun espoir de clore cette division d’une manière ou d’une autre. On pourrait cependant répondre à cela qu’un tel argument se fonde sur un paradigme spatial tridimensionnel, et que l’abandon de celui-ci en physique quantique ouvre peut-être la voie à une telle division à l’infini. Le principe des substances simples est qu’elles sont les unités fondamentales de la réalité, et pas seulement dans un sens spatial, aussi ne peuvent-elles pas être individuellement quantifiées, la quantité apparaît seulement lorsqu’on les multiplient. C’est entre autre pourquoi les unités qui apparaissent dans la théorie quantique ne peuvent correspondre aux monades, cette discrétisation est la conséquence de propriétés mathématiques continues sous-jacentes. En mathématique tous les principes de limite en l’infini sont similaires, qu’ils soient tridimensionnels ou pas. Ainsi, puisque les quantités d’énergie nécessaires pour observer un détail avec un canon à électron croissent lorsque ce détail est de plus en plus petit, détecter un détail infiniment petit comme une monade demanderait une quantité infinie d’énergie qu’il ne nous est pas possible de réunir. Cela maintient le fait que les monades soient observables en droit, mais en pratique, seul un esprit infini comme Dieu pourrait les observer.

3.3.2. La théorie de la substance et le monde quantique

Les agrégats à l’échelle quantique

Si on ne peut identifier les substances simples de Leibniz et les particules élémentaires de la physique quantique, cela ne nous dispense pas de traiter du statut que peuvent avoir ces dernières dans le système leibnizien. A coup sûr, les objets de la physique quantique doivent être des substances composées. Si la théorie quantique conçoit les particules comme des entités bien constituées, c’est que le degré de confusion avec lequel elle nous fait connaître la réalité à cette échelle masque l’infinité qui doit peuplée chacune de ces particules ; de la même manière que la confusion de notre perception familière nous masque celle qui occupe les objets de notre vie quotidienne. Voir les particules comme des agrégats permet notamment de leur donner un sens sans statuer sur leur nature éventuellement corpusculaire. Leur nature matérielle étant phénoménale, même si Leibniz n’avait pas de son temps d’exemple concret pour réfléchir à ce point, il n’aurait sûrement pas refusé l’idée que certains agrégats n’aient pas une apparence complètement matérielle et corpusculaire ; du moins l’admettre ne nuit pas à la cohérence de son système. Quoiqu’il en soit nous aurons l’occasion de revenir sur ce point.

Il faut cependant nous demander de quel type sont les agrégats observables à l’échelle quantique. Leibniz distingue en effet la matière première de la matière seconde ; la première correspondant aux amas de monades inorganisés tandis que la seconde désigne les composés vivants. La question peut paraître étrange car la biologie ne définit le vivant que sur des critères s’appliquant à partir de l’échelle moléculaire. Mais la définition que Leibniz donne de la vie, si elle est sûrement bien moins applicable pratiquement, n’est pas limitée à une échelle particulière. Comme nous l’avons vu, le système leibnizien accorde la vie à toute les monades et donc à tous l’univers, cependant tous les corps ne sont pas vivants. Une monade préside à toutes les monades dont elle rend raison le plus adéquatement, l’ensemble de ces substances constituant alors son corps. Un corps vivant est donc défini par Leibniz comme étant dirigé par une âme qui possède alors une perception plus distincte de ce corps et à travers celui-ci une perception un peu moins confuse de tout le reste de l’univers. Tous les ensembles de monades ne possèdent pourtant pas de monade dominante. Leibniz établit donc que l’analyse des détails de tout corps inorganique doit aboutir sur des entités vivantes à un moment ou à un autre. Il s’agit alors de savoir si les particules de la physique quantique pourraient être ces entités organiques rencontrées lors de l’étude de la matière.

Concernant les entités macroscopiques que nous côtoyions, bien que le système leibnizien accorde un fonctionnent final à toute monade, c’est par l’apparition d’une certaine finalité dans le monde des corps que nous semblons capable de repérer les entités vivantes. En effet, plus un corps est organisé et complexe, plus il est soumis à son entéléchie et plus nous pouvons alors remarquer les attributs spirituels de cette dernière. Il semble alors difficile de statuer sur la question de savoir si les particules peuvent être des organismes vivants au sens de Leibniz car les difficultés épistémologiques de la physique quantique, comme la différence d’échelle exceptionnelle, nous ferment une analyse assez pointue de leur comportement. Nous pouvons seulement espérer dégager quelques indices à partir de la description qu’offre le formalisme quantique de ses objets. Il est indéniable qu’une particule élémentaire présente une cohérence interne exceptionnelle, cela a d’ailleurs sûrement concouru à ce que la physique soit tentée d’en faire des entités ontologiquement constitutives, mais cela n’exprime pas pour autant la moindre finalité discriminante. Seule l’indéterminisme dont fait preuve une particule lors d’une mesure, qui la soustrait à une pure nécessité et qui peut donner l’impression d’un choix, peut servir à spéculer sur sa nature spirituelle. Un tel phénomène ne suffit cependant pas à construire un véritable argument concernant le genre d’agrégats auquel appartiennent les entités quantiques. Cette question reste donc en suspens, bien que cela ne pose pas de problème pour la suite de cette étude dans la mesure où cette question reste finalement assez périphérique.

L’abandon de l’espace et du temps

Une des particularités les plus problématiques du formalisme quantique reste l’espace abstrait dans lequel il doit être conçu. Un espace de Hilbert avec un nombre variable de dimensions reste seul capable de décrire les systèmes physiques à l’échelle quantique. Comme ce type d’outils mathématiques est bien postérieur au système de Leibniz, il est assez évident que celui-ci n’ait pu se prononcer sur la dépendance éventuelle de son système à l’égard d’un paradigme tridimensionnel.

Tout de même il faut noter que le système leibnizien survit particulièrement bien à un tel changement de paradigme. Là où les systèmes cartésien et newtonien substantifient l’espace pour lui accorder une existence autonome et ontologique, Leibniz la lui refuse et fait seulement de l’espace l’ordre de coexistence des possibles. Dans le système leibnizien, les éléments de la réalité indépendante sont les substances qui, inétendues, se passent aisément de données spatiales. Au contraire, Leibniz affirme que l’espace apparaît, comme les corps, avec la multiplicité des monades, et qu’il a donc un caractère essentiellement phénoménal. La dualité entre les phénomènes et les choses en-soi est déjà très explicite chez Leibniz, et l’espace, puisqu’il ne peut prétendre à la substantialité, est clairement à ranger dans le premier genre. Aussi, dans le système leibnizien, la mécanique nécessite bien un espace tridimensionnel classique, mais celle-ci demeure tout aussi phénoménale que cette espace. Le type d’action que Leibniz suppose pour les éléments constitutifs du réel est qualitativement très différent d’un mouvement de partie ou d’un transfert d’énergie, il s’agit d’un accord prédéterminé entre entités spirituelles. Tout type d’espace peut même être abandonné car la métaphysique leibnizienne admet une infinité de substances mais rien quand à leur disposition, bref seule une pure multitude est supposée. La monade connaît en réalité une infinité de variables, qui sont autant de perceptions qu’il y a de monades dans le monde, et qui participent toutes à la perception globale que cette monade a de l’univers. D’une manière, certes assez kantienne mais entièrement déductible du système leibnizien, il est possible d’en conclure qu’un paradigme spatial et tridimensionnel n’est propre qu’au degré de distinction que connaissent les monades conscientes. Autrement dit le système de Leibniz, non seulement s’accorde avec l’idée que l’espace ne soit un concept approprié que pour la réalité empirique, mais il peut même être considéré comme appuyant cette idée.

Nous avons vu qu’en raison de la nécessité d’adapter la théorie au paradigme relativiste quadridimensionnel, l’abandon de l’espace pour la réalité indépendante implique également celle du temps. Celui-ci pose tout fois plus de problèmes car sa remise en cause menace la cohérence interne de tout système de description des évènements. Le temps est pourtant défini par Leibniz, de la même manière que l’espace, comme relatifs à une multiplicité, mais cette fois une multiplicité dans la monade de sortes que si la réalité indépendante ne connaît toujours qu’un état pour chaque monade, seule notre mémoire peut faire coexister plusieurs instants. Si le temps est la succession de tous les états du monde, cet ordre n’a de sens que là où ces différents état peuvent être conçus simultanément, dans la rétention dont sont susceptibles certaines monades. Une telle référence aux perceptions particulières de quelques monades, à savoir celles qui disposent de mémoire, suffit à limiter le champ d’application du concept de temps à la réalité empirique. D’un autre côté, parce qu’ils sont prédéterminés, tous les états que connaîtra une monade, c’est-à-dire toutes ses perceptions, sont déjà en elle, mais d’une manière enveloppée et inconsciente. Dans ce cas là, ce qui correspondra à la succession de ces états, c’est le dévoilement progressif des perceptions de la monade. Mais ce n’est que pour la substance en question qu’il y a dévoilement, car, pour un point vu objectif au sens fort, toutes ces perceptions sont là et toutes en même temps et de tout temps ; un paradigme temporel devient alors étranger à un tel point de vu. Cela rejoint d’ailleurs l’analogie mathématique qu’il est possible de faire à propos de la spontanéité de la monade : un algorithme est une formulation, atemporelle mais plus fondamentale, du développement temporel qu’il est possible d’en faire. Un esprit infini n’a toutefois pas besoin d’un tel développement pour appréhender l’ensemble de cet algorithme.

Il semble qu’après analyse, la réalité indépendante, dans le système de Leibniz, est parfaitement apte à se plier à la négation des notions spatiotemporelles que semble impliquer le formalisme quantique relativiste. Bien plus il apparaît que la description métaphysique que Leibniz fait du monde en expulsant toute référence à la réalité empirique, expulse par la même occasion l’espace et le temps.

3.3.3. Un fonctionnement spirituel fondamental

Théorie de la substance et théorie de l’information

Si nous souhaitons faire de la monadologie le fonctionnement sous-jacent du monde quantique comme de l’ensemble de la réalité, nous devons faire abstraction de ses éléments les moins admissibles pour les plus sceptiques des physiciens et des épistémologues. La référence que Leibniz fait couramment à Dieu est probablement la plus choquante pour ceux-ci. Un tel usage de l’être infiniment parfait dans le système leibnizien, est tout simplement inadmissible pour les athées, et peut même s’avérer insatisfaisant pour les plus rigoureux des croyants et des agnostiques. Cela est particulièrement gênant pour la cohérence du système dans la mesure où c’est Dieu qui garantit l’harmonie préétablie. D’autant plus qu’insister à ce sujet introduirait des débats superflus dans notre discussion portant sur la réalité. Pour satisfaire aux objections fondées sur ce point, voyons comment la théorie de la substance peut être modifiée pour se passer de ce parti pris théologique. Le but de la présente section n’est pas d’expulser Dieu du système leibnizien, car ce serait le trahir au-delà de l’acceptable, mais de montrer que la théorie de la substance, qui fait un appel trop exprès à Dieu tout en étant une partie essentielle du système, peut conserver une cohérence interne en faisant abstraction de la question de l’existence de l’être suprême. Les preuves métaphysiques que Leibniz apporte au sujet de l’existence de Dieu sont d’une pertinence qu’on ne peut écarter, de même que l’usage qu’il fait de ce concept, cependant, comme tout le monde n’est pas prêt à ce type de concessions, notre présente entreprise semble justifiée. A cette occasion nous tenterons d’éclaircir plus que nous ne l’avons fait la communication des substances.

Le fonctionnement basique du monde, dans la métaphysique leibnizienne, est l’entre-expression dont font preuve les monades. Il ne s’agit donc pas d’une action proprement dite au sens physique car aucune ne modifie les autres en quelque manière que ce soit. Au contraire l’harmonie préétablie garantit à toutes les substances une concordance parfaite calculée à l’avance. Cette harmonie a pour conséquence, en ce qui concerne la réalité empirique, de nous donner l’impression d’une influence mécanique des corps entre eux à une certaine échelle, et d’une interaction entre entités épistémologiquement indéterminées à une échelle inférieure. Mais pour ce qui est de la réalité indépendante, les substances sont de la pure information et l’ensemble des règles qui rendent compte de leurs rapports mutuels peut alors constituer une théorie de l’information. Au sein de cette théorie, l’harmonie préétablie devient logiquement équivalente à une explication de l’interaction entre les monades par des transferts d’information. Mais ces transferts doivent être conçus comme antérieurs à toute matérialité, bref c’est une communication sans support qui peut être envisagée pour décrire les relations entre substances. L’ordre dans lequel est habituellement définie toute communication est donc inversé, au lieu de n’être envisagée que comme véhiculée par la matière, l’information est conçue comme première et c’est alors elle qui sert de support au monde physique. Ne pouvant être expliquée par une communication de type physicaliste, l’entre-expression leibnizienne peut être basée sur des transferts d’information entre substances, indépendamment de tout véhicule.

Une perception, conçue comme fondamentale, n’a rien de paradoxale si nous tirons, comme Leibniz, toutes les conséquences du cogito cartésien. Phénoménologiquement, lorsque quelque chose rentre en contact avec mon épiderme, en premier me parvient une information qui, seulement dans un deuxième temps, est interprétée comme signifiant la présence d’une entité physique. Seul un renversement de cet ordre d’apparition des phénomènes permet de supposer que c’est par des moyens physiques que fut véhiculée l’information initiale. Nous n’avons cependant pas la moindre expérience d’une entité physique qui ne se soit pas toujours manifestée dans un premier temps comme une simple perception. Supposer un véhicule matériel à toute forme d’information parvenant à la consciente dénote d’un parti pris ontologique qui ne découle pas rigoureusement de données empiriques. Le fait que la matière puisse servir de support à une communication ne peut pas être exclusivement interprété comme signifiant que l’information doit lui être postérieur. Il est tout à fait envisageable d’en conclure que la matière est perméable à une information qui lui indépendante ; cette option gagne en crédibilité si l’on remarque qu’une même information peut demeurer parfaitement identique en étant transférée d’un support physique à un autre. Limiter la communication à la seule communication humaine, par l’anthropocentrisme que cela implique, nous ferme la possibilité d’une théorie de l’information à objectivité forte. Toute information que l’humain est capable de communiquer nécessite un support matériel, mais cela ne signifie pas que toute information subit ce type de contrainte. Et la physique quantique va dans ce sens car elle permet de construire des moyens de communication efficaces sans pour autant que l’usage du concept de corps matériel ne soit tout à fait légitime à son sujet.
Les substances ne connaissent cependant pas uniquement la perception, elles sont également définies par une appétition qui peut sembler très étrangère à une quelconque théorie de l’information. Rappelons que, si elle correspond, pour des être de notre complexité, à ce que couvre habituellement un tel terme, concernant la substance simple en général, l’appétition désigne la tendance naturelle dont fait preuve tout être pour atteindre un plus haut degré de perfection. Cette perfection, chez Leibniz, est définie par le principe d’économie et consiste donc en une optimisation des moyens par rapport aux fins. Une telle idée de la perfection est non seulement concevable dans une théorie de l’information, mais elle lui est même très liée. Si l’on conçoit le sens comme le but de la communication et son contenu quantitatif comme son moyen, on peut dés lors définir le degré de perfection d’une information par l’optimisation du sens par rapport au contenu utilisé, autrement dit par une maximisation du qualitatif, c’est-à-dire sa variété, et une minimisation du quantitatif. Ce qui permet alors d’expliquer, dans cette théorie de l’information, qu’une substance, malgré son appétition, peut tendre vers une moindre perfection, c’est qu’elle peut recevoir une certaine quantité d’information qui n’augmente que dans une moindre mesure son contenu qualitatif. Dans ce cas le rapport du qualitatif sur le quantitatif, qui détermine la perfection de la substance, est bien en diminution. De plus, au sein de notre théorie, on peut retrouver le principe de la théorie de la substance qui suppose que lorsque les perceptions d’une monade gagnent en distinction, les perceptions d’autres doivent tendre vers plus de confusion. En effet, lorsqu’une monade gagne en perfection, son contenu augmentant qualitativement, la perception qu’en a une autre monade doit perdre symétriquement en qualité car elle rend de moins en moins bien compte de la variété croissante de la première monade. Donc, lors du transfert mutuel d’information qui s’effectue perpétuellement entre deux monades, l’une des deux doit bien agir et l’autre pâtir, aux sens métaphoriques définis dans la théorie leibnizienne de la substance.

On peut remarquer qu’un pur transfert d’information n’est pas vulnérable aux critiques que peut connaître un modèle mécaniste de communication entre les substances. En effet, l’information présentant la particularité de pouvoir être dupliquée à loisir, il est parfaitement envisageable qu’une information soit transmise d’une monade à une autre sans que la première n’ait à perdre quoique ce soit. Aussi, de la même manière qu’un support matériel peut recevoir de l’information sans être augmenté physiquement, la monade réceptrice peut être considérée comme modifiée par le transfert d’information, mais pas pour autant augmentée substantiellement.
Grâce à la théorie de l’information qui vient d’être construite, nous pouvons proposer une nouvelle description métaphysique de la réalité indépendante, fidèle à l’esprit de Leibniz mais tout de même amendée dans une importante mesure car elle abandonne l’harmonie préétablie. L’univers est un réseaux de monades, celles-ci sont en nombre infini et toutes connectées entre elles. Puisqu’elles ne sont toutes que des points de perceptions et qu’elles communiquent toutes entre elles, toute monade reçoit et transmet perpétuellement de l’information pure à toutes les autres.

Théorie de l’information et formalisme quantique

Voyons maintenant si la théorie de la substance, modifiée sous la forme de la théorie de l’information que nous avons construite, n’entre pas en contradiction avec le formalisme quantique. En conséquence des sections précédentes, nous prendrons pour acquis la nature composée des entités quantiques et l’accord du système leibnizien avec l’abandon de l’espace tridimensionnel que suscite la théorie quantique.
Nous avons déjà remarqué que les entités considérées en physique quantique peuvent davantage être considérées comme des outils épistémiques concernant la réalité empirique que des objets ontologiques peuplant la réalité indépendante. Cela s’accorde non seulement bien avec la phénoménalité qui caractérise tous les agrégats dans le système leibnizien, mais les objets du formalisme quantique montre alors des caractéristiques informationnelles inédites dans le monde des corps. Un corps matériel est une perception confuse de l’infinité des monades qui le peuplent et qui ne possèdent aucun caractère corpusculaire ni matériel. A ce titre une particule constitue un bon intermédiaire entre le monde des corps et celui des âmes, en se montrant plus corpusculaire qu’une monade mais moins qu’un objet macroscopique. Les champs de la théorie quantique relativiste s’avèrent d’ailleurs encore plus appropriés pour rejoindre l’idée d’une pure information car, quelques soient les notions corpusculaires que l’on maintient dans la théorie, ils décrivent des probabilités d’observation concernant diverses variables et ces données semblent plus fondamentales que ces notions. Le fait même que le nombre et la nature des particules d’un système ne sont que des informations contenues dans des champs rejoint l’idée leibnizienne d’une information plus fondamentale que la matière.

Nous avons vu que d’Espagnat suggère que la théorie quantique des champs pourrait signifier que le monde n’est pas atomisable mais qu’il est fondamentalement un. Il n’entend pas seulement cela concernant l’atomisme philosophique, il étend cette négation à toute théorie qui supposerait une multitude d’entités composant le réel et qu’il appelle « multitudinisme ». Notons cependant que d’Espagnat envisage ce type de théorie avec une idée trop proche d’un atomisme classique et qu’il ne traite pas un atomisme de type informationnel comme celui de Leibniz. Il refuse la réalité aux particules de la même manière que nous leur avons refusé la substantialité, parce qu’elles sont expliquées par les entités plus fondamentales que sont les champs quantiques. Mais les substances de Leibniz sont des points d’informations et sont aussi nécessaires à la réalité que les unités à toute quantité. Il est nécessaire de prendre toute la mesure de la quantité qui apparaît dans toute formulation de la physique quantique : si la réalité est quantifiable dans une certaine mesure, c’est qu’elle doit être multiple. Ce qui nous refuse alors une connaissance de fait concernant la réalité indépendante, c’est que nous ne pouvons quantifier l’infinité qu’elle contient ; au contraire la finitude qui nous est accessible est celle de notre perception particulière, et c’est donc elle qui définie la réalité empirique. C’est pourquoi toute entité dégagée empiriquement ne pourra jamais prétendre à un statut ontologique.

Les champs quantiques, bien qu’encore plus éloignés du régime des corps, constituent pourtant eux aussi des agrégats mais des agrégats de points d’information, cela ne leur suppose donc aucune corporéité. En considérant sa remarquable efficacité prédictive et descriptive concernant de très petites portions de la réalité, la théorie quantique des champs constitue, selon la définition que nous en avons donnée dans le cadre de notre théorie de l’information, une perception particulièrement distincte. Cela peut également se constater dans la structure mathématique du formalisme quantique, celle-ci permet de couvrir une étendue inédite de phénomène grâce à un nombre assez limité d’outils, quoiqu’ils soient chacun d’une grande complexité. Il faudrait cependant qu’une théorie fixe une infinité de variables à l’infinité des points du réel si elle souhaitait atteindre une perception parfaitement distincte et décrire la réalité indépendante.

3.4. Le monde macroscopique

3.4.1. La phénoménalité du macroscopique

Le statut du corps matériel

La décohérence est le principe de la physique quantique qui est couramment utilisé pour expliquer que nous observions des corps macroscopiques bien déterminés et localisés malgré le fait qu’ils soient composés d’entités quantiques ne présentant pas ces caractéristiques. Elle connaît sur ce point un bien plus large consensus que sur celui de savoir si elle résout le problème de la mesure. Exceptés les plus fervents partisans des théories à variables cachées, l’ensemble de la communauté des physiciens s’accorde en général pour considérer la mécanique quantique comme la description de la réalité à la fois la plus précise et la plus fondamentale fournie par la science. La décohérence permet alors, selon ce point de vu, d’expliquer les apparences corpusculaires que revêt le monde macroscopique. Notamment elle montre comment un système d’un très grand nombre de particules enchevêtrées, comme un corps de la mécanique classique, connaît des états de superposition très réduits et peut donc en général être assez bien localisé pour nous donner l’illusion de l’être parfaitement. Comprise ainsi de manière très conventionnelle, les relations de la physique quantique avec le monde macroscopique montre une forte analogie avec l’idée leibnizienne de la phénoménalité des corps matériels.
Comme nous l’avons vu, le problème de la mesure n’en est pas pour autant rigoureusement résolu. Si on s’en tient à la décohérence seule, quoique les états de superposition tendent à disparaître pour les grands systèmes, ils ne disparaissent pas vraiment et un corps matériel n’est donc jamais correctement localisé au sens strict. Une solution conventionnelle fait intervenir le principe de réduction du paquet d’ondes pour expliquer qu’un système macroscopique se détermine en une position bien précise. Nous avons déjà vu les limites et les problèmes de ces deux options pour ne pas nous en contenter. La considération des réalités indépendantes et empiriques peut cependant nous aider éclaircir ce point. Si nous limitons le champ d’application du concept d’espace à la stricte réalité empirique, rechercher une localisation précise pour un corps dans la réalité indépendante perd alors tout son sens. Il est vrai que, par sa formulation même, le problème de la mesure ne se pose que dans la réalité empirique. Si on se limite à celle-ci, considérer qu’un corps a l’apparence d’une localisation est équivalent à affirmer qu’il en a une précise. Nous pouvons aussi bien nous contenter de l’absence apparente de superposition quantique que nous suggère la décohérence, que faire intervenir la conscience de l’observateur pour réduire le paquet d’ondes en une localisation précise. Dans les deux cas la présence localisée d’un corps macroscopique reste purement phénoménale.

En termes leibniziens les corps matériels sont phénoménaux car ils doivent leur réalité à celui qui les observe. C’est dans les perceptions particulières d’une monade que des perceptions confuses correspondant à des corps matériels peuvent être trouvées ; autrement dit ceux-ci n’appartiennent là encore qu’à la réalité empirique. La décohérence explique alors la confusion qui tend à s’emparer de toute perception d’un grand nombre d’entités quantiques. Cela rejoint parfaitement le principe leibnizien qui veut que toute perception générale ne soit que la réunion confuse de nombreuses perceptions plus distinctes enveloppées. L’exemple que prend Leibniz couramment est celui du son de la mer qui réunit confusément les bruits de toutes vagues et de toutes gouttes d’eau qu’elle contient. Nous pouvons alors proposer un autre exemple fondé sur la décohérence : la perception d’un corps matériel réunit confusément les perceptions particulières et plus distinctes de toutes les particules qui le composent. Le principe de réduction du paquet d’ondes ne pose pas davantage de problème car, si l’infini est ontologiquement partout concernant la réalité indépendante, ce doit être la finitude de l’observateur qui, déterminant la réalité empirique, fixe des données finies concernant les systèmes physiques. Mais cette finitude, qui seule autorise, comme nous l’avons vu, une quantification humaine, n’appartient qu’à la réalité empirique telle qu’elle est créée par notre particularité. Une hypothétique vision parfaitement distincte de la réalité, parce que sans borne, ne pourrait, au cours d’une tentative toute aussi hypothétique de description de la réalité indépendante, obtenir que des quantités infinies.

Joindre le système de Leibniz avec les conclusions de la physique quantique permet donc de construire une phénoménalité des corps matériels qui s’articule autour de la dualité entre réalité indépendante et réalité empirique et où les processus de mesure ne posent alors plus problème.

Force, énergie et mouvement

La dynamique leibnizienne, comme la physique classique, n’admet pas uniquement des corps matériels pour décrire le monde macroscopique, Leibniz y ajoute la force et l’électrodynamique l’énergie. Ces deux notions sont sensiblement similaires, si ce n’est que Leibniz ne connaissait pas l’énergie moléculaire. Si on corrige ce point, son principe de conservation de la force est identique à celui de conservation de l’énergie. L’abandon de la conservation du mouvement pour l’adoption de celle de l’énergie justifie amplement le passage d’une mécanique de type cartésienne à la dynamique leibnizienne.

Dans la théorie de la substance de Leibniz, ces forces qui parcourent les corps n’ont guère plus de réalité que la matière. Si on peut estimer que la force qui habite toute matière donne des indices concernant la spontanéité dont cette dernière doit fondamentalement faire preuve, rigoureusement il n’y a pas transfert de la moindre énergie entre les substances. Il s’agit là encore d’une perception confuse du commerce purement informationnel qu’elles connaissent réellement.

La similitude avec la physique quantique est alors beaucoup plus limitée car celle-ci remet bien moins explicitement en question la réalité de l’énergie. Cependant, nous pouvons remarquer que l’énergie électrodynamique est associée aux bosons que sont les photons, ce qui permet d’expliquer le comportement des champs magnétiques macroscopiques par des transferts de bosons à l’échelle quantique. Mais comme tous les bosons, les photons sont des particules comme les autres et leur réalité est rendue tout aussi ambiguë que les particules associées aux phénomènes corpusculaires qui sont les quarks et les leptons. Les champs quantiques peuvent de nouveau être vus comme bien plus fondamentaux que toute particule, et appuyer par là même la phénoménalité de l’énergie.

Le mouvement que connaissent les entités macroscopiques, en étant une conséquence directe de transferts d’énergie, peut être dit tout aussi phénoménal. Qui plus est, là où une mécanique cartésienne/newtonienne substantifie l’espace et donne donc également un statut ontologique au mouvement, nous avons vu que le système leibnizien s’accorde avec l’abandon d’un paradigme spatial que suggère la physique quantique pour la réalité indépendante. La théorie quantique et la théorie de la substance tendent tout deux à faire du temps et de l’espace des apparences concernant seulement le monde macroscopique. Cela signifie que le mouvement, qui ne peut s’inscrire que dans un cadre spatiotemporel, ne peut concerner que la réalité empirique.

3.4.2. Dynamique et mécanique quantique

L’efficacité de la physique classique

Si le système de Leibniz relègue les corps matériels et leur commerce au rang de phénomènes, il leur attribue tout de même une efficacité indéniable. La description métaphysique et ontologique du monde ne peut se faire en terme mécaniste, ni ses objets ni son fonctionnement ne correspondent à rien de physique. Mais, pour ce qui est de la compréhension des objets qui nous entourent et que nous percevons à notre échelle, la mécanique est le moyen le plus efficace de compréhension des évènements. Et cette compréhension a un sens pratique de sorte que l’on peut légitimement penser que Leibniz devait déjà avoir à l’esprit une dualité du type réalisme et positivisme. Bien qu’à la différence de nombreux physiciens de notre temps il laisse les questions ontologiques à la métaphysique, c’est bien la physique et l’empirisme qui seuls peuvent assurer la bonne marche de la science dans une optique positiviste. Autrement dit, le réalisme est métaphysique et concerne la réalité indépendante, tandis que le positivisme traite des phénomènes et porte sur la réalité empirique. Le cloisonnement qui sépare ces deux types de réalité et qui nous voile le réel fondamental, explique que le positivisme arrive toujours plus facilement à ses fins que le réalisme.

Si Leibniz reprend donc une mécanique de type cartésienne, il la modifie pour en faire une dynamique. Nous avons déjà remarqué les erreurs que présente le modèle leibnizien par rapport à son concurrent newtonien, mais aussi qu’elles ne remettent pas fondamentalement en cause ses grands principes. Ainsi Leibniz a-t-il vu juste en distinguant la force du mouvement. Cela permet de mettre en accord, peut-être pas les lois qu’il énonça précisément, mais les principes de la dynamique de Leibniz avec ceux de la physique classique arrivée à maturité. Celle-ci traite comme des phénomènes hétérogènes les objets de type corpusculaire et les entités de type ondulatoire. Ces deux genres de phénomènes correspondent assez bien, moyennant quelques ajustements qu’il n’y a pas lieu de traité ici, à la distinction que fait Leibniz entre les corps et la force qu’ils se communiquent. Le fonctionnement des corps et celui des ondes font chacun l’objet d’une théorie physique différente, et cette séparation fait également preuve d’une grande efficacité, bien que la physique quantique réunisse phénomènes corpusculaires et phénomènes ondulatoires dans un formalisme qui décrit par les mêmes principes le comportement de toutes les entités microscopiques. Dés le commencement de l’expérience quantique et la création de ses premiers outils, les pères fondateurs entreprirent avec succès de refonder les lois de la physique classique sur la base de ces nouveaux acquis (c’est à cette occasion que la théorie quantique reçut la dénomination de 'mécanique''). Cependant, encore aujourd'hui, ce sont les équations de Newton, concernant la mécanique, et celles de Maxwell, pour l'électrodynamique, que l'on utilise encore pour prédire le comportement des entités macroscopiques correspondantes. On peut donc remarquer que l'efficacité qu'accorde Leibniz à une physique classique est similaire à celle que la science moderne lui conserve également. Lorsque Leibniz suggéra que la réalité fondamentale ne devait pas obéir au type de fonctionnements que la physique décrit, la réforme qu'il proposa n'alla pas jusqu'à la remise en cause totale de celle-ci. De la même manière les déconcertantes découvertes de la naissante physique quantique ne pouvait pas rendre caduque l'efficacité prédictive des théories physiques classiques. Dans les deux cas, seule les conclusions ontologiques qui pouvaient être traditionnellement tirées de ces théories furent mises en échec. Un fonctionnement hétérogène à l'échelle microscopique L'autre point sur lequel s'accordent le système leibnizien et la physique quantique est directement lié à l'efficacité strictement phénoménale dont fait preuve la physique classique. Il s'agit du fait qu'à une échelle inférieure au macroscopique, des règles très différentes de la mécanique et de l'électrodynamique doivent être construites pour expliquer le fonctionnement de la réalité. Pourtant, ce sont par des voies radicalement différentes que la théorie de la substance et la théorie quantique en viennent à la nécessité d'un tel fonctionnement hétérogène pour rendre compte des détails de la matière. C'est par des considérations métaphysiques que nous avons précédemment traitées que Leibniz en vient à la conclusion que les substances simples qui constituent la réalité fondamentale ne peuvent obéir à des principes physiques. La logique doit faire déduire l'indivisibilité et l'inétendue de ces substances et aucun commerce ne peut alors être pensé entre eux dans un paradigme mécaniste. Le cogito nous fournit la seule véritable expérience d'une substance ontologiquement constituée et il faut dés lors imaginer toute substance à son image. De plus, une âme a le mérite de connaître changement et multiplicité sans être étendue ni divisible. La théorie de la communication entre les substances que Leibniz construit alors est radicalement différente d'une mécanique ou d'une physique mais permet tout de même de rendre compte des apparences corpusculaires que nous connaissons. Le cheminement de la physique quantique est radicalement différent car il est essentiellement empirique. Les schèmes de pensée corpusculaires qui imprégnait l'essentiel de la communauté des physiciens trouvèrent leurs limites lors de la construction même du formalisme quantique. Des grilles de lecture issues de la physique classique furent d'emblée appliquées aux phénomènes microscopiques qui se présentèrent aux scientifiques, mais leur échec ne fit que mettre mieux en évidence l'originalité qui caractérise cette nouvelle classe de phénomènes. Si de nombreux physiciens font encore preuve d'une certaine réticence en tentant, notamment par des théories à variables supplémentaires, de maintenir des notions classiques pour décrire les entités quantiques, le point de vu orthodoxe tire comme conclusion des particularités de la théorie quantique que les principes de la physique classique doivent être remplacés par des notions originales et propres à la microphysique, pour garantir sa cohérence interne. Le système de Leibniz et la physique quantique s'accordent donc bien pour limiter le champ d'application des concepts de la physique classique au monde macroscopique. Ils n'aboutissent pourtant pas à cette conclusion de la même manière. Leibniz déduit cela de la logique et de l'expérience métaphysique de notre conscience, tandis que la physique quantique la déduit bien malgré elle de l'analyse de ses objets expérimentaux. L'analogie entre leurs conclusions s'arrête pourtant là car si la théorie de la substance éjecte toutes les notions physiques pour les placer tout entières dans le phénoménal, la théorie quantique revendique encore le statut de physique car elle maintient toujours un certain dualisme de type cartésien. En effet le but de la physique quantique demeure, en général et même chez les physiciens d'obédience positiviste, l'étude d'une réalité différente de notre expérience psychique interne. L'abandon du concept de corps matériel doit modifier le dualisme cartésien esprit/matière en esprit/quelque chose, mais le principe de base reste maintenu, il s'agit d'étudier une réalité extérieure. Les difficultés que présente le problème de la mesure aux physiciens témoignent d'ailleurs bien de leur désire d'exclure tout référence spirituelle de la science. De plus, rappelons que si Leibniz recherche directement les existences fondamentales en tentant de dépasser notre expérience particulière par la considération des vérités nécessaires, la physique quantique poursuit une entreprise empirique dont on peut penser qu'elle ne peut logiquement pas atteindre ces existences. Pourtant, comme il sied à la rigueur leibnizienne, nous pouvons juger que les découvertes empiriques de la théorie quantique tendent à valider l'abandon des notions de physique classique qu'opère la théorie leibnizienne de la substance ; alors qu'elles contredisent le type de généralisation ontologique qu'en fait Descartes. 3.4.3. Le passage au macroscopique Le monde quantique comme intermédiaire Les substances composées tirant leur réalité de celui qui les observe, il peut être admis qu'une telle substance soit définie comme un corps à une échelle, composée d'agrégats non corpusculaires à une autre et en dernière analyse être constituée d'une infinité de substances simples. A ce titre il est envisageable de considérer la physique quantique comme portant, non pas sur le monde des corps ni sur celui des âmes, mais sur un niveau intermédiaire de réalité. La réalité indépendante correspond au niveau de réalité des substances simples ; et les objets du monde quantique, parce qu'ils sont malgré tout des agrégats, appartiennent à la réalité empirique au même titre que les corps macroscopiques. On peut cependant considérer que la réalité empirique à l'échelle quantique nous donne davantage d'indices structurels concernant la réalité fondamentale que le monde des corps macroscopiques. Parmi ces indices on trouve l'abandon du concept de corps matériel. Si celui-ci peut encore être utilisé pour le monde quantique avec un très lourd coût épistémologique, il ne revêt plus la même évidence qu'en ce qui concerne l'expérience quotidienne à l'échelle humaine. Introduire des entités plus fondamentales est une concession inévitable que doit faire toute reformulation de la théorie quantique maintenant des particules matérielles bien constituées. Quelque soit la manière dont on puisse tourner le formalisme quantique, il semble que celui-ci suggère inévitablement qu'à une éventuelle échelle inférieure le concept de corps matériel devrait être rendu complètement caduque. Il s'agit alors d'une conséquence qui rejoint bien ce qu'une théorie de la substance comme celle de Leibniz peut établir concernant la réalité indépendante, à savoir l'absence de données corpusculaires et matérielles en ce qui la concerne. L'espace tridimensionnel classique du monde des corps doit également être abandonné pour le monde quantique, au profit d'un espace abstrait multidimensionnel. Cela peut être vu comme un indice de l'abandon radical du paradigme spatial que l'on peut envisager pour la réalité indépendante. Nous avons vu que d'Espagnat tient cela pour une conclusion, certes spéculative mais fort convaincante, que l'on peut directement tirer du formalisme quantique. C'est également, comme nous avons tenté de le dégager, une conséquence logique de la théorie leibnizienne de la substance. Même un espace multidimensionnel ne peut être admis concernant la réalité indépendante car l'espace de Hilbert, qui sert de cadre à la description d'un système microscopique, possède un nombre de dimensions égal à celui des observables que l'on choisit de considérer. Ainsi l'espace de Hilbert ne peut satisfaire à une objectivité forte. Parce que les particules de la physique quantique ne peuvent être considérées comme fondamentales et que ce sont certaines d'entres elles qui correspondent aux phénomènes électromagnétiques, la physique quantique semble également nous indiquer l'abandon d'un paradigme énergétique pour la réalité indépendante. De même le mouvement ne semble porter que sur la réalité empirique car, en ce qui concerne le monde quantique, il est en général impossible de trouver une véritable trajectoire pour une particule. Aussi, l'abandon de l'espace signifie inévitablement celui du mouvement, et cela peut être vu comme un bon indice de l'échec total de tout modèle mécaniste en ce qui concerne les substances simples. En constituant une perception plus distincte et donc plus parfaite, la théorie quantique peut être considérée comme plus proche du réel que la physique classique ou le sens commun. En toute rigueur elle ne nous fournit pourtant pas de connaissances sur la réalité indépendante, et cela rejoint la vision que d'Espagnat a du formalisme quantique comme une description appropriée de la réalité empirique. De même, certains des principes de la physique quantique, comme le maintien de certaines notions corpusculaires, d'une conception encore trop mécaniste de l'action et d'un paradigme géométrique, restent inappropriés pour décrire les substances simples et relèvent donc d'une certaine confusion et imperfection. D'une manière analogue à la hiérarchie des êtres de Leibniz, on peut échelonner les différentes perceptions dont est capable une monade selon leurs degrés de distinction. Une perception infiniment distincte correspond à une connaissance parfaite des substances individuelles et de leur contenu, et elle est uniquement accessible à un être infiniment parfait. Le niveau de distinction apporté par la physique quantique est alors situé entre cette perception infiniment parfaite et le niveau usuel de confusion qui est celui de l'existence humaine en général et de sa conception physicaliste classique. Il demeure que la perfection dont est susceptible le point de vu de la physique quantique reste infiniment éloigné de la perception la plus distincte qui soit. A partir de cette échelonnement, nous pouvons donc imaginer une infinité de points de vu intermédiaires plus distincts que la théorie quantique. On peut supposer autant d'hétérogénéité entre ces points de vu, que nous en avons constater entre la microphysique et le sens commun. Autrement dit il est tout a fait envisageable que la science, en explorant plus profondément encore les détails de la réalité, construise des théories très différentes de la physique quantique, encore plus éloignées de notre expérience du macroscopique et fournissant davantage d'indices sur la réalité indépendante. Physique et métaphysique Traiter ainsi la physique quantique comme portant sur un niveau de réalité intermédiaire entre le monde des corps et celui des âmes nous amène à poser la question des rapports de la métaphysique et de la physique. Leibniz attribue leurs rôles de manière assez simple et schématique, la considération des simples revient à la métaphysique tandis que celle des composés est laissée à une physique pure. Cependant, dans l'échelonnement des perceptions que nous venons de proposer, une connaissance de la réalité indépendante, et donc des substances simples qui la peuplent, a été considérée comme accessible uniquement à un esprit infiniment parfait. Se pose alors la question du statut de la théorie de la substance de Leibniz comme celui de la théorie de l'information que nous avons proposée. La différence qui sépare la connaissance métaphysique que Leibniz nous juge accessible et une perception infiniment distincte de la réalité indépendante est celle qui existe entre une théorie qui définie les propriétés générales des monades et de leur interaction et une parfaite connaissance du contenu de toutes ces monades. On retrouve donc ici la distinction qui sépare les vérités nécessaires des vérités de fait. Et cette différence est véritablement qualitative car les premières se fondent expressément sur le principe de contradiction tandis que les secondes demande le principe de raison suffisante. Les connaissances qui correspondent à une théorie de la substance sont du type de celles accessibles en logique et en mathématiques ; elles sont dérivées, non pas des perceptions irrémédiablement confuses que nous avons des autres substances, mais de la connaissance de nous même, en cela que nous sommes une âme et qu'il est par conséquent possible de dériver les propriétés de la monade de cette connaissance. Au contraire, pour atteindre une parfaite connaissance de fait de toutes les substances, il faudrait être un sujet qui n'est que des perceptions distinctes de toute chose, ce que nous ne sommes pas. En d'autres termes, la théorie de la substance n'est pas à une position précise de cette échelle des perceptions, comme toutes les vérités logiques et mathématiques, les propriétés de l'âme sont dérivées de la structure nos perceptions, aussi confuses soient-elles. Bien que Leibniz ne juge les vérités nécessaires accessibles qu'aux seules monades ayant le niveau de distinction humain, comme nous le montre les Méditations métaphysiques de Descartes, même d'une perception complètement illusoire et erronée de la réalité, je peux déduire la vérité éternelle qu'est l'unité de mon âme. Et Leibniz estime toutes les propriétés de l'âme déductibles de cette manière. Une théorie de la substance mérite alors bien le terme de métaphysique car, excepté la mienne, ce n'est pas sur les existences qu'elle porte mais, comme toutes les vérités nécessaires, sur les possibles. Au contraire les sciences physiques, à l'instar de la physique quantique, recherchent des vérités de fait et portent donc sur les existences. A ce compte la physique doit composer avec les perceptions, empruntes inévitablement d'un certain degré de confusion, que nous pouvons avoir des autres substances. C'est sur ce point que peut s'observer une progression, suscitée par l'appétition dont fait preuve toute monade, vers une perception plus distincte, suivant la hiérarchie précédemment définie. La physique quantique constitue alors une connaissance de fait qui possède un certain degré de distinction à une certaine échelle, mais, en dernière instance, porte de manière infiniment confuse sur les substances simples. Accessoirement cela nous amène à nuancer une antinomie classique et particulièrement répandue parmi les scientifiques, celle de l'empirique et du métaphysique. Elle semble pourtant justifiée par le fait que la métaphysique, dans le système de Leibniz, en étudiant la structure du possible, s'oppose à une méthode empirique consistant à ne prendre en considération que les seules existences. Cependant un tel raisonnement fait abstraction de l'existence que prend en considération le métaphysicien, à savoir sa propre conscience réflexive. L'expérience psychique personnelle, parce que siège de la subjectivité, est éjectée de la plupart des discours scientifiques ; même une théorie à objectivité faible se doit d'éviter un tel particularisme et rechercher ce qui est commun à toute subjectivité. Mais il s'agit tout de même d'une expérience réelle et, comme Descartes l'a montré, il s'agit de la plus irréfutable de toute. Notre propos n'est pas de rendre accessible aux assertions métaphysiques le type de preuves empiriques dont est capable la physique ; parce que ne portant pas sur des existences extérieures, cette possibilité leur est fermée. De plus, la physique ne pourra jamais atteindre empiriquement l'objet du métaphysicien, à savoir la substance simple. Il s'agit plutôt de montrer que la métaphysique ne porte pas sur de la pure virtualité et qu'elle ne doit pas être éjectée a priori de toute entreprise de compréhension rationnelle du monde. Seule notre expérience psychique personnelle peut nous faire connaître la perception et l'appétition, qui sont des notions essentielles pour le système de Leibniz mais également pour de nombreuses sciences empiriques comme la biologie ou la psychologie. Finalement, bien qu'employant des modes différents et que l'imperfection intrinsèque de toute créature le masque souvent, c'est bien toujours la même réalité qui est étudiée. Comme la métaphysique traite de ce que pense Dieu, c'est-à-dire les possibles, et la physique de son choix, autrement dit les existences, si chacun se borne à la place qui est la sienne, une fructueuse complémentarité peut être envisagée. La physique ne pouvant pas atteindre le degré de distinction nécessaire pour se prononcer sur les existences fondamentales, c'est à la métaphysique de définir ce qu'il est possible à leur propos. Aussi, puisque statuant sur les seuls possibles, la métaphysique n'est pas en mesure de déterminer lesquels existent parmi ceux-là (excepté bien ma propre existence que je peux affirmer avec certitude), cela incombe à la physique, quoiqu'elle ne puisse déterminer les existences que dans le strict cadre de la réalité empirique. Une fois les rôles attribués, la physique est alors en mesure de suppléer à la métaphysique en lui fournissant d'éventuels contre-exemples, tandis que cette dernière est susceptible de fixer un cadre axiomatique à la physique comme le font en général la logique et les mathématiques. A partir de là nous pouvons constater que la physique quantique, pas plus que la physique classique, ne fournit de données qui entrent en contradiction avec le système leibnizien. Pourtant, certains systèmes concurrents, comme les plus matérialistes ou ceux qui substantifient l'espace, peuvent voir comme un contre-exemple la théorie quantique. D'un autre côté on peut remarquer que c'est lorsque ses partis pris ontologiques ne dépassent pas ce que fixe un système métaphysique comme celui de Leibniz, que la physique quantique se montre la plus efficace. A ce sujet on peut prendre pour exemples les modèles à variables supplémentaires, qui peinent à décrire le monde quantique en maintenant des notions déjà expulsées par la théorie de la substance. 3.5. Conclusion Au terme de la présente mise à l'épreuve, le système leibnizien a su montrer son adaptabilité. En effet, de tous les éléments de la problématique quantique, nous n'en avons pas trouvé qui mette réellement la métaphysique de Leibniz en difficulté. De nombreuses précisions ont cependant été nécessaires et nous espérons avoir été assez clair sur ces points. Les apports de la physique quantique n'auront pourtant pas été exempts d'enseignement car ils nous ont obligés à analyser avec une rigueur renouvelée la théorie leibnizienne de la substance. Des thèmes, peu présents dans le système leibnizien pour des raisons contingentes, comme la réalité de l'espace-temps ou la possibilité d'agrégats non-corpusculaires, auront pu être traités plus à fond grâce aux questionnements suscités par les particularités de la théorie quantique. A cette occasion, pour satisfaire aux exigences d'une communauté scientifique très différente de celle des savants du dix-septième siècle, nous avons pu modifier la théorie de la substance en une théorie de l'information qui ne présente pas plus de caractéristiques assimilées à la mécanique et qui se dispense un maximum des axiomes théologiques de Leibniz. Au cours de notre étude nous avons pu tracer une démarcation encore plus précise entre le monde des corps et celui des âmes. Et c'est cette délimitation, parce qu'elle rejoint celle séparant la métaphysique de la physique, qui sauvegarde les conclusions ontologiques de Leibniz de n'importe quelle découverte empirique. En limitant la métaphysique aux stricts possibles et en construisant sa théorie de la substance sur une méthode métaphysique et logique rigoureuse, Leibniz s'assure qu'il ne déborde pas sur la considération des existences et donc sur le champ d'étude de la physique. Si son système contient une dynamique qui est une description du monde des corps et des règles qui le régissent, excepté quelques considérations structurelles définissant un cadre de possibles, cette dynamique n'est pas déduite de la métaphysique mais d'observations empiriques. Leibniz attribue à deux voies et à deux méthodes distinctes l'observable et l'inobservable. Sont seulement observables les entités physiques et strictement inobservables les âmes, et il n'y a pas de risque que les corps virent dans l'inobservables, puisqu'ils sont exclusivement phénoménaux, ou que les âmes deviennent directement des objets sensibles. La physique, si elle prend soin de respecter elle aussi un tel cloisonnement, peut s'assurer une efficacité exceptionnelle et éviter des paradoxes et des difficultés comme celles que l'on peut attribuer à la mécanique quantique. En effet, comme toute les sciences naturelles, la physique quantique ne présente presque plus d'aspects problématiques lorsqu'elle se borne à une optique positiviste où on ne se soucie que de prévisions expérimentales. Toutes les questions soulevées par la révolution quantique peuvent alors être attribuées à l'idée de la science, d'inspiration réaliste, qui pouvait imprégner le monde scientifique à ce moment là. Seule la croyance dans le grand livre de l'univers que la science pourrait décoder a été remise en question par la physique quantique, pas l'efficacité scientifique en générale. Ce qui s'est réellement retrouvé en échec dans l'histoire de la physique moderne, et nous nous approchons significativement des conclusions de Bitbol à ce sujet là, c'est le type de généralisations ontologiques que s'était autorisée avant cela la physique à partir de la nature de ses objets épistémiques. C'est bien parce que Leibniz avait déjà remis ces généralisations en cause que son système ne souffre guère des découvertes sur ce point là que l'on peut attribuer à la physique quantique. Pour peu que l'on n'admette qu'un système métaphysique comme celui de Leibniz pour parler rigoureusement de la réalité indépendante, l'abandon d'un paradigme corpusculaire, mécaniste et spatiotemporel ne pose pas le moindre problème puisqu'il ne concernait que la réalité empirique. Mais cela ne dénigre pourtant pas la nouveauté de la théorie quantique car même Leibniz ne pouvait soupçonner que, par des voies empiriques, la science pourrait en venir à abandonner un tel paradigme même au sujet de la réalité empirique. Nous pouvions nous en douter avant, et c'est ce qui a d'ailleurs motivé notre entreprise, la confrontation entre le système de Leibniz et la physique quantique n'a pas abouti à l'abandon de l'un pour l'autre. Au contraire les deux en ressortent grandis, et nous avons donc pu à cette occasion affiner notre compréhension du réel. Nous pouvons en effet nous estimer mieux armés pour analyser le contenu de la physique quantique concernant la réalité empirique, ainsi que celui d'autres domaines scientifiques. De même, le cadre de la connaissance structurelle et métaphysique, qui nous est accessible concernant la réalité indépendante et que fixe déjà le système leibnizien, a pu être davantage perfectionnée. Postface Maintenant que nous avons réuni un exposé détaillé du système leibnizien et de la problématique quantique, ainsi qu'une confrontation construite des deux, nous estimons avoir confirmer l'utilité de notre étude. Nous avons déjà affirmé l'intérêt que nous portons pour l'oeuvre de Leibniz dés le début et son étude approfondie comme le succès de sa mise à l'épreuve nous conforte grandement dans cette idée. Bien compris, le système leibnizien est d'une exceptionnelle intemporalité, il offre une description métaphysique du monde qui, pour peu que l'on dépasse son langage comme les contraintes du logos humain en général, reste difficilement réfutable. Il n'est pas non plus question de le prouver car, comme toute connaissance métaphysique rigoureuse, elle est fondée sur la seule expérience de notre âme et celle-ci ne peut faire l'objet que d'une vérification empirique personnelle. La seule réserve que nous ne pouvons nous empêcher de faire, puisqu'elle s'applique à toute entreprise systémique sans exception, c'est que toute la métaphysique leibnizienne se fonde sur une foi évidente dans l'efficacité de la méthode logique et sur la certitude rationnelle qu'elle permet. Comme seule celle-ci permet d'apporter la preuve de quoique ce soit, il est hors de question de prouver que les principes logiques de Leibniz, ou n'importe quels autres, s'applique effectivement à la réalité fondamentale. Sur ce point, il nous est juste donné de constater la remarquable efficacité dont fait preuve cette rationalité pour expliquer les phénomènes, et encore plus pour les prévoir. A la lumière de ce que nous avons apporté, il est très intéressant de voir comment s'articule le système de Leibniz par rapport à certaines antinomies classiques en philosophie et en science. La métaphysique leibnizienne n'admet que des âmes comme constituantes fondamentales de la réalité et, à ce titre, on peut considérer le système leibnizien comme un idéalisme assez proche de celui de Berkeley. Mais la dualité entre choses en soi et phénomènes est non seulement présente chez Leibniz mais elle y est essentielle. Seule cette antinomie permet d'expliquer l'hétérogénéité qui sépare les conclusions métaphysiques de Leibniz au sujet des substances simples de notre expérience coutumière des composés. Le système leibnizien présente donc certaines caractéristiques de l'idéalisme, mais aussi des traits typiques du réalisme ; et cela correspond bien à l'habitude leibnizienne de systématiquement synthétiser toute opposition. Cela est rendu possible par le fait que Leibniz fait de la spiritualité une chose en soi et même la seule chose en soi, les corps matériels comme toute chose physique étant alors à ranger dans les phénomènes. A ce propos on peut donc légitiment penser que Kant doit beaucoup à Leibniz lorsqu'il place la considération de la chose en soi dans celle du sujet moral. Il est possible de remarquer que certaines parties du système de Leibniz, bien que traitées dans son exposé, n'auront guère étés utilisés dans le reste de notre étude. On est alors en droit de se demander si leur maintient était bien nécessaire. A ce sujet, rappelons l'interdépendance dont font preuves les différentes parties de l'oeuvre de Leibniz et le fait que l'omission de l'une d'elle pourrait nuire à la cohérence de tout le système. D'un autre côté nous n'avons utilisé, pour notre mise à l'épreuve finale, que les éléments du système qui s'y prêtés, c'est-à-dire ceux dont l'objet est assez proche de celui de la physique quantique pour qu'une comparaison soit possible. De plus, maintenir les éléments du système leibnizien qui n'ont pas servi dans sa confrontation avec la physique moderne permet au lecteur le plus exigent de vérifier que nous n'avons omis aucune des parties qui s'y prêtaient dans cette mis à l'épreuve. L'autre thème de notre étude, la physique quantique, peut également tirer de grands bénéfices de l'analyse que nous en avons fournie car nous espérons avoir mis en évidence ce que d'Espagnat affirme, à savoir que toute entreprise rationnelle de compréhension du réel ne peut rigoureusement pas ignorer les apports de la théorie quantique sur ce sujet. Puisque, dans une optique leibnizienne, nous cherchons plus a dégager ce qui est vrai dans toute théorie que ce qui est faux, nous ne nous sommes pas attarder sur les théories philosophiques qui sont mises grandement en difficulté par la physique quantique. Il est pourtant assez évident, si l'on prend en compte les limitations au sujet des propriétés des deux types de réalité que l'on peut considérées comme résultant de la théorie quantique, que nombre de systèmes métaphysiques moins prudent que celui de Leibniz doivent être mis en échec par la mécanique quantique. Nous n'avons fait que l'évoquer, mais cela est très significatif pour ce qui est de la substantialité de l'espace ou au sujet des théories les plus matérialistes. Il a été retenu ici un système métaphysique dont nous nous doutions a priori qu'il puisse survivre efficacement à une confrontation avec la théorie quantique, ce choix étant motivé par l'objectif de fournir une conclusion un maximum positive et affirmative. Réfuter toute théorie métaphysique erronée est une entreprise qui ne peut que rester inachevée alors que montrer l'échec de certaines n'est de toute façon pas très constructif. Nous devons avouer, et un lecteur attentif l'aura sûrement déjà remarqué, en lame de fond de la présente étude, c'est la sauvegarde et la légitimité du discours métaphysique en général qui nous préoccupe tout particulièrement. A cet égard le système leibnizien constitue un exemple d'une construction métaphysique qui garde sa pertinence et montre son utilité même face à des découvertes scientifiques très originales et qui lui sont postérieures de plusieurs siècles. Un telle légitimation a été, selon nous, rendue nécessaire par les bouleversements philosophiques qu'a connues la pensée rationnelle occidentale et qui ont eu tendance à discréditer toute entreprise à visée métaphysique. On peut estimer que cet objectif a été atteint dans une certaine mesure grâce aux points essentiels sur lesquels le système leibnizien rejoint la théorie quantique. Nous avons en effet pu constater que plusieurs conclusions de la physique quantique peuvent être vues comme de bons indices de ce que Leibniz avait pu déduire métaphysiquement à propos de la réalité indépendante. Le système leibnizien ne portant pas exclusivement sur les existences fondamentales, mais aussi sur les composés, nous ne pouvons considérer la présente conciliation de ce système avec la physique quantique comme lui attribuant une totale validité. Pour être exhaustif sur cette question il faudrait entreprendre d'autres mises à l'épreuve fondées sur d'autres domaines scientifiques dont les conclusions présentent quelques analogies avec le système leibnizien. Bien que nous laissions cela à des études ultérieures, nous pouvons d'ores et déjà évoquer la biologie, et notamment le caractère très informationnel de la génétique, et l'informatique, qui peut nous donner une définition de l'intelligence assez proche de celle de Leibniz. Bibliographie Leibniz, Discours de métaphysique et autres textes, Flammarion. Leibniz, Système nouveau de la nature et de la communication des substances, Flammarion. Leibniz, La monadologie, annotée par Emile Boutroux, Delagrave. B. d'Espagnat, Le réel voilé, Fayard. E. Klein, La physique quantique, Flammarion. I. Desit-Ricard, Une petite histoire de la physique, Ellipses. Et divers documents électroniques obtenus sur Internet : F. Laloë, Connaissons-nous vraiment la mécanique quantique ? H. Zwirn, Mécanique quantique et connaissance du réel. M. Bitbol, En quoi consiste laRévolution Quantique’ ? Paru dans : Revue Internationale de Systémique, 11, 215-239, 1997.

M. Bitbol, Le corps matériel et l’objet de la physique quantique. In : F. Monnoyeur (ed.), Qu’est-ce que la matière ? Le livre de poche.

 - - - - - - - - - - - - - - - - - - - - - - -

LA PHYSIQUE QUANTIQUE

Jusqu’à la fin du XIXème siècle, le monde physique était expliqué par l’électro- magnétisme de Maxwell et la mécanique newtonienne. Il y avait une réalité physique objective que l’on pouvait étudier sans que l’observation du physicien perturbe cette réalité. Tout objet pouvait être localisé dans l’espace à tout moment, et répondait soit à l’analyse de la trajectoire d’un corpuscule, selon sa masse et sa vitesse (lois de Newton), soit à l’analyse du déplacement d’une onde (lois de Maxwell).

La physique classique est fondée sur les principes :

o de continuité (passage d’un point à un autre par les points intermédiaires)
o de causalité locale (enchaînement de cause et d’effet) et de séparabilité (plus on éloigne deux objets, moins ils ont d’interaction)
o de déterminisme et prévisibilité (prédiction de l’évolution d’un système à n’importe quel moment du temps)
o et d’objectivité (séparation totale entre l’observateur et l’objet).

Après Laplace et Newton, la physique classique connaît son âge d’or à la fin du XIXème siècle. La physique classique est suffisante pour expliquer les phénomènes de la vie quotidienne car la vitesse quotidienne est infime par rapport à celle de la lumière. Après avoir décrit la nature quantique de la lumière, Einstein pose les principes de la relativité. La théorie de la relativité marque l’apogée de la physique classique.

LA RELATIVITÉ RESTREINTE

Pour des petites vitesses, celles de notre monde quotidien, les lois de Newton sont valides, même si elles reposent sur des approximations. Pour les vitesses proches de celle de la lumière, la relativité entre en jeu.

Pour des vitesses constantes, donc sans accélération, la relativité restreinte (1905) stipule que les lois de la physique doivent être les mêmes pour tous les observateurs, quelle que soit leur vitesses. Tout observateur peut trouver précisément le temps et la position que tout autre observateur assignera à l’événement, pourvu qu’il connaisse sa vitesse relative. Ainsi est définit le couple espace temps alors que la mécanique classique newtonienne s’inscrivait dans un espace à trois dimensions régit par un temps absolu qui se déroule indépendamment des phénomènes extérieurs (la fuite du temps). L’espace et le temps sont inséparables.

Deux événements simultanés dans un système de référence, ne le sont plus dans un autre système de référence. Le principe de relativité implique l’absence d’observateur privilégié. La description des phénomènes ne doit pas dépendre des différents observateurs. Chacun d’entre eux doit trouver la même loi physique. Chacun peut trouver les coordonnées référentielles des autres observateurs.

L’espace n’est pas tridimensionnel et il n’y a pas de temps absolu, chaque individu a sa propre mesure du temps qui dépend du lieu et de la manière dont il se déplace. Chaque objet en mouvement a sa propre horloge. Si des observateurs observent un phénomène tout en se déplaçant à des vitesses différentes, ils vont décrire différemment dans le temps les séquences événementielles et ce qui pour l’un survient dans son futur, apparaît pour l’autre dans son passé. Pour des vitesses proches de celles de la lumière, les séquences temporelles sont différentes selon les observateurs. Non seulement il n’y a pas de temps absolu, mais il n’y a pas non plus de séparation objective entre le passé et le futur. Le temps est déployé de telle sorte que passé et futur sont figurés à la fois (Olivier Costa de Beauregard). Ceci semble bien sûr impensable pour notre conscience ordinaire qui fait quotidiennement l’expérience d’une flèche du temps, l’inexorable écoulement d’un passé vers le présent puis le futur.

De plus, le temps s’écoule plus lentement si la vitesse se rapproche de celle de la lumière (c’est la dilatation du temps). La vitesse augmente la durée de vie (dans des accélérateurs, une particule à durée de vie très courte voit sa durée de vie augmenter à de très grandes vitesses proches de celle de la lumière). Les horloges mobiles retardent par rapport aux horloges fixes

Enfin, la formule E = mc² pose l’équivalence de la masse et de l’énergie. La masse est une forme de l’énergie.

LA RELATIVITÉ GÉNÉRALE

La relativité générale est une théorie de la gravitation selon les résultats de la relativité restreinte, et implique la courbure de l’espace-temps. Elle s’applique aux objets près de fortes concentrations de masse. On vit dans un système de référence défini par quatre coordonnées : les trois coordonnées spatiales du lieu, et le temps. La relativité générale introduit la matière-espace-temps, la matière se déplaçant dans un espace temps de courbure variable. La relativité générale a donné naissance à la théorie du big bang.

LES PRINCIPES FONDAMENTAUX DE LA PHYSIQUE QUANTIQUE

L’étude du domaine microscopique va bouleverser les concepts de la physique classique. Les lois de Newton, applicables aux objets de grande taille, ne s’appliquent pas dans le domaine subatomique. Lorsqu’on se penche sur l’infiniment petit, il n’y a pas de monde physique objectif qui évolue de façon indépendante de nous. Le hasard remplace le principe de causalité. On ne peut connaître en même temps la position et la vitesse d’un objet quantique. Ce dernier peut être une chose et son contraire. Développée vers 1920-1930, la physique quantique est une théorie probabiliste qui heurte le sens commun. De plus, les phénomènes quantiques ne peuvent être représentés visuellement. Mais la théorie est toujours vérifiée par l’expérimentation qui vient la valider. La physique quantique ne donne pas une vision de la « réalité en soi » mais décrit des phénomènes avec exactitude.

Ainsi, au cours du XXème siècle, la science va réintroduire le mystère dans le monde, rendant obsolète la croyance matérialiste et scientiste pure.

1/ Les quanta : la notion de discontinuité

En 1900, Max Planck avance l’idée des quanta. Contrairement à ce que soutient la physique classique pour laquelle les échanges d’énergies se font régulièrement et graduellement, dans le monde subatomique, il y a une discontinuité des échanges d’énergie entre matière et rayonnement. Ces échanges s’effectuent par paquets d’énergie, par quanta. Cette discontinuité se retrouve au cœur de l’atome puisque, comme l’a avancé Bohr en 1913, les électrons occupent des orbites spécifiques et passent de l’une à l’autre sans aucune orbite intermédiaire.

Les particules subatomiques ne sont pas des grains de matière solide mais des quanta, des paquets d’énergie en perpétuelle transformation. La matière nous apparaît comme stable et solide alors qu’en fait les particules forment des systèmes dynamiques qui subissent perpétuellement des transformations ou transmutations avec des phénomènes de création et d’annihilation, et ce flux dynamique est créateur d’énergie. La matière est en fait constituée d’espace vide traversé par quelques particules.

2/ La dualité onde - corpuscule : la double appartenance des particules quantiques

En 1923, Louis de Broglie associe une onde à tout corpuscule. Jusqu’alors, selon une logique apparente, une entité sub-atomique devrait être soit un corpuscule, soit une onde. En fait, pour la physique quantique, une particule est à la fois corpuscule et onde, mais elle n’est ni corpuscule ni onde. Selon la manière dont nous l’observons, elle apparaît soit comme particule, soit comme une onde. Comme Einstein l’avait montré en 1905 pour la lumière, la matière est aussi une coexistence d’ondes et de particules. L’apparence de la matière dépend de nous, elle nous apparaît tantôt comme des ondes, tantôt comme des particules. Cette apparence dépend de la façon dont nous observons la matière. Les ondes électromagnétiques peuvent se comporter comme des corpuscules. A tout corpuscule est associé une onde. La matière s’est dématérialisée, s’est « déchosifié » selon l’expression de Bernard d’Espagnat.

En physique classique : A est A (axiome d’identité), A n’est pas non A (axiome de non contradiction), et il n’existe pas de troisième terme qui soit à la fois A et non A (axiome du tiers exclu).

En physique quantique : A est A et non A (axiome du tiers inclus), mais par ailleurs, A n’est ni A ni non A.

L’état T (T comme tiers inclus) est un troisième terme qui peut se manifester à la fois sous l’apparence de A et de non A, mais qui n’est ni A ni non A (Lupasco). Une particule est à la fois onde et corpuscule, mais elle n’est ni corpuscule ni onde. L’état T implique l’intégration du contradictoire (l’intégration de l’ombre).

3/ Le principe d’incertitude, ou d’indétermination

Un objet quantique est défini par une probabilité de présence. La connaissance de la réalité est impossible car la connaissance d’un paramètre exclut nécessairement la connaissance d’un autre paramètre. Le réel est connaissable seulement dans certaines de ses structures. Il y a des limites à la connaissance du réel, le réel est voilé. Le dévoilement du réel (le rêve du matérialisme) est impossible. Le réel en soi existe, indépendamment de l’homme, mais la science ne peut en fournir une connaissance complète. On ne peut connaître simultanément, et avec la même précision, la position et la vitesse d’une particule (principe d’incertitude d’Heisenberg énoncé en 1927). On ne peut que prédire une probabilité d’existence. Toute mesure modifie la grandeur mesurée. L’observation n’est pas neutre, contrairement à ce qui ce passe dans le monde macroscopique. On ne peut prédire le moment où un atome va se désintégrer. Le hasard règne sur le monde microscopique. Le monde quantique n’est pas représentable visuellement. L’électron ne tourne pas autour du noyau et on ne peut se représenter une trajectoire pour les particules. La physique quantique attribue à une particule une probabilité de présence en un endroit donné et à un temps voulu. Il est impossible de fournir un modèle de la réalité qui représenterait les événements eux-mêmes et non leur probabilité de présence. Cependant, cette représentation prédit correctement les micro phénomènes. La physique quantique décrit l’interaction de l’observateur avec le monde mais le réel n’est pas accessible.

4/ La complémentarité particule - antiparticule

A tout événement correspond un anti événement. A toute particule correspond une antiparticule. Une antiparticule a la même masse, le même spin que sa particule correspondante, mais elle a une charge électrique opposée. Tout contact d’une particule avec son double, de la matière avec l’antimatière se traduit par une annihilation, une disparition des deux, une dématérialisation, avec une libération d’énergie (transformation de la masse en énergie et émission d’un rayonnement de photons gamma, analogue à la lumière).

5/ Le principe de non séparabilité

La physique classique étudie des objets séparés et indépendants. Elle suppose l’existence d’objets extérieurs que l’on peut étudier indépendamment. Dans le monde microscopique, à l’encontre du principe de causalité locale et de séparabilité, il existe des connexions non locales et inexplicables entre des éléments qui se révèlent tous interdépendants même s’ils sont séparés par de grandes distances : il y a violation du principe de séparabilité et on ne peut parler séparément de chacune des particules. Ces connexions, ces variables cachées non locales, sont situées hors de notre espace-temps, dans un autre niveau de réalité, mais elles ont une influence dans notre monde.

Bernard d’Espagnat fait la distinction entre le réel voilé qui ne sera jamais accessible par la science, (même si on peut en avoir une certaine idée et en faire l’expérience car il existe un lien entre ce réel voilé et notre monde d’existence) et la réalité empirique, le monde des apparences que décrit et analyse la science.

L’univers est une totalité inter reliée dans les moindres de ses éléments, et cette totalité s’oppose à la description du monde en entités séparés et indépendantes. Ainsi la célèbre expérience d’Alain Aspect en 1982 (confirmée par celle de Nicolas Gisin en 1997 sur une distance de dix kilomètres entre les deux particules, et non plus 12 mètres) a montré que deux particules qui sont entrés en interaction à un moment donné gardent chacune des informations sur l’autre même si elles se trouvent éloignées l’une de l’autre par des très grandes distances. Contrairement à ce que pensait Einstein, il n’y a pas de variables cachées locales (c’est ce que démontrait déjà des expériences précédentes sur la violation des inégalités de Bell).

Il n’y a pas de moi isolé indépendant, tout est interdépendant. Observer, c’est perturber. Le battement des ailles d’un papillon peut perturber climat à l’autre bout de la planète. Pourtant le moi se prend pour le centre du monde. Il pense en particulier que son concept de temps est le même pour tous les observateurs. Mais il n’y a pas de temps universel commun à tous les observateurs. L’espace est différent pour tous les observateurs, le temps également, mais l’espace-temps est le même pour tous.

LES PARTICULES ÉLÉMENTAIRES : BOSONS ET FERMIONS

Un atome est essentiellement constitué de vide. L’essentiel de la matière est concentré dans le noyau : neutron et proton, qui se subdivisent en quarks. En fait, il n’y a pas de véritable brique fondamentale, les particules quantiques ne sont pas des entités stables, permanentes et isolées. Toute particule peut se transformer et revêtir toute forme dans un véritable théâtre d’apparence sous l’œil de l’observateur. C’est grâce aux accélérateurs de particules que l’on a pu déchiffrer la structure de la matière, mais l’exploration de plus en plus approfondie de celle-ci nécessite des installations de plus en plus gigantesques et coûteuses, qui vont rapidement atteindre leur limite.

Les particules appartiennent au groupe des bosons ou des fermions. Les bosons sont des particules d’interaction. Les fermions sont des particules de matière.

1/ Les bosons

Les bosons sont collectivistes, grégaires, de spin entier ou nul. Ils peuvent se rassembler dans le même état. Il existe quatre grandes familles :

 le photon (répond à la force électromagnétique) est responsable des interactions électromagnétiques.

 les bosons intermédiaires W+, W-, et Z pour la force faible.

 les gluons colorés pour la force forte (cohésion du noyau).

 l’hypothétique graviton pour la gravité.

2/ Les fermions

Les fermions n’occupent jamais le même nombre quantique. Ils sont individualistes, de spin demi entier et répondent au principe d’exclusion de Pauli qui implique la formation de couple d’électrons à spin opposé (deux fermions ne peuvent occuper le même état quantique au même moment). Les fermions cherchent à se différencier.

On distingue :

 les baryons (neutron et proton) sont en fait constitués de quarks qui s’assemblent par trois (une paire quark/ anti-quark compose un méson) mais ne sont jamais observables seuls (on ne peut connaître l’état élémentaire de la matière, peut-être même existe-t-il autre chose derrière les quarks). Ils répondent à l’interaction forte, faible et à l’électromagnétisme. Les six types de quarks ont été découverts de 1964 à 1995.

 les leptons chargés (électron, méson mu et méson tau) ou neutres (3 types de neutrinos). Les leptons sont observables seuls (électron, neutrino). L’électron participe à la force faible et à l’électromagnétisme. Les neutrinos ne participent qu’à la force faible (ils sont neutres).

La matière est constituée de :

6 quarks (u,d) (c,s) (t,b)

6 leptons : électron neutrino électronique

muon neutrino muonique

tauon neutrino tauique

La matière ordinaire est en fait de nature quaternaire, constituée de la première des trois familles de quarks (quark up et quark down), de l’électron et du neutrino électronique (bien que ce dernier interagisse peu avec la matière, mais joue un rôle important dans la radioactivité bêta qui permet la transformation réciproque des neutrons en protons, processus qui a permis la synthèse des éléments et de noyaux plus lourds à partir d’hydrogène). Les deux autres familles sont cependant indispensables pour que notre monde puisse exister. Il faudra attendre les nouvelles générations d’accélérateurs, vers 2007, pour percer davantage les mystères de la matière.

Selon la théorie de la relativité, toutes ces particules ont une vitesse inférieure ou égale à celle de la lumière.

LES QUATRE FORCES DE L’UNIVERS

Au sein de l’univers, il existe quatre types de forces ou d’interactions fondamentales : la gravitation et l’électromagnétisme sont connus depuis le XIXème siècle , la force nucléaire forte et la force nucléaire faible ont été découvertes au XXème siècle. Ces quatre forces ont les mêmes caractéristiques et les mêmes propriétés depuis la naissance de l’univers.

La force électromagnétisme agit de l’atome à l’étoile (force magnétique). Elle joue un rôle important dans les processus biologiques. Elle concerne les électrons et les quarks. Les photons peuvent apparaître ou disparaître, changer d’énergie et de longueur d’onde. Un même photon peut passer d’une couleur visible à une couleur invisible par un changement d’énergie. La lumière visible n’est qu’un aspect particulier et partiel de l’électromagnétisme qui regroupe les forces électriques, magnétiques, phénomènes lumineux, lumière visible, onde radio, rayons X et gamma. L’œil ne reconnaît qu’une petite partie du spectre de la lumière. L’électromagnétisme est émis par paquet d’énergie (selon la théorie des quantas). La lumière est une onde de champs magnétique et électrique oscillants qui se propage depuis les confins de l’espace jusqu’aux molécules. L’électromagnétisme gouverne le mouvement des électrons et joue un rôle important dans la stabilité des molécules. La vie est essentiellement un ensemble particulier de phénomènes qui se déroulent à l’échelle macromoléculaire, où agissent la force électromagnétisme et la force faible (même si celle-ci est moins importante d’un facteur 10.000). L’électromagnétisme lie les électrons aux atomes et gouverne les processus chimiques. C’est un pont entre l’infiniment grand et l’infiniment petit.

La force nucléaire faible permet des changements de particules par rupture de l’unité des noyaux. Elle gouverne la radioactivité bêta c’est-à-dire la désintégration spontanée de certains noyaux avec transformation du noyau de l’atome (et donc modification du nombre de protons et de neutrons) et émission d’un électron. Elle concerne les électrons, les neutrinos et les quarks. Elle intervient dans l’interaction entre un courant leptonique et un courant nucléaire, dans des processus de destruction et de transformation, la transformation du neutron en proton (le neutron se transforme en proton + électron + antineutrino), change les électrons en neutrinos et vice versa (le proton se transforme en neutron + positron + neutrino), transforme les quarks up en quark down.

La gravitation ne joue quasiment aucun rôle dans le monde microscopique. Elle règne dans l’infiniment grand (organisation des galaxies). Cette force agirait par échange de gravitons dans un champ gravitationnel (mais le graviton n’a jamais été observé et visualisé).

La force nucléaire forte assure stabilité et cohésion des noyaux d’atome. Elle relie les quarks pour former les neutrons et les protons.

L’UNIFICATION DES QUATRE FORCES FONDAMENTALES

Une théorie unifiant la force électromagnétique et de la force nucléaire faible a été élaborée dans les années 1960-1970. Cette théorie décrit la force électromagnétique et la force nucléaire faible comme les deux composantes de la force dite électrofaible, de la même manière que les phénomènes lumineux, électriques et magnétiques furent réunis dans l’électromagnétisme par Maxwell en 1864.

Les travaux de physiciens visent maintenant à unifier la force électrofaible avec l’interaction forte (c’est la théorie de la grande unification). Le boson de Higgs (non encore découvert) est supposé être le soubassement de cette théorie.

La supersymétrie tente d’unifier les particules d’interaction et de matière, bosons et fermions. Physique quantique et relativité générale sont deux théories qui, prises séparément, marchent très bien et sont validées par l’expérimentation sans jamais être prises en défaut. Mais le mariage entre ces deux théories n’est pas réalisé. Il n’y a pas de théorie qui unifie physique quantique et relativité générale (une théorie quantique de la gravité). Des pistes sont explorées avec par exemple un système supersymétrique, constitué de cordes, formulé dans un espace temps à dix ou onze dimensions, ou avec le leptoquark gouverné par une seule force permettant à un lepton de se muer en un quark. L’unification des quatre forces fondamentales constitue le défi du XXIème siècle. On retrouve là avec la supersymétrie le thème de la conjonction des opposés.

Au tout début du Big bang, les quatre forces sont unies, il n’y a qu’une seule force. C’est la symétrie parfaite et la non différenciation. Il y a une symétrie matière- antimatière. L’univers est stérile et la température extrêmement élevée. Dans cette grande chaleur initiale, les particules sont indifférenciées, sans masse. Elles sont toutes interchangeables. Cette indifférenciation initiale rend compte de la stérilité d’un univers parfaitement symétrique.

C’est le règne du vide quantique. Le vide est la matrice de la réalité manifestée. Le vide est un, immuable, inconnaissable, c’est le fondement de toute chose, et il exprime une tendance à la différenciation et à la manifestation dans l’ordre explicite. Le vide est l’état d’énergie minimum, l’état non excité de la matière. Il est inobservable mais il existe potentiellement. C’est un espace sans particule réelle et c’est un océan de particules virtuelles. Le vide porte en lui toutes les potentialités. Le vide est l’état latent de la réalité. Il est inépuisable, sans cesse mouvant, plein de la potentialité d’une infinité de particules. Le champ est quantifié quand une particule apparaît. Dans le vide originel, il n’y a pas d’espace-temps, pas de lumière, ni monde macroscopique créé. Il est comme s’il n’était pas.

La supersymétrie (quatre forces unifiées) définit un vide symétrique entre bosons et fermions, à très haute énergie dans un univers très condensé et très chaud, mais riche d’une énergie latente prête à se manifester.

Puis il y a successivement :

 séparation de la gravité : c’est le stade de la Grande unification (trois forces unifiées), définissant un vide symétrique entre quarks et leptons, à plus basse énergie.

 séparation de la force forte et de l’électrofaible (interaction faible et électromagnétisme unifiés). Au moment de la séparation des trois forces, il apparaît un minime surplus de matière par rapport à l’anti-matière. Notre monde existe grâce à cette rupture de la symétrie matière-antimatière. Ce vide à symétrie brisée (séparation de la force forte de la force électrofaible), dans un univers en expansion inflationnaire à plus basse énergie, permet la création des particules. Il y a génération d’une information et d’une complexification à partir du vide sous sa forme indifférencié.

 séparation de la force faible et de la force électromagnétique.

En brisant l’unité de ses forces, l’univers devient plus stable et fertile : c’est la naissance du cosmos. Du vide naît la lumière puis la matière. La matière commence à s’organiser : les quarks se combinent pour former des neutrons et des protons. Ces derniers s’uniront ensuite pour former des noyaux légers. Le refroidissement, la dilatation et l’expansion de l’univers permettent la complexification de l’univers, l’apparition des étoiles, du carbone et de la vie. La brisure de symétrie est un processus de différenciation de l’univers qui s’organise, génère de l’information et une complexification à partir d’un vide indifférencié.

Messages

  • Mes félicitations pour votre article, qui contient une formulation claire des questions que l’on se pose en physique sur les problèmes relatifs à la dualité continuité/discontinuité.
    Un point important à retenir : vous dites qu’"il ne peut y avoir de discontinuité sans continuité". Le mot même "discontinuité" l’indique. Plus précisément encore : une discontinuité est une rupture dans un continu, ou, pour reprendre la définition que Poincaré donne d’une coupure : c’est un espace de dimension n-1 dans un espace de dimension n. Et on n’a pas de "n-1" si l’on n’a pas d’abord "n". Donc, même si l’on privilégie la physique quantique pour décrire le réel, cette même description suppose un fond continu. Privilégier la physique quantique pour décrire une "réalité intrinsèque" ne signifie donc pas forcément que l’on peut se débarasser complètement d’une physique du continu, ne serait-ce que pour qu’une telle description soit possible. Ce que vous appelez la "dualité ontologique du continu et du discontinu" serait ainsi une condition essentielle de la possibilité de décrire le réel.
    Autre point important : vous dites que "tout se passe comme si une particule explorait tous les chemins...", "...comme s’il pouvait y avoir une action à distance immédiate...". Cette "philosophie du comme si" se justifie si l’on tente d’interpréter dans un cadre spatio-temporel ce qui intitialement (au sens logique et non temporel !) n’est pas spatio-temporel. La physique du continu est une physique de l’espace-temps, mais la physique quantique nous apparaît comme permettant la description de phénomènes réellement discontinus dans cet espace-temps. L’apparence d’incomptatibilité serait ainsi une dualité. J’ai essayer d’aborder ce problème dans un article : "Une antinomie de la causalité", qui se trouve sur mon site perso à l’adresse suivante : http://www.dblogos.net/er/txt5.php

  • D’abord merci de nous communiquer l’adresse de votre propre blog qui discute des mêmes questions que Matière et Révolution : le lien entre la dialectique et les connaissance scientifique. Nous invitons d’ailleurs nos lecteurs à s’y rendre et participer à ce débat.

    Je voudrais redire en quelques mots nos raisons de ne pas défendre l’idée d’un lien dialectique de la continuité et de la discontinuité et de considérer la continuité comme une simple apparence dans des situations bien particulières.

    Exactement comme nous considérons, dans le fonctionnement de la nature, la linéarité comme une approximation dans des circonstances très particulières.

    Ou encore comme nous estimons que la réversibilité n’existe que dans des circonstances et dans un examen sous des angles bien circonscrits.

    Selon nous, la nature obéit à une dialectique du discontinu, du non-linéaire et de l’irréversible. C’est de là que découlent l’auto-organisation, les transitions d’un état à un autre, la créativité de la nature capable de produire des structures totalement nouvelles, dont la vie est l’exemple le plus remarquable.

    Donc j’en viens aux quelques raisons qui nous poussent à estimer que la continuité est une illusion d’optique.

    Pour le comprendre, nous avons pris l’exemple du cinéma. C’est l’illusion d’optique la plus utilisée. Elle consiste à faire passer à un rythme bien choisi des images et à laisser notre cerveau faire semblant qu’il a vu un film c’’est-à-dire du mouvement continu.

    Nous sommes là dans la capacité de notre cerveau de compléter les vides, aussi bien visuels que conceptuels ou rationnels : voir nos textes sur l’espèce fabulatrice et les capacités imaginatives du cerveau.

    Le cerveau remplit les vides, disons-nous. Quand il ignore, il suppose. On ne peut pas sans cesse vérifier que le monde n’a pas changé de place. Ce serait une grave maladie psychologique.

    Ce n’est pas le seul à être capable de fonctionner par approximation. Toute la nature interagit avec l’environnement et elle ne peut pas prendre toutes les informations que cet environnement lui envoie. Il lui faudrait à chaque instant un temps et une énergie infinie pour le faire. Donc, elle remplit les vides.

    Nous en venons à la notion de continuité.

    Tout d’abord, nous examinons ce que nous dit la science. Cette dernière fonctionne par des expériences. Celles-ci sont des interventions sur la nature. Les scientifiques ont découvert avec étonnement que l’expérience avait une particularité : être une discontinuité. Quand le photon a été capté, c’est fini, on ne peut plus dire ce qu’il aurait fait si on ne l’avait pas capté ! L’observation a détruit définitivement le cadre que l’on observait. C’est un phénomène non-linéaire, irréversible et... discontinu.

    Ensuite, que savons-nous de la matière qui nous entoure ? Est-elle capable de construire des structures continues. Deux matières peuvent-elles se toucher ? La réponse est non. Si elles s’approchent de trop, il y a désintégration en rayonnement. Donc il est exclus d’observer un matériau continu.

    L’énergie, elle, pourrait elle connaitre cette continuité qui nous fait défaut dans la matière ?
    C’est là que se trouve la réponse de la physique quantique : non ! Et les physiciens étaient bien catastrophés de cette découverte qui ne collait pas du tout avec leurs présupposés....

    Enfin, le temps nous pose également un problème de continuité. Nous ne vivons pas des temps continus et aucune matière ne peut vivre dans le continu de l’écoulement du temps. Nous sommes, comme le cinéma, sujets d’instantanés que nous collons tant bien que mal.

    Une matière qui vivrait des instants en continus exploserait car sa dynamique n’est nullement faite pour une telle stabilité. Elle ne connait que la stabilité structurelle globale fondée sur le changement permanent et rapide. On dit l’"électron". Mais en réalité il disparait et réapparait sans cesse. Ce n’est pas vraiment le même. Il ne peut pas vivre dans le continu.

    Bien entendu, ce n’est qu’un aperçu des raisons de renoncer au continuum.

    Les mathématiciens n’ont pas l’intention d’y renoncer et ils ont bien raison car c’est un outil efficace. Le marteau est un bon outil à condition de ne pas lui demander de décrire le monde...

    • CHER LECTEUR C’EST AVEC PLAISIR QUE J’AI LU TON TEXTE merci de nous communiquer l’adresse de votre propre blog qui discute des mêmes questions que Matière et Révolution : le lien entre la dialectique et les connaissance scientifique. Nous invitons d’ailleurs nos lecteurs à s’y rendre et participer à ce débat.

    • Le marteau est un bon outil à condition de ne pas lui demander de décrire le monde...

    • Poursuivons sur la notion de discontinuité du temps.

      Elle provient d’abord du fait que toutes les interactions imposent un temps seuil en dessous duquel l’interaction est impossible. Ce temps seuil n’est pas universel et dépend de l’interaction et des matières concernées. Cela signifie que la matière ne perçoit que ce que si elle en a le temps. Cela signifie aussi qu’il y a discontinuité de l’observation d’une matière sur une autre matière.

      La physique quantique est la reconnaissance de ce temps d’interaction qui contredit celle d’instantanéité de l’interaction.

      Les inégalités d’heisenberg exprimées en termes de temps signifient que le temps d’interaction doit être supérieur au temps propre de la particule. Elle s’écrit généralement Energie fois temps supérieur ou égal à h ce qui s’exprime également fréquence fois temps plus grand que un soit aussi rapport entre temps et période plus grand que un donc temps supérieur à la période.

      Ce n’est pas une caractéristique propre à l’interaction au niveau quantique. Toute interaction nécessite du temps. La lumière ne se déplace pas à vitesse infinie, l’énergie non plus. il n’existe pas d’interaction instantanée.

      La discotninuité des interaction entraîne une discontinuité des temps mesurés.

      D’autre part, toute action nécessite une relaxation. Quand un neurone vient d’émettre, quand un atome vient d’émettre, quand une particule vient d’émettre, un temps doit s’écouler avant qu’elle puisse recommencer. Il y a donc inévitablement une rupture de perception.

      Bien entendu, certains déclarent alors qu’il s’agit de rupture de ... la continuité. mais il s’agit plutôt d’une rupture et d’une reprise de... l’immobilité. Ou le neurone émet ou il ne fait rien, du moins vis-à-vis de l’extérieur. On est obligés de constater qu’il en va de même de la croissance ou de l’évolution : ou l’immobilité ou la transformation. Des phases de stases et des phase sbrutales de changement.

  • Selon nous, la nature obéit à une dialectique du discontinu, du non-linéaire et de l’irréversible. C’est de là que découlent l’auto-organisation, les transitions d’un état à un autre, la créativité de la nature capable de produire des structures totalement nouvelles, dont la vie est l’exemple le plus remarquabl

    Enfin, le temps nous pose également un problème de continuité. Nous ne vivons pas des temps continus et aucune matière ne peut vivre dans le continu de l’écoulement du temps. Nous sommes, comme le cinéma, sujets d’instantanés que nous collons tant bien que mal.

    Une matière qui vivrait des instants en continus exploserait car sa dynamique n’est nullement faite pour une telle stabilité. Elle ne connait que la stabilité structurelle globale fondée sur le changement permanent et rapide. On dit l’"électron". Mais en réalité il disparait et réapparait sans cesse. Ce n’est pas vraiment le même. Il ne peut pas vivre dans le continu.

    Bien entendu, ce n’est qu’un aperçu des raisons de renoncer au continuum.

    Les mathématiciens n’ont pas l’intention d’y renoncer et ils ont bien raison car c’est un outil efficace.... Le marteau est un bon outil à condition de ne pas lui demander de décrire le monde... Le marteau est un bon outil à condition de ne pas lui demander de décrire le monde.

    • Je vais vous apporter quelques précisions sur l’approche que j’ai essayé de développer dans l’article "une antinomie de la causalité". Vous verrez que, malgré les apparences, nous ne sommes pas vraiment en désaccord sur le problème de la relation entre continuité et discontinuité en physique, alors que nous le sommes probblement sur la dialectique.

      Dans le texte mentionné, je défends l’idée que l’apparence d’opposition entre physique quantique et non quantique relève d’une antinomie, ce qui suggère la nécessité d’une reformulation. La physique quantique décrirait une réalité intrinsèque, et la relativité une réalité phénoménologique, c’est-à-dire le fond perceptif de tout système perceptif (naturel ou artificiel). Le système perceptif lui-même fonctionne sur un mode discontinu, mais (en simplifiant), il ne peut "percevoir" ses propres discontinuités, non simplement pour des raisons techniques (précision des mesures), mais parce que celles-ci constituent pour lui des singularités. La continuité est donc en quelque sorte une "illusion", mais, plus encore qu’une illusion transcendantale (liée à des formes a priori), une illusion phénoménologique, c’est-à-dire caractérisant tout système perceptif, quel qu’il soit. Il y a donc bien, dans la dualité discontinu/continu, physique quantique/physique non quantique, un déséquilibre en faveur du discontinu et de la physique quantique. Pour autant, une physique du continu ne peut être complètement disqualifiée, puisqu’elle reste indispensable à la description des événements, d’une part comme fond perceptif des phénomènes discontinus, d’autre part pour ce qui concerne la description de la réalité à grande échelle.
      Supposons que l’on découvre une nouvelle théorie, par exemple une variante de la théorie des cordes, qui réunisse relativité générale et physique quantique. Son "cahier des charges" serait de rendre compte de ces deux théories, tout en assurant leur compatibilité. Donc même la découverte d’une telle théorie ne devrait pas nous dispenser d’essayer de comprendre pourquoi ces deux théories "marchent" ensemble. Et dire que l’une fonctionne à petite échelle et l’autre à grande échelle n’est pas une excuse valable : une théorie mettant en jeu des différentielles ne peut s’accorder de limite dans la petitesse des entités qu’elle est censée décrire. Le transfert de la signification purement mathématique du concept de différentielle à sa signification physique reste problématique. J’ai été amené à utiliser une notion de "correspondance phénoménologique" pour montrer en quoi il est bien légitime de parler de continuité perceptive à propos du fond phénoménologique d’un système perceptif, continuité perceptive qui n’est pas une continuité intrinsèque.

      Pour ma part, je ne dirais pas qu’il existe une relation entre la dialectique et la connaissance scientifique, puisque (vous le verrez si vous lisez Emergence et représentation, notamment le chapitre 4) je distingue complètement les deux. Nul doute que cela pourrait donner lieu à de vraies polémiques ! Mais cela ne concerne pas directement l’analyse du rapport entre continuité et discontinuité en physique, sauf peut-être sur des questions très secondaires de terminologie.

      Frédéric Fabre

      Une antinomie de la causalité

    • Je vous remercie de votre courrier. Je vais lire attentivement votre article et j’en communique l’adresse à nos lecteurs.

      Je voudrais vous engager également à lire quelques articles sur notre site qui exposent que le lien entre quantique et relativité comme entre matière et énergie est à chercher dans le vide quantique.

      Ce sont les articles de la rubrique sciences / l’atome :

      Qu’est-ce que l’atome ?

      Qu’est-ce que la particule ?

      Qu’est-ce que l’électron ?

      Qu’est-ce que l’antimatière ?

      Qu’est-ce que le vide ?

      Qu’est-ce que le spin d’une particule ou d’un atome ?

      Quelle est la structure de la matière et du vide - ou comment la matière est virtuelle et le virtuel est matière

  • Bonjour,

    Article intéressant.
    je cite : "La géométrisation implique une immédiateté des forces alors qu’un champ se caractérise par des ondes gravitationnelles qui se transmettent à la vitesse de la lumière. En tout cas, particulariser la gravitation en l’assimilant à une déformation de l’espace est un obstacle à l’unification des forces électro-magnétiques et de la gravitation, comme le note Einstein lui-même. Ce qui particularise la gravité et permet d’assimiler le champ gravitationnel à une courbure de l’espace, c’est l’absence de pôles négatif et positif dans la gravitation contrairement aux forces électromagnétiques (de spin 1/2 ou 1)."

    Juste pour dire qu’une célérité subquantique, co >> c , est plus raisonnable que l’hypothèse d’immédiateté. Revoir le modèle http://www.cosmologie-oscar.com/#intricat sur ce point.

  • Bonjour, toujours dans le but d’améliorer ces articles : une erreur
    "h x f (où h = 6,63 x 10-34 Joules par seconde" Pour h c’est des joules-seconde , une énergie multipliée par un temps, l’équivalent d ’un moment cinétique...

  • L’effet Aharonov-Bohm est un phénomène quantique décrit en 1949 par Ehrenberg et Siday et redécouvert en 1959 par David Bohm et Yakir Aharonov. Il décrit le paradoxe suivant :

    Un champ magnétique (le cercle bleu B, ci-contre) peut affecter une région de l’espace (parcouru par les trajectoires en rouge) même si cette région en est protégée, le potentiel vecteur n’ayant par contre pas disparu.

    L’effet Aharonov-Bohm demontre donc que ce sont les potentiels électromagnétiques, et non les champs électriques et magnétiques, qui fondent la mécanique quantique. Le potentiel vecteur magnétique, qui n’existait jusqu’alors que comme entité mathématique utile, pouvait avoir de véritables effets physiques (quantiques).

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.