Accueil > 02 - Livre Deux : SCIENCES > Hasard et nécessité > Qu’est-ce qu’un démon de Laplace ?
Qu’est-ce qu’un démon de Laplace ?
mercredi 20 février 2019, par
« Une intelligence qui, pour un instant donné, connaîtrait toutes les forces dont la nature est animée, et la situation respective des êtres qui la composent, si d’ailleurs elle était assez vaste pour soumettre ces données à l’analyse, embrasserait dans la même formule les mouvements des plus grands corps de l’univers et ceux du plus léger atome : rien ne serait incertain pour elle, et l’avenir comme le passé serait présent à ses yeux. »
« Nous devons envisager l’état présent de l’univers comme l’effet de son état antérieur, et comme la cause de celui qui va suivre. Une intelligence qui, pour un instant donné, connaîtrait toutes les forces dont la nature est animée et la situation respective des êtres qui la composent, si d’ailleurs elle était assez vaste pour soumettre ces données à l’analyse, embrasserait dans la même formule les mouvements des plus grands corps de l’univers et ceux du plus léger atome : rien ne serait incertain pour elle, et l’avenir, comme le passé, serait présent à ses yeux. L’esprit humain offre, dans la perfection qu’il a su donner à l’astronomie, une faible esquisse de cette intelligence. Ses découvertes en mécanique et en géométrie, jointes à celles de la pesanteur universelle, l’ont mis à portée de comprendre dans les mêmes expressions analytiques les états passés et futurs du système du monde. En appliquant la même méthode à quelques autres objets de ses connaissances, il est parvenu à ramener à des lois générales les phénomènes observés, et à prévoir ceux que les circonstances données doivent faire éclore. »
Pierre-Simon Laplace, « Essai philosophique sur les probabilités » (1819)
Qu’est-ce qu’un « démon de Laplace » ?
Un démon de Laplace, ce n’est pas le démon de la religion, mais plus proche du daemon de Socrate ! Ce serait une espèce d’esprit qui saurait les choses à notre place et qui saurait tout. Contrairement à la notion d’esprit supérieur, il s’agirait d’une connaissance complète du monde matériel par lui-même, ce qui suppose une prédétermination matérielle et non spirituelle… L’avenir y est complètement déterminé par le passé. Toute connaissance complète du passé entraîne la connaissance totale du futur.
Laplace a été précédé dans cette voie par Leibnitz et Boscovich.
Gotfried Leibniz :
« Tout se passe mathématiquement ... Si quelqu’un pouvait avoir une idée suffisante de l’intérieur des choses, et qu’il avait en outre suffisamment de mémoire et d’intelligence pour tenir compte de toutes les circonstances et les prendre en compte, il serait un prophète et verrait l’avenir dans le passé, présent comme dans un miroir. »
Le scientifique serbe Roger Joseph Boscovich (1711-1787) :
« Toute question, à l’exception des mouvements libres résultant d’une volonté arbitraire, doit décrire une ligne courbe continue dont la détermination peut être réduite au problème général suivant. Étant donné un nombre de points de la matière, et donné, pour chacun d’eux, le point d’espace qu’il occupe à un instant donné ; également donné la direction et la vitesse du mouvement initial si elles étaient projetées, ou la vitesse tangentielle si elles sont déjà en mouvement ; & étant donné la loi des forces exprimée par une courbe continue, qui contient cette théorie ; il est nécessaire de trouver le chemin de chacun des points, c’est-à-dire la ligne sur laquelle chacun se déplace. [...] Maintenant, bien qu’un problème de ce genre dépasse toutes les puissances de l’intellect humain, tout géomètre peut facilement voir jusqu’ici, que le problème est déterminé, et que de telles courbes seront toutes continues [... ] & un esprit qui avait les pouvoirs nécessaires pour traiter un tel problème de manière appropriée & était assez brillant pour en percevoir les solutions (& un tel esprit pourrait même être fini, à condition que le nombre de points soit fini, & la notion de la courbe représentant la loi des forces étaient données par une représentation finie), un tel esprit pourrait, à partir d’un arc continu décrit dans un intervalle de temps, si petit soit-il, par tous les points de la matière, dériver la loi des forces elles-mêmes ; [...] Maintenant, si la loi des forces était connue, et la position, la vitesse et la direction de tous les points à un moment donné, il serait possible pour un esprit de ce type de prévoir tous les mouvements et états ultérieurs nécessaires , & prévoir tous les phénomènes qui en découlent nécessairement. »
L’idée du déterminisme universel avait aussi été défendue par le baron d’Holbach :
« Dans un tourbillon de poussière qu’élève un vent impétueux ; quel qu’il paraisse à nos yeux, dans la plus affreuse tempête excitée par des vents opposés qui soulèvent les flots, il n’y a pas une seule molécule de poussière ou d’eau qui soit placée au hasard, qui n’ait sa cause suffisante pour occuper le lieu où elle se trouve, et qui n’agisse rigoureusement de la manière dont elle doit agir. Un géomètre qui connaîtrait exactement les différentes forces qui agissent dans les deux cas, et les propriétés des molécules qui sont mues, démontrerait que, d’après les causes données, chaque molécule agit précisément comme elle doit agir, et ne peut agir autrement qu’elle ne fait. » — Paul Henri Thiry d’Holbach, Système de la nature.
Simon de Laplace dans « Essai philosophique sur les probabilités » (1819) :
« Tous les événemens, ceux mêmes qui par leur petitesse, semblent ne pas tenir aux grandes lois de la nature, en sont une suite aussi nécessaire que les révolutions du Soleil. Dans l’ignorance des liens qui les unissent au système entier de l’univers, on les a fait dépendre des causes finales, ou du hasard, suivant qu’ils arrivaient et se succédaient avec régularité, ou sans ordre apparent ; mais ces causes imaginaires ont été successivement reculées avec les bornes de nos connaissances, et disparaissent entièrement devant la saine philosophie, qui ne voit en elles que l’expression de l’ignorance où nous sommes des véritables causes.
Les événemens actuels ont, avec les précédens, une liaison fondée sur le principe évident, qu’une chose ne peut pas commencer d’être, sans une cause qui la produise. Cet axiome, connu sous le nom de principe de la raison suffisante, s’étend aux actions mêmes que l’on juge indifférentes. La volonté la plus libre ne peut sans un motif déterminant, leur donner naissance ; car si toutes les circonstances de deux positions étant exactement semblables, elle agissait dans l’une et s’abstenait d’agir dans l’autre, son choix serait un effet sans cause : elle serait alors, dit Leibnitz, le hasard aveugle des épicuriens. L’opinion contraire est une illusion de l’esprit qui, perdant de vue les raisons fugitives du choix de la volonté dans les choses indifférentes, se persuade qu’elle s’est déterminée d’elle-même et sans motifs.
Nous devons donc envisager l’état présent de l’univers, comme l’effet de son état antérieur, et comme la cause de celui qui va suivre. Une intelligence qui, pour un instant donné, connaîtrait toutes les forces dont la nature est animée, et la situation respective des êtres qui la composent, si d’ailleurs elle était assez vaste pour soumettre ces données à l’analyse, embrasserait dans la même formule les mouvemens des plus grands corps de l’univers et ceux du plus léger atome : rien ne serait incertain pour elle, et l’avenir comme le passé, serait présent à ses yeux. L’esprit humain offre, dans la perfection qu’il a su donner à l’Astronomie, une faible esquisse de cette intelligence. Ses découvertes en Mécanique et en Géométrie, jointes à celle de la pesanteur universelle, l’ont mis à portée de comprendre dans les mêmes expressions analytiques, les états passés et futurs du système du monde. En appliquant la même méthode à quelques autres objets de ses connaissances, il est parvenu à ramener à des lois générales les phénomènes observés, et à prévoir ceux que des circonstances données doivent faire éclore. Tous ces efforts dans la recherche de la vérité, tendent à le rapprocher sans cesse de l’intelligence que nous venons de concevoir, mais dont il restera toujours infiniment éloigné. Cette tendance, propre à l’espèce humaine, est ce qui la rend supérieure aux animaux ; et ses progrès en ce genre, distinguent les nations et les siècles, et font leur véritable gloire.
Rappelons-nous qu’autrefois, et à une époque qui n’est pas encore bien reculée, une pluie ou une sécheresse extrême, une comète traînant après elle une queue fort étendue, les éclipses, les aurores boréales et généralement tous les phénomènes extraordinaires étaient regardés comme autant de signes de la colère céleste. On invoquait le ciel pour détourner leur funeste influence. On ne le priait point de suspendre le cours des planètes et du Soleil : l’observation eût bientôt fait sentir l’inutilité de ces prières. Mais comme ces phénomènes arrivant et disparaissant à de longs intervalles, semblaient contrarier l’ordre de la nature, on supposait que le ciel irrité par les crimes de la terre, les faisait naître pour annoncer ses vengeances. Ainsi la longue queue de la comète de 1456 répandit la terreur dans l’Europe, déjà consternée par les succès rapides des Turcs qui venaient de renverser le Bas-Empire. Cet astre, après quatre de ses révolutions, a excité parmi nous un intérêt bien différent. La connaissance des lois du système du monde, acquise dans cet intervalle, avait dissipé les craintes enfantées par l’ignorance des vrais rapports de l’homme avec l’univers ; et Halley ayant reconnu l’identité de cette comète, avec celles des années 1531, 1607 et 1682, annonça son retour prochain pour la fin de 1758 ou le commencement de 1759. Le monde savant attendit avec impatience, ce retour qui devait confirmer l’une des plus grandes découvertes que l’on eût faites dans les sciences, et accomplir la prédiction de Sénèque, lorsqu’il a dit, en parlant de la révolution de ces astres qui descendent d’une énorme distance : « Le jour viendra que par une étude suivie, de plusieurs siècles, les choses actuellement cachées paraîtront avec évidence ; et la postérité s’étonnera que des vérités si claires nous aient échappé. » Clairaut entreprit alors de soumettre à l’analyse les perturbations que la comète avait éprouvées par l’action des deux plus grosses planètes, Jupiter et Saturne ; après d’immenses calculs, il fixa son prochain passage au périhélie, vers le commencement d’avril 1759, ce que l’observation ne tarda pas à vérifier. La régularité que l’Astronomie nous montre dans le mouvement des comètes, a lieu sans aucun doute, dans tous les phénomènes. La courbe décrite par une simple molécule d’air ou de vapeurs, est réglée d’une manière aussi certaine, que les orbites planétaires : il n’y a de differences entre elles, que celle qu’y met notre ignorance.
La probabilité est relative en partie à cette ignorance, en partie à nos connaissances. Nous savons que sur trois ou un plus grand nombre d’évènemens, un seul doit arriver ; mais rien ne porte à croire que l’un d’eux arrivera plutôt que les autres. Dans cet état d’indécision, il nous est impossible de prononcer avec certitude sur leur arrivée. Il est cependant probable qu’un de ces évènemens pris à volonté, n’arrivera pas, parce que nous voyons plusieurs cas également possibles qui excluent son existence, tandis qu’un seul la favorise.
La théorie des hasards consiste à réduire tous les évènemens du même genre, à un certain nombre de cas également possibles, c’est-à-dire tels que nous soyons également indécis sur leur existence, et à déterminer le nombre de cas favorables à l’évènement dont on cherche la probabilité. Le rapport de ce nombre à celui de tous les cas possibles, est la mesure de cette probabilité qui n’est ainsi qu’une fraction dont le numérateur est le nombre des cas favorables, et dont le dénominateur est le nombre de tous les cas possibles.
La notion précédente de la probabilité suppose qu’en faisant croître dans le même rapport, le nombre des cas favorables, et celui de tous les cas possibles, la probabilité reste la même. Pour s’en convaincre, que l’on considère deux urnes A et B, dont la première contienne quatre boules blanches et deux noires, et dont la seconde ne renferme que deux boules blanches et une noire. On peut imaginer les deux boules noires de la première urne, attachées à un fil qui se rompt au moment où l’on saisit l’une d’elles pour l’extraire, et les quatre boules blanches formant deux systèmes semblables. Toutes les chances qui feront saisir l’une des boules du système noir, amèneront une boule noire. Si l’on conçoit maintenant que les fils qui unissent les boules, ne se rompent point, il est clair que le nombre des chances possibles ne changera pas, non plus que celui des chances favorables à l’extraction des boules noires ; seulement, on tirera de l’urne deux boules à la fois ; la probabilité d’extraire une boule noire de l’urne sera donc la même qu’auparavant. Mais alors on a évidemment le cas de l’urne B, avec la seule différence, que les trois boules de cette dernière urne soient remplacées par trois systèmes de deux boules invariablement unies.
Quand tous les cas sont favorables à un évènement, sa probabilité se change en certitude, et son expression devient égale à l’unité. Sous ce rapport, la certitude et la probabilité sont comparables, quoiqu’il y ait une différence essentielle entre les deux états de l’esprit, lorsqu’une vérité lui est rigoureusement démontrée, ou lorsqu’il aperçoit encore une petite source d’erreur.
Dans les choses qui ne sont que vraisemblables, la différence des données que chaque homme a sur elles, est une des causes principales de la diversité des opinions que l’on voit régner sur les mêmes objets. Supposons, par exemple, que l’on ait trois urnes A, B, C, dont une ne contienne que des boules noires, tandis que les deux autres ne renferment que des boules blanches, on doit tirer une boule de l’urne C, et l’on demande la probabilité que cette boule sera noire. Si l’on ignore quelle est celle des trois urnes qui ne renferme que des boules noires, en sorte que l’on n’ait aucune raison de croire qu’elle est plutôt C que B ou A ; ces trois hypothèses paraîtront également possibles, et comme une boule noire ne peut être extraite que dans la première hypothèse, la probabilité de l’extraire est égale à un tiers. Si l’on sait que l’urne A ne contient que des boules blanches, l’indécision ne porte plus alors que sur les urnes B et C, et la probabilité que la boule extraite de l’urne C sera noire est un demi. Enfin, cette probabilité se change en certitude, si l’on est assuré que les urnes A et B ne contiennent que des boules blanches.
C’est ainsi que le même fait, récité devant une nombreuse assemblée, obtient divers degrés de croyance, suivant l’étendue des connaissances des auditeurs. Si l’homme qui le rapporte en est intimement persuadé, et si, par son état et par son caractère, il inspire une grande confiance ; son récit, quelque extraordinaire qu’il soit, aura, pour les auditeurs dépourvus de lumières, le même degré de vraisemblance qu’un fait ordinaire rapporté par le même homme, et ils lui ajouteront une foi entière. Cependant si quelqu’un d’eux sait que le même fait est rejeté par d’autres hommes également respectables, il sera dans le doute, et le fait sera jugé faux par les auditeurs éclairés qui le trouveront contraire, soit à des faits bien avérés, soit aux lois immuables de la nature.
C’est à l’influence de l’opinion de ceux que la multitude juge les plus instruits, et à qui elle a coutume de donner sa confiance sur les plus importans objets de la vie, qu’est due la propagation de ces erreurs qui, dans les temps d’ignorance, ont couvert la face du monde. La Magie et l’Astrologie nous en offrent deux grands exemples. Ces erreurs inculquées dès l’enfance, adoptées sans examen, et n’ayant pour base que la croyance universelle, se sont maintenues pendant très long-temps, jusqu’à ce qu’enfin le progrès des sciences les ait détruites dans l’esprit des hommes éclairés, dont ensuite l’opinion les a fait disparaître chez le peuple même, par le pouvoir de l’imitation et de l’habitude, qui les avait si généralement répandues. Ce pouvoir, le plus puissant ressort du monde moral, établit et conserve dans toute une nation des idées entièrement contraires à celles qu’il maintient ailleurs avec le même empire. Quelle indulgence ne devons-nous donc pas avoir pour les opinions différentes des nôtres, puisque cette différence ne dépend souvent que des points de vue divers où les circonstances nous ont placés ! Éclairons ceux que nous ne jugeons pas suffisamment instruits ; mais auparavant, examinons sévèrement nos propres opinions, et pesons avec impartialité leurs probabilités respectives.
La différence des opinions dépend encore de la manière dont on détermine l’influence des données qui sont connues. La théorie des probabilités tient à des considérations si délicates, qu’il n’est pas surprenant qu’avec les mêmes données, deux personnes trouvent des résultats différens, surtout dans les questions très compliquées. Expliquons ici les principes généraux de cette Théorie. »
Fin de citation de Laplace.
Il importe de remarquer que le démon de Laplace n’est pas la seule conception possible du déterminisme, même si c’est la plus radicale et la plus connue. On notera, à l’extrême opposé à la conception de Laplace, le déterminisme chaotique. En somme, ce n’est pas « ou Laplace ou l’indéterminisme » !
On notera également que, si la physique quantique détruit la conception de Laplace, elle ne démolit pas nécessairement tout déterminisme. Des conceptions de la physique quantique comme celles de Planck, d’Einstein ou de Broglie, pour ne citer que ceux-là, sont déterministes. Pour certains physiciens quantiques, les inégalités d’Heisenberg détruisent complètement le déterminisme mais d’autres physiciens affirment seulement que c’est le mécanicisme qui est détruit, à savoir la conception des particules comme des objets en mouvement mécanique au lieu de structures dynamiques, sans cesse changeantes, en interaction avec le vide quantique. Les particules ne sont ni des corpuscules ni des ondes et ne peuvent pas être liées à un déterminisme des corpuscules ni à un déterminisme des ondes. Par contre, l’équation de Schrödinger est déterministe et elle concerne les quantons (complexe d’onde et de corpuscule).
De même, le passage du macroscopique au microscopique au sein de l’expérience, problème central de la physique quantique qui est contrainte de passer par des appareils et des observateurs macroscopiques pour étudier des phénomènes quantiques alors que les deux mondes ne suivent pas le même type de lois, a été parfois interprété dans un sens subjectiviste, l’intervention de l’observateur étant censée produire le résultat obtenu, mais cela n’est pas la seule interprétation. Dès que l’on raisonne sur des quantons, on peut interpréter des expériences comme celle des fentes de Young sans prétendre que c’est l’action de l’observateur qui dicte les résultats. La décohérence, qui explique ce passage entre deux niveaux de structure de la réalité, n’est pas indéterministe ni subjectiviste ! En fait, la physique quantique rend inutile l’affirmation de Laplace, au sens où cette affirmation suppose une connaissance parfaite d’un état initial, connaissance que la physique quantique affirme comme impossible. Elle en déduit une possibilité de prédire le passé comme le futur, mais, une fois admis que l’on ne connaît pas complètement un état à un instant donné, cette conclusion n’a plus de nécessité… Les inégalités d’Heisenberg empêchent toute connaissance absolue d’un paramètre, toute connaissance qui ne soit pas qu’une approximation. Du coup, la prédictibilité de tout phénomène quantique ne peut qu’être une certaine probabilité et non une certitude. Cela ne détruit pas totalement la prédictibilité puisqu’une probabilité est précisément et assurément prédite et ne détruit pas non plus tout déterminisme puisque les futurs possible sont loin d’être quelconques et sont déterminés par l’état passé. La causalité, la prédictibilité, le déterminisme se sont transformés mais n’ont pas disparu.
Il est apparu des complexes inséparables de phénomènes et de propriétés que l’on considérait comme incompatibles corpusculaire/ondulatoire, aléatoire/déterminé, durable/éphémère, réel/virtuel, actuel/potentiel, ordre/désordre, stable/instable, etc.
C’est une véritable dialectique de la nature qui apparaît et qui est aussi une dialectique du déterminé et de l’indéterminé…
Quelle différence entre un « démon de Maxwell » et un « démon de Laplace » ?
Le démon de Laplace pose la question de la prédictibilité et le démon de Maxwell celle de la réversibilité, ce qui est évidemment très différent. Ils ont en commun d’être des espèces d’esprit connaissant tout, jusqu’au plus petit des objets et de leurs mouvements.
Un démon de Laplace, c’est un démon mathématicien, un esprit capable de calculer toute position précédente ou suivante à partir d’une position précisément donnée. Un démon de Maxwell, c’est un esprit capable de trier les molécules pour faire revenir la thermodynamique d’un fluide dans sa position initiale malgré l’agitation désordonnée et aléatoire des molécules des fluides.
Pour créer un lien entre l’information et l’entropie, Maxwell a inventé un être hypothétique, un « démon », qui utilise son aptitude à traiter de l’information en la mémorisant afin de réduire l’entropie d’un gaz homogène (à une température donnée). En bref, le démon est capable de mesurer la vitesse des molécules de gaz et ouvrir ou fermer un clapet entre les deux compartiments en fonction de la vitesse des molécules, les maintenant d’un côté si elles vont vite, et de l’autre côté, si elles sont lentes. Cette action va construire deux compartiments, l’un chaud et l’autre froid, et inverser le temps, agissant apparemment contre le second principe de la thermophysique. Beaucoup de travaux ont été développés depuis cette première vision, et, afin d’éviter le paradoxe de l’inversion du deuxième principe, Leo Szilard a avancé l’idée que la création d’information requiert de l’énergie pour tenir compte de la façon dont le démon de Maxwell pourrait agir [Szilard, 1929]. La théorie de l’information a repris ce genre d’idées.
L’expérience pensée par Maxwell pour contredire le second principe de la thermodynamique est relativement simple à comprendre mais extrêmement difficile à mettre en œuvre, d’où la création de ce « démon ». Imaginons 2 compartiments contigus dans lesquels on a mis d’un coté un gaz froid et de l’autre un gaz chaud. Il existe une porte entre ces 2 compartiments et un démon peut l’ouvrir et la fermer à sa guise. Le démon, malicieux, ouvre la porte de manière à ce que les atomes rapides passent dans le compartiment chaud et que les atomes lents passent dans le compartiment froid. Ainsi, plus le temps s’écoule et plus le gaz chaud se réchauffe et plus le gaz froid se refroidit. Cette observation est en contradiction avec le second principe de la thermodynamique car les 2 compartiments voient leur entropie décroître : en effet, il y a plus d’ordre qu’au départ comme on a séparé les atomes rapides de ceux plus lents. La thermodynamique nous dit que dans le temps, les températures des 2 compartiments devraient converger vers la même valeur alors qu’ici ce n’est pas le cas.
Le démon, pour prendre les décisions de laisser passer ou de renvoyer une particule, est obligé de l’observer, donc d’utiliser l’information dont il dispose. La quantité d’information que cela représente est minime, mais si on passe au niveau microscopique, avec 1023 fois plus de molécules, l’information ainsi utilisée par le démon de Maxwell, que l’on suppose non disponible par l’observateur macroscopique, est importante. La baisse d’entropie découlant de l’exploitation des informations accessibles au démon correspond alors exactement à la différence entre information accessible à l’observateur macroscopique et information accessible au démon. L’impossibilité, pour l’observateur macroscopique, de faire de même que le démon passe donc par l’hypothèse selon laquelle prélever l’information accessible au démon exigerait, pour un observateur macroscopique, de dégrader de l’énergie mécanique en chaleur pour un montant faisant perdre au moins autant d’information (chiffrée par l’entropie macroscopique) que ce que l’opération d’acquisition d’information est censée en faire gagner.
Pourquoi ces démons sont affaiblis ou même pour l’essentiel abandonnés
Qu’est-ce qui a mis en cause ou détruit l’efficacité de ces conceptions, et notamment ces démons ? C’est le développement scientifique lui-même et même le développement mathématique qui ont démoli les conceptions non contradictoires dialectiquement de la connaissance. C’est aussi bien les développements de la connaissance de phénomènes du chaos déterministe et celle de la physique quantique.
En vertu du déterminisme universel, l’intelligence qui connaîtrait avec une absolue précision la position et l’énergie de tout objet dans la position initiale pourrait calculer l’évolution de l’univers à tout moment du temps. Déterminisme est dans ce cas synonyme de prédictibilité. Cependant, il existe des systèmes déterministes non prédictibles (voir théorie du chaos).
Les débuts de la Mécanique avaient fait croire à une prédictibilité générale en sciences comme le proclamait Laplace. Cela provient du fait que les lois que l’on connaissait jusque là permettaient de prédire : par exemple, la loi du mouvement du boulet. Mais ce n’est pas général. Connaître une loi ne signifie pas nécessairement pouvoir calculer l’état futur à partir de la connaissance des états passés.
Le déterminisme suppose en effet l’obéissance à des lois mais pas nécessairement la capacité de prédire. Et inversement, on peut parfaitement prédire ce que l’on ne comprend pas. Nous ne connaissons pas la nature de la gravitation même si on en connaît la loi mathématique qui nous permet de dire où atterrira un boulet de canon Mais des phénomènes non reproductibles sont-ils du domaine de la science ? Bien des commentateurs affirment que non. Selon eux, la validité des théories est établie uniquement si l’expérience présente des résultats que la théorie avait prédits. Il est vrai que c qui caractérise la démarche de la science, c’est la confrontation permanente entre théorie et expérience mais ce n’est pas une relation à sens unique.
Le physicien Werner Heisenberg rappelle dans « La partie et le tout » qu’Einstein répétait volontiers que « Seule la théorie décide de ce que l’on peut observer. » En effet, il faut des concepts et des outils d’analyse pour faire des mesures et, d’autres encore, pour concevoir l’expérience et l’interpréter. Et Heisenberg cite également Wolfgang Pauli, autre spécialiste de la physique quantique : « On peut avoir entièrement compris un certain domaine de la connaissance expérimentale sans pour autant pouvoir prédire exactement les résultats d’expériences futures. »
Quand on dit que la science se fonde sur l’expérience, il faut comprendre non seulement ce qui se produit en laboratoire mais aussi et surtout ce que produit la nature. Or la nature n’a parfois produit qu’une seule fois un phénomène, même si on en trouve des multiples reproductions (comme la vie sur terre et ses diverses manifestations). Et on n’a pas nécessairement les moyens de le reproduire ce qui n’empêche pas de raisonner dessus. Même une expérience reproductible ne l’est pas nécessairement à l’identique. Quant aux lois mathématiques, quand elles existent, ne sont pas forcément prédictives. Dans le cas d’une loi « sensible aux conditions initiales », c’est-à-dire être considérablement modifiée par un petit changement initial, tout changement infiniment petit des conditions de départ peut entraîner des divergences qualitatives par la suite. Dans ce cas, on ne peut prédire les suites d’un passé que si on le connaît au plus petit détail près, ce qui est irréalisable. Dans certains cas, une loi peut parfaitement permettre plusieurs « possibles ». C’est le cas pour une bifurcation. Il peut falloir alors une autre loi, à un autre niveau par exemple, pour que la nature tranche. L’ensemble des deux lois ressemble alors à s’y méprendre à du hasard.
Le principe d’incertitude d’Heisenberg s’oppose en physique quantique au démon de Laplace !!
Niels Bohr expliquait ainsi dans « Théorie atomique et description de la nature » :
« La mécanique quantique est en contradiction logique avec la causalité (...) Il n’y a pas pour le moment d’occasion de parler de causalité dans la nature, parce qu’il n’y a pas d’expérience qui indique sa présence. »
Mais le fondateur de la physique quantique Max Planck expliquait, dans « Initiation à la physique », pourquoi il ne comptait pas céder à la pression de l’opinion courante selon laquelle la découverte du quanta entraînait un renoncement à la notion de causalité mais seulement à son changement de signification :
« A l’heure actuelle, il y a des physiciens qui seraient très portés à retirer au principe de causalité strict son rôle dans le système physique de l’univers. (...) Mais, autant que je puis m’en rendre compte, il n’y a, pour le montent, aucune nécessité de se résigner à l’indéterminisme. (...) Il est toutefois certain que cette façon d’envisager le déterminisme diffère quelque peu de celle qui était habituelle en physique classique. »
Max Planck, dans « Initiations à la physique » (chapitre « La causalité dans la nature » :
« Je prendrai comme point de départ de toutes les considérations qui vont suivre cette petite proposition très simple et très générale : « Un événement est conditionné causalement quand il peut être prédit avec certitude. » Remarquons, cependant, que nous entendons seulement dire par là que la possibilité d’une prédiction exacte de l’avenir est un critérium certain de l’existence d’un lien causal ; mais nullement qu’elle s’identifie, en quelque façon, avec ce lien lui-même…
Dans le cas de la météorologie, il y a une idée qui vient tout naturellement à l’esprit, c’est que la complexité de l’objet sur lequel elle porte : l’atmosphère…
Mais, à y regarder de plus près, nous aboutissons à une constatation fort intéressante : quelques simples que soient les circonstances choisies, quelque précis que soient les instruments dont nous disposons, jamais il ne nous sera possible de calculer à l’avance le résultat d’une mesure avec une exactitude absolue, c’est-à-dire telle que les nombres trouvés par l’expérience et par le calcul coïncident dans toutes leurs décimales. Il y a toujours une certaine marge d’incertitude, contrairement à ce qui se passe dans les calculs purement mathématiques…
Si maintenant nous rapprochons ce fait de la proposition énoncée en premier lieu : un événement est conditionné causalement quand il peut être prédit avec certitude ; nous nous trouvons en présence d’un dilemme très désagréable, mais inévitable : ou bien nous maintenons la lettre de notre proposition et alors il n’y a pas dans la nature un seul cas où l’on puisse affirmer l’existence d’un lien causal ; ou bien nous maintenons a priori l’existence d’une causalité stricte et il devient nécessaire de modifier d’une manière ou d’une autre la proposition dont nous sommes partis.
En fait, la physique, jusqu’à présent, s’est bâtie sur le fondement de la seconde des deux alternatives dont nous avons parlé plus haut, c’est-à-dire que, pour conserver au principe de causalité toute sa rigueur, elle a modifié quelque peu son point de départ : à savoir l’affirmation qu’un événement est considéré comme conditionné causalement, quand il peut être prédit avec certitude. Dans ce but, elle a changé légèrement l’acception du mot « événement ». Pour la physique théorique, en effet, l’ « événement » n’est pas le processus de mesure, pris en lui-même ; car ce dernier contient toujours des éléments fortuits et accidentels ; c’est un certain phénomène purement imaginaire qui a lieu dans un monde qui tient lieu et place du monde sensible tel que nous le font connaître directement les organes de nos sens, aidés au besoin et perfectionnés par l’usage des instruments de mesure…
Par la suite, en physique, toute grandeur mesurable, qu’il s’agisse d’un intervalle de temps, d’une longueur, d’une charge électrique, a une double signification, selon qu’on la considère comme étant le résultat immédiat d’une mesure ou qu’on la suppose se rapporter à ce modèle appelé par nous « image représentative physique de l’univers ».
Dans la première acceptation, une grandeur doit toujours être considérée comme étant définie d’une manière imprécise ; c’est pourquoi elle ne saurait être représentée par aucun nombre déterminé ; dans la seconde acceptation, une grandeur est au contraire un symbole mathématique déterminé sur lequel on opère en observant des règles d’une rigueur absolue…
Il est donc absolument faux de dire, comme on le fait parfois, que l’image physique de l’univers ne doit contenir que des grandeurs directement observables…
En résumé nous pouvons dire que la prévision des événements du monde sensible est toujours plus ou moins entachée d’incertitude, alors que les lois qui régissent l’image représentative physique de l’univers sont toujours déterminées par une causalité stricte…
La nouvelle image représentative de l’univers, celle qui est le fait de la physique quantique, est justement issue du besoin d’établir un déterminisme strict qui soit compatible avec l’existence du quantum d’action. Dans ce but, le point matériel, élément primordial de l’ancien univers, a été dépouillé de son caractère élémentaire, il s’est dissous, en quelque sorte, dans un système d’ondes matérielles…
Les indéterministes ont précisément trouvé dans ce fait l’occasion d’une nouvelle attaque contre le principe de la causalité et, cette fois, leur effort semblait avoir pour lui toutes les chances de succès ; car, de toutes les mesures que l’on peut effectuer, on ne peut jamais déduire qu’une fonction ondulatoire à signification purement statistique... Nous rappellerons seulement ici, pour mémoire, l’exemple de l’électron dont la trajectoire sera d’autant plus facilement perturbée que l’on cherchera à l’éclairer de façon à connaître sa position d’une manière plus précise….
Dans ces conditions, il est donc tout naturel de penser qu’un esprit idéal qui connaîtrait tous les phénomènes physiques d’aujourd’hui, jusque dans leurs moindres détails, pourrait prophétiser avec une certitude absolument parfaite, toutes les particularités du temps qu’il fera demain. Il en irait de même pour tout autre sorte de phénomène…
On pourrait, certes, nous opposer que cet esprit n’est qu’une construction mentale et qu’en fin de compte, notre cerveau lui-même se compose d’atomes obéissant aux lois physiques ; mais un peu de réflexion nous montre que cette objection ne tient pas debout. Il est, en effet, indubitable que nos pensées peuvent nous mener très loin des lois naturelles connues de nous et que nous pouvons concevoir des phénomènes qui n’ont rien à voir avec la physique réelle. On ne saurait pas davantage affirmer que l’esprit idéal dont nous parlons ne peut exister que dans la pensée humaine et qu’il a son existence liée à celle de l’esprit pensant, car pour être logique il faudrait admettre que le soleil, que le monde extérieur tout entier, ne peuvent exister que dans nos sens et, pourtant, tout homme raisonnable est convaincu que le soleil ne perdrait pas la moindre fraction de son éclat, même si le genre humain tout entier venait à être exterminé...
D’ailleurs nous devons bien nous garder de considérer cet esprit comme analogue en quelque façon que ce soit à notre propre esprit. »
Répondant notamment à Heisenberg, Louis de Broglie déclarait le 25 avril 1953 :
« Tandis que tous les grands maîtres de l’époque classique, depuis Laplace jusqu’à Henri Poincaré, ont toujours proclamé que les phénomènes naturels étaient déterminés et que la probabilité, quand elle s’introduit dans les théories scientifiques, résultait de notre ignorance ou de notre incapacité à suivre un déterminisme trop compliqué, dans l’interprétation actuellement admise de la Physique quantique, nous avons affaire à de la « probabilité pure » qui ne résulterait pas d’un déterminisme caché. Dans des théories classiques comme la théorie cinétique des gaz, les lois de probabilités étaient considérées comme résultant de notre ignorance des mouvements entièrement déterminés, mais désordonnés et complexes, des innombrables molécules du gaz : la connaissance des positions et des vitesses des molécules nous aurait en principe permis de calculer rigoureusement toute l’évolution du gaz, mais en pratique les probabilités s’introduisent par suite de notre ignorance de la valeur de ces paramètres cachés. Or, l’interprétation purement probabiliste de la Mécanique ondulatoire rejette une telle interprétation des lois de probabilités qu’elle fournit : ces lois ne résulteraient pas de notre ignorance des paramètres cachés qui seraient les coordonnées et la vitesse du corpuscule, car ces paramètres cachés n’existeraient pas, le corpuscule ne pouvant se manifester avec une position ou avec une vitesse bien définie que fugitivement au moment d’une observation ou d’une mesure. La probabilité en Physique quantique ne résulterait plus d’une ignorance : elle serait de la contingence pure… »
Georgio Israël, dans « Chaos et déterminisme » (ouvrage collectif, chapitre « L’histoire du déterminisme et ses rencontres avec les mathématiques ») :
« Quand on parle aujourd’hui de déterminisme, l’esprit court immédiatement à Laplace et à l’introduction de son « Essai philosophique sur les probabilités »… La lecture du texte de Laplace montre qu’à l’évidence son déterminisme est un causalisme métaphysique à la Leibniz. On y trouve en effet une référence explicite au principe de raison suffisante ; et la lecture des parties plus philosophiques de l’ « Essai » ne fait que renforcer cette impression. Même si on a proposé des interprétations plus subtiles, les analyses les plus récentes semblent reconnaître que le point de vue de Laplace est inspiré d’une vision matérialiste, mécaniste et causaliste absolue. C’est même cette vision qui fournit, à ses yeux, la seule justification possible de l’utilisation du calcul des probabilités dans l’analyse scientifique…
Dans l’introduction à une réédition de l’ « Essai », René Thom observe :
« A l’époque où Laplace écrivit l’essai, on avait intégré de nombreuses équations différentielles, mais il n’existait aucun théorème permettant d’affirmer qu’une telle intégration était effectivement toujours possible… » (…)
L’a priori de la formulation par Laplace du déterminisme en langage pré-mathématique était une conception philosophique causaliste. La métaphysique ouvre le chemin et les mathématiques suivent.
Faut-il considérer le principe causaliste comme le reflet philosophique d’une intuition physique de la nature causale des phénomènes… Il n’en est rien. Non seulement parce que l’approche de Laplace n’a rien d’expérimental, mais aussi parce que le contenu du théorème d’existence et d’unicité (des solutions d’une certaine catégorie d’équations différentielles assez régulières) a beaucoup de points de divergences avec le principe causaliste. »
Chabert et Dahan Dalmedico, dans « Chaos et déterminisme » (chapitre « Les idées nouvelles de Poincaré » :
« Une cause très petite, qui nous échappe, détermine un effet considérable que nous ne pouvons pas ne pas voir, et alors nous disons que cet effet est dû au hasard. Si nous connaissions exactement les lois de la nature et la situation de l’Univers à l’instant initial, nous pourrions prédire exactement la situation de ce même Univers à un instant ultérieur. Mais, lors même que les lois naturelles n’auraient plus de secret pour nous, nous ne pourrions connaître la situation initiale qu’approximativement. Si cela nous permet de prévoir la situation ultérieure avec la même approximation, c’est tout ce qu’il nous faut, nous disons que le phénomène a été prévu, qu’il est régi par des lois ; mais il n’en est pas toujours ainsi, il peut arriver que des petites différences dans les conditions initiales en engendrent de très grandes dans les phénomènes finaux ; une petite erreur sur les premières produirait une erreur énorme sur les derniers. La prédiction devient impossible et nous avons le phénomène fortuit. »
Dans cet extrait de « Science et Méthode » (1908), devenu aujourd’hui un grand classique, Henri Poincaré souligne à l’évidence la possibilité d’une « sensibilité aux conditions initiales » et la distinction qui en résulte entre déterminisme et prédictibilité. En fait, les travaux de Poincaré vont bien au-delà et il apparaît maintenant comme le génial initiateur des études contemporaines dans la théorie mathématique des systèmes dynamiques, travaux qui relancent sur de nouvelles bases les réflexions concernant le déterminisme et la prédictibilité…
Les systèmes dynamiques sont des systèmes évoluant au cours du temps et mathématiquement décrits par des équations différentielles, cette description exprimant le caractère déterministe de leur évolution. La théorie cherche notamment à préciser les comportements asymptotiques de tels systèmes, c’est-à-dire ce que les solutions de ces équations différentielles sont susceptibles de devenir au bout d’un temps long…
Dès le début de ses travaux, Poincaré avait conçu l’étude qualitative des équations différentielles en relation avec la question de la stabilité du système solaire. En effet, cette stabilité est une propriété qualitative globale de la trajectoire des planètes, que ne permettraient pas d’établir les méthodes analytiques utilisées jusque-là par les astronomes. Poincaré s’est attaqué au problème dans son célèbre mémoire « Sur le problème des trois corps et les équations de la dynamique », couronné du Grand Prix international offert par le roi de Suède en 1889, puis dans les « Méthodes nouvelles de la mécanique céleste. On peut distinguer deux aspects dans ses travaux : l’un est relatif à la possibilité de prévoir effectivement le mouvement des planètes, notamment par le calcul des éphémérides ; l’autre est théorique et consiste à développer des méthodes et des concepts puissants, valables non seulement pour notre système solaire dans ses conditions actuelles, mais aussi pour des systèmes dynamiques newtoniens quelconques dont on ne connaît a priori aucune solution…
Dans son œuvre, Poincaré discute du théorème de récurrence : un système dynamique reviendra arbitrairement près de son état initial, sauf pour un ensemble de cas exceptionnels de probabilité nulle. Ils interviennent aussi dans le modèle de fluide incompressible utilisé par Poincaré pour illustrer la notion d’invariant intégral… D’où la propriété de densité des trajectoires des molécules dans l’espace de phase, ce que l’on appelle maintenant l’hypothèse ergodique. Boltzmann la formule dans le cadre de la mécanique statistique et Maxwell en théorie cinétique des gaz…
Dans un mémoire de 1894, Poincaré discute, très précisément, le modèle de théorie cinétique des gaz, qu’il attribue alors uniquement à Maxwell. Ce modèle était en butte aux critiques de plusieurs savants, notamment Lord Kelvin ; Poincaré en résume l’idée fondamentale :
« Dans une problème de mécanique, il y a certaines fonctions des coordonnées et de leurs dérivées qui doivent demeurer constantes pendant toute la durée du mouvement. C’est ce qu’on appelle des intégrales… Maxwell admet que, quelle que soit la situation initiale du système, il passera toujours une infinité de fois, je ne dis pas par toutes les situations comparables à l’existence des intégrales, mais aussi près que l’on voudra d’une quelconque de ces situations. C’est ce que l’on appelle le postulat de Maxwell. » (…) Poincaré cite d’autre corollaires comme le fait que les vitesses soient uniformément distribuées dans toutes les directions. Tous ces résultats sont fondés sur le concept de « valeur moyenne » ; selon Poincaré, il s’agit toujours de la moyenne prise à la fois par rapport au temps et par rapport aux diverses molécules du gaz : « C’est la moyenne des moyennes, pour ainsi dire. C’est elle seule, en effet, qui peut être supposée accessible aux observations. »
Poincaré ajoute : « Si le postulat de Maxwell est la véritable pierre angulaire de la théorie cinétique des gaz qui s’écroulerait sans lui…, il ne repose que sur une base bien fragile. »
Poincaré puise dans ses résultats de mécanique céleste de quoi suspecter sa validité universelle….
« Si le postulat était vrai, le système solaire serait instable : s’il est stable en effet, il ne peut passer que par des situations différentes de sa situation initiale. Or, si la stabilité n’est pas démontrée, l’instabilité l’est encore moins et est même peu probable. Il est possible et même vraisemblable que le postulat de Maxwell est vrai pour certains systèmes et faux pour d’autres, sans qu’on ait aucun moyen de discerner les uns des autres. Il est permis de supposer provisoirement qu’il s’applique aux gaz tels que la théorie cinétique les conçoit ; mais cette théorie ne sera solidement assise que quand on aura justifié cette supposition mieux qu’on ne l’a fait jusqu’ici. »
« Le déterminisme de Simon de Laplace et le déterminisme aujourd’hui » de Amy Dahan Dalmedico dans « Chaos et déterminisme » :
« La conviction « déterministe » de Laplace s’impose d’emblée et est assez courante à cette époque, bien que ce mot n’ait pas été en usage au XVIIIe siècle. L’astronomie, sous sa forme de mécanique céleste, avait fourni le paradigme par excellence de ce déterminisme, entendu au sens de la possibilité de prédiction, par le calcul ou la loi mathématique ; l’idée que le monde est écrit en langage mathématique, selon l’expression de Galilée, est à son apogée, notamment après le calcul par Clairaut du retour de la comète de Halley…
La formulation laplacienne du déterminisme possède, nous le savons maintenant, une contrepartie mathématique : le théorème d’existence et d’unicité des solutions des équations différentielles. Certains ont pu penser que Laplace l’avait extrapolé à partir de la constatation mathématique simple qu’une équation différentielle linéaire du second ordre possède une unique courbe solution, passant par un point donné, avec une tangente donnée ; autrement dit, en termes mécaniques, un corps en mouvement, soumis à une force qui ne dépend que de la position spatiale du corps, a une trajectoire entièrement déterminée dès que la position et la vitesse à un instant donné le sont. Mais, à cette époque, aucun résultat mathématique sur ce sujet n’est connu et le premier théorème précis est prouvé par Cauchy, dans les années 1830.
De plus, en mécanique céleste, les choses sont beaucoup plus compliquées puisqu’on est confronté, non pas à une équation différentielle, mais à un système différentiel provenant d’un problème à n corps et Laplace savait mieux que quiconque qu’on était incapable, à ce jour, de les résoudre, à peine d’en approcher les solutions.
C’est tout simplement dans le cadre d’une métaphysique matérialiste mécaniste…. il vaudrait mieux, pensons-nous, parler de déterminisme ontologique global, fondé sur une intime conviction métaphysique : la nature est connaissable, elle obéit aux lois mathématiques…
Trois éléments caractérisent le déterminisme de Pierre-Simon Laplace : la conviction – d’ordre métaphysique – du déterminisme global de la nature et de la structure causale de cette dernière, conviction indissolublement liée à un idéal d’intelligibilité du monde ; l’affirmation corrélative de la possibilité de prédiction par les lois mathématiques ; enfin, le réductionnisme mécaniste. »
« Le chaos dans le système solaire » de Ivars Peterson :
« En 1773, Pierre Simon de Laplace, alors âgé de 24 ans, fut l’un des premiers scientifiques à tenter de prouver la stabilité du Système solaire. A cette époque, les avis étaient partagés. Isaac Newton pensait qu’une intervention divine était de temps en temps nécessaire pour restaurer l’ordre dans le Système solaire, « remettre les pendules à l’heure », et empêcher sa désintégration. Leonard Euler, impressionné par la difficulté du calcul du mouvement de la Lune, jugeait impossible la prise en compte des innombrables forces et des interactions complexes que devait intégrer tout modèle réaliste du Système solaire. Selon lui, toute prévision concernant le destin du Système solaire était illusoire.
Tous les phénomènes naturels sont la conséquence d’un petit nombre de lois simples et immuables, pensait Laplace. Fort de cette conviction, il appliqua sa fantastique puissance de calcul à la détermination de la dynamique du Système solaire. Son analyse achevée, il conclut à la stabilité du Système solaire : les planètes parcourent éternellement leurs cycles compliqués, sans jamais s’éloigner des trajectoires qui leur sont assignées….
La laborieuse démonstration de la stabilité du Système solaire donnée par Laplace s’appliquait à un Système solaire idéalisé et non au monde réel. Son modèle négligeait tout un ensemble d’influences gravitationnelles subtiles qui auraient changé les conclusions de son analyse…
En général, les formules obtenues en résolvant les équations différentielles suffisent pour prévoir l’avenir ou déduire le passé des corps célestes. Idéalement, si l’on connaissait à un instant donné la position et la vitesse de toutes les particules matérielles présentes dans le Système solaire, on pourrait déterminer le mouvement ultérieur de ces particules… Cependant, les calculs exploratoires de Newton et, surtout, les travaux réalisés ultérieurement par de nombreux scientifiques, démontrèrent combien il était difficile de résoudre les équations différentielles associées à des systèmes contenant plus de deux corps…
Dans l’introduction d’un recueil rassemblant ses premiers articles sur les équations différentielles, Poincaré écrivit : « Ne peut-on se demander si l’un des corps restera toujours dans une certaine région du ciel ou bien s’il pourra s’éloigner indéfiniment ; si la distance de deux corps augmentera, ou diminuera à l’infini, ou bien si elle restera comprise entre certaines limites ? Ne peut-on se poser mille questions de ce genre, qui seront toutes résolues quand on saura construire qualitativement les trajectoires des trois corps ? »
Poincaré démontra d’abord que si les équations décrivant un système de trois corps en interaction gravitationnelle établissent une relation bien définie entre le temps et la position des corps, il n’existe pour autant aucun raccourci de calcul général, aucune formule magique, permettant de prédire les positions à long terme. Autrement dit, les séries déduites de la théorie des perturbations divergent. Le système newtonien laisse une place énorme à l’imprévisible, et la question de la stabilité ne peut être tranchée par le simple examen des séries divergentes associées aux solutions des équations de mouvement du Système solaire.
Cependant, si le problème des trois corps ne possède aucune solution complète pouvant être exprimée sous une forme concise, il admet des solutions approximatives aussi précises que l’on veut. Cela signifie que le calcul des premiers termes d’une série faisant intervenir une variable mesurable donne une réponse satisfaisante pour un large éventail d’applications. C’est cette propriété qui permit de calculer les positions planétaires et lunaires pendant des siècles et qui permet aujourd’hui encore de perfectionner les calculs…
C’est au cours de ces recherches que Poincaré entrevit pour la première fois ce que nous appelons aujourd’hui le chaos dynamique, et qu’il commença à en prendre la mesure…
Poincaré a découvert que les équations fondamentales régissant le mouvement de trois corps en interaction gravitationnelle présentent une sensibilité aux conditions initiales. Bien qu’il ait restreint son analyse au contexte étroit de la mécanique céleste, son raisonnement vaut pour toute la mécanique newtonienne…. La découverte de Poincaré implique qu’un système entièrement régi par des lois exactes et incontournables peut malgré tout présenter un comportement imprévisible, apparemment aléatoire. Cela signifie que de nombreux phénomènes physiques sont, dans une certaine mesure, imprévisibles : on ne peut déterminer l’état futur du système correspondant avec une précision suffisante…
Poincaré revint à maintes reprises sur ces questions pour tenter de préciser la nature et la portée de l’incertitude intrinsèque qu’il avait découverte. »
En découvrant le chaos déterministe, Poincaré a amené notamment à récuser la thèse de Laplace que sa philosophie aurait volontiers acceptée. La meilleure preuve en est que ses propres travaux allaient être rapidement contredits puisqu’il concluait que le système solaire était stable ce que, par la suite, il allait lui-même corriger. Par contre, il a inventé à cette occasion la plupart des méthodes théoriques aujourd’hui appliquées dans un domaine qui n’existait pas à l’époque : l’étude des systèmes dynamiques, autrement appelée chaos déterministe. Il écrit : « Une cause très petite qui nous échappe détermine un effet considérable que nous ne pouvons pas ne pas voir et alors nous disons que cet effet est dû au hasard ». C’est la notion de sensibilité aux conditions initiales.
Dans « Science et méthode », Henri Poincaré explique que l’origine de l’apparence de hasard par le caractère des lois universelles pour lesquelles un petit changement peut produire un grand effet. Du coup, il faudrait connaître tous les détails de la situation, à toutes les échelles, pour prédire : « Si nous connaissions exactement les lois de la nature et la situation de l’univers à l’instant initial, nous pourrions prédire la situation de ce même univers à un instant ultérieur. Mais, lors même que les lois naturelles n’auraient plus de secret pour nous, nous ne pourrons connaître la situation initiale qu’approximativement (...). Il peut arriver que des petites différences dans les conditions initiales en engendrent de très grandes dans les phénomènes finaux ; une petite erreur sur les premières produirait une erreur énorme sur les derniers. La prédiction devient impossible et nous avons le phénomène fortuit. » C’est la notion de « sensibilité aux conditions initiales ».
Sa conclusion est qu’avec trois corps interagissant par attraction gravitationnelle on a déjà du chaos c’est-à-dire un phénomène obéissant à la propriété de la sensibilité aux conditions initiales : un tout petit changement de celles-ci peut entraîner un grand changement de la suite de l’évolution. Rappelons que cette thèse révolutionne la conception que l’on avait de la gravitation depuis Newton. Ce dernier pensait que si l’on connaissait précisément les positions et les vitesses de tous les corps célestes on pouvait connaître à tout moment la suite des positions. Poincaré infirme cette thèse. Essayons d’expliquer pourquoi. Je vous rappelle que pour deux corps, du moment que l’on connaît la masse des deux corps et les données de position et de vitesse à l’instant initial on peut calculer les positions des deux corps à tout instant. On connaît en effet une solution analytique qui indique le mouvement et il y a une seule trajectoire possible qui est une ellipse.
On pourrait imaginer que l’on est certain d’avoir une solution puisque l’on connaît les équations du mouvement mais ce n’est pas du tout le cas. La plupart des équations mathématiques non linéaires n’ont pas de solution ou une infinité de solutions.
Une solution analytique est une formule qui indiquera positions et déplacements à tout instant. Les équations ne permettent pas de le dire. Les équations de Newton relient par une formule les diverses dérivées de ces quantités, c’est-à-dire position, vitesse et accélération. Lorsque l’on peut revenir des dérivées aux quantités elles-mêmes on dit que le système d’équations est intégrable mais généralement ce n’est pas le cas. Un exemple bien connu d’intégration est l’équation du mouvement d’un boulet de canon si on connaît la vitesse initiale et l’angle de lancement. Et justement dans le cas du système solaire, en se contentant de trois corps, Poincaré a montré que le système n’est pas intégrable. Il n’y a pas de solution analytique des équations de Newton du mouvement. Poincaré en a même expliqué la raison : il n’y a pas assez d’équations par rapport au nombre d’inconnues. Ce que l’on appelle les inconnues ce sont les positions des corps et leurs variations. Les équations indiquent la conservation d’un certain nombre de quantités qui ne peuvent que s’échanger et non diminuer ou augmenter : l’énergie, la quantité de mouvement et la quantité de rotation.
Il a montré que la multiplicité des trajectoires très proches et imbriquées rend improbable que le système soit intégrable. Les équations ne sont pas assez nombreuses pour en déduire une solution. Il a également montré qu’il en découle une infinité de trajectoires possibles et que l’on n’a aucun moyen de trancher entre elles. En plus la proximité des trajectoires signifie qu’une petite perturbation peut faire sauter le corps d’une trajectoire à une autre imperceptiblement avec du coup un avenir tout à fait différent au bout d’un certain temps. Quelle en est la raison ? Dans le mouvement des trois corps, aucun n’est négligeable. A tout instant la position d’un corps et son mouvement sont modifiés par la position précédente d’un autre corps qui est elle-même modifiée par celle du troisième. C’est ce qui rend impossible les approximations. Impossible par conséquent de dire que tel objet est trop petit pour influencer le système sur le long terme. Impossible de dire que telle modification de distance est négligeable puisqu’elle peut entraîner un changement de trajectoire qui peut être considérable sur le long terme. Impossible même de distinguer l’une des planètes comme un objet indépendant du système. Impossible aussi de distinguer passé et présent. En effet, la position d’une planète dépend de l’ensemble des positions précédentes, de toute l’histoire passée du système. C’est ainsi que, pour prédire, il faudrait connaître avec une précision infinie l’ensemble des conditions précédentes et pas seulement les conditions initiales, c’est-à-dire à un instant donné, du système. Du coup, les trajectoires possibles étant infiniment proches les unes des autres, il suffit d’un petit changement dans les conditions initiales ou d’une petite imprécision pour changer relativement vite l’ensemble de l’histoire de tout le système. Poincaré venait de découvrir le premier domaine d’étude d’un phénomène d’un type nouveau : le chaos déterministe.
Ilya Prigogine, dans « Entre le temps et l’éternité » :
« Si nous pouvions définir la cause « pleine » et l’effet « entier », disait déjà Leibniz, notre connaissance rejoindrait en perfection la science que Dieu a du monde… Ce choix métaphysique de la physique s’est traduit par de multiples références à un dieu qui ne joue pas aux dés, selon Einstein, qui connaît simultanément la position et la vitesse d’une particule, selon Planck, - ou aux démons ; celui de Laplace, susceptible de calculer le passé et le futur de l’Univers à partir de l’observation d’un quelconque de ses états instantanés ; celui de Maxwell, capable d’inverser l’évolution irréversible associée à la croissance de l’entropie en manipulant chaque molécule individuellement. »
Depuis la célèbre fiction forgée par Laplace en 1814 dans ses Essai philosophique sur les probabilités – dite du démon de Laplace, abondamment commentée dans ce Matière première –, qui voit une intelligence infinie calculer selon certaines lois tous les états du monde, le déterminisme est un cadre central de la connaissance scientifique. Pourtant, de nombreux débats parcourent cette idée. Existe-t-il un seul paradigme déterministe, dont les modifications seraient en fait des variantes, ou faut-il pluraliser les déterminismes selon les sciences (biologiques, historiques et sociales, etc.) et les positionnements philosophiques ?
Face aux limites des modèles déterministes et du cadre laplacien, qu’il s’agisse de mécanique classique, de mécanique quantique, de biologie, des sciences humaines ou de philosophie, doit-on accepter l’écart entre l’horizon de notre connaissance et sa mise en pratique, éventuellement en nuançant l’idéal laplacien, ou faut-il au contraire tenter de dépasser tout paradigme déterministe ? Tombe-t-on alors nécessairement dans l’indéterminisme ontologique, comme on l’a souvent affirmé précipitamment ? Enfin, philosophiquement, quelles sont les implications d’un déterminisme conséquent, en particulier sur le plan moral ?
Le déterminisme est la théorie selon laquelle toute action humaine est entièrement due à des événements précédents, et non par l’exercice de la volonté. En philosophie, la théorie est basée sur le principe métaphysique que d’un événement sans cause est impossible. Le succès de scientifiques à découvrir les causes de certains comportements et dans certains cas, effectuer son contrôle tend à soutenir ce principe.
Il y a désaccord sur la formulation adéquate du déterminisme - centrale en cause la philosophie qui ne cesse d’être controversée. Un déterminisme physique, qui a son origine dans l’atomisme de Démocrite et Lucrèce, est la théorie que l’interaction humaine peut être réduite à des relations entre la diversité biologique, entités chimiques ou physiques, ce qui est fondamental pour la formulation moderne sociobiologie et de la neuropsychologie. Le déterminisme historique de Karl Marx, d’autre part, est transpersonnelle et surtout économique. Contrairement à ces deux formulations, le déterminisme psychologique - les fondements philosophiques de la psychanalyse - est la théorie que les objectifs, les besoins et désirs des individus sont au cœur de l’explication du comportement humain. Le comportement récent de déterminisme BF Skinner est une modification de ce point de vue, en ce que Skinner réduit tous les états psychologiques internes de comportement observable publiquement. Son stimulus - réponse compte moderne utilise également des analyses statistiques et probabilistes de la causalité. Jean Paul Sartre et d’autres philosophes contemporains ont fait valoir que le déterminisme est contestée par l’introspection, qui révèle les actions à la suite de nos propres choix et non nécessitées par les événements antérieurs ou des facteurs externes. Déterministes répondre que de telles expériences de la liberté sont des illusions et que l’introspection est une méthode peu fiable et non scientifique pour comprendre le comportement humain.
Ce point de vue a été modifié dans la communauté scientifique, cependant, avec l’énonciation du principe d’incertitude par le physicien Werner Heisenberg. Ramifications de son travail en mécanique quantique conduit Heisenberg d’affirmer que le scientifique, autant d’un participant en tant qu’observateur, interfère avec la nature même de la neutralité et l’objet en question. Son travail est également question de savoir si il est possible de déterminer un cadre objectif à travers lequel on peut distinguer la cause de l’effet, et si on peut connaître un effet objectif si l’on est toujours une partie de sa cause. Déterminisme est parfois confondue avec la prédestination et le fatalisme, mais en tant que tel, il affirme que ni les affaires humaines ont été arrangés par un être hors de l’ordre de causalité, ni qu’une personne a un destin inévitable. »
Ilya Prigogine dans « La fin des certitudes » :
« Que devient le démon de Laplace dans le monde que décrivent les lois du chaos ? Le chaos déterministe nous apprend qu’il ne pourrait prédire le futur que s’il connaissait l’état du monde avec une précision infinie. Mais on peut désormais aller plus loin car il existe une forme d’instabilité dynamique encore plus forte, telle que les trajectoires sont détruites quelque soit la précision de la description. Ce type d’instabilité est d’une importance fondamentale puisqu’il s’applique, comme nous le verrons, aussi bien à la dynamique classique qu’à la mécanique quantique. ll est central dans tout ce livre. Une fois de plus, notre point de départ est le travail fondamental d’Henri Poincaré à la fin du XIXème siècle, "Les méthodes nouvelles de la Mécanique".
Nous avons déjà vu que Poincaré avait établi une distinction fondamentale entre systèmes stables et systèmes instables. Mais il y a plus. Il a introduit la notion cruciale de "système dynamique non intégrable". Il a montré que la plupart des systèmes dynamiques étaient non intégrables. I1 s’agissait de prime abord d’un résultat négatif, longtemps considéré comme un simple problème de technique mathématique. Pourtant comme nous allons le voir, ce résultat exprime la condition sine qua non à toute possibilité d’articuler de manière cohérente le langage de la dynamique à ce monde en devenir qui est le nôtre. Qu’est-ce en effet qu’un système intégrable au sens de Poincaré ? Tout système dynamique peut être caractérisé par une énergie cinétique, qui dépend de la seule vitesse des corps qui le composent, et par une énergie potentielle, qui dépend de l’interaction entre ces corps, c’est-à-dire de leurs distances relatives. Un cas particulièrement simple est celui de particules libres, dénuées d’interactions mutuelles. Dans ce cas, il n y a pas d’énergie potentielle ct le calcul de la trajectoire devient trivial. Un tel système est intégrable au sens de Poincaré. On peut montrer que tout système dynamique intégrable peut être représenté comme s’il était constitué de corps dépourvus d’interactions. Nous reviendrons au chapitre V sur le formalisme hamiltonien qui permet ce type de transformation. Nous nous bornons ici à présenter la définition de 1’intégrabilité énoncée par Poincaré : un système dynamique intégrable est un système dont on peut définir les variables de telle sorte que l’énergie potentielle soit éliminée, c’est-à-dire de telle sorte que son comportement devienne isomorphe à celui d’un système de particules libres sans interaction. Poincaré a montré qu’en général de telles variables ne peuvent pas être obtenues. Des lors, en général, les systèmes dynamiques sont non intégrables. Si la démonstration de Poincaré avait conduit à un résultat différent, s’il avait pu montrer que tous les systèmes dynamiques étaient intégrables, jeter un pont entre le monde dynamique et le monde des processus que nous observons aurait été exclu. Dans un monde isomorphe à un ensemble de corps sans interaction, il n’y a pas de place pour la flèche du temps ni pour l’auto-organisation, ni pour la vie. Mais Poincaré n’a pas seulement démontré que l’intégrabilité s’applique seulement à une classe réduite de systèmes dynamiques, il a identifié la raison du caractère exceptionnel de cette propriété : 1’existence de résonance entre les degrés de liberté du système. Il a, ce faisant, identifié le problème à partir duquel une formulation élargie de la dynamique devient possible. La notion de résonance caractérise un rapport entre des fréquences. Un exemple simple de fréquence est celui de l’oscillateur harmonique, qui décrit le comportement d’une particule liée à un centre par une force proportionnelle à la distance : si on écarte la particule du centre, elle oscillera avec une fréquence bien définie. Considérons maintenant le cas le plus familier d’oscillateur, celui du ressort qui, éloigné de sa position d’équilibre, vibre avec une fréquence caractéristique. Soumettons un tel ressort à une force extérieure, caractérisée elle aussi par une fréquence que nous pouvons faire varier. Nous observons alors un phénomène de couplage entre deux fréquences. La résonance se produit lorsque les deux fréquences, celle du ressort et celle de la force extérieure, correspondent à un rapport numérique simple (l’une des fréquences est égale à un multiple entier de l’autre). L’amplitude de la vibration du pendule augmente alors considérablement. Le même phénomène se produit en musique, lorsque nous jouons une note sur un instrument. Nous entendons les harmoniques. La résonance "couple" les sons. Les fréquences, et en particulier la question de leur résonance, sont au coeur de la description des systèmes dynamiques. Chacun des degrés de liberté d’un système dynamique est caractérisé par une fréquence. La valeur des différentes fréquences dépend en général du point de l’espace des phases. Considérons un système à deux degrés de liberté, caractérisé par les fréquences w1 et w2. Par définition, en chaque point de l’espace des phases où la somme n1w1+n1w2 s’annule pour des valeurs entières, non nulles de n1 et n2 nous avons résonance, car en un tel point n1/n2=-w2/w1. Or, le calcul de la trajectoire de tels systèmes fait intervenir des dénominateurs de type 1/(n1w1+n2w2), qui divergent donc aux points de résonance, ce qui rend le calcul impossible. C’est le problème des petits diviseurs, déjà souligné par Le Verrier. Ce que Poincaré a montré, c’est que les résonances et les dénominateurs dangereux qui leur correspondent constituaient un obstacle incontournable s’opposant à l’intégration de la plupart des systèmes dynamiques. Poincaré avait compris que son résultat menait à ce qu’il appela "le problème général de la dynamique", mais ce problème fut longtemps négligé. Max Born a écrit : "Il serait vraiment remarquable que la Nature ait trouvé le moyen de résister au progrès de la connaissance en ce cachant derrière le rempart des difficultés analytiques du problème à n-corps". (...)
Les systèmes non intégrables de Poincaré seront ici d’une importance considérable. Dans ce cas, la rupture entre la description individuelle (trajectoire ou fonction d’onde) et la description statistique sera encore plus spectaculaire. Avait comme nous le verrons, pour de tels systèmes, le démon de Laplace reste impuissant, quelle que soit sa connaissance, finie ou même infinie,. Le futur n’est plus donné. Il devient, comme l’avait prédit le poète Paul Valéry, "une construction".
(...)
La non-intégrabilité est due aux résonances. Or, les résonances expriment des conditions qui doivent être satisfaites par les fréquences : elles ne sont pas des événements locaux qui se produisent à un instant donné. Elles introduisent donc un élément étranger à la notion de trajectoire, qui correspond à une description locale d’espace temps.
(...)
La physique de l’équilibre nous a donc inspiré une fausse image de la matière. Nous retrouvons maintenant la signification dynamique de ce que nous avions constaté au niveau phénomène logique : la matière à l’équilibre est aveugle et, dans les situations de non équilibre, elle commence à voir. »
Poincaré dans « Leçons sur les hypothèses cosmogoniques » :
« Le monde de M. ARRHENIUS n’est pas seulement infini dans l’espace, mais il est éternel dans le temps ; c’est surtout ici que ses vues sont géniales et qu’elles nous apparaissent comme suggestives, quelques objections qu’elles soulèvent d’ailleurs. L’Univers est comme une vaste machine thermique, fonctionnant entre une source chaude et une source froide ; la source chaude est représentée par les Étoiles et la source froide par les nébuleuses. Mais nos machines thermiques ne tarderaient pas à s’arrêter, si on ne leur fournissait sans cesse de nouveaux combustibles ; abandonnées à elles-mêmes, les deux sources s’épuiseraient, c’est-à-dire que leurs températures s’égaliseraient et finiraient par se mettre en équilibre. C’est là ce qu’exige le principe de CARNOT. Et ce principe lui-même est une conséquence des lois de la Mécanique statistique. C’est parce que les molécules sont très nombreuses qu’elles tendent à se mélanger et à ne plus obéir qu’aux lois du hasard. Pour revenir en arrière, il faudrait les démêler, détruire le mélange une fois fait ; et cela semble impossible ; il faudrait pour cela le démon de MAXWELL, c’est-à-dire un être très délié et très intelligent, capable de trier des objets aussi petits.
Pour que le monde pût recommencer indéfiniment, il faudrait donc une sorte de démon de MAXWELL automatique. Ce démon, M. ARRHENIUS croit l’avoir trouvé. Les nébuleuses sont très froides, mais très peu denses, très peu capables par conséquent de retenir par leur attraction les corps en mouvement qui tendent à en sortir. Les molécules gazeuses sont animées de vitesses diverses, et plus les vitesses sont grandes en moyenne plus le gaz est chaud. Le rôle du démon de MAXWELL, s’il voulait refroidir une enceinte, serait de trier les molécules chaudes, c’est-à-dire celles dont la vitesse est grande et de les expulser de l’enceinte, où ne resteraient que les molécules froides. Or, les molécules qui ont le plus de chances de s’échapper de la nébuleuse, sans y être retenues par la gravitation, ce sont précisément les molécules à grande vitesse, les molécules chaudes ; les autres restant seules, la nébuleuse pourra rester froide tout en recevant de la chaleur.
On peut tenter de se placer à d’autres points de vue, de dire par exemple qu’ici la véritable source froide, c’est le vide avec la température du zéro absolu et qu’alors le rendement du cycle de CARNOT est égal à 1. D’autre part, ce qui distingue la chaleur de la force vive mécanique, c’est que les corps chauds sont formés de molécules nombreuses dont les vitesses ont des directions diverses, tandis que les vitesses qui produisent la force vive mécanique ont une direction unique ; réunies, les molécules gazeuses forment un gaz qui peut être froid et dont le contact refroidit ; isolées, au contraire, elles seraient des projectiles dont le choc réchaufferait. Or, dans le vide interplanétaire, elles sont séparées par d’énormes distances et pour ainsi dire isolées ; leur énergie s’élèverait donc en dignité, elle cesserait d’être de la simple « Chaleur » pour être promue au rang de « Travail ».
Bien des doutes subsistent toutefois ; le vide ne va-t-il pas se combler, si le monde est infini ; et, s’il ne l’est pas, sa matière en s’échappant, ne va-t-elle pas s’évaporer jusqu’à ce qu’il ne reste rien ? De toutes manières, nous devrions renoncer au rêve du « Retour éternel « et de la perpétuelle renaissance des mondes ; il semble donc que la solution de M. ARRHENIUS est encore insuffisante ; ce n’est pas assez de mettre un démon dans la source froide, il en faudrait encore un dans la source chaude.
Après cet exposé, on attend sans doute de moi une conclusion, et c’est cela qui m’embarrasse. Plus on étudie cette question de l’origine des astres, moins on est pressé de conclure. Chacune des théories proposées est séduisante par certains côtés. Les unes donnent d’une façon très satisfaisante l’explication d’un certain nombre de faits ; les autres embrassent davantage, mais les explications perdent en précision ce qu’elles gagnent en étendue ; ou bien, au contraire, elles nous donnent une précision trop grande, mais qui n’est qu’illusoire et qui sent le coup de pouce.
S’il n’y avait que le système solaire, je n’hésiterais pas à préférer la vieille hypothèse de LAPLACE ; il y a très peu de choses à faire pour la remettre à neuf. Mais la variété des systèmes stellaires nous oblige à élargir nos cadres, de sorte que l’hypothèse de LAPLACE, si elle ne doit pas être entièrement abandonnée, devrait être modifiée de façon à n’être plus qu’une forme, adaptée spécialement au système solaire, d’une hypothèse plus générale qui conviendrait à l’Univers tout entier et qui nous expliquerait à la fois les destins divers des Étoiles, et comment chacune d’elles s’est fait sa place dans le grand tout. »
Ilya Prigogine dans « La fin des certitudes » :
« Le chaos déterministe nous apprend qu’il ne pourrait prédire le futur que s’il connaissait l’état du monde avec une précision infinie. Mais on peut désormais aller plus loin car il existe une forme d’instabilité dynamique encore plus forte, telle que les trajectoires sont détruites quelque soit la précision de la description. Ce type d’instabilité est d’une importance fondamentale puisqu ïl s’applique, comme nous le verrons, aussi bien à la dynamique classique qu’à la mécanique quantique…. Les systèmes non intégrables de Poincaré sont d’une importance considérable. Dans ce cas, la rupture entre la description individuelle (trajectoire ou fonction d’onde) et la description statistique sera encore plus spectaculaire. Avait comme nous le verrons, pour de tels systèmes, le démon de Laplace reste impuissant, quelle que soit sa connaissance, finie ou même infinie. »
Paul Langevin dans « Statistique et déterminisme » :
« Jean Perrin a insisté sur la remarquable convergence des résultats ainsi obtenus, et enlevé les derniers retranchements des énergétistes intransigeants. Le déterminisme statistique. — Ces résultats marquaient un triomphe et une revanche pour le mécanisme combiné à l’atomisme, et l’introduction d’un nouvel aspect du déterminisme, plus proche du point de vue humain et qu’on peut appeler le déterminisme ou mécanisme statistique. Tout en maintenant la conception de Laplace et l’hypothèse d’un univers composé de molécules soumises aux lois de la mécanique newtonienne, on admet franchement, non plus la possibilité d’erreurs sur les conditions initiales, mais, comme dans les jeux de hasard, notre ignorance complète de ce qui concerne les cas individuels, et le rôle prépondérant de la statistique dans la prévision des résultats d’observation qui portent en général sur des foules de corpuscules extraordinairement nombreuses. Dans la plupart des cas, le nouveau déterminisme est entièrement d’accord avec la thermodynamique, qu’il domine en l’interprétant, et la plupart des lois de la physique ont le caractère de lois statistiques concernant les configurations les plus probables, seules pratiquement réalisées. Dans le domaine du microscopique, en raison de la moindre complexité des systèmes, la probabilité des configurations autres que la plus probable cesse d’être négligeable et des fluctuations apparaissent autour de cette dernière ; l’importance de ces fluctuations permet d’évaluer le degré de complexité du système et par conséquent d’atteindre les grandeurs moléculaires. Ces résultats se sont trouvés confirmés et précisés lorsque, à la fin du siècle dernier et au commencement de celui-ci, en même temps que se développait l’atomisme statistique, la découverte de l’électron et celle des rayons de Röntgen sont venues permettre la détermination directe, individuelle, et non plus statistique, de certaines de ces grandeurs : charge électrique élémentaire ou grain d’électricité, dimensions des cellules occupées par les atomes dans les divers réseaux cristallins ; puis, par leur intermédiaire, la détermination précise du nombre N d’ Avogadro et de la constante k de Boltzmann. Le déterminisme statistique, non seulement réalisait la synthèse nécessaire entre le mécanisme et la thermodynamique, mais venait encore offrir à la spéculation philosophique la possibilité d’échapper au fatalisme impliqué dans le déterminisme absolu et de laisser sa place à l’action. Il suffisait d’admettre la faculté pour l’être vivant de mettre à profit, à la façon du démon de Maxwell ou d’un joueur heureux, les fluctuations favorables, et d’aiguiller, en quelque sorte, l’évolution du monde dans un sens déterminé par sa volonté ou par son instinct. Cette solution du problème de la liberté, vraiment trop facile, me semble fallacieuse en tant qu’elle reporte la difficulté sur l’aiguillage, sur la trappe du démon de Maxwell et sur la manière, nécessairement mécanique, dont il la manoeuvre. Je n’y fais allusion que parce qu’elle a été sérieusement proposée. Ce triomphe du mécanisme, sous sa forme atomique et statistique, devait être sans lendemain. En même temps qu’il se produisait, commençait à se développer la crise des quanta, issue des progrès de nos connaissances des faits qui concernent les interactions ai complexes de la matière et de la lumière et de la nécessité de concilier le double aspect corpusculaire et ondulatoire de la réalité. »