Accueil > ... > Forum 1623

Le quanta ou la mort programmée du continu en physique

4 août 2009, 16:11, par Robert Paris

Quelques citations sur cette importante question :

Dans « Regards sur la matière », le physicien Etienne Klein rapporte le changement de point de vue qu’a représenté cette nouvelle physique : « Les calculs de Planck montrent que les échanges d’énergie électromagnétique sont portés par des grains, alors qu’on les croyait continus. Voilà la vraie révolution, qui ébranle la conviction que les physiciens avaient depuis Newton, selon laquelle on peut faire tendre une force vers zéro. (...) Max Planck fut extrêmement perturbé par sa propre conclusion. Il mit des années à accepter qu’il pouvait s’agir de quelque chose de plus profond qu’un simple artefact mathématique. C’est « dans le désespoir » (Max Planck, Physikalche Abhandlungen) qu’il vécut la perte – qui allait suivre – des instruments anciens de la raison et leur remplacement par des idées neuves. Sa constante injectait de la discontinuité dans des processus qui avaient toujours été perçus comme étant fondamentalement continus. (...) Planck fut aussi choqué que si on lui avait dit, par exemple, que la température d’un radiateur pouvait passer de dix à vingt degrés sans passer par aucune température intermédiaire ! Pourtant, il fallut bien se rendre à l’évidence (qui n’en était pas un) : le concept de continuité n’est pas un absolu. C’est à Planck que revient le mérite d’avoir porté le premier « une-deux » contre la continuité. (...) En 1905, Einstein conclut le « une-deux » de Planck par un uppercut décisif : il attribue au rayonnement lui-même, et non plus seulement aux seuls échanges d’énergie, une structure corpusculaire. Le rayonnement, essentiellement discontinu, est, d’après lui, formé d’un ensemble de corpuscules transportant chacun un quantum d’énergie. (...) Comment décrire le déroulement du processus d’émission (d’un photon par atome qui saute d’un état à un autre) si le champ rayonné sait d’avance ce que sera l’état final de l’atome ? A cette question, Bohr répondra qu’il faut renoncer à décrire le processus d’émission comme une histoire qui se déroule continûment dans le temps : il s’agit plutôt d’un bond, d’un « saut quantique », qu’il faut prendre comme un tout, sans chercher à l’analyser en étapes successives. »
Dans « Physique quantique et représentation du monde », le physicien Erwin Schrödinger résumait ainsi le bouleversement conceptuel de la physique quantique : « En partant de nos expériences à grande échelle, les physiciens en étaient arrivés (...) à formuler le postulat de la continuité de la description. C’est ce postulat de la continuité qui apparaît ne pas pouvoir être satisfait ! (...) C’est cette habitude de penser que nous devons rejeter. (...) En 1913, Bohr fut amené à supposer que l’atome passe brusquement d’un état à l’autre, et que, au cours d’une telle transition, il émet un train d’ondes lumineuses (...) Les faits observés ne peuvent donc pas être mis en accord avec une description continue dans l’espace et le temps. (...) Nos difficultés actuelles en physique sont liées aux difficultés conceptuelles bien connues qui s’attachent à l’idée du continu. (...) Si l’on considère le développement de la physique au cours du dernier demi-siècle, on a l’impression que la vision discontinue de la nature nous a été imposée en grande partie contre notre volonté. Nous paraissons être entièrement satisfaits du continu. Max Planck fut sérieusement effrayé par l’idée d’un échange discontinu qu’il avait introduite (1900) pour expliquer la distribution de l’énergie dans le rayonnement du corps noir. Il fit de grands efforts pour affaiblir son hypothèse et pour l’éliminer dans la mesure du possible mais ce fut vain. Vingt-cinq ans plus tard, les inventeurs de la mécanique ondulatoire entretinrent pendant un certain temps avec la plus grande ardeur l’espoir d’avoir préparé la voie à un retour de la description classique continue, mais de nouveau cet espoir fut déçu. La nature elle-même semblait rejeter une description continue (...). »

L’astrophysicien Laurent Nottale répond ainsi dans « La complexité, vertiges et promesses » : « Le calcul différentiel consiste à prendre la limite d’un petit intervalle de temps, d’espace ou d’autres variables et à les faire tendre vers zéro. Dans le calcul différentiel, on présuppose que cette limite du zéro existe. Or, en physique, rien n’indique que cela soit vrai. Au contraire, à chaque fois que l’on a essayé de voir ce qui se passait à des échelles plus petites, on a toujours trouvé des choses nouvelles ; on n’a jamais découvert un domaine où les choses deviendraient plus simples. Quand on définit une vitesse, une dérivée, on présuppose que cela va se simplifier lorsqu’on se dirigera vers les petites échelles. Or, ce n’est pas le cas. (...) On a longtemps cru que la méthode ordinaire de calcul différentiel devait réaliser en physique l’idée de Descartes. On allait décomposer l’objet à étudier en des parties très petites pour faire en sorte que chacune de ces parties tende vers zéro. L’espoir était de rendre simple l’objet considéré à partir de ses éléments extrêmement simples et où rien ne bougeait ; il n’y avait plus ensuite qu’à intégrer sur tout l’objet de manière à obtenir ses propriétés globales. Dans la réalité, ça ne marche pas ainsi, car, quand on observe les sous-parties de plus en plus petites d’un objet, on voit apparaître des choses constamment nouvelles. On peut très bien avoir des objets plus compliqués vers les petites échelles que vers les grandes, ce qui prouve que l’identification « naïve » de la méthode cartésienne au calcul différentiel ne marche pas. Un objet, comme l’électron, vu classiquement comme un simple point, devient compliqué vers les petites échelles : il émet des photons, les réabsorbe, ces photons deviennent eux-mêmes des paires électrons-positons, etc… A l’intérieur de l’électron, il y a une espèce de foisonnement de particules virtuelles qu’on ne voit pas à grande échelle. (...) Un électron est objet élémentaire qui contient toutes les particules élémentaires existantes. (...) Donc, on ne va pas se contenter d’observer des déplacements dans l’espace et le temps comme dans la physique ordinaire, on va également observer les déplacements dans les changements d’échelle (...). »

Dans son article intitulé « Expérience et Méthode » de l’ouvrage collectif « La philosophie des sciences aujourd’hui », Antoine Danchin, mathématicien devenu généticien, remarque à ce sujet : « On sait qu’il est habituel de représenter les points d’un segment par des nombres qu’on appelle les nombres réels. Et il est habituel de considérer que la structure de l’ensemble de ces nombres est identique à la structure réelle des choses. Les formes géométriques seront donc dérivées des particularités de cet ensemble et l’étude du continu sous-jacent au réel (matériel) se fait au moyen de ces réels (mathématiques) (...). La très belle théorie des catastrophes est un exemple particulier où l’étude du continu et de ses déformations amène Thom à faire toutes sortes de projections sur notre monde et à affirmer (...) qu’il existe des « formes » arbitraires dont la force attractive s’impose au réel et explique les formes que nous observons dans la réalité du monde. (...) » Et il explique que ce passage du continu au discontinu –mathématique- , la « catastrophe », suppose un ensemble des nombres réels qui soit continu. Il rappelle alors comment a été construit cet ensemble des nombres dits « réels » : « Après les entiers naturels, on a construit un ensemble beaucoup plus continu, celui des nombres rationnels. Il a fallu rapidement compléter cet ensemble, encore trop discontinu, pour en faire l’ensemble des réels. Là, chaque point d’un segment semble être représenté. Le nombre de ces points est infini mais d’un infini beaucoup plus « grand » que celui des nombres rationnels (...) Mais je suis d’accord avec Thom pour privilégier le continu – il me semble que cet ensemble des réels est encore trop discontinu et bien incomplet - . Chaque point y est en certain sens isolé, et manque d’une certaine « épaisseur » qui le relierait immanquablement à ses voisins : c’est ce qui explique deux paradoxes issus de la mathématique du continu (utilisant les nombre réels), à savoir l’apparition de « singularités » dans certaines circonstances, et surtout l’improbabilité de traiter directement d’intégrales comme celle de la mesure de Dirac (...). C’était aussi, me semble-t-il l’intuition de Leibniz lorsqu’il parlait des infiniment petits : il y aura un nouveau corps (« surréels » ?) qui rendra sérieusement compte de la réalité continue des choses, dans l’avenir mathématique… »

« Ces définitions, irréprochables, nous l’avons dit, au point de vue, mathématique, ne sauraient satisfaire le philosophe. Elles remplacent l’objet à définir et la notion intuitive de cet objet par une construction faite avec des matériaux plus simples ; on voit bien alors qu’on peut effectivement faire cette construction avec ces matériaux, mais on voit en même temps qu’on pourrait en faire tout aussi bien beaucoup d’autres ; ce qu’elle ne laisse pas voir c’est la raison profonde pour laquelle on a assemblé ces matériaux de cette façon et non pas d’une autre. Je ne veux pas dire que cette « arithmétisation » des mathématiques soit une mauvaise chose, je dis qu’elle n’est pas tout. Je fonderai la détermination du nombre des dimensions sur la notion de coupure. » écrit le mathématicien-physicien Henri Poincaré dans « Dernières pensées ».

L’astrophysicien Laurent Nottale expose, dans « La complexité, vertiges et promesses » : « La nature même de l’espace-temps est changée car elle contient en réalité ces changements d’échelle d’une manière intrinsèque et irréductible à l’espace-temps ordinaire qui est, lui, dans la vision physico-mathématique, un ensemble de points. (...) En réalité, cette vision dans laquelle on représente le monde sous forme de points prétend faire des mesures avec une précision infiniment grande – à chaque petit intervalle spatial correspond un petit intervalle de temps. Or, c’est la mécanique quantique qui nous dit qu’il faudrait une énergie infinie pour pouvoir faire une telle mesure. » On pourrait se dire que ceci n’est une limite que pour l’homme qui observe et mesure, mais cela est faux. Cette limite, notamment l’inégalité d’Heisenberg, est reliée au mécanisme fondamental de la matière et pas seulement à une mesure réalisée par l’homme (ou la machine produite par lui). Cela signifie qu’une précision très petite en espace nécessite un temps très grand et un temps très court nécessite une énergie très grande. Le point, défini avec une précision infinie, nécessite une énergie infinie ! La nature ne peut réaliser ses propres interactions, indépendantes de l’observateur, en dépensant sans cesse une telle énergie infinie. Elle opère nécessairement avec imprécision. C’est le mécanisme le plus économe en énergie. La convergence ne se produit qu’ensuite par émergence d’un ordre global issu du désordre des interactions variables, imprécises et imprédictibles. (…)Un point, cela n’existe pas ! D’ailleurs, cela se voit tout de suite. Si l’on dit qu’il y a un point sur une table, qu’entend-on par un point ? Quelque chose qui n’a aucune dimension. Il suffit de regarder avec une loupe pour découvrir une structure. On continue de grossir à la loupe puis on passe au microscope : à quel moment pourra-t-on voir enfin le point ? Jamais. Donc, physiquement, le point n’existe pas. (...) L’idée intéressante est que, chaque fois que l’on grossit, on voit quelque chose de nouveau. »

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.