English German Espagnol Portugese Chinese Japanese Arab Rusian Italian Norvegian Dutch Hebrew Polish Turkish Hindi
Accueil du site > 02 - Livre Deux : SCIENCES > Hasard et nécessité > Déterminisme et prédictibilité

Déterminisme et prédictibilité

samedi 5 septembre 2009, par Robert Paris

"La prédiction est difficile, surtout celle du futur."

Niels Bohr

Chacun a bien conscience que le résultat d’une course hippique est aussi imprédictible que la brisure d’un matériau, le trajet d’une molécule dans un gaz ou d’une poussière dans l’air. On en comprend aisément la raison. Chacun de ces phénomènes obéit bien sûr aux lois de la physique mais le désordre (grand nombre de résultats possibles) est trop important pour prédire. Par contre, quel n’a pas été l’étonnement des physiciens de constater qu’il en allait de même la matière fondamentale, y compris pour une seule particule dans le vide. Imprédictible l’état de la particule, sa position et sa vitesse, le moment où elle va se heurter à une autre particule, émettre ou absorber un photon lumineux. Imprédictible sa trajectoire (position et vitesse).

Toutes les transformations brutales présentent le même caractère imprédictible et pourtant elles sont déterministes (obéissent à des lois). L’imprédictibilité n’en est pas la particularité essentielle. « Les séquences historiques des événements sont des exemples classiques de systèmes complexes. Elles montrent une sensibilité à des petits changements qui rend impossible la prédiction du futur avec certitude, même si nous pouvons être en mesure de comprendre ce qui s’est produit par le passé. » écrit le physicien John. D. Barrow dans « Les constantes de la nature ». Pire même si l’on peut dire, des lois simples avec un petit nombre de paramètres peuvent tout à fait posséder la même propriété (sensibilité aux petits changements) appelée aussi sensibilité aux conditions initiales, une des propriétés caractéristiques de ce que l’on appelle le chaos déterministe ou l’imbrication de l’ordre et du désordre.

Si la science tente de comprendre comment la matière, la vie, l’homme et la société ont été produits avec créations successives de nouveauté, elle se hasarde rarement à prévoir les suivantes ! Par exemple, l’expansion a produit un refroidissement producteur des structures matérielles comme la particule, l’atome et la molécule. Mais la physique peut-elle donner une idée des types suivants de structure qui seront produits puisque l’expansion de l’Univers se poursuit et même s’accélère ? Connaître les lois ne suffit pas à prévoir le futur. L’univers se refroidissant a produit la matière et la lumière, les galaxies, les étoiles et les planètes. Qu’y aura-t-il après ? Quelles structures peuvent être issues des nouvelles étapes du refroidissement d’un monde en expansion ? Quelle est la suite de l’évolution de la vie ? Y aura-t-il une autre espèce d’homo après l’homme actuel ? Nul scientifique ne s’aventure d’y répondre. Le type des lois que nous connaissons ne le permet pas. Elles sont divergentes, mènent à des situations où la progression est imprédictible. Et, surtout, elles sont capables de produire des niveaux émergents de structure. Dans ce cas, un changement qualitatif entraîne nécessairement des lois nouvelles qui ne découlent pas directement des précédentes. On peut prévoir la suite dans une série continue de positions ou dans une évolution graduelle, mais pas un changement brutal et qualitatif. La science a longtemps été gênée par l’imprédictibilité souvent assimilée à l’indéterminisme qui est une notion pourtant très différente. L’expression « hasard », employée dans des sens multiples n’a pas clarifié la question. Les débuts de la Mécanique avaient fait croire à une prédictibilité générale en sciences comme le proclamait Laplace. Cela provient du fait que les lois que l’on connaissait jusque là permettaient de prédire : par exemple, la loi du mouvement du boulet. Mais ce n’est pas général. Connaître une loi ne signifie pas nécessairement pouvoir calculer l’état futur à partir de la connaissance des états passés.

Le déterminisme suppose en effet l’obéissance à des lois mais pas nécessairement la capacité de prédire. Et inversement, on peut parfaitement prédire ce que l’on ne comprend pas. Nous ne connaissons pas la nature de la gravitation même si on en connaît la loi mathématique qui nous permet de dire où atterrira un boulet de canon Mais des phénomènes non reproductibles sont-ils du domaine de la science ? Bien des commentateurs affirment que non. Selon eux, la validité des théories est établie uniquement si l’expérience présente des résultats que la théorie avait prédits. Il est vrai que c qui caractérise la démarche de la science, c’est la confrontation permanente entre théorie et expérience mais ce n’est pas une relation à sens unique. Le physicien Werner Heisenberg rappelle dans « La partie et le tout » qu’Einstein répétait volontiers que « Seule la théorie décide de ce que l’on peut observer. » En effet, il faut des concepts et des outils d’analyse pour faire des mesures et, d’autres encore, pour concevoir l’expérience et l’interpréter. Et Heisenberg cite également Wolfgang Pauli, autre spécialiste de la physique quantique : « On peut avoir entièrement compris un certain domaine de la connaissance expérimentale sans pour autant pouvoir prédire exactement les résultats d’expériences futures. » Quand on dit que la science se fonde sur l’expérience, il faut comprendre non seulement ce qui se produit en laboratoire mais aussi et surtout ce que produit la nature. Or la nature n’a parfois produit qu’une seule fois un phénomène, même si on en trouve des multiples reproductions (comme la vie sur terre et ses diverses manifestations). Et on n’a pas nécessairement les moyens de le reproduire ce qui n’empêche pas de raisonner dessus. Même une expérience reproductible ne l’est pas nécessairement à l’identique. Quant aux lois mathématiques, quand elles existent, ne sont pas forcément prédictives. Dans le cas d’une loi « sensible aux conditions initiales », c’est-à-dire être considérablement modifiée par un petit changement initial, tout changement infiniment petit des conditions de départ peut entraîner des divergences qualitatives par la suite. Dans ce cas, on ne peut prédire les suites d’un passé que si on le connaît au plus petit détail près, ce qui est irréalisable. Dans certains cas, une loi peut parfaitement permettre plusieurs « possibles ». C’est le cas pour une bifurcation. Il peut falloir alors une autre loi, à un autre niveau par exemple, pour que la nature tranche. L’ensemble des deux lois ressemble alors à s’y méprendre à du hasard.

Deux des plus grands physiciens, Albert Einstein et Henri Poincaré  [1], ont montré qu’un apparent désordre [2] dominait la physique ôtant sa prédictibilité au déterminisme. « Dès que l’instabilité est incorporée, la signification des lois de la nature prend un nouveau sens. Elles expriment désormais des possibilités. Elles affirment le devenir et non plus seulement l’être. Elles décrivent un monde de mouvements irréguliers (...). Ce désordre constitue précisément le trait fondamental de la représentation microscopique applicable aux systèmes auxquels la physique avait, depuis le 19ème siècle, appliqué une description évolutionniste (...). » défend le physicien-chimiste Ilya Prigogine dans « La fin des certitudes ».

Il est impossible de savoir dans quel état va être une particule que l’on va capter, impossible de prédire à quel moment un atome excité va émettre un photon, impossible de deviner à quel moment un noyau radioactif instable va se décomposer de manière radioactive, impossible de prévoir si un photon va traverser le miroir ou se réfléchir, etc… Les physiciens espéraient que leur science allait devenir prédictible en atteignant le niveau des particules. Au contraire, plus on s’approche des particules dites élémentaires, plus l’imprédictibilité s’accroît ! Cela ne veut pas dire que l’agitation trépidante de tels phénomènes les rende inaptes à l’étude et sujets seulement à la contingence. Tout n’est pas possible, loin de là. Une loi permet de déterminer les possibles mais pas de trancher celui qui sera adopté par la dynamique. Car ce qui le choisit, c’est la loi du niveau inférieur. La dynamique est décrite seulement par des lois dites statistiques parce qu’elle découle d’un phénomène déterministe rapide imbriqué (interactif, contradictoire et combiné) dans un phénomène déterministe beaucoup plus lent. Croyant que le caractère statistique des lois menait à l’indéterminisme, les physiciens avaient déjà manifesté leur rejet de cette façon de voir face aux découvertes du physicien Ludwig Boltzmann qui étudiait l’agitation moléculaire. « Pour certains physiciens, tels Max Planck et surtout Ludwig Boltzmann, il (le second principe de la thermodynamique) fut aussi le symbole d’un tournant décisif. La physique pouvait enfin décrire la nature en termes de devenir ; elle allait pouvoir, à l’instar des autres sciences, décrire un monde ouvert à l’histoire. (...) A tous les niveaux, la science redécouvre le temps. » racontent le physicien Ilya Prigogine et la philosophe Isabelle Stengers dans « Entre le temps et l’éternité ». C’est un mode de fonctionnement que l’on appelle une crise, une « transition de phase » avec « interaction d’échelles ». Il n’est pas dans la suite logique du passé. Rien ne le laissait prévoir. Même après coup, personne ne peut prétendre qu’on aurait pu le deviner. Une expérience illustre parfaitement le fait que cette physique soit à la fois aléatoire et déterministe : celle des photons jumeaux. Deux photons lumineux appelés jumeaux sont émis en même temps dans deux directions opposées par une même source. On effectue une mesure habituellement considérée comme aléatoire : celle su spin du photon (assimilable à un moment de rotation magnétique) et on remarque que les deux photons ont des spin corrélés. Cela signifie que les mesures ne sont pas au hasard. Ou plus exactement qu’il existe un mécanisme (il reste à dévoiler lequel) déterministe par lequel la mesure de spin n’est pas n’importe laquelle. Jusque là, le spin sembler obéir seulement à une probabilité ce qui signifiait qu’individuellement il aurait agi de façon complètement désordonnée. Le fait que les deux spins des deux photons jumeaux soient corrélés rappelle que le caractère probabiliste du spin du photon montre que ce caractère probabiliste du spin ne signifie pas qu’il n’obéisse pas à des lois. Par contre, ces lois sont fondées sur un désordre collectif sous-jacent, celui du vide. C’est ce désordre qu’on appelle un peu rapidement du hasard, alors que l’ordre est appelé loi. Cette séparation n’est pas valable : la loi fonctionne sur la base du désordre et le désordre est relié à des lois ou plutôt les fonde. Parler de « pur hasard » n’est pas une aide parce que le désordre est inséparable de l’ordre. Le déterminisme strict n’est pas plus opérant. Nier le désordre et chercher des lois éternelles, fixes ne répond pas non plus au problème que nous posent les phénomènes naturels.

Depuis Newton et sa loi de la gravitation apparemment complètement prédictive, on a cru expulser complètement le hasard (plus exactement le désordre) du fonctionnement de la nature. L’obéissance à des règles mathématiques nous apparaissant diamétralement opposée au hasard. Actuellement, dans le sens opposé et dans tous les domaines des sciences, on remarque l’action d’un hasard (ou plus exactement d’une agitation désordonnée mais déterministe). Il est lui-même dû à des phénomènes interactifs qui ne sont pas au même niveau d’ordre hiérarchique que les éléments. C’est la source de ce fameux « pur hasard ». L’exemple classique est la rencontre du promeneur et de la tuile qui tombe du toit. Les deux phénomènes sont déterministes. Leur rencontre, fortuite, est la cause de la mort du promeneur, l’événement final qui apparaît du pur hasard. L’imprédictibilité du fonctionnement de la matière est assimilée par erreur à de un indéterminisme fondamental de la nature. La tuile aurait très bien pu tomber une demi minute plus tôt ou plus tard, laissant vivant le promeneur. Le « résultat final », la mort du promeneur, n’était pas programmé. Nous voilà loin de la physique ? Pas tant que cela. Le moment où un électron change de couche dans l’atome, le moment où il émet un photon, la direction de ce photon, le spin de ce photon, le moment où un noyau instable se décompose (radioactivité), le mouvement d’un photon qui traverse un nouveau milieu (se réfracte-t-il ou se réfléchit-il), tous ces phénomènes sont liés au hasard et ne sont pas prédictibles. Cependant tous ces éléments ne sont pas exactement au hasard puisqu’ils obéissent à des lois probabilistes. Le caractère probabiliste signifie que sur un grand nombre de cas, il y a des lois. La probabilité est bel et bien liée à un déterminisme, même si celui-ci ne se déroule pas au même niveau. Tout comme les « hasards » de l’Histoire sont le mode d’expression de son déterminisme, dans la matière ils sont une composante permanente de l’histoire de la matière. Dans cette histoire, un détail (la tuile qui tombe) peut devenir déterminant pour un événement brutal (la mort du promeneur) et entraîner une véritable bifurcation du cours du développement. Ainsi, en chimie-biologie, la catalyse produit de tels tournants de l’histoire d’une réaction ou d’une série rétroactive de réactions, d’une auto-organisation des réactions biochimiques. Un seuil de concentration d’une molécule fait basculer une réaction chimique dans le sens inverse. De même, une petite différence locale de concentration de matière aurait permis à Jupiter de devenir une étoile. Et cela a changé toute l’histoire de la terre. Qui sait si la vie aurait pu apparaître sur notre planète tournant autour d’un système d’étoiles doubles, avec ce que cela entraîne comme augmentation de température ? Un tout petit peu moins de matière dans le soleil qui serait resté froid et nous serions de la matière glacée sans vie, dérivant dans l’espace ! Une toute petite différence de distance des supernovae les plus proches et les noyaux lourds n’auraient pu être formés à notre proximité. Les poussières qui ont constitué le monde terrestre n’auraient pas existé…etc.

Le fonctionnement climatique est une dynamique auto-organisée où les structures globalement stables sont fondées sur l’instabilité, et où coexistent des rétroactions positives et négatives qui rendent impossible la prédictibilité du fait de la sensibilité aux conditions initiales. Le climat est même le premier domaine scientifique dans lequel les caractéristiques de chaos déterministe aient été mis en évidence, avec les travaux de Lorenz en 1963. Cette année là, Edward Lorenz du Massachusetts Institute of Technology, spécialiste en météorologie, fait tourner sur un ordinateur les équations physiques connues qui relient les trois paramètres les plus fondamentaux de la météorologie : température, pression et vent. C’est ce que l’on appelle des équations différentielles non linéaires, le terme « différentielles » signifiant qu’elles relient des petites différences des paramètres. On n’est pas capable de résoudre ces équations et d’en déduire une fonction permettant de calculer la relation directe entre les paramètres et, du coup, la suite des événements si on connaît les conditions initiales. Par contre on peut partir de ces conditions et rajouter de petites variations en les calculant par les équations différentielles. Et involontairement, parce qu’il avait été prendre entre temps un café dit la légende, Lorenz a relancé son calcul à partir de deux conditions initiales très légèrement différentes du fait d’une modification des approximations. Il s’est aperçu de ce que l’on appelle maintenant la sensibilité aux conditions initiales qui signifie que même la plus petite différence des paramètres entraîne que la position n’est plus sur la même couche de la courbe et, très vite, cela cause des divergences considérables et irrémédiables. D’autre part, il a montré que cela se produisait avec seulement trois facteurs. Il est parvenu à montrer qu’il y avait bien une loi avec un attracteur mais c’est un attracteur étrange, feuilleté, fractal Un attracteur signifie que pour chaque série de valeurs des variables il y a un seul point possible. Un attracteur étrange signifie qu’avec une valeur très proche des variables on peut passer très vite dans une tout autre zone. Ce qui était très difficile à établir sur ordinateur quand Lorenz l’a fait est très simple aujourd’hui : sur un ordinateur personnel, les mathématiciens peuvent faire tourner les équations de Lorenz sur un logiciel mathématique appelé Maple 5 et retrouver très facilement l’attracteur étrange. Pas plus que nous, l’ordinateur ne peut résoudre les équations mais il peut calculer rapidement des valeurs par variations successives et construire l’attracteur point par point. On retrouve là une figure appelée " le papillon ", à deux branches construit pas séries de couches feuilletées sous forme fractale.

Vous pouvez vous dire : d’accord pour le moment on ne dispose pas de modèles suffisants pour prédire mieux mais on s’améliore et on va bientôt y parvenir. On finira sûrement par mieux comprendre le fonctionnement des nuages et du couple atmosphère-océan. C’est faux. On ne cesse de mieux comprendre oui mais on ne peut pas prédire. La limite de prédictibilité n’est pas due à un manque de connaissances mais à la nature même du phénomène. La nature des fonctions est divergente et on mesure cette divergence par une constante appelée de Lyapounov qui décide de la manière exponentielle dont un petit écart va s’accentuer. Les écarts fins comme entre deux nuages deviennent sensibles pour un temps de quatre jours. Le chaos entraîne qu’il y a une limite réelle à la prédictibilité qui n’est pas due aux limites des capacités de l’opérateur. Le caractère chaotique du climat pose un autre problème aux modélisateurs qui ont prédit la hausse des températures par effet de serre causé par l’homme. En effet, des variables rétroactives positivement et négativement ne peuvent être utilement approchées et encore moins moyennisées. Lorenz avait d’ailleurs intitulé sa thèse de 1972 devant l’Association américaine pour l’avancement de la science : " Prédictibilité : le battement des ailes d’un papillon au Brésil peut-il déclencher une tornade au Texas ? ". C’était bien sûr une boutade à ne pas prendre au pied de la lettre puisque le but du raisonnement de Lorenz était justement de dire que l’on ne pouvait pas isoler une petite instabilité pour en faire un fait à part. Et Lorenz lui-même s’était chargé de traduire en termes scientifiques : " Le comportement de l’atmosphère est-il instable par rapport à des perturbations de faible amplitude ? " Et il soulignait l’impossibilité de calculer puisque toute approximation changeait la suite de l’histoire du climat. Or le modèle météo qui prédit le temps à trois jours est celui qui a servi aux prévisionnistes à annoncer la hausse notable des températures dans cinquante ou cent ans et fonctionne sur des valeurs moyennes. Rappelons que la méthode consiste non seulement à effectuer des moyennes mais en ayant préalablement retiré les valeurs considérées comme hors normes. Ce n’est pas une manière de tricher mais une manière classique en recherche physique pour essayer de faire apparaître la loi ou la régularité. Par contre, quand on retire ces valeurs dites excessives, on ne peut plus dire que la moyenne réelle des températures du globe augmente. Et cela d’autant moins qu’un grand nombre des centres de mesure se situe près des villes que l’on sait réellement être des centres du réchauffement par effet de serre. Mais l’occupation minuscule de la surface du globe par les villes ne permet pas d’en déduire que l’ensemble de l’atmosphère voit sa température augmenter notablement. Si on indique des valeurs des augmentations de température suivant qu’on a pris des stations météos proches de grandes villes ou de moins grandes, plus il y a de grandes villes, plus la température augmente. Au contraire, en bas, la température, correspondant à des centres loin des grandes villes, n’augmente quasiment pas. On s’aperçoit que l’on a formé un concept de température globale qui est purement théorique et n’est pas forcément opérant pour décrire une quelconque évolution climatique réelle. On a ensuite produit une corrélation que l’on a transformée en loi fondamentale sans disposer d’une description réelle des mécanismes. Le paramètre choisi a le défaut d’être unique au lieu d’intégrer des interactions avec pression et vents. En plus, ce n’est pas un bon paramètre car la température globale corrigée des variations brutales à petites échelles n’est pas réelle. On constate qu’il y a eu des glaciations alors que la température globale n’avait baissé que de quatre degrés. On remarque par contre des chutes beaucoup plus importantes sans refroidissement global. C’est que cette température moyenne n’est pas une bonne description des phénomènes et, au moins, n’est pas suffisante. Ce n’est pas la température globale qui est pertinente en climatologie réelle et en histoire des climats mais ce sont les différences locales et régionales qu’il faut examiner en liaison avec les autres paramètres de vent, de pression, d’humidité et de pluviosité. Ainsi une glaciation suppose surtout que les glaces formées l’hiver ne pourront fondre du fait d’un été insuffisant. Ce n’est pas une moyenne entre hiver et été qui intervient. Ce n’est pas non plus une moyenne entre les pôles et les autres zones. Enfin intervient la circulation de l’énergie entre zones mais pas la moyenne entre ces zones, ce qui n’est pas du tout la même chose. Par exemple, la présence ou l’absence de courants marins n’est pas indiquée dans de telles moyennes qui ne décrivent nullement la dynamique du climat. Ainsi, sans modification de la moyenne, les différences peuvent s’accentuer, modifiant tout le climat. En fait, le problème que pose la prédiction est fondamental et relié au caractère de la dynamique de l’atmosphère qui est appelée " la turbulence ". On constate que des fluides, même dans les situations les plus simples ont des évolutions imprédictibles. Il suffit pour cela d’examiner une simple fumée de cigarette. En 1971, Ruelle et Takens en ont trouvé l’explication. Ils ont montré que la turbulence n’est pas descriptible, comme on le croyait, par une somme de fonctions quasi-périodiques mais par le chaos déterministe avec un attracteur étrange. Une visualisation sur un ordinateur puissant, un Cray 2, effectuée par Marie Farge du laboratoire de météorologie dynamique de l’Ecole normale supérieure présente la formation spontanée de structures tourbillonnaires en sens opposés dans un champ obéissant à des lois de type chaos déterministe. C’est le cas des anticyclones et des dépressions, comme on l’a montré précédemment mais aussi des mouvements des masses d’air, ou des courants marins. La transmission de l’énergie de la terre à l’atmosphère implique également des processus non-linéaires. C’est un mécanisme fondamental puisque c’est l’océan qui, couvrant 71 % de la surface du globe, absorbe la plus grande partie de l’énergie solaire et la transmet à l’atmosphère, grâce à des échanges très complexes. On trouve également des figures chaotiques dans les mouvements de l’atmosphère, entre les différentes couches. Ce phénomène, appelé cellules de convection a été bien étudié. On a montré que c’est un phénomène chaotique. Rappelons que les équations de Lorenz, présentées précédemment, ne sont rien d’autre que l’écriture d’équations physiques connues de la convection avec frottement pour les fluides, équations appelées de Navier-Stokes. Ce sont ces équations un peu simplifiées par Lorenz qui lui ont permis de mettre en évidence le chaos, c’est-à-dire à un apparent désordre obéissant à des lois non-linéaires. Les rouleaux de convection interactifs règlent les relations entre atmosphère et sol, entre atmosphère et mer et entre haute et basse atmosphère et enfin entre zones de diverses latitudes. Ces courants, loin d’être linéaires, sont turbulents. Ils sont fondamentaux dans la météo car l’essentiel de l’énergie des déplacements d’air est dans ces mouvements.

Tous ceux qui se sont essayés à prédire les révolutions, les crises, les éruptions volcaniques, les changements climatiques, les tornades et les tremblements de terre, comme leurs conséquences possibles, se sont heurté à l’imprédictibilité de l’histoire. Partout où intervient le changement brutal, où règnent la discontinuité et l’auto-organisation, c’est-à-dire la formation spontanée de structures nouvelles, l’interaction d’échelle, partie intégrante des lois de la nature comme des lois sociales, leur donne une allure aléatoire. Ces lois manifestent, du coup, cette corrélation, apparemment illogique, entre hasard et nécessité. Ces deux notions, autrefois considérées comme logiquement et diamétralement opposées, sont ainsi réunies dialectiquement en une même dynamique. La contingence, loin de s’opposer au déterminisme, apparaît comme le mode d’expression le plus pur de la nécessité, de la loi de la nature. On se souvient combien Einstein était choqué qu’on veuille lui faire admettre que l’atome émet un photon lumineux au hasard, c’est-à-dire à un instant quelconque et sans aucune raison. « La nature ne joue pas aux dés », pensait-il. La nature et la société sont agités, mais ne sont pas irrationnels pour autant, disait-il. Lors d’un saut qualitatif, il y a discontinuité, mais pas d’absence de causalité.

Notes

[1] Poincaré remarquait que, déjà pour trois corps, les lois de la gravitation n’étaient pas résolubles ! Einstein observait que le moment où la particule émet ou absorbe un photon, ou encore que le moment où un noyau radioactif se décompose en émettant une radiation, était imprédictible. Les lois de la gravitation comme celles de l’électromagnétisme allaient en effet se révéler non résolubles tout en étant déterministes. La nature obéit à des lois. On peut les formuler mais on ne peut pas en déduire la suite de l’histoire car ces lois se refusent à nous ouvrir la clef du fonctionnement. Il y avait de quoi enrager !

[2] « Une cause très petite, qui nous échappe, détermine un effet considérable que nous ne pouvons pas ne pas voir, et alors nous disons que cet effet est dû au hasard...Mais, lors même que les lois naturelles n’auraient plus de secret pour nous, nous ne pourrons connaître la situation initiale qu’approximativement. Si cela nous permet de prévoir la situation ultérieure avec la même approximation, c’est tout ce qu’il nous faut, nous dirons que le phénomène a été prévu, qu’il est régi par des lois ; mais il n’en est pas toujours ainsi, il peut arriver que de petites différences dans les conditions initiales en engendrent de très grandes dans les phénomènes finaux... » expose Poincaré. Comme exemple de cette sensibilité aux conditions initiales, Henri Poincaré cite la trajectoire des cyclones (presque « l’effet papillon ») et. plus frappant encore, la conception de Napoléon par ses parents...

5 Messages de forum

  • Déterminisme et prédictibilité 6 septembre 2009 11:36, par MOSHE

    Déterminisme et prédictibilité
    par Robert Paris

    "La prédiction est difficile, surtout celle du futur."

    Niels Bohr

    Vous pouvez vous dire : d’accord pour le moment on ne dispose pas de modèles suffisants pour prédire mieux mais on s’améliore et on va bientôt y parvenir. On finira sûrement par mieux comprendre le fonctionnement des nuages et du couple atmosphère-océan. C’est faux. On ne cesse de mieux comprendre oui mais on ne peut pas prédire. La limite de prédictibilité n’est pas due à un manque de connaissances mais à la nature même du phénomène. La nature des fonctions est divergente et on mesure cette divergence par une constante appelée de Lyapounov qui décide de la manière exponentielle dont un petit écart va s’accentuer. Les écarts fins comme entre deux nuages deviennent sensibles pour un temps de quatre jours. Le chaos entraîne qu’il y a une limite réelle à la prédictibilité qui n’est pas due aux limites des capacités de l’opérateur.

    Répondre à ce message

  • Déterminisme et prédictibilité 4 avril 2010 12:51, par Robert Paris

    "On avait l’habitude de penser que le rationnel était le certain, ce qui est déterministe. On voulait privilégier l’être par rapport au devenir, tandis que pour moi, c’est le devenir et non pas l’être qui est essentiel du point de vue ontologique. Je pense que la physique du nouveau siècle sera une physique de la détermination des mécanismes du devenir - mécanismes astrophysiques, biologiques - dont nous n’avons, aujourd’hui, qu’une très faible idée."

    Ilya Prigogine dans La fin des certitudes

    Répondre à ce message

  • Déterminisme et prédictibilité 23 juin 2010 08:27, par Robert Paris

    "Une mise en œuvre abusive des relations d’incertitude de Heisenberg les transforme en un "Principe d’incertitude". Ce "principe" justifie ensuite l’abandon total de l’idée de déterminisme et cela, hors du cadre dans lequel ces relations indiquent une incertitude appréciable." écrit Bernard Sapoval dans "Universalités et fractales".

    Il convient, comme l’a fait Feynman dans son cours de physique (mécanique 2), de redonner une interprétation physique de ces inégalités en termes de particules et d’espace vide : si on essaie de renfermer une particule dans une zone petite de l’espace, sa vitesse d’échappement augmente. Cela ne signifie pas que la particule fasse n’importe quoi mais qu’’elle ne peut pas être en un point donné à un instant donné, ce qui serait infiniment précis....

    Répondre à ce message

  • Déterminisme et prédictibilité 7 août 2010 21:15, par Robert Paris

    Erwin Schrödinger le dira poétiquement :

    " La durée de vie d’un atome radioactif est encore moins prévisible que celle d’un moineau en bonne santé. "

    Répondre à ce message

  • Shakespeare dans « Macbeth » :

    « Si tu peux plonger ton regard dans les semences du futur et dire quelle graine germera et laquelle pas, alors parle-moi. »

    Répondre à ce message

Répondre à cet article

SPIP | squelette | | Plan du site | Suivre la vie du site RSS 2.0