Accueil > ... > Forum 4256

Que penser de la thèse du "réchauffement global d’origine anthropique" ?

2 juin 2010, 07:50, par PAUL MOLGA

Climat : les modèles de simulation dans la tourmente
[ 02/06/10 ]

Simuler le climat, une science exacte ? A cause des doutes soulevés par le dernier rapport du GIEC, les modèles de simulation vont devoir être améliorés. Un énorme chantier pour la recherche fondamentale.
Sur le même sujet
Ronde de ballons en Antarctique
Les scientifiques disposent-ils des moyens techniques suffisants pour comprendre et prévoir l’évolution du climat ? La question ne fait plus débat chez les spécialistes de la mécanique des fluides et de la thermodynamique. « Le nombre d’incertitudes mathématiques des modèles de simulations est tel qu’il pèse forcément sur le réalisme des résultats », reconnaît Bernard Fontaine, directeur du Centre de recherches de climatologie à l’université de Bourgogne. Au banc des accusés : modélisation imparfaite des nuages, compréhension parcellaire du cycle biogéochimique, résolution régionale insuffisante des modèles, impact méconnu de la variabilité naturelle, historique insuffisant des évolutions climatiques passées… « Le consensus élaboré par les experts du GIEC se fonde sur un lit de doute », assure un expert britannique.

6 millions de variables
Pour établir une prospective qui fasse corps, les scientifiques confrontent les simulations fournies par vingt-trois modèles élaborés par des instituts de météorologie et des centres de recherche universitaires pour représenter l’évolution du climat dans une succession d’équations et d’algorithmes complexes. A raison de plusieurs milliards d’opérations par seconde, les calculs peignent la dynamique des fluides sur toute la surface du globe depuis les profondeurs océaniques jusqu’aux limites de la stratosphère, avec une constante : la conservation de la masse et de l’énergie, les constituants clefs du système climatique déterminant les échanges entre ses composantes.

Cette représentation schématique des mouvements de l’air et de l’eau s’adosse à un grand nombre de variables comme la pression, la température, la densité, l’humidité, dont les valeurs changent chaque seconde sur toute la surface du globe. Sans compter les paramètres extérieurs -appelés « forçages » -qui peuvent avoir une influence temporaire sur les données initiales : concentration d’aérosols, variation de l’intensité solaire, activité volcanique…

Impossible de calculer précisément à l’échelle planétaire les interactions entre tous ces éléments. Les modèles conceptuels créés pour simplifier ce travail se fondent donc sur une représentation schématique du mouvement des fluides sur la planète. Celui de Météo France, Arpège, divise le globe en 24.572 mailles d’une centaine de kilomètres de côté, et plus de 30 niveaux jusqu’à la basse stratosphère. « Il prend en compte près de 6 millions de variables », décrit Serge Planton, responsable du groupe de recherche climatique. Pour les traiter, Arpège ne compte pas moins de 4 millions de lignes de codes informatiques. « Au total, explique son responsable, Michel Déqué, l’écriture de ce logiciel a mobilisé 100 années-homme et toute l’expérience de nos météorologistes depuis vingt ans. »

Les problèmes des nuages
Ce qui n’empêche pas des imperfections, communes à tous les modèles. « Notre principal point faible est la mesure des propriétés radiatives des nuages », reconnaît Serge Planton. Une impasse scientifique en réalité. Avec l’aide de mesures lasers et satellites opérées dans des programmes comme Calypso ou CloudSat, les chercheurs tentent depuis des années d’élaborer une loi universelle sur les propriétés optiques des grandes masses atmosphériques. L’objectif est d’en déduire les processus qui font interagir les nuages avec les radiations solaires et les gaz à effet de serre. Peine perdue. « Les simulations sont très imparfaites sur ce point », confirme Olivier Boucher, qui dirige le laboratoire Climat, chimie et écosystèmes au Hadley Center, le centre de recherche du Met Office britannique. On sait par exemple qu’à cause de leur étendue, les nuages bas et peu épais des océans subtropicaux jouent un rôle particulier dans le bilan radiatif des modèles, c’est-à-dire la différence entre l’énergie solaire absorbée et celle restituée par la Terre. Mais à quel point ?

« A chacun son interprétation, explique Serge Planton. L’effet des nuages est un paramètre intuitif qui dépend de la somme de connaissances et de convictions de l’équipe pilotant le modèle. » C’est l’un des principaux points de divergence des projections climatiques. Si toutes s’accordent sur l’augmentation de la température terrestre, le consensus ne tient pas sur les hypothèses de pluviométrie à venir, notamment dans les régions tropicales.

Pour affiner les simulations, les chercheurs ont donc eu l’idée de coupler leurs modèles de circulation générale de l’atmosphère, des océans et des banquises, à des outils de simulation plus localisés. « Ces nouveaux modèles doivent être alimentés par des observations précises relevées sur le terrain à l’échelle souhaitée, Paris intra-muros ou le bassin méditerranéen par exemple, explique Bernard Fontaine. Les campagnes de mesure seront donc l’enjeu de la pertinence des futures simulations », estime-t-il.

Les climatologues, où qu’ils soient, ont déjà accès aux observations des satellites mis à disposition par la NOAA (National Oceanic and Atmospheric Administration), une agénce fédérale du ministère américain du Commerce. Mais la maille considérée est globalement trop approximative. « Il manque encore quantité de mesures pour alimenter les modèles », regrette Bernard Fontaine. Une des données essentielles, et une autre source de dispersion des résultats, est la mesure du cycle de carbone. « C’est un des chantiers majeurs de la simulation », confirme Serge Planton. L’un des objectifs est de déterminer à quel point les puits naturels de carbone -les océans et la biosphère continentale -seront affectés par le réchauffement climatique, et quelles en seront les conséquences pour le climat.

Plusieurs programmes ont été lancés pour dresser l’atlas attendu, comme Fluxnet, un réseau de plus de 400 tours météo qui mesurent les échanges de dioxyde de carbone, de vapeur d’eau et d’énergie entre les écosystèmes terrestres et l’atmosphère. Des résultats sont également très attendus du chantier « Millenium Experiment » qui va fouiller les archives paléo-climatiques pour créer un mètre étalon des modèles pour le cycle biogéochimique (lire ci-dessous).

Ces connaissances acquises, restera aux climatologues à relever un autre défi : trouver des capacités de calculs suffisantes pour traiter l’énorme masse de variables.

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.