Accueil > 02 - Livre Deux : SCIENCES > Atome : lois de la Physique ou rétroaction de la matière/lumière et du (...) > Quand l’astrophysique révolutionne à son tour la physique

Quand l’astrophysique révolutionne à son tour la physique

vendredi 24 août 2012, par Robert Paris

Quels problèmes cruciaux l’astrophysique pose à la physique ?

Nous sommes accoutumés à l’idée que l’étude du monde à petite échelle, à l’échelle dite quantique, celle des particules comme l’électron ou le proton, a remis en cause notre vision de la physique issue de l’étude du monde à notre échelle, dite macroscopique. Eh bien, la même chose est en train de se produire avec le monde à grande échelle, au niveau des étoiles, des galaxies, des amas de galaxie et de l’ensemble de l’univers. Nous savons que l’étude du mouvement de la lune et des planètes ont été déterminants pour comprendre la gravitation, y compris sur terre et que l’étude des astres nous a beaucoup appris sur la physique de la toute petite échelle, le niveau quantique. Et pourtant, il semble bien que cette fois les observations astronomiques entrent en contradiction avec les lois que nous avions ainsi découvertes, notamment les lois de la gravitation que ce soit celles de Newton ou d’Einstein. Des observations permises par le perfectionnement de nos outils nous contraignent soit à modifier ces lois soit à admettre que la matière que nous connaissons n’est qu’une fraction infime de celle de l’Univers alors que nous étions persuadés exactement de l’inverse par l’étude du spectre des étoiles...

Comme avant le développement de la théorie quantique, nous sommes au stade d’une véritable « crise de la physique » comme au début des années 1900 pour la physique qui allait être quantique. Et il est probable que la révolution nécessaire aujourd’hui soit au moins aussi profonde que celle-là. En tout cas, tout indique qu’à grande échelle les lois reconnues jusque là ne permettent pas de décrire ce que l’on observe. Ce n’est pas un ou deux phénomènes qui échappent à l’interprétation mais toute une série. Et la voie qui va permettre de sortir de là n’est pas encore tracée clairement. On ne sait même pas ce qu’il faut faire ou chercher. On en est réduit – et c’est déjà très intéressant – à inventorier les difficultés théoriques et pratiques rencontrées. Ce sont véritablement des difficultés théoriques car il faudrait dépasser la physique quantique et la physique relativiste et cela aura nécessairement aussi des conséquences sur la manière de penser la matière à l’échelle « moyenne » - macroscopique – mais aussi quantique – notamment microscopique-.

En effet, les problèmes à grande échelle reposent l’existence d’autres particules que celles déjà connues comme l’électron, le proton ou le photon et reposent le problème de ce qu’est en termes de grains – et pas seulement d’énergie fugitive - le vide quantique. Il est possible que les quanta dits virtuels du vide soient la réponse aux problèmes que nous allons poser dans la suite. C’est l’une des voies de la recherche mais pas la seule. Cela suppose aussi d’entrer dans une physique du discontinu, du discret, du quantique où l’apparence continue n’est qu’une construction fondée sur une relativité d’échelle où le très petit peut apparaitre comme « infiniment petit » et qui permet les méthodes mathématiques dites différentielles, intégrales et autres méthodes fondées sur des « infiniment petits ». Les nouvelles lois nécessaires ne peuvent pas utiliser la continuité, l’infiniment petit et peut-être même pas le passage entre les deux appelé « renormalisation » qui était déjà un effort intense pour sortir de la continuité et des infiniment petits. N’oublions pas que les lois de la relativité et de la physique quantique comme de la physique macroscopique reposent sur l’existence de distances, de temps, de vitesses, d’énergies aussi petites que l’on veut. Mais il est plus que probable que la physique ait encore besoin d’une révolution du discontinu que la quantique et la renormalisation n’ont fait qu’aborder.

A notre échelle, la description des mouvements de la matière semble coller aux lois continues de Newton et Einstein. A grande échelle (étoiles ou galaxies), il y a une divergence énorme et cela entraîne des conséquences théoriques profondes.

Des phénomènes fondamentaux de l’astrophysique ne peuvent absolument pas être interprétés à l’aide des anciennes lois de la physique. Ce sont surtout les phénomènes suivants :

 le mouvement des étoiles

 le mouvement des galaxies

 le positionnement des galaxies sur des filaments et dans des amas de galaxies

 la formation des étoiles

 la formation des galaxies

 la formation des amas de galaxies

 l’histoire qui a donné naissance à l’univers que nous connaissons

 le mouvement d’expansion de l’univers

En somme, l’essentiel de l’astrophysique est un problème qui remet en cause la physique.

La divergence entre les deux n’est pas – même sur le plan numérique – une différence de détail mais un véritable abime. Il y a le plus souvent des différences de cent fois et plus entre ce que l’on observe et ce que prévoyait la théorie ce qui suppose que l’on n’a pas bien compris ce que l’on observe ou que nos lois n’étaient valables qu’à une certaine échelle.

Bien des hypothèses ont été faites pour pallier à ces manques mais beaucoup d’hypothèses ont dû être écartées. On a envisagé la non constance de constantes dites universelles, la modification des lois de Newton (en particulier celle de l’inertie et la proportion entre force et accélération), l’utilisation de la constante cosmologique dans les équations de la relativité généralisée d’Einstein qui décrit la déformation de l’espace-temps.

Les efforts les plus connus ont été ailleurs : notions de symétrie, de supersymétrie, de cordes, de supercordes, de vide quantique et enfin hypothèses d’objets invisibles occupant le ciel (d’étoiles sombres, de gaz de matière sombre, de galaxies sombres) et de particules inconnues (matière sombre) enfin d’énergie inconnue (énergie sombre). Comme on le voit, cela fait un bon nombre d’années qu’on essaie de sortir la physique de sa crise et on n’y est pas encore parvenus. Il est probable que, dans ce domaine comme dans d’autres, on ne transforme pas les anciennes conceptions avec suffisamment d’audace, qu’on essaie de les réformer au lieu de les révolutionner. Mais l’imagination et la philosophie manquent probablement à ces scientifiques, même s’ils n’en n’ont pas conscience… Refonder notre conception de la matière suppose revoir le lien entre matière et vide, entre temps et espace, entre réel et virtuel et ce n’est pas aussi loin que certains ne croient de la réflexion philosophique. Mais examinons d’abord où se situent les problèmes scientifiques et les divergences entre l’observation et les lois anciennement connues.

L’une des difficultés de cet effort pour intégrer les observations en astrophysique dans une nouvelle théorie d’ensemble de la physique provient du fait que de multiples observations effectuées de longue date en astrophysique doivent y trouver leur interprétation et que l’on s’était jusque là arrêtés à une interprétation momentanée qui était le Big Bang auquel on avait adjoint la théorie dite de l’inflation pour former l’univers que nous avons sous les yeux. Tout cet édifice fait d’observations et d’interprétations est sans doute en train de voler en éclats sans qu’on sache exactement où le bât blesse…

Une nouvelle théorie, pour âtre acceptée, doit donner une interprétation non seulement aux questions soulevées précédemment comme l’accélération de l’expansion, la formation et les mouvements des étoiles et galaxies, mais aussi aux plus anciennes observations :

 le bruit de fond cosmique, interprété jusque là comme un résidu refroidi des suites du Big Bang

 la répartition des éléments de la matière entre éléments lourds et légers

 le caractère aplati de l’univers

 la densité de matière et d’énergie

 l’âge de l’univers, celui des étoiles et galaxies

 la distribution en éponge des galaxies

 la formation des trous noirs, ces étoiles extrêmement denses où la lumière elle-même est trop attirée pour en sortir autrement que par des expulsions brutales

etc, etc…

Examinons plus en détail les problèmes nouveaux qui obligent à une remise en cause globale de la physique.

1°) les problèmes posés par les étoiles

On a longtemps cru que l’observation des étoiles nous donnait une confirmation des lois connues à notre échelle, lois nucléaires pour le noyau de l’étoile et lois de la gravitation pour le mouvement de l’étoile. Cela s’avère illusoire dans les deux cas, pour ce qui est de la naissance de l’étoile comme pour son mouvement.

Commençons par la formation de l’étoile. Comment passer en effet d’un nuage originel avec une densité de matière de quelques particules par centimètres cubes à la densité critique qui est celle nécessaire pour enclencher les réactions thermonucléaires du noyau nécessaires au démarrage de l’étoile ? D’autant que le début de l’effondrement provoque la formation d’un disque d’accrétion qui empêche l’effondrement de la matière au centre. Et il y encore un autre problème : l’accroissement de densité provoque un effet de rotation de la matière de l’étoile qui est proportionnel à l’augmentation de densité. Comment se fait-il que les étoiles n’aient pas des vitesses de rotations qui aient connu des accroissements considérables que cela devrait entraîner ? L’une des propositions crédibles en la matière est celle de Rachid Ouyed en 1997 : celle des jets de matière projetés de part et d’autre du disque d’accrétion et qui favoriseraient l’effondrement de matière au centre de l’étoile et l’accroissement de densité et de température menant aux explosions thermonucléaires.

Du fait de l’observation du mouvement des étoiles au sein des galaxies, nombre scientifiques pensent que l’Univers contient plus de 80% d’une matière inconnue, baptisée « noire » pour souligner son invisibilité et notre ignorance à son sujet. Depuis plusieurs décennies, on cherche en vain à la détecter, mais son existence semblait bien établie. Or, aucune trace de cette matière mystérieuse, d’après les mouvements des étoiles dans notre banlieue galactique.

C’est une patiente observation des mouvements de plus de 400 étoiles géantes rouges, situées à des altitudes très différentes au-dessus du plan de la Galaxie et dans la direction du pôle Sud galactique, qui est à l’origine de cette affirmation pour le moins troublante pour les astrophysiciens.

Réalisée à l’Observatoire de La Silla de l’Observatoire Européen Austral (dans les Andes chiliennes), cette observation visait à cartographier la matière noire à travers son influence gravitationnelle sur les mouvements des étoiles. Or, explique le responsable de l’équipe, Christian Moni Bidin (Departamento de Astronomía, Universidad de Concepción, Chili), « la quantité de masse que nous avons déduite correspond très bien à ce que nous voyons - les étoiles, la poussière et le gaz – dans la région autour du Soleil, mais cela ne laisse aucune place pour la matière supplémentaire – la matière noire - que nous pensions trouver. Nos calculs montrent qu’elle aurait dû clairement ressortir dans nos mesures. Mais elle n’est pas là ! ».

Pourquoi étoiles et galaxies tournent-elles plus vite que les lois de la gravitation ne le laissaient penser, pourquoi l’univers accélère-t-il son expansion alors que l’on pouvait penser qu’il décélérait ?

Dès que l’on a commencé à étudier le mouvement des étoiles et des galaxies, on s’est aperçus que ce que l’on pensait de la répartition des masses ne correspondait pas aux vitesses des mouvements de rotation observés. Cette découverte n’est pas vraiment récente puisque ces recherches de Fritz Zwicky datent de 1933 mais, à l’époque, elles n’avaient pas été vraiment prises au sérieux. On constate que, pour obtenir le mouvement des galaxies effectivement constaté, il faudrait que ces galaxies soient 400 fois plus pesantes qu’on ne le croyait. C’est à partir de 1970 que les idées de Zwicky ont commencé à resurgir avec des mesures montrant que les étoiles et galaxies tournaient beaucoup trop vite. L’une des idées proposées pour interpréter ces résultats consiste à dire qu’il pourrait exister une matière qui n’est pas visible et que nous ne connaissons pas à notre niveau, la fameuse matière noire. En effet, si l’on additionne l’ensemble de la matière visible dans une galaxie ou dans un amas de galaxies, on obtient des mouvements liés à la gravitation bien trop faibles pour expliquer à l’aide des lois de la physique actuellement connues les mouvements réellement observés.

Il y a deux possibilités pour comprendre ces faits et ces contradictions :

 l’existence de cette matière noire inconnue

 des nouvelles lois provenant du fait qu’on se trouve dans un nouveau domaine hiérarchique de la matière, comme la physique quantique est un niveau hiérarchique nouveau par rapport à l’échelon classique dit macroscopique

Mordehai Milgrom a proposé de transformer la loi d’inertie, d’une loi linéaire où la force est proportionnelle à l’accélération en une loi non-linéaire où intervient l’accélération au carré !

2°) les problèmes posés par les galaxies

Ce sont elles qui permettent de comprendre comment un espace supposé homogène au départ ait pu donner naissance à des grumeaux de matière agglutinés le long de filaments et formant des amas de galaxies. Sur la disposition des galaxies, voir ici

L’explication de la formation des galaxies est déterminante pour comprendre notre univers actuel or celle-ci rechigne toujours à s’intégrer dans la théorie physique actuelle. La constitution de trous noirs en leur centre semble avoir été déterminante. Les trous sont un état extrêmement condensé de la matière dans lequel la gravitation est tellement forte qu’elle ne permet à la lumière de s’évader que par bouffées violentes.

Lee Smolin expose, dans « Rien ne va plus en physique », le problème que nous posent les galaxies :

« Ces dernières années, les astronomes ont réalisé une expérience très simple, au cours de laquelle ils ont mesuré la distribution des masses dans une galaxie de deux façons différentes et ont comparé les résultats. Premièrement, les astronomes ont mesuré la masse en observant les viteses orbitales des étoiles ; deuxièmement, ils ont fait une mesure plus directe de la masse en comptant les étoiles, le gaz et la poussière qu’ils voyaient dans la galaxie. (…) Les deux méthodes devraient s’accorder l’une à l’autre. Or, elles ne sont pas d’accord. Les astronomes ont comparé les deux méthodes de mesure de la masse pour plus de cent galaxies différentes. Dans presque tous les cas, les deux mesures divergent, et la différence entre les valeurs est loin d’être petite, mais plutôt de l’ordre d’un facteur dix. De plus, l’erreur va toujours dans le même sens : on a toujours besoin de plus de masse pour expliquer le mouvement observé des étoiles que ce que l’on calcule par comptage direct des étoiles, du gaz et des poussières. (…) S’il existe une matière que nous ne voyons pas, elle doit se trouver dans un état et sous une forme nouvelle, qui n’émet, ni ne reflète la lumière. Et, puisque la divergence des résultats est aussi grande, la majorité de la matière au sein des galaxies doit exister sous cette nouvelle forme. (…) (…) Dans chacune des galaxies où l’on a rencontré le problème, celui-ci affecte seulement les étoiles dont le mouvement s’effectue au-delà d’une certaine orbite. A l’intérieur de cette orbite, il n’y a pas de problème : l’accélération est ce qu’elle devrait être si elle était produite par la matière visible seule. Par conséquent, il semble qu’il existe une région à l’intérieur de la galaxie où les lois de Newton sont validées et où il n’y a pas besoin de matière noire. Au-delà de cette région, les choses se compliquent. (…) Lorsqu’on s’éloigne du centre de la galaxie, l’accélération décroît, et un taux critique se révèle, qui marque la fin d’applicabilité des lois de la gravitation de Newton. Lorsque l’accélération des étoiles dépasse la valeur critique, la loi de Newton marche, et l’accélération qu’elle prédit est observée. Dans ce cas, il n’existe aucun besoin de postuler l’existence de la matière noire. Mais lorsque l’accélération observée est plus petite que la valeur critique, elle ne s’accorde plus avec la prédiction de la loi newtonienne. Cette accélération spéciale est proche de c²/R, c’est-à-dire de la valeur de l’accélération produite par la constante cosmologique ! (…) L’échelle c²/R caractérise le lieu où, pour les galaxies, la loi de Newton ne s’applique plus. Les astronomes l’appellent « loi de Milgrom » du nom du physicien Mordehaï Milgrom qui l’a découverte au milieu des années 1980. (…) L’échelle R est une échelle de tout l’univers observable, qui est infiniment plus grand que n’importe que n’importe quelle galaxie individuelle. C’est à cette échelle cosmologique qu’advient l’accélération c²/R ; comme nous l’avons vu, il s’agit du taux auquel s’accélère l’expansion de l’univers. Il n’existe aucune raison pour que cette échelle joue un rôle quelconque dans la dynamique d’une galaxie individuelle. Pourtant, ce fait empirique nous a été imposé par les données. (…) L’échelle c²/R pourrait caractériser la physique des particules de la matière noire. Si cela est vrai, alors il existe un lien entre la matière noire et la constante cosmologique. La matière noire et l’énergie noire sont toujours des phénomènes distincts, mais apparentés. L’autre possibilité est qu’il n’y a pas de matière noire et que la loi newtonienne de la gravitation cesse de s’appliquer là où les accélérations deviennent aussi petites que la valeur particulière c²/R. (...) Une autre manifestation de l’échelle R pourrait venir des masses énigmatiques des neutrinos. On peut convertir R à l’échelle des masses en n’utilisant que les constantes fondamentales de la physique, et le résultat est du même ordre de grandeur que les différences entre les masses des différents types de neutrinos. Personne ne sait pourquoi les neutrinos, tout en étant les particules les plus légères, devraient avoir des masses liées à R, mais cela est ainsi ; voilà donc une autre indication expérimentale bien tentante. (...)

Puis les choses sont devenues encore plus mystérieuses. Récemment, on a découvert que selon des observations à des échelles encore plus grandes, qui correspondent à des milliards d’années-lumière, les équations de la relativité générale ne sont pas satisfaites même en rajoutant la matière noire. L’expansion de l’univers, démarrée avec le Big Bang il y a quelque 13,7 milliards d’années, s’accélère, tandis que si l’on tient compte de toute la matière observée, plus la quantité calculée de la matière noire, l’expansion de l’univers devrait au contraire ralentir. (…) Peut-être, comme pour le problème précédent, quand on a atteint cette échelle, les lois de la relativité générale ne sont simplement plus applicables. Une autre possibilité serait l’existence d’encore une nouvelle forme de matière – ou d’énergie selon la loi d’Einstein qui montre l’équivalence entre masse et énergie). Cette nouvelle forme d’énergie entrait en jeu seulement à des échelles très grandes, c’est-à-dire qu’elle n’affecterait que l’expansion de l’Univers. (…) Cette étrange nouvelle énergie que l’on envisage pour que les chiffres correspondent aux données s’appelle « énergie noire ». La majorité des types de matière se trouvent sous pression, mais l’énergie noire exerce une tension – c’est-à-dire qu’elle retient et ramène les choses ensemble, au lieu de les écarter. C’est pour cette raison que la tension est parfois dite de « pression négative ». (…) Les observations récentes nous révèlent un univers qui, en grande partie, est constitué d’inconnu. 70% de la matière est sous forme d’énergie noire, 26% sous forme de matière noire et seulement 4% sous forme de matière ordinaire. En conséquence, moins d’un vingtième de la matière est observée expérimentalement… »

Lee Smolin expliquait dans le même ouvrage :

"La constante cosmologique est caractérisée par une échelle, l’échelle de la distance à laquelle elle courbe l’univers. Appelons cette échelle R. Sa valeur est d’environ 10 milliards d’années-lumière, ou dix puissance 27 centimètres. Ce qui est bizarre concernant la constante cosmologique, c’est que son échelle est énorme comparée aux autres échelles en physique. (…) Les observations les plus précises que nous ayons en cosmologie sont les mesures du fond diffus cosmologique. Ce phénomène est un rayonnement laissé par le Big Bang qui arrive vers nous depuis toutes les directions du ciel. Il est purement thermique – c’est-à-dire aléatoire. Il s’est refroidi au fur et à mesure de l’expansion de l’univers et a maintenant la température de 1,7 degrés Kelvin. Cette température est uniforme partout dans le ciel à un très haut degré de précision mais, au niveau de quelques parties sur cent mille, il existe des fluctuations. (…) Un autre trait que nous observons dans ces données est qu’il existe très peu d’énergie à la longueur d’onde la plus grande. (…) On pourrait l’interpréter comme une coupure au-dessus de laquelle les modes sont beaucoup moins excités. Il est intéressant de noter que cette coupure se situe à l’échelle R, associée à la constante cosmologique. L’existence d’une telle coupure serait énigmatique du point de vue de la théorie du début de l’Univers la plus largement acceptée, qui s’appelle « inflation ». Selon cette théorie, l’Univers s’est étendu exponentiellement vite à une période extrêmement ancienne. L’inflation explique la quasi-uniformité du fond diffus, en assurant que toutes les parties de l’univers que nous voyons aujourd’hui auraient pu se trouver en contact fortuit lorsque l’univers était encore à l’état de plasma. La théorie prédit des fluctuations dans le fond diffus cosmologique, dont on pense qu’elles sont des résidus des effets quantiques, en action pendant la période d’inflation. (…) Si l’inflation a produit un univers uniforme à l’échelle où nous l’observons, il est probable qu’elle ait produit un univers uniforme à une échelle beaucoup plus grande. Ceci implique, à son tour, que les motifs des fluctuations causées par l’inflation doivent rester les mêmes quelle que soit la profondeur de notre regard expérimental. (…) Au lieu de cela, l’expérience montre que les fluctuations cessent au-dessus de l’échelle R. "

La matière noire permettrait d’expliquer la formation des étoiles et galaxies, la constitution de grumeaux au sein d’un espace homogène préalablement.

Les grumeaux de matière noire ont pu être se former plus tôt que les grumeaux de matière baryonique car ils n’ont pas subi la diffusion des photons lors de l’ère du rayonnement (avant la création du fonds diffus cosmologique).

La masse de matière noire est au moins 7 à 10 fois plus importante que la matière baryonique déduite de la proportion d’éléments légers produits par la nucléosynthèse primordiale et environ 300 fois plus importante que la quantité déduite de la matière lumineuse (déduite des lentilles gravitationnelles ou de la méthode du Viriel appliqué sur les amas galactiques).

Ces grumeaux ont pu attirer vers eux de la matière classique et notamment des molécules d’hydrogène qui en se percutant ont formé des molécules diatomiques capables de perdre de l’énergie par rayonnement. Pour que se phénomène se produise il faut une catalyse à partir des électrons qui ne sont pas associés aux nucléons lors du découplage entre la matière et le rayonnement. Au moment de la création du fond diffus cosmologique, le découplage n’a pas été total.

Le gaz moins chaud peut commencer le processus d’accrétion. Les zones de matière froide plus ou moins sphériques vont conserver leurs formes car la matière froide ne perd pas d’énergie par rayonnement.

Au contraire la matière baryonique va s’effondrer au centre en un halo sphérique dans un premier temps puis en disque.

Au centre des nœuds de matière, les grumeaux se forment donc des nuages plus froids.

Au sein de ces nuages , des zones plus denses et donc plus chaudes que leur environnement froid vont permettre un effondrement plus rapide mais c’est au sein de ces zones denses que l’on va trouver les nuages proto- stellaires plus froids de l’ordre de l’année-lumière. On a donc une succession d’échelles alternant des inhomogénéités plus denses et plus chaudes qui incluent des inhomogénéités plus froides qui peuvent accroître encore la densité.

Des étoiles se forment au centre des nuages. Ces étoiles sont massives car il faut une masse élevée pour démarrer le processeur de fusion de l’hydrogène en l’absence quasi totale de catalyseur (notamment le carbone). Mais ces étoiles presque exclusivement constituées d’hydrogène et d’hélium purs ne peuvent pas perdre beaucoup de masse par le processus de vent solaire. Leur masse devait être de l’ordre de 100 à 300 masses solaires tout au plus.

L’ explosion de la première génération d’étoiles en supernovae en 1 à 6 millions d’années va éjecter les produits de leur nucléosynthèse qui permet à la seconde génération d’étoiles de se former.

La première génération a ionisé son milieu par émission d’UV. Ceci accélère la formation de molécules diatomiques provoquant la formation en flambée d’étoiles encore plus massives car leur contamination partielle par des métaux (carbone,…) augmentent les phénomènes de convection et les étoiles produisant un vent stellaire important sont plus stables.

Leur taille pourrait peut-être atteindre jusqu’à 1000 masses solaires selon certains modèles.

L’observation laisse entendre que, là où il y a de la matière émettant de la lumière, la matière « noire » serait absente, et inversement…

3°) Les supernovae

Un autre indice incontournable de la nécessité d’une refondation est la mesure de l’expansion cosmique à partir d’astres très lointains. Comme on l’a déjà mentionné, les méthodes de mesure de distances extra-galactiques se basent sur l’utilisation d’astres aux propriétés particulières qui permettent de déduire leur puissance rayonnée et que l’on qualifie souvent de chandelles standards. La chandelle standard à l’origine de la révolution cosmologique de l’énergie noire est la supenova de type Ia, cataclysme qui apparaît dans un système binaire comprenant une étoile et une naine blanche en train de vampiriser sa compagne d’infortune. Lorsque la naine blanche approche d’une certaine masse (dite de Chandrasekhar), l’équilibre qu’elle avait réussi à maintenir jusqu’alors est rompu et il s’ensuit une série d’évènements complexes aboutissant à l’éradication explosive du système. La figure suivante illustre la supernova 1994D dans la galaxie proche NGC4526 dans l’amas de la Vierge.

Cette explosion présente un déroulement temporel remarquablement similaire d’un objet à l’autre, ce qui a encouragé les astrophysiciens à utiliser ce type d’astre comme une chandelle standard pour mesurer l’expansion de l’Univers. En déterminant d’une part la puissance lumineuse émise par la supernova par le biais de la décroissance lumineuse du phénomène au cours du temps, et la vitesse de récession de sa galaxie hôte par des méthodes spectrocospiques (décalage vers le rouge gravitationnel associé à l’expansion), il est possible de dresser un diagramme de Hubble associé à ces supernovae et de mesurer l’histoire de l’expansion cosmique sur une échelle temporelle de plusieurs milliards d’années. L’examen de ce diagramme conduit à une conclusion similaire aux deux autres méthodes présentées précédemment, à savoir que l’univers est fort vraisemblablement constitué de quelque 30% de matière et de 70% d’énergie sombre. Toutefois, comme nous le verrons à la page suivante, les supernovae nous enseignent que l’effet de cette énergie noire est loin d’être anodin car il permet d’accélérer le cours de l’expansion cosmique.

On peut dégager trois pistes principales d’explication des observations liées aux supernovae Ia dans la recherche scientifique internationale :

1- L’expansion cosmique a récemment accéléré. Dans le cadre du modèle de concordance, cette accélération est produite par une constante cosmologique, ce qui n’est pas sans impliquer des problèmes théoriques majeurs (voir page suivante). D’autres modèles plus élaborés, comme ceux de quintessence, ont été évoqués pour pallier ces problèmes inhérents à la constante cosmologique, mais ils entraînent également une accélération de l’expansion cosmique ;

2- Les supernovae de type Ia ne sont pas des chandelles standard. Si la physique à l’époque de l’explosion des supernovae les plus lointaines était sensiblement différente de celle que nous connaissons aujourd’hui (par exemple la valeur des constantes fondamentales comme celle de gravitation est différente), alors elles ne peuvent plus être considérées comme standard et il se peut que le processus physique à l’époque ait produit moins de lumière. De même, si la physique des supernovae Ia n’est pas aussi bien comprise qu’on le pense, il se peut qu’elles ne soient pas de véritables chandelles standard. Nous examinerons plus loin les conséquences importantes de ces hypothèses.

3- Le principe cosmologique doit être revu. Cette explication implique principalement de reconsidérer l’hypothèse d’homogénéité du cosmos qui sert à tracer les diagrammes de Hubble sur des distances aussi importantes. Des travaux intéressants dans ce sens ont été effectués, mais leur complexité technique dépasse le cadre de ces lignes. L’idée fédératrice en est que les inhomogénéités de matière aux grandes échelles induiraient en relativité générale des effets similaires à une accélération cosmique sans recourir à une constante cosmologique. Un principe cosmologique revisité pourrait alors expliquer l’énergie noire, à condition que l’écart faible au principe cosmologique qui est observé par ailleurs permette d’expliquer dans le même élan l’ensemble des autres arguments observationnels en faveur de l’énergie noire (fond diffus, grandes structures, etc.).

4°) La compatibilité avec nos connaissances actuelles

Ensuite, il faudrait que les théories expliquant ces faits étranges soient compatibles avec ce que l’on sait de la matière classique et ce que l’on a mesuré des autres phénomènes de l’univers et de l’explication de leur apparition ou formation, ce qui ne facilite pas les théories…. Il faut que cela colle avec le Big bang ou donne un remplaçant, que cela colle avec l’inflation ou la remplace, que cela permette de comprendre les éléments apparus dans l’espace et leur taux d’apparition, notamment la proportion d’éléments légers et d’éléments lourds, et que cela donne, de préférence une explication à des phénomènes jusque là en partie incompris comme les trous noirs, les sursauts de rayonnement gamma, …

Une théorie unifiante de la physique devrait donner aussi une interprétation satisfaisante des rayons cosmiques. Ces derniers, reçus depuis l’espace, sont sans doute des messages indicateurs d’événements importants qui y ont lieu mais lesquels : fusions de galaxies fusions de trous noirs, sursauts gamma, restes d’explosion du Big Bang … ? Quelle importance ont-ils en effet pour les questions précédemment posées ? Puisqu’ils viennent d’espaces lointains, ils auraient dû perdre l’essentiel de leur énergie par interaction avec le rayonnement de fond cosmique. Le mécanisme qui les produit est donc une indication cruciale sur les fonctionnements régissant le monde à grande échelle de l’astrophysique. Les sursauts gamma sont également un objet d’étude qui interagi avec ces interrogations. Les sursauts gamma sont de brefs et intenses flashs de rayons gamma qui ponctuent l’Univers observable à peu près une fois par jour. Malgré les centaines d’événements analysés, toute l’information disponible se limitait à quelques millisecondes, quelques minutes dans le meilleur des cas, de rayonnement gamma - la lumière la plus énergétique qui soit. Après quoi, l’événement disparaissait sans laisser de trace. En 1991 avait en effet été mis en orbite le satellite américain Compton Gamma-Ray Obervatory et son expérience Batse*. Ce dispositif permit de mettre peu à peu en évidence le caractère isotropique de la distribution des sursauts gamma (voir le schéma, ci-dessus à gauche). Dès 1996, il était clair qu’ils se répartissent uniformément dans l’espace. Cela plaidait fortement en faveur d’une origine extragalactique. Avec un corollaire : comme le pressentaient nombre de chercheurs, les sursauts devaient provenir d’événements extraordinairement puissants. S’ils venaient des confins de l’Univers, la quantité d’énergie émise était phénoménale ! Une observation datant de 1997 est venue éclairer la source de ces rayonnements brutaux. On a remarqué en effet qu’une lumière visible au télescope suivait immédiatement le sursaut gamma, permettant d’imaginer ceux-ci comme fusion de deux étoiles à neutrons ou une hypernovae. Le 8 mai 1997, la contrepartie X d’un sursaut fut détectée par Beppo-SAX, 5,7 heures après celle des rayons gamma. Les observations optiques, qui avaient pu commencer 1,7 heure auparavant, permirent de détecter très tôt une source de forte luminosité en lumière visible. Son spectre fut analysé par l’équipe de Shri Kulkarni (Caltech) grâce au télescope Keck à Hawaii. Il révéla la présence de raies d’absorption produites par le gaz de la galaxie d’origine du sursaut. Leur décalage vers le rouge (redshift*), qui mesure la vitesse d’éloignement des astres par rapport à la Terre, démontra que le sursaut était situé à une distance cosmologique, si loin que sa lumière prend plusieurs milliards d’années à nous parvenir. Aujourd’hui, 20 distances de sursauts ont été mesurées. Tous prennent naissance dans des galaxies très lointaines. L’hypothèse retenue devra répondre à la question : comment de telles énergies peuvent nous parvenir d’une distance aussi importante après avoir traversé des espaces considérables ?

5°) Le vide quantique peut-il être le bon candidat pour tout expliquer ?

Dans l’état actuel de nos connaissances, ce n’est pas exclus, ce qui en fait déjà une hypothèse très intéressante.

Le vide quantique, parcouru de quanta virtuels, dédoublés en couples de particules et anti-particules virtuelle ayant une durée de vie très courte jusqu’à ce que la concentration des deux redonne un quanta, possédant des propriétés particulières de pression, des espace-temps tout à fait particuliers (la réaction peut arriver avant l’action et on peut emprunter de l’énergie en quantité quasi illimitée et ne la rendre que plus tard !) offre des moyens d’interpréter bien des phénomènes étranges de la physique quantique (petite échelle) mais aussi de l’astrophysique (grande échelle).

Le vide, tout d’abord, peut donner naissance aux particules durables. Il change ensuite ses propriétés à proximité de ces particules durables (électron, proton, neutron….). Le vide est différent dans des zones qui entourent des concentrations particulièrement importantes comme les trous noirs des centres galactiques. Il est possible aussi que le vide soit encore différent encore dans des zones qui sont éloignées des masses de matière. Là où on recherche des matières et énergies noires, nous pouvons avoir seulement de nouveaux états du vide, de même que la matière ordinaire est déjà un état organisé du vide et l’espace-temps proche de la matière ordinaire un état organisé de l’espace-temps désordonné du vide quantique.

Ce type d’interprétation correspondrait aux zones où il nous semble que les lois de la physique semblent différentes.

Cela ne nécessiterait aucune autre forme de matière, ni les wimps, ni les cordes, ni les supercordes ni d’autres particules étranges à sortir de notre imagination. Ce serait seulement la déformation de l’espace qui serait en cause, ce qui est plus unifiant et plus simple à concevoir…

L’espace vide changerait donc de propriétés suivant la densité de matière en son sein ou à proximité, selon la formation d’une grande quantité de matière habituelle ou non.

L’existence de seuils pour lesquels on trouve de tels changements le laisse à penser…

On remarque par exemple qu’il n’y a pas de problème de nécessité de matière ou d’énergie sombre à proximité des zones de fortes densité mais que, dans les zones de faible densité à proximité, les lois habituelles ne fonctionnent plus. Le vide semble donc bien changer de propriétés et donc d’état.

Nous connaissons un petit nombre d’états du vide. Il semble qu’il ne faille pas chercher d’autres états de la matière ni d’autres états de l’énergie mais… d’autres états du vide !

Dans le vide, c’est-à-dire l’état quantique dénué de particules, un champ peut ainsi tricher avec cette définition et être animé d’un bouillonnement d’apparition et de disparitions de particules (et d’anti-particules), tant qu’elles ont lieu sur des durées suffisamment courtes pour être indétectables. D’une certaine façon, on peut dire que le champ, et donc le vide, peut violer la conservation de l’énergie, mais uniquement s’il le fait de manière assez rapide pour ne pas être pris en flagrant délit par un observateur ! C’est pour cela que les particules qui apparaissent et disparaissent sans que l’on puisse les observer sont nommées particules virtuelles. Cependant, il est bien connu que le crime parfait n’existe pas, et même si le vide est un état dénué de particules réelles, observables, l’agitation associée aux matérialisations et annihilations des particules virtuelles a un effet visible sous la forme d’une énergie moyenne non-nulle qui est un reliquat de ce bouillonnement quantique. En physique moderne, le vide quantique est donc défini non seulement comme l’absence de particules mais aussi bien comme le minimum d’énergie (le minimum de quantas possible), ce minimum n’étant pas zéro contrairement à ce que l’intuition classique laisserait croire. Il est important de noter que l’existence de ces fluctuations quantiques du vide a été mise en évidence expérimentalement, notamment par la mesure de l’effet Casimir qui correspond en quelques sortes à l’existence d’une pression négative exercée par la vide ! Il s’agit donc à la fois d’un phénomène physique irréfutable et d’un phénomène allant dans le sens de ce que l’on observe en cosmologie, même si la mesure en laboratoire de l’énergie du vide est beaucoup plus ardue et n’a pas encore pu être effectuée à ce jour. L’univers à grande échelle est ainsi en quelques sortes un laboratoire exceptionnel de physique fondamentale et la cosmologie permet d’étudier en première ligne des concepts aussi avancés que l’énergie du vide !

Un dernier point intéressant à mentionner est qu’il est possible de démontrer que les fluctuations du vide non seulement correspondent à une pression négative exercée par le vide mais qu’en plus cette pression est directement proportionnelle à la densité d’énergie du vide. La constante cosmologique d’Einstein joue par conséquent pour la relativité générale exactement le rôle d’une énergie associée à l’espace vide, d’où la tentation naturelle d’estimer la valeur de cette constante à partir de considérations quantiques. Et c’est ici que le bât blesse comme nous allons le voir à la page suivante...

Si on considère que la clef du problème est dans l’accélération de l’expansion cosmique produite par une propriété analogue à celle de l’énergie du vide, alors il est fort probable que ce vide mystérieux ne se réduise pas exactement à une simple constante cosmologique. En effet, nous avons vu que l’interprétation de l’énergie du vide par la constante cosmologique amène des problèmes épineux d’ajustement fin et de coïncidence. Les propriétés du vide que nous observons par les effets cosmologiques de l’énergie noire doivent être dus à quelque chose qui ressemble presque à s’y méprendre à une constante cosmologique, au moins dans les époques récentes de l’histoire cosmique. On pourrait envisager par exemple que les propriétés de l’énergie noire ne soient pas fixées une fois pour toutes mais varient au cours de l’histoire cosmique et que cette évolution se fasse en relation avec cette dernière. Il s’agit là de l’idée principale sous-tendant l’hypothèse de la quintessence que l’on peut qualifier de "constante cosmologique variable".

L’idée est d’ailleurs fréquemment utilisée en physique des hautes énergies : par exemple, pour décrire les effets quantiques qui fixent la masse des particules élémentaires comme l’électron (polarisation du vide) ou des particules véhiculant l’interaction faible (brisure spontanée de symétrie), on fait varier les propriétés quantiques (et celle du vide notamment) avec l’échelle d’énergie considérée. Or, l’expansion de l’Univers est avant tout une histoire de refroidissement : la température de la soupe cosmique diminue au cours du temps. En remontant le cours du temps, on doit donc s’attendre à découvrir des effets semblables de variation temporelle des lois de la physique.

L’hypothèse de quintessence propose de considérer des variations de ce qui ressemble à l’énergie du vide et qui produit les phénomènes d’énergie noire comme l’accélération. Pour modéliser ces processus inconnus de la quintessence, les cosmologistes introduisent le plus souvent un outil mathématique que l’on appelle "un champ scalaire". Ce champ, qui agit comme une espèce de "constante" cosmologique variable dans le temps et l’espace, peut avoir plusieurs interprétations différentes suivant la physique à laquelle il est relié. Par exemple, il peut être vu comme une nouvelle particule scalaire (de spin 0) très légère telle qu’on en rencontre un bon nombre dans la physique des hautes énergies ou encore comme une nouvelle force à grande distance accompagnant la gravitation. Cette quintessence doit interagir très peu avec la matière ordinaire : elle agit en arrière-plan, modifiant essentiellement l’expansion de l’Univers à grande échelle, et la matière ordinaire ne la ressent que par l’intermédiaire du champ gravitationnel qu’elle génère, c’est-à-dire qu’à travers son effet sur l’expansion cosmique. La raison en est simple : la quintessence doit être une énergie noire et donc être le plus invisible et discret possible. Toutefois, pour produire de l’accélération cosmique, la quintessence doit interagir avec elle-même : elle doit générer quelque chose qui ressemble à de l’énergie du vide.

Lire la suite…

Matière, lumière et vide quantique

Formation des grosses étoiles

Une thèse sur la matière sombre

Mondes possibles de l’astrophysique

Formation d’étoiles à vitesse record

Galaxies nouvellement créées

Quark Nova project

Sur la disposition des galaxies, voir ici

Sur la thèse du Big Bang

Un exemple du type de travaux sur la matière noire

Un des débats sur la thèse de la matière noire

Messages

  • Découverte incroyable à mettre au crédit du rover Curiosity, celui-ci vient de découvrir que des cours d’eau ont bel et bien existé un jour sur Mars. Des preuves qui viennent aujourd’hui confirmer une vieille thèse soutenue depuis des années par la communauté scientifique. L’eau a visiblement bel et bien fait son apparition dans des temps anciens sur Mars comme le dévoile aujourd’hui des photographies prises en septembre dernier par le rover Curiosity. Ces clichés ayant été soigneusement analysés aujourd’hui par la communauté scientifique, celle-ci vient de valider l’hypothèse selon laquelle de l’eau avait pu s’écouler un jour sur la planète rouge.

  • Un nouveau défi pour les astrophysiciens. De nombreuses étoiles sont connues pour être "variables" ou "pulsantes", mais une équipe suisse d’astronomes a découvert un nouveau type de ces étoiles à la luminosité changeante.

    Cette découverte, publiée mercredi dans la revue Astronomy and Astrophysics, repose sur des mesures régulières de plus de 3.000 étoiles situées dans l’amas NGC 3766, sur une période de sept ans. Elle a été réalisée par une équipe d’astronomes de Genève, grâce au télescope suisse Euler, installé à l’Observatoire de La Silla, au Chili appartenant à l’Observatoire européen austral (ESO).

    Dans cet amas, l’équipe de Nami Mowlavi a découvert, pour la première fois, un groupe de 36 étoiles présentant "d’infimes variations de leur luminosité, de l’ordre de 0,1% de la brillance normale des étoiles", a indiqué l’ESO. La périodicité de ces variations est comprise entre deux et vingt heures.

    Ces étoiles d’un nouveau type, qui n’a pas encore reçu d’appellation, "sont légèrement plus chaudes et brillantes que le Soleil".

    "L’existence même de cette nouvelle classe d’étoiles variables constitue un défi pour les astrophysiciens", a expliqué Sophie Saesen, une des astronomes de l’équipe. "Les modèles théoriques actuels prévoient que leur lumière n’est pas censée varier périodiquement, nos efforts consistent donc à mieux connaître le comportement de ce tout nouveau type d’étoiles".

    L’origine de leur variation demeure inconnue, mais les astronomes ont observé que quelques-unes semblent être dotées d’une rotation rapide. Elles tournent à des vitesses correspondant à plus de la moitié de "leur vitesse critique", le seuil à partir duquel les étoiles deviennent "instables" et éjectent leur matière dans l’espace.

    "Dans ces conditions, la rotation rapide aura un impact important sur leurs propriétés internes, mais nous ne sommes pas encore capables de modéliser leurs variations de luminosité", a expliqué Nami Mowlavi.

    L’étude des variations de luminosité des étoiles variables ou pulsantes a donné naissance à une toute nouvelle branche de l’astrophysique, l’astérosismologie.

  • L’étude des naines brunes n’en est qu’à ses balbutiements. Mais des scientifiques viennent de découvrir que certaines de ces étoiles avaient une température de surface inférieure à 200°C.

    Les étoiles de type naines brunes intriguent depuis longtemps les chercheurs. Relativement petites, froides, ne produisant que très peu de lumière, la limite avec les planètes gazeuses n’est pas très loin. Une nouvelle étude, parue dans la revue Science, apporte quelques informations sur leur véritable nature, notamment qu’elles sont un peu plus chaudes que prévu.

    Les astronomes avaient déjà théorisé l’existence des naines brunes dans les années 60, mais il a fallu attendre 1995 pour observer la première. Depuis, plus de 1.800 étoiles de ce type ont été répertoriées, les plus proches se trouvant à seulement 6,5 années-lumière de la Terre.

    On les désigne parfois sous le terme "d’étoiles ratées", car elles sont trop petites et trop légères pour avoir pu déclencher le processus de fusion nucléaire et "s’allumer" comme les étoiles classiques. Leur source d’énergie vient seulement de leur gravité, qui par contraction produit une énergie interne et une faible luminosité.

    "Si on trouvait un de ces objets en orbite autour d’une étoile, il y a de fortes chances que l’on pense à une planète" déclare ainsi Trent Dupuy, un des chercheurs du centre d’Astrophysique Harvard-Smithonian. "Mais comme elle se sont probablement formées toutes seules, et pas dans un disque proto-planétaire, les astronomes les appellent quand même étoiles, même si leur masse est équivalente à celle d’une planète".

  • Des astronomes ont découvert la plus grosse étoile jaune jamais observée dans notre galaxie, 1.300 fois plus grande que le soleil, selon des observations des télescopes de l’observatoire européen austral du Paranal, au Chili, révélées mercredi. Cet astre géant baptisé HR 5171, situé à près de 12.000 années-lumière de la Terre, dans la constellation du Centaure, compte également parmi les 10 plus grandes étoiles connues de la Voie Lactée.

    Elle est 50% plus grande que la fameuse super-géante rouge Bételgeuse dans la constellation d’Orion et environ un million de fois plus brillante que le soleil, a précisé Olivier Chesneau de l’Observatoire de la Côte d’Azur à Nice, un membre de l’équipe internationale d’astronomes ayant fait cette découverte. "Ces nouvelles observations révèlent également que cette géante jaune a une compagne, une étoile plus petite très proche avec laquelle elle forme un système stellaire binaire", a précisé cet astronome qualifiant cette découverte de "surprise". "Les deux étoiles sont si proches qu’elles se touchent et le système ressemble à une cacahouète géante", a écrit Olivier Chesneau dans un communiqué. Malgré son grand éloignement de la Terre à près de 12.000 années-lumière (une année-lumière équivaut à 9.460.730 milliards de kilomètre), l’étoile HR 5171 peut être aperçue à l’œil nu par un observateur expérimenté.

  • Il pourrait bien y avoir un renversement complet de perspective avec des exoplanétiens vivants !!!

    L’administration nationale de l’aéronautique et de l’espace américaine tiendra une conférence de presse mercredi qui pourrait bien s’avérer historique.

    De l’aveu même de la Nasa, c’est une découverte majeure que l’Agence aéronautique américaine, s’apprêterait à révéler mercredi, lors d’une conférence de presse. La seule certitude que nous ayons pour l’instant est que ces révélations concerneront les exoplanètes, c’est à dire des planètes “au delà de notre système solaire”. Mais elles pourraient bien apporter la preuve de traces de vie sur l’une d’entre elles.

  • les rayons cosmiques les plus énergétiques ne proviennent pas de la Voie lactée, mais ont été propulsés depuis des galaxies situées à des dizaines, voire des centaines de millions d’années-lumière.

    Les rayons cosmiques sont des noyaux atomiques qui traversent notre Univers à une vitesse proche de celle de la lumière. Ceux de basse énergie proviennent du Soleil ou de notre galaxie, mais l’origine des particules les plus énergétiques restait débattue depuis leur découverte il y a un demi-siècle : sont-elles issues de la Voie lactée ou d’objets extragalactiques éloignés ?

    L’étude des directions d’arrivée de ces particules montre qu’à ces énergies, le flux de rayons cosmiques en provenance d’une zone du ciel pointant à 120 degrés du centre galactique est environ 6 % plus élevé que si le flux était parfaitement uniforme. Cette direction ne peut pas être associée à des sources potentielles dans le plan de la galaxie ou en son centre.

    Cette découverte indique clairement une origine extragalactique pour ces particules cosmiques, le motif observé dans le ciel ne pouvant être le fruit du hasard qu’avec une chance sur cinq millions. Cependant, cette étude ne permet pas encore de localiser précisément les sources. En effet, la région la plus brillante en rayons cosmiques s’étend sur une vaste portion du ciel, où le nombre de galaxies est relativement élevé. De plus, le champ magnétique de la Voie lactée dévie les trajectoires de ces particules chargées et brouille les pistes.

  • Pour la première fois, des scientifiques ont pu observer la fusion de deux étoiles à neutrons. Un véritable “feu d’artifice” dont l’observation a débutée par la détection d’ondes gravitationnelles.

    “Ce qui est merveilleux c’est que l’on a vu toute l’histoire se dérouler : on a vu les étoiles à neutrons se rapprocher, tourner de plus en vite l’une autour de l’autre, on a vu la collision, puis la matière, les débris envoyés partout”, a expliqué Benoît Mours, directeur de recherche CNRS.

    Cette observation inédite apporte des réponses à plusieurs “mystères” scientifiques. Non seulement les chercheurs en savent davantage sur la fusion violente des étoiles à neutrons, un phénomène encore jamais observé, mais ils ont résolu la question de l’origine de l’or sur Terre et ont pu calculer la vitesse de l’expansion de l’univers.

    Jusqu’à aujourd’hui, l’Univers nous avait caché son mode de fabrication des éléments lourds qui le composent, tel que l’or ou le plomb. Selon la théorie communément admise, après le Big Bang, il y a 14 milliards d’années, l’univers était rempli d’un gaz uniforme composé d’éléments légers comme l’hydrogène et l’hélium créés par cette gigantesque explosion.

  • Les 39 galaxies révélées dans une étude publiée le 8 août 2019 dans Nature ont toutes un point commun : elles sont « noires », c’est-à-dire invisibles aux yeux du télescope spatial Hubble. De par leur nombre et leur âge, ces galaxies remettent en question des a priori sur la formation et l’évolution de l’Univers. Selon David Elbaz, astronome au laboratoire AIM, les « galaxies détectées constituent probablement la première population de galaxies elliptiques massives formées dans l’Univers jeune » (soit la période entre quelques centaines de millions d’années et deux milliards d’années après le Big Bang). Mais ces galaxies sont trop nombreuses : elles seraient en effet dix fois plus nombreuses que les galaxies observables par le télescope Hubble. En outre, elles donnent à leur tour naissance à jusqu’à 100 fois plus d’étoiles que les galaxies visibles.

    C’est ici que cette découverte surprend les experts : en moins d’un milliard d’années, l’Univers serait parvenu à créer des galaxies au moins aussi massives que la nôtre, et en grand nombre. Jusqu’à récemment, l’existence des galaxies noires relevait davantage de l’hypothèse. Désormais, elles pourraient constituer un élément central dans la compréhension de la formation de l’Univers. Cela dit, les modèles actuels ne permettent pas d’expliquer une formation aussi rapide, et dans une telle quantité, de galaxies massives.

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.