Il y a presque 100 ans, les scientifiques ont découvert que l'univers était en expansion. Au cours des décennies qui ont suivi, la précision des mesures, ainsi que les interprétations et les implications de cette découverte, ont donné lieu à de vifs débats. Nous savons aujourd'hui que l'univers est sorti d'un état extrêmement comprimé lors d'un événement connu sous le nom de Big Bang.
Crédits : ESA/Hubble & Nasa, F. Pacaud, D. Coe
Les mesures actuelles du taux d'expansion, connu sous le nom de constante de Hubble ou H₀ (prononcer H-zéro), se sont considérablement améliorées depuis ces premiers jours. Cependant, un nouveau débat secoue désormais la communauté astronomique : deux mesures indépendantes de H₀, qui devraient concorder, donnent des résultats différents. Cette situation est connue sous le nom de « tension H₀ », ou tension de Hubble.
De nombreuses conférences, articles de synthèse et articles de revues scientifiques ont été consacrés à cette question. Certains la qualifient de « crise de la cosmologie », exigeant un changement de paradigme dans notre compréhension de l' univers . L'expansion de l'univers est un aspect clé de son histoire depuis le Big Bang, elle sous-tend donc de nombreux autres éléments de notre compréhension.
D'autres voient dans la tension H₀ simplement le signe que les équipes de mesure ne comprennent pas pleinement leurs données et qu'avec de meilleures données, la « crise » sera résolue. Mais sa solution reste insaisissable.
Les deux méthodes de mesure au centre de ce débat sont « l'échelle de distance » et « le fond diffus cosmologique ». L'échelle de distance est la plus ancienne des deux et a été utilisée sous diverses formes depuis la première détection de l'expansion de l'univers.
Les premières preuves proviennent de mesures pionnières d'objets semblables à des nuages de faible luminosité, dont nous savons maintenant qu'ils sont des galaxies situées hors de la Voie lactée. L'astronome américain VM Slipher a mesuré les signatures chimiques de la lumière provenant de ces objets. En utilisant la technique de spectroscopie pour faire correspondre ces signatures à celles de molécules connues, il a découvert que leurs longueurs d'onde étaient étirées par rapport aux résultats standards de laboratoire.
Cet étirement des longueurs d'onde de la lumière provenant d'autres galaxies, appelé « décalage vers le rouge », est provoqué par l' effet Doppler . Ce phénomène est également responsable de l'augmentation du volume sonore d'une sirène lorsqu'un véhicule d'urgence approche, puis diminue lorsqu'il passe. Dans un article fondateur de 1917 , Slipher annonçait que presque toutes les galaxies qu'il avait observées s'éloignaient de la Voie lactée.
Les données de Slipher seront utilisées par Edwin Hubble dans sa célèbre étude de 1929 montrant que plus une galaxie est lointaine, plus elle s'éloigne rapidement et donc plus son décalage vers le rouge est important. Le rapport entre le décalage vers le rouge et la distance est la constante de Hubble.
L'expansion de l'univers avait déjà été anticipée par les théoriciens. Au début des années 1920, Alexander Friedmann et Georges Lemaître ont réalisé indépendamment que la théorie de la relativité générale récemment publiée par Albert Einstein pouvait prédire un univers en expansion, et que les conséquences de cette découverte seraient des décalages vers le rouge des galaxies augmentant avec la distance.
Échelle de distance
Les galaxies lointaines s'éloignent de nous en raison de l'expansion de l'Univers. Les mesures de la constante de Hubble reposent sur la détermination du lien entre la distance de ces objets et la vitesse à laquelle ils s'éloignent.
Pour cette raison, les unités de H₀ sont traditionnellement des « kilomètres par seconde par mégaparsec », faisant référence à la vitesse d'un objet à un mégaparsec (une unité de distance utilisée par les astronomes, équivalente à environ 3 millions d'années-lumière).
Les trois étapes de base utilisées par les astronomes pour calculer la vitesse d'expansion de l'univers, une valeur appelée constante de Hubble. Elles impliquent la construction d'une « échelle de distance » cosmique. NASA/EsaSA/A. Feild (STScI)
Tout comme Slipher l'a fait il y a un siècle, les vitesses de récession peuvent être facilement mesurées à l'aide de la spectroscopie. Cependant, les mesures précises de la distance aux galaxies sont notoirement difficiles, c'est là qu'intervient l'échelle de distance.
Le « barreau » le plus bas de l'échelle représente les objets dans le ciel qui sont suffisamment proches pour que nous puissions utiliser des méthodes directes pour mesurer la distance, comme la méthode de la parallaxe, où le mouvement de la Terre autour du Soleil crée des décalages périodiques dans la position angulaire des objets. Les échelons suivants représentent des mesures d'ensembles d'objets progressivement plus éloignés.
Il s'agit d'objets choisis pour lesquels il est facile de mesurer des distances relatives mais, comme une règle sans chiffres, leur distance absolue doit être calibrée. Cette fonction est assurée par les objets situés sur l'échelon le plus bas.
Les céphéides, étoiles brillantes et massives qui pulsaient, sont particulièrement utiles comme échelons en raison de la corrélation étroite entre leur période de pulsation et leur luminosité, découverte par Henrietta Swan Leavitt en 1908. L'échelon le plus éloigné est généralement formé par des supernovae de type 1a (explosions qui se produisent lorsque certaines étoiles atteignent la fin de leur vie), qui ont également fourni la preuve définitive que le taux d'expansion de l'univers augmente.
Micro-ondes cosmiques
L’autre méthode de mesure au cœur du débat est le rayonnement de fond diffus cosmologique (CMB). Il s’agit de la lumière émise lorsque l’Univers n’avait que quelques centaines de milliers d’années, bien avant la formation des étoiles et des planètes. Au lieu de cela, un plasma chaud remplissait tout l’espace, presque parfaitement uniforme, à l’exception des ondes sonores dont on pense qu’elles ont pour origine le Big Bang.
La physique de l'univers à cette époque est étonnamment simple, ce qui nous permet de faire des prédictions fiables sur les propriétés de ces ondes. Associés à des mesures de précision , nos modèles mathématiques nous indiquent quel était le taux d'expansion de l'univers à cette époque reculée. Grâce à un modèle de l'histoire de l'expansion ultérieure, nous pouvons faire une prédiction extrêmement précise de H₀.
Voyons maintenant ce que chaque méthode trouve pour H₀. La mesure de l'échelle de distance la plus précise provient de l'équipe scientifique SH0ES dirigée par le lauréat du prix Nobel Adam Riess. Leur dernière mesure donne H₀ = 73,2 km par seconde par mégaparsec. La mesure la plus précise du CMB, réalisée par l' équipe du satellite Planck de l'Agence spatiale européenne , est H₀ = 67,4 km par seconde par mégaparsec.
Même si ces deux mesures ne se différencient que de 10 %, la différence est énorme par rapport à la précision en pourcentage de chaque mesure. Elle est également supérieure au seuil statistique « 5 sigma » traditionnellement retenu par les scientifiques pour indiquer un événement qui n'est pas purement dû au hasard.
Alors, qu’est-ce qui pourrait être à l’origine de cette grande différence entre les deux mesures ? L’une des causes pourrait être que le modèle utilisé pour prédire H₀ à partir du CMB est erroné. Peut-être qu’un modèle alternatif pour l’univers permettrait de réconcilier la prédiction du CMB avec la mesure de l’échelle de distance. Les théoriciens ont beaucoup travaillé sur ce sujet au cours des dernières années.
Le principal obstacle est que l’évolution de l’univers est fortement limitée par une série de mesures robustes accumulées au fil des décennies. De plus, la mesure de H₀ par le CMB est corroborée par des mesures indépendantes de précision comparable utilisant des relevés de galaxies. La dernière mesure de ce type réalisée par la collaboration Dark Energy Spectroscopic Instrument (Desi) donne H₀ = 68,5 km par seconde par mégaparsec, avec une précision d’environ 1 % – en accord avec la valeur du CMB.
Devenir créatif
Les théoriciens ont donc dû faire preuve de créativité. Une hypothèse est que l'Univers primitif aurait traversé une phase soudaine d'expansion accélérée avant l'émission du CMB. Cela aurait entraîné la formation des premiers atomes plus tôt que prévu. L'idée est que la mesure "standard" de H₀ par le CMB aurait négligé cet effet et en aurait déduit que la constante de Hubble était plus petite qu'elle ne l'est en réalité.
Le défi pour des solutions de ce type est qu’elles doivent également prédire les autres modèles détaillés observés dans le CMB, qui ont été mesurés avec une précision exquise par le satellite Planck et d’autres télescopes.
D’ autres hypothèses ont été avancées, comme l’hypothèse selon laquelle les champs magnétiques auraient pu influencer la formation des premiers atomes, ou encore l’hypothèse selon laquelle la Terre se trouverait dans une partie atypique de l’univers qui se serait étendue de manière inhabituellement importante. Malheureusement, aucune des solutions proposées n’est à la fois convaincante et capable de prendre en compte toutes les données disponibles.
Une autre hypothèse, plus prosaïque, est que notre image physique de l'univers est correcte, mais qu'une ou plusieurs mesures ont négligé certains effets d'observation. Cela a alimenté une interrogation intense sur les mesures de SH0ES et de Planck, à la fois par la communauté astronomique et par les équipes elles-mêmes. Jusqu'à présent, aucune erreur n'a été découverte dans l'une ou l'autre des analyses.
La route à suivre
Alors, quelle est la voie à suivre ? Certaines techniques très prometteuses utilisant des échelons alternatifs dans l'échelle des distances sont récemment apparues comme compétitives par rapport à la mesure SH0ES.
Une équipe dirigée par Wendy Freedman, une pionnière américaine des études modernes sur H₀, a utilisé des étoiles particulières appartenant à une catégorie connue sous le nom de « pointe de la branche des géantes rouges » (TRGB) pour réaliser de nouveaux étalonnages des distances des supernovae. Cette méthode permet d'éviter les incertitudes inhérentes à l'utilisation des céphéides. Curieusement, elle donne H₀ = 69,8 — une constante entre Planck et SH0ES, bien qu'avec des incertitudes plus importantes.
De plus, l'équipe de Freedman a récemment découvert une différence entre les distances des galaxies impliquées par les étoiles TRGB et les Céphéides à l'aide du télescope spatial James Webb (JWST) . Si elle est corroborée par de futures analyses, cette différence placerait l'approche par échelle de distance sur une base beaucoup plus incertaine.
La qualité des mesures de H₀ s’améliorera inévitablement avec les nouvelles données du JWST, de nouveaux échantillons de supernovae et des techniques innovantes telles que l’utilisation des ondes gravitationnelles issues de la fusion de trous noirs. Mais il reste à voir si ces efforts permettront de résoudre la tension de Hubble ou de l’aggraver.
Pour l'instant, notre compréhension de l'Univers reste entachée par des divergences sur les mesures du taux d'expansion. Cent ans après sa conception, la constante de Hubble continue de nous dérouter.
Par Alex Hall, The Conversation
Fourni par The Conversation