UN GRAAL INCERTAIN : LE FOND DU CIEL - France Catholique
Edit Template
Marie dans le plan de Dieu
Edit Template

UN GRAAL INCERTAIN :
LE FOND DU CIEL

Copier le lien
big_bang.jpg
En novembre 1989, les Américains lançaient un satellite dont on ne parla guère dans la presse, l’Explorateur du fond du ciel, ou Cosmic Background Explorer (Cobe). Il embarquait des appareils très sensibles pour mesurer les températures les plus lointaines, ou plutôt le résidu actuel des températures les plus anciennes. Pour profiter de la révolution annuelle de la terre et avoir ainsi des visées dans toutes les directions du ciel, il fut mis sur orbite polaire1. Quelques mois plus tard Cobe avait envoyé assez de mesures pour donner une idée très suffisante, croyait-on, de ce fond du ciel. En tout cas assez de mesures pour vérifier la théorie admise par les concepteurs de l’engin et par l’establishment de l’astrophysique : sur les confins de l’univers, on devait trouver de très légères variations locales du rayonnement cosmologique, l’un des deux ou trois fondements expérimentaux de la Relativité Générale, avec sa plus spectaculaire prédiction, le Big Bang. Seules ces petites variations locales pouvaient expliquer la suite des événements, c’est-à-dire la formation des galaxies, puis des étoiles dans ces galaxies et autres détails, dont les planètes autour d’au moins quelques étoiles2, et nous sur l’une de ces planètes. L’enjeu était donc de taille. Les astronomes furent donc très embarrassés par les premiers renseignements reçus : le fond du ciel paraissait aussi lisse qu’ « un fond de casserole flambant neuf ». Pour comprendre cette déception, il faut suivre la double voie du raisonnement, l’une théorique et l’autre expérimentale, conduisant à prédire le Big Bang. La théorie, due à Einstein, quoique difficile à comprendre (vers les années 20 on se plaisait à dire qu’elle n’était comprise que par une poignée de hardis calculateurs), est une magnifique élaboration mathématique passée depuis mille et mille fois au peigne fin par les plus critiques et les plus ingénieux artistes de l’équation. On lui a trouvé plusieurs interprétations également plausibles, mais aucune erreur. Dès sa forme initiale, vers 1916/17, elle prévoyait un phénomène colossal et alors invérifiable, l’expansion de l’univers : de quelque façon qu’on la tourne, elle excluait à jamais l’antique image d’un univers stable, sans évolution, éternel. Einstein, qui le premier tomba sur ce résultat stupéfiant, refusa d’abord d’y croire et, pour y échapper, introduisit dans ses calculs une petite correction que rien ne justifiait, « la plus grande erreur de ma vie », devait-il confesser3 Tout le monde n’accepta pas la petite correction et notamment pas l’abbé Lemaître, fameux théoricien belge, que l’on soupçonna aussitôt d’arrière-pensées théologiques : drame, si l’univers n’est pas éternel, on voit percer une certaine petite idée insupportable, n’est-ce pas ?4 Tandis que les théoriciens se disputaient, un astronome américain du nom de Hubble, à l’origine simple amateur passionné de photographie céleste, entreprenait de photographier les objets les plus lointains décelables sur ses plaques, c’est-à-dire les autres galaxies. Il avait trouvé un « truc » très simple pour mesurer les distances : certaines étoiles, appelées « céphéides », ont un éclat qui varie périodiquement, et la période, de quelques mois, est fonction de leur grosseur. Donc deux céphéides de même période sont de même grosseur, et si leur éclat absolu n’est, pas le même, c’est que la plus faible est la plus éloignée : il suffit de mesurer la période et l’éclat pour obtenir la distance5. Hubble classa donc les céphéides (donc leur galaxie) en fonction des distances et fit la découverte du siècle : plus une galaxie est éloignée et plus son spectre est dévié vers le rouge. C’est le redshift, glissement vers le rouge. Or il n’y a qu’une explication à ce glissement : c’est le mouvement d’éloignement. Plus un objet céleste montre un spectre dévié vers le rouge et plus vite il s’éloigne. Plus il est loin, plus vite il s’éloigne. Sans se soucier des théories (il n’était d’ailleurs pas mathématicien), Hubble découvrait dans les faits l’expansion de l’univers. La Relativité Générale, découverte avec scepticisme par Einstein, était donc vérifiée. Le Big Bang originel s’imposait cette fois non plus par le calcul, mais par l’observation. Mais naturellement, de ce Big Bang originel si ancien, on ne pouvait alors déceler aucune trace. (Ici une parenthèse d’une part, il y eut toujours quelques astronomes et physiciens éminents pour mettre en doute l’interprétation relativiste du redshift, donc le Big Bang : en France par exemple, Jean- Pierre Vigier, de l’Institut Henri Poincaré, et Jean-Claude Pecker, qui dirigeait il y a quelques années encore l’Institut d’Astrophysique de Paris6. D’autre part, en fouillant bien la Relativité Générale, le théoricien américain George Gamow montrait par le calcul que si Big Bang il y avait eu, on devrait encore maintenant en percevoir un écho lumineux à très basse température, environ 3 degrés Kelvin. Gamow précisait que ce rayonnement, appelé depuis « cosmologique », devrait être perçu dans toutes les directions du ciel. La prédiction de Gamow passa inaperçue et personne n’essaya sérieusement de la vérifier. Quelques années plus tard, deux ingénieurs de la Bell Telephone qui travaillaient à éliminer certains parasites de leurs appareils découvraient par hasard le rayonnement de Gamow. On le mesura : 2,7 degrés Kelvin ! autre vérification stupéfiante de la Relativité Générale7. On comprend qu’après d’aussi bonnes vérifications la Relativité et le Big Bang soient devenus la théorie orthodoxe de l’évolution de l’univers. C’est dans cet esprit que depuis un demi-siècle, s’est développée une nouvelle science, la cosmologie, décrivant l’évolution de l’univers depuis son origine jusqu’à nous. Tout y est admirablement conforme à l’observation. Et tout invite à prévoir des découvertes futures conformes avec ce cadre. En particulier, pour expliquer que l’univers infiniment homogène du début se diversifie rapidement en enfantant les spirales de poussière, de gaz et d’étoiles appelées galaxies, on est amené à prévoir qu’aussitôt après le Big Bang le fond du ciel a dû offrir le spectacle d’une diversité générale, quoique de très faible importance. Les astronomes qui ont mis au point Cobe savaient donc d’avance que le fond du ciel peu après le Big Bang devait être très hétérogène. Voilà où l’on en était en novembre 1989 : il ne s’agissait que de vérifier et de mesurer cette hétérogénéité. Quelques mois plus tard, comme je l’ai dit, Cobe étalait un premier tableau. Il était en complète contradiction avec les prévisions : pas d’hétérogénéité. Discrète perplexité du monde savant. Dans de tels cas, il est urgent d’attendre et de laisser dire les imprudents. Il y en a toujours et notamment les marginaux désireux d’imiter leurs plus glorieux aînés qui presque toujours furent d’abord aussi des marginaux. Ainsi entendit-on dire qu’il fallait revoir la théorie classique, et notamment abandonner l’édifice géométrique de la Relativité Généralisée pour chercher plutôt du côté de la théorie quantique, autre glorieuse prouesse du siècle8. Sans risquer rien, on pouvait même rappeler que les vérifications expérimentales de la Relativité Générale, quoiqu’impressionnantes, restaient peu nombreuses : le redshift, le rayonnement cosmologique, la rectification du périhélie de Mercure, et quelques faits discutés comme les mirages gravitationnels. Et que cette théorie laissait sans réponse d’autres problèmes fondamentaux comme la masse « cachée » de l’univers (90% !)9 ou la valeur des constantes universelles10. Bientôt le problème parut s’obscurcir encore quand d’autres astronomes, à partir d’appareils basés au sol, publièrent des observations un peu moins lointaines (c’est-à-dire anciennes) que celle de Cobe et où, selon eux, on pouvait déjà supposer l’existence d’amas énormes de galaxies, comme si l’univers n’avait guère changé, et peut-être pas du tout, depuis les supposées origines. Alors ? plus de Big Bang ? Mais Cobe continuait à produire des mesures, 300 millions en avril 1992. Et il sembla alors que le fond du ciel, après tout, n’était pas aussi lisse qu’on l’avait craint. Les journaux ont publié les derniers résultats et sans doute nos lecteurs ont-ils eu l’occasion de voir le curieux et plutôt monotone tableau reconstitué par ordinateur à partir des nombres enregistrés. En réalité, ce tableau peu varié est énormément amplifié. Les variations réelles de la température cosmologique ne dépassent pas quelques fractions de millionième de degrés Kelvin. Est-ce, comme l’a dit Michael Turner, le « Graal de la Cosmologie » ? Graal ? C’est à voir. Des valeurs si infimes ne convainquent pas tout le monde. On pourrait tout aussi bien dire : le fond du ciel est lisse à d’imperceptibles irrégularités près éventuellement explicables par l’expérience même ou par l’espace et le temps intermédiaires(11)(11) 11. Le scientifically literate intéressé par ces questions a, je crois, le droit de douter un peu. On ne saurait jouer un monument comme la Relativité Générale sur quelques fractions de millionième de degré, ni se satisfaire de cette « preuve ». S’il a mauvais esprit, le néophyte habitué à lire les publications scientifiques peut même se demander s’il n’assiste pas à l’un de ces rares instants (comme le début de ce siècle) où les certitudes les plus assurées commencent à pâlir. L’histoire des sciences est faite de tels instants rares et précieux où l’on peut rêver. Graal peut-être, toujours cherché, parfois entrevu, jamais trouvé. Suivons avec attention sa quête à son moment le plus délicat12. Aimé MICHEL Chronique n° 496 parue dans France Catholique − N° 2356 − 22 mai 1992. Capture_d_e_cran_2014-11-10_a_12-28-10.png Notes de Jean-Pierre ROSPARS du 19 octobre 2020

 

  1. Lorsqu’elle fut montrée pour la première fois, en avril 1992, la carte du ciel obtenue par la mission américaine COBE fit sensation dans les milieux scientifiques concernés. Elle montrait la température actuelle du fond du ciel dans toutes les directions autour de la Terre et confirmait que cette température était de 2,7 kelvins, soit –270,4 °C. Surtout elle montrait de petites variations autour de cette température moyenne. Pour les raisons expliquées par Aimé Michel et actualisées dans les notes qui suivent, cette carte montre l’état de l’univers 300 000 ans environ après sa naissance, au moment où il devient, pour la première fois, transparent à la lumière, tandis que ses petites variations sont l’ébauche des futures galaxies… Mais avant d’en venir à ces interprétations, disons tout de suite que COBE n’a été qu’un début prometteur car on a vite jugé sa carte trop imprécise. Comme on l’a vu précédemment (voir note 3 de n° 133), la NASA lança en 2003 le satellite WMAP dont la précision des mesures était 30 fois supérieure, puis ce fut le tour de l’Europe en 2009 avec le télescope spatial Planck, avec une précision 1000 fois supérieure à celle de COBE. Saluons au passage l’excellence technologique et scientifique démontrée par l’Europe avec le programme Planck dont les deux concepteurs sont le radioastronome Nazzareno Mandalese de Bologne et le cosmologiste Jean-Loup Puget de l’université d’Orsay. Les Italiens mirent au point l’instrument de mesure des ondes radio basses fréquences (radiomètre) émises par les pulsars et supernovae, les Français, l’instrument de mesure des ondes hautes fréquences (bolomètre), seules capables de pénétrer les nuages de poussière interstellaire. L’assemblage de ces deux instruments au foyer du télescope s’avéra extrêmement difficile car le radiomètre fonctionnait à température ambiante et le bolomètre dans l’hélium liquide à seulement 1/100e de degré du zéro absolu. Par la suite, cinq cents scientifiques ont travaillé plusieurs années pour exploiter les données fournies par Planck et les publier entre 2013 et 2018 (http://www.astrosurf.com/luxorion/cosmos-cobe-wmap-planck2.htm). Au total, le programme Planck s’est étendu sur quinze ans.
  2. Cette note sur « les planètes autour d’au moins quelques étoiles » est fort prudente. C’était trois ans avant la première détection sûre d’une exoplanète à l’Observatoire de Haute-Provence par les Suisses Michel Mayor et Didier Queloz de l’université de Genève, lauréats du prix Nobel de physique en 2019. Aujourd’hui, on considère que presque toutes les étoiles ont des planètes. On estime qu’un quart des étoiles de notre galaxie, la Voie Lactée, ressemblent au Soleil (types G et K, voir note 1 de n° 485) et qu’une sur cinq de ces dernières auraient une planète rocheuse semblable à la Terre, soit une dizaine de milliards de planètes de la taille de la Terre situées à une distance de leur étoile où l’eau est liquide. Michel Mayor dit même que « Si l’on prend en compte toutes les exoplanètes qui sont encore indétectables pour des raisons techniques, on s’aperçoit que toutes les étoiles possèdent peut-être des planètes ! » Là où les choses se compliquent, c’est que les systèmes planétaires ainsi découverts ne ressemblent pas au nôtre avec son sage ordonnancement de planètes telluriques serrées près du Soleil et de géantes gazeuses au-delà, toutes sur des orbites presque circulaires. Notre système est-il d’un type rare voire unique ? Les recherches en cours (avec, par exemple, le satellite européen Cheops lancé de Kourou en décembre 2019) vont tenter de le déterminer…
  3. Einstein est très étonné lorsqu’il découvre en 1915 les équations de la relativité générale et qu’il les applique à l’univers entier, ouvrant ainsi l’ère de la cosmologie scientifique. En effet, ses équations impliquent que les galaxies ne peuvent pas être immobiles, elles ne peuvent que s’éloigner ou s’approcher les unes des autres, de même qu’une pierre en l’air ne peut être qu’en ascension ou en chute. Dans sa théorie, comme on le sait, les galaxies ne se déplacent pas dans l’espace, c’est l’espace lui-même qui se dilate comme s’il était une matière élastique. Seulement, Einstein pense que l’univers ne peut pas changer, qu’il existe inchangé depuis l’éternité. Aussi ajoute-t-il, comme les mathématiques l’autorisent, une constante à ses équations qui correspond à une force égale et opposée à l’attraction gravitationnelle entre les galaxies. Cette « constante cosmologique » assure l’état statique de l’univers qu’il attend. En fait, on s’est aperçu par la suite que cette solution était instable et que la moindre perturbation aurait conduit l’univers à se contracter, comme un crayon en équilibre sur sa pointe ne peut que tomber à la moindre perturbation. C’est pourquoi cette version initiale de la constante cosmologique est abandonnée depuis longtemps. Ce qui n’a pas empêché son retour en force il y a quelques années sous une autre forme (j’y reviens en note 12). Comme quoi, en sciences comme ailleurs, l’erreur d’hier est parfois vérité de demain !
  4. Deux théoriciens, Alexandre Friedmann et Georges Lemaître ont découvert indépendamment que l’expansion de l’Univers est une conséquence naturelle des équations de la relativité générale d’Einstein. Comme souvent cette grande découverte a mis du temps à s’imposer et sa paternité plus encore (le processus étant encore en cours). Ce chapitre inachevé de l’histoire des sciences mérite réflexion. Alexandre Friedmann, né en 1888, professeur de physique et de mathématiques à l’université de Petrograd (Saint-Pétersbourg) est le premier à publier une théorie de l’expansion dans la prestigieuse revue allemande Zeitschrift für Physik en 1922. Einstein, sans doute influencé par son préjugé favorable à un univers statique, en fait la critique dans une note publiée dans la même revue en signalant que Friedmann a fait une erreur de calcul, mais, dans une seconde note, il la rétracte en ces termes : « Dans une note antérieure j’ai critiqué le travail susmentionné. Mais – comme je m’en suis convaincu à l’instigation de M. Krutkoff et grâce à une lettre de M. Friedmann – mon objection était fondée sur une erreur de calcul. Je tiens les résultats de M. Friedmann pour justes et éclairants. Ils montrent que les équations du champ admettent pour la structure de l’espace à symétrie centrale, en plus des solutions statiques, des solutions dynamiques (c’est-à-dire variant avec la coordonnée de temps). » Même Einstein fait des erreurs de calcul mais il a l’humilité de le reconnaitre ! Malgré tout, il ne surmontera jamais sa réticence à l’égard de ces solutions et ne fera pas lui-même de recherches dans cette direction. Quant à Friedmann, il mourra prématurément en 1925 de la fièvre typhoïde, échappant probablement ainsi aux persécutions staliniennes que lui auraient valu sa réputation de physicien « créationniste ». George Lemaître, né à Charleroi en 1894, fait ses études à l’université catholique de Louvain, puis à Cambridge avec l’astrophysicien anglais Arthur Eddington en 1923, année où il publie son premier article scientifique et où il est ordonné prêtre. Il soutient sa thèse au MIT en 1926 sur un problème de relativité générale. En 1927, il publie dans les Annales de la Société scientifique de Bruxelles un article intitulé « Un univers homogène de masse constante et de rayon croissant rendant compte de la vitesse radiale des nébuleuses extragalactiques » où il montre que l’Univers est en expansion et établit deux ans avant Hubble la loi linéaire qui lie la vitesse des galaxies (connue par leurs décalages vers le rouge) à leur distance. Comme Hubble, il trouve une valeur de la constante de proportionnalité dix fois trop grande (environ 600 km/s/mégaparsec) car tous deux se fondent sur les mêmes mesures de décalage fournies par l’astronome américain Vesto Slipher. En 1931, Eddington publie une traduction en anglais de l’article de 1927, ce qui rend Lemaître célèbre. Sauf que la traduction omet les paragraphes correspondant à la « constante de Hubble », ceci à la demande de Lemaître, qui, modeste, estime qu’il n’y a pas lieu de répéter l’article de Hubble de 1929 ! Joseph Silk, spécialiste anglais du fond cosmologique, aujourd’hui professeur à Paris, qui raconte cette anecdote, ajoute : « Hubble était un drôle d’individu. Dans son article de 1929, il ne citait ni Slipher, à qui il avait emprunté des données, ni Friedmann ni Lemaître (…). L’arrogance n’est pas rare chez les scientifiques » (Le futur du cosmos, trad. N. Witkowski, Odile Jacob, Paris, 2015, p. 97). Ce coup de patte est révélateur d’un changement d’état d’esprit chez les professionnels vis-à-vis de ces trois pionniers ; toutefois, bien que Hubble soit effectivement inexcusable de n’avoir pas cité Slipher, on peut lui trouver des excuses pour Friedmann et Lemaître si, comme il semble, en bon Américain, il ne lisait ni l’allemand ni le français. D’ailleurs, Lemaître non plus ne cite pas Friedmann dans son article de 1927 car il ne lit pas l’allemand, c’est Einstein qui lui signale le travail de ce dernier. Quoi qu’il en soit, je laisserai le mot de la fin au physicien Jean-Pierre Luminet : « L’anonymat quasi complet de Friedmann et Lemaître auprès du grand public est une chose. La sous-estimation de leur contribution scientifique dans la communauté des physiciens, voire même dans celle des astrophysiciens et des cosmologistes, en est une autre, très surprenante si l’on songe que les concepts qu’ils ont promulgués resteront l’un des accomplissements les plus remarquables de la science du XXe siècle. (…) Friedmann et Lemaître ne sont pas anglo-saxons, ce qui constitue aujourd’hui un handicap sérieux pour accéder à la reconnaissance scientifique internationale, qu’elle soit anthume ou posthume. (…) Friedmann est mort prématurément (…). Quant à Lemaître, (…) sa spécialité de mathématicien et son engagement religieux ont sans doute cristallisé les résistances naturelles qui accompagnent l’instauration d’une nouvelle vision du monde. La situation change progressivement. Friedmann et Lemaître sont de plus en plus reconnus comme des novateurs s’inscrivant dans la lignée des Ptolémée, Copernic, Kepler, Galilée, Newton et Einstein. (…). Les contributions respectives des hommes de science ayant participé à l’élaboration du nouveau paradigme cosmologique se clarifient enfin : Einstein a créé la théorie de la relativité générale et écrit les équations gouvernant les propriétés physico-géométriques de l’univers ; Friedmann a découvert les solutions non statiques de ces équations, décrivant la variation temporelle de l’espace, et entrevu son possible commencement dans une singularité ; Lemaître a relié l’expansion théorique de l’espace au mouvement observé des galaxies, et jeté les bases physiques du Big Bang ; Hubble, enfin, a démontré la nature extragalactique des nébuleuses spirales, et confirmé expérimentalement la loi de proportionnalité entre leur vitesse de récession et leur distance. » (Extraits de l’introduction de l’ouvrage A. Friedmann, G. Lemaître : Essais de Cosmologie, traduction et notes de J.-P. Luminet et A. Grib, Le Seuil, Paris, 1997 ; https://luth2.obspm.fr/ luminet/Books/FL.html#ffn74)
  5. La première monographie sur les céphéides est due à un astronome de l’observatoire de Lyon en 1897. Puis en 1908 et 1912, à l’université Harvard, Henrietta Leavitt, peut-être la première femme astronome mais (ceci expliquant sans doute cela) peu reconnue de son vivant, découvre que la période des céphéides des nuages de Magellan (deux galaxies naines proche de la Voie lactée) dépend de leur luminosité. En 1913, le Danois Ejnar Hertzprung mesure directement par leur parallaxe la distance de plusieurs céphéides de notre galaxie. Tous les éléments sont alors en place pour déterminer la distance des galaxies grâce aux céphéides qu’elles contiennent, à condition qu’elles soient suffisamment proches pour qu’on puisse distinguer leurs céphéides (jusqu’à 80 millions d’années-lumière avec le télescope spatial Hubble). À la fin du siècle dernier, une méthode similaire mais utilisable à bien plus grande distance (jusqu’à une dizaine de milliards d’années-lumière) est découverte. Elle est fondée sur les supernovae de type Ia. Ce sont des étoiles de la masse du Soleil mais de la taille d’une planète qui implosent en fin de vie en émettant une énorme quantité de lumière, toujours la même. La mesure de leur éclat permet donc de connaitre leur distance. Le problème est que les supernovae sont brèves et rares – en moyenne une par siècle dans notre galaxie (voir note 2 de n° 485). Il faut donc observer beaucoup de galaxies pour en voir. En 1980, deux équipes concurrentes, l’une à Berkeley, l’autre à l’université Harvard, se sont lancées dans la course aux supernovae. En 1990, leurs résultats étaient divergents à cause de l’imprécision des mesures. Puis on trouva le moyen d’améliorer la précision des distances obtenues. Dès lors, quand une supernova apparaissait quelque part dans le ciel profond tous les observatoires du monde étaient immédiatement informés. Les résultats s’accumulèrent et conduisirent en 1998 à une découverte majeure et inattendue… Mais n’anticipons pas, car il faut expliquer deux ou trois petites choses avant d’arriver à cette fameuse découverte qui est l’objet de la note 12.
  6. Il a été plusieurs fois questions du physicien Jean-Pierre Vigier (1920-2004) et de l’astrophysicien Jean-Claude Pecker (1923-2020) dans ces chroniques, notamment dans les n° 133 et 319 à propos de leur théorie de la « lumière fatiguée ». A. Michel devait les connaitre personnellement pour des raisons professionnelles. L’un et l’autre s’opposaient au Big Bang en raison de leur athéisme militant (voir leurs biographies dans Wikipédia). Azar Khalatbari rapporte que dans une interview publiée par la revue Ciel et Espace en décembre 1995, J.-C. Pecker déclarait : « Je suis athée et lorsque en 1951, le pape a vu dans le Big Bang, le fiat lux des origines, j’ai mal supporté que tout le monde scientifique abondât dans ce sens », au point que selon une collègue « il continua à garder son idée même lorsque les preuves observationnelles du Big Bang ont été fournies. » (https://www.sciencesetavenir.fr/espace/astrophysique/jean-claude-pecker-un-humaniste-a-l-esprit-libre_141942). Cette remarque révèle les difficultés à échapper à l’attrait (ou à la répulsion) du concordisme entre science et religion. Lemaître, dès les années 30, s’était éloigné du concordisme et avait fait connaître son désaccord à Pie XII qui en aurait tenu compte. (Sur le concordisme, voir par exemple la chronique n° 355).
  7. En 1964, deux astronomes américains, Arno Penzias et Robert Wilson, souhaitent cartographier la Voie lactée à l’aide d’un vieux radiotélescope qui avait été utilisé pour communiquer avec les satellites Echo et Telstar. Comme ils sont gênés par des parasites, ils cherchent patiemment leur origine, d’abord dans leur instrument (ils soupçonnent un moment un nid de pigeon !) puis ailleurs, successivement sur Terre dans le système solaire et la Galaxie, avant de se convaincre que le rayonnement qu’ils détectent provient de toutes les directions du ciel. Sa longueur d’onde est de l’ordre du millimètre. En en parlant autour d’eux ils apprennent la prédiction de Gamow qu’ils ignoraient car elle était oubliée depuis longtemps. La mesure de l’intensité du rayonnement à diverses longueurs d’onde confirme qu’il correspond à l’émission d’un corps d’une température d’environ 3 kelvins. Cette découverte de la lumière résiduelle émise 370 000 ans après le Big Bang leur vaudra de recevoir le prix Nobel en 1978. Hubert Reeves dans ses Dernières nouvelles du cosmos (coll. Point S130, Seuil, Paris, p. 131) signale que ce rayonnement avait déjà été observé. Le Canadien Andrew McKellar avait constaté qu’un nuage interstellaire de cyanogène (une molécule formée d’un atome de carbone et d’un atome d’azote) émettait un rayonnement qui montrait que ses molécules baignaient dans un mystérieux rayonnement de photons à 3 kelvins. Puis, en 1955, le Français Émile Le Roux avait mesuré la température du fond du ciel à l’aide de radars et trouvé 3 kelvins en moyenne, mais lui non plus n’avait pas réalisé l’importance de sa découverte. Si Penzias et Wilson avaient été moins persévérants ou étaient restés ignorants des idées de Gamow, combien de temps aurait-il encore fallu pour que le fond diffus cosmologique soit découvert ?
  8. Le seul mécanisme connu capable d’engendrer des inhomogénéités dans l’univers naissant est fondé sur le caractère aléatoire de la physique quantique. Ces aléas créent des petites différences dans la densité de la matière. Or le plus petit amas avec davantage de masse que son entourage va exercer une force gravitationnelle supérieure à ses voisins et attirer de plus en plus d’atomes par un effet boule de neige. Ainsi s’explique-t-on l’origine de toutes les structures observables dans l’univers actuel, tels que les amas de galaxies, les galaxies, les étoiles et les planètes. D’où l’intérêt des fluctuations du fond cosmologique diffus qui reflètent les variations de densité de la matière au moment où ce rayonnement a été émis. Toutefois pour passer des fluctuations quantiques aux fluctuations de densité observées il faut faire appel à un mécanisme extraordinaire appelé inflation cosmique. Il s’agit d’une énorme expansion de l’espace avec une croissance en taille d’un facteur supérieur à plus de 1025 qui s’est produite 10–36 seconde après la naissance de l’univers et a duré moins de 10–30 seconde. Il s’agit d’une expansion presque instantanée, plus rapide que la vitesse de la lumière (mais ce n’est pas en contraction avec la relativité car c’est l’espace lui-même qui s’étend et non quelque chose dans l’espace). L’inflation permet d’expliquer à la fois la grande taille de l’univers et l’uniformité de sa température. Après elle, l’univers a continué de s’étendre, mais à un rythme bien plus lent. L’inflation, inventée indépendamment en 1980 par Alan Guth aux États-Unis et par Andreï Linde et Andreï Starobinsky en URSS, permet de résoudre bien des problèmes mais il y a un prix à payer : personne ne sait ce qui l’a provoquée ! J. Cham et D. Whiteson la qualifie de « mystère très profond » (Tout ce que nous ne savons pas encore, trad. P. Kaldy, Flammarion, Paris, 2018).
  9. Cette masse cachée de l’univers est appelée aujourd’hui « matière noire » (ou « sombre ») parce qu’elle n’émet aucun rayonnement électromagnétique (ni lumière, ni onde radio). Elle est donc invisible. On est malgré tout sûr de son existence pour trois raisons. Primo, cette matière invisible est le seul moyen qu’on a trouvé jusqu’ici pour rendre compte de la rotation des galaxies : certaines tournent tellement vite sur elles-mêmes qu’elles devraient éjecter leurs étoiles. Comme ce n’est pas le cas, une explication possible est qu’elles sont retenues par une énorme masse cachée qui les attire. Secundo, on a remarqué que certaines galaxies apparaissent en paires identiques. Cela peut s’expliquer si une grosse masse invisible se trouve entre une galaxie et nous, capable de courber la lumière qu’elle émet (d’où son nom de « lentille gravitationnelle »), puisqu’on sait que la gravité selon Einstein déforme l’espace et donc le trajet des rayons lumineux, faisant apparaitre deux images de celle-ci. Tertio, on peut observer des collisions entre deux amas de galaxies qui se sont produites il y a plusieurs millions d’années et même suivre, par leur action de lentille gravitationnelle, leurs deux amas de matière noire associés sur les galaxies situées derrière. On a alors constaté que ces deux amas passent l’un à travers l’autre sans se gêner, comme les étoiles (très espacées), à la différence des gaz et poussières de matière normale, qui s’entrechoquent et sont ainsi très ralentis. À l’heure actuelle on ne sait pas de quoi est faite cette matière sombre. Selon l’hypothèse la plus simple elle serait faite d’un nouveau type de particule interagissant très peu avec la matière normale qu’on a appelée pour cette raison WIMP (« Weakly Interactive Massive Particle » ; wimp signifie aussi mauviette en argot américain). On a essayé de la détecter de diverses façons mais jusqu’ici sans succès ; elle reste donc purement hypothétique. La matière noire ne doit pas être confondue avec « l’énergie noire » (ou « énergie sombre ») dont nous allons reparler plus bas en lien avec les supernovae de type Ia de la note 5. Mais ce qu’on peut dire tout de suite, sachant que masse m et énergie E sont liées par la fameuse relation E = mc2, c’est que la matière « normale », la seule que nous connaissons, celle qui forme notre corps, notre planète, le Soleil et toutes les autres étoiles, ne représente que 5 % du total de l’Univers, matière et énergie comprise. Le reste est formé de matière noire et d’énergie noire.
  10. Les constantes universelles (ou fondamentales) sont des grandeurs fixes qui apparaissent dans les équations de la physique mais ne sont données actuellement par aucune théorie et qu’il faut donc mesurer, comme par exemple c, la vitesse de la lumière dans le vide, et e, la charge de l’électron (voir n° 417 et note 2 de n° 487). Outre la question de savoir si tous ces nombres sont réellement constants depuis le tout début de l’univers, se pose la grande question de savoir s’ils sont arbitraires (le choix du hasard, d’un démiurge ou de Dieu) ou nécessaires, car calculables par une théorie du Tout encore à découvrir, comme nous l’avons déjà évoqué à propos du fantastique degré d’ordre de notre Univers à sa naissance (voir note 5 de n° 455). Actuellement, le « modèle standard des particules » qui décrit toutes les particules connues (ce qui exclut la gravité, la matière noire et l’énergie noire) nécessite 29 nombres dont douze pour la masse des quarks et des leptons, trois pour les forces électrofaibles et fortes, deux pour la théorie de Higgs, etc. Par contraste, il suffit de six nombres pour définir le « modèle standard de la cosmologie » (il s’appelle ΛCDM, lire lambda CDM, où Λ désigne la constante cosmologique, M la matière, froide ordinaire C ou sombre D). Ces six nombres sont : la contribution de la matière ordinaire à la masse-énergie de l’univers (5 %), la contribution de la matière noire (27 %), celle de l’énergie noire (68 %), deux indices relatifs aux fluctuations de la densité de matière dont il a été question en note 8 et un indice de transparence du milieu interstellaire primordial. « Grâce à ces 6 nombre, s’enthousiasme Joseph Silk, nous pouvons passer de la théorie de la gravitation d’Einstein à un modèle qui s’accorde presque parfaitement à tout ce que nous savons sur l’Univers. Bien sûr, moyennant quelques hypothèses, dont la plus notable est que l’Univers est homogène et isotrope (partout identique, et identique dans toutes les directions). Mais c’est un grand triomphe de la théorie que de faire “coller” autant de données dans un modèle aussi simple. Quand on songe qu’il y a des milliers de points de mesure indépendants des distributions de la matière et du rayonnement, et que 6 nombres suffisent ! » (op. cit., p. 111). J. Silk ajoute qu’il suffit de trois nombres supplémentaires pour rendre compte de l’existence des atomes lourds et de l’apparition de la vie : le nombre de dimensions de l’espace (3), la constante de structure fine électromagnétique (1/137) qui assure la stabilité des atomes, et enfin l’intensité de la force faible qui explique la légère différence de masse entre protons et neutrons et l’énergie de fusion thermonucléaire (source d’énergie du Soleil dont la lumière est nécessaire à la vie).
  11. A. Michel, on le voit, ne partage pas l’enthousiasme des promoteurs du satellite COBE, notamment de George Smoot, cet élève de Luis Alvarez (voir n° 453) qui réussit à convaincre la NASA de le réaliser. Il aurait pu s’inquiéter des nombreux traitements destinés à éliminer des mesures initiales les signaux parasites provenant de la Galaxie et au-delà (gaz et poussières interstellaires, rayons cosmiques, sources extragalactiques), mais c’est surtout la petitesse des variations de température qui justifie sa réserve : quelques fractions de millionième de degrés Kelvin seulement (il s’agit sans doute d’une sous-estimation puisque J. Silk indique « environ 30 parties par million (…) sur une échelle angulaire de plus de 7 degrés », op. cit., p. 25, soit environ 80 millionièmes de kelvin, très petit certes mais une centaine de fois plus grand que ce qu’indique A. Michel). En fait, le principal défaut de COBE est d’être myope car il ne peut voir que des fluctuations à très grande échelle, « très loin de l’échelle (quelques minutes d’arc) attendue pour les fluctuations précurseurs des amas de galaxies, les plus grands objets de l’univers ». Pour voir ces fluctuations à une meilleure résolution il faudra attendre WMAP et surtout Planck, qui confirmeront leur existence.
  12. Comme à son habitude, A. Michel invite ses lecteurs à ne pas adhérer sans retenue aux dernières théories en vogue car il ne doute pas que de nouvelles révolutions scientifiques, comme il s’en est produit au début du XXe siècle avec la relativité et les quanta, continueront de se produire à l’avenir. On peut trouver une confirmation de cette intuition avec les travaux visant à vérifier l’expansion de l’univers, même s’il ne s’agit pas d’une révolution de l’ampleur des deux précédentes. On a vu plus haut (note 5) comment en 1998 a été mise au point une méthode fondée sur les supernovae de type Ia permettant de mesurer la distance des galaxies les plus lointaines, presque jusqu’aux confins de l’univers visible. Les scientifiques lancés dans cette étude supposaient que l’expansion de l’univers devait soit ralentir si la gravité parvenait à freiner l’éloignement, soit rester à la même vitesse, conformément à la loi de Hubble dans le cas contraire où la gravité serait dépassée. En fait, ils s’attendaient à ce que la gravité l’emporte : les galaxies éloignées (ils parvinrent à en mesurer une cinquantaine) devaient donc se déplacer plus vite que les plus proches dans l’espace et le temps. C’est l’inverse qu’ils trouvèrent : la loi de Hubble s’applique à l’univers proche mais à grande distance la vitesse est plus petite que celle prévue. Ce qui signifie que l’expansion s’accélère ! Les mesures ont montré que l’expansion de l’univers s’est d’abord ralentie puis s’est mise à accélérer il y a cinq milliards d’années. La découverte de cette accélération a valu le prix Nobel de physique 2011 à Saul Perlmutter de Berkeley, ainsi qu’à Adam Riess et Brian Schmidt de Harvard. Riess fut le premier à comprendre que cette expansion accélérée était l’occasion de réintroduire la constante cosmologique d’Einstein, alors abandonnée depuis près de 70 ans en cosmologie orthodoxe. Par un bizarre retournement, cette constante, invoquée par Einstein pour expliquer un univers supposé statique, est maintenant utilisée pour expliquer son expansion ! La constante cosmologique correspond à une force répulsive qui s’oppose à la force attractive de la gravité. On lui a donné le nom d’énergie noire. On peut calculer combien il en faut pour que l’univers soit en expansion connaissant la quantité de matière attractive (matière ordinaire et masse noire) : on trouve qu’elle représente 68% de la masse-énergie totale de l’univers. Il existe deux autres manières de calculer cette proportion – les fluctuations du rayonnement cosmologique à 2,7 K ainsi que la configuration spatiale actuelle des galaxies et leur date d’apparition – toutes trois donnent le même résultat. Comme l’écrivent Cham et Whiteson (op. cit., p. 48) : « Le plus fascinant est sans doute que toutes ces méthodes se corroborent entre elles. Toutes révèlent que notre Univers est constitué d’une combinaison de matière classique, de matière noire et d’énergie noire dans les proportions respectives de 5 %, 27 % et 68 %. Même si nous ne connaissons pas exactement la nature de ces composantes “noire”, nous pouvons raisonnablement affirmer que nous savons combien il y en a. Nous n’avons aucune idée de ce qu’elles sont, mais elles sont bien là. Bienvenue dans l’ère de l’ignorance de précision ! ». Cette formule aurait certainement plu à Aimé Michel !