Souvenir, que me veux-tu ? Quand je pense à mon enfance, le temps qui me sépare d’elle me semble vide d’énigmes. Tout cela s’est passé, point. La vision cartésienne d’une coordonnée linéaire mesurable par n’importe quel système périodique s’impose à moi comme une évidence. J’ai parcouru cette coordonnée en continu. Mais voilà que j’essaie de faire comprendre la profondeur du passé à ma petite-fille et que m’apparaît mon impuissance.
« Cent ans: quand mon papa était jeune comme untel ». Elle veut bien, « mais alors grand-père (car elle me voit tel que je suis), tu étais plus vieux que ton papa ? ».
Je change, j’essaie avec les murs de la vieille maison, avec l’église proche. Casse-tête… Non, le temps n’est pas un concept évident. « self-évident » comme disent les Anglais.
Tout en cherchant d’autres exemples, des idées qu’un enfant ne peut avoir me viennent à l’esprit.
« Un mois », cela nous paraît évident. En réalité personne n’a l’expérience de cette durée. Personne n’a jamais expérimenté dans sa conscience une durée ininterrompue d’un mois. L’écoulement du temps (ou ce que nous prenons pour un écoulement) est toujours interrompu par le sommeil mystérieux où, miséricordieusement, le temps s’abolit.
Être constamment dans le temps n’est pas dans la nature de l’homme
Le mal m’a parfois empêché de dormir pendant des jours et des nuits1. J’en ai retiré le sentiment que l’enfer est une veille jamais soulagée, que le Diable est celui qui ne dort pas. Je peux l’affirmer : le temps dont on ne peut se reposer ne fût-ce que quelques minutes n’est pas ce que vous appelez le temps. Il fait apparaître tôt ou tard dans la durée, et quel que soit votre « moral », une essence infiniment maléfique cachée par l’habitude et l’interruption périodique de la nuit. Je n’espère pas vous le faire entendre et souhaite que vous ne l’expérimentiez jamais. Je crois qu’être constamment dans le temps n’est pas dans la nature de l’homme et que le sommeil nous a été donné par la pitié du Créateur pour nous permettre de connaître le mal sans nous briser2.
Mais voici une autre expérience du temps. J’entendais l’autre soir un colloque d’historiens âgés de cinquante ans au moins, tous spécialistes de la dernière guerre. Ils en parlaient avec le calme et le consensus que donne la certitude d’avoir tout lu. J’aurais été bien en peine de les prendre à défaut. Leur conversation m’apprenait force détails que j’ignorais.
À un moment fut agitée la question de savoir si pendant l’été 40 tous les Français comme on l’a dit « étaient pétainistes », en quelques mots seulement, puis l’on passa à autre chose. Mais il avait suffi de cet instant pour que je me prenne à douter : de quoi parlaient ces jeunes gens ? Tout d’un coup leurs voix me parvenaient comme d’un théâtre. Ils étaient des ombres. Ils « connaissaient » parfaitement cette période mais était-ce celle que j’avais vécue ? Un mot me vint à l’esprit, l’un des plus profonds de la physique théorique, inventé je crois, par l’inépuisable J. A. Wheeler : contrafactualité. Selon Wheeler, nous vivons dans un monde frappé d’un interdit absolu : aucune expérience ne peut être faite deux fois (interprétation facile mais suffisante ici de l’idée de Wheeler). Pour être sûr que telle « loi » est une loi, il faudrait recommencer la même expérience, ce qui est par nature impossible, la deuxième expérience survenant dans un monde plus « vieux », aux conditions initiales changées. La contrafactualité est une exclusion absolument universelle3.
Par exemple le paléontologiste Stephen Jay Gould se plaît à ressasser sa chère image du temps géologique semblable à un film que l’on déroule et redéroule : à chaque fois, sans exception possible, le film de l’histoire terrestre – protozoaires, métazoaires… vertébrés… tétrapodes… etc., etc., et enfin l’homme, à chaque fois, répète Gould, tout se passe différemment. Car il suffit qu’un papillon se soit une seule fois posé sur une autre fleur pour que tout par la suite diverge de plus en plus, rayant à jamais du futur l’histoire d’où l’homme est sorti4. Naturellement c’est improuvable, puisque l’expérience contrafactuelle n’est pas de ce monde. Improuvable, mais requis par tout ce qu’on sait. « Le nez de Cléopâtre »…
Quelques physiciens – Sakharov en Russie, J. P. Petit en France – ont caressé de loin l’idée d’ « univers jumeaux »5. Profonde idée, mais toujours forcément développée dans ce que Marion appelle l’horizon cartésien6, la science ne pouvant écrire ses équations que dans le temps et l’espace, eussent-ils onze ou trente dimensions : toujours des « dimensions » avec un référentiel Zéro, et aucune place pour ce que Descartes appelait l’âme bien que la conscience ait fait sa rentrée avec la physique quantique7. S’il y a des univers « jumeaux » y suis-je aussi présent, écrivant cet article ? Amusant, mais la seule question suffit à montrer l’ubris d’une certaine physique d’ailleurs inévitable et nécessaire.
Les mesures opérées de l’espace sur « les premiers moments de l’univers » et dont on nous a montré la « photo » (en réalité une reconstruction informatique) appartiennent comme la spéculation ci-dessus à l’exploration des limites…
C’est l’univers « peu après le commencement des temps » nous dit-on. Formule impressionnante. Mais voire. Exploration des limites, c’est certain. Sans aucune théorie, sans aucune interprétation, il est certain que le décalage vers le rouge (redshift) est un fait expérimental. Plus un objet cosmique est loin dans l’espace, plus le spectre lumineux que nous en recevons glisse dans le sens violet rouge et au-delà vers l’infra-rouge de plus en plus « infra ». Et il est certain d’autre part que la vitesse de la lumière est une constante cosmologique. Si l’on découvrait le contraire (on l’a envisagé, mais sans parvenir jamais à imaginer un seul phénomène conforme à l’hypothèse), tout le monde serait bien ennuyé8. Le savant n’aime pas le mot « impossible ». Cependant on sait que certaines choses sont impossibles, parce que leur impossibilité est incluse dans leur définition et que l’imprévu ne peut donc être attendu de nulle part.
Par exemple, il est impossible à un ordinateur de calculer la racine carrée de 2, autrement dit de définir numériquement dans le plan l’intersection des diagonales d’un carré9. Si vous donnez à votre ordinateur le programme du calcul et si vous appuyez sur la commande start il ne s’arrêtera jamais, puisque le nombre des décimales est infini. On peut ajouter au programme de √2 un autre programme provoquant l’arrêt de la machine sous telle condition : tel nombre de décimales, telle date, le passage de telle étoile à telle situation, voire la fatigue du chercheur, mais le stop ne peut en aucune façon se trouver dans le programme de √2. Turing et von Neuman ont attaché leur nom, voici un demi-siècle, aux conséquences de ces faits. Mais von Neuman a en outre remarqué que tout processus de mesure quantique impliquait par nature l’adjonction du programme supplémentaire stop. Cela va loin. Le stop résulte de l’intrusion d’un observateur qui décide. L’« âme » de Descartes ? Du point de vue mathématique, c’est bien cela. Mais alors comment les événements quantiques qui tous supposent le stop du programme supplémentaire peuvent-ils survenir dans l’univers ? Pourquoi se passe-t-il quelque chose ? Qu’est-ce qui a tissé tous les milliards d’années où l’homme n’était pas ?
L’univers a commencé sans l’homme et finira sans lui, dit Claude Levi-Strauss avec ce majestueux pessimisme dont il a le secret. Sans doute, mais physiquement cela ne marche pas.
Quand la Physique dira-t-elle son dernier mot ?
Dans l’exploration des redshifts très décalés, donc supposés primitifs, tout proches du Big Bang, on retrouve ces mêmes problèmes de limites où la logique met la clé sous la porte. Il y a d’abord, dit la théorie, un « l’on ne sait pas quoi » qui échappe à la logique et que de notre point de vue d’invités tardifs nous situons dans le « temps de Planck » et l’ « espace de Planck ». On arrive à ce « l’on ne sait quoi » par la Relativité, on y arrive aussi par les Quanta, enfin on y arrive par la simple considération du décalage vers le rouge.
On peut toujours décaler davantage, mais on ne peut théoriquement jamais atteindre une certaine limite (comme la flèche de Zénon). Cependant cette limite est celle d’où nous sommes sortis. Elle est, d’une façon qui n’appartient ni à la Relativité ni aux Quanta, qui nous y conduisent. Plus on approche expérimentalement de la limite et plus la glace qui nous porte est fine !10 La théorie prévoyait que, juste après l’indicible, le fond du ciel devait ne pas être homogène. Consternation ! Il l’était. Alors on a affiné les mesures, de plus en plus. Et après deux ans, l’hétérogénéité annoncée a commencé d’apparaître, mais à moins du cent millionième de l’unité de mesure. « Je suis soulagé » dit Hubert Reeves. « Formidable ! c’est l’expérience du siècle ! » s’écrie Hawking dont la théorie des trous noirs est tout entière tirée de la Relativité Générale. « Le Graal » dit un autre (voir mon-précédent article)11. Oui, oui. Mais la théorie avait prévu que l’hétérogénéité du fond du ciel apparaîtrait dès le troisième mois des mesures. Il a fallu gratter deux ans, jusqu’à la huitième décimale. Est-ce sans importance ? Cela a-t-il au contraire un sens qui pointe vers une porte inconnue ? Aux dernières pages de sa Brève Histoire du Temps, Hawking accumule avec malice les nombreuses prophéties du passé annonçant la fin prochaine de la science pour cause d’achèvement. Après coup on en rit. Descartes lui-même, instigateur avec sa Géométrie de·presque toutes les révolutions survenues depuis, déclare que la physique n’aura plus rien à chercher dans une génération, et, se détournant de cette perspective sans attrait, décide qu’il se consacrera désormais à la médecine. Pendant ce temps le jeune Newton…
Eh oui. Hawking rappelle tout cela, comme on sait. Sur quoi il ajoute que malgré ces erreurs du passé il croit bel et bien que cette fois on peut le dire : la physique est sur le point de dire son dernier mot12.
Rémy Chauvin pense plutôt que « Quand, en sciences, le consensus commence à déclarer une chose impossible, c’est généralement le signal qu’elle va se produire ». Le signal cependant peut longtemps demeurer occulté. Remember Young, Boucher de Perthes, Jenner, Galois, Semmelweis, Cantor… tant d’autres.
Aimé MICHEL
Chronique n° 497 parue dans France Catholique − N° 2359 − 12 juin 1992.
Notes de Jean-Pierre ROSPARS du 2 novembre 2020
- Aimé Michel a été atteint par la poliomyélite à l’âge de cinq ans : « Immobilisé dans mon lit, paralysé des pieds jusqu’au cou, j’ai vu se dérouler en pleine lumière devant moi et en moi la longue, l’interminable fantasmagorie de l’enfance. » (Voir n° 378, Je vous salue Marie : le miracle secret, et n° 444, O toi qui sais). C’est sans doute à cette longue maladie qu’il doit son exceptionnelle sensibilité à la souffrance et au caractère tragique de la vie, paradoxalement liée au sentiment que c’est un privilège d’avoir été appelé à l’existence, et sans doute aussi sa vision cosmique du monde, vision qui l’habitait de manière presque palpable.
- S’étonner des choses banales et mettre en valeur leurs aspects inattendus était une des aptitudes les plus remarquables d’A. Michel. On en a un exemple ici avec l’idée que « personne n’a jamais expérimenté dans sa conscience une durée ininterrompue d’un mois ». Idée simple, juste cachée par l’illusoire évidence que nous savons bien ce qu’est cette durée.
- Il a été question de la contre-factualité de Wheeler dans les chroniques n° 446, 458 et 459. Nous en avons récemment parlé à propos de l’ouvrage de Pierre Vendryès, De la probabilité en histoire. L’exemple de la campagne d’Égypte, en marge de la chronique n° 495. C’est une propriété tellement « évidente » du monde où nous sommes que nous ne la voyons plus. Pourtant elle a une importance considérable en science car elle sépare les évènements en deux catégories : ceux qu’on peut assigner à une classe d’évènements que l’on tiendra pour équivalents, qui sont étudiables scientifiquement, et les autres, uniques, qui ne le sont pas. C’est assez naturel en physique, par exemple la loi de la chute des corps peut être établie autant de fois que l’on voudra, bien que chaque expérience soit effectuée en des temps et par des personnes différentes. Si ces conditions d’équivalence sont respectées, l’évènement est tenu pour reproductible. Même des évènements extrêmement rares comme les supernovae de type Ia (de l’ordre d’une par siècle dans une galaxie comme la nôtre ayant 100 ou 200 milliards d’étoiles ; voir note 5 de n° 496) peuvent être rendus reproductibles dès lors qu’on peut observer suffisamment de galaxies. Au contraire, la plupart des évènements de nos vies et de l’histoire n’ont lieu qu’une fois, même si nous pouvons dans certaines limites tenter d’en extraire des aspects reproductibles et accroitre ainsi notre expérience personnelle ou historique. Il n’en reste pas moins qu’en toute rigueur tous les évènements ne se produisent qu’une fois et que nombre d’entre eux n’ont pas d’équivalents si bien qu’ils échappent à la science expérimentale. Par exemple, l’émergence de la vie sur Terre pourrait être un évènement de ce genre.
- La fameuse comparaison de Stephen J. Gould est résumée par A. Michel d’une manière qui peut prêter à confusion. Loin de se répéter à l’identique conformément à la séquence « protozoaires, métazoaires… vertébrés… tétrapodes… etc., etc., et enfin l’homme », Gould veut signifier que chaque fois que le film sera repassé il donnera un résultat complètement différent, par exemple l’évolution s’arrêtera au stade des bactéries, ou bien les vertébrés n’apparaitront jamais, ou bien encore aucune espèce n’accèdera jamais à l’intelligente de niveau humain. Gould n’utilise pas l’exemple du papillon (fréquemment évoquée dans la théorie du chaos) et ne fait pas non plus allusion à la contrafactualité, mais insiste sur la contingence de l’évolution (voir note 3 de n°265 ; contingent est un mot savant qui signifie simplement fortuit, accidentel, « ce qui peut arriver ou non »). Bien entendu, on peut aisément lui accorder que lors des répétitions Homo sapiens ne réapparaitra jamais avec toutes les caractéristiques particulières qu’on lui connait, à la même époque et au même endroit que dans l’évolution observée, mais rien n’indique qu’une espèce d’intelligence et de dextérité similaire à l’homme actuel soit aussi improbable qu’il l’imagine. Il faut raisonner non sur l’homme mais sur la classe des êtres tenus pour équivalents à l’homme. Bien des arguments existent alors en faveur d’une bonne reproductibilité de l’évolution. Par exemple on peut s’attendre à ce que les accroissements en taille et en intelligence des organismes se produiront dans la plupart des répétitions du film parce qu’ils présentent des avantages, et qu’il s’agit de voies toujours ouvertes que suivront inévitablement certains organismes en évolution.
- Andreï Sakharov, père de la bombe H soviétique et prix Nobel (voir note 2 de n° 433), a proposé en 1967 l’hypothèse d’un univers jumeau formé d’antimatière et où le temps s’écoulerait en sens inverse du futur vers le passé. Selon cette hypothèse, les deux univers ne sont en contact qu’au niveau de la singularité initiale qui leur a donné naissance (comme deux bulles en contact en un point). En France, Jean-Pierre Petit a publié en 1977 dans les Comptes rendus de l’Académie des Sciences deux articles sur des univers jumeaux semblables à ceux de Sakharov, à cette différence près qu’ils sont parallèles (comme deux feuilles en contact) et capables d’interagir par leur gravité, les masses positives de notre univers repoussant les masses négatives de l’autre univers. La version 2015 de ce « modèle cosmologique Janus » a fait l’objet en janvier 2019 d’une critique détaillée de Thibault Damour, spécialiste de la relativité générale et membre de l’Académie des Sciences (https://www.ihes.fr/ damour/publications/JanusJanvier2019-1.pdf). Une nouvelle version du modèle Janus a été publiée dans Progress in Physics en 2019 par J.-P. Petit et deux collègues, Gilles d’Agostini et Nathalie Debergh, qui tient compte de cette critique (voir aussi https://www.youtube.com/watch?v=RXKONGBClY0). Le modèle Janus se pose donc en rival du modèle standard de la cosmologie (ΛCDM, voir note 10 de n° 496). L’article Wikipédia https://fr.wikipedia.org/wiki/Mod%C3%A8le_cosmologique_bi-m%C3%A9trique#cite_note-:1-34 présente une comparaison critique des deux modèles. Sans prendre parti, on peut tout de même remarquer que les forces en présence sont fort inégales. Pour que la comparaison soit plus équitable, il faudra laisser un peu plus de temps aux chercheurs intéressés pour qu’ils étudient le modèle Janus.
- Le philosophe Jean-Luc Marion, né en 1946, fut l’élève de Louis Althusser et de Jacques Derrida à l’École Normale Supérieure. Il a enseigné à la Sorbonne, où il a succédé à Emmanuel Levinas à la chaire de métaphysique, et dans diverses universités étrangères. Il enseigne actuellement à l’Institut catholique de Paris et à l’université de Chicago, où il a succédé à Paul Ricœur. Depuis 2008, il est membre de l’Académie française où il occupe le fauteuil du cardinal Jean-Marie Lustiger dont il fut un proche collaborateur. Il s’est d’abord fait connaître comme spécialiste de la métaphysique de Descartes puis comme phénoménologue (dans le sillage d’Edmund Husserl, de Martin Heidegger et de Michel Henry dont il fut l’ami) et comme théologien (dans la lignée de Urs von Balthazar et Louis Bouyer). Dans un livre paru en 2017 qui s’adresse aux catholiques, Brève apologie pour un moment catholique (Grasset, Paris), il redonne vie à la figure de l’intellectuel catholique qu’on croyait disparue ; il y écrit « il se pourrait qu’un tel moment [catholique donc], décidément hors de portée du pouvoir et de la rationalité positiviste de la politique contemporaine, constitue la seule option raisonnable qui nous reste, tandis que nous nous approchons du cœur du nihilisme… ». Malheureusement, en dehors de ce livre, sa lecture est le plus souvent fort difficile.
- Dès la naissance de la physique quantique, vers 1926, les physiciens se posent la question des relations entre leur discipline et la conscience (voir aussi note 5 de n° 286 et note 6 de n° 310). Ils y sont conduits par une réflexion sur la « réduction de la fonction d’onde » (ou « du vecteur d’état ») qui, dans la théorie quantique, fait le passage entre l’onde de probabilité, qui inclut tous les résultats possibles d’une expérience, et la particule, qui manifeste l’unique résultat effectivement observé de l’expérience. En 1927, Werner Heisenberg affirme que « l’observateur fait lui-même le choix » (mais sans persister dans cette voie). En 1932, John von Neumann, Hongrois d’origine, signale que la réduction peut avoir lieu n’importe où entre l’appareil de mesure et quelque part dans le cerveau de l’observateur mais, ajoute-t-il, « il faut de toute façon nous arrêter à un certain moment et dire : “et ceci est perçu par l’observateur”. » Dès lors trois démarches au moins sont possibles. La première conduit à une interprétation dualiste faisant intervenir un agent non physique, l’esprit de l’observateur. Elle a été défendue notamment par un autre Hongrois, Eugene Wigner, à partir de 1961 et par Euan Squires (n° 493). Plus récemment, les termes du problème ont été inversés, notamment par Henry Stapp et Roger Penrose. Pour éviter le dualisme, ils proposent, non de rendre compte de la réduction par la conscience, mais de la conscience par la réduction et rapprochent la non-séparabilité quantique de l’unité de la conscience. Stapp (voir note 9 de n° 424) insiste sur l’attention consciente (awareness) et suppose que chaque réduction donne lieu à un ressenti, tandis que Penrose (<https://www.france-catholique.fr/SCIENCE-ET-TOLERANCE-THEORIES-MAGNIFIQUES.html) insiste sur l’entendement et son caractère non-algorithmique qui résulterait du caractère non-algorithmique de la réduction au niveau des microtubules du cerveau (la réduction est pour lui un phénomène purement physique où intervient la gravitation ; pour une discussion, voir note 12 de n° 490). Une troisième piste consiste à tenir la réduction de la fonction d’onde pour une apparence selon une variante de l’interprétation des mondes multiples dite des « esprits multiples » (many minds). Elle a été suivie selon une option dualiste par David Z. Albert et selon une option « matérialiste » par Michael Lockwood (j’écris matérialiste entre guillemets parce que Lockwood tout en se prétendant matérialiste admet lui-même que « esprit et matière se ressemblent par leur caractère profondément mystérieux » si bien que « ce que le problème esprit-corps demande presque certainement est une accommodation mutuelle, qui implique des ajustements conceptuels sur les deux côtés du clivage esprit-corps », p. x de la préface de son livre, Mind, Brain and the Quantum, Blackwell, Oxford, 1989, livre cité par A. Michel dans n° 488). Bref, on aura compris de cette brève recension que toutes ces spéculations ne débouchent sur aucun accord et, pour l’instant du moins, sur aucun test scientifique permettant de les départager. Le mystère de la conscience reste entier et je ne prends pas grand risque en prédisant qu’il ne sera pas résolu de sitôt, si tant est qu’on puisse même concevoir une résolution. En effet, contrairement à tous les autres objets étudiés par la science qui peuvent être considérés comme extérieurs à soi, la conscience n’est pas extériorisable, ni réductible à quoi que ce soit d’autre, même si de nombreux esprits ont du mal à se faire à cette idée (voir note 8 de n° 434).
- L’idée de constance de la vitesse de la lumière a été proposée par Einstein pour résoudre un paradoxe. En effet, la théorie de l’électromagnétisme de Maxwell donne la vitesse de la lumière, mais par rapport à quoi ? Le principe de relativité, dit de Galilée, stipule en effet que la vitesse d’un objet n’est pas définie de manière absolue mais seulement de manière relative, par rapport à l’observateur supposé fixe. Einstein avait alors le choix entre deux options : soit admettre que la vitesse de la lumière n’est pas constante (des observateurs en déplacement relatif trouveront à la lumière des vitesses différentes, mais alors la théorie de Maxwell est fausse), soit admettre qu’elle est un absolu indépendant des vitesses relatives des observateurs (mais alors le principe de Galilée est faux). C’est cette dernière solution que choisit Einstein en formulant un nouveau principe, le principe de relativité restreinte, avec le succès que l’on sait. La constance de la vitesse de la lumière est contre-intuitive car elle implique que cette vitesse ne s’additionne pas à la vitesse du corps qui l’émet. Par exemple, comme la Terre tourne auteur du Soleil à environ 30 km/s (par référence aux étoiles lointaines), s’il y avait addition des vitesses, la vitesse v de la lumière émise depuis la Terre serait de v + 30 km/s dans le sens du mouvement de la Terre et v – 30 km/s dans l’autre sens, différence qu’on aurait constatée depuis longtemps avec les instruments dont on dispose actuellement. Reste la question de savoir si la vitesse de la lumière a toujours conservé la même valeur. Plusieurs théoriciens (dont Jean-Pierre Petit en 1988 et João Magueijo depuis 1998) ont avancé l’idée que la vitesse de la lumière était beaucoup plus élevée juste après le Big Bang. Cela permettrait de faire l’économie de l’inflation cosmique (voir note 8 de n° 496) mais au prix de la conservation de l’énergie et d’une profonde refonte des lois de la physique.
- Cet exemple prête à confusion. L’abscisse du point d’intersection des diagonales d’un carré dont le côté est de longueur unité est tout simplement un demi. C’est la longueur de la diagonale qui s’exprime par un nombre (réel) ayant une infinité de décimales.
- On dispose de deux belles théories pour comprendre l’univers : la physique quantique et la relativité générale, le problème est qu’elles ne s’accordent pas ! Dans la première, tout est décrit à l’aide de « particules », y compris les forces électromagnétique et nucléaires qui les unissent (sauf une, la gravitation), plongées dans un espace et un temps statiques servant d’arrière-plan. La seconde s’applique à la gravitation qui n’y apparait pas comme une force mais comme une courbure d’un espace-temps dynamique ; aucune variable n’y joue un rôle que l’on puisse naturellement identifier à un temps. Ce sont ces différences fondamentales qui rendent les deux théories presque incompatibles. Quand on essaye d’appliquer la physique quantique à la gravitation, de graves difficultés apparaissent car le procédé appelé renormalisation qui permet de faire disparaitre les infinis (comme la densité infinie d’une particule supposée ponctuelle) ne marche pas : les infinis réapparaissent et on ne peut s’en débarrasser. En outre, la « particule » supposée transmettre l’interaction gravitationnelle, le graviton, n’a jamais pu être mise en évidence. Il y a des propositions pour unifier les deux théories comme la théorie des (super)cordes, fondées sur de minuscules cordes vibrantes dans un espace à nombreuses dimensions dont toutes sauf trois sont très courtes et repliées sur elles-mêmes, ou comme la gravité quantique à boucles, ou d’autres comme la théorie des twisteurs de Penrose. Le problème c’est qu’aucune de ces théories n’est vérifiée ni même vérifiable ! C’est ennuyeux parce que cela empêche d’analyser ce qui se passe au cœur des trous noirs et au tout début du Big Bang, c’est-à-dire dans les singularités spatio-temporelles où la relativité générale ne s’applique plus. Il faudrait la remplacer par la gravité quantique pour décrire la destruction (trou noir) ou la création (Big Bang) de l’espace-temps et de la matière. Il est assez facile de calculer, à partir des constantes fondamentales de la relativité générale (la constante de gravitation universelle G et la célérité de la lumière c) et de la physique quantique (la constante de Planck h), des unités naturelles de longueur, de temps, de masse (et d’énergie) qu’on appelle les unités de Planck. La méthode de calcul permettant cela, l’analyse dimensionnelle, est très simple, très puissante et très emblématique de la cohérence interne de la physique. Dans le cas des unités de Planck, cette méthode dit que le produit des constantes G, c et h élevées chacune à une certaine puissance doit s’exprimer en mètre pour une longueur, en seconde pour un temps et en kilogramme pour une masse (voir http://www.tangentex.com/AnaDimPlanck.htm, ou les chapitres 7 et 8 du livre très pédagogique de Bernard Diu, La mathématique du physicien, Odile Jacob, Paris , 2010, à recommander à tous ceux, en particulier parents de lycéens, qui souhaitent mettre à jour leurs compétences en physique). Cette règle permet de déterminer par un calcul élémentaire les valeurs des exposants, d’où on déduit la valeur numérique des unités de Planck. On interprète généralement ces valeurs comme les limites en deçà desquelles (ou au-delà pour l’énergie) les théories relativiste et quantique ne s’appliquent plus : de manière imagée on parle du mur de Planck de nos théories. L’ordre de grandeur de la longueur de Planck est 10−35 mètre et celui du temps de Planck, 10−43 seconde. À titre de comparaison, la taille des noyaux atomiques est de l’ordre de 10−13 mètre et la période des ondes électromagnétiques qu’ils émettent de l’ordre de 10−21 seconde (voir note 12 de n° 487). L’échelle de Planck est donc considérablement plus petite (par 22 ordres de grandeur) que l’échelle du noyau atomique, dans un rapport plus petit encore que celui qui sépare le noyau et de notre échelle où les distances se mesurent en mètres et les durées en secondes.
- La carte du fond diffus cosmologique produite à partir des mesures du satellite COBE (voir l’illustration de http://www.astrosurf.com/luxorion/cosmos-cobe-wmap-planck.htm) fait l’objet de la chronique précédente n° 496. Comme on l’a vu, les doutes d’A. Michel sont justifiés, moins par la petitesse des fluctuations de température mesurées que par la mauvaise résolution de l’image. En effet, la « myopie » de COBE l’empêchait de discerner les rides correspondant aux plus grandes structures observables dans l’univers (les amas de galaxies) et, a fortiori, les structures plus petites (galaxies). Il a fallu attendre les télescopes spatiaux WMAP et surtout Planck pour accéder aux amas de galaxies. Il faudra des mesures beaucoup plus fines encore pour voir les fluctuations correspondant aux galaxies mais la difficulté et le coût de l’entreprise semblent avoir découragé la NASA et l’ESA de construire un télescope spatial capable de les observer, au moins dans l’immédiat.
- Je me suis replongé dans les dernières pages du best-seller de Hawking, Une brève histoire du temps (trad. I. Naddeo-Souriau, Flammarion, Paris, 1989) mais je n’y ai pas trouvé les prophéties passées sur la fin de la science, du moins sous une forme aussi explicite, même si Hawking critique « les espoirs de déterminisme de Laplace ». Certes, il laisse bien entrevoir la possibilité d’une « théorie ultime de l’univers » qui « mènerait à son terme un long et glorieux chapitre de l’histoire de la lutte intellectuelle de l’humanité pour comprendre l’univers » (p. 206) et qui serait « le triomphe ultime de la raison humaine – à ce moment, nous connaîtrons la pensée de Dieu » (c’est la dernière phrase de la conclusion, p. 213). Toutefois, il explique que ce ne serait pas la fin de la science car « cela ne signifierait pas que nous serions capables de prédire les évènements en général, cela pour deux raisons. La première, c’est la limitation que le principe d’incertitude de la mécanique quantique confère à nos pouvoirs de prédiction ». La seconde raison, plus restrictive, « vient du fait que nous ne pouvons résoudre les équations de la théorie exactement, sauf dans des situations très simples » (p. 207). C’est pour cette raison que la chimie et la biologie ne sont pas réduites « au statut de problèmes résolus ». Jorge Cham et Daniel Whiteson (Tout ce que nous ne savons pas encore, trad. P. Kaldy, Flammarion, Paris, 2018) expliquent clairement pourquoi en prenant l’exemple d’une balle qui rebondit, qui se décrit par une simple parabole en physique newtonienne. « Un autre moyen de décrire ce mouvement, écrivent-ils, est de faire appel à la théorie quantique des champs. On modélise la mécanique quantique de chacune des 1025 particules environ de la balle et on suit ce qui se passe alors qu’elles interagissent entre elles et avec le milieu. Absolument pas pratique, mais possible en principe. Théoriquement, cela devrait donner le même résultat que ci-dessus, mais c’est quasi impossible à réaliser » (p. 336). Cette limitation pourrait apparaitre comme un grave défaut mais, en réalité, c’est un gros avantage : le surfeur n’a pas à calculer les 1030 particules de la vague pour rester debout sur sa planche, ni le pâtissier, à utiliser une recette en termes de quarks et d’électrons ! C’est un fait général et très heureux et presque « incroyable » (comme l’écrivent Cham et Whiteson) que « l’Univers puisse être décrit à de multiples niveaux », qu’on puisse mettre au point indépendamment des modèles dans des domaines scientifiques différents. S’il avait fallu disposer d’un modèle complet des particules pour construire la physique classique, la chimie, la biologie ou l’économie, le progrès scientifique aurait été impossible. Je suppose qu’A. Michel met en doute qu’il puisse exister, même en physique, une théorie ultime. Mais même si une telle théorie existait, la seconde raison invoquée par Hawking incite à penser que la science ne sera jamais achevée (voir la chronique n° 222, La science est-elle achevée ?). L’excellent livre de J. Cham et D. Whiteson qui met l’accent sur « ce que nous ne savons pas encore », prenant ainsi le contrepied de la plupart des ouvrages de vulgarisation, donne le sentiment que plus la science progresse plus elle découvre d’énigmes. Leur liste des ignorances est longue : on ne sait pas ce que sont la matière noire, l’énergie noire, ni ce qui a produit l’inflation cosmique ; on ne sait pas si les particules « élémentaires » sont vraiment élémentaires, ni pourquoi il n’y en a que trois familles, ni si leur liste est complète ; on ne sait pas calculer leurs masses qui sont étalées sur 13 ordres de grandeur et semblent arbitraires (la masse n’est plus considérée comme une quantité de matière) ; on ne sait pas non plus pourquoi la masse gravitationnelle (P = mg) et égale à la masse inertielle (F = ma), ni pourquoi la force gravitationnelle est si faible par rapport aux autres forces ; on ignore la nature profonde de l’espace et du temps et le nombre de leurs dimensions ; on ignore comment sont produits les rayons cosmiques les plus énergétiques (le record enregistré est 1020 eV) et pourquoi il y a si peu (ou pas) d’antimatière ; on ne sait pas si l’univers est fini ou infini ni pourquoi il est si vide, ni si son expansion accélérée actuelle continuera indéfiniment, ni si la vie et l’intelligence existent ailleurs (sans doute l’ignorance la plus vertigineuse de cette liste). « Notre capacité à comprendre le monde qui nous entoure et à répondre aux questions connues sur l’inconnu augmente chaque année, notent Cham et Whiteson avec optimisme. En fait, ce qui est stupéfiant, c’est que la croissance de l’Univers testable [c’est-à-dire la part d’Univers que nous pouvons connaître par le biais de la science] est en train de s’accélérer. » (p. 373). Certes, mais le nombre des questions irrésolues semble croître plus vite que le nombre des questions résolues, et donc la conscience de nos ignorances, plus vite que notre science. Nous sommes immensément plus savants aujourd’hui que nous ne l’étions en, disons, 1900, mais nous nous savons aussi immensément plus ignorants. Cela aussi est stupéfiant et rien n’indique que cette montée de l’ignorance soit prête de ralentir.