Il est bien fâcheux que les problèmes les plus passionnants actuellement posés par la science ne puissent être abordés que par le biais de l’abstraction mathématique. Fâcheux non pas tant parce que, de ce fait, la discussion en deviendrait incompréhensible au commun des mortels − c’est dommage, mais enfin, celui qui veut comprendre peut toujours faire l’effort nécessaire − que parce que même ceux qui comprennent ne sont jamais très sûrs et ne peuvent jamais être très sûrs que ce dont ils parlent existe vraiment.
Disons-le d’abord sans détour : il n’est pas honteux d’avouer sa perplexité. Einstein a toujours proclamé qu’il ne comprenait rien aux fondements de la physique quantique, entendant par là non pas, bien sûr, qu’il ne comprenait réellement pas, mais qu’il ne voyait pas comment tout cela pouvait marcher. Pendant une certaine époque, il habitait près d’un asile d’aliénés. Les fenêtres de son appartement donnaient sur la cour de cet asile, et il avait l’habitude de dire à ses visiteurs, montrant les fous en train de se livrer à leurs excentricités « Ce sont des fous, mais pas les mêmes que ceux qui font la physique quantique. » Ce qui ne l’empêcha pas, comme on sait, d’apporter lui-même à cette physique une contribution éminente.
Où l’on se méfie des mathématiques
Ce qu’il reprochait à cette physique-là, c’était de n’être pas représentable, de se dérober à la prise de l’imagination sensible. Lui qui avait fondé en science une ère nouvelle suprêmement marquée par le langage mathématique, il se méfiait néanmoins de ce langage et voulait que les choses fussent représentables. On lui attribue ce mot qu’une chose que l’on ne peut expliquer à un enfant ne vaut pas la peine d’être dite. Sans doute forçait-il sa pensée par goût du paradoxe. Mais il regardait avec suspicion tous les problèmes inexprimables autrement que par les mathématiques, et s’avouait porté à se demander toujours si ces problèmes n’étaient pas fabriqués par le langage qui les exprime.
Dans ma dernière chronique 1 , j’ai rapporté la très belle expérience américaine montrant la réalité matérielle de la relativité du temps, comme dans le fameux boulet de Langevin : un astronaute s’en va très loin à très grande vitesse, revient et trouve ses descendants plus vieux que lui-même. J’aurais pu, m’appuyant sur les résultats absolument irrécusables de l’expérience, aller plus loin : il suffisait de supposer que le voyage de l’astronaute eût été un peu plus rapide, qu’il se fût fait par exemple à plus de 299 500 kilomètres à la seconde. Alors ce ne sont pas des descendants plus vieux que lui-même que l’astronaute eût retrouvés à son retour, mais bien l’humanité future, ou peut-être même la terre morte de vieillesse et le soleil éteint par les millions ou les milliards d’années, alors que lui-même n’aurait vécu qu’une décennie ou deux.
Il faut bien admettre qu’un univers où de pareils prodiges sont possibles (et, je le rappelle, c’était prévu par la théorie depuis le début du siècle et c’est maintenant prouvé expérimentalement) est un univers déconcertant. Ce n’est pas celui dont l’image se forme en notre pensée quand notre enfance le découvre. On comprend que, pour en parler, il exige un langage autre que celui de tous les jours. Mais du fait que ce langage différent − celui des mathématiques − est un pur formalisme, qu’il s’appuie sur sa seule cohérence interne et qu’il ne peut s’appuyer sur l’imagination, il est comme le fil d’Ariane dans les ténèbres du labyrinthe : il faut lui faire confiance, sans qu’on sache où il nous conduit, sans même, souvent, que l’on sache où l’on est. En voici un autre exemple particulièrement frappant.
Lorsqu’un corps quelconque (appelons-le A) exerce une force sur un autre corps B, on dit que A et B sont en interaction, car le corps B exerce sur le corps A une force opposée, égale et de sens contraire. Par exemple, la pomme suspendue à l’arbre subit de la part de la terre une attraction qui se manifeste par son poids. Quand la queue de la pomme casse, celle-ci tombe vers la terre ; mais la terre, elle aussi, tombe vers la pomme, quoique infiniment moins : dans le rapport inverse de leurs masses respectives.
Des interactions comme celle-là, on en connaît dans l’univers de quatre sortes : l’interaction de gravitation (celle que la pomme et la terre exercent l’une sur l’autre), l’interaction électromagnétique (celle de l’aimant, c’est-à-dire celle des particules électriquement chargées de signe opposé), et les interactions nucléaires, qui sont de deux types, les fortes et les faibles.
Pour établir la théorie de ces interactions, on fait appel à l’idée de champ, et c’est ici que commence le labyrinthe. Quand on lit les physiciens, on constate que cette idée de champ correspond dans leur esprit à une réalité. Cependant, la définition qu’ils en donnent ne laisse pas de provoquer un malaise en tout esprit qui se méfie des abstractions : le champ est une zone de l’espace où s’exercent des forces d’une certaine nature ; de plus, la réflexion sur les champs s’opère essentiellement par le biais du vecteur, qui représente la grandeur, le sens et la direction de la force à un moment donné du temps et en un point du champ.
Si je ne me trompe, nous en sommes donc, avec le vecteur, à un être de la troisième génération : force, puis champ, puis vecteur ; mais le vecteur lui-même n’a pas une généralité suffisante pour permettre toujours la manipulation logique recherchée : du vecteur, on passe donc au tenseur, qui est sa généralisation à des espaces à n dimensions.
Quand on raisonne sur les tenseurs (et ce n’est pas le bout du labyrinthe, loin de là, si même le labyrinthe a un bout) raisonne-t-on encore sur la réalité concrète ? Les physiciens semblent pouvoir répondre oui, et en donner la preuve : c’est qu’ils prévoient des phénomènes rigoureusement imprévisibles par tout autre moyen, et que l’expérience confirme leurs prévisions. Il est donc certain que les théories des champs répondent à une réalité très profonde de la nature.
Une unité qui se dérobe
Mais voici où l’on se sent perdu. J’ai dit que l’on connaît, dans la nature, quatre sortes de champs. Avec sa théorie de la relativité générale, Einstein avait montré, il y a plus d’un demi-siècle que deux de ces champs, le gravitationnel et l’électromagnétique ne sont pas indépendants. Et cependant, quoi qu’on ait fait jusqu’ici et en dépit de prodiges de profondeur et de sagacité, on n’a jamais réussi à unifier les deux théories de ces champs en une seule.
Quant aux deux autres, et sauf erreur de ma part, on n’a encore rien trouvé qui les rattache soit entre eux, soit avec les premiers. D’immenses recherches théoriques (dont, notamment, celles, en France, de M. André Lichnerowicz 2) laissent entrevoir, disent les spécialistes, l’espoir de l’unité qui se dérobe, mais cette unité, en 1972, n’existe pas encore, et nul, en fait, ne peut dire si elle existera jamais, du moins sur les bases actuelles 3.
Le nœud du problème
C’est ce que l’on appelle parfois l’échec de la physique, échec d’ailleurs glorieux, si c’en est un 4 . A quoi correspond-il ? A une incohérence réelle de la nature ? Cela, à vrai dire, n’a guère de sens. La Nature, par son seul spectacle, nous donne la preuve de sa grandiose unité. Il ne saurait y avoir d’incohérence que là où il y a logique, et la logique est une fonction de la pensée. A une lacune ou une insuffisance des hypothèses de base de la physique ? Si c’est le cas, ce serait bien déconcertant, car au fondement de la théorie des champs, il y a le principe d’égalité de l’action et de la réaction, qui apparaît à l’esprit comme une espèce d’évidence a priori, et l’on ne voit pas à quoi l’on pourrait se raccrocher s’il fallait y renoncer.
La plupart des physiciens théoriciens estiment que le nœud du problème, c’est simplement sa difficulté : le labyrinthe est immense et son exploration ne fait que commencer. Les physiciens expérimentaux sont souvent beaucoup moins optimistes. Beaucoup pensent que les phénomènes impossibles à intégrer dans l’actuelle physique théorique se multiplieront inexorablement, jusqu’à ce qu’une nouvelle révolution semblable à celles que firent Einstein et Planck s’impose. Nos enfants (peut-être !) sauront qui a raison.
Aimé MICHEL
Les notes de (1) à (4) sont de Jean-Pierre Rospars
(*) Chronique n° 117 parue dans France Catholique − N° 1352 − 10 novembre 1972.
— –
Rappel :
Entre 1970 et sa mort en 1992, Aimé Michel a donné à France Catholique plus de 500 chroniques. Réunies par le neurobiologiste Jean-Pierre Rospars, elles dessinent une image de la trajectoire d’un philosophe dont la pensée reste à découvrir. Paraît en même temps, une correspondance échangée entre 1978 et 1990 entre Aimé Michel et le sociologue de la parapsychologie Bertrand Méheust. On y voit qu’Aimé Michel a été beaucoup plus que le « prophète des ovnis » très à la mode fut un temps : sa vision du monde à contre-courant n’est ni un système, ni un prêt-à-penser, mais un questionnement dont la première vertu est de faire circuler de l’air dans l’espace confiné où nous enferme notre propre petitesse. Empli d’espérance sans ignorer la férocité du monde, Aimé Michel annonce certains des grands thèmes de réflexion d’aujourd’hui et préfigure ceux de demain.
Aimé Michel, La clarté au cœur du labyrinthe. Chroniques sur la science et la religion publiées dans France Catholique 1970-1992. Textes choisis, présentés et annotés par Jean-Pierre Rospars. Préface de Olivier Costa de Beauregard. Postface de Robert Masson. Éditions Aldane, 783 p., 35 € (franco de port).
Aimé Michel, L’apocalypse molle. Correspondance adressée à Bertrand Méheust de 1978 à 1990, précédée du Veilleur d’Ar Men par Bertrand Méheust. Préface de Jacques Vallée. Postfaces de Geneviève Beduneau et Marie-Thérèse de Brosses. Éditions Aldane, 376 p., 27 € (franco de port).
À payer par chèque à l’ordre des Éditions Aldane,
case postale 100, CH-1216 Cointrin, Suisse.
Fax +41 22 345 41 24, info@aldane.com.
- Il s’agit de la chronique n° 116, Le paradoxe de Langevin démontré, parue ici le 31 mars 2010.
- Sur André Lichnerowicz voir la note 2 de la chronique n° 63, L’esprit de système contre la science, publiée ici le 19 avril 2010.
- Alors qu’Aimé Michel écrivait ces lignes, les physiciens théoriciens, aiguillonnés et guidés par les résultats fournis par les expérimentateurs à l’aide de grands collisionneurs de particules, étaient en train de réaliser l’unification de trois des quatre forces de la nature. Cela commença par l’unification de la force électromagnétique avec la force nucléaire faible grâce aux contributions de Sheldon Glashow, Steven Weinberg et Abdus Salam, parachevée en 1971 par celle de Gerard ‘t Hooft et Martin Veltman. Par ailleurs, la théorie de la force nucléaire forte prit corps grâce aux travaux de Murray Gell-Mann, Sidney Coleman, David Gross, Frank Wilczek et David Politzer en 1973. La particularité de cette force intense est qu’elle maintient ensemble les protons du noyau alors que ceux-ci, porteurs de charges électriques positives, se repoussent sous l’influence de la force électromagnétique. A la différence des autres forces, elle s’accroît avec la distance d’où un effet de confinement. La théorie de la force nucléaire forte est fondée sur l’idée que les hadrons (protons, neutrons et autres) sont formés de l’agrégation de particules plus petites, appelées « quarks » par Gell-Mann en 1963. L’une des propriétés des quarks appelée « couleur » donna son nom de « chromodynamique quantique » à la théorie de la force forte. Tous les ingrédients nécessaires à l’unification des trois forces étaient alors en place. Ce modèle de physique des particules fut appelée « modèle standard » par Glashow, Weinberg et d’autres en 1975 et il devint d’usage courant en 1979. A cette époque il avait déjà reçu plusieurs confirmations expérimentales. A ce jour, toutes les expériences conçues et réalisées ont donné des résultats en accord précis avec le modèle standard ce qui a valu une série de prix Nobel à ses auteurs en 1979 (Glashow, Salam et Weinberg), 1999 (‘t Hooft et Veltman) et 2004 (Gross, Wilczek et Politzer). Il ne paraît pas exagéré de conclure avec Petr Woit que « la découverte du modèle standard est un chef-d’œuvre intellectuel dont on se souviendra tout au long de l’histoire humaine ».
Par contre, l’unification de la physique relativiste, celle qui décrit la gravitation et l’univers à grande échelle, et du modèle standard fondé sur la physique quantique, qui décrit les composants élémentaires de la matière et l’univers à petite échelle, reste un objectif à atteindre. Certains physiciens pensent que la théorie des supercordes est le cadre propre à réunir ces contributions en un tout cohérent (Brian Greene, L’univers élégant, trad. B. Laroche, Gallimard, Folio Essais, 2005), d’autres en doute et non des moindres comme Richard Feynman (« tout ce travail sur les supercordes est dément et va dans la mauvaise direction ») et Sheldon Glashow (« (…) tout simplement pas de la physique »), ou encore comme Peter Woit et Lee Smolin…
- Cet « échec de la physique » qu’Aimé Michel évoquait déjà deux années auparavant dans la chronique n° 13, La physique en panne, parue ici le 12 octobre 2009, est toujours d’actualité. Les deux explications de ce piétinement avancées par A. Michel, la difficulté du problème à résoudre et la nécessité d’idées nouvelles et révolutionnaires, ont chacune leurs partisans. Certains commencent à se demander si le manque d’idées ne viendrait pas de la manière dont la recherche est actuellement conduite. Pour Peter Woit (Même pas fausse ! La physique renvoyée… dans ses cordes, trad. M. Cassé, Dunod, Paris, 2007) « le niveau de complexité et de difficulté de la théorie des supercordes n’est probablement qu’un symptôme de fausse piste » (p. 231). Il tient la théorie pour « laide et complexe » (p. 301), « incapable de produire quoi que ce soit » si bien « qu’à un certain point elle ne pourra plus être appelée science » (p. 241). Il dénonce le climat intellectuel dans la communauté des cordistes, « la faillite des systèmes de jugement et d’appréciation (refereeing) » des revues à comité de lecture (p. 250) et « les structures sociales et financières » dans lesquelles on fait travailler la communauté des physiciens des particules, « groupe très talentueux, mais [qui] travaille depuis deux décennies dans un environnement d’échec intellectuel et de compétition effrénée, luttant pour sa survie » (p. 269).
Lee Smolin (Rien ne va plus en physique. L’échec de la théorie des cordes, trad. A. Grinbaum, Dunod, Paris, 2007) abonde dans le même sens. Pour lui, l’échec de la physique théorique des 30 dernière années, de la théorie des cordes en particulier, tient au fait que le style de recherche de la communauté des théoriciens de la relativité a été supplanté par celui des théoriciens des particules élémentaires. Les premiers respectent l’individu, se méfient de la mode, font confiance uniquement aux arguments mathématiques rigoureux et s’interrogent sur la nature de l’espace, du temps et du quantique. Les seconds au contraire sont effrontés, agressifs, poussés par l’esprit de compétition, guidés par la mode et se méfient des questions philosophiques. Or le style de recherche des seconds n’est pas adapté à la découverte de nouveaux cadres théoriques. De plus lors des recrutements, l’importance du jugement des professeurs confirmés à décliner au profit de mesures statistiques, telles que le nombre de contrats de recherche ou le nombre de citations, ce qui ne peut que décourager un jeune chercheur d’aller à contre-courant de la tendance générale et de s’engager dans des projets nouveaux. La description de la communauté des théoriciens que propose Smolin (dont il a fait lui-même partie) est proprement pathologique : fermée sur elle-même, monolithique, méprisante pour les idées provenant de l’extérieur, victime de sa propre propagande. Pour changer cette situation il faut recruter d’urgence ceux qu’il appelle des « visionnaires ». Ces chercheurs là « décident de faire de la science parce qu’ils se posent des questions sur la nature de l’existence auxquelles leurs manuels scolaires ne répondent pas » ; ils s’intéressent au contexte historique et philosophique du développement des sciences et « s’ils n’étaient pas devenus des scientifiques, ils auraient pu devenir peintres ou écrivains, ou intégrer une école de théologie. ». Il cite ce propos d’Einstein : « La connaissance du fond historique et philosophique donne une espèce d’indépendance vis-à-vis des préjugés dont souffrent la majorité des scientifiques d’une génération. Créée par l’intuition philosophique, cette indépendance est, à mon sens, la marque de distinction entre un artisan ordinaire ou un spécialiste, et le véritable chasseur de la vérité. »
On peut faire un constat semblable en biologie. Là aussi les grandes découvertes se font rares, le conformisme gagne, les modes sévissent. La règle « publier ou disparaître » s’est faite de plus en plus impérieuse, ce qui conduit à une inflation des publications dans les journaux professionnels, au « saucissonnage » des résultats et, pour les chercheurs les plus fragiles ou les moins regardants, à des entorses avec l’éthique de la recherche, d’où une moindre qualité des résultats publiés. Le mode de financement de la recherche française a évolué en parallèle : l’obtention des crédits se fait dorénavant à la suite d’appels d’offre, par exemple de l’Agence Nationale de la Recherche (ANR) ou de l’Union Européenne : les chercheurs y concourent en présentant leurs « projets » qui sont sélectionnés ou non par des comités d’évaluation. L’évaluation est devenue le maître-mot de la tribu. Que ce soit au coup par coup (pour les articles soumis aux journaux et les projets soumis aux agences de financement) ou périodiquement (chercheurs individuels, laboratoires, départements, organismes entiers), tout est évalué. Disons-le : toutes ces évolutions n’ont pas que des côtés négatifs loin s’en faut mais elles présentent tout de même de notables inconvénients (voir plus haut). Laurent Ségala, généticien au CNRS, en fait un bilan amusé mais critique dans La science à bout de souffle ? (Seuil, Paris, 2009). Il y décrit la vie du chercheur moderne comme une « course de rats » où il est entraîné « qu’il le veuille ou non dans la course publications-subventions-publications. S’il était maître du rythme, un tel cycle n’aurait rien de choquant. Mais le tempo est donné par les autres chevaux. Celui qui trottine à son rythme finira bon dernier si les autres galopent. (…) Les Américains ont une expression moins flatteuse que la course de chevaux pour décrire une telle situation : The rat race. » (p. 30).