Tout ce qu’il a fait de grand et de moins grand, l’homme l’a d’abord rêvé. Non seulement la raison la plus sage ne nous interdit pas de rêver, mais elle nous y convie. L’essentiel, en rêvant, est de ne pas oublier qu’on rêve. De ne pas dormir debout.
Le lecteur aura deviné que ce préambule annonce une rêverie un peu dure à avaler. N’importe. Elle se fonde sur des connaissances peu discutables et sur le légitime souci de prévoir l’avenir avant qu’il nous surprenne. Je veux ici parler, une fois de plus, mais par un autre biais, de l’angoissant problème de l’intelligence artificielle.
Commençons par les faits. L’évolution actuelle de l’informatique obéit à une loi qui a été exprimée par les spécialistes en ces termes : en gros, les performances des ordinateurs doublent à peu près tous les cinq ans. Et plutôt quatre que cinq. C’est-à-dire que les ordinateurs actuels s’acquittent de tâches deux fois plus complexes que ceux de 1966, qu’ils résolvent les mêmes problèmes plus de deux fois plus vite ; et qu’enfin, le même travail exécuté par eux coûte beaucoup moins de deux fois moins cher maintenant qu’en 1966.
Ordinateurs sans cordon
Cette loi ne laisse prévoir actuellement aucune limite supérieure à la progression qu’elle exprime. La limite existe peut-être, mais on ne voit pas ce qui l’imposerait. Affirmer cette limite est une vue de l’esprit qui relève de ce que les Anglais appellent le « will to believe », « le désir d’y croire ». Du reste, même si une limite supérieure existait, les réflexions qui suivent garderaient leur validité.
A quoi destinons-nous, en effet, les ordinateurs que nous construisons ? A suppléer progressivement notre travail intellectuel. Dans une foule de domaines, l’ordinateur nous a déjà dépassés. Il va plus vite et fait mieux que nous pour toutes les tâches justiciables d’un programme. Il est, en outre, également capable d’établir lui- même certains programmes et de se décider en fonction de probabilités. Mais au-delà de ce qu’il fait déjà, les mathématiciens et logiciens ont déblayé une foule de problèmes théoriques dont la solution (acquise), permet de prévoir bien davantage encore (a).
Il se peut, certes, que quelque chose dans l’intelligence humaine demeure à jamais irreproductible par la machine. Cela aussi a été et est de plus en plus étudié. Mais, encore qu’on ne voie pas quoi, peu importe. Il suffit, pour que les spéculations dont il est question ici soient valables, que la machine puisse imiter la part de notre intelligence qui pose et qui résout les problèmes.
Venons-en maintenant à ces spéculations, dont nous emprunterons l’essentiel à l’Anglais Irving John Good.
Donc, l’homme construit des ordinateurs ; ces ordinateurs doublent leurs performances tous les cinq ans 1 ; donc encore, inévitablement, et quelle que soit la sublimité du génie humain dans la conception des ordinateurs, nous allons vers un temps où les ordinateurs seront plus habiles que nous à concevoir des ordinateurs. Le principe même de l’ordinateur conduit donc tout droit à une ère où l’intelligence artificielle coupera le cordon ombilical qui la relie encore à son créateur, l’homme. Aussitôt ce niveau atteint, l’ordinateur établira les plans d’un ordinateur plus perfectionné lui-même, qui à son tour élaborera son propre perfectionnement, et ainsi de suite.
Cette prévision affolante a reçu le nom de loi de Good2
. Elle démontre l’existence d’un niveau technologique au-delà duquel le développement de l’intelligence opérationnelle cesse d’être l’affaire de l’homme pour devenir un processus indépendant. Notons que s’il est encore permis d’attribuer à la loi de Good le nom de « spéculation », ce n’est en aucune façon parce que cette loi ne serait pas certaine ou démontrée. Elle l’est. C’est uniquement parce qu’après tout nous ne savons pas si l’histoire humaine aura le loisir d’aller jusque-là : il peut auparavant arriver bien des choses, telles que l’effondrement de la civilisation technique, voire le suicide de l’espèce.
Avant la fin du siècle
Cependant, ces catastrophes sont bien improbables 3 , et les prochaines générations ont toutes les chances de voir les prévisions de Good se réaliser. Le point critique de Good (celui où l’ordinateur dépassera l’homme dans la conception des processus artificiels d’intelligence) est très proche dans le temps, quelques décennies. L’intelligence des machines aura commencé d’échapper à la nôtre avant la fin du siècle.
Un autre Anglais, P.-H. Sneath (un biologiste de l’Université de Leicester), a examiné quelques-unes des conséquences de la loi de Good (b). L’une des plus curieuses est l’inversion des processus évolutifs : alors que la vie naturelle sur la terre est allée du plus simple au plus complexe − du stimulus à la perception sensorielle et de celle-ci à l’intelligence − la « vie » mécanique commencerait par l’intelligence. Les machines, écrit Sneath, pourraient se servir de leur intelligence pour se munir d’organes sensoriels perfectionnés, puis deviendraient mobiles et iraient chercher les sources d’énergie qui leur conviendraient le mieux, et enfin, se reproduiraient elles-mêmes 4 .
1972 aussi n’existe pas encore
Autre conséquence, découlant du fait que l’électronique ne fonctionne que dans le vide : le premier soin de l’intelligence artificielle sera sans doute d’envahir l’espace et de s’y installer comme en son milieu naturel. Nous entrons ici dans un des domaines favoris de la science-fiction (mais la plus sérieusement fondée). Ce thème de la machine hyper-intelligente errant dans l’espace est magistralement développé depuis une quinzaine d’années par l’auteur américain, Fred Saberhagen dans son cycle des Bersekkers (c).
Certes, je l’ai dit, nous sommes là en train de rêver. Rien de tout cela n’existe encore (du moins, que nous sachions 5). Mais l’année 1972 non plus n’existe pas encore, et ma foi, quoique dûment averti par les esprits raisonnables qu’il est irréaliste de perdre son temps à rêver de ce qui n’existe pas, il m’arrive de penser que la présente année pourrait quand même un jour prendre fin.
Aimé MICHEL
(a) Sans parler du classique travail de Turing Computing machinery and intelligence, toujours cité (Mind, vol. 59, pp. 433-460, 1960), voir : M. L. Minsky : Steps towards artificial intelligence (Proceedings I. R. E. vol. 49, pp. 8-30. 1961) ; I. J. Good : Could a machine make probability judgements ? (in : Computers and Automation, vol. 8, pp. 14-16 et 24-26, 1959), etc.
(b) P. H. A. Sneath : les Planètes et la vie (Edition du Groupe Express, 1970).
(c) Publié par épisodes dans l’excellente revue Galaxie, Editions Opta, 96, rue de la Victoire, Paris, IXe.
Les Notes de (1) à (5) sont de Jean-Pierre Rospars
(*) Chronique n° 50 parue dans France Catholique – N° 1289 – 27 août 1971.
- Ce doublement de puissance chaque n années est ce qu’on appelle aujourd’hui « loi de Moore ». Cette conjecture a été émise en 1965 par Gordon Moore, ingénieur de Fairchild Semiconductor et co-fondateur d’Intel en 1968, dans un article d’Electronics Magazine. Il y note que « la complexité des composants de coût minimum [d’entrée de gamme] a approximativement doublé tous les ans », il prédit la poursuite de cette croissance pour au moins dix ans. En 1975, il corrige son estimation et parle de doublement tous les deux ans du nombre de transistors par microprocesseur. Un de ses collègues d’Intel parle lui de doublement de « puissance » tous les 18 mois ; c’est cette version de la « loi » qui est la plus souvent citée, bien qu’elle soit fausse (entre 1971 et 2001 la densité des transistors a doublé chaque 1,96 année). L’appellation « loi de Moore » est introduite vers 1970 par Carver Mead, professeur au Caltech. (Il n’est pas inintéressant de noter que selon le New York Times du 31 août 2009 cette conjecture fut proposée dès 1959 par Douglas Engelbart, le co-inventeur de la souris ; Aimé Michel rencontra Engelbart en 1972 lors de son séjour chez Jacques Vallée à Stanford, voir la chronique n° 104, Software et politique, parue ici le 31 mai 2010).
Selon l’article de Wikipedia sur la loi de Moore, celle-ci « s’est révélée jusqu’ici étonnamment exacte, et elle pourrait en principe le rester jusque vers 2015 avant qu’on ne soit réellement confronté aux effets quantiques. En 2015, les processeurs devraient donc contenir plus de 15 milliards de transistors ». Cependant, d’autres contraintes que le « mur quantique » se manifestent : les difficultés de dissipation thermique (depuis 2004), les problèmes de consommation électrique car celle-ci a aussi doublé tous les deux ans (d’où l’intérêt dans le cadre de l’informatique « verte » d’exprimer la performance en nombre d’opérations par watt), l’accroissement exponentiel du coût des chaînes de production (la loi empirique de Rock stipule que ce coût double tous les 4 ans), et la moindre optimisation des logiciels qui surcompense l’accroissement de puissance des microprocesseurs (loi de Wirth). Notons pour terminer qu’une semblable progression exponentielle s’applique aux mémoires, disques durs, écrans (pixels par dollar) et capacité de transmission des réseaux. Ces lois empiriques sont en réalité très générales et se sont appliquées (et s’appliquent encore), avec des temps de doublement variables et sur des durées également variables, à nombre de technologies et à bien d’autres phénomènes.
- Irving John Good (1916-2009) né à Londres de parents juifs-polonais sous le nom de Isadore Jacob Gudak, étudia les mathématiques à Cambridge et travailla deux ans avec Alan Turing pendant la guerre au déchiffrement des messages codés allemands. En 1967 il s’installa en Virginie où il demeura jusqu’à sa mort à 92 ans. Il se fit connaître par ses travaux en informatique et en statistique et par son humour. Il contribua à imposer l’approche bayésienne des probabilités à parité avec leur interprétation classique. Son livre le plus populaire The scientist speculates (Heinemann, 1962 ; trad. Quand les savants laissent libre cours à leur imagination, Dunod, 1967) est un recueil d’« idées à moitié cuites » de nombreux auteurs. Il fut conseiller de Stanley Kubrick pour son film 2001 : Odyssée de l’espace (1968) dont l’un des personnages principaux est l’ordinateur paranoïaque HAL 9000.
Le concept de la « singularité technologique », qu’Aimé Michel appelle la « loi de Good », se trouve dans son article « Speculations concerning the first ultraintelligent machine » dans Advances in Computers vol. 6 (1965). Voici ce que Good y écrit : « Définissons par machine ultra-intelligente une machine surpassant en intelligence tout ce dont un homme est capable, aussi brillant soit-il. La conception de machines étant l’une de ces activités intellectuelles, une machine ultra-intelligente pourrait concevoir des machines meilleures qu’elle-même ; cela aurait sans nul doute pour effet une ‘explosion de l’intelligence’, et l’intelligence de l’homme serait laissée loin derrière. Ainsi, la première machine ultra-intelligente sera la dernière invention que l’homme aura besoin de faire, à condition que cette machine soit assez docile pour lui obéir. » (pour l’article original, voir GoodTechReport.pdf sur www.stat.vt.edu).
Le romancier de science-fiction britannique Arthur C. Clarke exprima la même idée quelques années auparavant dans son Profil du futur (trad. G. Dormann, Encyclopédie Planète, Retz, Paris, 1964) dont le chapitre 18 est intitulé « Désuétude de l’homme ». La même idée n’a cessé d’être reprise depuis lors. Citons, Robert Jastrow qui, en 1981 dans Au-delà du cerveau, prédisait la passation de pouvoir pour 1995, puis Hans Moravec en 1988 dans Mind Children et Ray Kurzweil en 1999 qui la prédisaient autour de 2010-2020 en s’appuyant sur la loi de Moore. Kurzweil, gourou de l’intelligence artificielle et prophète du transhumanisme, écrivait alors : « il est raisonnable d’estimer qu’un ordinateur personnel à 1000 $ atteindra la capacité et la vitesse de calcul du cerveau humain aux alentours de l’année 2020 (…). Les superordinateurs atteindront la capacité de calcul du cerveau humain − 20 millions de milliards de calculs par seconde − en 2010, une décennie avant les ordinateurs personnels. » (The Age of Spiritual Machine: When computers exceed human intelligence, Viking Penguin, New York, 1999, p. 105. Sur le transhumanisme, voir la note f de la chronique n° 20, Le « jugement dernier » : nous avons les moyens de notre extermination, parue ici le 4 janvier 2010). I.J. Good lui-même pensait que la première machine ultra-intelligente serait construite « dans les cinquante années à venir ». Voilà 45 ans qu’il a écrit ces lignes et son ordinateur « ultra-intelligent » n’est toujours pas réalisé et on ne voit pas qu’il le sera dans les cinq années qui viennent. Nous ne reprocherons pas à ces auteurs d’avoir trop d’imagination mais d’en manquer : c’est qu’ils mettent trop en avant la seule puissance brute de calcul de l’ordinateur et admettent trop facilement que ce qu’on sait aujourd’hui en physique et en informatique suffise à construire un cerveau artificiel doué d’intelligence, de créativité, de motivation et de conscience. Cette thèse est loin d’être prouvée. Pour ma part, je n’ai pas d’opposition de principe à ce qu’un tel cerveau artificiel soit réalisable et un jour réalisé mais je ne tiens nullement pour acquis qu’il le sera avec les seules connaissances actuelles.
- A l’époque on songeait surtout à un conflit nucléaire, bien qu’Aimé Michel avait d’autres menaces présentes à l’esprit, voir la chronique n° 2 L’eugénisme ou l’Apocalypse molle publiée ici le 27 juillet 2009 ainsi que les trois suivantes qui la mettent en perspective (n° 7 La fin de l’histoire vue par un géologue, le 10 août ; n° 5 Le caractère sur ordonnance, le 17 août ; et n° 9 L’hormone de la contestation, le 24 août). Aujourd’hui, alors que la menace d’un conflit nucléaire entre Russes et Américains paraît s’éloigner, la prolifération nucléaire et le changement climatique prennent le relai. Il reste improbable que ces catastrophes annoncées puissent provoquer la disparition pure et simple de l’humanité.
- Le Dr Sneath était directeur du Centre Médical de Recherches Microbiennes à l’Université de Leicester. « Lire Les planètes et la vie, écrit François de Closets dans la préface de ce livre, c’est découvrir le phénomène humain non plus à l’échelle terrestre, mais à l’échelle cosmologique », ce qui est bien dans la perspective des présentes chroniques. Au chapitre 7 sur « La vie intelligente », Sneath présente (p. 161) l’idée d’évolution rétrograde relevée par A. Michel dans le contexte de la « loi de Good ». Sneath traite assez longuement cette loi et émet à son encontre la réserve suivante, toujours d’actualité : « Nous ne sommes pas sûrs d’arriver à insuffler aux machines un pouvoir logique suffisant pour qu’elles deviennent intelligentes ou ultra-intelligentes. Nous sommes ici freinés par un manque de connaissances de base. Nous sommes capables de concevoir des machines sachant démontrer des théorèmes algébriques, ou jouer aux échecs, peut-être même avec brio. Mais nous sommes encore loin de voir des ordinateurs composer de la musique ou des poésies, ou s’interroger sur la nature de l’univers. Aujourd’hui l’“intelligenceˮ de l’ordinateur n’est rien d’autre que la substance logique introduite par l’homme sous forme de programmes. Mais nous ne pouvons exclure la possibilité de doter un jour ces machines d’une intelligence créatrice, même si nous ne voyons pas actuellement comment y parvenir. » (p. 159).
Il poursuit « Les robots n’ont aujourd’hui aucune réalité en dehors de notre imagination ; ils nous posent cependant un problème éthique. Pourquoi ne pas admettre qu’ils puissent nous supplanter, s’ils se révélaient mieux adaptés et plus efficaces que nous ? Et pourquoi ne pas les aimer ? Ce seraient des créations de l’espèce humaine et même ses “enfantsˮ. Non des enfants de chair, “la chair de notre chairˮ, mais plutôt l’esprit de notre esprit… » (p. 164). Aimé Michel n’a pas pris ce problème à la légère et en a tiré les conséquences proprement spirituelles (voir par ex. la chronique n° 438, Vers l’homme périmé, in La clarté, chap. 16, p. 446, où il écrit « Vient le temps où notre destinée sera de persister spirituellement dans un milieu plus intelligent que nous, où notre intelligence risque d’être périmée. »). Cette profonde interrogation demeure même si les conditions d’apparition de ce milieu demeurent incertaines. Nous y reviendrons donc, ainsi que sur la reproduction des machines évoquée par Sneath, autre ligne de réflexion qui remonte à John von Neumann…
- Peut-être ces « machines hyper-intelligentes » venues du fond de l’espace existent-elles ? Peut-être sont-elles déjà là sur Terre ou à proximité ? Mais nous n’en savons rien…