QUAND LA MACHINE NOUS APPREND À PENSER - France Catholique
Edit Template
Noël : Dieu fait homme
Edit Template

QUAND LA MACHINE NOUS APPREND À PENSER

Copier le lien

Prenez un ethnologue spécialisé dans l’étude des paysans turcs, trois ingénieurs de nationalité et de formation différentes, un mathématicien et une documentaliste, faites-les asseoir autour d’une table et déclarez la séance ouverte. De quoi diable vont-ils bien pouvoir parler ?

Accroître l’intellect humain ?

Ceci n’est ni une devinette ni un jeu de société. Je sais de quoi ces six personnes ont parlé la première et probablement la dernière fois qu’elles se sont rencontrées, car j’étais l’une d’elles. Et elles n’étaient pas réunies là pour prendre le thé, mais bien pour des raisons professionnelles, sur la demande du turcologue. Seulement, cela se passait à Menlo Park, en Californie, au Stanford Research Institute (SRI) de l’Université Stanford.

Le turcologue était le docteur Allen R. Kessler, du Massachusetts Institute of Technology (MIT), un de ces savants américains nouvelle vague : cheveux longs, blue jeans et expérience approfondie du travail sur ordinateur. Il avait parcouru plus de 3 000 kilomètres pour venir au SRI consulter les chercheurs du programme appelé « Human Intellect Augmentation Techniques » et échanger avec eux des idées et des renseignements. « Human Intellect Augmentation Techniques », cela signifie tout simplement, comme en français, « techniques d’accroissement de l’intellect humain ».
Accroître l’intellect humain ? Et par des techniques ?

Oui. Il y a seulement vingt ans, un tel programme n’aurait pu évoquer, même pour l’esprit le plus imaginatif, que des procédés psychologiques comme, par exemple, ceux qu’utilisaient les pédagogues de l’Antiquité pour améliorer la mémoire ou l’agilité dialectique de leurs élèves. Rien de tel ici. Dans la trentaine de bureaux où travaillent les chercheurs de ce programme américain, on n’ânonne aucune formule mnémotechnique, on n’apprend pas les barbara, celarent, baralipton de la vénérable logique formelle1. Dans chaque bureau, il y a une table, un petit casier à livres, un tableau noir, de la craie, et − le plus important − la console à clavier et à écran qui permet au chercheur de communiquer avec l’ordinateur : le clavier pour parler à la machine, l’écran sur lequel elle répond, et où elle indique ce qu’elle enregistre. L’ensemble, on le sait, s’appelle un terminal. Mais ici, le terminal comporte aussi deux petits appareils supplémentaires : à gauche du clavier habituel, un autre petit clavier de six touches assez semblables à celles d’un piano qui n’aurait pas de noires et, à droite, relié au reste du dispositif par un simple fil, un petit objet au dessus ovoïde gros comme un rasoir électrique, posé à plat sur la table, mobile et baptisé Mouse (la souris) par ses constructeurs2. Sur Mouse, on voit un petit bouton qu’actionne l’index. A tous ces terminaux, ajoutons naturellement l’ordinateur lui-même, avec son assortiment habituel d’appareils auxiliaires. Et c’est tout. C’est avec cela que, depuis dix ans, D. C. Engelbart, le directeur du programme, développe ses techniques d’« accroissement de l’intellect humain »3.

J’ai pu avoir une idée de ces techniques dès mon premier entretien avec Engelbart dans son petit bureau, au fond du couloir, en tout semblable à celui de ses collaborateurs (l’égalité américaine : pas d’antichambre défendue par une secrétaire hautaine, rien qu’une porte toujours ouverte où l’on peut voir tout ce que fait le patron). Nous avons commencé par quelques présentations d’ordre professionnel (le curriculum). Puis, comme je mentionnais certaines études que j’ai faites depuis quinze ans sur les calculateurs4, l’œil d’Engelbart s’alluma.

Vous êtes « dans » l’ordinateur

−  Vous permettez ? me dit-il.

Il se tourna vers la console et se mit à taper sur le clavier en me posant des questions. A mesure que je répondais, je voyais apparaître sur l’écran un résumé de mes propos, bien proprement divisés en versets numérotés, comme paroles d’Evangile ! Quand, sur une question, je donnais des précisions modifiant ce qui était déjà écrit, sa main droite se posait sur Mouse, et je voyais un point noir se déplacer à travers l’écran jusqu’au passage à changer, qui, aussitôt, était repris et corrigé par le clavier. Bientôt l’écran fut plein de mes versets. Engelbart manœuvra le petit clavier et, en un clin d’œil, ceux-ci changeant de format montèrent vers le haut de l’écran en se rétrécissant. Je pus continuer à proclamer mon évangile sur les calculateurs, qui, aussitôt, s’enregistra comme devant. Une fois de plus, l’écran fut rempli5.

−  Bon, dit Engelbart, ce qui est là vous paraît OK ?

Je me relus et proposai quelques raccourcis, qui, aussitôt, apparurent sur l’écran, cependant que le numérotage des versets changeait en un éclair.

−  Puisque vous êtes d’accord, hop ! envoyons cela dans la bécane, et passons à la suite.

Une manœuvre du clavier, et tout disparut. L’écran était vide. Effacé ? demandai-je. Il rit de bon cœur : non, pas effacé ! Aux archives, tout simplement.

−  Vous avez été enregistré. Vous êtes dans l’ordinateur, à la disposition de tous nos collaborateurs, ici à Menlo Park, mais éventuellement à New York, à Santiago, à Paris, à Pékin : il suffit d’avoir un terminal relié à notre programme, par satellite, of course. C’est très facile, quoique encore un peu cher, mais attendez seulement quelques années6. Il suffira désormais de faire ceci (geste sur le clavier), sur n’importe quel terminal de notre programme, pour voir apparaître…

Et, de nouveau, je lus sur l’écran : 14 mai 1972, 10h30 a.m., visite d’Aimé Michel (adresse, curriculum), qui entretient DCE de ses recherches, etc.

−  Une infaillible secrétaire, votre machine ?

Entre autre choses ! Entre mille autres choses infiniment plus compliquées, et dont nous n’avons encore mis au point qu’une partie. Il nous serait très facile, par exemple, après avoir enregistré dix mille conversations comme celle-ci, de faire un petit programme permettant d’en extraire en un éclair, par la seule manœuvre de quelques touches, tout ce qui a été dit sur la pêche à la ligne, les fonctions elliptiques, Dieu, les mœurs des paysans turcs7. On peut aussi naturellement injecter des programmes mis au point par ou sur d’autres machines. On peut… Mais que ne peut-on pas ? Jusqu’où cela ira-t-il ? A mon avis, cela peut progresser indéfiniment. Bientôt, nous aurons des machines et des programmes capables de s’améliorer tout seuls… Et je ne peux vous dire si nous serons, nous, capables de contrôler et ces programmes et ces machines… Ainsi parlait Engelbart8.

Voilà (entre autres choses) ce que l’on voit en 1972 en Amérique…

Aimé MICHEL

(*) Chronique n° 97 parue dans France Catholique − N° 1332 − 23 juin 1972.

Notes de Jean-Pierre ROSPARS

  1. Barbara, celarent sont les deux premiers termes d’une formule mnémotechnique plus longue en usage dans la théorie du syllogisme. Un exemple classique de syllogisme est : Tous les hommes sont mortels ; or Socrate est un homme ; donc Socrate est mortel. C’est un raisonnement dans lequel on déduit de deux prémisses supposés vrais une conséquence nécessaire. Les propositions (prémisses et conclusion) peuvent être de quatre types que les logiciens scolastiques ont désigné chacune par une voyelle : affirmatives universelles (A, Tout homme est mortel), négatives universelles (E, Aucun homme n’est mortel), affirmatives particulières (I, Quelques hommes sont mortels) et négatives particulières (O, Quelques hommes ne sont pas mortels). Lorsque les deux prémisses d’un syllogisme sont de type A comme dans le premier exemple, la conclusion Socrate est mortel l’est aussi, d’où AAA, ce que les scolastiques ont proposés de se remémorer par les trois A de barbara. De même si la première prémisse est E et la seconde A, alors la conclusion est E d’où celarent. Puis viennent darii (AII), ferio (EIO) etc.
  2. Cette chronique a ceci d’émouvant qu’elle décrit en détail un commencement. « Rien n’est plus mystérieux que les commencements » car ils ont rarement des témoins. Je ne sais s’il y a beaucoup d’autres textes qui ont saisis ainsi sur le vif un moment d’histoire avec la claire conscience de sa signification. Car c’est une description exacte du futur de l’informatique qui est donnée ici à un détail près : le microordinateur n’est pas mentionné en tant que tel. Jacques Vallée, dont Engelbart était le patron, relate cette visite d’Aimé Michel et plusieurs des entretiens qui l’émaillèrent dans son journal Forbidden Science Volume Two : Journals 1970-1979, The Belmont Years, Documatica Research, 2008, pp. 132-137.
  3. Douglas C. Engelbart naît dans les années 20 dans une ferme de l’Oregon. Ingénieur en électricité, il passe son doctorat en 1955. Après deux années à l’université de Berkeley comme professeur assistant, il passe à l’Institut de Recherche de Stanford (SRI) au cœur de ce qui est aujourd’hui la Silicon Valley. C’est là qu’il élabore, en 1962, son projet fondateur « Augmenter l’intellect humain : un cadre conceptuel » où il rêve déjà d’échanges rapides entre professionnels par l’entremise d’un clavier et d’un écran connectés à un ordinateur, à une époque où l’interaction avec l’ordinateur est le plus souvent longue et difficile via des cartes perforées en entrée et des « listings » papier en sortie.

    L’année suivante il invente la souris et confie la réalisation de son prototype à un de ses ingénieurs, Bill English. En 1965, Engelbart et son équipe testent la demi-douzaine de dispositifs de pointage disponibles à l’époque ; ils montrent que la souris est le plus rapide d’entre eux et celui qui cause le moins d’erreurs (voir son rapport). Le brevet de la souris, signé Engelbart, est déposé en 1967 bien avant la création du Centre de Recherche de Palo Alto (PARC) de Xerox en 1970, dont une légende tenace veut qu’il ait été à l’origine de la souris. Améliorée par Jean-Daniel Nicoud à l’École Polytechnique Fédérale de Lausanne, la souris fut popularisée par Apple sur son Macintosh à partir de 1984…

    J’ai déjà mentionné Engelbart en marge de la chronique n° 104, Software et politique, parue ici le 31 mai 2010. Si les règles d’antériorité étaient strictement respectées, la « loi de Moore » devrait s’appeler « loi d’Engelbart ». En effet cette conjecture sur la croissance exponentielle au cours du temps de la puissance des processeurs, émise en 1965 par Gordon Moore, fut proposée six années auparavant par Engelbart (voir la chronique n° 50, La troublante loi de Good, Quand l’intelligence des machines aura commencé d’échapper à la nôtre, parue ici le 6 décembre 2010).

    Engelbart, souvent critiqué voire ridiculisé pour ses vues futuristes, est maintenant pleinement reconnu. Il a reçu notamment des mains du président Clinton la Médaille Nationale de la Technologie, la plus haute distinction américaine en la matière, en décembre 2000. On trouvera d’autres éléments biographique dans la notice rédigée par sa fille Christina.

  4. Aimé Michel veut parler des calculateurs prodiges (ou experts comme on dit aujourd’hui), voir la chronique n° 64, L’« infirmité » de la mémoire (Louria et la mémoire phénoménale de Veniamin), parue ici le 07.02.2011.
  5. Le lecteur aura bien sûr reconnu la description d’un logiciel de traitement de texte. Ces premiers logiciels ne connurent qu’un succès limité aux grandes entreprises car ils faisaient un grand usage de la mémoire (très coûteuse à l’époque) sans profiter de la vitesse de calcul du processeur, si bien que les responsables informatiques ne considéraient pas le traitement de texte comme une tâche appropriée à leurs gros ordinateurs. C’est l’adaptation du traitement de texte aux microordinateurs équipés de microprocesseurs Intel 8080 et Motorola 6502, de lecteurs de disquettes et de systèmes d’exploitation standardisés (notamment CP/M) qui assura le succès de l’un et de l’autre à la fin des années 70. Le premier traitement de texte largement diffusé fut WordStar de la compagnie Micropro. En l’absence de souris et les claviers de l’époque n’étant pas munis des flèches, les déplacements du curseur à l’écran se faisaient en pressant simultanément sur la touche contrôle et les touches voisines E (vers le haut), S (vers la gauche), D (vers la droite) et X (vers le bas), qui heureusement (mais ce n’est sans doute pas un hasard) sont disposés aux mêmes endroits sur les claviers QWERTY, QWERTZ et AZERTY. Bien qu’assez primitif eu égard aux performances des logiciels actuels, il permettait à tout un chacun de préparer des documents parfaitement présentés sans avoir à passer par les fourches caudines du secrétariat et je me souviens encore avec émotion du jour où un collègue apporta la première disquette de Wordstar !
  6. Le réseau utilisé ici par Engelbart est Arpanet, le réseau de l’ARPA (Advanced Research Projects Agency) du Ministère américain de la défense, le premier à connecter de multiples ordinateurs entre eux. C’est Internet qui se profile dans l’esprit de ces pionniers. « Dans son style prophétique “cerveau droit”, note Jacques Vallée dans son journal le 21 avril 1972, il [Doug Engelbart] voit venir le jour où les ordinateurs ne seront plus utilisés seulement par les scientifiques mais seront disponibles à un grand nombre de gens. Il prévoit des communautés entières travaillant à travers eux. » (op. cit., p. 127).

    Le premier lien d’Arpanet fut établi le 21 novembre 1969 entre l’UCLA (Université de Californie à Los Angeles) et le SRI (Stanford Research Institute où travaillait Engelbart en 1972). En 1973, 23 ordinateurs sont connectés et le premier courriel est envoyé par Ray Tomlinson, à qui l’on doit le format standard d’adressage utilisant le signe @ (que les typographes appellent a rond bas de casse, en abrégé arobase, et qui n’était guère connu jusque là que de ceux-ci) pour séparer le nom d’utilisateur du nom d’hôte. Cette même année on commence à affranchir le plus possible les connexions de leurs caractéristiques physiques pour les transférer dans le logiciel. L’ARPA (ou DARPA) finance ces travaux qui aboutissent en 1977 à la première version du protocole TCP/IP. Celui-ci est rapidement adopté et devient le seul protocole d’Arpanet en 1983.

    La facilité de raccordement des réseaux permit leur extension progressive et Internet prit le sens nouveau de réseau mondial utilisant TCP/IP. L’utilisation de ce protocole se développa en Europe à partir de 1984, notamment sous l’impulsion du CERN. Dès cette époque les principaux centres de recherche du monde étaient connectés et les chercheurs prirent l’habitude de communiquer par courrier électronique. Tandis que le projet Arpanet, dépassé, prenait fin en 1990, un autre réseau, Bitnet, créé en 1981 connut son apogée en 1991 (il regroupa alors jusqu’à 500 organismes universitaires et de recherche dans le monde) puis déclina à son tour au profit d’Internet. C’est sur Bitnet que deux étudiants de l’École des Mines de Paris lancèrent en 1984 le premier jeu multi-utilisateur. Il connut un tel succès qu’il amena Bitnet à saturation à plusieurs reprises si bien qu’il fallut l’interdire !

    Vers la même époque les premiers fournisseurs d’accès faisaient leur apparition et offraient aux entreprises et aux particuliers des services réservés jusque là au monde de la recherche. Néanmoins je fus frappé du décalage qui exista en France pendant plusieurs années entre l’usage courant du courrier électronique (que nous appelions aussi messagerie électronique, en abrégé m. él. ou mél) dans les centres de recherche et son ignorance dans de grandes entreprises ayant pourtant de nombreuses implantations en France et à l’étranger.

  7. Ce qu’Aimé Michel décrit ici ce sont les vastes archives informatisées et les moteurs de recherche qui permettent d’y accéder. Là encore on retrouve le nom de Douglas Engelbart qui dès 1962 développait l’hypertexte, mot inventé par Ted Nelson, sur une idée proposée en 1945 par Vannevar Bush, conseiller scientifique de Roosevelt. Il est fascinant de lire l’article de V. Bush (cité par Engelbart dans son rapport de 1962) : « Considérons, écrit-il, un dispositif futur à usage individuel, qui est une sorte de classeur et de bibliothèque personnels et mécanisés. Il lui faut un nom et pour en forger un au hasard, “memex” fera l’affaire. Un memex est un dispositif dans lequel chaque individu range tous ses livres, archives et correspondances, et qui est mécanisé de telle sorte qu’il peut être consulté avec une vitesse et une souplesse énormes. C’est un supplément agrandi et intime de sa mémoire. (…). Tout est prévu, bien sûr, pour consulter des enregistrements par le procédé habituel de l’indexation. Si l’utilisateur souhaite consulter un certain livre, il tape son code sur le clavier, et la page de titre du livre apparaît promptement devant lui, projetée sur l’un de ses emplacements de visualisation. » (Tel que nous pourrions penser, Atlantic Monthly, 1976: 101-108, 1945, trad. française partielle disponible sur http://www.hypertexte.org/blog/?p=125).

    Cette solution pour organiser des données distribuées fut reprise en 1989 par Time Berners-Lee et Robert Cailliau au CERN en vue de partager les données issues de leurs recherches. Ainsi naquit le réseau des réseaux, la toile mondiale (Word Wide Web, WWW) en 1991. Le navigateur Netscape s’imposa en 1994 pour trouver des informations parmi les pages Web. La même année deux étudiants de Stanford créèrent l’annuaire Yahoo pour recenser les meilleurs sites. Mais, avec l’accroissement rapide de la toile et des informations disponibles, l’enjeu se déplaça de la simple recherche des données vers leur classement par pertinence décroissante. Apparue en 1998, la méthode de classement de deux étudiants, de Stanford encore, connut un succès rapide : leur moteur de recherche Google est choisi par Yahoo en 2000 puis par AOL en 2002…

  8. Aimé Michel avait pleinement perçu la dimension prophétique d’Engelbart et de ses collègues, ainsi que le caractère inéluctable du développement de l’informatique. La conclusion « cela peut progresser indéfiniment » est lourde de conséquence. Elle pose la question lancinante de l’avenir de la co-évolution des hommes et des machines. On voit bien que des progrès considérables sont encore à faire pour rendre davantage d’informations disponibles, faciliter les interrogations et surtout organiser les informations obtenues de manière intelligible. Cette automatisation sélectionnera-t-elle ceux pour qui elle sera aide et stimulant pour créer au détriment de ceux qui y trouveront un mol oreiller ? Jusqu’où ira cette externalisation de l’intelligence ? Verra-t-on bientôt l’imagination créatrice artificielle ?

    Notons aussi que cette chronique peut servir d’illustration concrète aux chroniques n° 208, La bousculade américaine (La source révolutionnaire de ce temps, c’est l’Amérique), parue ici le 5 décembre 2011, n° 210, Les marchés de l’immatériel (Presque toute richesse est destinée à devenir informationnelle), du 12 janvier 2012 et n° 105, Comment la planification tue la recherche.