L’HOMME SIMULACRE - France Catholique
Edit Template
Funérailles catholiques : un temps de conversion
Edit Template

L’HOMME SIMULACRE

Copier le lien
workshop-2104445_1280.jpg
FRANCE INTER NOUS A FAIT entendre l’autre jour un Indien d’Amazonie qui, par je ne sais quel miracle, parlait français. Cet homme a passé la plus grande partie de sa vie dans la forêt. Il nous parlait de cette vie. Et quelle insupportable nostalgie s’est emparée de moi ! Oui, je sais, le mythe du bonheur sauvage dans la forêt, l’illusion de qui écoute de belles histoires installé dans ses pantoufles, et as-tu pensé, pauvre rêveur, aux semaines de pluie sous les arbres, à l’éloignement du médecin quand tu te blesses ou éternues, à l’incertitude du prochain repas, au feu qu’il faut garder la nuit pour éloigner la panthère, et à Dieu sait quoi encore ? Sans doute. Et aussi que le sauvage ne sauve que quelques rares enfants, qu’il doit, ou cuirasser son cœur contre l’amour et le chagrin, ou passer son temps à pleurer des morts. Et malgré tout, les propos de l’Indien éveillaient cette insupportable nostalgie. Au-delà des illusions romanesques, cet homme a bien réellement quelque chose que nous avons à jamais perdu : il connaît et comprend son univers ; il n’est dominé que par une nature toujours semblable à elle-même, et par ses dieux ; il n’est pas pris dans le tourbillon des forces à la fois intelligentes et incompréhensibles qu’on appelle l’Histoire1. Le paléolithique et la cybernétique Contraste : au même moment, je lisais un article du cybernéticien anglais F.H. George, spécialiste des « machines intelligentes » (a)2. F.H. George montre que si l’on cherche à préciser ce qui différencie l’intelligence mécanique de l’intelligence humaine, on en vient d’abord à s’interroger sur ce qu’il faut entendre par intelligence « humaine » puis à renoncer à le savoir, car quelque réponse que l’on donne, on peut déjà imaginer une machine qui fait la même chose ou mieux. Peut-être était-ce le savant anglais qui donnait au paléolithique de France Inter son inexprimable saveur. Un monde où ma pensée peut être égalée (et dépassée, parce qu’elle est lente et fatigable) par un tas de ferraille, c’est effrayant Mieux vaut grelotter nu sous la pluie dans la forêt ! Que faut-il, se demande F.H. George, pour que l’on puisse dire qu’un « système » a un comportement « intelligent » ? L’homme pensant qui s’interroge sur lui-même exige, selon le savant anglais, huit conditions : − Que le système soit capable de percevoir ; − Qu’il puisse apprendre ; − Qu’il soit motivé, c’est-à-dire que certaines données perçues par lui l’incitent à l’action ; − Qu’il fonctionne de manière intentionnelle, c’est-à-dire qu’il soit capable d’orienter son activité en fonction d’un but ; − Qu’il sache résoudre des problèmes ; − Qu’il sache surseoir à des motivations simples pour déduire, induire, prévoir, et ainsi produire du premier coup des actes complexes supposant une stratégie (il y a un mot anglais pour désigner cette capacité, c’est insight : il faut que le système agisse avec insight) ; − Qu’il puisse symboliser, c’est-à-dire conduire des séries d’activités à partir de signes complètement indépendants de l’expérience ; − Enfin, qu’il sache formuler ses « connaissances » et les communiquer à d’autres systèmes semblables. Or, dit F.H. George, toutes ces conditions sont déjà réalisées séparément, ou réunies à trois ou quatre, dans les ordinateurs de la plus récente génération. On ne sait pas encore les intégrer dans un seul système, quoique sur le plan des principes le problème soit « à peu près résolu ». Sur le plan pratique, on n’en est pas encore à fabriquer une machine réalisant à la fois les huit conditions, mais, dit F.H. George, « nous n’avons aucune raison de douter que nous y parviendrons ». Faisons preuve d’insight et sachons surseoir aux objections. Chemin faisant, le cybernéticien bouscule quelques illusions. Citant un de ses collègues, il fait cette remarque − On dit que les machines ne sont pas capables de faire preuve d’intelligence : mais les êtres humains non plus. Au-delà de la boutade, cet aphorisme rappelle le vieux problème philosophique de la preuve que tel être « pense ». Comment savons- nous que les hommes, nos semblables, pensent comme nous ? Nous le supposons parce que si nous parlons avec eux, ils évoquent les mêmes événements intérieurs que nous, rêves, sentiments, plaisirs et douleurs, désirs, craintes. Seulement, si nous tenons ces faits pour des preuves, alors la machine pense aussi. Car une machine « convenablement programmée » peut, elle aussi, nous parler de rêves et de sensations3. Cette machine est programmée ? Certes, mais l’être humain aussi ! Il est programmé au sens strict par son hérédité, de façon moins stricte par la culture où il grandit. Et, de son côté, une machine capable d’apprendre (condition n° 2) et douée d’intentions (condition n° 4) sait aussi élaborer elle-même son programme, c’est-à-dire acquérir une « personnalité ». Alors, que manque-t-il à la machine pour être, comme nous, esprit ? On peut à la lettre lui appliquer le sarcasme divin de la Genèse : « Le voici − Adam − devenu comme l’un de nous ! » La voilà bientôt − la machine − devenue comme l’un de nous4. Mais elle aussi a son, péché originel : elle sort de nos mains et ne peut donc pas nous en faire accroire. Elle n’est qu’un simulacre aveugle et sourd. Nous l’avons faite « à notre image et ressemblance », sauf sur le point essentiel qui à jamais nous échappe, parce que, même en nous, nous n’en connaissons pas le secret : la conscience d’être, le je, l’âme enfin5. N’empêche, elle inquiète. Entre l’homme-simulacre et la forêt, où est notre vraie condition terrestre ? Aimé MICHEL (a) Science et Vie, numéro spécial sur le Cerveau et la Pensée. F.H. George est professeur à l’université d’Uxbridge. Chronique n° 234 parue dans France Catholique-Ecclesia − N° 1520 − 30 janvier 1976 [|Capture_d_e_cran_2014-11-10_a_12-28-10.png|]
Notes de Jean-Pierre ROSPARS du 1er décembre 2014

 

  1. La connaissance ou non d’une Histoire est une ligne de partage fondamentale entre les sociétés humaines. Lorsque commence au XVIe siècle le désenclavement planétaire, les Européens découvrent deux types de peuples : ceux qui possèdent une histoire écrite ou orale, et ceux qui n’en possèdent pas. Ces derniers vivent dans un monde sans histoire bien que l’état de leur société soit complexe et très éloignée de celle d’hommes préhistoriques supposés vivre « à l’état de nature ». Comme l’écrit Claude Lévi-Strauss au début des Structures élémentaires de la parenté « De tous les principes avancés par les précurseurs de la sociologie, aucun n’a, sans doute, été répudié avec tant d’assurance que celui qui a trait à la distinction entre état de nature et état de société ». De là, la difficulté à trouver un terme pour désigner ces hommes sans mémoire (les Immémoriaux comme les appelle avec bonheur Victor Segalen) : on a parlé tour à tour de Sauvages, de Primitifs, d’Hommes premiers. Aimé Michel préfère « sauvage » ; Olivier Leroy aussi qui s’en explique ainsi : « On remarquera que j’ai préféré, chaque fois que j’exprime ma pensé propre, parler des “sauvages” plutôt que des “primitifs”. Mot familier, vulgaire, que les auteurs dédaignent ou dont ils n’usent qu’entre guillemets. Je ne partage pas ce dédain. “Sauvage” dit bien ce qu’il veut dire. S’il est vague et implique une préférence, affirme un jugement de valeur, il l’avoue. “Primitif” ne vaut pas mieux et n’a pas cette franchise. C’est à ce mot que je réserverai des guillemets. » (La raison primitive. Essai de réfutation de la théorie du prélogisme, Paul Geuthner, Paris, 1927. Dans ce livre remarquable O. Leroy combat la thèse du sociologue Lucien Lévy-Bruhl selon laquelle les sauvages auraient une « mentalité prélogique ».)
  2. Frank Honywill George, né en 1921, est un psychologue et cybernéticien britannique. Formé a Cambridge et Bristol, il commence sa carrière en 1949 comme maître de conférence au département de psychologie de l’université de Bristol puis se spécialise en informatique. Dans les années 70, il dirige l’Institut de Cybernétique de l’université Brunel située à Uxbridge près de Londres. Dans les années 80 il dirige le « UK Bureau of Information Science ». Il s’est fait connaître en 1962 par son livre « le cerveau ordinateur » (The Brain as a Computer, Pergamon, Oxford ; disponible sur Internet ; je ne pense pas qu’il ait été traduit en français). Par la suite il a écrit une vingtaine de livres sur la psychologie, la cybernétique, l’informatique, la robotique, la philosophie des sciences.
  3. Aimé Michel est souvent revenu sur ce thème dans ses chroniques. En voici quelques-unes qui l’abordent : n° 181, Des machines intelligentes – Ordinateurs intelligents de Turing et machines autoreproductrices de von Neumann (19.08.2013) ; n° 286, Qu’est-ce qui n’est pas dans le temps ni l’espace et qui est infini ? – Le désaveu de la physique qui ne serait que physique (17.03.2014) n° 255, Les mouches – Ces théologiens sérieux qui repoussent l’idée d’une Personne divine (11.02.2013) n° 262, « Miaou ». et tout est dit ? – Ce monde mystérieux et cruel vient de l’amour et y retourne (08.04.2013) sur la conscience animale.
  4. Dans sa réflexion cybernétique sur le cerveau humain, F. H. George n’élude pas complètement la difficulté que pose la conscience d’être mais avoue son impuissance : « Nous devrions peut-être mentionner que les tentatives pour comprendre la conscience d’un point de vue behavioriste et donc d’un point de vue cybernétique ne produiront vraisemblablement qu’une idée grossière et heuristique de ce que constitue la conscience parce que ceci nous conduit droit au problème que les philosophes appellent les “autres esprits”. Nous ne pouvons pas savoir ce que c’est que d’être une autre personne, et encore moins ce que c’est que d’être une machine. Naturellement nous éprouvons les plus grandes difficultés à imaginer une machine ayant une conscience comme la nôtre, et peut-être que la seule sorte de système construit qu’on pourrait concevoir comme ayant le même genre de conscience que nous serait construite à partir des mêmes substances chimiques colloïdales que l’être humain. Ceci a réellement peu à faire avec la cybernétique en tant que telle, mais cela vaut peut-être la peine de le dire ici, ne serait-ce que pour rappeler notre engagement béhavioriste. » (pp. 367-368). Mais il n’explique pas pourquoi la conscience devrait émerger de « substances chimiques colloïdales » (de protéines donc) plutôt que de circuits électroniques. Il y revient dans son résumé final (proposition 17) : « La conscience n’est pas une propriété du système qui peut être examiné cybernétiquement, et dans l’ombre du problème des ‘autres esprits’ nous devons dire simplement qu’il représente probablement une certaine activité neurale par laquelle nous avons un aperçu de notre propre activité cérébrale, via des images et des sensations. » (p. 384). Tout en réaffirmant que la conscience a peu à faire avec la cybernétique, il ne peut s’empêcher de la rattacher à une propriété qui en relève et qui n’est pas sans rappeler la ré-entrance de Gerald Edelman.
  5. Aimé Michel distingue donc soigneusement l’intelligence et la conscience. L’intelligence qui est la capacité de résoudre des problèmes, peut être dans une large mesure imitée par des moyens artificiels de traitement de l’information. La conscience qui est présence à soi-même est d’une nature fondamentalement inconnue et, par conséquent, personne ne saurait dire à l’heure actuelle comment on peut l’imiter par des moyens artificiels. Cette nette distinction présente cependant une difficulté car il se pourrait bien que la conscience soit indispensable à la pleine expression de l’intelligence humaine. Si c’est le cas, alors on peut douter qu’une intelligence artificielle fondée sur les principes actuellement connus (où la conscience est absente) puisse jamais égaler ou surpasser en tous points l’intelligence humaine. À moins d’admettre que la conscience puisse spontanément émerger d’une machine intelligente suffisamment élaborée, sans que ses créateurs humains l’ait voulu. De même que la vie naît d’un ballet élaboré de molécules, la conscience naîtrait d’un ballet élaboré d’informations dans un cerveau naturel ou son équivalent artificiel. La matière, la vie et la conscience émergeraient spontanément dès lors que les conditions propices seraient présentes en tant que propriétés émergentes de l’univers, Reste que la science ne nous offre pour l’instant aucun moyen de savoir quel effet cela ferait d’être cette machine, alors comment saura-t-on en l’examinant de l’extérieur sous toutes les coutures (« d’un point de vue behavioriste » comme dit F. H. George) qu’elle est devenue consciente ? C’est, selon Aimé Michel, le sens profond du paradoxe de Turing (voir par exemple la chronique n° 102, Le lit de Procuste, 04.08.2010).