En 1950, le mathématicien britannique Alan Turing dans un article intitulé « Une machine peut-elle penser ? » tente de répondre en deux temps. Il invente tout d’abord un test, dit depuis test de Turing, permettant de trancher théoriquement la question : une machine passant favorablement le test est aussi intelligente qu’un homme, donc elle « pense » en ce sens précis du terme. Le test implique trois protagonistes : un homme (A), une femme (B) et un interrogateur (C). L’homme et la femme communiquent par l’intermédiaire d’une messagerie quelconque avec l’interrogateur, mais pas entre eux. L’interrogateur doit poser des questions aux deux joueurs afin de déterminer lequel est la femme, sachant que l’homme va tenter de se faire passer pour une femme. Un homme d’intelligence moyenne doit être capable de simuler la féminité et de tromper l’interrogateur. La question posée par Turing est la suivante : un ordinateur placé dans la position (A) peut-il simuler la féminité au point de tromper l’interrogateur aussi bien qu’un homme ? Si tel est le cas, on peut dire que l’ordinateur pense, c’est-à-dire est capable de se mettre à la place de quelqu’un d’autre, de mentir et donc de s’approprier ou d’intégrer des états mentaux. Selon Turing - c’est le second moment de son argumentation - il sera possible d’ici quelques décennies de programmer des ordinateurs, avec une capacité de mémoire de 109 , pour les faire jouer au jeu de l’imitation de telle sorte qu’un observateur n’aura pas plus de 70% de chances de procéder à l’identification correcte après cinq minutes d’interrogation.
Cinquante ans ont passé depuis l’invention de ce fameux test, et les concurrents informatiques n’abusent toujours pas grand monde. Même si tel était le cas, il serait toutefois possible d’émettre de sérieuses réserves concernant la thèse du mathématicien britannique. L’approche « behavioriste » présente le défaut majeur d’induire une conception trop restreinte de la pensée et même de l’intelligence. Rappelons encore une fois tout d’abord que les chimpanzés, les jeunes enfants et les animaux domestiques, qui ne parlent pas, et qui ne sont pas capables de simuler quoique ce soit connaissent pourtant des désirs, des croyances, et donc une forme non négligeable de « pensée ». Le langage autorise les faux-semblants, mais l’intelligence ne se réduit pas à la capacité de tromper et de mentir ; en outre, on sait désormais que l’esprit se développe de façon décisive en amont du langage chez le jeune enfant. Si la capacité de simuler un état d’esprit ou une identité (« je suis une femme, en l’occurrence ») est bien une preuve d’intelligence, cette preuve n’est pas totalement concluante puisque l’ « intelligence » en question peut elle-même être simulée ! Le « behaviorisme », c’est-à-dire le fait de supposer que l’étude d’un comportement permet de trancher des questions d’ordre ontologique (telle que « la matière peut-elle produire de la pensée » ?) rencontre ici une limite évidente. Ce n’est pas parce qu’un ordinateur accomplit avec succès un certain nombre de performances tout à fait remarquables - à l’instar de HAL, par exemple, l’ordinateur génial de 2001, Odyssée de l’espace - que l’on peut lui prêter des représentations, des fantasmes ou des rêves (« Do andooïds dream of electric sheep ? » était le titre du livre de Philip. K. Dick, traduit en français ( !) par Blade Runner). Les ordinateurs n’ont pas peur de mourir, sont dépourvus de fantaisie et ignorent l’angoisse, la vanité ou la coquetterie, contrairement par exemple à la créature artificielle de Blade runner (le film de Ridley Scott, 1982) incarnée par la belle Daryl Hannah.
La chambre chinoise
En 1980, le philosophe John Searle critique l’idée de machine pensante et s’en prend plus particulièrement à l’approche réductrice de Alan Turing. Il soutient pour sa part que les conversations avec des ordinateurs ne témoignent d’aucune intelligence car les ordinateurs ne comprennent pas ce qu’ils disent et que l’on appelle l’ « Intelligence artificielle » ne produit qu’un simulacre de pensée. Pour illustrer son point de vue, John Searle oppose au test de Turing l’expérience (purement imaginaire) de la « chambre chinoise ». Admettons qu’une personne soit enfermée dans une chambre avec une liste de questions écrites en chinois assortie de réponses en chinois. Cette personne intègre toutes les directives permettant de fournir les bonnes réponses à toutes les questions. Par un guichet lui permettant de communiquer avec le monde extérieur quelqu’un lui fournit une ou plusieurs questions formulées en chinois. En seconformant aux instructions, ce cobaye humain sera capable de fournir en chinois toutes les réponses convenables aux questions posées en chinois ! Cette situation, on l’aura compris, est celle de l’ordinateur qui peut emmagasiner un nombre indéfini de questions/réponses ou de programmes lui permettant de manipuler des symboles avec une apparence de discernement. Pourtant nul besoin d’esprit pour imiter l’esprit ! De même que l’opérateur humain de la chambre chinoise ne comprend pas le chinois mais le manie correctement, aucun de nos neurones ne comprend les équations que résout un intellect moyen, même si nos neurones sont globalement mis à contribution et Deeper blue ne sait pas qu’il joue aux échecs jusqu’à preuve du contraire. On peut donc conclure de ces passes d’armes théoriques que les performances d’un circuit électronique ou même d’un système de neurones sont certes apparentées à de la pensée mais ne sont pas de la pensée. Cela ne signifie pas que la pensée est séparable de la matière, mais seulement qu’une structure très complexe produit quelque chose qui n’est pas inclus dans ses composants. Il est impossible de produire une mélodie sans cithare disait Platon, pourtant la cithare n’est pas la mélodie. Même la musique dite électronique aujourd’hui est l’œuvre d’un ou de plus ieurs créateurs et non pas une production mécanique dépourvue d’auteur.
Extrait de mon Cours particulier de philosophie, chapitre 4.