Searle, J. R., & Duyckaerts, É. (1987). Document: Esprits, cerveaux et programmes. Quaderni, 1(1), 65-96.
Résumé : Cet article est une tentative d'explorer les conséquences de deux propositions. (1) L'intentionnalité chez les êtres humains (et les animaux) est le produit de caractéristiques causales du cerveau: certains processus cérébraux suffisent à l'intentionnalité. (2) Un programme d'ordinateur n'est jamais en soi une condition suffisante d'intentionnalité. L'argument principal de cet article vise à établir cette affirmation. La forme de l'argument est de montrer comment un agent humain pourrait implémenter le programme sans avoir toujours l'intentionnalité appropriée. Ces deux propositions ont les conséquences suivantes (3) L'explication de la façon dont le cerveau produit l'intentionnalité ne peut pas être qu'il le fait en mettant en œuvre un programme informatique. C'est une conséquence logique stricte de 1 et 2. (4) Tout mécanisme capable de produire une intentionnalité doit avoir des pouvoirs causaux égaux à ceux du cerveau. Ceci est censé être une conséquence insignifiante de 1. (5) Toute tentative de créer artificiellement une intentionnalité (IA forte) ne pourrait pas réussir simplement en concevant des programmes mais devrait dupliquer les pouvoirs causaux du cerveau humain. Cela découle de 2 et 4.
Harnad, S. (2001) What's Wrong and Right About Searle's Chinese RoomArgument? In: M. Bishop & J. Preston (eds.) Essays on Searle's Chinese Room Argument. Oxford University Press.
Lorsqu'en 1979, Zenon Pylyshyn, rédacteur en chef adjoint de The Behavioral and Brain Sciences (BBS, une revue de commentaires par les pairs que j'édite) m'a informé qu'il avait obtenu un article de John Searle (avec un titre peu engageant que Zenon, John et moi avons tous depuis oublié !), je ne peux pas dire que j'ai été particulièrement impressionné ; et une lecture rapide du bref manuscrit - qui semblait être une autre "objection de grand-mère" fastidieuse sur le pourquoi/comment nous ne sommes pas des ordinateurs - n'a rien fait pour améliorer cette impression.
L'article soulignait qu'un programme informatique « compréhension du chinois » ne comprendrait pas vraiment le chinois parce que quelqu'un qui ne comprendrait pas le chinois (par exemple, Searle lui-même) pourrait exécuter le même programme tout en ne comprenant pas le chinois ; par conséquent, l'ordinateur exécutant le programme ne comprendrait pas non plus le chinois. L'article a réfuté divers contre-arguments prima facie contre cela (principalement des variantes sur le thème que ce ne serait pas Searle mais "le système", dont Searle ne serait qu'une partie, ce serait en effet comprendre le chinois lorsque le programme était exécuté), mais tout cela me semblait trivial : oui, bien sûr, un programme inerte seul ne pouvait rien comprendre (donc Searle avait raison à ce sujet), mais sûrement un programme d'exécution pourrait faire partie de ce qu'un « système » compréhensif comme nous fait vraiment et est (donc la "réponse du système" avait également raison).
L'article a été évalué (favorablement) et accepté sous le titre révisé "Minds, Brains, and Programs", distribué à une centaine de commentateurs potentiels dans toutes les disciplines et dans le monde, puis copublié en 1980 dans BBS avec vingt-sept commentaires et la réponse de Searle. Au cours des années qui ont suivi, d'autres commentaires et réponses ont continué d'affluer car, à ma grande surprise, l'article de Searle est devenu l'article cible le plus influent du BBS (et l'est toujours à ce jour) ainsi qu'un classique des sciences cognitives. (Lors de la Conférence de Rochester sur les programmes cognitifs (Lucas & Hayes 1982), Pat Hayes est allé jusqu'à définir les sciences cognitives comme "le programme de recherche en cours visant à montrer que l'argument de la salle chinoise de Searle est faux" -- "et idiot", je crois avait-il ajouté à l'époque).
Alors que les arguments et les contre-arguments n'arrêtaient pas d'augmenter au fil des ans, je me suis irrité d'être le seul sur la planète à ne pas avoir le droit (d'office, étant l'arbitre) d'essayer, même si je sentais que je pouvais régler le wagon de Searle si j'en avais l'occasion. , et mettre un terme à la polémique plutôt répétitive et non résolue. À la fin des années 80, je préparais ma propre critique, intitulée "Minds, Machines and Searle" (d'après "Minds, Machines, and Gödel", de Lucas [1961], un autre philosophe affirmant que nous ne sommes pas des ordinateurs), mais pas sûr où le publier (le BBS étant hors de question). L'une des accusations portées contre Searle par ses détracteurs était que sa critique erronée avait étouffé le financement de l'intelligence artificielle (IA), de sorte que le nouveau Journal of Experimental and Theoretical Artificial Intelligence (JETAI) semblait un lieu raisonnable pour ma propre critique de Searle, qui y parut donc en 1989.
Je n'ai jamais rien entendu de Searle au sujet de ma critique de JETAI, même si nous interagissions encore régulièrement en relation avec le Commentaire continu incessant sur son argument de chambre chinois (CRA) dans BBS, ainsi qu'un tout nouvel article cible de BBS (Searle 1990a) qui il a écrit spécifiquement pour souligner le 10e anniversaire de la SCR. Cette incapacité à entrer dans la mêlée aurait été beaucoup plus frustrante pour moi si un média radicalement nouveau pour Open Peer Commentary ne s'était pas ouvert en même temps : on m'avait attiré l'attention sur le fait que depuis le début des années 80, l'ARC avait été un sujet principal sur "comp.ai", un groupe de discussion sur Usenet. (Ce Global Graffiti Board for Trivial Pursuit devait avoir de multiples influences sur moi et BBS, et sur le futur cours de Learned Inquiry et Learned Publication, mais c'est une autre histoire [Harnad 1990a, 1991b; Hayes et al., 1992] nous ne nous intéressons ici qu'à son influence sur la saga Searle).
Se connecter à comp.ai au milieu des années 80 avec l'intention d'essayer de résoudre le débat avec ma propre critique quelque peu œcuménique de Searle (Searle a raison de dire qu'un programme d'exécution ne peut pas être tout ce qu'il y a à être un système de compréhension, mais à tort que un programme d'exécution ne peut pas faire partie d'un système de compréhension), à ma grande surprise, j'ai trouvé comp.ai étouffé par une telle litanie d'arguments anti-Searle incroyablement mauvais que j'ai trouvé que je devais passer tout mon temps d'antenne à défendre Searle contre ces non -starters au lieu de l'enterrer, comme j'avais l'intention de le faire. (Searle l'a remarqué cette fois, car apparemment il s'est également connecté à comp.ai à l'époque, m'encourageant [hors ligne] à continuer à mener le bon combat - ce qui m'a intrigué, car j'étais convaincu que nous étions sur des côtés opposés ).
Je n'ai jamais eu le temps d'enterrer Searle, car quand, après des mois à ne jamais essayer de clarifier les choses en réfutant les mauvaises réfutations à l'ARC, j'ai supplié Searle [hors ligne] de lire mon 'Minds, Machines and Searle' et sachez que nous étions des adversaires plutôt que des compagnons d'armes, malgré les apparences contraires sur comp.ai. Il m'a répondu que bien que mon article contienne des points sur lesquels des hommes raisonnables pourraient accepter de ne pas être d'accord, sur le point essentiel, celui que tout le monde était occupé à contester, je suis en fait d'accord avec lui -- alors pourquoi ne pas simplement sortir et le dire?
C'est alors que le jeton est tombé. Car il y avait quelque chose dans l'argument de la salle chinoise qui m'avait été évidemment juste depuis le début, et j'avais donc tout à fait pris cette partie pour acquise, me concentrant plutôt sur ce que je pensais que Searle avait tort; pourtant ce point d'accord essentiel était celui-là même que tout le monde contestait ! Et ne vous y trompez pas, si vous avez répondu à un sondage - dans le premier tour du commentaire BBS, dans le commentaire continu, sur comp.ai ou dans la littérature secondaire sur l'argument de la salle chinoise qui s'est accumulée au cours des deux décennies pour aujourd'hui (et culminant dans le présent livre) - l'écrasante majorité pense toujours que l'argument de la chambre chinoise est tout à fait faux, même parmi ceux qui conviennent que les ordinateurs ne peuvent pas comprendre ! En fait (je suis ouvert à la correction sur ce point), j'ai l'impression que, à part moi, les seuls qui professent accepter la validité du CRA semblent être ceux qui sont également persuadés par ce que j'ai appelé plus tôt les "objections de grand-mère". " -- le genre d'amis à la tête douce qui font encore plus de mal à son cas que ses ennemis.
Alors, qu'est-ce que cette ARC, et qu'y a-t-il de bien et de mal à ce sujet ? Searle est certainement en partie responsable des deux décennies de malentendus concernant son argumentation sur la compréhension. Il n'a pas toujours dit les choses de la façon la plus claire. Pour commencer, il a baptisé comme cible une position que personne n'était tout à fait prêt à posséder pour être la sienne : "Strong AI".
Qu'est-ce que "l'IA forte" ? Comme distillé des différentes incarnations successives du CRA (oral et écrit : Searle 1980b, 1982, 1987, 1990b), les partisans de Strong AI sont ceux qui croient en trois propositions :
(1*) L'esprit est un programme informatique.
(2*) Le cerveau n'est pas pertinent.
(3*) Le test de Turing est décisif.
C'est ce trio de principes que l'ARC entendait réfuter. (Mais bien sûr, tout ce qu'il pouvait réfuter était leur conjonction. Certains d'entre eux pourraient encore être vrais même si le CRA était valide). Je vais maintenant reformuler (1*) - (3*) afin qu'ils soient les principes reconnaissables du computationalisme, une position (contrairement à "Strong AI") qui est en fait défendue par de nombreux penseurs, et donc qui mérite d'être réfutée, si elle est fausse (Newell 1980; Pylyshyn 1984; Dietrich 1990).
Le calculalisme est la théorie selon laquelle la cognition est un calcul, que les états mentaux ne sont que des états computationnels. En fait, c'est ce que le principe (1) aurait dû être :
(1) Les états mentaux ne sont que des implémentations du (des bon) programme(s) informatique(s). (Autrement dit : les états mentaux ne sont que des états computationnels).
Si (1*) avait été formulé de cette manière en premier lieu, il aurait devancé les objections selon lesquelles le code inerte n'est pas un esprit : bien sûr, les symboles sur une feuille de papier ou sur un disque ne sont pas des états mentaux. Le code - le bon code (en supposant qu'il existe) - doit être exécuté sous la forme d'un système dynamique s'il doit s'agir d'un état mental.
Le deuxième principe a conduit à encore plus de malentendus. Comment le cerveau peut-il être sans rapport avec les états mentaux (surtout les siens !) ? Doit-on croire que si l'on enlève le cerveau, ses états mentaux perdurent quelque part, comme le sourire du chat du Cheshire ? Ce que Searle voulait dire, bien sûr, n'était que la distinction matériel/logiciel standard : un état computationnel est indépendant de l'implémentation. Venons-nous de contredire le principe (1) ?
(2) Les états computationnels sont indépendants de l'implémentation. (Le logiciel est indépendant du matériel).
Si nous combinons (1) et (2), nous obtenons : les états mentaux ne sont que des implémentations indépendantes de la mise en œuvre des programmes informatiques. Ce n'est pas contradictoire. Le programme informatique doit être physiquement implémenté en tant que système dynamique afin de devenir l'état computationnel correspondant, mais les détails physiques de l'implémentation ne sont pas pertinents pour l'état computationnel qu'ils implémentent - sauf qu'il doit y avoir une certaine forme d'implémentation physique . Des systèmes physiques radicalement différents peuvent tous implémenter un seul et même système de calcul.
L'indépendance de la mise en œuvre fait en effet partie à la fois de la lettre et de l'esprit du calculalisme. Il fut même un temps où les informaticiens pensaient que la distinction matériel/logiciel éclairait (si elle ne résolvait pas carrément) le problème esprit/corps : la raison pour laquelle nous avons ce problème de longue date pour comprendre comment les états mentaux pouvaient être juste des états physiques, c'est qu'ils ne le sont pas ! Les états mentaux ne sont que des états computationnels, et les états computationnels sont indépendants de l'implémentation. Ils doivent être physiquement mis en œuvre, bien sûr, mais ne cherchez pas la mentalité en la matière (le matériel) : c'est le logiciel (le programme informatique) qui compte.
Si Searle avait formulé le deuxième principe du computationalisme de cette manière explicite, non seulement la plupart des informaticiens de l'époque auraient dû se reconnaître comme sa cible légitime, non seulement cela aurait repoussé les faux-fuyants quant à la non-pertinence des cerveaux pour leur propre mental. états, ou sur le fait qu'il n'y avait aucun besoin d'une implémentation physique, mais cela aurait clairement exposé le ventre mou du calculalisme, et donc la véritable cible du CRA de Searle : car c'est précisément sur la force de l'indépendance de la mise en œuvre que le calculalisme rester debout ou tomber.
La propriété critique est la transitivité : si toutes les implémentations physiques d'un seul et même système de calcul sont effectivement équivalentes, alors lorsque l'une d'entre elles a (ou manque) une propriété de calcul donnée, il s'ensuit qu'elles le font toutes (et, selon le principe (1 ), être un état mental n'est qu'une propriété de calcul). Nous y reviendrons. C'est ce que j'ai appelé « le périscope de Searle » sur la barrière normalement impénétrable des « autres esprits » (Harnad 1991a) ; c'est aussi ce ventre mou du computationalisme. Mais d'abord, nous devons fixer le principe (3 *).
En fait, textuellement, le principe (3*) n'est pas tant trompeur (dans le sens où (1*) et (2*) étaient trompeurs) qu'il est incomplet. Il aurait dû se lire :
(3) Il n'y a pas de test empirique plus fort pour la présence d'états mentaux que l'indiscernabilité de Turing ; par conséquent, le test de Turing est le test décisif pour une théorie computationnelle des états mentaux.
Cela n'implique pas que réussir le test de Turing (TT) soit un garant d'avoir un esprit ou que l'échouer soit un garant d'en manquer. Cela signifie simplement que nous ne pouvons pas faire mieux que le TT, empiriquement parlant. Quelle que soit la réalité de la cognition - qu'il s'agisse simplement de calcul, ou quelque chose de plus, ou autre chose - la science cognitive ne peut jamais être qu'une forme de "rétro-ingénierie" (Harnad 1994a) et la rétro-ingénierie n'a que deux types de données empiriques en passant : structure et fonction (cette dernière incluant toutes les capacités de performance). En raison du principe (2), le computationalisme a évité la structure ; cela ne laisse que la fonction. Et le TT demande simplement une équivalence fonctionnelle (en fait, une indiscernabilité fonctionnelle totale) entre le candidat rétro-conçu et la chose réelle.
Considérez la rétro-ingénierie d'un canard : un canard rétro-ingénierie devrait être impossible à distinguer d'un vrai canard à la fois structurellement et fonctionnellement : il devrait non seulement marcher, nager et cancaner (etc.) exactement comme un canard, mais il devrait aussi doivent ressembler exactement à un canard, tant à l'extérieur qu'à l'intérieur. Personne ne pouvait se quereller avec un candidat rétro-conçu avec succès comme ça; personne ne peut nier qu'une compréhension complète du fonctionnement de ce candidat équivaudrait également à une compréhension complète du fonctionnement d'un vrai canard. En effet, personne ne pouvait demander plus.
Mais on pourrait demander moins, et un fonctionnaliste pourrait se contenter de la marche, de la nage et du charlatanisme (etc., y compris tout ce qu'un canard peut faire d'autre), mais en ignorant la structure, c'est-à-dire à quoi elle ressemble, sur le à l'intérieur ou à l'extérieur, de quel matériau il est fait, etc. Appelons le premier type de canard rétro-conçu, celui qui est totalement indiscernable d'un vrai canard, à la fois structurellement et fonctionnellement, D4, et celui qui est indiscernable seulement fonctionnellement, D3.
Notez, cependant, que même pour D3, tous les détails structurels ne seraient pas sans importance : pour marcher comme un canard, quelque chose comme deux appendices en peluche sont nécessaires, et pour nager comme un seul, ils feraient mieux d'être quelque chose comme des palmés aussi. Mais même avec ces contraintes de couplage structure/fonction, viser la seule équivalence fonctionnelle laisse encore de nombreux degrés de liberté structurels ouverts. (Ces degrés de liberté se réduiraient encore plus si nous devenions plus minutieux au sujet de la fonction - mue, accouplement, digestion, immunité, reproduction - d'autant plus que nous approchions du niveau de la fonction cellulaire et subcellulaire. Il y a donc vraiment un continuum microfonctionnel entre D3 et D4 ; mais laissons cela de côté pour l'instant et restons-en à la macrofonction D3, principalement sous la forme de capacités de performance).
Le test de Turing est-il juste l'équivalent humain du D3 ? En fait, la version "correspondant" du TT, telle que Turing (1950) l'a formulée à l'origine, était encore plus macrofonctionnelle que cela - c'était l'équivalent de D2, nécessitant que le canard cancane. Mais dans le cas humain, le "charlatanisme" est une capacité de performance plutôt plus puissante et générale, et certains considèrent que son plein pouvoir expressif équivaut à, ou du moins qu'il s'appuie sur, notre pleine capacité cognitive (Fodor 1975 ; Harnad 1996a).
Appelons donc la version correspondante du test de Turing T2. Pour réussir le T2, un candidat rétro-conçu doit être Turing-indiscernable d'un vrai correspondant. Le principe de Searle (3) pour le calculalisme est à nouveau un peu équivoque ici, car il stipule que TT est le test décisif, mais cela signifie-t-il T2 ?
C'est le point où des hommes raisonnables pourraient commencer à être en désaccord. Mais supposons que ce soit T2 pour l'instant, en partie parce que c'est la version que Turing a décrite, et en partie parce que c'est celle que les informaticiens se sont montrés prêts à défendre. A noter que T2 couvre toutes les capacités cognitives qui peuvent être testées par des tests papier/crayon (raisonnement, résolution de problèmes, etc.) ; seules les capacités sensorimotrices (c'est-à-dire robotiques) (T3) sont omises. Et les capacités du correspondant sont à la fois grandeur nature et permanentes : le candidat doit pouvoir les déployer avec n'importe qui, indéfiniment, comme le ferait un vrai correspondant ; il ne s'agit pas ici de tours de passe-passe d'un soir (Harnad 1992) mais d'une réelle capacité de performance à taille humaine, indiscernable de la nôtre (Harnad 2000a).
Nous reformulons maintenant l'argument de la chambre chinoise de Searle en ces nouveaux termes : supposons que le calculalisme est vrai, c'est-à-dire que les états mentaux, tels que la compréhension, ne sont en réalité que des implémentations indépendantes de la mise en œuvre des états computationnels, et donc qu'un ordinateur passant par T2 serait ( entre autres) comprendre.
Notez qu'il existe de nombreuses façons de rejeter cette prémisse, mais recourir à l'une d'entre elles revient à accepter la conclusion de Searle, à savoir qu'un ordinateur passant par T2 ne comprendrait pas. (Sa conclusion est en fait plus forte que cela - trop forte, en fait - mais nous y reviendrons comme un autre des points sur lesquels des hommes raisonnables peuvent être en désaccord). Donc, si l'on rejette la prémisse qu'un ordinateur pourrait jamais passer T2, on fait le jeu de Searle, comme on le fait si l'on soutient que T2 n'est pas un test assez fort, ou que les détails de mise en œuvre ont de l'importance.
Alors acceptons la prémisse et voyons comment Searle arrive à sa conclusion. C'est là, après tout, que la plus grande partie de la chaleur des vingt dernières années a été générée. Searle va directement au ventre mou du computationalisme : l'indépendance de la mise en œuvre (principe (2)). En raison de (2), toute mise en œuvre de ce programme de passage en T2 doit avoir les états mentaux en question, s'il ne s'agit vraiment que d'états computationnels. En particulier, chacun d'eux doit comprendre. Assez juste. Mais maintenant, Searle fait ressortir sa pompe à intuition, ajoutant que nous devons imaginer cet ordinateur comme passant T2 en chinois ; et on nous demande de croire (parce que c'est vrai) que Searle lui-même ne comprend pas le chinois. Il ne reste plus qu'à noter que si Searle lui-même exécutait le programme informatique, il ne comprendrait toujours pas le chinois. Par conséquent (par (2)) l'ordinateur non plus, exécutant le même programme. Q.E.D. Le computationalisme est faux.
Maintenant, tout comme ce n'est pas une réfutation (mais plutôt une affirmation) de l'ARC que de nier que T2 est un test suffisamment fort, ou de nier qu'un ordinateur puisse jamais le réussir, c'est simplement un plaidoyer spécial pour essayer de sauver le calcul en stipulant ad hoc (face à l'ARC) que les détails de mise en œuvre comptent après tout, et que celui de l'ordinateur est le « bon » type de mise en œuvre, tandis que celui de Searle est le « mauvais » type. Cela revient à admettre que le principe (2) est faux après tout.
De la même manière, il ne sert à rien d'essayer de sauver le calcul en soutenant que Searle serait trop lent ou incompétent pour mettre en œuvre le programme de passage T2. Ce n'est pas un problème en principe, donc ce n'est pas une clause échappatoire pour le calculalisme. Certains ont fait un culte de la vitesse et du timing, estimant que, lorsqu'il est accéléré à la bonne vitesse, le calcul peut faire une transition de phase vers le mental (Churchland 1990). Il devrait être clair qu'il ne s'agit pas d'un contre-argument, mais simplement d'une spéculation ad hoc (tout comme l'opinion selon laquelle tout n'est qu'une question d'augmenter jusqu'au bon degré de "complexité").
Sur comp.ai (et même dans le commentaire original de 1980 sur Searle), certains de ces contre-arguments ad hoc ont été faiblement exprimés, mais de loin les plus tenaces des réfutations potentielles étaient des variantes de la réponse systémique, à l'effet qu'elle était déraisonnable de supposer que Searle devait être compréhensif dans ces conditions ; il ne serait qu'une partie du système de mise en œuvre, alors que ce serait le système dans son ensemble qui ferait la compréhension.
Encore une fois, il est regrettable que dans la formulation originale de l'ARC, Searle ait décrit la mise en œuvre du programme de passage T2 dans une pièce à l'aide de symboles et de règles de manipulation de symboles écrits partout sur les murs, car cela a ouvert la porte à la réponse des systèmes. Il a offert une réfutation préventive, dans laquelle il a suggéré aux systématistes que s'ils étaient vraiment prêts à croire que, alors que lui seul ne serait pas compréhensif dans ces conditions, la "salle" dans son ensemble, composée de lui et du symbole -des murs jonchés, seraient compréhensifs, alors ils devraient simplement supposer qu'il avait mémorisé tous les symboles sur les murs ; alors Searle lui-même serait tout ce qu'il y avait dans le système.
Cette variante décisive n'a pas empêché certains systématistes de recourir au contre-argument encore plus ad hoc selon lequel même à l'intérieur de Searle il y aurait un système, consistant en une configuration différente des parties de Searle, et que ce système serait en effet compréhensif. Cela revenait à conjecturer qu'à la suite de la mémorisation et de la manipulation de très nombreux symboles dénués de sens, la compréhension du chinois serait induite soit consciemment chez Searle, soit, à la manière d'une personnalité multiple, dans une autre entité consciente de compréhension du chinois à l'intérieur de sa tête. que Searle ignorait.
Je ne m'attarderai sur aucun de ces actes héroïques ; qu'il suffise de dire que même le créationnisme pourrait être sauvé par des spéculations ad hoc de cet ordre. (Ils montrent seulement que le CRA n'est pas une preuve ; pourtant, il reste la seule prédiction plausible basée sur ce que nous savons). Un pari plus intéressant consistait à concéder qu'aucune compréhension consciente ne se produirait dans ces conditions, mais que la compréhension inconsciente le serait, en vertu des calculs.
Ce dernier n'est pas une spéculation arbitraire, mais une notion révisée de la compréhension. Searle n'a vraiment aucune défense contre cela, car, comme nous le verrons (bien qu'il ne l'admette pas explicitement), la force de son ARC dépend entièrement du fait que la compréhension est un état mental conscient, dont on peut consciemment la présence ou l'absence (et donc honnêtement) vérifier et attester (le périscope de Searle). Mais Searle n'a pas non plus besoin de défense contre cette notion révisée de compréhension, car cela n'a de sens que de parler d'états mentaux inconscients (si cela a du sens) dans une entité autrement consciente. (Searle se dirigeait vers cette position dix ans plus tard en 1990a).
Les états inconscients dans les entités non conscientes (comme les grille-pain) ne sont pas du tout une sorte d'état mental. Et même dans les entités conscientes, les états mentaux inconscients feraient mieux d'être brefs ! Nous sommes prêts à croire que nous « connaissons » un numéro de téléphone lorsque, incapables de nous en souvenir consciemment, nous constatons que nous pouvons néanmoins le composer lorsque nous laissons nos doigts faire le tour. Mais se trouver capable d'échanger des lettres impénétrables toute sa vie avec un correspondant de cette manière ressemblerait plutôt à du somnambulisme ou au parler en langues (même le syndrome neurologique de "l'écriture automatique" n'a rien à voir avec cela ; Luria 1972) . Ce n'est certainement pas ce que nous entendons par "comprendre une langue", ce qui signifie sûrement une compréhension consciente.
La synonymie du "conscient" et du "mental" est au cœur du CRA (même si Searle n'en est pas encore pleinement conscient -- et même s'il l'a obscurcie en utilisant constamment le mot fouine "intentionnel" dans son lieu !) : Normalement, si quelqu'un prétend qu'une entité -- n'importe quelle entité -- est dans un état mental (a un esprit), il n'y a aucun moyen que je puisse le confirmer ou l'infirmer. C'est le problème des "autres esprits". Nous le « résolvons » les uns avec les autres et avec des espèces animales qui nous ressemblent suffisamment grâce à ce que l'on appelle la « lecture de l'esprit » (Heyes 1998) dans la littérature depuis qu'elle a été introduite pour la première fois dans le BBS deux ans avant l'article de Searle (Premack & Woodruff 1978). Mais bien sûr, la lecture de l'esprit n'est pas vraiment de la télépathie, mais du Turing-Testing - des inférences préparées biologiquement et de l'empathie basée sur des similitudes avec notre propre apparence, nos performances et nos expériences. Mais le TT n'est bien sûr pas une garantie ; elle ne donne rien de comparable à la certitude cartésienne que nous avons de nos propres états mentaux.
Pouvons-nous jamais expérimenter directement les états mentaux d'une autre entité ? Pas à moins que nous ayons un moyen de devenir réellement cette autre entité, et cela semble être impossible - à une exception très spéciale, à savoir, ce ventre mou du calcul : car bien que nous ne puissions jamais devenir une autre entité physique que nous-mêmes, s'il y a sont en effet des états mentaux qui se produisent uniquement en vertu d'être dans le bon état computationnel, alors si nous pouvons entrer dans le même état computationnel que l'entité en question, nous pouvons vérifier si oui ou non elle a les états mentaux qui lui sont imputés. C'est le périscope de Searle, et un système ne peut s'en protéger qu'en ne prétendant pas être dans un état mental uniquement parce qu'il est dans un état computationnel -- ou en renonçant à la nature mentale de l'état computationnel, en concédant que c'est juste un autre état inconscient (ou plutôt non conscient) - rien à voir avec l'esprit.
Le calculalisme était très réticent à abandonner l'un ou l'autre de ces éléments; le premier serait passé à la conversion du calculalisme au "mise en œuvre" pour sauver le mental - et ce serait simplement de rejoindre le monde matériel des systèmes dynamiques, dont le calcul avait espéré faire abstraction. Le second serait allé jusqu'à renoncer complètement au mental.
Mais il y a aussi un sens dans lequel la réponse des systèmes a raison, car bien que l'ARC montre que la cognition ne peut pas être uniquement computationnelle, elle ne montre certainement pas qu'elle ne peut pas être computationnelle du tout. Ici, Searle semble avoir tiré des conclusions plus solides que ne le justifiait l'ARC. (Ce n'était pas nécessaire : montrer que les états mentaux ne peuvent pas être simplement computationnels était assez fort !) Mais il pensait avoir montré plus :
Searle pensait que l'ARC avait invalidé le test de Turing en tant qu'indicateur des états mentaux. Mais nous avons toujours su que le TT était faillible ; comme l'ARC, ce n'est pas une preuve. De plus, c'est seulement T2 (et non T3 ou T4 REFS) qui est vulnérable à l'ARC, et même cela uniquement pour le cas particulier d'un candidat purement informatique indépendant de la mise en œuvre. L'ARC ne s'opposerait pas à un système de transmission T2 non informatique; cela ne fonctionnerait pas non plus contre un système hybride, informatique / non informatique (REFS), pour la simple raison que dans aucun des cas Searle ne pourrait être le système entier; Le périscope de Searle échouerait. Non pas que les systématiciens devraient s'en réjouir, car si la cognition est hybride, le calculalisme est toujours faux.
Searle allait également trop loin en concluant que l'ARC redirige notre champ d'enquête du calcul vers la fonction cérébrale : il existe encore de nombreux degrés de liberté dans les approches hybrides et non computationnelles de la cognition par rétro-ingénierie sans nous contraindre à rétro-concevoir le cerveau. (T4). Les neurosciences cognitives ne peuvent donc pas non plus se fier au CRA. C'est seulement une approche très étroite qui a été discréditée : le computationalisme pur.
La contribution de Searle n'a-t-elle été que négative ? En montrant que la route purement computationnelle ne mènerait pas à Londres, nous a-t-il laissé aussi incertains qu'auparavant quant à la bonne route vers Londres ? Je ne pense pas, car sa critique a contribué à ouvrir les perspectives que l'on appelle maintenant la "cognition incarnée" et la "robotique située", et elles m'ont certainement poussé vers la voie hybride des systèmes de symboles ancrés dans le monde sensorimoteur (T3) avec les neurones. filets.
Et Granny s'est vue donner une raison beaucoup plus dure de croire ce qu'elle savait depuis le début : que nous ne sommes pas (seulement) des ordinateurs (Harnad 2000b, 2001).
Références (sont dans la version anglaise)
IMPORTANT :
RépondreSupprimer(1) Faites vos lectures et vos ciélos tôt dans la semaine avant le cours pour que j’aie le temps d'y répliquer
(2) Lisez toujours les ciélos précédentes, et surtout mes répliques aux autres, avant d’afficher vos ciélos.
(3) Revenez toujours à vos ciélos 1-2 jours après pour voir ma réplique, qui pourrait poser davantage de questions auxquelles répondre.
DÉSORMAIS ( donc à partis du 3 février) JE FERAI TOUTES MES RÉPLIQUES EN GRAS POUR LES RENDRE PLUS FACILE À TROUVER
SupprimerEn résumé, ce que j’estime avoir saisi de l’article sur la chambre chinoise va comme suit : Searle ne comprend pas le chinois, parlé ou écrit, et il doit parvenir à répondre à des questions qui portent sur un texte écrit en chinois à l’aide d’instructions de manipulation de symboles chinois. Ses réponses doivent être indistinguables de celles d’un locuteur natif du chinois. Ainsi, Searle a réussi la tâche, mais sans même comprendre cette langue. Donc, il est arrivé à manipuler des symboles arbitraires en suivant des règles, ce qu’on peut qualifier d’algorithme, de programme formel, c’est-à-dire de règles qui ne portent pas sur la signification des mots, mais sur leur forme.
RépondreSupprimerDe ce fait, Searle affirme qu’étant donné qu’il ne comprend pas le chinois, l’ordinateur dans lequel cet algorithme serait intégré ne comprendrait pas plus que lui, puisque l’algorithme est indépendant du matériel. Il conclut alors que la cognition n’est nullement de la computation.
Cette affirmation est fausse, comme indiqué dans la lecture critique pour plusieurs raisons. Celle que j’ai retenue est la suivante : « Oui un programme seul ne peut rien comprendre, mais un programme d’exécution pourrait faire partie d’un « système » compréhensif, comme chez l’être humain ».
Jade-Émilie, presque tout est exacte.
SupprimerSearle mémorise l’algorithme qui réussit T2, puis il exécute l’algo sur des messages chinois entrants. Il ne s’agit pas de juste répondre aux questions, mais de clavarder (en chinois) à propos de n’importe quoi avec n’importe qui, comme n’importe autre sinophone. Il fait ça, sans comprendre le chinois.
Mais à la fin tu répètes la réplique « système », qui est fallacieuse, parce que Searle a mémorisé l’algo T2, donc le système, c’est lui. Pas de murs. Pas de tableau à consulter.
Donc Searle démontre que le computationnalisme est erroné. Il n’est pas vrai que la cognition (ici en l’occurrence, la compréhension du chinois) est toute de la computation. Searle ne démontre pas, par contre, que la cognition n’est pas de la computation du tout. (Est-ce que tu saisis la différence?)
Si je comprends bien, le computationnalisme est fautif selon Searle étant donné qu’il est d’avis que ce concept n’est pas l’unique composante de la cognition puisque Searle lui-même se servait de la computation pour manipuler les symboles sans tout de même comprendre quoi que ce soit.
SupprimerJ’aimerais aussi aborder le thème du traitement de l’information qu’on retrouve dans l’article de Searle. Searle atteste que l’une des erreurs que commettent de nombreuses personnes est de considérer que l’ordinateur fait, comme le cerveau, du traitement de l’information, c’est-à-dire qu’il peut réfléchir sur des problèmes arithmétiques par exemple. Il s’agit d’une erreur selon lui puisqu’il affirme que les symboles sont tout simplement ininterprétables quand il est question d’ordinateur; cette machine se restreint à la manipulation des symboles formels. Il y a donc un traitement, mais plutôt que de traiter l’information, l’ordinateur traiterait les symboles formels. Il compare l’ordinateur aux calculatrices au sens où les calculatrices n’interprètent pas l’information. Ainsi, ce dernier stipule : « On n’a pas établi de similarité entre l’ordinateur et le cerveau, qui soit basée sur une similarité dans le traitement de l’information ». J’ai du mal à comprendre comment on peut être certain que le traitement de « l’information » de l’ordinateur n’est pas analogue à celui du cerveau.
SupprimerJade-Émilie, le computationnalisme est fautif parce que Searle pourrait exécuter l’algo qui réussit le T2 chinois sans lui-même comprendre le chinois, donc aucun ordinateur exécutant ce même algo ne comprendrait le chinois non plus.
SupprimerEn ce qui concerne le « traitement de l’information », c’est une autre expression que je recommande abandonner à cause de l’ambiguïté de ce que c’est que « l’information ».
La Machine de Turing ainsi que l’ordinateur ainsi que les mathématicien lorsqu’il font le calcul (la computation) manipulent ( = « traitent ») les symboles, suivant une recette (un algorithme. Ce qui est manipulé/traité c’est les symboles, pas « l’information » (ce qui veut dire la réduction de l’incertitude).
Les manipulations des symboles sont interprétables, mais cette interprétation est dans la tête de l’utilisateur, pas dans l’ordinateur, ni les symboles, ni l’algo.
Si l’algo est correct, il peut réduire l’incertitude de l’utilisateur, mais en tant que tel, il s’agit juste de la manipulation de symboles – semblable à une explication verbale, qui n’est que des mots, mais des mots qui peuvent réduire l’incertitude pour l’utilisateur qui les comprend. (On va discuter comment les mots peuvent transmettre de l’information, donc vraiment réduire l’incertitude, en Semaines 5, 6 et 8.)
Dans leur article de 1987, Searle et Duyckaerts s’opposent à l’intelligence artificielle (I. A.) forte. Cette thèse affirme que les ordinateurs programmés adéquatement seraient des esprits à part entière au même titre qu’un être humain. Les auteurs expliquent leur opposition à cette thèse à l’aide de plusieurs arguments, dont celui-ci : un ordinateur, même s’il est programmé adéquatement, ne pourra jamais être conscients de la même manière qu’un être humain, car les symboles n’auraient aucune signification, aucune intention. En effet, nous avons vu en classe qu’au sein d’un algorithme, les symboles sont dépourvus de sens. Or, pour le cerveau humain, les symboles sont remplis de sens et nous sommes remplis d’intention. Prenons le mot « amour » en exemple : en chinois simplifié ce mot s’écrit : « 爱 ». Pour moi, humaine qui ne parle pas chinois, ce mot est tout de même rempli de sens (une fois qu’une traduction m’a été offerte). Pour mon ordinateur qui « écrit » ces lignes, ce mot n’est qu’un symbole qui ne veut rien dire.
RépondreSupprimerSi parfois, nous pouvons en venir à croire que des machines auraient des intentions, c’est en réalité que nous percevons celles de l’être humain qui l’a programmée, ou encore, que nous attribuons nos propres intentions à ladite machine. Enfin, Searle nous rappelle qu’il ne faut pas confondre une simulation et une reproduction : les machines ne seront jamais cette dernière pour le cerveau humain.
En complément, Marie,
Supprimerp. 69
« Pour les mêmes raisons, l’ordinateur de Schank ne comprend rien à aucune histoire, qu’elle soit en chinois, en anglais ou en n’importe quoi; en effet, dans le cas du chinois, l’ordinateur c’est moi et dans le cas où je ne suis pas l’ordinateur, celui-ci ne dispose de rien de plus que moi quand je ne comprends rien. »
Je suis d’accord, mais j’ajouterai que l’ordinateur dispose de moins, car il ne sait même pas qu’il dispose de quelque chose ou que quelque chose lui manque. Pour qu’il le comprenne, il faut que quelqu’un lui dise via un autre algorithme.
J’ai une autre situation : changeons l’histoire, mais pas les instructions ni les questions. Quelle sera la réaction de l’ordinateur et quelle de l’être humain?
En résumé, Searl veut démontrer que la cognition n’est pas du tout la computation, mais il semble que la computation peut tout à fait, servir la cognition.
Diana, le test T2 n'est pas une série de questions. C'est tout ce qu'on peut discuter avec Marie, à travers des semaines, voire des années, de communication. Le seul algo en jeu, c'est celui qui génère ce pouvoir de communication, à tel point qu'on peut pas distinguer Marie (en courriel) d'e n'importe quelle autre personne. C'est quoi le périscope de Searle? et pourquoi est-ce qu'il pénètre la barrière des autres esprits, normalement impénétrable?
SupprimerSi je comprends bien, ici Searle réfute l'hypothèse mise en place par T2?
SupprimerCamille, oui, mais comment? C'est quoi le périscope de Searle? et comment il pénètre?
Supprimer"C'est quoi le périscope de Searle? et pourquoi est-ce qu'il pénètre la barrière des autres esprits, normalement impénétrable?" est-ce que ce n'est pas parce si tout était computation, dont le mode de fonctionnement des autres esprits, il pourrait lui aussi recevoir données et traiter en sortie les input donnés par des animaus ? j'ai peur de partir dans les labourés et de paraître ridicule, mais est-ce que l'argument de la chambre de Searle ne signifie-t-il pas aussi que s'il pouvait se faire passer pour un interlocuteur chinois en ayant l'algoritme et la liste des symboles, sans avoir besoin de la sémantique, alors il pourrait avoir une chambre lapin, et avec des inputs d'un animal, produire une sortie compréhensible par l'animal -- mais pas par lui -- ?
SupprimerAnne, c’est un peu fantaisiste…
SupprimerLa possibilité du périscope est grâce à une propriété de la computation : l’indépendance de l’algo de son matériel. Cette propriété est ensuite héritée par le computationnalisme (l’IA forte) (selon lequel la cognition n’est que de la computation). Elle est ensuite mobilisée par Searle pour démontrer que le computationnalisme est FAUX. Il exécute l’algo du T2 chinois pour pouvoir lui-même témoigner que ça ne fait pas comprendre le chinois.
Mais même si C=C avait été vrai, pour l’utiliser à faire de la lecture de l’esprit d’autrui on n’aurait pas seulement besoin d’avoir en main et d’exécuter l’algo générique pour toutes les capacités cognitives, mais aussi l’algo particulier de l’individu dont tu veux lire l’esprit. Et tout ça c’est des contrefactuels reposant sur des contrefactuels, dont le premier serait la prémisse qu’un algo aurait pu réussir T2!
“…la force de son ARC dépend entièrement du fait que la compréhension est un état mental conscient, dont on peut consciemment la présence ou l'absence (et donc honnêtement) vérifier et attester (le périscope de Searle). Mais Searle n'a pas non plus besoin de défense contre cette notion révisée de compréhension, car cela n'a de sens que de parler d'états mentaux inconscients (si cela a du sens) dans une entité autrement consciente.”
RépondreSupprimerPour comprendre la notion du Périscope de Searl, il me semble important de clarifier d’abord les notions suivantes : état mental, la conscience, l’inconscient et la compréhension. Avec l’aide du Dictionnaire Larousse, je fais une tentative de définir ces termes dans le cadre de notre réflexion :
État mental : État d'une personne au plan cognitif.
Mental : 1. Relatif aux fonctions intellectuelles, au psychisme. 2. Qui se passe exclusivement dans l'esprit, intérieurement, sans s'exprimer ou se manifester extérieurement
Conscience : 1. Connaissance, intuitive ou réflexive, immédiate, que chacun a de son existence et de celle du monde extérieur. 2. Représentation mentale claire de l'existence, de la réalité de telle ou telle chose ;
L’inconscient : Instance psychique, distincte de la conscience, capable d'élaborer une pensée…
Compréhension : 1. Action de comprendre le sens, le fonctionnement, la nature, etc., de quelque chose ; 2. Sympathie, indulgence, esprit de conciliation qui procède d'une connaissance des problèmes, des difficultés rencontrés par quelqu'un, un groupe, etc. ; 3. Intelligence.
Je n’ai pas la prétention d’avoir trouvé les bonnes définitions dans ce cielo, mais plutôt l’intention de lancer le débat autour de ces concepts clés.
Rafael, les dictionnaires ne peuvent que donner les informations sur l’usages des mots. Pour les mots qui ont un sens scientifique, et surtout un sens mal compris, incomplet, ambigu, ou controversé, ce n’est que les théories scientifiques actuelles qui peuvent guider. Les termes que tu touches sont spécialement mal compris et controversés :
Supprimer« État mental : État d'une personne au plan cognitif. »
État ressenti, comme la douleur, l'odeur, ou la compréhension
« Mental : 1. Relatif aux fonctions intellectuelles, au psychisme. 2. Qui se passe exclusivement dans l'esprit, intérieurement, sans s'exprimer ou se manifester extérieurement »
État ressenti
« Conscience : 1. Connaissance, intuitive ou réflexive, immédiate, que chacun a de son existence et de celle du monde extérieur. 2. Représentation mentale claire de l'existence, de la réalité de telle ou telle chose »
État ressenti
« L’inconscient : Instance psychique, distincte de la conscience, capable d'élaborer une pensée… »
État non ressenti
« Compréhension : 1. Action de comprendre le sens, le fonctionnement, la nature, etc., de quelque chose ; 2. Sympathie, indulgence, esprit de conciliation qui procède d'une connaissance des problèmes, des difficultés rencontrés par quelqu'un, un groupe, etc. ; 3. Intelligence. »
Capacité T2 + Ancrage T2 + État ressenti
Bonjour Raphael,
SupprimerComme vous, j'ai besoin d'avoir une base de ces définitions et non seulement des interprétations non commenté ni communiqués par l'article, mais sous-entendus en vérités universelles.
Merci, István pour le vent de l'éclaircissement! Je me suis permise moi-même d'essayer d'analyser et de m'expliquer en sœur cadette:
À la question p. 86 et 87 : « Une machine pourrait-elle penser? » et « D’accord. Mais un ordinateur digital pourrait-il penser? »
Il me manque la définition de « penser » et de « comprendre ». Si penser ou comprendre signifie de lire et de traiter (computer) des symboles en utilisant un algorithme et donner des résultats, la réponse positive en découle logiquement. D’autre part, si penser et comprendre signifie incarner et interpréter l’algorithme qui a servi avec succès à la première lecture (computation) pour des situations et des lectures futures, avec une adaptation adéquate possible de la part de la machine, c’est tout un autre niveau de « manipulation » des symboles et oui, la réponse positive aurait tout un autre sens.
Diana, penser veut dire (1) ce que les entités pensantes comme nous sommes capables de faire avec notre capacité de penser (problème « facile ») et (2) et c’est à quoi ça ressemble, de penser (en l’occurrence, c’est le ressenti de la compréhension du chinois, que manque Searle quand il exécute l’algo T2) (problème « difficile »). C’est les sciences cognitives qui ont le mandat de nous expliquer ces capacités d’agir (1) et cette capacité de ressentir (2).
SupprimerTexte de Searle : Avec la chambre chinoise, Searle affirme qu’il n’est pas d’accord avec Schank. Il démontre qu’il n’est pas possible de simuler l’aptitude humaine à comprendre ou expliquer des histoires. Si tel était le cas, ce serait une I.A. forte avec une intentionnalité, donc capable de produire des caractéristiques causales du cerveau. Dans son exemple, la langue chinoise est incompréhensible, ce ne sont que des manipulations de symboles. La machine suit les instructions sans les comprendre et ne peut les expliquer. Le système n’est donc pas de la cognition. Il n’a pas d’état intentionnel. Même s’il s’agissait d’un simulateur de cerveau (Berkeley et MLT), il ne peut simuler les états émotionnels. Dans cet exemple, ce n’est que la structure formelle qui déclenche les neuronaux du cerveau d'une personne d’origine chinoise. Ainsi, la chambre chinoise consiste en un processus de calcul (computation) appliqué à des symboles formels chinois. C’est un programme d’ordinateur qui ne comprend pas le chinois. Il n’y a pas de capacités causales, d'intentionnalité, comme un humain capable d’apprendre ou de percevoir.
RépondreSupprimerPour ce premier ciélo de la semaine, je vais commenter le texte “Document : Esprits, cerveaux et programmes” de Searle. D’après ma compréhension, l’argument de « la chamrbe chinoise » met en scène Searle dans une pièce où il reçoit des règles en chinois pour répondre à des questions écrites en chinois sans même parler ou comprendre la langue. Il procède comme un algorithme le ferait. Il en déduit donc que, malgré sa capacité à avoir une conversation indistinguable d’un locuteur natif chinois, il n’a pas réellement appris la signification des phrases. Il soutient ainsi l’idée que la cognition, comme la compréhension d’une langue, ne peut pas être seulement réduite à un ensemble de formules et que les ordinateurs sont incapables de comprendre réellement la langue. Il démontre ainsi que la thèse du computationnalisme qui croit que la cognition ce n’est que de la computation est fausse.
RépondreSupprimerTaly, bon résumé. Pour des précisions voir la réplique à la ciélo de Marie.
SupprimerMon deuxième ciélo de la semaine porte sur ma compréhension du dernier cours afin de savoir si j’ai bien saisi les différences entre les t1 à T5 puis entre l’équivalence faible et forte. D’après ma compréhension :
RépondreSupprimert1 = petit fragment de ce que font les humains qui pensent
T2 = est verbal et commence à devenir un test de Turing quand sa performance est indistinguable d’un humain
T3 = un robot, il a tout les compétences du T2, mais également toutes les compétences sensoriels motrices – les mots ainsi que les objets que désignent les mots
T4 = indistinguabilité interne de tout ce que peut faire un cerveau biochimiquement (j’ai cru comprendre que ça voudrait dire qu’on ne peut pas distinguer le cognitif du végétal)
T5 = ce n’est plus un test de Turing, c’est physique, une identité matériel clonée – pour être honnête je ne suis pas certaine de comprendre le T5 en contexte avec les autres t?
Maintenant, je crois que l’équivalence faible est un concept qui définit la performance de deux machines qui ont exactement la même entrée et sortie, alors que l’équivalence forte croit que la cognition ce n’est que de la computation et compare donc la performance avec celle d’un humain, il faut alors que l’algorithme soit exactement le même. Je vous avoue que ce sont des concepts qui restent vague pour moi mais je crois comprendre l’essentiel.
Taly, bon saisi.
SupprimerT3 : correct, mais le défi concerne comment le sensorimoteur lie les mots à leurs référents dans le monde (Semaines 5 et 6).
T4 : oui, la question concerne à quel degré le cognitif dépend du végétatif.
T5 : rétroingénierier c’est découvrir comment fonctionne causalement le mécanisme, pas juste de reproduire ça structure.
Équivalence faible/forte [Éfai/ ÉFor]: En informatique Éfai est l’équivalence en entrées/sorties et ÉFor = ÉFai + algorithme identique.
Selon le computationnalisme (= l’IA forte) de Pylyshyn, les sciences cognitives insistent sur ÉFor. Pour la plupart des computationnalistes, Éfai suffit. C’est aussi le niveau de sous-détermination normale en science.
Le Test de Turing (T2) ne nécessite pas Éfor.
T3 et T4 sont déjà pas computationnalistes, mais même dans l’hybride et la dynamique on peut distinguer une sorte d’équivalence faible et forte entre les mécanismes dynamiques identiques qui donnent les mêmes entrées/sorties (qui ressembleraient trivialement à Éfor) et les mécanismes dynamiques qui donnent les mêmes entrées/sorties avec différentes dynamiques matérielles ou fonctionnelles (qui serait une ressemblance moins triviale à Éfai : ça reviendra concernant la neurologie de la douleur chez les poissons à la semaine 11).
La différence entre T4 et T3 ressemble aussi un peu aux Éfai vs. Éfor.
(Et même en computation il y aurait la SuperÉfor (triviale) qui consiste non seulement du même algo mais le même matériel (donc, supprimant la propriété de l’indépendance du matériel).)
[Ce qui n’as pas la tête pour les nuances peut tranquillement négliger tous ces détails…]
Dans l’argument de la chambre chinoise Searl pose la question de l’entendement. En utilisant ce qu’on appelle ``le périscope de Searl`` il réussit momentanément à transcender le problème des autres esprits. À travers cette réflexion Searl établit une distinction entre la simple manipulation syntaxique des symboles et leurs interprétations sémantiques, l’entendement. Cette réfutation des principes du computationnalisme (1- computation = cognition, 2- indépendance du matériel, 3- Test de Turing décisif) insiste sur le fait qu’un simple chat bot comme G.P.T n’utilise pas la cognition dans sa manipulation du langage ; Même s’il est capable de simuler l’entendement il ne fait finalement que manipuler des symboles formels et ininterprétés (Manipulation Syntaxique).
RépondreSupprimerCette réflexion de Searl serait un argument en faveur de T3 : l’interprétation des symboles, mots, nécessite un référent et ce référent est créé pars notre expérience (sensitive) dans le monde. Le ressenti serait donc nécessaire à l’entendement (Sémantique).
Renaud, « l’entendement » = la compréhension. L’aspect le plus important de la compréhension des mots de contenu (comme « zèbre » -- pas des mots fonctionnels ou syntaxiques comme « le ») est de savoir à quoi ils réfèrent.
SupprimerPeu importe combien de fois Searle répète ou manipule 斑馬 ou dit que “斑馬”意為“有條紋的馬” il ne comprendra pas que “斑馬" réfère à un « zebre » ni que “斑馬”意為“有條紋的馬”veut dire que 斑馬 veut dire 有條紋的”(ce qui veut dire « cheval rayé »).
Mais attention : l’algo qui réussirait T2 serait beaucoup, beaucoup plus qu’un chatbot comme chatGPT. Pourquoi? C’est quoi la différence entre chatGPT et T2?
Puis T3 nécessite les capacités sensorimotrices, mais d’expliquer comment et pourquoi ses capacités sensorimotrices doivent être sentientes équivaudrait à une solution au problème difficile du ressenti (la sentience) : Pourquoi?
Q1 : Mais attention : l’algo qui réussirait T2 serait beaucoup, beaucoup plus qu’un chatbot comme chatGPT. Pourquoi? C’est quoi la différence entre chatGPT et T2?
SupprimerPour réussir T2 un algorithme devrait probablement être capable de comprendre son interaction avec un être humain alors que Chat GPT suit un ensemble de règles et d’associations de mots d’ordre statistique dans son utilisation du langage.
Q2 : Puis T3 nécessite les capacités sensorimotrices, mais d’expliquer comment et pourquoi ses capacités sensorimotrices doivent être sentientes équivaudrait à une solution au problème difficile du ressenti (la sentience) : Pourquoi?
Expliquer comment et pourquoi les capacités sensorimotrices de T3 doivent être sentiente reviendrais à être capable de rétro-ingéniéré le mécanisme causal de son ressenti. Cela signifierait être capable de résoudre le problème corps/esprits, ou problème difficile.
Renaud, (concernant Q1): Malheureusement « devrait probablement » n'est pas un argument ou une preuve; c'est juste une déclaration. Pour réussir T2 l'algo doit réussir T2. Searle dit « supposons qu'un algo réussisse le T2... » [ça veut dire quoi?] « ...alors ça serait sans comprendre. ».
SupprimerConcernant Q2: C'est quoi la différence entre le problème des autres esprits et le problème difficile? (Réussir T3 ne nécessite que de réussir T3.)
[Peut-être que ça aidera la compréhension ici de se rappeler que la méthodologie de Turing -- rétroingénierie + T2-T4 -- ne s'applique qu'au problème facile. [C'est quoi?] Dans la lecture de la semaine dernière, Turing renonce explicitement au problème difficile en soulignant que le TT est aussi proche qu'on peut se rendre à une résolution du problème des autres esprits. Il faut comprendre la logique de cette méthodologie,
SupprimerAprès avoir fait ma lecture, j`ai parcouru les ciélos qui ont déjà été faite ainsi que les réponses à ces ciélos et je me suis rendue compte que ce que j`aurais pu dire ont déjà été mentionné, et certaines de mes possibles interrogations ont déjà été répondues. De ce fait je n`ai pas à les redire. De plus ces interactions m`ont permis de mieux appréhender ce qui a été dit dans le texte mais j`attends tout de même avec impatience le cours à venir pour une meilleure compréhension du sujet. Mon ciélo pour cette semaine n`apportera donc pas une nouvelle réflexion par rapport au texte proposé.
RépondreSupprimerLise, dans mes répliques aux autres ciélos je leur ai posé des questions. Pour approfondir ta comprehension, stp répond à ces questions.
SupprimerSearle nous ramène sur Terre, si je peux dire ainsi. Je prendrai l’exemple de la lactation que Searle utilise. Encore aujourd’hui par exemple nous pouvons reproduire un lait maternel qui satisfait à certaine exigence. En aucun cas ils ont été capable reproduire les composantes d’anticorps car le lait maternel est vivant. Seal nous dit sans la biologie on ne peut reproduire l’intentionnalité. Je crois que les recherches de Searle est positive en effet car elle ramène le discours ou surtout la recherche à dans un monde moins utopique. L’article de la presse va dans ce sens. Il n’y a pas de raison, de bon sens, ou de sens de la vérité. Je trouve la mise en garde intéressante car définitivement nous devons faire une place à notre jugement quand il s’agit de A.I.
RépondreSupprimerMélanie, malheureusement je ne peux pas constater ce que tu as appris de Searle, et surtout concernant l'argument de Searle, à partir de ta ciélo. La lactation, c'est une fonction végétative. La communication verbale est cognitive.
SupprimerJe viens de lire que l'on doit oublier le mot intentionnalité, je viens de voir que ma page n'était pas à jour donc il me manquait certain commentaires er réponses. Par contre, ma réflexion tiens toujours la route... enfin jespère ;)
RépondreSupprimer, c'est quoi la réplique du « système »? Est-ce vrai ou faux? Et la réplique du robot? et la réplique de Searle à la réplique du robot?
SupprimerJ'essayais surtout ne pas répéter ce qui a été déjà dit. Sinon, je tenterai de répondre aux questions.
SupprimerLa différence entre T2 et chatGPT est que pour T2 on ne dois pas pouvoir le distinguer d'un humain. ChatGPT n'est qu'une banques de données performantes.
comment et pourquoi ses capacités sensorimotrices doivent être sentientes équivaudrait à une solution au problème difficile du ressenti (la sentience)
J'imagine que cela expliquerais le liens entre le corps et
l'esprit. Lien qui ont le sait n'existe pas. Le point majeur de Searle est justement d'invalider toute proposition qui suppose un tel lien.
J’aimerais m’essayer pour la «réplique du système» :
SupprimerLes défenseurs de celle-ci objectent à l’expérience de la chambre chinoise que, même si Searle, en exécutant lui-même l’algorithme de manipulation de symboles chinois et en donnant les bonnes sorties (donnant donc l’impression, de l’extérieur, de comprendre et de savoir converser en chinois), ne ressent aucune compréhension, il serait en fait qu’une partie d’un «système» qui, lui, «comprendrait» le chinois.
Searle répond à ça en demandant comment la conjonction de lui, de ses outils (papiers, crayons) et de son environnement (la pièce) pourrait magiquement comprendre quoi que ce soit. Il ajuste alors son expérience et propose de l’imaginer exécuter tout ça dans sa tête, mémorisant tous les règles. Que le système soit externe ou internalisé, il est ainsi clair que cela ne change rien : tout ce que le système «comprend» est que tel ensemble de symboles doit être suivi d’un autre ensemble (si «squiggle», alors «squoggle»). Ce n’est pas de la compréhension au sens qui nous intéresse, à savoir la façon dont on comprend notre langue maternelle. Pour Searle, cet argument est une pétition de principe (comme-ci il DEVAIT absolument y avoir quelque chose de cognitif dans ce système…).
Je trouve que ça démontre bien que la réplique du système est fallacieuse.
Mais comme Étienne dit dans son texte, ses défenseurs n’ont pas tort sur toute la ligne. Searle a bien expliqué pourquoi la cognition ne pouvait pas se résumer à la computation entièrement, mais n’a pas réfuté l’idée qu’il se pourrait que des sous-systèmes de notre système cognitif soient computationnels.
Margo, c'est exacte (sauf si les adhérents à la "réplique du système" supposent que le fait de mémoriser et exécuter un algorithme peut induire un syndrome de multiple personnalités>, co-existant dans le même cerveau, inconscients l'un de l'autre, l'un anglophone, l'autre sinophone).
SupprimerLa compréhension =
(1) la capacité T2 +
(2) l'ancrage des symboles (Semaines 5, 6, 8) +
(3) le ressenti de la compréhension.
C'est (2) et surtout (3) qui manquent, d'après l'argument de Searle.
Mélanie, à l’époque le « problème difficile » s’appelait le « problème corps/esprit » -- comme s’il y avait deux « sortes » de « choses » : « matériel » et « mental ».
SupprimerAujourd’hui on croit qu’il n’y a qu’une sorte de chose : tout est du matériel). « Matière/énergie » n’a rien à voir avec « matériel/mental »).
« Esprit » et « mental » (ainsi que « conscience » etc. etc.) – tous ces mots décoratifs, mystérieux et superflus veulent dire exactement la même chose : un état matériel (tous les états du matériel sont des états matériels, la température, la masse, etc. Dans le cas particulier de certains matériaux – les êtres vivants qui se trouvent sur (aux moins) une planète – ils sont d’abord dans l’état vivant. Ensuite ils peuvent être dans un état de (1) sommeil profond ou de (2) coma végétatif de (3) anesthésie générale.
Ces trois états sont comme l’état d’une bouilloire d'eau dans un état de (4) ébullition. Ça ne ressemble à rien d’être un être vivant dans les états (1) – (3). Rien ne se ressent. Personne n’est là. Et une bouilloire d'eau dans un état d’ébullition ne ressentira jamais rien.
Mais les êtres vivants peuvent aussi être dans un état de (5) veille. Ça ressemble à quelque chose d’être dans un état de veille. Ça se ressent. Les états de veille sont des états sentients.
C’est le système nerveux des êtres vivants et sentients qui produit la sentience (le ressenti). Et c’est le problème d’expliquer comment et pourquoi les êtres sentients ressentent qu’on appelait anciennement « le problème corps/esprit » ou « le problème matériel mental) qui s’appelle aujourd’hui « le problème difficile. »
Donc, il ne s’agit pas d’une recherche pour le « lien » entre deux sortes de « choses ». Il s’agit de la rétroingénierie du mécanisme causal capable de produire la sentience, dans les systèmes nerveux et tout autre mécanisme qui en est capable. (On cherche aussi l’explication de la fonction adaptative de la sentience.)
La chambre chinoise de Searle
RépondreSupprimerEn lisant « Cette variante décisive n'a pas empêché certains systématistes de recourir au contreargument encore plus ad hoc selon lequel même à l'intérieur de Searle il y aurait un système, consistant en une configuration différente des parties de Searle, et que ce système serait en effet compréhensif. », je me pose la question si quelqu’un utilise une langue pour communiquer, sans nécessairement se rendre compte qu’il utilise et comprend cette langue, doit - on le considérer comme quelqu’un qui utilise consciemment et comprend cette langue?
Voici une anecdote : deux Américains se promènent et voient deux touristes français, mère et son enfant contempler la beauté de « Central Park » en français. Un des Américains dit alors à l’autre : « Waw, il marche à peine encore, mais déjà parle sans encombrement, le français ». :)
Si l’affirmation de Searle est la suivante: « le fait d’exécuter le programme en chinois ne me fait pas plus comprendre le chinois », surgit la question suivante : est-il nécessaire de comprendre le chinois pour exécuter le programme? (Le T2 est réussi - l'échange est réalisé).
La réponse parait évidente, mais il me semble que tous les programmeurs nous donneront des exemples de « traduction » des langages binaires (ex. DOSS et BASIC) de différents niveaux d’abstraction en langages plus conventionnels de programmation (ex C++, JAVA FORTRAN ou PHYTON). En appuyant sur le clavier, nous avons l’impression d’écrire, mais au fait, il y a des millions de commandes qui s’exécutent afin que l’environnement virtuel soit compatible avec la perception de l’utilisateur. Donc, il y a un intermédiaire afin que la communication soit dotée de sens pour les deux participants.
Diana, exécuter une recette qui réussit le T2 chinois réussirait à réussir le T2 chinois, mais pas à comprendre le chinois! C'est ça ce que démontre Searle avec son périscope. (Pourquoi?)
SupprimerDiana, t'as oublié que la prémisse de l'argument de Searle est « si le programme réussit T2 ». C'est quoi de réussir T2?
SupprimerVous avez posé ici deux questions à Diana il y a plusieurs semaines, je me permets d'y répondre aujourd'hui.
SupprimerJe veux d'abord commencer par définir ce que signifie réussir T2 parce que l'argument de Searle s'appuie beaucoup sur cette notion. Je me permets de copier/coller la définition que j'ai déjà fournie en ciélo : "Le T2 est un des niveaux du test de Turing, qui vise à évaluer si une machine est en mesure de reproduire les capacités langagières humaines (performance) suffisamment bien pour être indiscernable d'un véritable être humain lors de communications par e-mail ou (plus probablement de nos jours) clavardage. Pas seulement quelques minutes à la fois; le long d'une vie si nécessaire."
Pour expliquer la notion du périscope de Searle, il est important de rappeler que l'exécution d'un algorithme est indépendante du matériel. Toute propriété contenue dans la computation sera nécessairement présente dans n'importe quelle "réalisation" matérielle d'un algorithme donné. De plus, si on implémentait plusieurs représentations matérielles d'un même algorithme, elles seraient toutes équivalentes (une propriété que vous appelez la transitivité dans votre texte sur Searle) puisque les propriétés de l'algorithme existent a priori du matériel.
Pour les computationnalistes, réussir T2 est équivalent à comprendre le langage, parce qu'iels croient que la compréhension du langage (et l'ensemble de nos capacités cognitives) est strictement une propriété computationnelle, et le meilleur test empirique permettant de prouver cette capacité est le T2. Un computationnaliste considèrerait donc qu'un algorithme qui réussit T2 comprend le langage. Searle toutefois réfute cette prémisse en devenant le matériel d'un algorithme : il mémorise les symboles et l'algorithme (ou le fait de mémoriser l'algorithme inclut-il par définition de mémoriser les symboles?) lui permettant de réussir T2 en chinois. En temps normal, on ne peut pas s'assurer qu'un algorithme qui réussirait le T2 comprend pour autant le langage ; on ne peut que le supposer. Mais Searle est devenu le matériel qui exécute l’algorithme et nous pouvons communiquer avec lui. Il est ainsi capable de nous informer qu'il est en mesure de réussir T2 par la pure exécution d'un algorithme, sans comprendre le moindre mot de chinois.
C'est ça, le périscope : Searle, en se projetant comme matériel, traverse temporairement la barrière des autres esprits et nous permet de réaliser que la compréhension par le matériel des symboles qu'il manipule n'est pas nécessaire pour réussir T2, seulement la capacité d'exécuter un algorithme (computation). Il s'ensuit que la cognition ne peut pas être /uniquement/ de la computation : on peut réussir T2 sans avoir conscience de la sémantique des symboles qu'on manipule.
Jules, bon résumé et synthèse. Mais n'oublions pas que c'est juste une conjecture que la computation seule puisse réussir T2. Il y des raisons de croire que non (lesquelles?). S'il n'est pas possible, alors le périscope de Searle n'existe pas; la barrière des autres esprits demeure impénétrable et l'argument de Searle est juste un exercice contrefactuel. Dans ce cas, le T2 restera adéquat comme test. Pourquoi?
SupprimerPour répondre à vos questions ci dessus voici quelques éléments de réponse. Il est difficile à croire qu'une computation seule puisse réellement réussir T2 car il s'agit d'un exercice extrêmement compliqué. En effet, pour réussir T2 sur le long terme, la computation devrait faire preuve d'anticipation. Il faudrait que le système soit capable de traiter l'information et non plus seulement les symboles.
SupprimerMême si le périscope de Searle n'existe pas et que les barrières des autres esprits restent impénétrables, le T2 restera toujours adéquat grâce à ses propriétés empirique. En effet, je crois comprendre que le T2 se suffit à lui même et qu'il n'y a pas besoin de comprendre la computation du système testé, l'objectif étant simplement de tester sa capacité à réussir. Dans cette situation, on ne cherche pas à un comprendre le système mais simplement à tester ses résultats.
Camille, oui, réussir T2 avec seule la computation nécessiterait trop d'anticipation, presque de la clairvoyance. Plus sérieux est l'absence des capacités robotiques à apprendre les catégories, et ainsi à ancrer les mots dans leurs référents.
SupprimerC'est quoi le périscope de Searle? Qu'est-ce que testent les test de Turing? Stp lire les autres ciélos et répliques.
L'argument de la chambre chinoise se positionne sur la compréhension des ordinateurs d’une langue. En effet, à travers cette argumentation de la chambre chinoise, nous percevons que, malgré que l’input et l'output émis par un programme, soient semblables à celles d’un locuteur de la la langue, cela ne signifie pas que la sémantique du message ait été saisie. En effet, à travers cette représentation, nous observons que les mécanismes mis en place par un non locuteur de la langue font office de programme et comme le ferait un ordinateur la compréhension des mécanismes d’une langue permet de de reproduire la structure et les règles systématiques de la langue cible sans pour autant comprendre la sémantique de ce qui est dit. La thèse soutenant que la cognition n’est que de la computation est donc défaite par Searle si je comprends bien ici. En effet, un ordinateur n’est pas capable de comprendre un message à proprement parler mais seulement de reproduire des schémas du langage humain sans en comprendre le sens. Il peut donc tout à fait répondre correctement à un input émis par un humain. D’après Searle, la compréhension est un élément important de la cognition, ainsi la cognition n’est pas que computation.
RépondreSupprimerCamille, n’oublie pas que jusqu’à date il n’y a pas un algo qui réussit T2 (et n’oublie non plus que T2 est la capacité de parler de n’importe quoi avec n’importe qui, le long d’une vie, pas juste de la tromperie de 10 minutes. Pour ton modèle garde à l’idée toutes les échanges verbaux qui pourraient se faire avec notre robote, Marie, dans la ciélographie.
SupprimerSearle dit : supposons qu’un algo (donc, la computation seule) puisse générer la pleine capacité verbale T2 de Marie. Difficile à imaginer qu’un algo pourrait anticiper tout ce que Marie pourrait discuter verbalement avec n’importe qui, le long de sa vie. Mais tout ce que Searle démontre c’est que si un tel exploit est possible, le T2 produira cette remarquable capacité d’interaction verbale sans produire la capacité de comprendre ce que le T2 entend ou dit.
La notion de « sémantique » (ou de « l’intentionnalité ») n’apporte rien à ce débat, puisqu’on sait déjà que la computation est purement syntaxique; la sémantique n’a aucun rôle là-dedans. L’interprétation sémantique est uniquement dans la tête de l’interlocuteur de Marie…
En général, je comprend au travers des discussions, des notions, ainsi que des textes, que Searle réussit à réfuter la théorie affirmant que la cognition est une forme de computation au travers du niveau 2 du test de Turing. Car le test peut être réussit par la mémorisation et non la compréhension.
SupprimerNicolas, oui, me le point ne concerne pas l'insuffisance de la mémorisation mais l'insuffisance de la computation (donc, l'exécution d'un algorithme) pour produire la cognition (compréhension).
SupprimerStp lis les lectures ainsi que les autres ciélos et répliques pour rattraper ce que tu as manqué, puis continue en faisant les lectures et les ciélos à chaque semaine d'ici jusqu'à la fin du cours (y compris les semaines 2 et 3).
John R. Searle affirme que l’IA forte ne pourra jamais exister parce qu’elle ne pourra jamais, selon lui, réellement comprendre la sémantique des mots. L’humain, vivant dans le réel, interagit avec son environnement et arrive, ainsi, à saisir la sémantique des mots grâce à son expérience et à son ressenti. Selon Searle, contrairement à l’humain, la machine ne fait qu’une série d’exécutions programmées en manipulant la syntaxe des mots (les symboles). Comme illustration de ceci, Searle utilise des signes chinois à titre de symboles afin de créer une rupture culturelle forte et rendre plus explicite son expérience de pensée. Dans son exemple, le protagoniste anglophone utilise un guide syntactique chinois rédigé en anglais. Ainsi, il arriverait, en manipulant les symboles, à tromper un locuteur chinois sans que celui-ci ne se rendre compte que son échangeur est dans l’incompréhension du sens des symboles utilisés dans leur conversation. Pour Searle, l’esprit nécessite un système biologique complexe pour exister.
RépondreSupprimerÉtienne, lie la réplique précédente (et les autres passim). Garde a l’idée les capacités verbales de Marie (à long terme); et n’oublie pas le T3, qui est hybride et ne peut pas être purement computationnel. Le coupable ce n’est pas qu’il s’agit d’une machine, ni même que de la computation rentre dedans. Le problème concerne le fait qu’il s’agit uniquement de la computation.
SupprimerL’argument de la chambre chinoise fait écho à mon commentaire du cours précédent. Une machine ne peut récréer la créativité humaine ni la dépasser. En utilisant les outils conceptuels que nous offre le CRA, il est possible de comprendre que si le robot ne fait que suivre des instructions, il est impossible pour lui de générer de nouvelles connaissances (la créativité en soi).
RépondreSupprimerS’il advenait qu’un robot produise une nouvelle connaissance, sa dépendance aux instructions de l’esprit humain limite sa capacité de décrire cette nouvelle connaissance. Le robot devrait ainsi attendre que l’Homme acquière cette connaissance, la comprend et puis donne les instructions au robot.
Jean-Nicolas, c'est important de lire les autres ciélos ainsi que mes répliques. En l'occurrence, la question de la nouveauté a été traitée la semaine dernière.
SupprimerC'est quoi le T2? La prémisse de Searle est qu'un algo puisse réussir T2. La nouveauté est, par définition, un des critères d'avoir réussi le T2.
Ensuite Searle démontre que même ayant réussi le T2 (y compris la production de maintes « nouveautés », ça se fera sans compréhension: Pourquoi?
Je ne saisis pas comment Searle émet l'idée que l'ordinateur peut produire de la nouveauté sans comprendre : s'il produit des formules comme "le tapis est sur le chat", des assemblages au hasard de ce qui est pour lui des symboles mais qui pour nous sont chargés sémantiquement, il sera identifié comme un robot. (puisqu'on exclut les cas limites, et qu'on veut imiter l'humain en santé classique, on exclut les personnes incohérentes).
Supprimerje ne me souviens pas de ce qui a été dit pour la nouveauté (pas du tout, pourtant j'étais là), alors je rédige plus bas une ciélo avec ce que j'échaffaude moi-même)
Anne, stp relire les multiples répliques qui traitait la nouveauté et l’objection de Lady Lovelace. (Ça peut faire partie d’une question qui pourrait paraitre sur l’examen. Mes répliques sont devenues une importante composante du cours. C’est pour ça que je me donne la peine de les faire!)
SupprimerJohn Searle extrapole une situation où il se place dans les mêmes conditions qu’une machine pour passer le test de Turing.
RépondreSupprimerDans cette extrapolation, il réalise le test dans un langage qu’il ne connait pas et avec des symboles dont il ignore la signification.
La possibilité théorique que Searle exécute la tâche avec succès n’appliquant rien d’autre qu’un ensemble de règles de manipulation syntaxique et sans comprendre aucun des symboles en entrée ou en sortie, prouve qu’une machine dans une telle situation ne reproduit pas la compréhension et l’intentionnalité.
Le périscope de Searle, peut-il prouver la présence d’esprit ou ne peut-il que prouver son absence ?
Rock, le périscope de Searle est l’indépendance du logiciel (algorithme) du matériel qui l’exécute. Toute propriété computationnelle sera présente dans toute implémentation matérielle du même algo. Selon le computationnalisme, la compréhension du langage est une propriété computationnelle, et le critère de sa présence est la capacité de réussir T2. Donc le pouvoir de périscope est très particulier : Il ne s’applique qu’à un algorithme qui, quand il est exécuté, comprend. Normalement, on ne peut pas constater si d’exécuter l’algorithme pour T2 produit la compréhension. Mais Searle peut devenir le matériel qui exécute l’algorithme, et comme ça il peut nous assurer, en anglais, qu’il ne comprend pas ce qu’il fait lorsqu’il l’exécute.
SupprimerDans son texte, Searle mentionne que « Pour l’I.A. forte, au contraire, l’ordinateur n’est pas simplement un outil pour l’étude de l’esprit : bien plus, programmé de façon appropriée, il est réellement un esprit au sens où l’on peut dire littéralement d’ordinateurs dotés de programmes corrects qu’ils comprennent et ont d’autres états cognitifs. » Prenons l’exemple de la chambre chinoise de Searle, il soutient qu’un ordinateur ne comprend pas réellement les réponses qu’il renvoie, il ne fait que renvoyer des suites de caractères selon des règles qui lui ont été fournis. Il ajoute qu’une personne disposant du même genre d’information serait capable de former des phrases dans un certain ordre de caractères afin de répondre aux questions, mais n’en comprendrait pas le sens. Mon questionnement émerge à la limite de ce qui est considéré comme compréhension. Prenons une personne qui à la place de règle pour l’enchainement de caractère chinois se retrouverait avec des explications dans un langage qu’il comprend sur le sens des caractères chinois. La personne serait alors en mesure de soumettre une réponse avec des caractères qu’elle comprend. Ainsi, un ordinateur auquel on donnerait le même genre d’information, c’est-à-dire auquel ont fournirait une explication des caractères dans un langage compréhensible par celle-ci (langage de programmation), ne serait-il alors pas en mesure de comprendre les réponses qu’il renverrait aux questions. À partir de quel point est-ce que l’on peut considérer qu’une personne ou qu’une machine comprend ce qu’elle dit ou fait? D’un autre côté, les bébés, à leur naissance, ne comprennent rien du monde qui les entoure. Pourtant, après un certain temps à assimiler des informations, on leur attribue une compréhension du monde qui les entoure et des leurs actions dans celui-ci. Dans ce sens, qu’est-ce qui différencie une machine qui copie des mots existants d’un bébé qui prononce ses premiers mots?
RépondreSupprimerLe bébé formule des holophrases, puis phrase, puis émet des idées nouvelles, il est loin de ne faire qu'imiter, il prend sans cesse des risques et tente d'appliquer ce qu'il croit avoir comprise de règles langagières. A la limite ce qui s'approcherait de cet aspect de développement du langage du bébé serait d'avantage le logiciel a qui on confie la responsabilité de diagnostiquer des patients sans lui donner aucun élément clinique en effectuant simplement des inférences. Le logiciel dont je parle expérimente et reçoit des confirmations et infirmations de ses diagnostic et cela lui permet de remonter le fil jusqu'aux règles qu'on ne lui a pas fournies. bref la machine qui copie des mots fait moins qu'un bébé, et un logiciel qui "mène l'enquête" se rapproche déjà plus d'un bébé, même s'il ne sera pas capable de fournir autre chose que la preuve qu'il a compris un set de règles pré existants dont il ne connaissait simplement pas encore l'existence, alors que le bébé sera capable de produire des énoncés nouveaux (voir la ciélo de Jean-Nicolas, puis la mienne). Finalement, le test est passé quand les mails du robot sont indissociables de ceux d'un humain adulte et non d'un bébé :)
Supprimer(mes messages sont des invitations à me corriger ou élaborer, tout paraît sec à l'écrit, il n'en est rien :) )
SupprimerAlex, bonnes réflexions, mais ce que doit faire un algo T2 c’est de communiquer avec n’importe qui. comme nous le faisons actuellement.
SupprimerNi l’ordi ni l’algo « comprend » quoi que ce soit. L’ordi exécute l’algo, c’est tout. L’algo est une recette pour manipuler les symboles; en l’occurrence, dans le T2 chinois, les entrées sont des messages en chinois. Pas de traduction. Pas d’apprentissage avec le temps. Juste l’exécution de manipulations.
Et les enfants (ou les robots, ou le développement biologique) n’ont rien à voir dans ça. Juste entrées, exécutions de l’algo, sorties.
La compréhension de la langue humaine a trois composantes :
(1) la capacité de réussir T2
(2) la capacité T3 de lier les mots avec leurs référents dans le monde (l’ancrage symbolique)
(3) Le ressenti de compréhension de mots (ça ressemble à quelque chose de comprendre une langue)
Searle déclare, honnêtement et correctement : « Je ne comprends pas ces symboles ». Donc il manque (3). Fin de l’histoire. La cognition n’est pas juste de la computation.
Il manque aussi (2) (l‘ancrage), mais ça ne se teste que par T3, et l’argument de Searle ne s’adresse qu’à T2, réussi par seule la computation.
Pour ce que je retiens de ma lecture et pour répéter ce qui a été dit plusieurs fois, une faille démontrée dans la théorie selon laquelle les états mentaux peuvent être réduits à des états de calcul vient soutenir l'argument même si un programme informatique peut simuler les réponses verbales d'une personne connaissant la langue chinoise, il n'a pas véritablement compris la signification des mots et des phrases.
RépondreSupprimerCependant, l'argument de la chambre chinoise a effectivement contribué à l’innovation et enraciner l'utilisation des symboles pour des robots capables de s'adapter à leur environnement et d'interagir avec les objets réels dans le monde physique. Cela dit, pour éviter le terme intentionnalité et plutôt me référer à la compréhension de l’esprit, il se réfère à la neuroscience qui sous entend la cognition.
En revanche pour la critique qui suit, je comprends que l'argument de la chambre chinoise est en partie juste et en partie faux, car il ne prend pas en compte la façon dont les systèmes cognitifs réels (tels que les cerveaux humains) utilisent des symboles pour la représentation et le triage.
Est ce que les limitations des ordinateurs se résume à une simple possibilité de manipuler les symboles, tandis que les humains sont capables de comprendre la sémantique des symboles et de les utiliser de manière créative ? serai-ce trop tôt pour parler des possibilités d'un programme d'éxecution ?
SupprimerWalid, c'est quoi le périscope et l'argument de Searle?
SupprimerDans les semaines suivantes nous comment ancrer les mots du T2 par par les interactions sensorimotrices du robot avec les référents des mots dans le monde.
Stp lire les autres ciélos et répliques.
Tel que nous l’avons vu en classe et dans les lectures, Searle conclut l’argument de la chambre chinoise en affirmant que la computation n’est ni un synonyme de la compréhension, ni même un indicateur de la présence de celle-ci. Ainsi, il ne semble pas être nécessaire, de prime abord, pour un être (ou une machine) de comprendre la signification des symboles qui lui sont présentés afin de les manipuler et les utiliser dans la production d’une réponse.
RépondreSupprimerLe défi vient au moment où l’on demanderait à la machine de produire non seulement une réponse écrite cohérente, mais une dont la formulation serait indistinguable de celle d’un humain (c’est d’ailleurs le critère de réussite du T2). Serait-il nécessaire pour une telle machine de comprendre la signification des symboles composant le langage humain – c’est-à-dire d’être capable de faire le lien entre un symbole et son référent – pour qu’elle réussisse le T2? À cette question, Étienne a répondu que oui, puisqu’il considère qu’il faut une machine de niveau T3 pour réussir le test T2.
Cependant, à partir de quel moment considère-t-on une machine capable de compréhension? Pourrait-ce être dès lors qu’elle peut employer un terme dans le contexte approprié, même en disposant seulement d’une description verbale ou écrite de celui-ci? Mais il faudrait alors que la machine comprenne la description du référent ce terme, et la seule manière pour elle de comprendre serait d’en avoir fait l’expérience par le biais de ses sens (qu’elle ne possède pas au niveau T2). On reviendrait donc à la proposition d’Étienne mentionnée au paragraphe précédent; mais encore, suivant la thèse forte de Church/Turing, si l’on parvenait à faire la rétroingénierie des structures cérébrales permettant la compréhension par le biais d’algorithmes reproduisant celles-ci, pourrait-on toujours affirmer que la compréhension est plus que de la simple computation?
Adèle, concernant la compréhension, voir ma réplique à Alex ci-dessus.
SupprimerPour le ciélo de cette semaine, je ne comprends pas si je dois poster ici ou sur le prochain billet de blogue : je peux déplacer mon texte au besoin. suivront mes questions dans un autre message
RépondreSupprimerVoilà, en moins de mille mots, l'intégralité de ce que j'ai compris : ces seulement 459 mots j'en ai peur sont une traduction de ma compréhension terriblement superficielle du cours, pas d'un esprit de synthèse formidable.
Apprendre des mots est quelque chose que les humains font.
La gravitation est très très probable, énormément de données vont dans ce sens. Ce n’est pas prouvé, ce n’est pas une certitude mais existe rien d’autre comme explication pour le moment.
Il n’y a pas de monde pour un logiciel, mais il y a un monde pour un robot. T3 relie le mot pomme à l’image/réalité d’une pomme. T4 va plus loin.
C’est l’idée des équivalences faible (même entrée mène à même sortie) et forte (même entrée mène à même sortie, avec le même algorithme). Les différences individuelles sont triviales dans cet exercice, on part de probabilité.
Pour résoudre T4 : la cognition fonctionne différemment
Nous ne disposons que de deux certitudes : 2+2=4 et je ressens
le reste tient de la probabilité (on part de la probabilité qu’on “”””pense”””” tous en Python)
La cognition c’est la computation PLUS apprendre,se souvenir, etc etc.
La cognition c’est quoi ? La réponse de Turing : c’est le mécanisme dans les être qui “””pensent”””, c’est ça la cognition.
La machine de Turing compute. Elle lit, efface, écrit dessus, prend un autre état, et avance, s’arrête, et on repart au début de ma phrase.
les symboles lus et ré écrits sont arbitraires. Un état devient un autre état.
L’information est la réduction de l’incertitude.
La computation, c’est mon cerveau qui est en train de manipuler des symboles.
Et pourquoi on penserait donc (au sens de supposer/partir du principe) que computer constitue tout ce que nous faisons ?
L’hypothèse th forte : cognition = computation, et la simple manipulation de symboles permet de modéliser tout.
Modéliser peut-être défini comme :
a) decrire verbalement à quelqu’un qqchose de manière à ce qu’il se représente cette chose qu’il n’a jamais vu
b) le calcul
le code symbolique compute des symboles selon des règles
X= blabla
X n’a pas de sens, c’est un symbole
S’il existe une recette pour réussir T2 en chinois il existe cette même recette pour réussir le roumain. Si un robot le fait, Searle peut le remplacer. Attention le dessin sur Searle est impropre, tout est dans sa tête a part l’input. Il EST l'algorithme. Le robot n’a pas besoin de comprendre. Il peut jouer à Tic Tac Toe sans savoir ce qu’il fait. Il peut parler à des interlocuteurs chinois sans savoir parler le chinois il a besoinde règles de syntaxes, pas d’une compréhension des symboles. Il n’y a aucune similarité de forme entre l'algorithme et ce qu’il fait.
La VR reproduit les capacités simulées.
analogue = pas de symboles
Un algorithme compute avec le discret, pas avec l’analogue (oui)
T2 doit être un robot. Seul T3 résoud T2 car il est impossible de parler de pomme et de poire sans avoir jamais manipulés les fruits.
Anne, bonnes réflexions. Voici des paquets successifs de répliques :
SupprimerLes vérités de la mathématique sont vraies ainsi que certaines, formellement démontrées d’être nécessairement vraies, sous peine de contradiction logique.
Les vérités de la science sont vraies mais pas certaines, pas démontrables formellement d’être nécessairement vraies, sous peine de contradiction logique. Elles sont probablement vraies grâce aux preuves (observations) scientifiques récoltées jusqu’à date. C’est une vérité provisoire et approximative, parce que la récolte des preuves reste ouverte en permanence.
Il est important de garder à l’idée cette absence de certitude concernant toute vérité scientifique quand il s’agit du « problème des autres esprits », pour ne pas s’attendre à la certitude là non plus.
Il est vrai que les autres humains ressentent; et la plupart des autres êtres animaux aussi. La preuve observable, et donc la probabilité, du ressenti diminuent beaucoup avec les coraux, les éponges, les microbes unicellulaires, les champignons et les plantes. Mais la probabilité n'y est pas nulle, ni même avec les molécules inorganiques, ou les pierres ou les montagnes ou les galaxies. (L’incertitude coupe dans les deux sens.) Et la probabilité augmente à nouveau avec les machines synthétiques telles que les robots lorsque leurs capacités de performance se rapprochent de celles des organismes sentients (le test de Turing)
De simuler ou modéliser un aspirateur avec la computation c’est de créer un algorithme qui encode, en termes de symboles et manipulations de symboles, les attributs d’un aspirateur. Si l’algorithme encode correctement les attributs essentiels d’un aspirateur, il devrait être possible de les transmettre à une imprimante 3D qui peut construire un vrai aspirateur matériel en suivant la recette.
SupprimerComme (1) la pensée dans la tête matérielle de l’utilisateur ou de l’interprète de la simulation computationnelle, ou comme (2) l’appareil RV matériel qui produit, à partir de la simulation computationnelle, la sensation à l’humain dans la pièce RV, de voir et d’utiliser un aspirateur, (3) l’imprimante 3D matériel ainsi que ses produits matériels n’est PAS de la simulation computationnelle. Si tu comprends ça, et tu peux l’expliquer à la sœur cadette, tu as compris ce que c’est que la simulation/modélisation computationnelle.
Pourtant, Diana avait tout à fait raison qu’il y a une analogie profonde entre une simulation computationnelle d’une chose et une description verbale de cette chose: Ni une ni l’autre n’est la chose matérielle qui est simulée ou décrite. Mais pour toutes les deux, si elles sont suffisamment exactes (= pas trop approximatives, incluant tous les attributs essentiels), on pourrait construire la chose matérielle à partir de sa simulation computationnelle ou sa description verbale.
Cette analogie entre la computation et la langue humaine est plus qu’une analogie, étant donné que la computation est un sous-ensemble de la langue humaine. C’est aussi l’analogie entre la thèse forte de Church/Turing pour la computation et la thèse de l’effabilité de la langue humaine (toute langue humaine peut exprimer toute proposition). (C’est toi qui as confirmé que le mot « effabilité » existe bel et bien en français, Anne.)
Mais plus d'affichages de notes crues, stp, Anne!
ciélo sur la nouveauté (ne pas corriger et me dire simplement hors sujet si je déborde, et faux si c'est faux)
RépondreSupprimerI) nouveauté
Pour que le test de Turing soit validé, soit indiscernable d’un interlocuteur humain. L’humain est capable de nouveauté : il doit être capable de nouveauté.
Etes vous d’accord ? pour que sa vie durant il ne puisse écrire un seul courriel qui le trahisse, il doit pouvoir ajouter des données (je choisis les termes qui me semblent appartenir au domaine commun, mais je ne sais pas s’ils sont juste pour notre cours), donc il doit pouvoir “prendre” quelque chose et produire quelque chose de neuf.
2) Il doit être capable de tout dire (effabilité) : non seulement de pouvoir produire toutes les propositions ayant été dites dans le passé, mais aussi d’émettre des propositions neuves, qu’il n’a jamais entendues, et des IDEES neuves, qu’il n’a jamais entendues. (et de les comprendre) Cela implique qu’il a la possibilité de générer, à partir d’un “alphabet” fini, un nombre infini de messages .---> ce que je crois par définition une machine de Turing ne peut pas faire, elle est “tenue en laisse” par ses algo
Pour pouvoir émettre du neuf, il faut avoir fait l’expérience de tout l’ancien (sinon on risque de répéter du déjà vu), donc T2 doit devenir T3, sortir et faire l’expérience d’une variété de choses pour pouvoir combiner ce qu’il voit en quelque chose de neuf.
3)Ce qu’il raconte de neuf à quelqu’un doit être cohérent avec ce qu’il a dit, sinon il ne passe pas le test non plus (la capacité de se rappeler étant une propriété humaine - dans le cas classique de l’humain en santé, celui dont on essaye de retro ingéniéré les capacités - ).
Anne, oui réussir tout ça nécessite tout ça, mais puisque les alogorithmes ça inclus les algorithmes d'apprentissage, tu ne donnes pas de raisons de croire que ça ne suffit pas.
SupprimerDÉSORMAIS JE FERAI TOUTES MES RÉPLIQUES EN GRAS POUR LES RENDRE PLUS FACILE À TROUVER
RépondreSupprimerAu travers du texte de l'argument de la chambre chinoise de Searle j’ai pu comprendre qu’on démontre comment un programme d’ordinateur n’est jamais en soi une condition suffisante d’intentionnalité, car Searle démontre qu’il peut produire la tâche sans compréhension où intention appropriée, mais simplement qu’avec de la mémorisation. Ce qui prouve le fait qu’il ne produit pas une intentionnalité, il met en œuvre un programme, car tout mécanisme capable de produire une intention doit avoir les mêmes capacités causales du cerveau. Par ailleurs, j’ai pu comprendre que si la cognition est une forme de computation seulement si elle inclut la compréhension.
RépondreSupprimerNicolas, stp lire les répliques. Ce que Searle fait c'est exécuter un algorithme. La mémorisation de l'algo n'est pas pertinente. Lis aussi la traduction de l'autre lecture (2001) pour approfondir ta compréhension.
Supprimer«Il n'y a pas de test empirique plus fort pour la présence d'états mentaux que l'indiscernabilité de Turing ; par conséquent, le test de Turing est le test décisif pour une théorie computationnelle des états mentaux. Cela n'implique pas que réussir le test de Turing (TT) soit un garant d'avoir un esprit ou que l'échouer soit un garant d'en manquer.». Comme l'explique la critique, une machine pourrait connaître par cœur la réaction(output) qu'il doit avoir pour une infinité d'évènements(input). Par exemple: (Si input = x, output = y). Aussi, une machine pourrait avoir un algorithme beaucoup plus important sans toujours avoir de cognition. Comme la seule façon de témoigner du phénomène de la conscience est par l’ostension introspective, le fait que d'autres possède aussi la cognition n'est qu'une hypothèse.
RépondreSupprimer«Pouvons-nous jamais expérimenter directement les états mentaux d'une autre entité ? Pas à moins que nous ayons un moyen de devenir réellement cette autre entité, et cela semble être impossible». Si dans le cas où il était possible de devenir réellement une autre entité, il resterait impossible de prouver de la cognition chez une autre entité car en devenant réellement cette entité, la deuxième ne pourrait plus se comparer avec la première. Et donc, en quelque sorte, il sera impossible d'éprouver la différence, donc impossible de démontrer l'existence de la cognition chez les autres entités.
Samuel, tu crois vraiment que tout ce dont tu pourrais parler avec n’importe qui, le long d’une vie, pourrait provenir d’un scénario verbal pré-écrit, d’avant ta naissance? Et que ce serait le même scenario universel, pour tout le monde? Même avec chatGPT (qui ne réussit certes pas T2, et qui triche en mémorisant 175 milliards de mots de texte prononcés et écrit par d’autres) ça ne suffit pas. Ét ça ne tient pas compte du fait qu’il faut être en mesure d’indiquer aussi l’objet dans le monde auquel réfère chaque mot (T3). Et, pardessus le marché, faut pouvoir faire ça le long d’une vie…
SupprimerTu n'indiques pas ta compréhension de l’argument de Searle. Tu parles juste de l’impossibilité d’être certain concernant le ressenti d’autrui. Mais c’était déjà discuté dans ce cours qu’on n’a besoin de la certitude qu’en mathématique. Pour la science, la haute probabilité de vérité d’après les preuves suffit.
Selon l'auteur: Le cerveau n'est pas pertinent? Je voulais commenter ce deuxième principe: la question posée était la suivante: Comment le cerveau peut-il être sans rapport avec les états mentaux (surtout les siens !) ? Doit-on croire que si l'on enlève le cerveau, ses états mentaux perdurent quelque part? Moi, je voulais reformuler en disant: Est-ce qu'une personne qui n'a jamais vue et une personne atteinte de cécité peuvent répéter les mêmes mouvements? La réponse est non. Les soldats qui ont participé à la guerre mondiale et avaient vécu des horreurs, on leur avait disséquer et sectionner la partie frontale pour qu'ils ne se souviendront plus des mauvais souvenirs. Et l'exemple de la poule qu'on lui avait coupé la tête mais son système locomoteur si je peux le définir comme cela est resté fonctionnel. Je reviens à notre question: les états mentaux, je pense, qu'ils resteront là bien qu'on avait sectionné le cerveau. Et d'après mes lectures suivantes sur le même thème, j'en conclut que la cognition est loin d'être équivoque à la computation.
RépondreSupprimerAlia, tes commentaires ne semblent pas porter sur les lectures, les cours, les autres ciélos ou mes répliques. Lis les et fait preuve d'avoir compris ou au moins pose des questions pertinentes. Mes répliques aux ciélos peuvent t'amener là ou les autres sont arrivés, mais pas si tu ne fais pas l'effort.
SupprimerJ’ai décidé de résumer la réfutation de Searle du contre-argument qu’il appelle « la réponse systémique de Berkeley » afin d’en vérifier ma compréhension. Selon ce contre-argument des partisans de la thèse de l’IA forte, la personne individuelle enfermée dans la pièce ne comprend pas l’histoire en chinois, mais elle fait partie d’un système qui, lui, la comprend. Autrement dit, l’entendement n’est pas attribué au simple individu, mais plutôt au système il fait partie.
RépondreSupprimerUne version de cet argument systémique invite plus particulièrement à ne pas confondre deux sous-systèmes à l’œuvre au sein de cet individu. Ainsi, il y aurait un premier sous-système qui serait un système de manipulation de symboles formels pour le chinois, et un second système pour l’anglais. Voici comment Searle répond à cela.
Selon Searle, les deux systèmes n’ont rien à voir l’un avec l’autre. La différence réside en ce que le système anglais sait que les « hamburger » réfèrent à des hamburger tandis que le système chinois sait seulement que x doit être suivi de y ou, autrement dit, que telle entrée doit être suivie de telle sortie. Postuler l’existence de deux systèmes ne permet donc pas de justifier la compréhension du chinois dans un sens littéral et l’on en revient au même point de départ.
Par ailleurs, Searle défend que la réponse systémique ne dispose d’aucunes bases indépendantes pour affirmer que l’agent dans la chambre chinoise sois doté d’un sous-système interne qui lui permette de comprendre littéralement les histoires en chinois. Les seules bases que Searle observe sont que cet agent dispose des mêmes entrées et fournit les mêmes sorties qu’un locuteur chinois de même que d’un programme qui les relie. Le problème avec cela est néanmoins que l’argument de la chambre chinoise de Searle vise justement à démontrer que cela ne prouve aucunement qu’il y ait compréhension de la part de l’agent. Searle le reformule en d’autres termes : les seules bases pour affirmer qu’il doive y avoir un sous-système qui comprenne le chinois est que la personne dans la chambre chinoise passe le test de Turing, mais son exemple démontre précisément que le test de Turing est inadéquat pour expliquer comment il est possible de comprendre un énoncé. L’argument systémique se révèle en fait être un argument de principe.
Enfin, un autre argument de Searle contre le contre-argument systémique est qu’il conduit à des conséquences absurdes. Par exemple, si la cognition ne réside que dans le fait qu’il y ait certaines sortes d’entrées et de sorties arrangées selon un programme, des systèmes non cognitifs vont s’avérer l’être. Ce serait le cas entre autres du cœur, de l’estomac, du foie, etc. De manière plus générale, pour faire partie de la psychologie, l’IA forte doit pouvoir différencier les états mentaux et les principes qui les caractérisent des choses qui ne sont pas des états mentaux, ce qu’elle échoue à faire. De même, la thèse de l’IA forte ne permet pas d’expliquer pourquoi les êtres humains ont des croyances alors que les téléphones et les calculatrices, par exemples, n’en ont pas.
Myriam, c'est beaucoup plus simple si tu invoques le périscope de Searle (c'est quoi?). As tu lu les autres ciélos et réplique sur ce fil?
Supprimer’après ma compréhension du texte ainsi que des échanges très enrichissants, Searle a su démontrer que la thèse du computationnalisme était erronée, et que la compréhension des symboles/d’un langage (dans le cas échéant la compréhension du chinois), et donc la cognition, ne peut pas être uniquement de la computation. Pour se faire, Searle a mémorisé l’algorithme qui réussit T2 du test de Turing, puis il l’a appliqué sur les symboles chinois entrants. Il a donc réussi à manipuler des symboles, et à communiquer (de n’importe quoi avec n’importe qui) à l’aide de ces derniers sans toutefois avoir conscience de la sémantique de ces symboles, et donc les comprendre. Il est devenu, dans un certain sens, le matériel qui exécute l’algorithme. Il en déduit donc que le logiciel (algorithme) est indépendant de son matériel qui l’exécute. Searle réfute alors la thèse comme quoi la compréhension du langage est une propriété computationnelle.
RépondreSupprimerBlanche, c'est correct. Comment est-ce que ceci est lié au problème de l'ancrage et à l'apprentissage des catégories?
Supprimer