Archives du blog

mercredi 5 janvier 2022

PLAN DE COURS

 ISC1000-20, hiver 2023: Catégorisation, communication et conscience


Heure: mardi 18h00-21:00

Salle du cours: R-M140
Enseignant: Stevan Harnad

Courriel: harnad.stevan@uqam.ca

Site web du cours: 
https://cccf23.blogspot.com/

Survol: 

Qu’est-ce que la cognition ? C’est ce qui se passe dans nos cerveaux lorsqu’on pense. C'est ce qui nous rend capable d’apprendre et d’agir adaptativement, afin de survivre et de se reproduire.

L’objectif des sciences cognitives est d’expliquer le mécanisme qui génère cette capacité. On se dirait que c’est alors le fonctionnement du cerveau qu’il faudrait étudier -- et on l’étudie. Mais ça ne suffit pas. Car contrairement aux autres organes du corps, comme le cœur ou les poumons, le fonctionnement cognitif du cerveau ne se révèle pas à l’observation ou aux manipulations. Il est trop vaste. C’est parce que le cerveau sait faire tout ce que notre corps entier sait faire. C’est le mécanisme causal qui génère notre savoir-faire intégral qu’il faut trouver.

C’est ainsi que la robotique et l’intelligence artificielle rentrent dans l’histoire. Elles cherchent à découvrir et à démontrer les mécanismes qui généreront nos capacités. C’est ça le défi du célèbre « Test de Turing » : Il faut développer un mécanisme qui a tellement de savoir faire qu’on ne peut pas distinguer sa performance de la nôtre. Il doit posséder non seulement nos capacités sensori-motrices, pour pouvoir agir avec les objets et les êtres dans le monde exactement comme nous agissons, mais il doit être capable de produire et de comprendre le langage, comme nous.

D’où provient le langage ? et qu’était sa valeur adaptative grâce à laquelle nous sommes la seule espèce qui le possède ?

Et la conscience ? Les sciences cognitives sont encore inachevées. Le cours traitera les défis principaux, et fera un survol du progrès qu’ont fait les sciences cognitives, en partant de la capacité d’apprendre les catégories sensorimotrices, puis la capacité de dénommer et de décrire nos catégories verbalement, enfin la capacité de les transmettre à autrui. On terminera le « problème difficile » de la conscience ( = le ressenti ) chez les humains ainsi que les autres espèces sur la planète.



Semaine 0. Introduction

Qu’est-ce que la cognition ? Comment et pourquoi l’introspection à-t-elle échoué ? Comment et pourquoi le behaviorisme à-t-il échoué ? Les sciences cognitives, c'est quoi qu'elles cherchent à expliquer, et comment ?


Semaine 
1. La théorie computationnelle de la cognition (le « computationnalisme ») (Pylyshyn, Turing)

Qu’est-ce que la computation (le calcul) et qu’est-ce qui n’est pas la computation ? Quelle est la puissance et la portée de la computation ? Qu’est ce que ça veut dire d’affirmer (ou de nier) que « la cognition c’est de la computation » ?
Lectures:
La machine de Turing 1 + La machine de Turing 2 

Semaine 2. Le test de Turing
« Où Turing a-t-il raison et où a-t-il tort dans sa méthodologie pour expliquer la cognition ? »
Lectures:
Turing, A. M. (1990). Machines informatiques et intelligence. Mind49, 433-460.
Harnad, S. (2008) The Annotation Game: On Turing (1950) on Computing, Machinery and Intelligence In: Epstein, Robert & Peters, Grace (Eds.) Parsing the Turing Test: Philosophical and Methodological Issues in the Quest for the Thinking Computer. Springer

Semaine 3. L’argument de la « chambre chinoise » (Chinese Room) de Searle (contre la théorie computationnelle de la cognition)

« Où Searle a-t-il raison et où a-t-il tort dans son argument de la « chambre chinoise » qui nie que la cognition est pas de la computation? »
Lectures:
Searle, J. R., & Duyckaerts, É. (1987). Document: Esprits, cerveaux et programmesQuaderni1(1), 65-96.
Harnad, S. (2001) What's Wrong and Right About Searle's Chinese Room Argument? In: M. Bishop & J. Preston (eds.) Essays on Searle's Chinese Room Argument. Oxford University Press. TRADUCTION

Semaine 4. Qu'en est-il du cerveau ?

« Pourquoi y a-t-il de la controverse à propos du pouvoir des neurosciences à expliquer la cognition? Les neurones miroirs que sont-ils ? »
Lectures:
Rizzolatti, G. (2006). Les systèmes de neurones miroirsPaper delivered at the Paris Academy of Sciences, December12, 1371-1381.
Fodor, J. (1999) "Why, why, does everyone go on so about the brain?London Review of Books 21(19) 68-69.  TRADUCTION

Semaine 5. Le probléme de l'ancrage des symboles

«  C'est quoi le problème de l'ancrage des symboles -- et comment peut-il être résolu ? ( Les sens des mots doivent être ancrées dans les catégories sensori-motrices auquelles réfèrent les mots: les pommes, les proton, la politique) »

Lectures:


Harnad, S. (1990). Le problème de l'ancrage des symbolesPhysica D: Nonlinear Phenomena, 42(1), 335-346.
Harnad, S. (2003) The Symbol Grounding ProblemEncylopedia of Cognitive Science. Nature Publishing Group. Macmillan. TRADUCTION 
 

Semaine 6. Catégorisation et cognition

« Dire que "la catégorisation est de la computation »  a peut-être du sens mais de de dire que « la cognition c’est de la catégorisation" ?? (Concernant la puissance et la portée de la catégorisation: faire la bonne chose avec la bonne sorte de chose  ) » 
Lectures:
6a. Harnad, S. (2017) To Cognize is to Categorize: Cognition is Categorization, in Lefebvre, C. and Cohen, H., Eds. Handbook of Categorization. Elsevier.   /11725/ (TRADUCTIONs ici)


6b. Harnad, S. (2003) Categorical PerceptionEncyclopedia of Cognitive Science. Nature Publishing Group. Macmillan. (TRADUCTIONs ici)

L’hypothèse Sapir-Whorf


Semaine 7. Évolution et cognition

«  Pourquoi est-ce que certaines explications évolutives semblent plausibles et logiques, alors que d'autres semblent farfelues, voire absurdes? »
Lectures:
7 Confer, Jaime C., Judith A. Easton, Diana S. Fleischman, Cari D. Goetz, David M. G. Lewis, Carin Perilloux, and David M. Buss (2010) Evolutionary Psychology Controversies, Questions, Prospects, and LimitationsAmerican Psychologist 65 (2): 110–126

Les fondements de l’évolution biologique en bref 


Semaine 8. L'évolution du langage

« Où Pinker a-t-il raison et où a-t-il tort concernant l’évolution du langage ? Qu’est ce que le langage ? Et qu’est-ce qu’il avait de si extraordinaire pour que la capacité à l’acquérir soit encodée par l’évolution il y a 300 000 ans uniquement dans les cerveaux de nos ancêtres – et dans aucune autre espèce survivante ? ( La capacité au langage a donné à notre espèce une façon nouvelle et unique pour acquérir les catégories – par l’instruction verbale plutôt que juste par l’induction sensori-motrice. ) »
Lectures:

8. Blondin-Massé, Alexandre; Harnad, Stevan; Picard, Olivier; and St-Louis, Bernard (2013) Symbol Grounding and the Origin of Language: From Show to Tell. In, Lefebvre, Claire; Cohen, Henri; and Comrie, Bernard (eds.) New Perspectives on the Origins of Language. Benjamin


Semaine 9. Chomsky et la pauvreté du stimulus

«  Un examen de près d'une des questions les plus controversées des sciences cognitives : La grammaire universelle de Chomsky doit être innée car elle ne peut pas s'apprendre à partir des données disponibles à l'enfant. »
Lectures:

La grammaire universelle de Chomsky

Harnad, S (2014) L'Univers de Chomsky. À babord: Revue sociale es politique 52.


Semaine 10. Le problème corps/esprit et « le fossé explicatif » ("explanatory gap")

« Lors que les sciences cognitives auront réussi le test de Turing – car on a réussi à générer et expliquer tout ce que les cogniseurs sont capables de faire – est-ce qu’on aura expliqué tout ce qu’il y a à expliquer concernant l’esprit ? Ou est-ce que quelque chose aura été omis ?   »
Lectures:
Harnad, S. (2012) Alan Turing and the “hard” and “easy” problem of cognition: doing and feeling. [in special issue: Turing Year 2012] Turing100: Essays in Honour of Centenary Turing Year 2012, Summer Issue
Dubuc, Bruno (2016) Qu’est-ce que la conscience? Le cerveau à tous ses niveaux
Semaine 11. Le problème des autres esprits, d'autres espèces
« Chaque personne sait de soi-même qu’elle est sensible. On ne peut pas ressentir le ressenti d’autrui, mais les  membres de notre espèce nous ressemblent, donc on leur croit lorsqu'ils nous disent qu’ils sont également sensibles. Mais qu’en est-il pour les espèces sans parole? Nous donnons le bénéfice du doute à certaines: à nos animaux de famille. Mais pas à celles que nos mangeons, même si elles ressemblent à nos animaux de famille. On a de la misère à justifier cette distinction: une dissonance cognitive entre l’amour pour le coeur de l’un et le goût pour la chair de l’autre. Avec les poissons, qui nous ressemblent beaucoup moins, on se convainque plus facilement qu’ils sont insensibles. La science nous dit le contraire. »
Lectures:

 Le Neindre, P., Dunier, M., Larrère, R., & Prunet, P. (2018). La conscience des animaux (p. 120). éditions Quae.

Résumé Les animauxont-ils une conscience ? Comment perçoivent-ils leur propre monde ? Ces questions font l’objet de débats dans la communauté scientifique aussi bien pour des raisons académiques que pour des raisons pratiques. Ainsi, le 7 juillet 2012, un collectif de scientifiques de premier plan mené par Philip Low a éprouvé la nécessité de publier en Angleterre un manifeste intitulé La Déclaration de Cambridge sur la conscience. Il énonce qu’« une convergence de preuves indique que les animaux non humains disposent des substrats neuro-anatomiques, neurochimiques et neurophysiologiques des états conscients ainsi que de la capacité d’exprimer des comportements intentionnels... ». Il appelle à l’intensification des recherches pour connaître plus avant cette capacité des animaux. 

Harnad, S (2014) Luxe, nécessité, souffrance. Québec HumanisteHarnad, S (2014) Luxe, nécessité, souffrance. Québec Humaniste


Semaine 12. Synthése intégrative

Survol sur ce qu'on a fait dans le cours.



Site web du cours: https://cccf23.blogspot.com


Évaluation:

1. Ciélographie sur le blogue -- faire au moins un commentaire sur une des lectures chaque semaine -- ou sur le cours où les contenus des lectures ont été présentés. ( Les commentaires doivent s'afficher pendant la semaine avant le cours qui couvre les contenus des lectures. )
30 points

2. Discussion en classe  --  (faites davantage de ciélos chaque semaine si vous êtes gêné pour parler en classe)
20 points

3. Petit examen mi-terme -- 4  questions en ligne (c 350 mots par réponse à chacune): examen à domicile; 3 jours accordés pour compléter
10 points

4. Examen final --  4  questions en ligne (c 750 mots par réponse à chacune): xamen à domicile; 3 jours accordés pour compléter
40 points

Svp utiliser votre compte google pour faire vos commentaires, avec votre vrai nom pour que je sache votre identité et ainsi puisse vous accorder vos crédits. Pour m'aider à vous identifier -- vous êtes quand-même 60! -- svp corriger votre profile google pour mettre votre photo courante, pour que ça paraisse comme votre icône dans chaque commentaire. 

Vous pouvez aussi faire des commentaires sur les commentaires des autres.

Attention: parfois blogger risque de faire disparaître votre commentaire au lieu de l'afficher. C'est souvent parce que vous ne vous êtes pas inscrit, ou vous vous êtes inscrit avec un autre courriel. Donc garder le texte de vous commentaire dans traiteur de texte jusqu'à ce que vous êtes sûr qu'il est affiché dans le blogue. (C'est déchirant d'écrire un texte génial, puis de le perdre et de devoir le reconstruire!)



Exemples de commentaires dans le blog de l'an dernier (2022): https://cccf2022.blogspot.com
 
 

mardi 4 janvier 2022

0. Survol sur le cours intégral (vidéos)

 

2021: VIDÉO DU Cours 0 19 janvier 2021 (partielle)





SURVOL en anglais  





Vidéo langue anglaise



1. Cognition = computation (calcul)?

 Ici (1a) on explique ce que c'est que la computation et le computationnelisme (cognition = computation). Mais ne  manquez pas de lire 1b pour apprendre les limites et les critiques do computationnelisme.


La machine de Turing (vidéo #1)

La machine de Turing (vidéo #2) (attention: youtube met parfois des pubs de 5 secondes avant la capsule) 

Lectures facultatives supplémentaires: 

En Français:

Steiner, P. (2005). Introduction: cognitivisme et sciences cognitivesLabyrinthe, (20), 13-39.


Cette première semaine vous pouvez faire vos ciélos soit sur le cours que j'ai donné mardi, soit sur ces deux vidéos  (#1 et #2) concernant la machine de Turing. Les textes sont facultatives cette semaine.

DEUX VIDÉOS: 1 janvier puis 2 février

2021: VIDÉO DU Cours 1 26 janvier

  

2021: VIDÉO DU Cours 2 février





PPT 2019:







version langue anglaise :










2. Le test de Turing

CETTE SEMAINE, LISEZ, EXCEPTIONNELLENT L'ARTICLE DE TURING  (1950/1990) (en français) AINSI QUE LA TRADCTION DE MON CHAPITRE DE CRITIQUE (2008)

1. --> Turing, A. M. (1950/1990). Machines informatiques et intelligence. Mind49, 433-460.

Intro : Je propose de considérer la question, “Les machines peuvent-elles penser ?”. On devrait commencer par définir les termes “machine” et “pensée.” Les définitions devraient être choisies de manière à refléter aussi bien que possible l’usage courant de ces mots, mais cette attitude est dangereuse. Si les significations des mots “machine” et “pensée” doivent être utilisées de la manière dont elles le sont habituellement, il est difficile d’échapper à la conclusion que le sens de la question “Les machines peuvent-elles penser ?” et la ré- ponse à cette question doivent être recherchés de façon statistique, comme par sondage. Mais cela est absurde. Plutôt que de tenter une telle définition, je remplacerai la ques- tion par une autre, qui lui est intimement reliée et qui s’exprime en termes relativement non-ambigus...

Harnad, S. (2008) The Annotation Game: On Turing (1950) on Computing,Machinery and Intelligence. In: Epstein, Robert & Peters, Grace (Eds.) Parsing the Turing Test: Philosophical and Methodological Issues in the Quest for the Thinking Computer. Springer 

Résumé : C'est l'article classique de Turing avec citation/commentaire pour souligner ce que Turing a dit, aurait pu signifier ou aurait dû signifier. Le document était équivoque quant à savoir si le test robotique   complet était prévu (T3), ou seulement le test verbal (T2). Il n'est pas clair si tous les candidats sont éligibles, ou uniquement des ordinateurs, ni si le critère de réussite est vraiment total -- l'équivalence et l'indiscernabilité le long d'une vie ou simplement de tromper suffisamment de personnes. assez longtemps. Une fois ces incertitudes résolues, le test de Turing reste aujourd'hui le critère empirique légitime (et unique) de la science cognitive.

2. --> Harnad (2008) traduction ci-dessous:

[tous les extraits en gras italique sont des citations provenant de l’article de (Turing 1950)]

 

Je propose de considérer la question, « Les machines peuvent-elles penser ? 

 

Turing part d'une équivoque. Nous savons maintenant que ce qu'il va continuer à considérer n'est pas si les machines peuvent ou non penser, mais si oui ou non les machines peuvent faire ce que des penseurs comme nous peuvent faire - et si oui, comment. Faire est une capacité de performance, empiriquement observable. La pensée (ou la cognition) est un état interne, ses corrélats empiriquement observables en tant qu'activité neuronale (si seulement nous savions quelle activité neuronale correspond à la pensée !) et sa qualité associée observable de manière introspective en tant que notre propre état mental lorsque nous pensons. La proposition de Turing s'avérera n'avoir rien à voir ni avec l'observation d'états neuronaux ni avec l'introspection d'états mentaux, mais seulement avec la génération d'une capacité de performance (intelligence ?) indiscernable de celle de penseurs comme nous.

 

Cela devrait commencer par les définitions de... "machine" et "penser"... [Une] enquête statistique telle qu'un sondage Gallup [serait] absurde. Au lieu de tenter une telle définition, je remplacerai la question par une autre... en termes relativement non ambigus.

 

"Machine" ne sera jamais définie de manière adéquate dans l'article de Turing, bien que (ce que l'on appellera éventuellement) la "machine de Turing", la description abstraite d'un ordinateur, le sera. Cela introduira une ambiguïté systématique entre un système physique réel, faisant quelque chose dans le monde, et un autre système physique, un ordinateur, simulant formellement le premier système, mais ne faisant pas réellement ce qu'il fait : un exemple serait la différence entre un avion réel - une machine, volant dans le monde réel - et une simulation informatique d'un avion, ne volant pas vraiment, mais faisant quelque chose de formellement équivalent au vol, dans un "monde virtuel" (également simulé).

 

Une définition raisonnable de « machine », plutôt que de « machine de Turing », pourrait être n'importe quel système causal dynamique. Cela fait de l'univers une machine, d'une molécule une machine, et aussi des cascades, des grille-pain, des huîtres et des êtres humains. Qu'une machine soit ou non fabriquée par l'homme n'a évidemment aucune importance. La seule propriété pertinente est qu'il est "mécanique", c'est-à-dire qu'il se comporte conformément aux lois de cause à effet de la physique (Harnad 2003).

 

« Penser » ne sera jamais défini par Turing ; elle sera remplacée par une définition opérationnelle selon laquelle « la pensée est comme la pensée fait ». C'est très bien, car la pensée (cognition, intelligence) ne peut pas être définie avant de savoir comment les systèmes de pensée le font, et nous ne savons pas encore comment. Mais nous savons que nous, les penseurs, le faisons, quel qu'il soit, lorsque nous pensons ; et nous savons quand nous le faisons (par introspection). Ainsi, la pensée, une forme de conscience, est déjà définie de manière ostensive, en désignant simplement cette expérience que nous avons et connaissons tous.

 

Prendre une enquête statistique comme un sondage Gallup à la place, pour connaître l'opinion des gens sur ce qu'est la pensée serait en effet une perte de temps, comme le souligne Turing - mais plus tard dans l'article, il introduit inutilement l'équivalent d'une enquête statistique comme son critère pour avoir réussi son test de Turing !

 

La nouvelle forme du problème peut être décrite en termes de jeu que nous appelons le "jeu d'imitation".

 

Autre choix terminologique malheureux : "jeu" implique caprice ou supercherie, alors que Turing désigne en fait une affaire empirique sérieuse. Le jeu est la science (la future science de la cognition -- en fait une branche de la bio-ingénierie inverse ; Harnad 1994a). Et "l'imitation" a aussi des connotations de falsification ou de tromperie, alors que ce que Turing proposera est une méthodologie empirique rigoureuse pour tester les théories de la capacité de performance cognitive humaine (et donc aussi les théories de la pensée qui engendre vraisemblablement cette capacité). Appeler cela un "jeu d'imitation" (au lieu d'une méthodologie de rétro-ingénierie de la capacité de performance cognitive humaine) a invité des générations de malentendus inutiles (Harnad 1992).

 

L'interrogateur reste dans une pièce à l'écart des deux autres. Le but du jeu pour l'interrogateur est de déterminer lequel des deux autres est l'homme et lequel est la femme.

 

Le test homme/femme est une "préparation" intuitive à l'essentiel de ce qui sera éventuellement le test de Turing, à savoir un test empirique de capacité de performance. Pour cela, il faut d'abord que toutes les données de non-performance soient exclues (donc les candidats sont hors de vue). Cela prépare le terrain pour ce qui sera le véritable objet de comparaison de Turing, qui est un être humain pensant contre une machine (non pensante), une comparaison qui doit être impartiale en apparence. 

 

Les critères de Turing, comme nous le savons tous maintenant, se révéleront être deux (bien qu'ils soient souvent confondus ou confondus) : (1) Les deux candidats ont-ils une capacité de performance identique ? (2) Existe-t-il un moyen de les distinguer, en se basant uniquement sur leur capacité de performance, afin de pouvoir détecter que l'un est un être humain pensant et que l'autre n'est qu'une machine ? Le premier est un critère empirique : peuvent-ils tous les deux faire les mêmes choses ? Le second est un critère intuitif, s'appuyant sur ce que des décennies plus tard on a appelé nos capacités humaines de « lecture de l'esprit » (Frith & Frith 1999) : y a-t-il quelque chose dans la façon dont les candidats font ce qu'ils peuvent faire tous les deux qui m'indique au fait que l'un d'eux n'est qu'une machine ?

 

Turing présente tout cela sous la forme d'un jeu de société, un peu comme 20-Questions. Il ne débriefe jamais explicitement le lecteur sur le fait que ce qui est réellement en cause n'est rien de moins que le jeu de la vie lui-même, et que « l'interrogateur » est en fait le scientifique pour la question (1), et, pour la question (2), tout du reste d'entre nous, dans chacune de nos interactions quotidiennes les uns avec les autres. La malheureuse métaphore du jeu de société a de nouveau donné lieu à des cycles inutiles de malentendus lors de l'écriture et de la réflexion ultérieures sur le test de Turing.

 

Pour que les tons de voix n'aident pas l'interrogateur, les réponses doivent être écrites, ou mieux encore, dactylographiées.

 

Cette restriction du test exclusivement à ce que nous appellerions aujourd'hui les interactions par e-mail est, comme indiqué, un moyen raisonnable de nous préparer à son éventuelle concentration sur la capacité de performance seule, plutôt que sur l'apparence, mais elle a l'effet supplémentaire involontaire d'exclure tout tests directs des capacités de performance autres que verbales ; et c'est potentiellement une équivoque beaucoup plus grave, sur laquelle nous reviendrons. Pour l'instant, nous devons seulement garder à l'esprit que si le critère est d'être une capacité de performance indiscernable de Turing, nous pouvons tous faire bien plus que de simples e-mails !

 

Nous posons maintenant la question : « Que se passera-t-il lorsqu'une machine jouera le rôle de A dans ce jeu ? L'interrogateur décidera-t-il aussi souvent à tort lorsque le jeu se joue ainsi que lorsqu'il se joue entre un homme et une femme ? Ces questions remplacent notre question d'origine, "Les machines peuvent-elles penser ?"

 

Ici, avec un peu d'imagination, nous pouvons déjà passer au test de Turing complet, mais encore une fois, nous sommes confrontés à une distraction inutile et potentiellement trompeuse : le but n'est sûrement pas simplement de concevoir une machine que les gens confondent statistiquement avec un être humain. souvent comme pas ! Cela réduirait le test de Turing au sondage Gallup que Turing a rejeté à juste titre en soulevant la question de ce qu'est la "pensée" en premier lieu ! Non, si le critère d'indiscernabilité de Turing doit avoir une substance empirique, les performances de la machine doivent être totalement indiscernables de celles d'un être humain - pour n'importe qui et tout le monde, pour toute une vie (Harnad 1989).

 

Le nouveau problème a l'avantage de tracer une ligne assez nette entre les capacités physiques et intellectuelles d'un homme.

 

Il aurait eu cet avantage, si la ligne avait seulement été tracée entre l'apparence et la performance, ou entre la structure et la fonction. Mais si la ligne est plutôt entre les capacités de performance verbales et non verbales, alors c'est une ligne très arbitraire en effet, et très difficile à défendre. Comme il n'y a aucune défense explicite ou même inférable de cette ligne arbitraire dans aucun des articles de Turing (ni d'une ligne tout aussi arbitraire entre celles de nos "capacités physiques" qui dépendent et ne dépendent pas de nos "capacités intellectuelles"), je prendrai c'est que Turing n'y a tout simplement pas réfléchi. S'il l'avait fait, la frontière aurait été tracée entre l'apparence physique et la structure du candidat, d'une part, et ses capacités de performance, tant verbales que non verbales, d'autre part. Tout comme (dans le jeu) la différence, s'il y en a, entre l'homme et la femme doit être détectée à partir de ce qu'ils font, et non à quoi ils ressemblent, de même la différence, s'il y en a, entre l'homme et la machine doit être détectée à partir de ce qu'ils font. qu'ils font, et non à quoi ils ressemblent. Cela laisserait la porte ouverte à la version robotique du test de Turing dont nous parlerons plus tard, et pas seulement à la version e-mail. 

 

Mais avant qu'un lecteur qualifie ma propre ligne de démarcation entre structure et fonction d'aussi arbitraire, permettez-moi de convenir rapidement que Turing a en fait introduit une hiérarchie de tests de Turing ici, mais pas une infinité d'entre eux (Harnad 2000). Les niveaux pertinents de cette hiérarchie se révéleront être uniquement les 5 suivants :

 

t0 : indiscernabilité locale dans la capacité d'effectuer une tâche arbitraire, telle que les échecs. t0 n'est pas du tout un test de Turing, car il s'agit évidemment d'un sous-total ; par conséquent, le candidat machine se distingue facilement d'un être humain en voyant s'il peut faire autre chose que jouer aux échecs. S'il ne peut pas, il échoue au test.

 

T2 : indiscernabilité totale de la capacité de performance des e-mails (verbaux). Cela semble être un module de performance autonome, car on peut parler de tout et de rien, et le langage a le même genre d'universalité que les ordinateurs (machines de Turing) se sont avérés avoir. T2 englobe même le jeu d'échecs. Mais cela englobe-t-il l'observation des étoiles, ou même la recherche de nourriture ? Est-ce que la machine peut aller voir et me dire ensuite si la lune est visible ce soir et peut-elle aller déterrer des truffes et ensuite me dire comment elle s'y est prise ? Ce sont des choses qu'une machine avec une capacité de messagerie seule ne peut pas faire, mais que tout être humain (normal) peut faire.

 

T3 : indiscernabilité totale de la capacité de performance robotique (sensorimotrice). Cela englobe T2, et c'est (je soutiendrai) le niveau de Test que Turing a vraiment voulu (ou aurait dû avoir !).

 

T4 : indiscernabilité totale dans la capacité de performance externe ainsi que dans la structure/fonction interne. Cela englobe T3 et ajoute toutes les données qu'un neuroscientifique pourrait étudier. Ce n'est plus strictement un test de Turing, car il va au-delà des données de performance, mais il intègre correctement la hiérarchie de Turing dans une hiérarchie empirique plus large. De plus, la frontière entre T3 et T4 est vraiment floue : est-ce que rougir T3 ou T4 ?

 

T5 : indiscernabilité totale dans la structure/fonction physique. Cela englobe la T4 et exclut tout système nerveux fonctionnellement équivalent mais synthétique : le candidat T5 doit être indiscernable des autres êtres humains jusqu'à la dernière molécule.

 

Aucun ingénieur ou chimiste ne prétend être capable de produire un matériau qui ne se distingue pas de la peau humaine... [Il n'y aurait] aucun intérêt à essayer de rendre une "machine à penser" plus humaine en l'habillant d'une telle chair artificielle.

 

Ici, Turing rejette correctement T5 et T4 -- mais certainement pas T3.

 

La forme sous laquelle nous avons posé le problème reflète ce fait dans la condition qui empêche l'interrogateur de voir ou de toucher les autres concurrents, ou d'entendre leurs voix.

 

Oui, mais utiliser T2 comme exemple a par inadvertance donné l'impression que T3 est également exclu : non seulement nous ne pouvons ni voir ni toucher le candidat, mais le candidat ne peut rien voir ni toucher - ni faire autre chose que calculer et envoyer des e-mails.

 

La méthode des questions et réponses semble convenir pour introduire presque tous les domaines de l'activité humaine que nous souhaitons inclure.

 

Cela reflète correctement le pouvoir universel du langage naturel (de dire et de décrire n'importe quoi avec des mots). Mais "presque" ne correspond pas au critère de Turing d'une capacité de performance identique.

 

Nous ne souhaitons pas pénaliser la machine pour son incapacité à briller dans les concours de beauté

 

C'est l'exclusion valable de l'apparence (d'ailleurs, la plupart d'entre nous ne pourraient pas non plus briller dans les concours de beauté).

 

…ni de pénaliser un homme pour avoir perdu dans une course contre un avion

 

La plupart d'entre nous ne pouvaient pas battre Deep Blue aux échecs, ni même atteindre le niveau de grand maître ordinaire. Ce ne sont que les capacités humaines génériques qui sont en cause, et non celles d'un individu en particulier. D'un autre côté, nous pouvons à peu près tous marcher et courir. Et même si nous sommes handicapés (cas anormal, et loin d'être celui sur lequel bâtir ses tentatives de générer des capacités de performance positives), nous avons tous une certaine capacité sensorimotrice. (Ni Helen Keller ni Stephen Hawking ne sont un module désincarné de messagerie uniquement.) 

 

Les conditions de notre jeu rendent ces handicaps non pertinents

 

Les handicaps et l'apparence ne sont en effet pas pertinents. Mais les capacités de performance non verbales ne le sont certainement pas. En effet, nos capacités verbales pourraient bien être ancrées dans nos capacités non verbales (Harnad 1990 ; Cangelosi & Harnad 2001 ; Kaplan & Steels 1999). (En fait, par « handicap », Turing signifie non-capacité, c'est-à-dire l'absence de capacité ; il ne veut pas vraiment dire être handicapé dans le sens d'être physiquement handicapé, bien qu'il mentionne Helen Keller plus tard.)

 

L’interrogateur ne peut exiger des démonstrations pratiques

 

Ce serait certainement une faille fatale dans le test de Turing si Turing avait voulu exclure T3 - mais je doute qu'il ait voulu dire cela. Il soutenait simplement que c'est la capacité de performance qui est décisive (pour le problème empirique que la future science cognitive finirait par résoudre), et non quelque chose d'autre qui pourrait dépendre de caractéristiques non pertinentes de la structure ou de l'apparence. Il a simplement utilisé la performance verbale comme exemple d'amorçage de l'intuition, sans vouloir dire que toute «pensée» est verbale et que seule la capacité de performance verbale est pertinente.

 

La question... ne sera pas tout à fait définie tant que nous n'aurons pas précisé ce que nous entendons par le mot "machine". Il est naturel que nous souhaitions permettre à toutes sortes de techniques d'ingénierie d'être utilisées dans nos machines.

 

Ce passage (bientôt contredit dans le texte suivant !) implique que Turing ne voulait pas dire uniquement des ordinateurs : que tout système dynamique que nous construisons est éligible (tant qu'il délivre la capacité de performance). Mais nous devons le construire, ou au moins avoir une compréhension causale complète de son fonctionnement. Un être humain cloné ne peut pas être inscrit comme machine candidate (parce que nous ne l'avons pas construit et donc ne savons pas comment cela fonctionne), même si nous sommes tous des « machines » dans le sens d'être des systèmes causaux (Harnad 2000, 2003 ).

 

Nous souhaitons également permettre à un ingénieur ou à une équipe d'ingénieurs de construire une machine qui fonctionne, mais dont le mode de fonctionnement ne peut être décrit de manière satisfaisante par ses constructeurs parce qu'ils ont appliqué une méthode largement expérimentale.

 

C'est là le début de la différence entre le domaine de l'intelligence artificielle (IA), dont le but est simplement de générer un outil de performance utile, et la modélisation cognitive (CM), dont le but est d'expliquer comment la cognition humaine est générée. Un appareil que nous avons construit mais sans savoir comment il fonctionne suffirait pour l'IA mais pas pour le CM.

 

Enfin, nous voulons exclure des machines les hommes nés de manière habituelle.

 

Cela n'implique pas, bien sûr, que nous ne soyons pas des machines, mais seulement que le test de Turing consiste à découvrir quel type de machine nous sommes, en concevant une machine qui peut générer notre capacité de performance, mais par des moyens causals/fonctionnels que nous comprendre, parce que nous les avons conçus.

 

Il est probablement possible d'élever un individu complet à partir d'une seule cellule de la peau (disons) d'un homme ... mais nous ne serions pas enclins à le considérer comme un cas de "construction d'une machine à penser".

 

C'est parce que nous voulons expliquer la capacité de réflexion, pas simplement la dupliquer. http://www.ecs.soton.ac.uk/~harnad/Hypermail/Foundations.Cognitive.Science2001/0056.html  

 

Cela nous incite à abandonner l'exigence selon laquelle toutes les techniques doivent être autorisées. Nous n'autorisons [en conséquence] que les ordinateurs numériques à participer à notre jeu.

 

C'est là que Turing contredit ce qu'il a dit plus tôt, retirant l'éligibilité de tous les systèmes d'ingénierie sauf un, introduisant ainsi une autre restriction arbitraire - une qui exclurait à nouveau T3. Turing a dit plus tôt (à juste titre) que tout dispositif d'ingénierie devrait être éligible. Maintenant, il dit que ce ne peut être qu'un ordinateur. Sa motivation est bien sûr en partie due au fait que l'ordinateur (Turing Machine) s'est révélé universel, en ce sens qu'il peut simuler n'importe quel autre type de machine. Mais ici nous sommes carrément dans l'équivoque T2/T3, car un robot simulé dans un monde virtuel n'est ni un vrai robot, ni un vrai test de Turing robotique, dans le monde réel. T2 et T3 sont des tests effectués dans le monde réel. Mais une interaction par e-mail avec un robot virtuel dans un monde virtuel serait T2, pas T3.

Autrement dit : avec le test de Turing, nous avons accepté, avec Turing, que la pensée est comme la pensée. Mais nous savons que les penseurs peuvent faire et font plus que simplement parler. Et il reste ce que les penseurs peuvent faire que notre candidat doit également être capable de faire, pas seulement ce qu'ils peuvent faire verbalement. Par conséquent, tout comme voler est quelque chose que seul un vrai avion peut faire, et non un avion virtuel simulé par ordinateur, même si Turing est équivalent au vrai avion -- ainsi passer T3 est quelque chose que seul un vrai robot peut faire, pas un robot simulé testé par T2, qu'il en soit ainsi Turing-équivalent au vrai robot. (Je suppose également qu'il est clair que les tests de Turing testent dans le monde réel : une simulation de réalité virtuelle [VR] ne serait pas une sorte de test de Turing ; cela ne ferait que tromper nos sens dans la chambre VR plutôt que de tester le candidat. capacité de performance réelle dans le monde réel.)

 

Ainsi, la restriction à la simulation informatique, bien que peut-être utile pour planifier, concevoir et même pré-tester le robot T3, n'est qu'une stratégie méthodologique pratique. En principe, tout dispositif conçu devrait être éligible ; et il doit être capable de fournir des performances T3, pas seulement T2.

 

Il est intéressant de noter que la robotique cognitive contemporaine n'a pas tiré autant de profit de la simulation informatique et des mondes virtuels qu'on aurait pu s'y attendre, malgré l'universalité du calcul. « Embodiment » et « situatedness » (dans le monde réel) se sont révélés être des ingrédients importants de la robotique empirique (Brooks 2002, Kaplan & Steels 1999), le mot d'ordre étant qu'il vaut mieux utiliser le monde réel comme son propre modèle (plutôt que les roboticiens doivent simuler, donc deviner à l'avance, non seulement le robot, mais aussi le monde).

 

L'impossibilité de deviner à l'avance chaque "mouvement" potentiel du robot, en réponse à chaque éventualité possible dans le monde réel, indique également une faille latente (et je pense fatale) dans T2 lui-même : ne serait-ce pas un cadeau mort si le correspondant de l'e-mail T2 s'avérait incapable de commenter les photos de famille analogiques que nous n'arrêtions pas d'insérer avec notre texte ? (S'il peut traiter les images, ce n'est pas seulement un ordinateur mais au moins un ordinateur plus des capteurs périphériques A/N, violant déjà la restriction arbitraire de Turing aux seuls ordinateurs). Ou si son correspondant ignorait totalement les événements contemporains du monde réel, en dehors de ceux que nous décrivons dans nos lettres ? Même sa performance verbale ne s'effondrerait-elle pas si on l'interrogeait de trop près sur les détails qualitatifs et pratiques de l'expérience sensorimotrice ? Tout cela pourrait-il vraiment être deviné purement verbalement à l'avance ?

 

Cette restriction [aux ordinateurs] apparaît à première vue comme très drastique. J'essaierai de montrer qu'il n'en est pas ainsi dans la réalité. Pour ce faire, il est nécessaire de présenter brièvement la nature et les propriétés de ces ordinateurs.

 

L'exposé des ordinateurs qui suit est utile et bien sûr correct, mais il ne justifie en rien la restriction du TT aux candidats qui sont des ordinateurs. Il vaut donc mieux ignorer cette restriction arbitraire.

 

On peut dire aussi que cette identification des machines aux calculateurs numériques, comme notre critère de « penser », ne sera insatisfaisante que si (contrairement à ma croyance), il s'avère que les calculateurs numériques sont incapables de faire bonne figure dans le jeu. .

 

C'est encore l'équivoque du "jeu". Il ne fait aucun doute que les ordinateurs feront bonne figure, au sens du Gallup Poll. Mais la science empirique n'est pas seulement une bonne démonstration : une expérience ne doit pas tromper la plupart des expérimentateurs la plupart du temps ! Si la performance-capacité de la machine doit être indiscernable de celle de l'être humain, elle doit être totalement indiscernable, pas seulement indiscernable le plus souvent. De plus, certains des problèmes que j'ai soulevés pour T2 - les types d'échanges verbaux qui font largement appel à l'expérience sensorimotrice - ne sont même pas susceptibles de donner un bon résultat, si le candidat est uniquement un ordinateur numérique, quelle que soit la richesse une base de données, il est donné à l'avance.

 

[L]es ordinateurs numériques... effectuent toutes les opérations qui pourraient être effectuées par un ordinateur humain... suivant des règles fixes...

 

Cela continue en décrivant ce qui est depuis devenu la définition standard des ordinateurs en tant que dispositifs de manipulation de symboles basés sur des règles (machines de Turing). 

 

Une variante intéressante de l'idée d'un ordinateur numérique est un "ordinateur numérique avec un élément aléatoire"... Parfois, une telle machine est décrite comme ayant le libre arbitre (bien que je n'utiliserais pas cette expression moi-même)

 

Moi non plus. Mais sûrement une caractéristique encore plus importante pour un candidat au test de Turing qu'un élément aléatoire ou des fonctions statistiques serait l'autonomie dans le monde - ce qui est quelque chose qu'un robot T3 a bien plus qu'un correspondant T2. Le côté ontique du libre arbitre - à savoir, si nous-mêmes, de vrais êtres humains, avons réellement le libre arbitre - dépasse plutôt la portée de l'article de Turing Harnad 1982b). Il en va de même pour la question de savoir si une machine à passer le TT aurait des sentiments (gratuits ou non)

(Harnad 1995). Ce qui est clair, cependant, c'est que les règles de calcul ne sont pas les seuls moyens de « lier » et de déterminer les performances : la causalité physique ordinaire peut le faire aussi.

 

Il semblera que compte tenu de l'état initial de la machine et des signaux d'entrée, il est toujours possible de prédire tous les états futurs. Cela rappelle la vision de Laplace selon laquelle à partir de l'état complet de l'univers à un moment donné, tel que décrit par les positions et les vitesses de toutes les particules, il devrait être possible de prédire tous les états futurs.

 

Les points sur le déterminisme sont probablement des faux-fuyants. La seule propriété pertinente est la capacité de performance. Que l'humain ou la machine soient complètement prévisibles n'a aucune importance. (La physique à plusieurs corps et la théorie de la complexité suggèrent que ni la détermination causale ni la règle ne garantissent la prévisibilité dans la pratique - et cela sans même invoquer les arcanes de la théorie quantique.)

 

À condition que cela puisse être réalisé suffisamment rapidement, l'ordinateur numérique pourrait imiter le comportement de n'importe quelle machine à états discrets ... ce sont des machines universelles ... [D'où] des considérations de vitesse mises à part, il est inutile de concevoir diverses nouvelles machines à faire divers processus informatiques. Ils peuvent tous être effectués avec un seul ordinateur numérique, programmé de manière appropriée pour chaque cas ... En conséquence, tous les ordinateurs numériques sont en un sens équivalents.

 

Tout est vrai, mais tout n'est pas pertinent pour la question de savoir si un ordinateur numérique seul pourrait passer T2, sans parler de T3. Le fait que les yeux et les jambes puissent être simulés par un ordinateur ne signifie pas qu'un ordinateur peut voir ou marcher (même lorsqu'il simule la vue et la marche). Voilà pour le T3. Mais même juste pour T2, la question est de savoir si les simulations seules peuvent donner au candidat T2 la capacité de verbaliser et de converser sur le monde réel de manière indiscernable d'un candidat T3 ayant une expérience sensorimotrice autonome dans le monde réel.

 

(Je pense qu'une autre équivoque inaperçue de Turing - et bien d'autres - découle du fait que la pensée n'est pas observable : cette inobservabilité nous aide à imaginer que les ordinateurs pensent. Mais même sans avoir à invoquer le problème des autres esprits (Harnad 1991), il faut se rappeler qu'un ordinateur universel n'est que formellement universel : il peut décrire à peu près n'importe quel système physique, et le simuler en code symbolique, mais ce faisant, il ne capture pas toutes ses propriétés : Exactement comme un un avion simulé par ordinateur ne peut pas vraiment faire ce qu'un avion fait (c'est-à-dire voler dans le monde réel), un robot simulé par ordinateur ne peut pas vraiment faire ce qu'un vrai robot fait (agir dans le monde réel) - il n'y a donc pas raison de croire qu'il pense vraiment non plus. Un vrai robot peut ne pas vraiment penser non plus, mais cela nécessite d'invoquer le problème des autres esprits, alors que le robot virtuel est déjà disqualifié pour exactement la même raison que l'avion virtuel : les deux échouent à rencontrer le TT cr l'itération elle-même, qui est une véritable capacité de performance, et pas simplement quelque chose qui lui est formellement équivalent !)

 

Je crois que dans une cinquantaine d'années, il sera possible, de programmer des ordinateurs... [de] jouer si bien au jeu de l'imitation qu'un interrogateur moyen n'aura pas plus de 70 % de chances de faire la bonne identification au bout de cinq minutes de questionnement.

 

Il ne fait aucun doute que les programmes informatiques d'aujourd'hui peuvent répondre à ce critère de jeu de société/sondage Gallup - mais cela reste un fait démographique aussi dénué de sens aujourd'hui qu'il l'était lorsqu'il était prédit il y a 50 ans : comme toute autre science, la science cognitive n'est pas l'art de tromper la plupart des gens pendant une partie ou la plupart du temps ! Le candidat doit vraiment avoir la capacité de performance générique d'un être humain réel - une capacité totalement indiscernable de celle d'un être humain réel à n'importe quel être humain réel (pour toute une vie, s'il le faut !). Pas d'astuces : capacité de performance réelle. 

 

La question initiale, "Les machines peuvent-elles penser ?" Je pense que c'est trop vide de sens pour mériter une discussion.

 

Ce n'est pas dénué de sens, c'est simplement indécidable : ce que nous entendons par "penser", c'est, d'une part, ce que les créatures pensantes peuvent faire et comment elles peuvent le faire, et, d'autre part, ce que cela fait de penser. . Ce que les penseurs peuvent faire est capturé par le TT. Une théorie de la façon dont ils le font est fournie par la façon dont notre machine artificielle le fait. (S'il existe plusieurs machines différentes qui réussissent, c'est une question d'inférence normale à la meilleure théorie.) Jusqu'à présent, rien de dénué de sens. Maintenant, nous demandons : les candidats retenus ressentent-ils vraiment, comme nous le faisons lorsque nous pensons ? Cette question n'est pas dénuée de sens, elle est simplement sans réponse - autrement qu'en étant le candidat. C'est le vieux problème familier des autres esprits (Harnad 1991).

 

Néanmoins je crois qu'à la fin du siècle l'usage des mots et l'opinion générale cultivée auront tellement changé qu'on pourra parler de machines pensantes sans s'attendre à être contredit.

 

Oui, mais seulement au prix de rétrograder la "pensée" au sens de "traitement de l'information" plutôt que ce que vous ou moi faisons quand nous pensons, et ce que cela ressemble.

 

L'opinion populaire selon laquelle les scientifiques procèdent inexorablement d'un fait bien établi à un fait bien établi, sans jamais être influencés par une conjecture améliorée, est tout à fait erronée. Pourvu qu'il soit clairement établi quels sont les faits prouvés et lesquels sont des conjectures, aucun dommage ne peut en résulter. Les conjectures sont d'une grande importance car elles suggèrent des pistes de recherche utiles.

 

C'est confus. Oui, la science procède par une série de meilleures approximations, de théorie empirique en théorie. Mais la théorie ici serait la conception réelle d'un candidat TT réussi, pas la conjecture selon laquelle le calcul (ou quoi que ce soit d'autre) finira par faire l'affaire. Turing confond les conjectures formelles (telles que la machine de Turing et ses équivalents capturent toutes les notions et instances futures de ce que nous entendons par "calcul" -- la soi-disant "Thèse Church/Turing") et les hypothèses empiriques, telles que la pensée n'est qu'un calcul. Le test de Turing n'est sûrement pas une licence pour dire que nous expliquons de mieux en mieux la pensée alors que nos candidats trompent de plus en plus de gens de plus en plus longtemps. D'un autre côté, quelque chose d'autre qui ressemble superficiellement à cela (mais qui s'avère être correct) pourrait être dit à propos de la mise à l'échelle empirique du TT en concevant un candidat qui peut faire de plus en plus de ce que nous pouvons faire. Et les tests de Turing fournissent certainement une méthodologie pour une telle construction théorique cumulative et un tel test théorique en sciences cognitives.

 

L'objection théologique : La pensée est une fonction de l'âme immortelle de l'homme.

 

La véritable objection théologique n'est pas tant que l'âme est immortelle mais qu'elle est immatérielle. Ce point de vue a également un soutien non théologique du problème esprit/corps : personne - théologien, philosophe ou scientifique - n'a la moindre idée de la façon dont les états mentaux peuvent être des états matériels (ou, comme je préfère le dire , comment les états fonctionnels peuvent être des états ressentis). Ce problème a été surnommé "difficile" (Chalmers in Shear 1997). Cela peut même être pire : il peut être insoluble (Harnad 2001). Mais ce n'est pas une objection aux tests de Turing qui, même s'ils n'expliquent pas comment les penseurs peuvent se sentir, expliquent comment ils peuvent faire ce qu'ils peuvent faire.

 

Il y a une plus grande différence, à mon avis, entre l'animé typique et l'inanimé qu'il n'y en a entre l'homme et les autres animaux.

 

Oui, et c'est pourquoi le problème des autres esprits prend tout son sens en faisant des tests de Turing sur des machines plutôt qu'en faisant de la lecture de l'esprit de notre propre espèce et d'autres animaux. ("Animer" est un mot de belette, cependant, car les vitalistes sont probablement aussi des animistes; Harnad 1994a.)

 

L'objection mathématique : le théorème de Godel[:] [B]ien qu'il soit établi qu'il existe des limitations aux pouvoirs d'une machine particulière, il a seulement été déclaré, sans aucune sorte de preuve, qu'aucune de ces limitations ne s'applique à l'intellect humain.

 

Le théorème de Godel montre qu'il y a des déclarations en arithmétique qui sont vraies, et nous savons qu'elles sont vraies, mais leur vérité ne peut pas être calculée. Certains ont interprété cela comme impliquant que « savoir » (qui n'est qu'une espèce de « penser ») ne peut pas être simplement un calcul. Turing répond que peut-être l'esprit humain a des limites similaires, mais il me semble qu'il aurait été suffisant de souligner que "savoir" n'est pas la même chose que "prouver". Godel montre que la vérité est indémontrable, non pas qu'elle est inconnaissable. (Il y a de bien meilleures raisons de croire que penser n'est pas calculer.) 

 

L'argument à partir de la conscience :

Jefferson (1949): "Ce n'est que lorsqu'une machine peut [faire X] à cause des pensées et des émotions ressenties, et non par la chute fortuite des symboles, que nous pouvons convenir que la machine est égale au cerveau"

 

Cet argument standard contre le test de Turing (répété d'innombrables fois presque exactement de la même manière jusqu'à nos jours) n'est qu'une reformulation du problème des autres esprits : il n'y a aucun moyen de savoir si les humains ou les machines font ce qu'ils font parce qu'ils envie - ou s'ils ressentent quelque chose du tout, d'ailleurs. Mais il y a beaucoup à savoir en identifiant ce qui peut et ne peut pas générer la capacité de faire ce que les humains peuvent faire. (Les limites de la manipulation de symboles [calcul] sont une autre question, qui peut être réglée empiriquement, en fonction des types de machines qui peuvent et ne peuvent pas réussir le TT ; Harnad 2003.)

 

Selon la forme la plus extrême de cette conception, le seul moyen d'être sûr que la machine pense est d'être la machine et de se sentir penser... [C'est] en fait le point de vue solipsiste. C'est peut-être le point de vue le plus logique à avoir, mais cela rend la communication des idées difficile.

 

Turing a complètement tort ici. Ce n'est pas du solipsisme

(c'est-à-dire, pas la croyance que moi seul existe et que tout le reste est mon rêve). C'est simplement le problème des autres esprits

(Harnad 1991); et c'est correct, mais non pertinent - ou plutôt mis en perspective par le test de Turing : il n'y a personne d'autre que nous puissions savoir qui a un esprit à part nous-mêmes, mais nous ne nous inquiétons pas de l'esprit de nos semblables. , parce qu'ils se comportent exactement comme nous et que nous savons lire dans leur esprit leur comportement. De la même manière, nous n'avons plus ou moins de raisons de nous inquiéter de l'esprit de quoi que ce soit d'autre qui se comporte comme nous - à tel point que nous ne pouvons pas les distinguer des autres êtres humains. Il n'est pas non plus pertinent de savoir de quoi ils sont faits, puisque notre lecture réussie des pensées des autres êtres humains n'a rien à voir avec la matière dont ils sont faits non plus. Il est basé uniquement sur ce qu'ils font.

 

Arguments de diverses [in]capacités :

... "Je t'accorde que tu peux faire faire à des machines toutes les choses que tu as citées mais tu ne pourras jamais en faire faire une seule pour faire X" : [e.g] Être gentil, débrouillard, beau, amical, avoir de l'initiative, avoir un sens de l'humour, distinguer le vrai du faux, faire des erreurs, tomber amoureux, savourer des fraises et de la crème, en faire tomber amoureux, apprendre de l'expérience, utiliser les mots correctement, être le sujet de sa propre pensée, avoir autant de diversité de comportement en tant qu'homme, faire quelque chose de vraiment nouveau.

 

Turing écarte à juste titre ce genre de scepticisme (que j'ai surnommé "Granny Objections" http://www.ecs.soton.ac.uk/~harnad/CM302/Granny/sld001.htm ) en soulignant que ce sont des questions empiriques sur ce que les ordinateurs (et d'autres types de machines) s'avéreront éventuellement capables de le faire. Les éléments de performance sur la liste, c'est-à-dire. Les états mentaux (sentiments), d'autre part, sont discutables, à cause du problème des autres esprits.

 

(6) Objection de Lady Lovelace :

"Le moteur analytique n'a aucune prétention à créer quoi que ce soit. Il peut faire tout ce que nous savons comment lui ordonner de fonctionner"... une machine ne peut "jamais rien faire de vraiment nouveau".

 

C'est l'une des nombreuses objections de Granny. La réponse correcte est que (i) tous les systèmes causaux sont descriptibles par des règles formelles (c'est l'équivalent de la thèse de Church/Turing), y compris nous-mêmes ; (ii) nous savons, grâce à la théorie de la complexité ainsi qu'à la mécanique statistique, que le fait que la performance d'un système soit régie par des règles ne signifie pas que nous pouvons prédire tout ce qu'il fait ; (iii) il n'est pas clair que quelqu'un ou quoi que ce soit ait "créé" quelque chose de nouveau depuis le Big Bang. 

 

L'opinion selon laquelle les machines ne peuvent pas créer de surprises est due, je crois, à une erreur à laquelle les philosophes et les mathématiciens sont particulièrement sujets. C'est l'hypothèse que dès qu'un fait est présenté à un esprit, toutes les conséquences de ce fait jaillissent dans l'esprit simultanément avec lui. C'est une hypothèse très utile dans de nombreuses circonstances, mais on oublie trop facilement qu'elle est fausse. Une conséquence naturelle de le faire est que l'on suppose alors qu'il n'y a aucune vertu dans le simple fait de tirer des conséquences à partir de données et de principes généraux.

 

Turing a tout à fait raison de souligner que savoir que quelque chose est vrai ne signifie pas savoir tout ce que cela implique ; cela est particulièrement vrai des conjectures mathématiques, des théorèmes et des axiomes.

 

Mais je pense que la préoccupation de Lady Lovelace pour la liberté vis-à-vis des règles et de la nouveauté est encore plus superficielle que cela. Il prend notre ignorance introspective sur la base causale de nos capacités de performance au pied de la lettre, comme si cette ignorance démontrait que nos capacités sont en fait des actes sui generis de notre volonté psychocinétique - plutôt que d'être simplement la preuve empirique de notre ignorance fonctionnelle, par exemple. future rétro-ingénierie (sciences cognitives) pour y remédier.

 

Argument selon la Continuité dans le Système Nerveux : On peut soutenir que... on ne peut pas s'attendre à pouvoir imiter le comportement du système nerveux avec un système à états discrets.

 

Selon la thèse de Church/Turing, il n'y a presque rien qu'un ordinateur ne puisse simuler, à une approximation aussi proche que souhaité, y compris le cerveau. Mais, comme indiqué, il n'y a aucune raison pour que les ordinateurs soient les seules machines éligibles aux tests de Turing. Les robots peuvent aussi avoir des composants analogiques. Tout système causal dynamique est éligible, tant qu'il délivre la capacité de performance.

 

L'argument selon l'informalité du comportement : Il n'est pas possible de produire un ensemble de règles prétendant décrire ce qu'un homme devrait faire dans toutes les circonstances imaginables.

 

Premièrement, le candidat TT retenu n'a pas besoin d'être simplement informatique (basé sur des règles); tous les arguments en faveur des robots T3 et leur besoin de capacités, de mécanismes et d'expériences sensorimotrices du monde réel suggèrent qu'il faut plus qu'un simple calcul chez un candidat retenu. L'impossibilité de deviner un ensemble de règles qui prédisent chaque éventualité à l'avance est probablement aussi à l'origine du soi-disant «problème du cadre» en intelligence artificielle (Harnad 1993). Mais il sera toujours vrai, en raison de la thèse de Church-Turing, que le robot T3 hybride computationnel/dynamique réussi sera toujours simulable par ordinateur en principe – un robot virtuel dans un monde virtuel. Ainsi, le système basé sur des règles peut décrire ce qu'un robot T3 ferait dans toutes les éventualités ; cette simulation ne serait tout simplement pas un robot T3, pas plus que son monde virtuel ne serait le monde réel.

 

Machines d'apprentissage

 

Turing anticipe avec succès l'apprentissage automatique, la modélisation développementale et la modélisation évolutive dans cette section prémonitoire.

 

L'argument de la perception extrasensorielle :... la télépathie, la clairvoyance, la précognition et la psychokinésie... [L]es preuves statistiques, du moins pour la télépathie, sont accablantes.

 

Il est dommage qu'à la fin Turing révèle sa crédulité à propos de ces phénomènes douteux, car si la psychokinésie (l'esprit sur la matière) était véritablement possible, alors l'ingénierie matière/énergie ordinaire ne suffirait pas à générer un esprit pensant ; et si la télépathie (vraie lecture de l'esprit) était véritablement possible, alors cela l'emporterait définitivement sur le test de Turing.

 

-----------




Bertrand, J. M. (1987). Test de Turing: jeu d'imitation ou test d'intelligence?. Quaderni, 1(1), 35-45.

Avec le "jeu de l'imitation", Turing imagine une méthode pour décider si une machine "peut penser". Il montre que la définition théorique de la machine qu'il a lui-même donnée en 1936-1937 n'interdit pas l'hypothèse qu'une machine conforme à cette définition puisse l'emporter au jeu. Ce faisant, il n'aborde ni un problème technique, ni un problème de logique théorique, mais s'avance sur le terrain d'une philosophie que l'on qualifiera de "continentale" : pour l'emporter au jeu, la machine doit s'exprimer à la première personne et être pour son adversaire un semblable. La machine victorieuse doit être élevée à la pleine dignité du sujet de la philosophie classique.

0. Le test de Turing expliqué en moins de 3 minutes
1Le modèle Turing (vidéo, langue française)

  

2021: VIDÉO DU Cours 9 février




PPT 2019:



résumé langue anglaise:







 

PLAN DE COURS

  ISC1000-20, hiver 2023:  Catégorisation, communication et conscience Heure:  mardi 18h00-21:00 Salle du cours: R-M140 Enseignant:  Stevan ...