CETTE SEMAINE, LISEZ, EXCEPTIONNELLENT L'ARTICLE DE TURING (1950/1990) (en français) AINSI QUE LA TRADCTION DE MON CHAPITRE DE CRITIQUE (2008)
1. --> Turing, A. M. (1950/1990). Machines informatiques et intelligence. Mind, 49, 433-460.
Harnad, S. (2008) The Annotation Game: On Turing (1950) on Computing,Machinery and Intelligence. In: Epstein, Robert & Peters, Grace (Eds.) Parsing the Turing Test: Philosophical and Methodological Issues in the Quest for the Thinking Computer. SpringerIntro : Je propose de considérer la question, “Les machines peuvent-elles penser ?”. On devrait commencer par définir les termes “machine” et “pensée.” Les définitions devraient être choisies de manière à refléter aussi bien que possible l’usage courant de ces mots, mais cette attitude est dangereuse. Si les significations des mots “machine” et “pensée” doivent être utilisées de la manière dont elles le sont habituellement, il est difficile d’échapper à la conclusion que le sens de la question “Les machines peuvent-elles penser ?” et la ré- ponse à cette question doivent être recherchés de façon statistique, comme par sondage. Mais cela est absurde. Plutôt que de tenter une telle définition, je remplacerai la ques- tion par une autre, qui lui est intimement reliée et qui s’exprime en termes relativement non-ambigus...
Résumé : C'est l'article classique de Turing avec citation/commentaire pour souligner ce que Turing a dit, aurait pu signifier ou aurait dû signifier. Le document était équivoque quant à savoir si le test robotique complet était prévu (T3), ou seulement le test verbal (T2). Il n'est pas clair si tous les candidats sont éligibles, ou uniquement des ordinateurs, ni si le critère de réussite est vraiment total -- l'équivalence et l'indiscernabilité le long d'une vie ou simplement de tromper suffisamment de personnes. assez longtemps. Une fois ces incertitudes résolues, le test de Turing reste aujourd'hui le critère empirique légitime (et unique) de la science cognitive.
2. --> Harnad (2008) traduction ci-dessous:
[tous les extraits en gras italique sont des citations provenant de l’article de (Turing 1950)]
Je propose de considérer la question, « Les machines peuvent-elles penser ?
Turing part d'une équivoque. Nous savons maintenant que ce qu'il va continuer à considérer n'est pas si les machines peuvent ou non penser, mais si oui ou non les machines peuvent faire ce que des penseurs comme nous peuvent faire - et si oui, comment. Faire est une capacité de performance, empiriquement observable. La pensée (ou la cognition) est un état interne, ses corrélats empiriquement observables en tant qu'activité neuronale (si seulement nous savions quelle activité neuronale correspond à la pensée !) et sa qualité associée observable de manière introspective en tant que notre propre état mental lorsque nous pensons. La proposition de Turing s'avérera n'avoir rien à voir ni avec l'observation d'états neuronaux ni avec l'introspection d'états mentaux, mais seulement avec la génération d'une capacité de performance (intelligence ?) indiscernable de celle de penseurs comme nous.
Cela devrait commencer par les définitions de... "machine" et "penser"... [Une] enquête statistique telle qu'un sondage Gallup [serait] absurde. Au lieu de tenter une telle définition, je remplacerai la question par une autre... en termes relativement non ambigus.
"Machine" ne sera jamais définie de manière adéquate dans l'article de Turing, bien que (ce que l'on appellera éventuellement) la "machine de Turing", la description abstraite d'un ordinateur, le sera. Cela introduira une ambiguïté systématique entre un système physique réel, faisant quelque chose dans le monde, et un autre système physique, un ordinateur, simulant formellement le premier système, mais ne faisant pas réellement ce qu'il fait : un exemple serait la différence entre un avion réel - une machine, volant dans le monde réel - et une simulation informatique d'un avion, ne volant pas vraiment, mais faisant quelque chose de formellement équivalent au vol, dans un "monde virtuel" (également simulé).
Une définition raisonnable de « machine », plutôt que de « machine de Turing », pourrait être n'importe quel système causal dynamique. Cela fait de l'univers une machine, d'une molécule une machine, et aussi des cascades, des grille-pain, des huîtres et des êtres humains. Qu'une machine soit ou non fabriquée par l'homme n'a évidemment aucune importance. La seule propriété pertinente est qu'il est "mécanique", c'est-à-dire qu'il se comporte conformément aux lois de cause à effet de la physique (Harnad 2003).
« Penser » ne sera jamais défini par Turing ; elle sera remplacée par une définition opérationnelle selon laquelle « la pensée est comme la pensée fait ». C'est très bien, car la pensée (cognition, intelligence) ne peut pas être définie avant de savoir comment les systèmes de pensée le font, et nous ne savons pas encore comment. Mais nous savons que nous, les penseurs, le faisons, quel qu'il soit, lorsque nous pensons ; et nous savons quand nous le faisons (par introspection). Ainsi, la pensée, une forme de conscience, est déjà définie de manière ostensive, en désignant simplement cette expérience que nous avons et connaissons tous.
Prendre une enquête statistique comme un sondage Gallup à la place, pour connaître l'opinion des gens sur ce qu'est la pensée serait en effet une perte de temps, comme le souligne Turing - mais plus tard dans l'article, il introduit inutilement l'équivalent d'une enquête statistique comme son critère pour avoir réussi son test de Turing !
La nouvelle forme du problème peut être décrite en termes de jeu que nous appelons le "jeu d'imitation".
Autre choix terminologique malheureux : "jeu" implique caprice ou supercherie, alors que Turing désigne en fait une affaire empirique sérieuse. Le jeu est la science (la future science de la cognition -- en fait une branche de la bio-ingénierie inverse ; Harnad 1994a). Et "l'imitation" a aussi des connotations de falsification ou de tromperie, alors que ce que Turing proposera est une méthodologie empirique rigoureuse pour tester les théories de la capacité de performance cognitive humaine (et donc aussi les théories de la pensée qui engendre vraisemblablement cette capacité). Appeler cela un "jeu d'imitation" (au lieu d'une méthodologie de rétro-ingénierie de la capacité de performance cognitive humaine) a invité des générations de malentendus inutiles (Harnad 1992).
L'interrogateur reste dans une pièce à l'écart des deux autres. Le but du jeu pour l'interrogateur est de déterminer lequel des deux autres est l'homme et lequel est la femme.
Le test homme/femme est une "préparation" intuitive à l'essentiel de ce qui sera éventuellement le test de Turing, à savoir un test empirique de capacité de performance. Pour cela, il faut d'abord que toutes les données de non-performance soient exclues (donc les candidats sont hors de vue). Cela prépare le terrain pour ce qui sera le véritable objet de comparaison de Turing, qui est un être humain pensant contre une machine (non pensante), une comparaison qui doit être impartiale en apparence.
Les critères de Turing, comme nous le savons tous maintenant, se révéleront être deux (bien qu'ils soient souvent confondus ou confondus) : (1) Les deux candidats ont-ils une capacité de performance identique ? (2) Existe-t-il un moyen de les distinguer, en se basant uniquement sur leur capacité de performance, afin de pouvoir détecter que l'un est un être humain pensant et que l'autre n'est qu'une machine ? Le premier est un critère empirique : peuvent-ils tous les deux faire les mêmes choses ? Le second est un critère intuitif, s'appuyant sur ce que des décennies plus tard on a appelé nos capacités humaines de « lecture de l'esprit » (Frith & Frith 1999) : y a-t-il quelque chose dans la façon dont les candidats font ce qu'ils peuvent faire tous les deux qui m'indique au fait que l'un d'eux n'est qu'une machine ?
Turing présente tout cela sous la forme d'un jeu de société, un peu comme 20-Questions. Il ne débriefe jamais explicitement le lecteur sur le fait que ce qui est réellement en cause n'est rien de moins que le jeu de la vie lui-même, et que « l'interrogateur » est en fait le scientifique pour la question (1), et, pour la question (2), tout du reste d'entre nous, dans chacune de nos interactions quotidiennes les uns avec les autres. La malheureuse métaphore du jeu de société a de nouveau donné lieu à des cycles inutiles de malentendus lors de l'écriture et de la réflexion ultérieures sur le test de Turing.
Pour que les tons de voix n'aident pas l'interrogateur, les réponses doivent être écrites, ou mieux encore, dactylographiées.
Cette restriction du test exclusivement à ce que nous appellerions aujourd'hui les interactions par e-mail est, comme indiqué, un moyen raisonnable de nous préparer à son éventuelle concentration sur la capacité de performance seule, plutôt que sur l'apparence, mais elle a l'effet supplémentaire involontaire d'exclure tout tests directs des capacités de performance autres que verbales ; et c'est potentiellement une équivoque beaucoup plus grave, sur laquelle nous reviendrons. Pour l'instant, nous devons seulement garder à l'esprit que si le critère est d'être une capacité de performance indiscernable de Turing, nous pouvons tous faire bien plus que de simples e-mails !
Nous posons maintenant la question : « Que se passera-t-il lorsqu'une machine jouera le rôle de A dans ce jeu ? L'interrogateur décidera-t-il aussi souvent à tort lorsque le jeu se joue ainsi que lorsqu'il se joue entre un homme et une femme ? Ces questions remplacent notre question d'origine, "Les machines peuvent-elles penser ?"
Ici, avec un peu d'imagination, nous pouvons déjà passer au test de Turing complet, mais encore une fois, nous sommes confrontés à une distraction inutile et potentiellement trompeuse : le but n'est sûrement pas simplement de concevoir une machine que les gens confondent statistiquement avec un être humain. souvent comme pas ! Cela réduirait le test de Turing au sondage Gallup que Turing a rejeté à juste titre en soulevant la question de ce qu'est la "pensée" en premier lieu ! Non, si le critère d'indiscernabilité de Turing doit avoir une substance empirique, les performances de la machine doivent être totalement indiscernables de celles d'un être humain - pour n'importe qui et tout le monde, pour toute une vie (Harnad 1989).
Le nouveau problème a l'avantage de tracer une ligne assez nette entre les capacités physiques et intellectuelles d'un homme.
Il aurait eu cet avantage, si la ligne avait seulement été tracée entre l'apparence et la performance, ou entre la structure et la fonction. Mais si la ligne est plutôt entre les capacités de performance verbales et non verbales, alors c'est une ligne très arbitraire en effet, et très difficile à défendre. Comme il n'y a aucune défense explicite ou même inférable de cette ligne arbitraire dans aucun des articles de Turing (ni d'une ligne tout aussi arbitraire entre celles de nos "capacités physiques" qui dépendent et ne dépendent pas de nos "capacités intellectuelles"), je prendrai c'est que Turing n'y a tout simplement pas réfléchi. S'il l'avait fait, la frontière aurait été tracée entre l'apparence physique et la structure du candidat, d'une part, et ses capacités de performance, tant verbales que non verbales, d'autre part. Tout comme (dans le jeu) la différence, s'il y en a, entre l'homme et la femme doit être détectée à partir de ce qu'ils font, et non à quoi ils ressemblent, de même la différence, s'il y en a, entre l'homme et la machine doit être détectée à partir de ce qu'ils font. qu'ils font, et non à quoi ils ressemblent. Cela laisserait la porte ouverte à la version robotique du test de Turing dont nous parlerons plus tard, et pas seulement à la version e-mail.
Mais avant qu'un lecteur qualifie ma propre ligne de démarcation entre structure et fonction d'aussi arbitraire, permettez-moi de convenir rapidement que Turing a en fait introduit une hiérarchie de tests de Turing ici, mais pas une infinité d'entre eux (Harnad 2000). Les niveaux pertinents de cette hiérarchie se révéleront être uniquement les 5 suivants :
t0 : indiscernabilité locale dans la capacité d'effectuer une tâche arbitraire, telle que les échecs. t0 n'est pas du tout un test de Turing, car il s'agit évidemment d'un sous-total ; par conséquent, le candidat machine se distingue facilement d'un être humain en voyant s'il peut faire autre chose que jouer aux échecs. S'il ne peut pas, il échoue au test.
T2 : indiscernabilité totale de la capacité de performance des e-mails (verbaux). Cela semble être un module de performance autonome, car on peut parler de tout et de rien, et le langage a le même genre d'universalité que les ordinateurs (machines de Turing) se sont avérés avoir. T2 englobe même le jeu d'échecs. Mais cela englobe-t-il l'observation des étoiles, ou même la recherche de nourriture ? Est-ce que la machine peut aller voir et me dire ensuite si la lune est visible ce soir et peut-elle aller déterrer des truffes et ensuite me dire comment elle s'y est prise ? Ce sont des choses qu'une machine avec une capacité de messagerie seule ne peut pas faire, mais que tout être humain (normal) peut faire.
T3 : indiscernabilité totale de la capacité de performance robotique (sensorimotrice). Cela englobe T2, et c'est (je soutiendrai) le niveau de Test que Turing a vraiment voulu (ou aurait dû avoir !).
T4 : indiscernabilité totale dans la capacité de performance externe ainsi que dans la structure/fonction interne. Cela englobe T3 et ajoute toutes les données qu'un neuroscientifique pourrait étudier. Ce n'est plus strictement un test de Turing, car il va au-delà des données de performance, mais il intègre correctement la hiérarchie de Turing dans une hiérarchie empirique plus large. De plus, la frontière entre T3 et T4 est vraiment floue : est-ce que rougir T3 ou T4 ?
T5 : indiscernabilité totale dans la structure/fonction physique. Cela englobe la T4 et exclut tout système nerveux fonctionnellement équivalent mais synthétique : le candidat T5 doit être indiscernable des autres êtres humains jusqu'à la dernière molécule.
Aucun ingénieur ou chimiste ne prétend être capable de produire un matériau qui ne se distingue pas de la peau humaine... [Il n'y aurait] aucun intérêt à essayer de rendre une "machine à penser" plus humaine en l'habillant d'une telle chair artificielle.
Ici, Turing rejette correctement T5 et T4 -- mais certainement pas T3.
La forme sous laquelle nous avons posé le problème reflète ce fait dans la condition qui empêche l'interrogateur de voir ou de toucher les autres concurrents, ou d'entendre leurs voix.
Oui, mais utiliser T2 comme exemple a par inadvertance donné l'impression que T3 est également exclu : non seulement nous ne pouvons ni voir ni toucher le candidat, mais le candidat ne peut rien voir ni toucher - ni faire autre chose que calculer et envoyer des e-mails.
La méthode des questions et réponses semble convenir pour introduire presque tous les domaines de l'activité humaine que nous souhaitons inclure.
Cela reflète correctement le pouvoir universel du langage naturel (de dire et de décrire n'importe quoi avec des mots). Mais "presque" ne correspond pas au critère de Turing d'une capacité de performance identique.
Nous ne souhaitons pas pénaliser la machine pour son incapacité à briller dans les concours de beauté
C'est l'exclusion valable de l'apparence (d'ailleurs, la plupart d'entre nous ne pourraient pas non plus briller dans les concours de beauté).
…ni de pénaliser un homme pour avoir perdu dans une course contre un avion
La plupart d'entre nous ne pouvaient pas battre Deep Blue aux échecs, ni même atteindre le niveau de grand maître ordinaire. Ce ne sont que les capacités humaines génériques qui sont en cause, et non celles d'un individu en particulier. D'un autre côté, nous pouvons à peu près tous marcher et courir. Et même si nous sommes handicapés (cas anormal, et loin d'être celui sur lequel bâtir ses tentatives de générer des capacités de performance positives), nous avons tous une certaine capacité sensorimotrice. (Ni Helen Keller ni Stephen Hawking ne sont un module désincarné de messagerie uniquement.)
Les conditions de notre jeu rendent ces handicaps non pertinents
Les handicaps et l'apparence ne sont en effet pas pertinents. Mais les capacités de performance non verbales ne le sont certainement pas. En effet, nos capacités verbales pourraient bien être ancrées dans nos capacités non verbales (Harnad 1990 ; Cangelosi & Harnad 2001 ; Kaplan & Steels 1999). (En fait, par « handicap », Turing signifie non-capacité, c'est-à-dire l'absence de capacité ; il ne veut pas vraiment dire être handicapé dans le sens d'être physiquement handicapé, bien qu'il mentionne Helen Keller plus tard.)
L’interrogateur ne peut exiger des démonstrations pratiques
Ce serait certainement une faille fatale dans le test de Turing si Turing avait voulu exclure T3 - mais je doute qu'il ait voulu dire cela. Il soutenait simplement que c'est la capacité de performance qui est décisive (pour le problème empirique que la future science cognitive finirait par résoudre), et non quelque chose d'autre qui pourrait dépendre de caractéristiques non pertinentes de la structure ou de l'apparence. Il a simplement utilisé la performance verbale comme exemple d'amorçage de l'intuition, sans vouloir dire que toute «pensée» est verbale et que seule la capacité de performance verbale est pertinente.
La question... ne sera pas tout à fait définie tant que nous n'aurons pas précisé ce que nous entendons par le mot "machine". Il est naturel que nous souhaitions permettre à toutes sortes de techniques d'ingénierie d'être utilisées dans nos machines.
Ce passage (bientôt contredit dans le texte suivant !) implique que Turing ne voulait pas dire uniquement des ordinateurs : que tout système dynamique que nous construisons est éligible (tant qu'il délivre la capacité de performance). Mais nous devons le construire, ou au moins avoir une compréhension causale complète de son fonctionnement. Un être humain cloné ne peut pas être inscrit comme machine candidate (parce que nous ne l'avons pas construit et donc ne savons pas comment cela fonctionne), même si nous sommes tous des « machines » dans le sens d'être des systèmes causaux (Harnad 2000, 2003 ).
Nous souhaitons également permettre à un ingénieur ou à une équipe d'ingénieurs de construire une machine qui fonctionne, mais dont le mode de fonctionnement ne peut être décrit de manière satisfaisante par ses constructeurs parce qu'ils ont appliqué une méthode largement expérimentale.
C'est là le début de la différence entre le domaine de l'intelligence artificielle (IA), dont le but est simplement de générer un outil de performance utile, et la modélisation cognitive (CM), dont le but est d'expliquer comment la cognition humaine est générée. Un appareil que nous avons construit mais sans savoir comment il fonctionne suffirait pour l'IA mais pas pour le CM.
Enfin, nous voulons exclure des machines les hommes nés de manière habituelle.
Cela n'implique pas, bien sûr, que nous ne soyons pas des machines, mais seulement que le test de Turing consiste à découvrir quel type de machine nous sommes, en concevant une machine qui peut générer notre capacité de performance, mais par des moyens causals/fonctionnels que nous comprendre, parce que nous les avons conçus.
Il est probablement possible d'élever un individu complet à partir d'une seule cellule de la peau (disons) d'un homme ... mais nous ne serions pas enclins à le considérer comme un cas de "construction d'une machine à penser".
C'est parce que nous voulons expliquer la capacité de réflexion, pas simplement la dupliquer. http://www.ecs.soton.ac.uk/~harnad/Hypermail/Foundations.Cognitive.Science2001/0056.html
Cela nous incite à abandonner l'exigence selon laquelle toutes les techniques doivent être autorisées. Nous n'autorisons [en conséquence] que les ordinateurs numériques à participer à notre jeu.
C'est là que Turing contredit ce qu'il a dit plus tôt, retirant l'éligibilité de tous les systèmes d'ingénierie sauf un, introduisant ainsi une autre restriction arbitraire - une qui exclurait à nouveau T3. Turing a dit plus tôt (à juste titre) que tout dispositif d'ingénierie devrait être éligible. Maintenant, il dit que ce ne peut être qu'un ordinateur. Sa motivation est bien sûr en partie due au fait que l'ordinateur (Turing Machine) s'est révélé universel, en ce sens qu'il peut simuler n'importe quel autre type de machine. Mais ici nous sommes carrément dans l'équivoque T2/T3, car un robot simulé dans un monde virtuel n'est ni un vrai robot, ni un vrai test de Turing robotique, dans le monde réel. T2 et T3 sont des tests effectués dans le monde réel. Mais une interaction par e-mail avec un robot virtuel dans un monde virtuel serait T2, pas T3.
Autrement dit : avec le test de Turing, nous avons accepté, avec Turing, que la pensée est comme la pensée. Mais nous savons que les penseurs peuvent faire et font plus que simplement parler. Et il reste ce que les penseurs peuvent faire que notre candidat doit également être capable de faire, pas seulement ce qu'ils peuvent faire verbalement. Par conséquent, tout comme voler est quelque chose que seul un vrai avion peut faire, et non un avion virtuel simulé par ordinateur, même si Turing est équivalent au vrai avion -- ainsi passer T3 est quelque chose que seul un vrai robot peut faire, pas un robot simulé testé par T2, qu'il en soit ainsi Turing-équivalent au vrai robot. (Je suppose également qu'il est clair que les tests de Turing testent dans le monde réel : une simulation de réalité virtuelle [VR] ne serait pas une sorte de test de Turing ; cela ne ferait que tromper nos sens dans la chambre VR plutôt que de tester le candidat. capacité de performance réelle dans le monde réel.)
Ainsi, la restriction à la simulation informatique, bien que peut-être utile pour planifier, concevoir et même pré-tester le robot T3, n'est qu'une stratégie méthodologique pratique. En principe, tout dispositif conçu devrait être éligible ; et il doit être capable de fournir des performances T3, pas seulement T2.
Il est intéressant de noter que la robotique cognitive contemporaine n'a pas tiré autant de profit de la simulation informatique et des mondes virtuels qu'on aurait pu s'y attendre, malgré l'universalité du calcul. « Embodiment » et « situatedness » (dans le monde réel) se sont révélés être des ingrédients importants de la robotique empirique (Brooks 2002, Kaplan & Steels 1999), le mot d'ordre étant qu'il vaut mieux utiliser le monde réel comme son propre modèle (plutôt que les roboticiens doivent simuler, donc deviner à l'avance, non seulement le robot, mais aussi le monde).
L'impossibilité de deviner à l'avance chaque "mouvement" potentiel du robot, en réponse à chaque éventualité possible dans le monde réel, indique également une faille latente (et je pense fatale) dans T2 lui-même : ne serait-ce pas un cadeau mort si le correspondant de l'e-mail T2 s'avérait incapable de commenter les photos de famille analogiques que nous n'arrêtions pas d'insérer avec notre texte ? (S'il peut traiter les images, ce n'est pas seulement un ordinateur mais au moins un ordinateur plus des capteurs périphériques A/N, violant déjà la restriction arbitraire de Turing aux seuls ordinateurs). Ou si son correspondant ignorait totalement les événements contemporains du monde réel, en dehors de ceux que nous décrivons dans nos lettres ? Même sa performance verbale ne s'effondrerait-elle pas si on l'interrogeait de trop près sur les détails qualitatifs et pratiques de l'expérience sensorimotrice ? Tout cela pourrait-il vraiment être deviné purement verbalement à l'avance ?
Cette restriction [aux ordinateurs] apparaît à première vue comme très drastique. J'essaierai de montrer qu'il n'en est pas ainsi dans la réalité. Pour ce faire, il est nécessaire de présenter brièvement la nature et les propriétés de ces ordinateurs.
L'exposé des ordinateurs qui suit est utile et bien sûr correct, mais il ne justifie en rien la restriction du TT aux candidats qui sont des ordinateurs. Il vaut donc mieux ignorer cette restriction arbitraire.
On peut dire aussi que cette identification des machines aux calculateurs numériques, comme notre critère de « penser », ne sera insatisfaisante que si (contrairement à ma croyance), il s'avère que les calculateurs numériques sont incapables de faire bonne figure dans le jeu. .
C'est encore l'équivoque du "jeu". Il ne fait aucun doute que les ordinateurs feront bonne figure, au sens du Gallup Poll. Mais la science empirique n'est pas seulement une bonne démonstration : une expérience ne doit pas tromper la plupart des expérimentateurs la plupart du temps ! Si la performance-capacité de la machine doit être indiscernable de celle de l'être humain, elle doit être totalement indiscernable, pas seulement indiscernable le plus souvent. De plus, certains des problèmes que j'ai soulevés pour T2 - les types d'échanges verbaux qui font largement appel à l'expérience sensorimotrice - ne sont même pas susceptibles de donner un bon résultat, si le candidat est uniquement un ordinateur numérique, quelle que soit la richesse une base de données, il est donné à l'avance.
[L]es ordinateurs numériques... effectuent toutes les opérations qui pourraient être effectuées par un ordinateur humain... suivant des règles fixes...
Cela continue en décrivant ce qui est depuis devenu la définition standard des ordinateurs en tant que dispositifs de manipulation de symboles basés sur des règles (machines de Turing).
Une variante intéressante de l'idée d'un ordinateur numérique est un "ordinateur numérique avec un élément aléatoire"... Parfois, une telle machine est décrite comme ayant le libre arbitre (bien que je n'utiliserais pas cette expression moi-même)
Moi non plus. Mais sûrement une caractéristique encore plus importante pour un candidat au test de Turing qu'un élément aléatoire ou des fonctions statistiques serait l'autonomie dans le monde - ce qui est quelque chose qu'un robot T3 a bien plus qu'un correspondant T2. Le côté ontique du libre arbitre - à savoir, si nous-mêmes, de vrais êtres humains, avons réellement le libre arbitre - dépasse plutôt la portée de l'article de Turing Harnad 1982b). Il en va de même pour la question de savoir si une machine à passer le TT aurait des sentiments (gratuits ou non)
(Harnad 1995). Ce qui est clair, cependant, c'est que les règles de calcul ne sont pas les seuls moyens de « lier » et de déterminer les performances : la causalité physique ordinaire peut le faire aussi.
Il semblera que compte tenu de l'état initial de la machine et des signaux d'entrée, il est toujours possible de prédire tous les états futurs. Cela rappelle la vision de Laplace selon laquelle à partir de l'état complet de l'univers à un moment donné, tel que décrit par les positions et les vitesses de toutes les particules, il devrait être possible de prédire tous les états futurs.
Les points sur le déterminisme sont probablement des faux-fuyants. La seule propriété pertinente est la capacité de performance. Que l'humain ou la machine soient complètement prévisibles n'a aucune importance. (La physique à plusieurs corps et la théorie de la complexité suggèrent que ni la détermination causale ni la règle ne garantissent la prévisibilité dans la pratique - et cela sans même invoquer les arcanes de la théorie quantique.)
À condition que cela puisse être réalisé suffisamment rapidement, l'ordinateur numérique pourrait imiter le comportement de n'importe quelle machine à états discrets ... ce sont des machines universelles ... [D'où] des considérations de vitesse mises à part, il est inutile de concevoir diverses nouvelles machines à faire divers processus informatiques. Ils peuvent tous être effectués avec un seul ordinateur numérique, programmé de manière appropriée pour chaque cas ... En conséquence, tous les ordinateurs numériques sont en un sens équivalents.
Tout est vrai, mais tout n'est pas pertinent pour la question de savoir si un ordinateur numérique seul pourrait passer T2, sans parler de T3. Le fait que les yeux et les jambes puissent être simulés par un ordinateur ne signifie pas qu'un ordinateur peut voir ou marcher (même lorsqu'il simule la vue et la marche). Voilà pour le T3. Mais même juste pour T2, la question est de savoir si les simulations seules peuvent donner au candidat T2 la capacité de verbaliser et de converser sur le monde réel de manière indiscernable d'un candidat T3 ayant une expérience sensorimotrice autonome dans le monde réel.
(Je pense qu'une autre équivoque inaperçue de Turing - et bien d'autres - découle du fait que la pensée n'est pas observable : cette inobservabilité nous aide à imaginer que les ordinateurs pensent. Mais même sans avoir à invoquer le problème des autres esprits (Harnad 1991), il faut se rappeler qu'un ordinateur universel n'est que formellement universel : il peut décrire à peu près n'importe quel système physique, et le simuler en code symbolique, mais ce faisant, il ne capture pas toutes ses propriétés : Exactement comme un un avion simulé par ordinateur ne peut pas vraiment faire ce qu'un avion fait (c'est-à-dire voler dans le monde réel), un robot simulé par ordinateur ne peut pas vraiment faire ce qu'un vrai robot fait (agir dans le monde réel) - il n'y a donc pas raison de croire qu'il pense vraiment non plus. Un vrai robot peut ne pas vraiment penser non plus, mais cela nécessite d'invoquer le problème des autres esprits, alors que le robot virtuel est déjà disqualifié pour exactement la même raison que l'avion virtuel : les deux échouent à rencontrer le TT cr l'itération elle-même, qui est une véritable capacité de performance, et pas simplement quelque chose qui lui est formellement équivalent !)
Je crois que dans une cinquantaine d'années, il sera possible, de programmer des ordinateurs... [de] jouer si bien au jeu de l'imitation qu'un interrogateur moyen n'aura pas plus de 70 % de chances de faire la bonne identification au bout de cinq minutes de questionnement.
Il ne fait aucun doute que les programmes informatiques d'aujourd'hui peuvent répondre à ce critère de jeu de société/sondage Gallup - mais cela reste un fait démographique aussi dénué de sens aujourd'hui qu'il l'était lorsqu'il était prédit il y a 50 ans : comme toute autre science, la science cognitive n'est pas l'art de tromper la plupart des gens pendant une partie ou la plupart du temps ! Le candidat doit vraiment avoir la capacité de performance générique d'un être humain réel - une capacité totalement indiscernable de celle d'un être humain réel à n'importe quel être humain réel (pour toute une vie, s'il le faut !). Pas d'astuces : capacité de performance réelle.
La question initiale, "Les machines peuvent-elles penser ?" Je pense que c'est trop vide de sens pour mériter une discussion.
Ce n'est pas dénué de sens, c'est simplement indécidable : ce que nous entendons par "penser", c'est, d'une part, ce que les créatures pensantes peuvent faire et comment elles peuvent le faire, et, d'autre part, ce que cela fait de penser. . Ce que les penseurs peuvent faire est capturé par le TT. Une théorie de la façon dont ils le font est fournie par la façon dont notre machine artificielle le fait. (S'il existe plusieurs machines différentes qui réussissent, c'est une question d'inférence normale à la meilleure théorie.) Jusqu'à présent, rien de dénué de sens. Maintenant, nous demandons : les candidats retenus ressentent-ils vraiment, comme nous le faisons lorsque nous pensons ? Cette question n'est pas dénuée de sens, elle est simplement sans réponse - autrement qu'en étant le candidat. C'est le vieux problème familier des autres esprits (Harnad 1991).
Néanmoins je crois qu'à la fin du siècle l'usage des mots et l'opinion générale cultivée auront tellement changé qu'on pourra parler de machines pensantes sans s'attendre à être contredit.
Oui, mais seulement au prix de rétrograder la "pensée" au sens de "traitement de l'information" plutôt que ce que vous ou moi faisons quand nous pensons, et ce que cela ressemble.
L'opinion populaire selon laquelle les scientifiques procèdent inexorablement d'un fait bien établi à un fait bien établi, sans jamais être influencés par une conjecture améliorée, est tout à fait erronée. Pourvu qu'il soit clairement établi quels sont les faits prouvés et lesquels sont des conjectures, aucun dommage ne peut en résulter. Les conjectures sont d'une grande importance car elles suggèrent des pistes de recherche utiles.
C'est confus. Oui, la science procède par une série de meilleures approximations, de théorie empirique en théorie. Mais la théorie ici serait la conception réelle d'un candidat TT réussi, pas la conjecture selon laquelle le calcul (ou quoi que ce soit d'autre) finira par faire l'affaire. Turing confond les conjectures formelles (telles que la machine de Turing et ses équivalents capturent toutes les notions et instances futures de ce que nous entendons par "calcul" -- la soi-disant "Thèse Church/Turing") et les hypothèses empiriques, telles que la pensée n'est qu'un calcul. Le test de Turing n'est sûrement pas une licence pour dire que nous expliquons de mieux en mieux la pensée alors que nos candidats trompent de plus en plus de gens de plus en plus longtemps. D'un autre côté, quelque chose d'autre qui ressemble superficiellement à cela (mais qui s'avère être correct) pourrait être dit à propos de la mise à l'échelle empirique du TT en concevant un candidat qui peut faire de plus en plus de ce que nous pouvons faire. Et les tests de Turing fournissent certainement une méthodologie pour une telle construction théorique cumulative et un tel test théorique en sciences cognitives.
L'objection théologique : La pensée est une fonction de l'âme immortelle de l'homme.
La véritable objection théologique n'est pas tant que l'âme est immortelle mais qu'elle est immatérielle. Ce point de vue a également un soutien non théologique du problème esprit/corps : personne - théologien, philosophe ou scientifique - n'a la moindre idée de la façon dont les états mentaux peuvent être des états matériels (ou, comme je préfère le dire , comment les états fonctionnels peuvent être des états ressentis). Ce problème a été surnommé "difficile" (Chalmers in Shear 1997). Cela peut même être pire : il peut être insoluble (Harnad 2001). Mais ce n'est pas une objection aux tests de Turing qui, même s'ils n'expliquent pas comment les penseurs peuvent se sentir, expliquent comment ils peuvent faire ce qu'ils peuvent faire.
Il y a une plus grande différence, à mon avis, entre l'animé typique et l'inanimé qu'il n'y en a entre l'homme et les autres animaux.
Oui, et c'est pourquoi le problème des autres esprits prend tout son sens en faisant des tests de Turing sur des machines plutôt qu'en faisant de la lecture de l'esprit de notre propre espèce et d'autres animaux. ("Animer" est un mot de belette, cependant, car les vitalistes sont probablement aussi des animistes; Harnad 1994a.)
L'objection mathématique : le théorème de Godel[:] [B]ien qu'il soit établi qu'il existe des limitations aux pouvoirs d'une machine particulière, il a seulement été déclaré, sans aucune sorte de preuve, qu'aucune de ces limitations ne s'applique à l'intellect humain.
Le théorème de Godel montre qu'il y a des déclarations en arithmétique qui sont vraies, et nous savons qu'elles sont vraies, mais leur vérité ne peut pas être calculée. Certains ont interprété cela comme impliquant que « savoir » (qui n'est qu'une espèce de « penser ») ne peut pas être simplement un calcul. Turing répond que peut-être l'esprit humain a des limites similaires, mais il me semble qu'il aurait été suffisant de souligner que "savoir" n'est pas la même chose que "prouver". Godel montre que la vérité est indémontrable, non pas qu'elle est inconnaissable. (Il y a de bien meilleures raisons de croire que penser n'est pas calculer.)
L'argument à partir de la conscience :
Jefferson (1949): "Ce n'est que lorsqu'une machine peut [faire X] à cause des pensées et des émotions ressenties, et non par la chute fortuite des symboles, que nous pouvons convenir que la machine est égale au cerveau"
Cet argument standard contre le test de Turing (répété d'innombrables fois presque exactement de la même manière jusqu'à nos jours) n'est qu'une reformulation du problème des autres esprits : il n'y a aucun moyen de savoir si les humains ou les machines font ce qu'ils font parce qu'ils envie - ou s'ils ressentent quelque chose du tout, d'ailleurs. Mais il y a beaucoup à savoir en identifiant ce qui peut et ne peut pas générer la capacité de faire ce que les humains peuvent faire. (Les limites de la manipulation de symboles [calcul] sont une autre question, qui peut être réglée empiriquement, en fonction des types de machines qui peuvent et ne peuvent pas réussir le TT ; Harnad 2003.)
Selon la forme la plus extrême de cette conception, le seul moyen d'être sûr que la machine pense est d'être la machine et de se sentir penser... [C'est] en fait le point de vue solipsiste. C'est peut-être le point de vue le plus logique à avoir, mais cela rend la communication des idées difficile.
Turing a complètement tort ici. Ce n'est pas du solipsisme
(c'est-à-dire, pas la croyance que moi seul existe et que tout le reste est mon rêve). C'est simplement le problème des autres esprits
(Harnad 1991); et c'est correct, mais non pertinent - ou plutôt mis en perspective par le test de Turing : il n'y a personne d'autre que nous puissions savoir qui a un esprit à part nous-mêmes, mais nous ne nous inquiétons pas de l'esprit de nos semblables. , parce qu'ils se comportent exactement comme nous et que nous savons lire dans leur esprit leur comportement. De la même manière, nous n'avons plus ou moins de raisons de nous inquiéter de l'esprit de quoi que ce soit d'autre qui se comporte comme nous - à tel point que nous ne pouvons pas les distinguer des autres êtres humains. Il n'est pas non plus pertinent de savoir de quoi ils sont faits, puisque notre lecture réussie des pensées des autres êtres humains n'a rien à voir avec la matière dont ils sont faits non plus. Il est basé uniquement sur ce qu'ils font.
Arguments de diverses [in]capacités :
... "Je t'accorde que tu peux faire faire à des machines toutes les choses que tu as citées mais tu ne pourras jamais en faire faire une seule pour faire X" : [e.g] Être gentil, débrouillard, beau, amical, avoir de l'initiative, avoir un sens de l'humour, distinguer le vrai du faux, faire des erreurs, tomber amoureux, savourer des fraises et de la crème, en faire tomber amoureux, apprendre de l'expérience, utiliser les mots correctement, être le sujet de sa propre pensée, avoir autant de diversité de comportement en tant qu'homme, faire quelque chose de vraiment nouveau.
Turing écarte à juste titre ce genre de scepticisme (que j'ai surnommé "Granny Objections" http://www.ecs.soton.ac.uk/~harnad/CM302/Granny/sld001.htm ) en soulignant que ce sont des questions empiriques sur ce que les ordinateurs (et d'autres types de machines) s'avéreront éventuellement capables de le faire. Les éléments de performance sur la liste, c'est-à-dire. Les états mentaux (sentiments), d'autre part, sont discutables, à cause du problème des autres esprits.
(6) Objection de Lady Lovelace :
"Le moteur analytique n'a aucune prétention à créer quoi que ce soit. Il peut faire tout ce que nous savons comment lui ordonner de fonctionner"... une machine ne peut "jamais rien faire de vraiment nouveau".
C'est l'une des nombreuses objections de Granny. La réponse correcte est que (i) tous les systèmes causaux sont descriptibles par des règles formelles (c'est l'équivalent de la thèse de Church/Turing), y compris nous-mêmes ; (ii) nous savons, grâce à la théorie de la complexité ainsi qu'à la mécanique statistique, que le fait que la performance d'un système soit régie par des règles ne signifie pas que nous pouvons prédire tout ce qu'il fait ; (iii) il n'est pas clair que quelqu'un ou quoi que ce soit ait "créé" quelque chose de nouveau depuis le Big Bang.
L'opinion selon laquelle les machines ne peuvent pas créer de surprises est due, je crois, à une erreur à laquelle les philosophes et les mathématiciens sont particulièrement sujets. C'est l'hypothèse que dès qu'un fait est présenté à un esprit, toutes les conséquences de ce fait jaillissent dans l'esprit simultanément avec lui. C'est une hypothèse très utile dans de nombreuses circonstances, mais on oublie trop facilement qu'elle est fausse. Une conséquence naturelle de le faire est que l'on suppose alors qu'il n'y a aucune vertu dans le simple fait de tirer des conséquences à partir de données et de principes généraux.
Turing a tout à fait raison de souligner que savoir que quelque chose est vrai ne signifie pas savoir tout ce que cela implique ; cela est particulièrement vrai des conjectures mathématiques, des théorèmes et des axiomes.
Mais je pense que la préoccupation de Lady Lovelace pour la liberté vis-à-vis des règles et de la nouveauté est encore plus superficielle que cela. Il prend notre ignorance introspective sur la base causale de nos capacités de performance au pied de la lettre, comme si cette ignorance démontrait que nos capacités sont en fait des actes sui generis de notre volonté psychocinétique - plutôt que d'être simplement la preuve empirique de notre ignorance fonctionnelle, par exemple. future rétro-ingénierie (sciences cognitives) pour y remédier.
Argument selon la Continuité dans le Système Nerveux : On peut soutenir que... on ne peut pas s'attendre à pouvoir imiter le comportement du système nerveux avec un système à états discrets.
Selon la thèse de Church/Turing, il n'y a presque rien qu'un ordinateur ne puisse simuler, à une approximation aussi proche que souhaité, y compris le cerveau. Mais, comme indiqué, il n'y a aucune raison pour que les ordinateurs soient les seules machines éligibles aux tests de Turing. Les robots peuvent aussi avoir des composants analogiques. Tout système causal dynamique est éligible, tant qu'il délivre la capacité de performance.
L'argument selon l'informalité du comportement : Il n'est pas possible de produire un ensemble de règles prétendant décrire ce qu'un homme devrait faire dans toutes les circonstances imaginables.
Premièrement, le candidat TT retenu n'a pas besoin d'être simplement informatique (basé sur des règles); tous les arguments en faveur des robots T3 et leur besoin de capacités, de mécanismes et d'expériences sensorimotrices du monde réel suggèrent qu'il faut plus qu'un simple calcul chez un candidat retenu. L'impossibilité de deviner un ensemble de règles qui prédisent chaque éventualité à l'avance est probablement aussi à l'origine du soi-disant «problème du cadre» en intelligence artificielle (Harnad 1993). Mais il sera toujours vrai, en raison de la thèse de Church-Turing, que le robot T3 hybride computationnel/dynamique réussi sera toujours simulable par ordinateur en principe – un robot virtuel dans un monde virtuel. Ainsi, le système basé sur des règles peut décrire ce qu'un robot T3 ferait dans toutes les éventualités ; cette simulation ne serait tout simplement pas un robot T3, pas plus que son monde virtuel ne serait le monde réel.
Machines d'apprentissage
Turing anticipe avec succès l'apprentissage automatique, la modélisation développementale et la modélisation évolutive dans cette section prémonitoire.
L'argument de la perception extrasensorielle :... la télépathie, la clairvoyance, la précognition et la psychokinésie... [L]es preuves statistiques, du moins pour la télépathie, sont accablantes.
Il est dommage qu'à la fin Turing révèle sa crédulité à propos de ces phénomènes douteux, car si la psychokinésie (l'esprit sur la matière) était véritablement possible, alors l'ingénierie matière/énergie ordinaire ne suffirait pas à générer un esprit pensant ; et si la télépathie (vraie lecture de l'esprit) était véritablement possible, alors cela l'emporterait définitivement sur le test de Turing.
-----------
0. Le test de Turing expliqué en moins de 3 minutes
1. Le modèle Turing (vidéo, langue française)
résumé langue anglaise:
IMPORTANT :
RépondreSupprimer(1) Faites vos lectures et vos ciélos tôt dans la semaine avant le cours pour que j’aie le temps d'y répliquer
(2) Lisez toujours les ciélos précédentes, et surtout mes répliques aux autres, avant d’afficher vos ciélos.
(3) Revenez toujours à vos ciélos 1-2 jours après pour voir ma réplique, qui pourrait poser davantage de questions auxquelles répondre.
Quelques avis importants :
RépondreSupprimer1. Ne prenez pas de retard sur les lectures et les ciélos de chaque semaine. Le cours est progressif et cumulatif. Ça devient vite de plus en plus difficile de rattraper et vous aller perdre le fil.
2. En lisant la lecture de la semaine, si vous tomber sur un passage (bref!) sur lequel vous voulez commenter, copiez/collez le passage dans votre traiteur de texte en italiques text puis faites votre ciélo dessous (sans italiques). Pas plus que 100 mots (sans compter le passage cité).
3. Mais avant d’afficher votre ciélo, lisez toutes les autres ciélos ainsi que mes répliques qui ont paru jusqu’à ce point dans le fil de la même semaine, pour ne pas répéter les mêmes points qu’ont fait les autres, et pour tenir compte de mes répliques si elles sont pertinentes à votre ciélo.
4. Lorsque vous avez déjà lu et compris la lecture, vous pouvez commenter les commentaires des autres, ou mes répliques. Mais n’oubliez pas les deux fonctions de la ciélographie : (a) d’interagir (chaton-actif) concernant le contenu et (b) pour que je puisse évaluer votre progrès en compréhension semaine sur semaine.
5. Ayant fait votre ciélo, revenez plus tard pour voir si j’ai répliqué. Souvent mes répliques contiennent des explications ainsi que des questions pour vous.
6. Vous pouvez aussi faire des commentaires concernant le contenu du cours précédent.
7. Les lectures qui sont des traductions de l’anglais ont été faites avec Google-Translate. S’il y des passages brouillés, vous pouvez afficher une demande de correction du passage (mais ça ne compte pas comme une ciélo sauf si quelque chose d’important est en jeu et vous réussissez vous-même à corriger l’erreur de traduction et vous affichez la correction pour les autres!)
8. Si vous avez un grand nombre de commentaires à faire pour la même semaine (et vous ne voulez pas me priver du peu de sommeil qui me reste!), faites le commentaire (ou question) durant le prochain cours. Ça donnera aussi des crédits oraux.
9. Faites vos ciélos tôt dans la semaine. Leur fonction est contournée si vous laissez ça jusqu’à un jour avant le cours et je n’ai pas le temps de répondre.
Comme mentionné dans le texte du Test de Turing, la méthode des questions et réponses est pour le moment la mieux adaptée pour les machines, avec des réponses simples et précises et non de demandes des démonstrations pratiques. La force de l'ordinateur, comparé à l'humain, est sa précision et sa rapidité de réponse.
RépondreSupprimerPour aller plus loin et être capable de jouer au "jeu de l'imitation", il faut considérer la capacité de mémoire de la machine universelle, ou de l'ordinateur digital, pour exécuter rapidement toutes les instructions d'un programme. Il se peut que se soit possible dans le futur, mais plusieurs débats tant au niveau théologique, mathématique ou autre, contredisent cela. Cela reste entre les mains de l'innovation en ingénierie et de la programmation. La proposition d'expérimenter graduellement, comme de simuler l'esprit d'apprentissage d'un enfant, est bon départ pour relever le défi.
A propos du 4. "On dirait aujourd’hui que le candidat doit pouvoir clavarder avec n’importe qui, à propos de n’importe-quoi. Le long d’une vie, si nécessaire. De façon indiscernable d’un vrai humain."
SupprimerA ce compte, j’échoue au test de Turing. (Et je ne parle pas du tout de barrière de langues). Je ne peux pas parler de tout et rien avec n’importe qui. Je ne parle pas d’impossibilité physique, mais bien cognitive. Est-ce que certaines interlocutrices ne penseraient pas de moi que je suis un robot si je confiais ne pas avoir la moindre idée du nom du président ukrainien ? Est-ce que si je connais mal les règles conversationnelles et que je ne relance pas suffisamment l’échange en me contentant de répondre à ce que l’on me dit, ou que j’ai une mauvaise mémoire et que toutes les cinq minutes de conversations j’oublie le prénom de mon interlocutrice, cela ne va pas jeter le doute sur mon humanité dans le cadre d’un échange écrit ?
Anne, d’abord, rappelle que dans le « jeu d’imitation » de Turing rien n’est mentionné aux juges concernant un ordinateur. Il faut juste juger si c’est un homme ou une femme, sans jamais le moindre soupçon que ce n’est ni homme ni femme, mais un ordinateur.
SupprimerEnsuite, figure-toi que le défi principal du TT est de rétroingénierier la totalité des capacités cognitives humaines (TC) dans un seul individu plutôt que juste des fragments arbitraires. (Sans ça ça ne serait pas un TT du tout : Ppourquoi pas?)
(On parle des capacités génériques de M/Mme tout-le-monde dans le TT, pas de celles des génies rarissimes. Quant aux capacités exceptionnelles, la cogniscience s’y mettra une fois qu’elle aura résolu le problème facile!)
Le défi secondaire est que ces capacités génériques soient produites de manière que leur performance soit indiscernable (ID) de celle des autres humains (le long d’une vie, en principe, pas juste à partir de 10 minutes de contact!).
Maintenant réfléchis sur les contre-exemples que tu as proposés : Est-ce qu’on ne rencontre pas tous les jours des humains qui déclarent, en toute honnêteté : « je ne peux pas parler de la physique quantique, car je n’en sais rien! je ne l’ai jamais étudiée »? Cela éveillerait-il des doutes sur le fait que ton interlocuteur est un humain qui pense?
Et si quelqu’un exhibe des déficiences cognitives, est-ce que cela n’amène à l’esprit l’idée d’un gérontologue ou un neurologue plutôt que l’idée d’un robot?
Une question peut-être plus saillante serait « pourquoi pas commencer par la rétroingénierie d’un humain avec des profonds déficiences cognitives plutôt que produire d’emblée tout le bataclan? »
Ça c’est une question méthodologique. C’est sûr que la cogniscience sera obligé de commencer plus simplement, en rétro-ingéniérant des fragments. Mais le TT ne commence que lorsqu’on est en mesure de tester le TC pour le ID.
Questions : Est-ce que le T2, le T3, et le T4 sont des fragments? Et pourquoi est-ce que Turing à mis tant d’accent sur le T2?
Questions : Est-ce que le T2, le T3, et le T4 sont des fragments? Et pourquoi est-ce que Turing à mis tant d’accent sur le T2?
SupprimerT2 s’il n’est qu’un échange mail est bien fragmentaire.
T3 et T4 ne sont pas des fragments.
Turing met l’accent sur le T2 parce qu’il part du principe qu’une fois qu’on a répliqué et expliqué le langage on a expliqué et répliqué la cognition (non ?)
"La véritable objection théologique n'est pas tant que l'âme est immortelle mais qu'elle est immatérielle. Ce point de vue a également un soutien non théologique du problème esprit/corps : personne - théologien, philosophe ou scientifique - n'a la moindre idée de la façon dont les états mentaux peuvent être des états matériels (ou, comme je préfère le dire , comment les états fonctionnels peuvent être des états ressentis). "
RépondreSupprimerQuand nous nous approchons du problème surnommé "difficile" il parait que nous ne pouvons pas nous empêcher de toucher d'autres domaines du savoir comme la théologie, la philosophie, les neurosciences, la psychologie... Le cours propose une approche interdisciplinaire pour comprendre les principes des sciences cognitives. J'aimerais comprendre quelles disciplines sont pertinentes dans le cadre des réflexions proposées quand nous nous aventurons dans l'étude de la cognition ?
Rafael, il s'agit des sciences cognitives, donc pas la théologie; mais oui, la psychologie, les neurosciences, la biologie, l'informatique, la linguistique, et même des parties de la philosophie.
SupprimerBonjour Rafael, Si l'âme est immatérielle, de quoi est-elle constituée? Il me semble que chaque idée, émanation ou autre substance qui porte ou laisse des traces de son existence est un porteur d'énergie. Et énergie = matière.
Supprimer« Cela nous incite à abandonner l'exigence selon laquelle toutes les techniques doivent être autorisées. Nous n'autorisons [en conséquence] que les ordinateurs numériques à participer à notre jeu. »
RépondreSupprimerCe passage nous indique que Turing rejette ainsi T3. En effet, il stipule que l’ordinateur s’avère le seul dispositif d’ingénierie éligible au test puisque celui-ci est un système universel doté d’une capacité à simuler n’importe quelle machine. En conséquence, l’ordinateur est en mesure de simuler aussi un robot, soit T3. Cependant, le fait que l’ordinateur puisse tout simuler n’implique pas qu’il soit en mesure d’effectuer dans le monde réel toutes les propriétés qu’il simule. De ce fait, abandonner T3 faillirait à démontrer que l’ordinateur peut utiliser l’expérience sensorimotrice pour répondre à certaines questions qui requiert la sensorimotricité. J’éprouve de la difficulté à distinguer un robot d’un ordinateur sur certains points. Un robot me semble autant simuler certains comportements qu’un ordinateur en ce qui concerne l’expérience sensorimotrice par exemple.
Jade-Émilie bonne observation ! Mais, dans ce papier, Turing ne traite que le T2 (c'est quoi ?) pour pas que les juges soient biaisés par l'apparence physique du candidat. À l'époque ça excluait les robots, mais plus maintenant. Du reste, le principe méthodologique de la rétroingénierie de Turing était que le candidat soit complètement indiscernable de nous dans sa performance. « Lorsque tu ne peux plus distinguer, tu ne peux plus nier de l'un ce que tu affirmes de l'autre. » En l'occurence, la cognition.
SupprimerEt c'est sûr nous sommes capables de faire beaucoup plus de ce qui est cognitif à part de jaser !
Je ne suis pas certaine si c’était une question, mais je vais tout de même répondre à « C’est quoi » le T2. Il s’agit du test mesurant la capacité de performance verbale de l’humain et de l’ordinateur par l’entremise des courriels. S’il s’avère impossible de distinguer la performance de l’ordinateur de celle de l’humain, alors l’ordinateur a réussi le test.
SupprimerIl est mentionné dans le passage « T2 » : « […] le langage a le même genre d’universalité que les ordinateurs (Machine de Turing) se sont avérés avoir ». Je ne saisis pas ce passage.
J'ai les mêmes difficultés que Jade-Emilie, je crois, à saisir les différences robot/ordinateur.
RépondreSupprimerUn avion est un ordinateur + une carlingue. (Dans notre métaphore, je dois supposer que l’avion est un avion qui se pilote seul, je crois)
“Exactement comme un un avion simulé par ordinateur ne peut pas vraiment faire ce qu'un avion fait (c'est-à-dire voler dans le monde réel), un robot simulé par ordinateur ne peut pas vraiment faire ce qu'un vrai robot fait (agir dans le monde réel) - il n'y a donc pas raison de croire qu'il pense vraiment non plus.”
En transposant pour m’aider à comprendre : un TT sur les avions reviendrait à demander à quelqu'un de repérer la différence entre un avion et un avion virtuel ?
Mais caché derrière son panneau, le logiciel de vol de l’un et de l’autre étant même possiblement le même, ils seraient de facto indiscernables ? Quelle différence entre ces “robots réels” et ces “robots virtuels” ?
Plus je lis le texte et moins je comprends cette image.
Anne, je te répondrai, mais d’abord dis-moi (ou plutôt dit au frère-cadet) ce que c’est que :
Supprimer1. la computation
2. une machine de Turing
3. une machine de Turing universelle
4. un ordinateur
5. les symboles
6. l’interprétation des symboles
7. le matériel
8. un avion
9. un avion en auto-pilote
10. un avion simulé par un ordinateur
11. un appareil de réalité virtuelle
12. un robot
13. un robot qui contient un ordinateur
14. un robot simulé par un ordinateur
15. un appareil de réalité virtuelle qui simule un robot
16. un appareil de réalité virtuelle qui simule un avion
Si tu comprends 1-12, ça répond à toutes tes questions
Ce que tu ne comprends pas, j’expliquerai (ou je corrigerai).
Les autres sont invités aussi à répondre.
1. la computation
Supprimerla computation est à tout objet ce que la recette est à la tarte végane, ce que le mode d’assemblage est à un lego. Je crois qu’on donne parfois calcul comme synonyme.
2. une machine de Turing
Une machine avec une tête de lecture qui change d’état, un bandeau rempli de cases contenant des items d’un alphabet fini, et un registre des états.
3. une machine de Turing universelle
une machine de Turing capable de calculer/computer tout le monde matériel
4. un ordinateur
Un objet capable de faire tourner des programmes qui permettent d'exécuter des actions (avec cette définition là, une cellule est un ordinateur, je m’en rends bien compte).
5. les symboles
des signes liés arbitrairement à un signifié
6. l’interprétation des symboles
la lecture (en conscience : comprendre ce qu’on lit)
7. le matériel
le monde matériel ?
L’étendue des objets constitués de matière
8. un avion
un véhicule capable de transporter par les airs
9. un avion en auto-pilote
un avion piloté par un logiciel, et qui est autonome en situation de décollage, vol, atterrissage
10. un avion simulé par un ordinateur
…………… un programme que fait tourner un ordinateur ? en fait il me manque du contexte.
je ne comprends pas la différence avec le logiciel de l’avion auto-pilote 9.
11. un appareil de réalité virtuelle
un casque qui projette sur la rétine de l’utilisateur une caverne de Platon
12. un robot
un objet inventé pour remplir une tâche humaine pénible
robot mixeur
13. un robot qui contient un ordinateur
tous les robots auxquels je pense sont équipés d’un ordinateur, même les mixeurs, il me manque un terme qui signifie robot - ordinateur (automate?), et un terme qui signifie robot + ordinateur
14. un robot simulé par un ordinateur
?
dans un monde artificiel où il y a des humains artificiels, un ordinateur simule un robot artificiel qui décharge les humains artificiels d’une part de leur travail artificiel
15. un appareil de réalité virtuelle qui simule un robot
?
une expérience de VR qui donne l’impression à l’utilisatrice d’être un robot ? l’expérience varierait grandement en fonction des convictions politiques et philosophiques de la compagnie de jeu. Et je ne sais pas quel serait l’intérêt pour le joueur. Il faut avoir fantasmé une vie de robot.
je ne comprends pas du tout. C’est forcément fondé sur un fantasme, j’ai du mal à saisir ce qu’on pourrait vivre en simulant une pierre : une pierre ne ressent pas, ça ne ressemble à rien d’être une pierre, j’ai la même chose pour le robot.
16. un appareil de réalité virtuelle qui simule un avion
? Une expérience de VR qui donne l’impression à l’utilisatrice d’ETRE un avion ? Je ne comprends pas.
Anne :
Supprimer1. la computation
la computation est à tout objet ce que la recette est à la tarte végane, ce que le mode d’assemblage est à un lego. Je crois qu’on donne parfois calcul comme synonyme.
la computation est la manipulation des symboles de forme arbitraire suivant les règles (algorithmes) qui portent sur la forme des symboles, pas leur signification (s’ils en ont une)
2. une machine de Turing
Une machine avec une tête de lecture qui change d’état, un bandeau rempli de cases contenant des items d’un alphabet fini, et un registre des états.
L’exécuteur matériel des règles
3. une machine de Turing universelle
une machine de Turing capable de calculer/computer tout le monde matériel
un ordinateur, capable d’exécuter tout algorithme
4. un ordinateur
Un objet capable de faire tourner des programmes qui permettent d'exécuter des actions (avec cette définition là, une cellule est un ordinateur, je m’en rends bien compte).
un ordinateur, capable d’exécuter tout algorithme
5. les symboles
des signes liés arbitrairement à un signifié
les objets de forme arbitraire, manipulés par une machine de Turing suivant les règles (algorithmes) qui portent sur la forme des symboles, pas leur signification (s’ils en ont une)
6. l’interprétation des symboles
la lecture (en conscience : comprendre ce qu’on lit)
ce qui se fait dans la tête de l’utilisateur/interprète humain des symboles
7. le matériel
le monde matériel ?
L’étendue des objets constitués de matière
ce qui exécute les manipulations des symboles – la structure physique de l’ordinateur
8. un avion
un véhicule capable de transporter par les airs
un véhicule physique, capable de transporter les humain par les airs
9. un avion en auto-pilote
un avion piloté par un logiciel, et qui est autonome en situation de décollage, vol, atterrissage
le logiciel est un algorithme exécuté par un ordinateur qui contrôle physiquement la fonction de l’avion – donc deux composants distincts, l’avion et l’ordinateur
10. un avion simulé par un ordinateur
…………… un programme que fait tourner un ordinateur ? en fait il me manque du contexte.
je ne comprends pas la différence avec le logiciel de l’avion auto-pilote 9.
un avion simulé est un algorithme exécuté par un ordinateur et interprétable par un utilisateur humain comme étant un avion avec tous ses attributs physiques
11. un appareil de réalité virtuelle qui simule un avion
un casque qui projette sur la rétine de l’utilisateur une caverne de Platon
un matériel (câbles, gants, lunettes) contrôlé par des signaux transmis par un ordinateur qui simule un robot aux surfaces sensorimotrices d’un utilisateur humain – donc encore deux composants distincts : ordinateur + appareil metériel RV
12. un robot
un objet inventé pour remplir une tâche humaine pénible
robot mixeur
tout mécanisme physique autonome, sujet aux lois de la causalité, y compris les robots fabriques par les humains, les autos et les avions en auto-pilote, les moulins à vent, les montres, les fabriques automatiques (avec ou sans ordinateurs) – mais aussi les organismes biologiques vivants, les cellules, les atomes, les étoiles, et les galaxies
13. un robot qui contient un ordinateur
tous les robots auxquels je pense sont équipés d’un ordinateur, même les mixeurs, il me manque un terme qui signifie robot - ordinateur (automate?), et un terme qui signifie robot + ordinateur
des robots qui ne contiennent pas un ordinateur : les moulins à vent, les montres, les fabriques automatiques (sans ordinateurs), les organismes biologiques vivants, les cellules, les atomes, les étoiles, et les galaxies
14. un robot simulé par un ordinateur
?
dans un monde artificiel où il y a des humains artificiels, un ordinateur simule un robot artificiel qui décharge les humains artificiels d’une part de leur travail artificiel
un algorithme interprétable par un humain comme étant un robot avec tous ses attributs physiques
15. un appareil de réalité virtuelle qui simule un robot
Supprimer?
une expérience de VR qui donne l’impression à l’utilisatrice d’être un robot ? l’expérience varierait grandement en fonction des convictions politiques et philosophiques de la compagnie de jeu. Et je ne sais pas quel serait l’intérêt pour le joueur. Il faut avoir fantasmé une vie de robot.
je ne comprends pas du tout. C’est forcément fondé sur un fantasme, j’ai du mal à saisir ce qu’on pourrait vivre en simulant une pierre : une pierre ne ressent pas, ça ne ressemble à rien d’être une pierre, j’ai la même chose pour le robot.
un matériel (câbles, gants, lunettes) contrôlé par des signaux transmis par un ordinateur qui simule un robot, appliqué aux surfaces sensorimotrices d’un utilisateur humain – donc encore deux composants distincts
16. un appareil de réalité virtuelle qui simule un avion
? Une expérience de VR qui donne l’impression à l’utilisatrice d’ETRE un avion ? Je ne comprends pas.
un matériel (câbles, gants, lunettes) contrôlé par des signaux transmis par un ordinateur qui simule un avion aux surfaces sensorimotrices d’un utilisateur humain – donc encore deux composants distincts
J'ai beaucoup apprécié cet échange, très aidant à ma compréhension :)
SupprimerLa définition de "machine" peut varier en fonction du contexte, mais généralement, une machine est un dispositif physique capable de réaliser des tâches automatiquement grâce à une combinaison de mécanismes, de circuits électroniques, de logiciels, etc. Il n'y a pas de définition consensuelle de la pensée. Il est possible de comparer certaines capacités des machines à celles des humains, comme la capacité à résoudre des problèmes, la reconnaissance de la parole et la compréhension du langage naturel. Toutefois, il y a des aspects de la pensée humaine qui ne peuvent pas être reproduits par des machines, comme la conscience, la subjectivité, l'émotion, la compréhension intuitive, l'autoréflexion, la créativité, etc. On estime que les machines peuvent être programmées pour simuler la pensée humaine, d'autres soutiennent qu'il y a des aspects de la pensée humaine qui ne peuvent pas être reproduits par des machines. La comparaison entre la capacité d'une machine et celle d'un humain est débattue dans les domaines de la philosophie, de l'informatique et de la neurosciences, et qu'il n'y a pas de réponse définitive mais il faut tenir compte des avancées technologiques et des tentatives de nos "génies des temps modernes".
RépondreSupprimerWalid, as-tu lu le papier de Turing? C'est ça ce qu'on traite cette semaine.
SupprimerJ'ai effectivement lu l'article qui se trouve plus haut, est ce qu'il y'a une autre oeuvre à lire ? Sinon je répond à la question poser plus haut : “Les machines peuvent-elles penser ?”, de plus de définir les termes “machine” et “pensée.” Je cite les aspects que je pense pertinent à prendre en compte dans une analyse, jugement ou critique d'une quelconque performance, d'un quelconque candidat.
SupprimerWalid si tu as lu l’article intégral (et pas juste le petit résumé) de « Turing, A. M. (1990). Machines informatiques et intelligence."> Mind, 49, 433-460. » et tu n’as pas trouvé quelque chose de substantif et controversé là-dedans, tu trouveras peut-être quelque chose dans la critique qui la suit, en traduction Google-Translate. Ou tu peux regarder les ciélos des autres étudiants qui vont paraitre dans ce même fil et commenter là-dessus.
SupprimerAu moment où j’écris ces lignes, je n’ai lu que l’article de Turing (1950) : « Machines informatiques et intelligence ». Mon opinion et ma compréhension pourraient donc changer. De plus, plusieurs nuances ne sont pas apportées dans mon commentaire afin de tenter de répondre à la contrainte de 100 mots.
RépondreSupprimerDans son article, Turing tente de répondre à la question : « Les machines peuvent-elles penser ? » Il modifie ensuite cette dernière à deux reprises. Puis, il considère les opinions opposées à la sienne et apportent des contre-arguments à chacune d’entres elles. Parmi les neuf (9) objections, une m’intéresse particulièrement : « L’objection de Lady Lovelace ». Cette dernière avance que le moteur analytique (une machine à calculer) ne peut pas inventer quelque chose et qu’il ne peut effectuer que ce nous lui ordonnons. Turing amène alors une variante de l’argument de Lovelace : les machines ne pourront jamais faire quelque chose de nouveau. Ensuite, il expose une « meilleure variante » de cette dernière : « une machine ne peut jamais ‘’ nous prendre par surprise ‘’ ». Turing répond alors à cette dernière affirmation en utilisant ses propres expériences comme argument.
Je trouve l’argumentation de Turing bancale par moment. En effet, j’ai l’impression qu’il « choisit » les questions auxquelles il veut (peut?) répondre. Puis, il utilise comme argument des faits anecdotiques (qui n’auraient peut-être pas lieu s’il était plus attentif lors de ses calculs). Mon doute s’est confirmé lorsqu’il écrit dans ce même article : « Le lecteur aura compris que je n’ai aucun argument convaincant de nature positive pour appuyer mon point de vue. »
Dans le texte de Turing : « Machine informatique et intelligence, A.M Turing 1950 », Turing expose les principes du « jeu de l’imitation », ou plus communément appelé « test de Turing ».
RépondreSupprimerCe test proposé pars Turing tente d’élucider la question suivante : « les machines peuvent-elles pensées ? ».
Cette expérience empirique implique trois parties distinctes qui se compose d’un interrogateur, d’un être humain et d’une machine. Ils se trouvent dans des pièces séparées et ne peuvent se voir, s’entendre ou se toucher. Ils ont à leurs dispositions un appareil pour échanger des messages pars écrits et l’interrogateur tentera de discerner l’humain de la machine dans un jeu de questions/réponses.
Pars cette mise en situation Turing propose une réflexion sur le problème facile de la cognition. C’est-à-dire la recherche d’une explication causale au processus cognitif de la pensée. Le problème difficile étant celui du ressentit et de l’intériorité.
Turing ne considère pas le problème difficile comme pertinent à sa recherche et rejette ces considérations comme autant d’arguments théologiques ou de solipsisme.
Renaud, c’est quoi le lien entre le « jeu de l’imitation » et le « Test de Turing » T2 – T4?
SupprimerTuring n’a pas tant rejeté le problème difficile que de reconnaitre que sa méthodologie pour résoudre le problème facile était incapable à résoudre le problème difficile. Pourquoi?
Enfin « penser » (la cognition) c’est quoi, d’après la méthodologie de Turing?
Q1 : c’est quoi le lien entre le « jeu de l’imitation » et le « Test de Turing » T2 – T4?
SupprimerDe prime abord, le jeu de l’imitation proposé pars Turing ne comprends que des parties humaines : un interrogateur, un homme et une femme. L’interrogateur doit essayer de discerner qui est l’homme de la femme pars un jeu de question réponse. Cette première version du jeu de l’Imitation ne tente pas de répondre au problème de la cognition pars le fait que l’homme et la femme partage également cette faculté. Cette méthodologie prépare cependant le test de Turing en introduisant un modèle de réflexion. La prochaine étape étant : si nous remplacions l’un de ces candidats pars une machine et que l’interrogateur soit incapable de discerner un être humain de la machine, aurions-nous réussi à reproduire le processus cognitif ?
Le test de Turing introduit cependant une hiérarchie des candidats machines/robots. Cette hiérarchie des candidats sera définie comme tel :
T1 : Qui est capable de reproduire une fraction seulement de nos capacités cognitives
T2 : Qui est capable de répondre de manière causale aux questions qu’on lui pose (comprends et utilise les symboles)
T3 : Inclus T2 et ajoute la fonction sensorimotrice externe (un robot capable de se mouvoir et d’avoir des sensations externes).
T4 : Inclus T3 et ajoute une similarité des fonctions internes du robot (organes, muscles, cerveau ect..)
T5 : une indiscernabilité totale entre l’homme et la machine.
Q2 : Turing n’a pas tant rejeté le problème difficile que de reconnaitre que sa méthodologie pour résoudre le problème facile était incapable à résoudre le problème difficile. Pourquoi?
À cause du problème des autres esprits nous ne serions pas en mesure de vérifier qu’un candidat passant avec succès le test de Turing, même T3 ou T4, soit un être sentient. La méthodologie de Turing nous permet donc de résoudre seulement le problème facile, un candidat est-il capable de reproduire le processus cognitif tel qu’un être humain ne pourrait pas discerner l’homme de la machine ? Mais cette méthode ne permet pas de prouver que ce candidat possède une intériorité.
Q3 : Enfin « penser » (la cognition) c’est quoi, d’après la méthodologie de Turing?
Turing n’essaye pas de donner une définition précise de ce qu’est la pensée, mais accepte le postulat que nous pensons et que cette expérience est réelle. Nous ne sommes pas pour autant capables d’expliquer le fonctionnement de la pensée. La pensée sera donc ``… remplacée par une définition opérationnelle selon laquelle « la pensée est comme la pensée fait ». ``
Renaud, bonnes répliques.
Supprimer
RépondreSupprimerEn lisant le texte sur les machines et la possibilité qu’elle puissent aussi penser, il me semble que la raison pour laquelle on essaie de révéler les mécanismes de la cognition influencent inévitablement cette quette.
1. Pour mieux contrôler nos propres capacités cognitives
2. Pour influencer les processus cognitifs et la prise de décisions
3. Pour contrôler et modifier les pensées et la prise de décisions d’autrui.
4) L’argument de la conscience
Cet argument est très bien exprimé par le Professeur Jefferson dans son discours d’obtention de la médaille Lister, dont je cite : “Pas avant qu’une machine n’ait écrit un sonnet ou composé une symphonie à cause d’émotions et pensées ressenties, et pas par le hasard de concordance de symboles, nous ne pourrons être d’accord sur le fait qu’une machine égale un cerveau humain, c’est-à-dire que non seulement cette machine écrit mais qu’en plus, elle sait ce qu’elle a écrit. Aucun mécanisme ne pourrait ressentir de plaisir lorsqu’il réussit (et pas seulement des signaux artificiels, des stratagèmes faciles), ne pourrait ressentir de difficulté quand ses vannes fusionnent, être réconforté par des flatteries, ou rendu misérable par ses erreurs, charmé par le sexe, en colère ou déprimé parce qu’il n’arrive pas obtenir ce qu’il veut.”
À mon avis, cet argument met en évidence la place incontournable des émotions dans la cognition. Or, penser, sentir, interagir avec ses semblables ce sont des activités endémiques aux membres d’une communauté. Elles comblent des besoins inter- et intrapersonnelles parues dans les interactions entre les membres.
Il parait que cela fait partie des arguments qui poussent Turing à modifier la question et à la place de demander si les machines peuvent penser, il essaie de vérifier si les machines seront capables de faire les mêmes choses que les humains, lorsqu’ils raisonnent durant le jeu de l’imitation.
Je trouve le texte fascinant, car à travers de sa lecture on peut remarquer l’évolution de la pensée de l’auteur. Si je pouvais le contacter 😊, je lui suggèrerai de tester la possibilité qu’une machine écrive un texte semblable et sans instructions directes, fruit d’une logique introspective.
CETTE SEMAINE, LISEZ, EXCEPTIONNELLENT L'ARTICLE DE TURING (1950/1990) (en français) AINSI QUE LA TRADCTION DE MON CHAPITRE DE CRITIQUE (2008)
RépondreSupprimer« Je crois que dans une cinquantaine d'années, il sera possible, de programmer des ordinateurs... [de] jouer si bien au jeu de l'imitation qu'un interrogateur moyen n'aura pas plus de 70 % de chances de faire la bonne identification au bout de cinq minutes de questionnement. »
RépondreSupprimerVue comment la technologie évolue, on pourrait penser qu’éventuellement la machine de Turing pourrait atteindre son but et arriver à imiter l’humain, mais arriver à faire un ordinateur qui pense comme un humain est toujours sujet à des problèmes puisque toutes les fois ou les gens ont essayé le « jeu de l’imitation » a eu ses limites ou les gens en abusaient. Donc si un jour ils veulent réessayer ça doit être qu’avec des gens qui font partis du projet, mais l’imitation sera ainsi limitée par un nombre restreint de personne qui n’ont pas la manière de penser que tout le monde a donc quand monsieur et madame tout le monde devra « faire la bonne identification au bout de 5 minutes de questionnement », ils pourrait rapidement comprendre que ce n’est pas une manière de penser comme eux le font, il y aura toujours des failles dans un système. L’algorithme qui sera programmé dans la machine de Turing aura beaucoup plus de limite que la cognition humaine puisque cette dernière est illimité, tant disque « la pensé » de la machine de Turing sera toujours limité par l’algorithme qui y sera intégré.
Jessica, Le TT est beaucoup plus exigent que ça : Il faut que le candidat soit indiscernable de n’importe qui à n’importe qui à partir de sa performance – pas seulement pour de 70% des juges pour 10 minutes, mais, in principe, le long d’une vie.
Supprimerhttps://blogs.lse.ac.uk/impactofsocialsciences/2014/06/10/turing-testing-and-the-game-of-life/
Moi, de ce que j'ai compris de ma lecture, le test de Turing est une proposition de test d'intelligence artificielle fondée sur la faculté d'une machine à imiter la conversation humaine décrit par Alan Turing. Principalement basé sur deux critères, un dit empirique et l'autre intuitif. Dans les tests de Turing, Turing a fait introduire une hiérarchie dont les 5 niveaux pertinents se révèleront être T0,T2,T3,T4,T5. Toutefois T3, T4, T5 sont souvent contesté. La méthodologie proposer aurait du être considéré comme étant une méthodologie de rétro-ingénierie de la capacité de performance cognitive humaine. De plus que la pensée est un état interne, ne pouvant être définie.
RépondreSupprimerLise Marcia, mais c’est avec la « méthodologie de rétro-ingénierie de la capacité de performance cognitive humaine » qu’on arrivera à rétro-ingénierier un candidat qu’on pourra ensuite tester avec le TT! Et la cognition (penser) sera le mécanisme interne de ce candidat réussi qui produit la capacité de performance.
Supprimer(As-tu aussi lu l’article de Turing au haut de la page?
Je vous remercie pour cette précision. oui j`ai lu l`article de Turing en haut de la page
Supprimer
RépondreSupprimerCiélo 1 – texte de Turing
Dans le texte on essaie de répondre à la question « est-ce que les machines peuvent penser ? » - L’auteur explique que la question renvoie principalement à un problème de programmation. Il tente de démontrer sa thèse en produisant un esprit enfant qui pourrait se développer en esprit adulte avec une éducation adéquate. Je trouve l’analogie intéressante. La problématique du texte est ainsi centrée autour de deux choses : la programmation du cerveau d’enfant et le processus d’éducation. « Une propriété́ importante d’une machine apprenante est que son enseignant sera sou- vent ignorant de ce qui se passe à l’intérieur de la machine, bien qu’il soit cependant capable dans une certaine mesure de prédire le comportement de son élève » (Turing, 1950, p.26). Que veut dire l’auteur quand il dit que l’enseignant sera ignorant de ce qui se passe à l’intérieur de la machine, n’est- pas lui qui l’aura programmer ? Un autre passage me semble pertinent : « Une autre conséquence importante de la préparation de notre machine pour qu’elle puisse exécuter sa partie dans le jeu de l’imitation en la lui enseignant est que la “faillibilité́ humaine” sera vraisemblablement omise de façon assez naturelle » (Turing, 1950, p.26). Est-ce que cela veut dire que les machines ne peuvent donc pas penser de la même façon que les humains ? Je crois ces deux passages que je viens de citer sont peut-être les limites de la méthodologie de Turing pour expliquer la cognition.
Taly, bonnes observations. Tu as raison que, un fois qu’elles auron rétroingénierié avec succès le mécanisme causal qui produit les capacités cognitives, les sciences cognitives sauront « ce qui se passe dans le mécanisme ». Mais puisqu’une des capacités principales d’un mécanisme de cognition est la capacité d’apprendre, dès que le mécanisme démarre – en petite enfance ou en âge adulte – il va commencer à changer à l’interne suite à ce qui va lui arriver en entrée dans son avenir et ce qu’il en apprendra. Donc, ses capacités cognitives sont expliquées par le mécanisme qui réussit le TT, mais pas son avenir particulier! Il s’agit des sciences cognitives, pas du pronostique de l’univers!
Supprimer(La question est liée à l’objection de Lady Lovelace concernant la nouveauté, la créativité et la surprise, qui est soulevée dans la ciélo de Marie ainsi que ma réplique. Est-ce que tu vois le lien, Taly? Faut noter aussi que c’est tout aussi vrai si le mécanisme causal qui produit nos capacités cognitives est computationnel ou, par exemple, biochimique)
La « faillibilité humaine » n’est pas un grand défi pour la rétroingénierie cognitive. Toutes les machines sont faillibles. Le grand défi est de produire la capacité de faire correctement (à la hauteur de la performance humaine, ni moins ni plus), pas la capacité de faire des erreurs. Mais ceci aussi est lié aux aléas de l'histoire individuelle, ainsi qu'au hasard lui-même.
Ciélo 2 – Retour sur le dernier cours
RépondreSupprimerDans ce deuxième ciélo pour cette semaine, je fais un retour sur le dernier cours. Plus précisément sur ma compréhension de la thèse faible et de la thèse forte de Church/Turin. D’après ma compréhension, la thèse faible renvoie à ce que les mathématiciens font quand ils font le calcul, c’est-à-dire faire à ce que la machine de Turing peut faire. La thèse faible à ainsi permis de formaliser la notion de calculabilité. - La calculabilité signifie donc qu’il existe un algorithme au sens de la machine de Turing. La thèse forte quant à elle renvoie au fait que la computation modélise toutes les choses dans l’univers qui peuvent être modéliser par le calcul de la thèse faible. Je crois que ça veut dire que tout ce qui peut être modéliser renvoie au principe d’un algorithme qui décrit en termes de symboles et qui code les attributs en termes de symboles. Je vous avoue que je ne saisis pas à 100% lorsque vous dites de « ne pas confondre le modèle avec la chose ».
Taly, ton explication est exacte.
SupprimerTu demandes ce que veut dire « ne pas confondre le modèle avec la chose » : Ça veut dire « pas confondre le modèle computationnel de (par exemple) un glaçon -- ce qui n’est en réalité qu’un ordinateur manipulant des symboles qu’on peut interpréter comme un glaçon (et qu’on peut même glisser dans un appareil de Réalité Virtuel où on peut même voir et toucher le glaçon) -- avec ce qui est en réalité… un réel glaçon.
RépondreSupprimerLe TT est une expérience qui permet de déterminer si une machine est capable d’imiter l’humain en comparant leurs réponses obtenues textuellement afin d’éviter les indices de différences physiques. Si la machine trompe le vérificateur, elle réussit ainsi le TT. Pour le cas de l’humain, cela dépendra vraisemblablement de ses propres capacités intellectuelles à répondre correctement. Par contre, il y a là un détail méthodologique important sur lequel je m’interroge ; soit comment choisir l’adversaire humain puisque l’« intelligence » reste à mon sens un concept subjectif?
Le problème facile pour Turing est la capacité d’imiter l’ensemble de la cognition humaine dans le but de résoudre la mécanique qui engendre cette faculté fascinante. Le problème difficile, quant à lui, restera à résoudre car le ressenti humain, bien qu’il fasse partie indéniablement d’une certitude, tout comme les mathématiques, reste sans issu de certitudes pour autrui.
Étienne, bon résumé, mais avec quelques omissions et malentendus, faciles à corriger :
Supprimer « Le TT est une expérience qui permet de déterminer si une machine est capable d’imiter l’humain »
Le but des sciences cognitives n’est pas d’imiter l’humain mais de rétroingénierier -- et ainsi d’expliquer –- les capacités cognitives humaines : d’expliquer comment les humains sont capable de faire tout ce qu’ils sont capable de faire, en découvrant et démontrant le mécanisme sous-jacent qui produit les capacités cognitives.
Si la machine trompe le vérificateur, elle réussit ainsi le TT. »
Le but des sciences cognitives n’est pas de tromper l’humain mais de rétroingénierier -- et ainsi d’expliquer -- les capacités cognitives humaines : Il n’y a pas de « vérificateur » : Le mécanisme doit produire toutes les capacités cognitives, capable d’agir de façon indiscernable de n’importe quel humain, à n’importe quel humain.
L’intelligence = la capacité de penser = la capacité cognitive
Il n’y a pas de certitude en explication scientifique, juste les observations, les hypothèses, les preuves et la probabilité.
Le problème facile des sciences cognitives est de rétroingénierier tout ce qu’on observe que les humains (et toutes les autre espèces biologiques) sont manifestement capables de faire (les capacités cognitives comme apprendre, raisonner, communiquer -- pas les capacités végétatives comme respirer et digérer.)
Le problème difficile des sciences cognitives est de rétroingénierier le fait que les humains (et toutes les autre espèces sentientes) sont capables de ressentir. (Pourquoi est-ce que ce problème est difficile?)
C’est quoi les T2, T3 et T4? (As-tu lu Turing 1950/1990 ainsi que le chapitre 2008?)
« Le problème difficile des science cognitives est de rétroingénierier le fait que les humains (et toutes les autre espèces sentientes) sont capables de ressentir. (Pourquoi est-ce que le problème est difficile?) »
SupprimerParce qu’il faudrait pouvoir expliquer comment et dans quel but les espèces sentientes ont cette faculté. Pour résoudre le problème difficile, il faudrait pouvoir l’observer, ce qui reste impossible à ce jour.
« C’est quoi les T2, T3 et T4? (As-tu lu Turing 1950/1990 ainsi que le chapitre 2008?) »
Le T2 est le niveau verbal, la machine doit pouvoir communiquer sur n’importe quel sujet. Le T3 a une faculté plus avancée, soit celle qui lui permet de réaliser des capacités d’interactions rendant l’humain et la machine indissociables.
Le T4, lui, se rapproche grandement d’un clone (T5) mais restant tout de même un humanoïde synthétique.
Pour répondre à votre troisième question, oui, j’ai lu Turing. Par contre, je crois avoir besoin d’une période d’adaptation et de transformation cognitive pour bien saisir la nature et la sémantique de ce cours. J’ai le sentiment d’être en décalage ou, simplement, de ne pas être à la hauteur.
Étienne, t’es pas en décalage! T’es à la hauteur des plus avancés dans le cours à ce point. Je continue à poser des défis à tout le monde pour provoquer davantage d’interaction chaton-actif avec le contenu du cours. – En plus, les trois premières semaines de ce cours, axées sur la computation, sont les plus exigeantes. Après ce baptême de feu ça va sensiblement se calmer.
SupprimerDonc : Si on pouvait observer le ressenti (donc si on surmontait le « problème des autres esprits » PAE) est-ce que résoudrait le problème difficile (PD)? Le PAE n’est pas le même problème que le PD. Et concernant les autres humains et les autres espèces sentientes, même les invertébrés, le PAU n’est même pas un problème difficile (comme on apprendra en Semaine 4 et 11).
Un robot T3 – comme nous-autres, d’ailleurs – peut contenir un ordinateur, ou plusieurs, mais il ne peut pas être rien qu’un ordinateur : en quoi, et pourquoi?
"Si on pouvait observer le ressenti (donc si on surmontait le « problème des autres esprits » PAE) est-ce que résoudrait le problème difficile (PD)? Le PAE n’est pas le même problème que le PD."
SupprimerSi on “découvre” que les autres esprits ressentent (déjà prouvé selon moi) ça ne résout pas du tout PD -> il reste toujours à rétroingéniérés les capacités à ressentir des humains. On se rajoute simplement un autre modèle, avoir plus de modèle permet (probablement ?) d’envisager plus de solutions/d’ouvrir la voie à des pistes qu’on avait négligées/pas repérées.
Edit
Supprimerje n’avais pas vu plus bas votre réponse à Jules
“Et, en passant, c’est quoi le « problème des autres esprits »?
il s’agit de déterminer si les animaux sont capables de ressentir : nous avons déjà déterminé à de nombreuses reprises qu’ils étaient capables de cognition. (donc ils résolvent T2 évidemment, et une partie des capacités réclamées en T3)
Vous écrivez aussi
“Pour le ressenti des autres on n’a pas besoin de certitude (ce qu’on n’a même pas en physique et chimie). On a juste besoin des capacités « mirroir » (ce qu’on discutera en Semaine 4)”
Je ne saisis pas du tout : on a besoin de preuves scientifiques, l’éthologie demeurant bien une science.
ça m’ouvre une nouvelle piste de réflexion, mais hors je crois du domaine qui nous intéresse : je la garderais donc pour une intervention en classe 🙂 ça me donnera l’occasion d’expliciter ma question un peu provocative dans ma première ciélographie : L’ordinateur est-il plus intelligent que le bivalve ?
Anne, le fait qu’on n’a pas besoin de certitude en science ne veut pas dire qu’on n’a pas besoin de preuves observables et objectives!
SupprimerOn traitera en Semaine 4 (sur les neurones miroirs) un fondamental à notre capacité de récolter les preuves concernant les capacités béhaviorales et cognitives des humains, ainsi que des autres espèces, telles qu’étudiées en psychologie comparative, éthologie, neurosciences et rétroingénierie : Ce supplément est notre capacité (innée et biologique, ainsi que scientifique) de lecture de l’esprit.
Oui, les bivalves sont (comme nous) ingénieux, et, dans beaucoup de domaines, beaucoup plus compétents qu’aucun modèle cognitif jusqu’à date. Mais ces compétences seraient tout aussi compatible avec les organismes qui ressentent qu’avec des organismes ayant toutes les mêmes compétences observables, mais étant des « zombies » n’ayant aucun ressenti. Ça c’est le problème difficile (Semaine 10), pas le problème des autres esprits (Semaines 4 et 11).
Les données d’éthologie ne suffisent pas à résoudre le problème des autres esprits. Il faut encore deux choses : (1) La certitude personnelle de chaque individu, du fait que lui-même ressent (le Cogito/Sentio cartésien), ainsi que (2) les capacités « miroir » biologique et innée, de « lire l’esprit » d’autrui. Le (2) ne donne pas la certitude de (1), mais c’est tout ce qu’il faut comme supplément pour compléter les preuves objectives de l’éthologie (etc.).
merci beaucoup pour cet éclaircissement !
SupprimerTuring choisit de substituer "les machines peuvent-elles faire tout ce que les humains peuvent faire" à la question "les machines peuvent-elles penser?". C'est parce que son objectif est de rétro-ingéniérer les capacités cognitives humaines; il serait très difficile d'évaluer qu'une machine "pense" (une compétence) comme un humain, puisque nous nous débattons déjà avec le problème des autres esprits. En revanche, un critère de performance s'observe facilement. Le test de Turing sert ainsi à vérifier si une machine que nous aurions produite serait capable de réussir "le jeu de l'imitation", une tâche comportant plusieurs niveaux dans lesquels on lui demande notamment de reproduire les capacités humaines à converser et à interagir avec l'environnement. On considère qu'une machine capable de réussir les différents niveaux du TT serait la preuve que nous avons réussi à rétro-ingéniérer la cognition humaine et serait une avancée dans la résolution du problème difficile des sciences cognitive (comprendre comment les espèces conscientes sont capables de ressentir).
RépondreSupprimer- Le T2 est un des niveaux du test de Turing, qui vise à évaluer si une machine est en mesure de reproduire le comportement humain (performance) suffisamment bien pour être indiscernable d'un véritable être humain lors de communications par e-mail ou (plus probablement de nos jours) clavardage. Pas seulement quelques minutes à la fois; le long d'une vie si nécessaire.
Supprimer- Le T3 est le niveau suivant, qui englobe T2 et lui ajoute le critère d'être capable de simuler toutes les capacités sensorimotrices d'un être humain au point d'en être indiscernable; à ce niveau du test, le candidat possède un "corps" et peut interagir avec son environnement comme pourrait le faire n'importe quel humain, encore une fois de façon permanente au besoin.
Je ne crois pas que T3 puisse être réussi par la computation seule, parce que la computation n'est pas suffisante pour fournir les capacités sensorimotrices pour le réussir; une observatrice potentielle remarquerait immédiatement que son interlocuteur est désincarné. Il faut démontrer une apparence et une capacité à se présenter et à interagir avec l'environnement qui soit absolument indiscernable de la performance d'un être humain. La computation n'offre pas cet "interface" d'interaction parce qu'elle n'est qu'une simulation, elle ne peut pas par elle-même simuler un corps physique.
- T4 englobe T3 et lui ajoute le critère d'être indiscernable de l'humain au point de posséder la même anatomie qu'un être humain ; même en ouvrant le candidat pour examiner sa structure interne, nous serions incapables de le différencier d'un être humain. Je trouve que la frontière entre T3 et T4 est mal définie : compte tenu de ce que T3 demande, il me semble qu'une machine devant performer les capacités sensorimotrices humaines devra probablement simuler ses caractéristiques biologiques. Si le candidat se blesse, saignera-t-il? Dans une situation où on s'attend à le voir triste, pleurera-t-il? Sera-t-il essoufflé après avoir couru, se noiera-t-il dans un fleuve? Si non, le candidat échoue T3, donc il lui est obligatoire de posséder au moins en partie une structure interne (T4) lui permettant de réaliser ces fonctions. À noter que cela ne veut pas dire qu'il n'y a pas de différence entre T3 et T4; mais la distinction est moins claire que pour T2 et T3.
- Résoudre le problème facile signifie être capable d'expliquer causalement le (les?) mécanisme à l'origine de nos capacités : comment arrivons-nous à faire ce que nous arrivons à faire? Réussir le problème facile ne résout effectivement pas le problème difficile : la performance ne possède pas de lien clair avec le ressenti. On peut imaginer créer un jour une machine qui réussirait T4 sans être consciente/avoir de ressenti. Toutefois, avoir une solution au problème facile pourrait inspirer de nouvelles avenues de recherche pouvant faire avancer les hypothèses sur le problème difficile.
- Le problème des autres esprits fait référence à notre incapacité à prouver l'existence de consciences autres que la notre. Nous faisons toutefois l'expérience de notre propre conscience et avons donc plus de facilité à imaginer que des choses qui nous ressemblent sont conscientes comme nous. C'est d'ailleurs selon moi une des causes du spécisme...
À ce soir!
Suite aux lectures une chose certaine Turing serait emballé de voir les avancé car il me semblait certainement lucide mais un peu pessimiste (facile à dire puisque nous avons les connaissances d’aujourd’hui). J’aurais probablement adhéré au propos de Lady Lovelace qui affirmait que les machines ne pouvaient rien faire qu’on ne lui aurait pas ordonner de faire. Pour faire la différence entre T2-T3-T4-T5 je m’avancerais pour dire l’avancement réside dans la complexité des algorithmes (un peu bref mais Arnaud a déjà fait un excellent travail pour les définitions) L’idée d’utiliser l’exemple de l’esprit d’un enfant est bien mais je me dis que oui il apprend mais justement les enfants apprennent aussi beaucoup par imitations. Beaucoup trop d’apprentissages sont inconscients. Par contre, puisque nous sommes en 2023 et que je connais les avancés de l’intelligence artificiel je me questionne car par exemple le chatGPT fonctionne avec des bases de données. Bref, je suis confuse !!
RépondreSupprimerMélanie, concernant la réplique de Lady Lovelace et la capacité d’une « machine » de faire quelque chose de « nouveau », lis les commentaires et répliques de la Semaine 1 et la Semaine 2 à ce sujet. (Faut toujours lire les autres commentaires et répliques dans le fil de la semaine avant de rédiger ta ciélo.)
Supprimer1. Une machine c’est tout objet (ou ensemble d’objets) matériel dynamique (c’est-à-dire qui change d’état, qui n’est pas statique) qui évolue selon les lois de la cause et l’effet. Donc presque tout ce qu’il y a dans l’univers – à partir des atomes jusqu’aux étoiles, y compris les pendules, les aspirateurs, les cellules, les plantes, les animaux (humains et non humains), les ordinateurs, les robots, les systèmes climatiques, les systèmes solaires – c’est des machines, des mécanismes causaux. Donc tous devraient être susceptibles d’une explication causale.
2. Une machine qui exécute un algorithme (donc une machine de Turing) est tenue causalement à suivre l’algorithme, mais même l’auteur d’un algorithme suffisamment complexe ne peut pas prévoir dans quels états internes la mènera éventuellement l’algorithme. Ça dépend de l’algorithme ainsi que des entrées à la machine provenant du monde externe. Toutes sortes de « nouveautés » imprévues pourraient en résulter.
La même chose est vraie quand il ne s’agit pas d’un ordinateur exécutant un algorithme mais d’un objet dynamique comme un océan qui est assujetti à des mégatonnes de plastiques, de marées noires, d’excréments humains, d’antibiotiques, de produits chimiques toxiques, à la pêche industrielle et des températures en hausse. Toutes sortes de « nouveautés » imprévues pourraient en résulter. Idem est vrai pour un être humain né (ou conçu) le premier janvier 2001…
3. Arnaud c’est qui? ;>)
4. La Semaine 4 sera axée sur l’imitation
5. Comme on a démontré au premier cours, on n’est pas conscient de ce qui se passe quand on cherche le nom de son institutrice 3e année primaire (pour Jules c’était « Dianne »). C’est les sciences cognitives qui sont chargés de découvrir et de revenir nous expliquer le mécanisme sous-jacent de la cognition, peu importe s’il s’agit de la cognition implicite ou explicite.
6. Le chatGPT :
SupprimerDe Eliza à ChatGPT
Marc Bidan, LEMNA, Nantes
UQÀM ISC DIC CRIA Séminaire en informatique cognitive
Jeudi 10:30 (EST) 16 février, 2023
Zoom: https://uqam.zoom.us/j/89902403751
Abstract: Le dialogueur ou agent conversationnel ou chatbot est avant tout un outil d’aide ou d’accompagnement à la décision destiné à des humains. Il a une longue histoire qui commence en 1966 avec « Eliza » qui est l’un des premiers chatbots créés. Elle a été conçue par Joseph Weizenbaum pour imiter les conversations humaines en utilisant des techniques de réponse en chaîne. Ensuite en 1972 nait « Parry », un chatbot développé par Kenneth Colby, a été conçu pour imiter les conversations de personnes souffrant de schizophrénie. Puis en 1984 c’est le tour de « A.L.I.C.E » pour Artificial Linguistic Internet Computer Entity qui est l'un des premiers chatbots à utiliser des techniques de traitement du langage naturel pour mieux imiter les conversations humaines. Nous sommes ensuite en 1997 avec l’apparition de « SmarterChild » l'un des premiers chatbots à être disponible sur les réseaux de messagerie instantanée, comme AOL Instant Messenger. C’est au tour d’Apple de lancer « Siri » en 2006 comme assistant vocal basé sur la technologie chatbot. Puis son concurrent californien Microsoft va lancer en 2015 « Tay » qui sera vite corrompu et ne pourra donc pas imiter les conversations de personnes âgées de 18 à 24 ans. Et c’est en 2017 que le laboratoire OpenAI va lancer son « GPT-2 » qui n’est au début qu’un modèle de traitement du langage capable de générer du texte de manière autonome et qui sera appuyé en 2019 par « ChatGPT » basé sur GPT-3 avec un modèle de traitement du langage conçu spécifiquement pour générer des réponses à des questions posées. Comment prendre un peu de recul et mettre en lumière – derrière les réelles prouesses technologiques – tous les impacts ? Les bons et les moins bons …
Marc Bidan est chercheur en management des systèmes et des technologies d’information dans l'équipe NTO du laboratoire d’économie et de management de nantes Atlantique (LEMNA). Il est normalien et s’intéresse aux processus d’acceptation, d’usage et d’appropriation des technologies numériques – de type progiciel, chatbot, agent conversationnel, jeux sérieux, etc. - en entreprise ou en organisation. https://theconversation.com/profiles/marc-bidan-196740
Quinio, B., & Bidan, M. (2023). ChatGPT: Un robot conversationnel peut-il enseigner? Management & Datascience. https://management-datascience.org/articles/22060/
Cela peut sembler improbable mais je peux vous assurer que j’ai tout lu, texte, commentaires et réponses aux commentaires. Malgré tout cela ça reste flou.
Supprimer1. Si je veux être honnête, je croyais que lorsque qu’il était question de machine, la machine était en effet statique. Du moins, plus contenus, plus observable. Je n’aurais les systèmes climatiques par exemple. Donc, très éclairant et ça met deux trois trucs en place. Quand Turing parle de machine il a aussi en tête tout matériel dynamique ou son propos implique son expérience ?
2. Votre réponse m’explique aussi pourquoi je ne comprenais pas comment nous n’étions pas en mesure de comprendre les sorties. Mon raisonnement était que si on peut donner la directive comment on peut être étonné de la sortie. Avec l’exemple des océans j’ai compris bien des choses.
3. Renaud... mon erreur, un étudiant qui a commenté plus haut.
4. J'espère être un peu plus vite sur la compréhension.
5. Et si les sciences cognitives en entier étaient le problème difficile (je me permet une blague).
6. C’est ouvert à tous ? Je peux y assister ?
Mélanie, pas si flou que ça. Tu soulèves des bons points, preuve d’avoir quand-même compris beaucoup.
SupprimerSystèmes dynamiques. Oui, mêmes les ordinateurs, le matériel que exécute les logiciels (algorithmes) sont des systèmes dynamiques, qui changent d’état. Les manipulations de symboles se font séquentiellement dans le temps, une après l’autre. Et il faut distinguer entre « machine » tout court (ce qui est presque tout ce qu’il y a dans l’univers), et « machine de Turing » (ce qui est un simple ordinateur). La thèse C/T faible est pertinente ici aussi, car selon elle presque tout dans l’univers (y compris le changement climatique) est simulable (modélisable) par un ordinateur.
Oui, la conférence zoom sur le chatGPT sera ouvert à tous. Tu peux y assister.
Après cette lecture, il est évident que le test de Turing ne tient pas la route. D'un côté, la prétention empirique du test cache, en fait, que celui contient plusieurs biais. Lovelace le souligne, puis vous-même, il est impossible de déterminer la pensée d'une machine T3 puisque celle-ci ne fait que répliquer numériquement les connaissances qu'on lui infuse. La créativité de l'esprit humain est « inclonable ».
RépondreSupprimerDe l'autre côté, puisqu'une telle machine capable de répliquer la créativité de l’esprit humain est improbable voire impossible, il est d’autant plus fallacieux d’utilisé la créativité de l’imagination humaine pour réfléchir à une machine « impossible » capable de remplir les critères T3, T4 et T5.
Le Test de Turing est néanmoins une excellente introduction au sujet de cognition et des machines intelligentes, autant par sa méthodologie que les discussions et débats qu’il génère dans le domaine des sciences cognitives.
Merci pour cette présentation !
Jean Nicolas, c’est quoi le TT (T2, T3, T4)?
SupprimerIl faudrait lire les ciélos et mes répliques concernant Lady Lovelace et la « nouveauté ».
« il est impossible de déterminer la pensée d'une machine T3 puisque celle-ci ne fait que répliquer numériquement les connaissances qu'on lui infuse. »
Qu’est-ce que c’est que de « déterminer » la pensée?
Et pourquoi tu dis ça de T3 en particulier? T3, c’est un robot, pas (juste) un ordinateur. Ici tu sembles faire une objection à T2, si jamais il sera réussi par seule la computation - donc, une objection contre le computationnalisme. Que sont le computationnalisme, la computation et un algorithme?
« La créativité de l'esprit humain est « inclonable » --
Les sciences cognitives ne cherchent pas à cloner mais à expliquer le mécanisme sous-jacent qui produit la capacité de faire tout ce que nous sommes capable de faire de cognitif.
« une telle machine capable de répliquer la créativité de l’esprit humain est improbable voire impossible » .
Il faut expliciter la preuve ou le raisonnement qui supporte cette affirmation.
« il est d’autant plus fallacieux d’utilisé la créativité de l’imagination humaine pour réfléchir à une machine « impossible » capable de remplir les critères T3, T4 et T5. »
Il est vrai que les sciences cognitives n’ont pas encore rétroingénierié des candidats capables de réussir ni T2 ni T3 ni T4 (T5 n’est pas pertinent, on ne fait pas le clonage). Mais ce cours concerne la méthodologie des sciences cognitives. Qu’est-ce que tu proposes à la place de la tentative de rétroingénierier T2, T3, ou T4?
Ét nous sommes toujours dans les deux semaines consacrées à la compréhension et l’appréciation des puissances de la computation. Si tu veux aborder ses limites, c’est correct, mais il faut présenter des raisons, comme le fera Searle la semaine prochaine…
e n’avais pas saisi à la première lecture que le “jeu de l’imitation” était la même chose que le test de Turing. Et en effet, lorsque vous dites "Autre choix terminologique malheureux : "jeu" implique caprice ou supercherie, alors que Turing désigne en fait une affaire empirique sérieuse. Le jeu est la science" je suis tout à fait d'accord avec cette critique. Cela porte à confusion et rend la lecture assez difficile à mes yeux par certains choix terminologiques qui ne me semblent pas les plus adéquats.
RépondreSupprimerFinalement, à travers les 9 arguments proposés dans le texte, qui lient computation et cognition, Turing pose les questionnements sur l’intelligence artificielle. Est ce que l’intelligence artificielle est elle vraiment de l'intelligence? L’intelligence n'est-elle pas une propriété humaine? Ainsi elle ne pourrait pas s'appliquer aux machines? L'intelligence artificielle se développe de nos jours de plus en plus alors tout ces questionnements sont au coeur de la société actuelle.
J’aimerai aussi revenir sur une partie du cours que j’ai trouvé intéressante mais quelques questionnements persistent: les équivalences entre des algorithmes. L’équivalence faible ce sont deux ordinateurs qui donnent exactement la même sortie pour la même rentrée mais qui n’utilisent pas le même algorithme. L’équivalence forte quant à elle c’est la même sortie pour la même entrée mais avec le même algorithme. Il faut que l'algorithme exécuté soit le même. Vous avez dit “il croit que la cognition c'est la computation et donc il veut que ça soit le bon algorithme.” Qui est ce “il”? car de ce que j’ai compris ce n’est pas Turing car Turing prône l’équivalence faible. De plus, à quoi sert concrètement cette notion d'équivalence dans la cognition?
RépondreSupprimerCamille, je parlais de Zenon Pylyshyn, un important cogniscientifique canadien (d'origine ukrainienne) qui était computationnaliste. Je crois que Turing n'était ni computationnaliste ni tenant de l'équivalence forte.
SupprimerEst-ce que tu vois le lien entre l'équivalence faible et la sous-détermination?
Non, il est vrai que je ne comprends pas le lien mais cela résulte surtout du fait que je n'ai pas saisi la sous détermination.
SupprimerLa difficulté de définir ce qu’est l’action de penser rend difficile le choix des paramètres à vérifier lors d’un test qui viserait à l’évaluer (la capacité de penser).
RépondreSupprimerSi l’évaluation de cette capacité ne passe que par les performances de repartie et l’usage du vocabulaire, T2 semble suffisant pour l’évaluer.
Toutefois, si un test de la penser doit répondre à l’ensemble du problème facile (comment arrivons-nous à faire tout ce que nous arrivons à faire), T3 semble nécessaire pour évaluer les performances sous ces paramètres.
Est-ce que le test doit répondre de façon intégrale au problème facile pour être utile à l’étude de la cognition ?
Rock, bonne question. D’un côté, le T2 semble insuffisant, car communiquer verbalement n’est pas notre seule capacité cognitive. Donc T2 ne répond pas au critère de l’indistinguabilité totale.
SupprimerIl se peut, pourtant, que les capacités T3 (sensorimoteurs) sont nécessaires indirectement pour réussir T2, même si elles ne sont pas testées directement par T2. On discutera ça dans le contexte du problème de l’ancrage des symboles (Semaine 5).
T4, par contre, ne serait peut-être pas nécessaire pour réussir T3. Donc; comme ça T3 serait le test définitif. (Parfois je pose la question sur le petit examen: « Lequel des trois tests est le bon, et pourquoi ». Que dirais-tu?)
Au niveau de compréhension où nous sommes, je crois que le test T3 serait le plus utile.
SupprimerParce qu’il peut évaluer les performances d’émulation sous tout les aspects du problème facile (tout ce que nous pouvons faire) en incluent le volet sensorimoteur.
test
RépondreSupprimer« Dans la tentative d’imiter l’esprit d’un adulte humain, nous devons forcément répondre au défi de comprendre le processus qui l’a amené à l’état dans lequel il est. Nous pouvons considérer trois composants :
RépondreSupprimer(a) L’état initial de l’esprit, disons à la naissance,
(b) L’éducation à laquelle il a été soumis,
(c) L’expérience, différente de son éducation, qu’il a vécue. »
Turing avance ici une idée qui me semble très intéressante. Si nous étions en mesure de fabriquer une machine qui serait capable de reproduire les capacités cognitives d’un enfant, serions-nous alors en mesure d’avoir une machine qui pourrait passer le test de Turing. Supposons que nous réussissions à mettre aux points une machine munie d’un programme relativement simple qui lui permet d’interagir avec des humains et le monde qui l’entoure au moyen de capteurs reproduisant les 5 sens, nous retrouverions-nous avec une machine capable d’apprendre comme le fait une enfant ? Une machine capable d’assimiler de l’information et de la réutiliser dans des contextes très similaires, de prendre une information et de l’appliquer dans un contexte différent et de trouver de nouvelles informations à partir de celle déjà acquise, serait-elle considérée comme une machine douée d’une capacité d’apprendre? Avec assez d’enseignement, cette machine serait-elle capable d’arriver à un niveau similaire à un humain adulte et de pouvoir être confondue avec celui-ci lors d’un test de type T2?
Alex, il ne s’agit pas de imiter l’esprit mais de rétroingénierier le mécanisme qui produit les capacités cognitives, puis tester pour succès avec le TT.
SupprimerLa question de la rétroingénierie de l’enfance et du développement est beaucoup plus compliquée que ce qui est considéré par Turing. Il ne s’agit pas de ce qui sort à la naissance plus « l’éducation ». D’abord, une grande partie du développement post-natal (ainsi que prénatal) du nourrisson humain est végétatif plutôt que cognitif; et même ce qui est cognitif est surtout non verbal (T3), ou au moins hybride T2/T3. Donc ça souligne que le T2 exclut beaucoup trop.
Puis c’est sûr que même 10 minutes d’échange verbal nécessitent déjà la capacité l’apprentissage d’un instant à l’autre, pas seulement pour pouvoir converser de façon cohérente suite aux mots qui viennent d’être prononcés, mais de ce qu’ils voulaient dire. Presque toutes les capacités impliquent de l’apprentissage.
On a déjà des robots qui apprennent, mais pas à l’échelle du TT. Et s’il s’agit du sensorimoteur, ce n’est plus juste de la computation.
[As-tu réussi à rentrer au zoom du cours hier soir? C’est quel URL qui n’a pas réussi?]
@Étienne : moi, c'est l'URL qui était dans le courriel / plan de cours qui ne fonctionnait pas la dernière fois. Mais celui sur MOODLE oui. (je me demandais justement si d'autres personnes avaient eu le même problème!)
SupprimerLe zoom pour le cours est le https://uqam.zoom.us/s/82422151736.
SupprimerCielo pour le cours 2. Le test de Turing
RépondreSupprimerJ’ai noté plusieurs remarques en cours sur les sujets que je trouvais les plus ardus, voilà ce que je retiens. Je finis par deux incertitudes.
T2 passe T2 (c’est tautologique)
T3 passe T2 et T3
T4 passe T2, T3 et T4
(T5, parce qu’on exige un bio matériau humain, revient à cloner, ce qui n’est pas rétro-ingénieré T5 échoue aux tests précédents)
T2 est verbal, il est possible de passer T2 avec une méthode computationnelle, en manipulant selon des règles fixes les symboles seuls (qui sont arbitraires), sans leur attribuer un sens, à la différence d’un étudiant qui en lisant les symboles, grâce à un un phénomène d’apprentissage préalable, est capable de leur donner une valeur sémantique.
T3 est verbal et sensori moteur -> en ce sens il ne peut plus être de la computation seule. Il nécessite plus que de la manipulation de symboles : il nécessite l’interprétation sémantique. (un élève proposait un robot “apprenant” comme un petit enfant, si d’aventure on réussissait à produire ce robot qui apprend, résolvons nous T3 ? est-ce qu’on rétro-ingéniérié quand on reproduit un processus d’apprentissage par lequel tous les humains passent ?)
T4 est verbal, sensori-moteur, et si on ouvre sa tête, et qu’on tape un hémisphère on doit provoquer une aphasie. A cause de cette exigence, Mary, le robot du MIT, échoue à T4.
Selon Etienne, parce qu’elle ne sort pas dans le monde, qu’elle n’en fait pas l’expérience, elle échoue à T3 également.
—---------------------------------------------------------------------------
les choses dont je suis moins sûre :
Si un algo génère un glaçon de façon assez crédible, qu’un contact entre notre peau des doigts et la surface interne d’un gant que nous portons, nous parlons d’illusion sensorielle et de simulation computationnelle.
L’observation scientifique implique des mesures, que nous faisons sur un monde fondamentalement hybride.
Vous nous avez parlé d'un robot qui résolvait T3, créé par le MIT et qui s'appelait Mary ? Ou alors j'ai vraiment pas compris plus d'un quart d'heure du cours.
SupprimerLa capacité à apprendre fais partie de tous les TT, du T2 jusqu’au T4. -> je ne l'avais pas compris du tout !
Je doute de mes capacités cognitives élémentaires à présent (haha)
merci pour vos réponses
Anne, il n'y a pas de « Mary » mais il y a Marie (Bélisle), qui est inscrite au cours et on est tous en train de la T-tester (T3 et T2) le long du cours. Élle est (fictivement) une robote T3 qui était construite il y a 5 ans à MIT. Elle est là pour guider nos intuitions concernant ce que ça signifie d’avoir les compétences T3 et T2 indiscernables des nôtres. (Est-ce évident maintenant qu’elle nécessite la capacité d’apprendre même pour pouvoir causer 5 minutes?)
SupprimerJ'ai bien apprécié l'approche d'Harnad sur le fait qu'on considère, au travers du test de Turing si les machines peuvent faire ce que des penseurs peuvent faire et non si les machines peuvent penser ou non. Ici: faire, est la capacité de performance qui est observable. Mais l'auteur nous explique que la pensé n'est pas observable dans le TT, parce que c'est un état interne.
RépondreSupprimerComme Roch à mentionné plus haut: la difficulté de définir ce qu’est l’action de penser rend difficile le choix des paramètres à vérifier lors d’un test qui viserait à l’évaluer. Car les actions sont vérifiables, mais la réflexion ou la pensée est indépendante de l'action.
Nicolas, ce qui rend les pensées invisibles à tous sauf le penseur c'est le fait qu'elles sont ressenti. À part du ressenti, tout ce qui se passe dans la tête (le cerveau) est observable. Le comportement du corps entier (verbal ainsi que sensorimoteur), est produit (donc « fait ») par le cerveau. Les actions internes du cerveau sont également « faites » par le cerveau; et elles sont observables.
SupprimerLe test de Turing: Voici ce que je crois comprendre du texte. Dans le texte, Turing pose la question suivante: « Les machines peuvent-elles penser ? ». Vous donnez la définition de machine comme étant n'importe quel système causal dynamique. Donc, selon cette définition, nous pouvons tous être compté parmi les machines. Ensuite, La pensée est quelque chose que nous n'arrivons toujours pas à comprendre. La pensée est donc défini seulement de manière ostensive. Par exemple, «je sais ce qu'est la pensée car je pense». Alain Turing a créé une échelle pouvant déterminer le niveau de pensée d'une machine. Il place T1 au bas de l'échelle et le défini comme étant une machine apte a effectuer des tâches. Il place T5 au plus haut niveau et le défini comme étant un clone parfait de l'homme. Il appelle ce système le test de Turing.
RépondreSupprimerSamuel :
Supprimer1. Stp indique toujours laquelle des lectures tu commentes. J’infère cette fois que c’est Harnad 2008. Il faut aussi lire et commenter Turing 1950.
2. Avant de rédiger ta ciélo il faut examiner les ciélos précédentes, ainsi que mes répliques, pour ni dupliquer ce qu’ont écrit les autres, ni ignorer les répliques qui ont déjà été faites. Et puis reviens à ta ciélo plus tard pour voir ma réplique -- et pour répondre, si j’ai posé des question supplémentaires.
Tu as écrit :
« selon cette définition, nous pouvons tous être compté parmi les machines »
C’est correct. Ça met la problématique des sciences cognitives en perspective. On traite la question « Quelle sorte de machine est l’humain? » pas « Est-ce qu’une machine peut faire ce que fait un humain? » Ça prévient les inférences erronées comme « Une machine ne pourrait pas faire telle chose que fait un humain ».
« La pensée est quelque chose que nous n'arrivons toujours pas à comprendre. »
La pensée = la cognition. Les sciences cognitives ont le mandat de l’étudier en rétro-ingéniérant les capacités cognitives afin d’éventuellement comprendre et expliquer le mécanisme causal qui produit ces capacités. Le test de Turing se fait pour tester les capacités du mécanisme proposé.
On teste, subjectivement, si soi-même pense par l’ostension introspective (le Cogito/Sentio de Descartes). Mais personne ne peut pas rétroingénierier ses propres pensées. Les sciences cognitives cherchent à rétroingénierier objectivement la capacité de penser, afin d’expliquer causalement comment et pourquoi ça se produit.
Qu’est-ce que le test de Turing? (Le but des ciélos n’est pas de donner un résumé superficiel mais de démontre et approfondir la compréhension.) Compare la version originale de Turing en 1950 avec l’élaboration de sa méthodologie dans le papier de 2008 que tu vient de traiter.
Quelque soient la rapidité et la précision de la machine, elle ne peut égaler la capacité de penser chez l'homme. L'inventeur avait de grandes aspirations et avait prédi un surpassement de l'intelligence artificielle sur l'intelligence humaine mais je pense que ce n'est pas totalement correct.
RépondreSupprimerAlia, avec ce commentaire court, je ne sais pas ce que tu as lu et ce que tu a compris. Que dit Turing? C'est quoi la machine de Turing et le Test de Turing?
SupprimerLe test de Turing (TT) sert à mesurer l’intelligence artificielle, soit la capacité cognitive artificielle, soit la capacité de penser. En effet, Turing, dans sa publication datant de 1950, propose une méthodologie pour les sciences cognitives qu’on appelle la rétro-ingénierie, soit l’explication des capacités cognitives humaines. La thèse forte de Church/Turing, comme nous avons pu le voir au cours #1, veut que la computation puisse simuler/modéliser presque tout ce qu’il y a dans l’univers, dans la réalité. Le test de Turing, originalement appelé « jeu de l’imitation », correspond à une expérience empirique comportant plusieurs niveaux (T1, T2, T3, T4, T5), qui permet de déterminer si une machine ou un robot est capable de reproduire les mécanismes sous-jacents qui permettent les diverses capacités cognitives humaines, telles apprendre, raisonner, communiquer, etc. L’objectif initial derrière la conception de cette expérience était de répondre à la question « une machine peut-elle penser ? ». Cependant, à l’issue de ce test, un problème difficile semble rester, soit celui de de rétro-ingéniérer la capacité humaine à ressentir. À de nombreuses reprises, le test de Turing (TT) a permis de prouver qu’une machine pouvait apprendre, raisonner, communiquer, etc., mais la capacité de ressentir n’a pas pu être observée à l’aide d’une telle expérience. En fait, il est à ce jour impossible d’observer cette capacité que possède les espèces conscientes et, par le fait même, de la rétro-ingéniérer. On se retrouve donc confrontés à ce problème difficile des sciences cognitives, celui de rétro-ingéniérer la capacité cognitive humaine dans son entièreté. Comment pourrions-nous un jour évaluer hors de tout doute qu’une machine a la capacité de ressentir seulement à partir de sa performance lors d’une tâche du test du Turing? La potentielle performance de la capacité de ressentir, à mon sens, ne serait pas automatiquement synonyme de la compétence que ladite machine posséderait de ressentir…Cette performance pourrait être le résultat de plusieurs autres compétences qui résulteraient en une simulation de la capacité humaine de ressentir et non une reproduction. En fin de compte, Turing renonce explicitement à ce problème difficile.
RépondreSupprimerMyriam, qu’est-ce qu’une machine? C’est un mécanisme un système physique, gouverné par les variables causales (la mécanique, l’électromagnétisme, la chimie, la gravitation, les forces nucléaires). Une galaxie est une machine, une étoile, une planète, une molécule. Et les organismes biologiques aussi, y compris les humains, sont des machines. Il y a aussi les machines « artificielles » ou « synthétiques » en ce sens qu’elles sont construites ou ingénieriées par les humains – mais elles sont des machines tout de même, des mécanismes gouvernés par la causalité : les autos, les avions, les ordis, les robots.
SupprimerLe but du Test de Turing c’est de rétro-ingéniérer les capacités cognitives des humains (et des autres espèces biologique) pour pouvoir apprendre et expliquer leur mécanisme causal.
Ainsi la question pour les sciences cognitives n’est pas « est-ce que les machines pensent? » mais « quelles machines pensent, et comment? »
Ça c’est la question facile. C’est quoi la question difficile?
Voici ce que je retiens principalement au sujet du test de Turing : Alan Turing (1950) amorce son article « Machines informatiques et intelligence » en posant une question qui est probablement passée par la tête de tous ceux ayant déjà vu, utilisé ou entendu parler des machines informatiques : celles-ci sont-elles capables de penser? Pourtant, Turing considère cette question plutôt imprécise; il serait plus approprié de se demander si l’on peut créer une machine qui aura la capacité d’imiter l’humain de façon si convaincante qu’il serait très difficile, voire impossible pour un observateur de la distinguer de celui-ci. Pour préciser, on ne parle pas ici d’imiter un être humain exceptionnellement intelligent ou talentueux; l’imitation d’un humain adulte moyen suffirait amplement à réussir le « jeu de l’imitation ». Pour reprendre les termes d’Étienne, un ordinateur devrait pouvoir s’entretenir verbalement (par écrit) toute une vie avec un humain, sans que l’humain ne se doute qu’il ne converse pas avec un autre membre de son espèce. Pourtant, cela ne représente que l’un des niveaux de cognition hypothétiquement atteignables par les machines.
RépondreSupprimerLe « jeu de l’imitation » (ou test de Turing) présenté ci-dessus vise donc à évaluer les capacités cognitives des machines. Le test de Turing se divise d’ailleurs en plusieurs niveaux, allant de T0, qui serait un simple jouet informatique, en passant par T2 ( un ordinateur qui serait capable d’imiter le langage humain de manière convaincante) et T3 (un robot qui pourrait imiter à la fois les capacités verbales et sensorimotrices des humains), pour finalement en venir à T4 (un robot qui serait indistinguable d’un humain jusqu’à ce que l’on manipule le contenu de sa boîte crânienne) et à T5 (un clone humain), que Turing exclut des critères de réussite de son test. Plus précisément, on pourrait dire que le test de Turing nous permet non seulement d’évaluer les capacités cognitives des machines elles-mêmes, mais aussi le progrès des sciences cognitives, dont l’un des buts est de faire la rétroingénierie du cerveau humain et de toutes ses capacités cognitives afin de parvenir à comprendre non seulement ce que celui-ci fait, mais comment il y parvient.