Saturday 11 January 2014

3b. Harnad, S. (2001) What's Wrong and Right About Searle's Chinese RoomArgument?

Harnad, S. (2001) What's Wrong and Right About Searle's Chinese RoomArgument? In: M. Bishop & J. Preston (eds.) Essays on Searle's Chinese Room Argument. Oxford University Press.





Searle's Chinese Room Argument showed a fatal flaw in computationalism (the idea that mental states are just computational states) and helped usher in the era of situated robotics and symbol grounding (although Searle himself thought neuroscience was the only correct way to understand the mind).

18 comments:

  1. Le computationalisme nous aura paru comme la voie de salut des sciences cognitives pendant quelques instants, et déjà, le voilà invalidé par le contre-argument de Searle (ainsi que par la rectification de son contre-argument par M. Harnad.) Recréer la cognition uniquement avec la manipulation de symboles formelles sans sémantique me semble désormais une entreprise illogique, mais la computation n’en est pas pour autant entièrement impertinente comme Searle le prétendait. Il faut néanmoins lui donner qu’il aura su alimenter la discussion et, ultimement, beaucoup contribuer avec une mise en situation accessible à tous, même les frères cadets.
    Encore une fois, je ne peux qu’exprimer ma curiosité sur la conception d’une telle machine, qui intègrerait des réseaux analogues aux neurones et qui serait en mesure passer le T3. Je ne peux m'empêcher de penser aux "biobots"; le synthétique suffira-t-il ou nous faudra-t-il y inclure de la matière biologique ?

    ReplyDelete
    Replies
    1. Donc ta question est: est-ce qu'on pourra réussir T3 avec le matériel purement synthétique, ou est-ce qu'il va faloir du matériel biologique (donc T4). Méthologiquement c'est à noter que l'arbitre pour ça reste T3.

      Delete
  2. Avec l’argument de la pièce chinoise de Searle, celui-ci parvient à démontrer que la computation ne peut expliquer totalement la cognition. Isolé dans une chambre, Searle suppose que s’il implémentait sur lui-même un programme dont les règles lui seraient expliquées en anglais mais dont les symboles seraient des symboles chinois (qu’il ne comprend pas), en considérant que les règles transmises inclueraient toutes celles permettant de faire tout ce qu’un humain est capable de faire, il serait en mesure de réussir le Test de Turing sans toutefois comprendre quoi que ce soit de sa communication. La computation, consistant à une manipulation de symboles, ne réussit donc pas à expliquer le mécanisme qui accorde du sens au symbole, qui le connecte avec l’ « objet » de la réalité qu’il symbolise. Si par cet argument, Searle discrédite complètement le computationalisme dans sa conclusion et se tourne vers les neurosciences pour espérer expliquer la pensée, c’est plutôt probablement par un système hybride qui inclurait de la computation que semble se diriger notre recherche.

    ReplyDelete
    Replies
    1. Quel sorte de systéme hybride? Ça veut dire quoi?

      Delete
  3. Semaine 3 la chambre chinoise de Searl

    Searl , par son exemple de la chambre chinoise démontre que la computation : la manipulation de symboles dans une formule suivant une syntaxe ne suffit pas à expliquer la compréhension du chinois. Une capacité de calcul n’a pas d’intentionnalité ni d’entendement, ni aptitude à comprendre, à raisonner et avoir du jugement, en bref : aucune conscience. Notre esprit est une machine sémantique (qui donne un sens à ce qu’on ressent et interprète) et un ordinateur un engin syntactique (dans lequel les symboles sont dénués de signification pour le programme qui en exécute la manipulation). Si on ajoute l’infini de possibilité qu’un mental humain peut initier par la connaissance du langage, comme par exemple dans la situation du jeu de l’imitation, ce type de cognition le distingue de la computation. Le mental serait le résultat de systèmes biologiques complexes car le cerveau par sa perception (neurones) a acquis une expérience et par la suite peut mettre en application ses apprentissages. Je pense qu’une meilleure connaissance biologiques du cerveau humain (les zones et leur utilités) permettrait d’en éclaircir le fonctionnement.

    ReplyDelete
    Replies
    1. Mais comment est-ce que Searle réussit à démontrer que les symboles ne suffisent pas à générer la compréhension? Et pourquoi est-ce que la même démonstration ne peut pas se faire concernant les cellules du cerveau?

      Delete
  4. L’argument de Searle ne toucherait que le T2 et non le T3. En effet, les partisans du computationnalisme soutiennent ces trois propositions : (1) les états mentaux ne sont que des états computationnels ; (2) ceux-ci sont indépendants de l’implémentation ; (3) le Test de Turing (étant le meilleur test empirique pour vérifier la présence d’états mentaux) est décisif. Ces trois propositions font en sorte qu’un T2 serait suffisant selon le computationnalisme, et c’est ce à quoi s’attaque directement Searle. Ensuite, Searle ne réduit pas en miettes la suffisance d’un T3, car, et je comprends mieux maintenant, un T3 ne peut être seulement computationnel : il doit y avoir autre chose qui le rend apte à bouger et à agir dans le monde comme nous le faisons. On peut donc imaginer qu’un robot hybride qui fonctionnerait avec de la computation et des réseaux neuronaux passerait le Test de Turing et serait totalement indistinguable (fonctionnellement) de l’être humain. Searle n’aurait donc pas attaqué le niveau T3 du Test de Turing tout simplement parce qu’il n’y a pas que de la computation dans un robot T3. Néanmoins, Searle a tout de même montré que la computation n’est pas suffisante et que, par conséquent, le computationnalisme (pure) est faux.

    ReplyDelete
    Replies
    1. L'argument de Searle réussit contre la computation parce que la computation, étant la même computation peu importe quel matériel l'exécute, permet à Searle de devenir le matériel et ainsi témoigner qu'il ne comprend pas le chinois. Mais puisque les réseaux neuronnaux réels donnent les mêmes entrées/sorties que les réseaux neuronnaux simulés par la computation, Searle pourrait ensuite exécuter tout ce qui se passe dans T3 s'il ne s'agissait que des computations et des réseaux neuronnaux. Qu'est-ce qu'il y a nécessairement davantage dans un robot T3 à part de ça?

      Delete
  5. Dans «Minds, Brains, And Programs», Searle affirme que le computationalisme n'est pas la réponse à la cognition grâce à un exemple bien simple. Une machine à laquelle nous aurions implanté un programme ayant la capacité de communiquer en chinois ne comprend pas vraiment le chinois, car un humain ne comprenant pas le chinois pourrait, avec toutes les ressources nécessaires, communiquer en chinois malgré son incapacité de compréhension de la langue.
    Dans «Minds, Machines and Searle 2», je comprend qu'une formulation différente de Searle des principaux éléments composant l'AI forte aurait pu réduire beaucoup de controverse autour de son article. (1) «the mind is a computer program« serait remplacé par «les états mentaux sont des états computationels». (2) «The brain is irrelevant» serait plutôt décrit comme «les états computationels ne dépendent pas de l'élément physique dans lequel on les implante». (3) «The Turing test is decisive» on le traduirais comme «Le test de Turing est le mieux qu'on peut faire pour prouver des états mentaux pour la théorie du computationalisme». La notion d'états mentaux conscients et inconscients sont également une source de conflit. La compréhension doit être consciente. (concept de la conscience à approfondir)

    ReplyDelete
    Replies
    1. Ce que l'humain pourrait faire sans comprendre c'est passer T2 (pas communiquer chinois: il ne communique pas; tout ce qu'il fait c'est de manipuler les symboles).

      La compréhension est consciente; donc on peut constater, consciemment, l'absence de compréhension. Donc on peut démontrer que T2 ne comprend pas, s'il est complètement computationnel, mais on ne peut pas démontrer que T3 ne comprend pas, parce que T3 ne peut pas être complèetement computationnel.

      Delete
  6. J’ai bien aimé la conclusion de ce texte, car, de ce j’ai compris de la CRA, le but de Searle était de montré que la conscience, où l’intentionnalité comme il la renomme, ne peut être que de la computation pure. Ainsi, bien que la CRA ne permette pas de donner une explication à savoir ce qui nous permet de faire tout ce que l’on peut faire (intentionnellement), elle permet tout de même de montrer que la résolution d’algorithmes ne pas non plus être la réponse à cette question, car cela ne prend pas en considération la conscience ou l’intentionnalité.

    ReplyDelete
    Replies
    1. Il suffit de noter qu'on ressent la compréhension, donc on ressent son absence aussi. "L'intententionnalité" est un mot équivoque. Si je comprends ce que j'entends (ce que je veux dire) par « X » c'est parce que ça ressemble à quelque chose de comprendre « X ». Ce n'est pas juste une action.

      Delete
  7. Il m’était apparu un peu étrange que le computationnalisme soit aussi « extrême » dans sa description de la cognition ; l’esprit humain ne possède pas simplement une banque de symboles qu’il manipule intérieurement sans référant externe à ces symboles, sans « compréhension ». C’est ce que confirme Searle avec l’expérience de la chambre chinoise : lorsqu’on remplace le programme à l’intérieur d’un ordinateur pouvant imiter un locuteur chinois par un humain (en l’occurence Searle), celui-ci pourrait encore faire « fonctionner » l’ordinateur et produire les sorties appropriées aux entrées proposées, sans pour autant comprendre le contenu des conversations qu’il aurait. Searle se sert pourtant de cet expérience pour justifier un point de vue tout aussi « extrême » que celui du computationnalisme « pur », soit que le computationnalisme ne puisse pas être utilisé pour décrire comment la cognition s’opère, en totalité autant qu’en partie.

    ReplyDelete
    Replies
    1. T2 et T3 ne sont pas des jeux d'imitation: On cherche à générer la vraie capacité sous-jacente. C'est de la rétroingénierie.

      Delete
  8. This comment has been removed by the author.

    ReplyDelete
    Replies
    1. Supposons que nous y sommes enfin. Nous avons réussi à construire un authentique robot T3, cognitivement indissociable d'un "cogniseur" humain. Nous sommes à 100% au courant de son fonctionnement puisque c'est nous qui l'avons construit (et que nous avons eu la présence d'esprit, je l'espère bien, de tout documenter). Cette victoire robotique initiale ne garantirait pas que tout ce que ce T3 possède est vraiment nécessaire à sa cognition. Certaines fonctions ajoutées dans le processus pourraient tout à fait être superflues.

      Mais puisque nous connaissons en détails les subtilités de son fonctionnement, il me semble qu'il devrait être possible de le simuler virtuellement. (Autrement, la thèse forte de Church-Turing s'en trouverait falsifiée, n'est-ce pas?)

      Si c'est faisable, la prochaine étape serait de retirer sélectivement/systématiquement à ce "T3 virtuel" chacune de ses composantes pour déterminer celles qui sont non-essentielles à la cognition proprement-dite (un petit peu comme l'idée des lésions corticales ciblées). À la fin de ce processus "d'émondage expérimental" (si je puis me permettre le terme), on aurait en quelque sorte la simulation virtuelle d'un T3 qui est exclusivement capable de se mesurer cognitivement a un vrai cerveau générique humain. Rien de superflu, juste de la "pure "cognition.

      Bien que notre premier robot cogniseur ait eu besoin (pour qu'on puisse tester/développer les fonctions analogues aux réseaux neuronaux dynamiques liées au problème de l'ancrage des symboles) d'être conçu dans le monde physique, il me semble maintenant que le fait de reconstituer l'entièreté de ses mécanismes sous la forme d'une simulation 100% computationnelle ne changerait plus rien à la validité scientifique de nos expérimentations futures sur un tel homologue virtuel, pas plus que le fait d'enfermer un humain normal dans un quelconque environnement, aussi pauvre en stimuli soit-il, ferait de ce prisonnier un "faux cogniseur".

      Delete
  9. Dans le texte que Searle nous a présenté, il nous a fait comprendre que la computation n'est pas suffisante pour expliquer la cognition. La computation consiste en une manipulation de symboles selon des règles. Dans son argument de la chambre chinoise, Searle nous met dans un contexte dans lequel il ne comprend pas le chinois, mais qu'en suivant les règles qui lui sont fournis en anglais (sa langue maternelle) il est capable de faire ce qui lui est demander. C'est à se moment qu'il réalise donc que le fait de pouvoir en fin de ligne obtenir les bonnes réponses ne veut pas dire que la machine comprend ce qu'elle fait. Donc selon lui, la machine n'est pas capable de penser et donc le computationalisme ne suffit plus. Même si Searle ne nous fournis pas une réponse clair à la fin de son texte, il a tout de même permis d'alimenter la discussion et de questionner les limites du computationalisme.

    ReplyDelete
  10. Searle veut démontrer que la computation n’est pas assez pour expliquer la compréhension , il le fait avec l’argument de la chambre chinoise qui propose un système semblable à la traduction , en mettant une personne dans une pièce qui reçoit des messages en chinois et il répond selon les symboles et les règles. En faisant ainsi , on peut voir qu’il n’y a aucune compréhension face aux symboles chinoises de la personne dans la picèce , il ne fait que suivre des règles et non son jugement , sa compréhension ,sa réaction . Il n’atteint pas le T3 , car il n‘y a aucune capacité sensorimoteur , il ne fait que transmettre des mots.

    ReplyDelete