Saturday 11 January 2014

3a. Searle, John. R. (1980) Minds, brains, and programs

Searle, John. R. (1980) Minds, brains, and programsBehavioral and Brain Sciences 3 (3): 417-457 

Traduction langue française: http://www.persee.fr/web/revues/home/prescript/article/quad_0987-1381_1987_num_1_1_2097 ou ici: http://e-philo.univ-paris1.fr/Searle.pdf
Philosophe américain du langage et de l’esprit, John Searle déclencha en 1980 une polémique qui ébranla le public des psychologues et des informaticiens. Avec l’argument de «la chambre chinoise», il visait à démontrer qu’aucun programme informatique n’est en lui-même suffisant pour donner un esprit à un système. Vingt ans plus tard, dans la revue philosophique Le Débat, il revient sur cette thématique et durcit encore son propos. Pour Searle, il est clair que le cerveau n’est pas et ne sera jamais intrinsèquement un ordinateur.
Avec John Searle dans la chambre chinoise

L’argument de la chambre chinoise de John Searle



résumé langue anglaise:









31 janvier 2017

Cours ISC1000 2016 1:



Cours ISC1000 2016 2:

25 comments:

  1. Pour ceux qui préfèrent lire l'article en français, en voici une version traduite par Eric Duyckaerts (1987).

    http://e-philo.univ-paris1.fr/Searle.pdf

    ReplyDelete
    Replies
    1. Il y avait déjà le lien vers la version Persée, mais tien est meilleur. Merci.

      Delete
  2. John Searle réussit à passer le Test de Turing en chinois – c.-à-d. qu’il n’est pas distinguable d’un « réel » locuteur chinois – sans toutefois comprendre quoi que ce soit aux symboles. Searle suit les instructions, manipule les symboles qui entrent dans le système (les questions), et donne à la sortie d’autres symboles (les réponses). Selon Searle, la chambre chinoise nous démontre que l’ordinateur et le programme ne sont pas une condition suffisante pour qu’il y ait de l’entendement, « puisqu’ils se contentent de fonctionner sans comprendre » (69). Remarquons que Searle, dans son exemple, est l’équivalent d’un T2, et qu’à ce niveau, sa critique semble effectivement atteindre sa cible : la manipulation syntaxique n’est pas suffisante pour avoir de l’intelligence. Searle semble également montrer, avec sa réfutation des réponses « robotique » et « composite », que même dans un T3, la seule manipulation de symboles ne serait également pas suffisante. En effet, ne pourrions-nous pas imaginer qu’un robot indistinguable d’un être humain, s’il n’est que computationnel, est mis en marche par Searle qui manipule également des symboles dans le confort de sa pièce?

    ReplyDelete
    Replies
    1. T3 (un robot) ne peut pas consister uniquement de la computation car la transduction sensorielle et le mouvement ne sont pas des computations (des manipulations de symboles formels). Ainsi T3 n'est pas susceptible à l'argument de Searle).

      Delete
  3. Selon John Searle, la « Gedankenexperiment » de la chambre chinoise ne nous montrerait pas seulement que la computation n’est pas une condition suffisante pour l’entendement, mais également qu’elle n’est même pas nécessaire. Selon lui, son « exemple suggère que ces opérations n’entretiennent pas de connexions intéressantes avec l’entendement » et que « rien ne nous permet de supposer que quand je comprends l’anglais j’opère selon un programme formel, quel qu’il soit » (70). Remarquons qu’il est possible d’être en désaccord avec Searle sur ce point. En effet, bien que le jonglage symbolique ne soit pas suffisant pour avoir de l’intelligence, il n’est pas si clair qu’il ne pourrait pas être nécessaire pour avoir de l’entendement. Il se pourrait fort bien que la cognition soit en partie computationnelle, et en partie constituée d’autres choses. Searle ne nous donne pas de bonnes raisons de croire que la computation n’est pas nécessaire; il en fait la supposition sans en développer le « pourquoi ». Par conséquent, la conclusion selon laquelle la computation serait non seulement non suffisante, mais aussi non nécessaire me semble quelque peu hâtive.

    ReplyDelete
    Replies
    1. Tu as raison que Searle ne démontre que la computation n'est pas suffisante pour générer la cognition mais qu'il ne démontre pas qu'elle n'est pas nécessaire. Mais « l'entendement », « l'intentionnalité » et « l'intelligence » sont quasiment des synonymes, tous signifiant la cognition. Et la computation seule ne peut générer aucun des quatre.

      Delete
  4. Un peu comme Turing face à certains contre-arguments, Searle en incluent dans son article mais répond parfois de manière évasive ou avec une logique de « grand-mère ». Son texte semble néanmoins solidement heurter le computationnalisme. Peut-être nous tournons nous parfois vers des algorithmes pour répondre à certains inputs, mais peuvent-ils expliquer l’expérience du «  ressenti » , et dans ce cas-ci ,le sentiment de comprendre la sémantique de l’input que l’on reçoit et de l’output que l’on articule pour y répondre? Ainsi, sans pour autant régler quoi que ce soit, Searle s’attaque à la confortable position du computationnalisme et nous oblige à trouver de meilleures solutions.

    ReplyDelete
    Replies
    1. Searle a recours au problème « difficile » du ressenti dans son argument lorsqu'il cite le fait qu'il ne comprendrait pas le Chinois dans la pièce chinoise. Il faut avoir le ressenti pour constater que je ne comprends pas. Ça ressemble à quelque chose de comprendre, et c'est le Cogito de Déscartes qui me permet de dire avec certitude que je n'ai pas ce sentiment (lorsque je ne comprende pas).

      Mais c'est l'absence de ce sentiment dans le T2 computationnel qui disqualifie le computationnalisme, pas l'absence de l'explication du ressenti (ce qui reste absent même jusqu'à T5, et qui afflige toutes les explications, computationnelles et non-computationnelles; c'est pour ça que c'est le « problème difficile » ).

      T3, n'étant pas purement computationnel, n'est pas susceptible à l'argument de Searle. Mais même si T3 (en l'occurrence, Oliverio dans notre cours) a le ressenti, ça n'explique pas comment et pourquoi. Le mécanisme causal de T3 n'expliquerait que comment et pourquoi T3 est capable de faire tout ce qu'il est capable de faire.

      Delete
  5. 1. La musique n'est pas un langage. Je ne peux pas dire ce que je viens de dire en si bémol.

    2. Ce qui est en procès ici c'est l'hypothèse que la cognition n'est que de la computation, et donc que la compréhension d'une langue n'est que l'exécution d'un logiciel qui réussit T2.

    ReplyDelete
  6. En se soumettant lui-même à la théorie de Schank, Searle démontre dans la chambre Chinoise que la théorie du T2 de Turing et la thèse AI forte est réfutable puisque la machine se distingue de l’humain étant donné qu’il n’a pas de conscience. La machine pourrait exécuter un ensemble de commandes sans avoir l’intention de le faire et sans être conscient de ce qu’ii se passe. La cognition ne peut donc pas être que de la computation du moins pas purement. Puisque Searle est en mesure d’«exécuter les opérations» comme un ordinateur, nous pouvons dire qu’il est capable de manipuler des symboles et donc qu’il fait de la computation. Par contre, le cerveau humain est capable de donné un sens à ce qu’il comprend ou ne comprend pas mais pas un ordinateur qui a un «entendement égale à zéro» comme le dit Searle. Or, la thèse forte de Turing nous dit que la cognition est la computation et donc purement syntaxique. Les processus mentaux de la cognition ne peuvent pas être programmés, car ils ont un contenu sémantique que l’ordinateur ne saurait expliquer. Comme le dit l’article, «la compréhension d’un ordinateur n’est pas réelle, les ordinateurs simulent seulement les pensées». Si la cognition était purement computable, alors Searle aurait été en mesure de comprendre l’histoire en chinois, mais il sait qu’il ne comprend pas alors il sait que ça ressemble à quelque chose qu’il ne comprend pas, il est conscient, mais l’ordinateur ne pourrait pas en faire de même, ce qui nous ramène donc au problème difficile de la science cognitive.

    ReplyDelete
  7. Le débat n'est peut-être pas directement pertinent au contenu abordé, mais je ne suis pas d'accord avec l'affirmation que la musique n'est pas un langage.
    Elle ne serait certainement pas un langage formel, mais elle véhicule de l'information qui est interprétable.
    La traduction en langage naturel de la "sémantique" d'un "langage musical" n'est pas évidente au même titre que la poésie et... que les arts visuels, pourquoi pas?
    Cela dit, mon affirmation se bute à un mur si on définit "langage" comme étant l'expression des pensées et que l'on définit une pensée comme étant une affirmation formulable à travers le langage... mais cette boucle d'auto-références me semble trop limitante si on veut adresser l'idée de la compréhension humaine qui, d'après moi, s'étend plus loin que la compréhension exprimable formellement par le langage naturel.
    Enfin, je ne vois pas pourquoi la communication dans le domaine musical se limiterait au domaine du jazz improvisé. Ni le lien avec T4.

    ReplyDelete
  8. À propos de "The Systems reply [Berkeley]":
    Je trouve qu'un argument pourrait être mieux formulé pour s'opposer à la réponse des systèmes. Ce que je m'efforcerai de faire ici (sans doutes en dépassant les 100 mots malheureusement).
    Si on accepte la proposition que le système "comprend" le chinois dans l'exemple de la chambre chinoise, je crois que l'on peut identifier où se situe la fonction "compréhension".
    Dans le cas du langage chinois, nous avons: Searle, son programme (les règles), puis les questions.
    Si Searle ne possède pas la compréhension tel qu’il l’affirme et que les questions ne sont qu’une information à traiter et pas une partie du processus de traitement, alors la compréhension se situe dans les règles. Cela semble évident, mais où, dans les règles, est-ce que la compréhension peut bien se situer? Ce serait sûrement dans la transition entre les symboles et leur sémantique.
    Où se fait la transition entre les symboles et leur sémantique dans le cas présent? Et bien, chez celui ou celle qui aura rédigé les règles.
    D’une manière différente, on peut apercevoir dans l’argument des systèmes le même schéma que dans les arguments homonculaires, puisqu’ici, on doit encore se demander comment l’auteur des règles a fait pour comprendre les règles. Comment a-t-il fait le pont entre symboles et signification?

    ReplyDelete
    Replies
    1. J'ajouterais qu'il me semble impossible pour un système de produire des règles dont la portée seraient extérieures à leur propre système. Je m'explique.
      Le signifié de l'auteur est produit (au moins majoritairement) suite à et en référence à une expérience sensorielle interactive (sensorimotrice). Prenons le mot "bleu" par exemple. Si l'auteur utilise ce mot, c'est en référence à ce qu'il considère être l'existence d'une information visuelle telle que ce que vous pourriez également considérer bleu. Il connaît, reconnaît et sait ce qu'est "bleu".
      Ce qu'une personne dépourvue de vision depuis sa naissance ne pourrait pas faire. Parce que son système/ensemble ne comprend/contient pas le signifié de "bleu".
      Cela pourrait être généralisé aux êtres mécaniques. Si l'un pouvait faire l'expérience sensorielle de la vision d'une manière comparable à la notre, on pourrait alors se demander s'il existe un algorithme d'association comparable à ce que nous nommons "comprendre".

      Delete
  9. L'argument de la chambre chinoise est une expérience d'où quelqu'un communique en chinois via des mots avec une autre personne dans la chambre qui lui , a des codes pour l'aider à communiquer. Cette expérience vise à mettre en valeur les possibilités qu'un programme informatique ne sera jamais capable d'avoir un esprit , une conscience . Mais en suivant les codes données , il peut-être difficile à déterminer si c'est un robot ou un humain à travers la chambre. Ici , je peut voir un lien que peut-être nous aussi , sommes programmés à réagir de tel façon , de grandir de tel façon , d'après tout , nous suivons un code génétique.

    ReplyDelete
  10. Dans l'exemple de la chambre chinoise que Searle présente dans son texte. On comprend que même si la personne fournit les bonnes réponses cela ne fait pas en sorte qu'elle arrive a comprendre le chinois tout comme elle est capable de comprendre l'histoire en anglais étant sa langue maternelle. Je n'ai pas trop compris le moment où il parlait de la machine de Turing en lien avec son exemple, mais pour le reste Searle semblait être assez clair sur le fait que les programmes peut importe de quoi il s'agit, n'ont absolument rien avoir avec l'entendement, car ils ne font que manipuler des symboles et n'ont donc pas besoin de comprendre pour pouvoir compléter l'exercice. À moins qu'un jour quelqu'un ne soit capable de reproduire exactement chimiquement ce que l'être humain est capable de faire, une machine ne peut le faire. Elle n'a pas cette capacité à comprendre comme un humain. Ce texte à été très intéressant à lire. À différence à d'autres lectures, j'ai trouvé que Searle expliquait de manière simple sa pensée sans parler de procédés trop spécifiques par rapport à la cognition.

    ReplyDelete
  11. L’intelligence artificielle forte expliquerait la cognition par la computation (comme implémentée dans un matériel et étudiée par le test de Turing). De plus, elle présupposerait que dans le cas d’une histoire racontée, cette IA la comprendrait comme nous.
    Quand j’écoute une histoire dans une langue que je connais, je la comprends souvent grâce au langage (à un signe acoustique est associé une représentation mentale de ce que c’est de concret ou non) qui me permet d’inférer et de prédire. Le problème c’est que pour une langue que je ne connais pas, je peux quand même me comporter comme une IA forte, c’est-à-dire produire des réponses cohérentes sur une histoire en chinois dont j’interprète seulement formellement les symboles acoustiques ou graphiques (Searle).
    Est-ce que comprendre comme nous le faisons et pas l’IA est en fait dû au langage acquis par le jeune humain, à l’intériorisation progressive de représentations mentales durant son développement ? Ne serait-il pas plus juste de reproduire une machine qui fait tout ce que nous sommes capables de faire mais avec les mêmes trajectoires développementales de la cognition ?

    ReplyDelete
  12. Il est bien évident que la cognition ne représente pas la computation à 100%. Un humain évolue et apprend mais nous ne pouvons être sûr si cela n'est en fait qu'un effet de la computation ou si c'est réellement notre esprit qui nous permet d'acquérir toutes ces connaissances. Un ordinateur, lui, a la capacité de développer des habiletés tout comme nous mais comment pouvons-nous affirmer qu'une telle machine est en fait capable de penser comme un humain ce qui lui permettrai d'apprendre comme un cerveau ou comme un organisme dôté d'un esprit? Apprendre à jouer de la musique, de parler et de marcher sont tous des habiletés qu'on obtient avec le temps mais nous ne sommes pas les seules à pouvoir les acquérir ce qui peut aider à confimer les propos de Searle qui suppose que la cognition n'est pas que de la computation.

    ReplyDelete
  13. Le programme de Schank ou « Pièce chinoise » simule l’aptitude humaine à comprendre des histoires et à répondre à des questions à propos de cette dernière. Ainsi, Schank s’interroge sur le potentiel qu’un individu aurait à distinguer l’homme de la machine. Son constat est simple : le cerveau humain ne pourra jamais être comparé à l’ordinateur, car selon l’IA forte (décrit comme un « esprit » comprenant toutes simulations de phénomènes propres à l’homme) aucun programme ne peut produire de l’intentionnalité, car il en est lui-même dépourvu. Conséquemment, l’instanciation d’un programme formel se veut une condition suffisante d’intentionnalité, c’est-à-dire que l’ordinateur se limite simplement à manipuler des symboles formels sans pour autant en comprendre son contenu. Donc, l’intentionnalité n’étant pas un principe formel, il se veut donc impossible de reproduire l’entendement tel qu’on le conçoit chez l’être humain à partir de computation.

    ReplyDelete
  14. Je pense comprendre l’argument de la pièce chinoise de Searle. La personne est capable d’utiliser et de lire les symboles chinois sans réellement comprendre ce qu’il utilise. Donc la machine serrait en mesure d’utiliser le programme afin de donner l’impression qu’il connait et comprend comme une vrai personne. Maintenant, comme le propose l’auteur dans la section de Berkeley, la personne est sortie de la chambre, mais cette fois si avec la possibilité d’interagir avec le monde. Et ainsi apprendre (mettre une image) au différents symboles qu’il utilise si bien. Il serrait possible que maintenant la machine soit en mesure d’interpréter et de comprendre l’histoire du restaurant car elle a apprit la signification des mots (ou symbole) qui sont mis ensemble afin de raconter l’histoire.

    Je ne suis pas sure d’être claire mais j’espère que ma question serra abordée en classe :)

    ReplyDelete
  15. Juste une toute petite idée, comme ça : Peut-être que le conflit ici prendrait son origine dans les sens des mots français "langue" vs "langage" ... qui sont subtilement différents... alors qu'en Anglais, cette nuance, à ce que je sache, n'existe pas. Donc, une langue, c'est un truc formel... (on dira qu'un créole est un langage qui "en voie de devenir une langue" mais qui n'en sera officiellement une qu'une fois qu'une grammaire/syntaxe a été bien définie par un quelconque office de la langue). Dans une telle optique, mettons que la musique pourrait être classée comme une certaine forme de "langage" (puisque ça communique quelque chose... mettons) mais certainement pas comme une langue, car on suppose que personne ne voudra jamais s'entendre pour donner une portée symbolique et rigide à une quelconque note de piano (RÉ veut dire X)... ça tuerait un peu la créativité, disons).

    Et tout ça, en supposant que ceci vous parait pertinent, on pourrait peut-être démêler cet étrange dissonance en prenant le temps de bien réfléchir à : "Qu'est-ce qui, dans le mot anglais "language", aurait bien pu justifier la création de deux catégories plutôt qu'une dans une autre langue (à l'occurrence, le français). M Harnad, qui étudie la catégorisation, nous éclairerait peut-être sur ce point...?

    ReplyDelete
  16. En me relisant, je changerais "une quelconque note de piano" par "une combinaison spécifique quelconque de notes/intonation/rythmes/tout-ce-que-vous-voulez".

    ReplyDelete
  17. Puisque la computation s'opère indépendamment du matériel qui l'exécute, sa réponse sera toujours la même peu importe le corps physique qui la met en œuvre. Si l'algorithme reste le même, il est évident qu'il en est de même pour  le résultat.
      Maintenant, il est possible de répondre correctement à une question sans avoir compris préalablement le sens de cette question.
      Alors, la machine qui compute et qui donne toujours la bonne réponse, est ce qu'elle comprend vraiment ce qu'elle fait comme nous, humains, pouvons comprendre lorsque nous sommes certains de comprendre, lorsque nous ressentons quelque chose que nous nommons compréhension? Et qu'est ce que la cognition sans compréhension? Qu'est ce que la conscience (question difficile) sans le sentiment de compréhension?

      Searle se prête à l'expérience en imaginant qu'il opère lui même les algorithmes d'une computation. Les questions sont en langue chinoise et les réponses doivent l'être aussi. Or, il n'y comprends rien; il ne parle pas chinois. Et bien, en suivant le programme en appliquant les règles des algorithmes, qui sont très précises, il arrive à donner les bonnes réponses sans que sa compréhension soit nécessaire au processus.

    ReplyDelete
  18. Alexandre, le langage naturel est nécessairement de la communication, mais la communication n'est pas nécessairement un langage. Idem pour l'expression: Le langage est une forme d'expression, mais l'expression faciale est une forme d'expression aussi; et le ton de la voix. Et on ne dit pas que le ton de la voix est un langage! La musique ressemble plus au ton de la voix. Le critère pour une langue n'est pas juste qu'elle peut exprimer des affirmations, mais que toute langue peut exprimer toute affirmation.

    Michel, oui, la distinction langue/langage peut créer des ambiguïtés. Strictement, on parle des codes linguistiques (donc, des langues), qui sont formellement définies (comme la computation aussi est définie). Le « langage non linguistique » est une catégorie vague et floue.

    Les créoles sont déjà des langues. Tout affirmation peut être exprimée en créole. C'est les pidgins qui sont incomplets, n'étant que des interlangues, des passerelles incomplètes entre deux langues complètes, celle des colonistes et celle des colonisés.

    Je crois qu'en français (mais un peu aussi en anglais) « langage » s'utilise dans le sens d'un mode ou un code de communication (pas nécessairement linguistique).

    ReplyDelete
  19. Selon le programme de Schank expliqué par Searle, notre faculté à répondre aux questions en chinois sera définit par le type d’informations qui sera mis à notre disposition et des corrélations entre chacune d’elles sans pour autant que l’on soit en mesure de comprendre quoi que ce soit. Du moment qu’il y a une corrélation entre les informations et que la réponse est compréhensible par le correspondant chinois.
    Parallèlement, ce serait de la même manière que fonctionnerait une machine computable.
    Ainsi, malgré les bonnes réponses et leur logique on ne peut pas pour autant dire que je comprends ce dont je parle (tout comme l’ordinateur qui ne comprends pas ce dont il parle -de par son absence de conscience- mais qui parle quand même…), mais plutôt que j’associe logiquement et avec les bons outils ce que je souhaite faire comprendre à partir de questions qui me sont posées.
    En l’occurrence, puis-je moi-même poser une question à mes correspondants chinois en retour? Et si oui, dans quel but ?
    Je dirais qu’en tant qu’humain, je peux en effet vouloir poser une question en retour puisque que j’ai une conscience et que cette envie de « questionner » peut me venir également tout comme mon correspondant. Cependant, en tant qu’ordinateur, en aucun cas l’envie de questionner peut me venir, à moins qu’on me programme pour une telle fonction. Et là même encore, l’ordinateur ne répondrait pas à une envie, mais plutôt à une exécution d’une tâche donnée.
    Le principe de questionnement que j’évoque ici est afin d’illustrer la volonté de « faire une conversation » par celui qui est computé plutôt que par le correspondant.
    Ainsi donc, l’humain de par sa conscience pourrait continuer de « faire la conversation » également, tandis que l’ordinateur ne serait pas en mesure de la faire puisque si le correspondant chinois arrête de communiquer, l’ordinateur arrête automatiquement… puisqu’il ne détient aucune volonté de continuer à communiquer ou pas. Ainsi les fonctionnalités qui lui sont accordés n’ont de valeur que lorsque celles-ci sont sollicitées par les correspondants chinois, en l’occurrence un humain.

    ReplyDelete
  20. La piece chinoise que Searle elabore dans son article est une piece dont une machine de Teuring ou un humain recoivent des "squiggles" pour ensuite envoyer des "squoggle" a partir de regles predeterminer. En effet, meme apres une longue duree de faire cet exercice, la machine ou l'humain n'apprennent pas le chinois. Nous pouvons comparer ce type d'exercice au corps humain: chaque organe est une piece chinoise qui a des regles uniques pour elle. Ainsi, chaque organe, ayant une fonction specifique, permet a l'etre de vivre dans son environement.

    ReplyDelete