Saturday 11 January 2014

5. Harnad, S. (1990) The Symbol Grounding Problem


Problèmes de l'IA symbolique

Harnad, S. (1993). L'ancrage des symboles dans le monde analogique à l'aide de réseaux neuronaux: un modèle hybrideLekton4(2), 12-18.



2015 Cours 1-ière partie (audio seule)


2015 Cours 2ième partie (vidéo)



ou 

Harnad, S. (2003) The Symbol Grounding ProblemEncylopedia of Cognitive Science. Nature Publishing Group. Macmillan.   

ou

Harnad, S. (1990). The symbol grounding problemPhysica D: Nonlinear Phenomena, 42(1), 335-346.
ou

https://en.wikipedia.org/wiki/Symbol_grounding

The Symbol Grounding Problem is related to the problem of how words get their meanings, and of what meanings are. The problem of meaning is in turn related to the problem of consciousness, or how it is that mental states are meaningful.





résumé langue anglaise:



Cours ISC1000 2017:




Cours ISC1000 2016 1:


Cours ISC1000 2016 2:


22 comments:

  1. Étienne Harnad nous dit qu’un mot écrit sur une feuille de papier n’a pas de sens en soi, et ne dénote pas son référent à lui seul. Il faut un esprit, « une tête », qui traite le mot et qui lui donne son sens et sa dénotation. Le sens d’un mot sur une feuille n’est pas « ancré », tandis que le sens du mot dans une tête, lui, est « ancré », étant l’intermédiaire entre le mot et son référent. Dans le cas du computationnalisme, John Searle nous a montré, avec son Argument de la Chambre Chinoise, que les symboles chinois n’étaient pas ancrés tout comme le mot inerte sur la feuille de papier. Ce qui manque aux systèmes symboliques est cette capacité à ancrer les symboles, c’est-à-dire à dénoter leur référent; et cette capacité n’est pas seulement une propriété computationnelle, mais plutôt une propriété dynamique : une propriété « implementation-dependent ». Pour ancrer les symboles, il faudrait ajouter au système symbolique des capacités sensorimotrices (non symboliques) qui permettrait au système d’interagir dans et avec le monde de manière autonome, par lui-même, pour relier – pour ancrer – directement les symboles à leur référent. Et ici, nous ne parlons plus d’un ordinateur T2, mais plutôt d’un robot T3, qui, lui, pourrait faire tout ce que nous faisons comme nous le faisons.

    ReplyDelete
  2. La proposition du modèle hybride ancrant ses symboles grâce à un système sensori-moteur et des réseaux neuronaux, bien que difficile à réaliser, souligne bien les faiblesses des autres approches. Or, vous (M. Harnad) avez dit en classe que la majorité des chercheurs en science cognitive sont encore computationalistes, et j’ai peine à comprendre pourquoi. Est-ce que l’argument le plus fort en faveur du computationalisme est toujours la réponse systémique contre la pièce chinoise de Searle ? Bien que je comprenne les faiblesses du modèle d’ancrage présenté ici et qu’il risque d’être insuffisant, pourquoi n’y a-t-il pas davantage de chercheurs misant sur la réalisation d’un système analogue ?

    ReplyDelete
  3. Je comprends que l’ancrage des symboles permettra à un robot de réussir T3 si ce dernier peut utiliser les symboles puis les catégoriser et faire des associations avec de nouveaux symboles. Les entrées sensorielles peuvent être multiples et l’action motrice à la sortie peut aussi être variable. J’ai de la difficulté à comprendre comment ces associations seront faites dans ce système, est-ce que les projections seront infinies? Cela ressemble en quelque sorte à notre façon de fonctionner car nous avons un ensemble de connexions dans notre cerveau qui nous amène à catégoriser également. Néanmoins, j’ai de la difficulté à comprendre comment un robot auquel on ajoute une capacité sensori-moteur sera en mesure d’accomplir cette tâche de catégorisation dans le cas du langage par exemple. Cela ne permet toujours pas de régler le problème de la compréhension. Est-ce que le robot qui réussi T3 sera capable de réellement comprendre le chinois par exemple avec l’argument de Searle. Est-ce que l’ancrage des symboles permettra de donner un sens au langage chez un robot qui réussi T3. Dans le langage la syntaxe est essentielle car elle nous permet d’interpréter et de comprendre les relations abstraites.

    ReplyDelete
    Replies
    1. Cassandra, tu as écrit:

      « Je comprends que l’ancrage des symboles permettra à un robot de réussir T3 si ce dernier peut utiliser les symboles puis les catégoriser et faire des associations avec de nouveaux symboles. »

      Ce n'est pas les symboles que le robot doit catégoriser, c'est les référents des symboles, dans le monde (les membres de la catégorie dénomée par le symbole/mot). Ancrer les symboles, c'est savoir ce qui est leur référent (et ce qu'il faut faire avec ces référents: les manger, s'en fuire, etc.). Il ne s'agit pas des « associations » mais du sens. Et lorsqu'on combine les mots, c'est des propositions qu'on fait: sujet, prédicat, une affirmation qui peut être vraie ou fausse.

      « comment ces associations seront faites dans ce système, est-ce que les projections seront infinies? »

      Pas besoin de l'infini. Le système doit trouver les attributs dans la projection sensorielle qui distinguent les membres et les non-membres de la catégorie désignée par le symbole: On reconnait les membres d'une catégorie d'après les attributs qui les différentient des membres d'autres catégorie. C'est comme un filtre.

      « nous avons un ensemble de connexions dans notre cerveau qui nous amène à catégoriser également. »

      Oui, nos cerveaux doivent faire la même chose que le T3 pour pouvoir trouver les attributs invariants de nos catégories.

      « comment un robot auquel on ajoute une capacité sensori-moteur sera en mesure d’accomplir cette tâche de catégorisation dans le cas du langage par exemple »

      Il faut un mécanisme interne qui apprend à détecter les invariants à partir de l'essai/erreur, pour ancrer les noms des catégories (symboles). Ensuite le langage est la combinaison des noms de catégories ancrés pour en faire des affirmations sujet/prédicat, pour ainsi définir davantage de catégories: ZÈBRE = CHEVAL + RAYURES

      « Cela ne permet toujours pas de régler le problème de la compréhension. »

      La compéhension = (1) savoir le référent du mot (la catégorie que désigne le mot) + (2) le ressenti de compréhension (mais expliquer (2) c'est le problème difficile).

      « Est-ce que le robot qui réussit T3 sera capable de réellement comprendre le chinois par exemple avec l’argument de Searle. »

      Ça c'est le problème des autres esprits. On ne saura jamais avec certitude. Mais si on ne peut en aucune sorte distinguer le T3 d'une personne qui comprend, ça suffit (dit Turing).

      « Est-ce que l’ancrage des symboles permettra de donner un sens au langage chez un robot qui réussi T3. Dans le langage la syntaxe est essentielle car elle nous permet d’interpréter et de comprendre les relations abstraites.»

      Pour réussir T3 il faut l'ancrage ainsi que la syntaxe. La syntaxe est la partie facile; le défi c'est la sémantique. Et c'est ça ce que fournit l'ancrage. Les relations abstraites s'expriment en mots (propositions), mais les mots doivent être ancrés sensoriellement (la catégorisation). Et le défi n'est pas seulement de pouvoir interpreter les mots prononcés par T3, mais que T3 les comprenne (ou que les mots soient au moins ancrés dans tout ce que le T3 peut faire dans le monde -- comme Oliverio.)

      Delete
  4. Semaine 5
    Le problème d’ancrage des symboles
    Avec les neurones miroirs, on a appris que lorsqu’on observe un semblable, nous sommes capables de reproduire son geste et donc de l’apprendre. Il est aussi possible de saisir l’objectif de ce geste et de comprendre le contexte dans lequel il est posé. L’imagerie cérébrale qui démontre dans quelle zone du cerveau les neurones s’activent pour accomplir une tâche a pu contribuer à schématiser cette machine (cerveau) en nous donnant de l’information sur où et quand telle zone est sollicitée .Cependant, si on s’intéresse au comment et pourquoi (explication causale sur ce qu’est la cognition) notre cerveau fonctionne, on demeure encore dans l’incertitude.
    Comme on l’a vu en étudiant la computation, une part importante du fonctionnement du cerveau implique la compréhension du contexte, la signification, le sémantique. Comprendre la signification (ou le contexte d’un problème donné) réfère à l’ancrage des symboles : afin d’être en mesure de saisir un contexte, il faut pouvoir catégoriser les symboles afin de leur donner un sens.
    Catégoriser les symboles pour en comprendre le sens, la signification, la sémantique et le contexte dépends de l’association entre les mots (symboles) et leur référents (ce à quoi ils font référence).
    La théorie de l’ancrage des symboles nous oriente donc à étudier le langage et comment le processus du langage (connecter un symbole à son référent) s’opère-t-il dans notre cerveau. Comment apprenons-nous à communiquer avec un langage aussi sophistiqué?


    ReplyDelete
  5. Ma représentation interne (et j'espère, bien ancrée) du problème de l'ancrage des mots se résume ainsi : Pour acquérir le langage moderne, il aura fallu nous servir de nos capacités catégorielles et discriminatives (communes à beaucoup d'autres espèces, je suppose) pour faire en sorte que nous soyons capables d'accumuler un vocabulaire de base (même ça, il y a des bonobos qui peuvent presque, non?)... MAIS… qu’en plus de ça… ce vocabulaire finisse par augmenter mystérieusement jusqu'à en venir qu'à toucher un seuil critique : point auquel nous en avons possédé une quantité suffisante pour pouvoir les recombiner créativement (je suppose que c'est ce que Chomsky a appelé la récursivité?) de manière à pouvoir en définir une infinité de nouveaux. À partir de là, l'enseignement sera devenu facilité et notre espèce a bien prospéré (jusqu'à la révolution industrielle, qui marqua le triste début de son misérable déclin). Bref, il y aurait quelque chose de très, très unique à la structure de notre cerveau... quelque chose qui nous permet de nous poser à nous-mêmes ce genre de questions existentielles, d'ailleurs…

    En plus de ce casse-tête, je n'arrive pas du tout à m'expliquer comment au cours de notre histoire évolutive (et MÊME avec le cerveau évolué en question) quelque chose aurait bien pu faire en sorte qu'un groupe significativement large d'individus se mette GESTUELLEMENT (non, mais vraiment?) d'accord sur un nombre suffisant de symboles de base pour que leur recombinaison puisse avoir une utilité sémantique supérieure aux méthodes communicatives précédentes (suffisamment pour que tout ce monde se mette d'accord pour l'adopter ET pour le transmettre à l'entièreté de la génération suivante afin que ce langage survive…!!!). Je suppose que le premier système utilisé devait être très, très littéral (et donc... pas très symbolique). Non?

    ReplyDelete
  6. À propos de 8.1.5.
    Il y aurait néanmoins une différence à noter entre un système symbolique traitant uniquement des symboles abstraits (langage) et un système qui traiterait également des intrants fournis par les transducteurs. Puisque dans le cas du langage, on pourrait accorder au système un second esprit (tel que proposé par Dyer) par le fait même qu'un esprit distant se cache dans les règles constituant le programme. C'est-à-dire que le système comprend, par extension, l'esprit et la compréhension de celui qui aura formulé les règles de manipulations symboliques par sa capacité à associer syntaxe et sémantique.
    Dans le cas où s'ajoutent des intrants sensoriels, le traitement pourrait être effectué d'au moins deux manières.
    L'une suivant des manipulations purement syntaxiques qui, si l'on suppose un système assez puissant (et en supposant une capacité à traiter efficacement les intrants analogiques), feraient correspondre à certains intrants, des symboles donnés qui s'inséreraient dans les algorithmes de manipulation de symboles de la chambre chinoise. Dans un pareil cas, on pourrait effectivement affirmer encore que la compréhension ne soit pas atteinte (puisque Searle, si on le suppose assez puissant ou assez patient, pourrait à nouveau apprendre ces règles). Cela équivaudrait à un système de symboles pré-ancrés, en quelques sortes, par l'auteur de l'algorithme.
    La seconde correspondrait à une procédure d'ancrage de symboles telle que proposée dans l'article. La critique de la chambre chinoise tiendrait moins la route dans ce cas là puisque les règles ne seraient plus une manuel d'instruction, mais un coffre à outils si on peut se permettre l'analogie. Le simple fait d'appliquer les règles imposerait la construction de liens dynamiques entre sémantique et syntaxe.
    Searle comprendrait-il ce qu'il fait dans ce cas? Non, mais le système pourrait théoriquement avoir produit ce que l'on nomme "compréhension" grâce à son indépendance vis-à-vis de la compréhension spécifique de l'auteur des règles que suivrait Searle.

    ReplyDelete
  7. Pour résoudre la problématique de l’ancrage des symboles, Harnad propose un modèle hybride où collaborent des systèmes sensori-moteurs, des réseaux de neurones et des systèmes symboliques computationnels. Puisque Searle, par son Argument de la Chambre chinoise, a prouvé qu’on peut réussir T2 par la computation sans «comprendre » quoi que ce soit, Harnad nous propose plutôt un modèle qui pourrait réussir T3. Pour ce faire, le modèle devrait être doté de systèmes sensori-moteurs analogues capable d’effectuer des transductions sensorielles. Ces transducteurs permettraient d’obtenir des données dont les réseaux de neurones, par leur capacité d’apprentissage des invariants de ces données analogues permettraient de les catégoriser et d’ainsi l’identifier en apposant un référent sur un symbole arbitraire , c’est-à-dire de l’ancrer. Lorsqu’on parle d’«ancrage de bas en haut», est-ce qu’on parle de notre capacité à ancrer un autre symbole, par exemple «zèbre», en l’identifiant par deux catégories déjà ancrées, «cheval» et «rayures»?

    ReplyDelete
  8. Invariants sensoriels ? (Modèle hybride vs objections anti-empiristes ?)
    Pour répondre au problème d’un système symbolique externe pour la sémantique, il faut pouvoir distinguer, discriminer les différentes entrées sensorielles pour trouver le bon invariant et ancrer la bonne catégorie. Il est possible d’apprendre des invariants sensoriels, de passer au non arbitraire au langage arbitraire.
    A contrario, on se rend bien compte dans les études de psychophysiques que l’on se heurte à pouvoir aborder une catégorie sensorielle en tout ou rien mais sur un continuum où se trouve un seuil arbitraire. Dans le même ordre d’idées, des invariants sensoriels n’existeraient sûrement pas.

    ReplyDelete
  9. Dans The Symbol Grounding Problem Steven Harnad avance une hypothèse de ce à quoi pourrait ressembler un système de cognition T3. Il s’agirait en somme d’un système de traitement de l’information computationnel couplé à des dispositifs sensori-moteurs dynamiques qui fonctionnerait selon le modèle connexionniste. Ce dernier serait en mesure de distinguer (discriminer) et catégoriser les différentes entrées sensorielles les unes des autres, permettant ainsi au système d’«ancrer» la signification (sémantique) des symboles attachés aux entrées sensorielles. On pourrait donc dire avec certitude - à défaut de résoudre le problème des autres esprits - que le système cognise bel et bien.

    Par contre, l’une des particularités de ce système m’échappe toujours ; on dit qu’il faudrait que le système sensori-moteur serait capable, à l’aide des entrées brutes, d’« iconiser » les représentations, et ainsi de faire une sorte de « pont » entre les symboles utilisés par le système et leur référent. Je serais curieux de comprendre d’où, spécifiquement, émergerait ces représentations intermédiaires (qui semblent être l’une des pierres d’assise du système).

    ReplyDelete
  10. Nous savons depuis Frege que les choses qu’un mot réfère (son référant) n’est pas la même chose que sons sens. Par exemple, un acteur humain à la capacité de prendre en compte que ce qui est nécessaire dans un contexte historique précis. C’est pourquoi l’ancrage des processus mentaux ainsi que leurs représentations à l’extérieur (effecteurs) s’avèrent être des problèmes majeurs au sein de la robotique. Ces problématiques retrouvent au sein de plusieurs thèses utilisant l’encodage discret voir symbolique (tel que le Test de Turing ou la Pièce chinoise). En d’autres mots, ces systèmes ont la capacité d’engendrer un comportement apparemment intelligent sans toute fois remplir les symboles de sens (ou simple manipulation de symboles) ; le modèle imaginé par Harnard s’avère très intéressant dans la mesure où ce dernier prend en compte l’ancrage des symboles, et ce, selon un modèle connexionniste. Tel que mentionné, ce modèle aurait la capacité de discriminer et d’identifier les objets, les évènements et les circonstances qu'ils représentent, et ce, à partir de leurs projections sensorimotrices (Harnard, 1993). Cette capacité de discrimination et d’identification pourrait alors combiner différents référents afin d’en former des nouveaux et ainsi, créer une IA beaucoup plus complète que les précédentes.

    ReplyDelete
  11. Qu'est-ce que représente un mot sur papier? Y a-t-il un sens à tout ce que l'on exprime par écrit? En tant réel une combinaison de lettres (symboles) ne veut rien dire sans le savoir humain. Nous sommes ceux qui donnent un sens à tout ce que l'on fait ou exprime. On interprète le sens des nombreux symboles existants. On doit pouvoir expliquer ces symboles puisque en tant réel il n'y a personnes d'autre que nous-même qui comprend ce qu'ils veulent dire. La computation ne peut expliquer l'ancrage des symboles. Il n'en tient qu'à nous de démontrer le sens du référant (la définition que nous donnons à un objet que nous voyons). En gros, notre vision et opinion de ce que les choses représente n'est que le fruit de la pensée. Il n'y a rien de concret qui puisse définir quelque chose.

    ReplyDelete
  12. This comment has been removed by the author.

    ReplyDelete
  13. Dans « Le problème de l’encrage des symboles», Harnad discute le fait que le computationalisme et le connexionnisme (bien que leur principe semblant similaire) ne soient pas véritablement les mêmes principes.
    Comme nous avons bien pu le voir déjà, la computation est la manipulation des symboles selon leurs formes d’une façon qui est interprétable, c'est-à-dire qui a une signification.
    Et certes selon Harnad, il existe une similitude de fonctionnement entre les réseaux neuronaux et la computation, mais cela relève du cognitivisme. Or nous avons déjà pu montrer que le computationisme et le cognitivisme n’allaient pas complètement dans le même sens.
    Malgré le fait que le connexionnisme est représentatif des réseaux neuronaux et de leur fonctionnement, Harnad essaie de trouver ce qui pourrait le rapprocher du computationisme, ou pas.
    De ce fait, il nous fait comprendre également que les symboles et l’association de ceux-ci pour créer une « signification » à eux seules ne suffisent pas pour dire que ceux-ci sont sensés.
    En effet, si l’être humain sur son ordinateur lisant un e-mail comprend ce qu’il lit, c’est bien parce qu’il fait appel à son entendement.
    Cependant si le même e-mail est lu par un robot (qui est uniquement computé et qui reproduit sans conscience des gestes humain), celui-ci ne serait pas en mesure de comprendre ce qu’il lit. Donc ce e-mail resterai pour lui une simple suite de « symboles ».
    En outre, l’entendement est essentiel au connexionnisme tandis que le computationisme lui, n’a point d’entendement.

    ReplyDelete
  14. En ce qui concerne l’ancrage des symboles, je ne comprends pas tout à fait comment cela pourrait expliquer la cognition. Si la cognition s’explique par la transduction des intrants et la catégorisation de ceux-ci afin de déterminer ce que l’on doit en faire et comment le faire, je ne saisi pas comment il serait possible qu’une machine puisse réussir à catégoriser ce qui l’entoure sans qu’un humain ait à prime abord déterminer ces catégories. Et comme la catégorisation dépend d’un apprentissage par essai-erreur, la machine construite par un humain X possèderait les catégories de ce dernier, selon ses essais-erreurs personnels. Donc, la machine utiliserait en fait la catégorisation de l’individu qui l’aurait créé, ce qui reviendrait à dire que c’est cet individu qui passe le TT. À moins que je ne m’écarte et que l’on considère que la machine puisse créer elle-même ses catégories (par essai-erreur?), je me demande comment cela pourrait expliquer l’ancrage des symboles. Toutefois, ce sujet est encore nébuleux pour moi.

    ReplyDelete
  15. Si je comprend bien, le problème de l'ancrage des symboles, pour une machine qui exécute une computation, est que cette machine n'est pas en mesure de reconnaître les objets ou les concepts auxquels réfèrent ces symboles quand cette machine les rencontre physiquement, dans ''la vraie vie''.
    Or c'est ce qu'est l'ancrage des symboles que de savoir en quoi ces objets, concepts représentés par les symboles s'incarnent dans la vie reelle et on peut dire que la computation seule ne peut aider une machine à y arriver. La solution serait d'y ajouter un système sensori-moteur analogue, ce qui permettrait à la machine d'entrer en contact direct avec ce son environnement et de constater l'état des objets, concepts (les référents des symboles) qui l'entourent. Ainsi, la machine pourra noter par essai-erreur des similitudes, des constantes parmis les stimuli qu'elle percoit, c'est à dire à trouver des invariants qui lui permettront de former des catégories sensori-motices basées empiriquement. En conclusion, le sens des mots nous parvient par l'expérience ce qui nous permet d'ancrer le sens des symboles dans des catégories sensori-motrices.

    ReplyDelete
  16. The Symbol Grounding Problem

    To ground symbols means to give them a meaning by associating them with their referents. Symbols are shapes that are irrelevant to their meanings who can be interpretable as having meaning by a entities that can “ground”. A word (referent) on a paper (example of entity) can connect to an object (symbol) with some external processing like a word in a human brain (another example of entity). The symbol in the case of the sheet of paper is ungrounded while the one in the brain is grounded, why? The chinese room argument explained that for a symbol to have meaning and being grounded, it had to be consciously meaningful and like Searl who didn’t understand chinese but could, by using rules, communicate, the paper can’t give meaning to the word written on it.

    By the end of this article, Harnad gives his own hypothesis claiming that to prove that a machine could ground symbols, it should be able to detect, identify and act upon symbols. It is therefore necessary for it to have sensorimotor capacities and to be able to interact with the symbols. A digital computer can’t ground symbols since computalism manipulate symbols on their shapes and never on their meaning, and are deprived of any sensorimotor capacity. The means of picking out referent would be a dynamical property that would be implementation dependant. Still, we wouldn’t be able to testify that it is conscious.

    ReplyDelete
  17. La categorisation est le processus de classer des symboles dans une "boite" avec d'autres elements communs. Cette categorisation se fait par apprentissage depuis la naissance et permet de faciliter l'acquisition de l'information. Chaque symbole qu'une personne aurait vu sera classer dans une des categories pre-existante. La question qui nous intrigue est:est-ce que la computation est arriver a un stade ou elle peut categoriser? La cognition etant aussi forte que la computation ce serait possible d'un point de vue theorique.

    ReplyDelete
  18. Je dois mentionner que j'ai eu un peu de difficulté à comprendre ce texte. Ayant beaucoup de nouveaux termes qui ne sont pas la plupart du temps biens définis. Ce texte s'agit de comprendre le problème de comment les mots ont leur signification et qu'est-ce que les significations, également qu'il y a un problème de conscience qui est présent. Il est mentionné dans le texte que la chose à laquelle un mot fait référence n'est parfois pas la même que sa signification. Par exemple : Tony Blair, the UK's prime minister et Cheri Blair's husband font référence à la même personne mais pas de la même façon. Il est dit dans le texte que la signification des mots est dans notre tête. L'auteur tente de nous expliquer le mécanisme qui se produit lorsqu'on cherche la signification d'un mot. J'ai compris que le mot fait partie d'une entité, qu'elle se trouve dans la tête, qu'il y a un objet à l'extérieur et qu'il y a un processus qui lierais le mot intérieur avec l'objet extérieur, mais je ne suis pas capable de comprendre le procédé. Ayant mentionné qu'il y a ici un problème de conscience, il s'est demandé ce qui arrive lorsque la tête devient un bout de papier, car, dans le procédé expliqué plus haut, on a besoin d'une tête pour faire la connexion entre le référent et des mots sur une feuille de papier, mais la feuille de papier n'a pas d'esprit. Alors la signification d'un mot sur une page est non-ancré tandis que la signification d'un mot est ancré dans la tête. Lorsqu'il parle de l'argument de la Chambre chinoise de Searle, il mentionne le mot: «implementation-independent» que je ne sais pas ce que ça veux dire. Un contre-argument concernant la chambre chinoise serait qu'il serait possible qu'il y ai une significations aux mots chinois qu'il ne comprend pas, mais qu'il ne s'en rende pas compte. Il s'agit du «System Reply». On se pose la question alors qu'est-ce que le cerveau fait pour générer la signification? On introduit alors le terme de symbole et du fait que la manipulation des symboles se base sur la forme plutôt que sur la signification.

    ReplyDelete
  19. This comment has been removed by the author.

    ReplyDelete
  20. Je ne suis pas sure de bien comprendre l’aspect de catégorisation avec un modèle hybride.
    Lorsqu’on catégorise, on classe les membres (K) des non membres (K-). Ceci est fait avec essai et erreur. Pour ce faire, il faut être en mesure de catégoriser les membres des non membres. Le model hybride permet à un robot d’être en mesure de discriminer de façon analogique (computationalisme), mais avec l’aide de réseaux neuronaux qui lui permettraient d’ancrer les symboles pour être en mesure de catégoriser (connexionnisme). Je suis vraiment mélangé… pourquoi à ton besoin du réseau neuronal? En fait comment il permet d’ancrer les symboles?


    ReplyDelete
  21. On a vu que pour le computationalisme , la cognition est une forme de computation , c’est-à-dire , la manipulation des forme de symboles à partir des règles et qui est sémantiquement interprétable. Avec le problème d’ancrage des symboles , on se questionne sur comment les mots/symboles ont leurs définition , leurs senses. Ce n’est pas leurs référent, mais le moyen de détecter et discerner le référent. L’ancrage des symboles nous permet d`étudier plus profondément le langage et son système , il aide à catégoriser les mots/symboles afin de leurs donner un sens , une définition , la sémantique. Alors , pouvons nous dire que ceci est une étape qui nous rapprocherai et aiderai à construire un T5 parfait?

    ReplyDelete