Philpapers (comprehensive index and bibliography of philosophy)
Chercher un fichier : PDF Search Engine | Maxi PDF | FreeFullPDF
Offres d'emploi : PhilJobs (Jobs for Philosophers) | Jobs in Philosophy
Index des auteurs de la bibliothèque du Portail : A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z
Aller en bas
PhiPhilo
PhiPhilo
Messages : 488
Date d'inscription : 11/03/2018

Du bon usage des tests de Turing et de Searle pour confondre l'IA (exercice pratique) - Page 5 Empty Re: Du bon usage des tests de Turing et de Searle pour confondre l'IA (exercice pratique)

Sam 3 Avr 2021 - 13:27
(suite de ...)


Nous pouvons donc dire à présent que Searle ne se borne pas à réfuter l'efficacité du test de Turing dans le but d'évaluer l'intelligence artificielle. En fait, c'est sa pertinence même qu'il réfute en tant que ce test repose sur une épreuve langagière. Dès lors, en effet, que tout langage est indissolublement morphologique, syntaxique, sémantique et pragmatique dans la mesure où c'est un système de communication utilisé par des agents vivants pourvus d'intentions, il est clair que, pour lui, il ne peut y avoir de langage que "naturel" et non "artificiel". En d'autres termes, l'ordinateur ne "communique" pas donc, a fortiori, ne parle pas. Vouloir le questionner est, dès lors, complètement absurde. Est-ce à dire que Searle va jusqu'à refuser la notion d'"intelligence artificielle" ou bien est-ce que l'ordinateur pourrait, après tout être qualifié d'"intelligent" sur la base de compétences autres que langagières ? Jusque là, Searle a rejeté la thèse dite "forte" de l'"intelligence artificielle", celle qui confond "intelligence" et "esprit" : "mon argument de base est que c’est une erreur de croire qu’on peut créer un esprit avec le symbolisme binaire d’une machine de Turing"(Searle, entrevue accordée au magazine Sciences Humaines), thèse qui est d'ailleurs expressément celle de Turing pour qui l'intelligence est fondamentalement une qualité de l'âme immortelle de l'homme (c'est ce qu'il appelle d'ailleurs lui-même "l'argument théologique"). Ce sujet a déjà été abondamment traité dans ce fil de discussion, aussi ne l'aborderons-nous pas ici. Ce qui nous importe de savoir, c'est si Searle pourrait admettre une thèse plus "faible" qui dissocierait esprit (ou âme) et intelligence ? On peut tirer des éléments de réponse dans la suite de son entrevue déjà citée : "à l’époque [en 1980] j’admettais que la machine possédait une syntaxe. En fait, si l’on pose la question de savoir si cette série de zéros et de uns est un processus intrinsèque à la machine, on est obligé d’en convenir que ce n’est pas le cas. J’ai proposé depuis (dans la Redécouverte de l’Esprit) un nouvel argument. La distinction la plus profonde qu’on puisse effectuer n’est pas entre l’esprit et la matière, mais entre deux aspects du monde : ceux qui existent indépendamment d’un observateur, et que j’appelle intrinsèques, et ceux qui sont relatifs à l’interprétation d’un observateur. La computation informatique n’est pas un processus qui a lieu dans la nature. Elle n’existe que relativement à une interprétation syntaxique qui assigne une certaine distribution de zéros et de uns à un certain état physique. Ce nouvel argument, plus radical, montre que la syntaxe n’est pas intrinsèque à la nature physique. Une chose donnée n’est un programme (i.e. une structure syntaxique) que relativement à une interprétation. Ceci a pour effet de démolir l’assomption de base de la théorie computationnelle de l’esprit. La question “Le cerveau est-il intrinsèquement un ordinateur ?” est absurde car rien n’est intrinsèquement un ordinateur si ce n’est un être conscient qui fait des computations. N’est ordinateur que quelque chose auquel a été assignée une interprétation. Il est possible d’assigner une interprétation computationnelle au fonctionnement du cerveau comme à n’importe quoi d’autre. Supposons que cette porte égale 0 quand elle est ouverte, et 1 quand elle est fermée. On a là un ordinateur rudimentaire. Cet argument est plus puissant que le premier mais plus difficile à comprendre"(Searle, entretien accordé à la revue Sciences Humaines).


A l'époque de sa première version de la réfutation de l'argument de Turing en faveur de l'IA et, conjointement, de la formulation de son fameux contre-argument dit "de la chambre chinoise" sur lequel nous reviendrons, Searle reconnaît avoir admis un peu vite que l'ordinateur possédait une syntaxe comme, précise-t-il, "qualité intrinsèque". Quelque vingt ans plus tard, il a changé d'avis sur la question. Qu'est-ce donc qu'une qualité intrinsèque ? La définition en est très simple : est intrinsèque une qualité qui existe objectivement "dans les choses", extrinsèque, une qualité qui dépend de l'interprétation d'un observateur. Cette distinction est assez banale, en tout cas classique depuis que Locke a distingué "les qualités premières [qui] sont les qualités absolument inséparables du corps, quels qu'en soient l'état, les altérations, la force exercée sur lui et que les sens trouvent constamment dans toute particule de matière [et] les qualités secondes [qui] ne sont rien dans les objets sinon des pouvoirs de produire en nous diverses sensations par le moyen des qualités premières de leurs parties insensibles"(Locke, Essai Philosophique concernant l’Entendement Humain, II, viii, 10), la différence étant que la notion un peu mystérieuse de "pouvoir" (power) chez Locke fait place, chez Searle, à celle d'interprétation. Or, précise-t-il, il n'y a d'interprétation qu'intentionnelle : "Le Débat : Pourquoi ne pas considérer que le cerveau est un ordinateur qui s’interprète lui-même ? John Searle : Il y a assurément des processus dans le cerveau qui sont intrinsèquement computationnels, par exemple lorsque nous effectuons des calculs, mais ces calculs n’ont rien d’intrinsèque, il ne s’agit de calculs que pour la conscience. Le Débat : N’y a-t-il pas une différence entre, par exemple, la simulation d’un diagnostic médical par un ordinateur, qui n’est que l’interprétation que nous assignons à ses opérations, et les calculs arithmétiques que la machine effectue réellement ? John Searle : Les calculs sont relatifs à notre interprétation tout autant que les autres « productions » de l’ordinateur. La seule chose qui ait effectivement lieu dans un ordinateur qui est en train de fonctionner, ce sont des flux électriques. Nous, nous pouvons leur associer des symboles mais, la machine, elle, n’en contient pas. Le cerveau est aussi un mécanisme, mais un mécanisme causal. Il a cette propriété extraordinaire de produire la conscience. L’ordinateur en revanche ne produit rien du tout, sinon l’état suivant d’exécution du programme. En ce sens il ne s’agit pas d’un mécanisme causal. Dans le cerveau en revanche, les micros-structures sont la cause de structures plus élevées, la conscience et l’intentionnalité. Un ordinateur est entièrement défini par son aspect computationnel. Le cerveau, lui, ressemble d’avantage à l’estomac : outre la manipulation de symboles, il cause des événements, en l’occurrence les pensées et les sentiments"(Searle, entretien accordé au magazine le Débat, n°109, mai 2000). En fait, donc, l'ordinateur ne possède intrinsèquement pas plus de syntaxe (ni d'ailleurs de morphologie) que de sémantique ou de pragmatique. Les seules propriétés intrinsèques qui peuvent lui être attribuées sont des propriétés géométriques, des propriétés physiques statiques (matière, masse) ou dynamiques, c'est-à-dire causales de nature électrique (en quoi on ne voit pas bien en quoi la mécanique informatique de l'ordinateur différerait en nature de la mécanique biologique du cerveau humain, mais cette difficulté est, ici, secondaire). La syntaxe est par conséquent une propriété extrinsèque de la machine car c'est ainsi que NOUS interprétons ce qui, dans son fonctionnement, est pertinent pour NOUS. Et ce, exactement de la même manière que les productions causales de notre cerveau lorsque celles-ci sont, culturellement associées, par exemple à ce que nous appelons "calcul", ou "déduction", ou encore "raisonnement". Donc, ni dans le cerveau, ni dans l'ordinateur, il n'existe de calculs intrinsèques, même si, dans les deux cas, il y a bien des processus intrinsèquement computationnels, c'est-à-dire des processus physiques qui produisent ce que nous appelons "calcul". Mais, dans les deux cas, ces produits ne sont des "calculs" qu'une fois interprétés comme tels par des êtres humains.


(à suivre ...)
PhiPhilo
PhiPhilo
Messages : 488
Date d'inscription : 11/03/2018

Du bon usage des tests de Turing et de Searle pour confondre l'IA (exercice pratique) - Page 5 Empty Re: Du bon usage des tests de Turing et de Searle pour confondre l'IA (exercice pratique)

Mar 6 Avr 2021 - 10:38
(suite de ...)


Ce qui importe ici, c'est que ni le calcul (syntaxique), ni le symbolisme (morphologique), ni même le binarisme (électronique) ne sont intrinsèquement des dispositions de la machine. De telles dispositions, en effet, n'existent pas "dans la nature", c'est nous, nous autres êtres humains qui mettons en relation une série d'impulsions électriques d'une certaine sorte avec la valeur "1", une autre série avec la valeur "0", puis une certaine série de 0 et de 1 avec tel symbole, enfin telle série de symboles avec telle autre série pour en amener une troisième, etc., et tout cela, sans encore préjuger du sens (sémantique) et de l'usage (pragmatique) dont nous devrons, postérieurement doter telle ou telle série ainsi élaborée. Bref, c'est encore et toujours nous qui interprétons tel système physique doté de certaines qualités intrinsèques (naturelles) existant indépendamment de nous (en l'occurrence, des qualités de conduction électrique) comme c'est le cas pour un programme informatique de manipulation de symboles. L'exemple que donne Searle est tout à fait significatif et d'une portée considérable : qu'est-ce qui nous empêche, au fond, de considérer une vulgaire porte comme un ordinateur rudimentaire ? Il suffirait pour cela de coder son fonctionnement en attribuant la valeur 0 à sa fermeture, la valeur 1 à son ouverture. Et pourquoi ne le faisons-nous pas ? Eh bien parce que nous n'y avons aucun intérêt : dans le contexte culturel qui est le nôtre, une porte est destinée à réguler des flux physiques et non pas à transmettre des informations (on pourrait cependant imaginer deux personnes qui, pour une raison ou une autre, ne pourraient communiquer entre elles qu'en ouvrant et fermant une porte un certain nombre de fois, à la manière dont fonctionne le code morse, par exemple). Pour le redire une nouvelle fois, tout notre système de communication, tout notre langage donc, obéit, in fine, à des considérations d'ordre pragmatique déterminées conjointement par l'évolution biologique et par la pression de l'histoire. Or nous avons dit que Searle a, en ce sens, "naturalisé" l'intentionnalité comme propension à optimiser, pour soi comme pour autrui, notre adaptation à notre milieu et, donc, nos chances de survie. Tout cela pour dire que ce n'est jamais l'ordinateur qui, dans cette perspective, pense, déduit, calcule, assemble, traite de l'information, c'est nous qui le faisons en utilisant l'ordinateur comme outil parce que nous y avons intérêt. Ce qui, du coup, ruine la thèse computationnaliste consistant à considérer le cerveau humain comme une sorte d'ordinateur, puisque le cerveau produit intrinsèquement, c'est-à-dire, pour Searle, naturellement, les phénomènes (esprit, intelligence, intention, conscience, langage, désir, émotion, etc.) qui vont lui permettre de s'auto-évaluer (éventuellement, pourquoi pas, de se considérer "comme" un ordinateur), tandis que les mêmes phénomènes ne seront, dans le meilleur des cas, que des qualifications extrinsèques pour l'ordinateur dont nous usons conformément à nos intérêts. Bref, si d'"intelligence artificielle" on doit un jour parler, ce sera toujours d'une "intelligence" extrinsèque.


Nous voilà donc, paradoxalement, ramenés par Searle à Aristote : "Anaxagore prétend que c'est parce qu'il a des mains que l'homme est le plus intelligent des animaux [...]. Or il convient de donner des flûtes au flûtiste, plutôt que d'apprendre à jouer à qui possède des flûtes [...]. Donc ce n'est pas parce qu'il a des mains que l'homme est le plus intelligent des êtres, mais c'est parce qu'il est le plus intelligent qu'il a des mains. En effet, l'être le plus intelligent est celui qui est capable de bien utiliser le plus grand nombre d'outils : or, la main semble bien être non pas un outil, mais plusieurs, elle est pour ainsi dire un outil qui tient lieu des autres. C'est donc à l'être capable d'acquérir le plus grand nombre de techniques que la nature a donné l'outil de loin le plus utile, la main. Aussi, ceux qui disent que l'homme n'est pas bien constitué et qu'il est le moins bien partagé des animaux (parce que, dit-on, il est sans chaussures, il est nu et il n'a pas d'armes pour combattre) sont-ils dans l'erreur"(Aristote, Parties de Animaux, 687b). L'homme est le plus intelligent des êtres vivants parce qu'il possède un organe spécial (peu importe ici que ce soit la main, le cerveau ou quelque autre organe) qui lui permet d'instrumentaliser intentionnellement la nature en fonction de ses intérêts bien compris. Et c'est en cette "bonne compréhension" de ses intérêts que consiste précisément son "intelligence" supérieure. Ce que dit aussi Spinoza : "la Raison ne demande rien qui soit contre la Nature, elle demande donc que chacun s’aime soi-même, cherche l’utile propre, ce qui est réellement utile pour lui, désire tout ce qui conduit réellement l’homme à une perfection plus grande et, absolument parlant, que chacun s’efforce de conserver son être, autant qu’il est en lui"(Spinoza, Éthique, IV, 18). Ou Bergson : "l'intelligence [...] est la faculté de fabriquer des objets artificiels, en particulier des outils à faire des outils et, d'en varier indéfiniment la fabrication. Maintenant, un animal inintelligent possède-t-il aussi des outils ou des machines ? Oui, certes, mais ici l'instrument fait partie du corps qui l'utilise. Et, correspondant à cet instrument, il y a un instinct qui sait s'en servir"(Bergson, l'Évolution Créatrice). Du coup, même un animalcule très primitif sera capable, à un stade très archaïque, de procéder à des opérations intrinsèquement intelligentes en fonction de ses intérêts "bien compris" (on pense évidemment à la stratégie de réplication virale dans la cellule saine sur le modèle du cheval de Troie !). Cela dit, insister sur la continuité intrinsèque (naturelle) qui mène de l'instinct à l'intelligence n'empêchera pas d'objecter comme Wittgenstein que "c’est seulement de l’être humain et de ce qui lui ressemble que l’on peut dire qu’il parle, qu’il a des sensations, qu’il voit, qu’il a des états de conscience, etc."(Wittgenstein, Recherches Philosophiques, §281) en reliant la notion de ressemblance à celle d'intérêt et donc d'intentionnalité propres à l'espèce humaine. En tout cas, qu'une machine puisse être qualifiée d'"intelligente",  cela semble supposer définitivement ou bien que tout outil puisse être tautologiquement qualifié d'intelligent du simple fait que nous ne pouvons pas nous en passer pour effectuer certaines tâches (après tout, mon stylo et mon papier sont un outil qui me permet d'effectuer les mêmes calculs que l'ordinateur), ou bien, à tout le moins, que la notion d'"intelligence artificielle" comme néologisme faisant référence à une qualité extrinsèque que ne possèdent que certaines machines mais pas toutes, soit distinguée de celle d'instinct/intelligence qui, elle, nous l'avons vu, est intrinsèque au vivant.


(à suivre ...)
PhiPhilo
PhiPhilo
Messages : 488
Date d'inscription : 11/03/2018

Du bon usage des tests de Turing et de Searle pour confondre l'IA (exercice pratique) - Page 5 Empty Re: Du bon usage des tests de Turing et de Searle pour confondre l'IA (exercice pratique)

Ven 9 Avr 2021 - 9:17
(suite de ...)


A présent, nous voudrions terminer cette réflexion sur la pertinence du test de Turing dans le cadre de l'appréciation de l'"intelligence artificielle" en examinant l'étrange argument que Searle a cru devoir opposer à Turing. En d'autres termes, nous voudrions poser cette question : en quoi la contre-expérience de pensée dite "de la chambre chinoise" abonde-t-elle une réfutation qui, comme nous avons pu le constater, repose sur une philosophie de l'esprit autrement plus profonde et solide que celle de Turing ? Soyons plus direct : Searle n'aurait-il pas pu (et dû) s'abstenir d'imaginer un test à tel point caricatural qu'il contribue, hélas, non seulement à décrédibiliser le sérieux de sa réfutation, mais pire encore, à se substituer carrément à elle (faites l'expérience : tapez "Searle Turing" dans un moteur de recherche, vous n'obtiendrez, prioritairement, que des articles relatifs à the Chinese Room Argument) ? Voyons cela de plus près. Pour Searle, "l’argument de la chambre chinoise montre que la sémantique du contenu mental n’est pas intrinsèque à la syntaxe du programme informatique, lequel est défini syntaxiquement par une suite de zéros et de uns"(Searle, entrevue donnée au magazine Sciences Humaines), autrement dit que l'ordinateur est capable d'inférer une suite de symboles à partir d'une première suite de symboles qu'on lui a soumise et de règles d'inférences qu'il a "mémorisées" sans pour autant "comprendre" ni les règles ni les suites de symboles, ni, bien entendu, être conscient qu'il s'agit là de règles et de symboles. Peu importe, à présent, que la disposition syntaxique, contrairement à la disposition sémantique, soit intrinsèque ou non à la machine. Dans les deux cas, l'argument de Searle consiste à dire que l'ordinateur se borne à calculer comme le ferait un être humain (à cet égard, le débat sur l'aspect purement formel -syntaxique- de la logique, des mathématiques, voire des sciences est loin d'être clos). Or si l'ordinateur fait avec des règles et des symboles ce que fait un être humain avec les mêmes éléments, c'est que, jusqu'à un certain point au moins, le langage humain doit fonctionner comme un calcul, de sorte que, dans certaines conditions, quelqu'un ou quelque chose qui ne "comprend" pas le sens de certaines suites de symboles doit pourvoir néanmoins se comporter comme s'il les comprenait et, partant, leurrer son interlocuteur. Le problème est évidemment de savoir dans quelle mesure le langage humain peut être assimilé à un calcul.


Après avoir défendu une position similaire en disant que "l’acte de penser comme son application [le langage] se déroulent pas à pas comme un calcul [...]. C’est à l’extérieur que le calcul de la pensée se rattache à la réalité"(Wittgenstein, Grammaire Philosophique, I, §110-111), Wittgenstein s'est rétracté dans ce qu'il est convenu d'appeler sa "deuxième philosophie" (celle du langage ordinaire) en affirmant "qu’en général nous n’utilisons pas le langage en suivant des règles strictes – il ne nous a pas été enseigné au moyen de règles strictes. Nous, pourtant, dans nos discussions, comparons constamment le langage avec un calcul qui procède selon des règles exactes"(Wittgenstein, le Cahier Bleu, 49). Pourquoi ? Parce que Wittgenstein s'est rendu compte que LE langage est un terme fourre-tout sous lequel on classe une multiplicité de "jeux de langage" très différents : "représente-toi la diversité des jeux de langage à partir des exemples suivants, et d’autres encore : donner des ordres et agir d’après des ordres ; décrire un objet à partir de ce qu’on voit, ou à partir de mesures que l’on prend ; [...] inventer une histoire et la lire ; faire du théâtre ; chanter des comptines ; [...] traduire une langue dans une autre"(Wittgenstein, Recherches Philosophiques, §23). Par analogie, on comprend que, de même que LE jeu n'existe pas, de même, LE langage est une pure abstraction. Mais il y a plus : "non seulement nous ne pensons pas aux règles d’usage lorsque nous utilisons le langage, mais lorsqu’on nous demande d’exposer de telles règles, dans la plupart des cas, nous sommes incapables de le faire. Souvent, nous sommes incapables de définir les termes que nous utilisons, non parce que nous ne connaissons pas leur vraie définition, mais parce qu’il n’ont pas de vraie définition"(Wittgenstein, le Cahier Bleu, 25). Comme chez Searle, les règles d'usage (la syntaxe) inhérentes aux divers jeux de langage sont extrinsèques, sauf que, pour Wittgenstein, "on apprend un jeu en observant la manière dont d’autres le jouent, et nous disons qu’on le joue d’après telle ou telle règle parce qu’un observateur peut discerner ces règles dans la pratique du jeu"(Wittgenstein, Recherches Philosophiques, §54), c'est-à-dire que l'on ne commence pas par acquérir une morphologie et une syntaxe (sinon l'orthographe et la grammaire très générales qui sont enseignées à l'école) pour, dans un troisième et un quatrième temps, faire l'apprentissage d'une sémantique et d'une pragmatique. Dans tous les jeux de langage, nous dit Wittgenstein, "la signification d’un mot, c’est son usage dans le langage"(Wittgenstein, Recherches Philosophiques, §43). Bref, c'est la pragmatique qui commande la sémantique. Et aussi la syntaxe : "c’est seulement lorsque les hommes ont longuement pratiqué un jeu de langage que sa grammaire vient à l’existence, de même que, dans les jeux, on joue primitivement sans que les règles aient été établies"(Wittgenstein, Grammaire Philosophique, I, 26). Et même la morphologie : "dans le langage des mots, il y a un fort élément musical (un soupir, l'intonation d'une question, celle de l'annonce, celle des élans du cœur, tous les innombrables gestes de l'intonation)"(Wittgenstein, Fiches, §161). 

On pourrait objecter qu'on s'éloigne là du problème de l'"intelligence artificielle" strictement appliquée à calculer sur des systèmes formels et qu'après tout, il se pourrait bien qu'il existe au moins un jeu de langage dans lequel un calcul mène des prémisses à une conclusion à partir de considérations purement morphologiques ou syntaxiques, abstraction faite de tout aspect sémantique ou pragmatique. Or les théorèmes de Gödel ont montré qu'à partir d'un certain niveau de complexité, même l'arithmétique n'est pas seulement une affaire de calcul décidable mais nécessite des choix pragmatiques et des interprétations sémantiques. Alors, certes, il restera toujours quelques calculs élémentaires réalisables par des "machines de Turing", autrement dit des machines à calculer. Ce qui nous renvoie à la thèse de Turing qui affirme que "pour toute procédure, manipulation ou fonction d'entier que l'esprit humain peut exécuter ou calculer concrètement, effectivement, à la manière dont les mathématiciens depuis l'aube des temps appliquent des algorithmes […], il existe une machine (de Turing) capable d'exécuter cette procédure ou de calculer cette fonction"(Andler, Calcul et Représentations : les Sourcesin Introduction aux Sciences Cognitives, intro.). Or, de fait, nous savons construire des machines qui, de l'information "si p alors q" et de l'information "p", déduisent "q", de l'information "pour tout x appartenant à D, il existe un y tel que y=f(x)" et de l'information "x=a, a appartenant à D", infèrent "y=f(a)". Bref, il est tout à fait possible de construire des machines à calculer (en anglais, computers), "calculer" étant ici synonyme de "utiliser la logique propositionnelle et la logique des prédicats du premier ordre". Mais si l'on s'abaisse à ce faible niveau d'exigence pour attribuer l'"intelligence" à la machine, alors autant dire aussi que ma montre ou ma machine à laver sont "intelligentes" en ce sens (ce que, d'ailleurs, la publicité n'hésite pas à suggérer à travers l'usage très en vogue de l'adjectif "smart"). Quant à la thèse, elle aussi très en vogue, selon laquelle il n'est pas exclu qu'un ordinateur puisse "apprendre" quelque chose par lui-même exactement de la même façon qu'un être vivant (argument dit du deep learning) et, partant, qu'il puisse, dans certaines conditions, avoir accès à des considérations pragmatiques en termes de ce qui est préférable ou non pour lui, il nous semble qu'elle ne résiste pas à l'expérience de pensée dite "du cerveau dans la cuve" (the brain in a vat) de Putnam : "supposons qu'un être humain (vous pouvez supposer qu'il s'agit de vous-même) a été soumis à une opération par un savant fou. Le cerveau de la personne en question (votre cerveau) a été séparé de son corps et placé dans une cuve contenant une solution nutritive qui le maintient en vie. Les terminaisons nerveuses ont été reliées à un super-ordinateur scientifique qui procure à la personne cerveau l'illusion que tout est normal. Il semble y avoir des gens, des objets, un ciel, etc. Mais en fait tout ce que la personne (vous-même) perçoit est le résultat d'impulsions électroniques que l'ordinateur envoie aux terminaisons nerveuses"(Putnam, Raison, Vérité et Histoire, i). Cette expérience de pensée, que l'on peut rapprocher de celles dites "de la chambre de Marie" de Jackson, ou  "du zombie" de Chalmers, voire du très classique problème de Molyneux, tendent à établir qu'il n'est pas d'apprentissage possible en dehors des conditions normales, c'est-à-dire biologiquement déterminées par des fonctions sensibles naturelles. Bref, l'argument searlien dit de "la chambre chinoise" a déjà du plomb dans l'aile en ce qu'il présuppose une dissociation des quatre aspects des jeux de langage humains que nous avons examinés (morphologie, syntaxe, sémantique, pragmatique) comme quatre degrés en quelque sorte cumulatifs de perfectionnement et de complexité, alors que tout porte à croire qu'ils sont toujours donnés conjointement à qui en fait "naturellement" l'apprentissage, de sorte que ce que Searle appelle "syntaxe" du programme informatique n'est rien d'autre que la description d'une vulgaire concaténation électro-mécanique, atteignît-elle un degré de complexité inouï. 


(à suivre ...)
Revenir en haut
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum