Histoire de l’IA : Statue en ardoise du mathématicien Alan Turing à Bletchley Park Museum, Bletchley, Grande-Bretagne.

Histoire de l’IA : philosophie, épistémologie, science et fantasmes

Dossier : Intelligence artificielleMagazine N°781 Janvier 2023
Par Marie DAVID (X96)

Faire l’histoire de l’IA, c’est plus que faire de l’histoire, c’est touch­er à la nature même de l’humain, à la nature de son intel­li­gence. Les pro­grès réal­isés depuis l’invention de l’intelligence arti­fi­cielle, au lende­main de la dernière guerre, sont à la fois spec­tac­u­laires et frus­trants dans leurs résul­tats. L’IA n’est encore qu’au stade de l’enfance.

L’histoire de l’IA est sou­vent mal con­nue, peut-être parce qu’elle échappe à la philoso­phie des sci­ences et que ses racines remon­tent à celles de la philoso­phie occi­den­tale. C’est en effet Aris­tote qui, définis­sant le syl­lo­gisme, se pose en père de la logique, le ter­reau de l’intelligence arti­fi­cielle. Un syl­lo­gisme part de prémiss­es pour s’assurer de la vérac­ité d’un prédi­cat selon un raison­nement valide. Avec le syl­lo­gisme, Aris­tote tente de dot­er l’esprit de règles formelles capa­bles de créer de la con­nais­sance vraie.

Le « Nul n’entre ici s’il n’est géomètre » de l’Académie annonce une ten­ta­tion de la philoso­phie occi­den­tale : les math­é­ma­tiques, propédeu­tiques de la philoso­phie pour Pla­ton, en con­stitueront tou­jours en fil­igrane l’étalon et le mod­èle invis­i­ble. Peut-on don­ner à la pen­sée la même rigueur qu’aux démon­stra­tions math­é­ma­tiques et com­ment faire ? Et récipro­que­ment la pen­sée peut-elle être réductible à une for­mal­i­sa­tion de type math­é­ma­tique ? Ces ques­tions préoc­cu­per­ont les philosophes de Descartes à Hobbes ou Leib­niz. La logique se for­malis­era au XIXe siè­cle avec Boole et Frege, et Rus­sell et White­head, avec les Prin­cip­ia Math­e­mat­i­ca, chercheront à don­ner une nou­velle fon­da­tion – logique celle-là – aux mathématiques.


Lire aus­si : Éty­molo­gie : à pro­pos de l’intelligence artificielle


L’intervention fondamentale de Gödel

Mais, para­doxale­ment, c’est en pul­vérisant l’espoir d’une axioma­ti­sa­tion par­faite des math­é­ma­tiques que le math­é­mati­cien Kurt Gödel créera les con­di­tions de la nais­sance de l’intelligence artificielle.

Gödel démon­tre en effet que, pour tout sys­tème formel non con­tra­dic­toire con­tenant l’arithmétique, il existe une propo­si­tion vraie non démon­tra­ble. Cela implique que les Prin­cip­ia Math­e­mat­i­ca com­por­tent des propo­si­tions indé­cid­ables, des propo­si­tions que l’on peut admet­tre comme vraies mais que l’on ne peut ni démon­tr­er, ni réfuter.

Ce résul­tat est révo­lu­tion­naire. D’une part il brise l’espoir d’obtenir un sys­tème d’axiomes com­plets et con­sis­tants per­me­t­tant de fonder les math­é­ma­tiques. Mais d’autre part c’est la tech­nique employée par Gödel qui aura une descen­dance féconde : Gödel code non seule­ment les for­mules par des nom­bres, mais aus­si les démon­stra­tions. Un nom­bre vaut pour sa valeur, mais aus­si pour ce à quoi il fait référence, pré­fig­u­rant l’usage de la mémoire en infor­ma­tique, où une référence mémoire peut être util­isée pour elle-même mais pointe égale­ment vers la valeur qu’elle contient.

Alors advint Turing

Il reste une dif­fi­culté : Gödel ne parvient pas à définir pré­cisé­ment ce qu’est un sys­tème formel. Com­ment définir sans ambiguïté la façon dont un tel sys­tème fonc­tionne ? Cette ques­tion préoc­cupe le math­é­mati­cien Alan Tur­ing. En effet pour Leib­niz, comme pour les logi­ciens, les règles de la logique restent des règles abstraites, suiv­ies par l’esprit de façon implicite.

Alan Tur­ing a l’idée d’utiliser pour une démon­stra­tion math­é­ma­tique l’artefact d’une machine, ce qui met pour la pre­mière fois les hommes en face d’une idée révo­lu­tion­naire : celle d’un raison­nement effec­tué par un mécan­isme matériel. Il mon­tre ain­si que, étant don­né une machine de Tur­ing et un état des don­nées que lira la machine, il n’existe pas de machine de Tur­ing per­me­t­tant de prédire si la pre­mière machine va s’arrêter ou non.

Tur­ing parachève ain­si ce que Gödel avait entamé : la mise en équiv­a­lence entre un raison­nement formel et un sys­tème mécanique. Tout cal­cul que nous effec­tuons en suiv­ant des règles est sus­cep­ti­ble d’être implé­men­té sur une machine. Mais, à par­tir du moment où étant don­né une machine de Tur­ing il n’existe pas de machine de Tur­ing per­me­t­tant de prédire si elle va s’arrêter ou non se pose la ques­tion suiv­ante : si on ne peut pas prévoir de quoi une machine de Tur­ing est capa­ble, de quoi est-elle capable ?


Une autre machine de Turing

La machine de Tur­ing dont on par­le ici lit un ruban de papi­er, divisé en cas­es, con­tenant des sym­bol­es appar­tenant à une liste finie. En fonc­tion de ce qu’elle lit et de son pro­gramme interne (qui déter­mine l’action à faire en fonc­tion de l’état de la machine et du sym­bole imprimé), la machine peut se déplac­er sur le ruban, imprimer un sym­bole dans une case vide, rem­plac­er le sym­bole d’une case pleine ou chang­er d’état. Les sym­bol­es appar­ti­en­nent à un alpha­bet fini mais le ruban, lui, est de taille infinie. 


Et McCulloch vint

Dans Com­put­ing Machin­ery and Intel­li­gence, Tur­ing con­clut ain­si qu’il est tout à fait pos­si­ble qu’une machine fasse preuve d’une intel­li­gence sem­blable à l’intelligence humaine. Pour Tur­ing, il ne s’agit pas de repro­duire, il s’agit de simuler. Le test de Tur­ing appelé Imi­ta­tion Game (mais le philosophe John Sear­le cri­ti­quera le test de Tur­ing par l’expérience de pen­sée dite de la cham­bre chi­noise, qui mon­tre qu’une machine peut mimer l’intelligence sans pour autant faire preuve d’intelligence), qui sert encore d’étalon à la mesure d’intelligence arti­fi­cielle, prévoit ain­si qu’un inter­locu­teur humain ne puisse dis­tinguer si son inter­locu­teur est ou n’est pas une machine.

Ayant pleine­ment inté­gré les con­séquences des décou­vertes de Gödel et Tur­ing, le neu­ro­logue McCul­loch est ain­si per­suadé d’une part que la pen­sée se réduit à des raison­nements logiques, d’autre part que ces raison­nements logiques sont inté­grés dans la struc­ture du cerveau. Il y a donc une équiv­a­lence entre la fonc­tion et la struc­ture : l’esprit est assim­ilé à une machine logique et la pen­sée peut se représen­ter par des mécan­ismes qui sont formels, mais qui ont en même temps une base matérielle. C’est là encore une idée révo­lu­tion­naire. Il y a donc équiv­a­lence (au sens math­é­ma­tique d’une classe d’équivalence) entre les règles formelles de la pen­sée et la struc­ture logique du cerveau (représen­tée par les neurones).

Warren McCulloch dont les travaux vont compter dans l'histoire de l'IA.
War­ren McCulloch.

Enfin en 1955 naquit l’intelligence artificielle

Les travaux de McCul­loch vont ain­si inspir­er les sci­ences cog­ni­tives nais­santes et les fon­da­teurs de l’intelligence arti­fi­cielle. En 1955, le Dar­mouth Sum­mer Research Project on Arti­fi­cial Intel­li­gence signe l’acte de nais­sance offi­ciel de l’intelligence arti­fi­cielle, qui se voit à la fois dotée d’un nom et d’un pro­gramme : dot­er les machines de fac­ultés ana­logues à celles de l’esprit humain, entre autres utilis­er le lan­gage, con­stru­ire des abstrac­tions et des con­cepts, résoudre des prob­lèmes… Résumer l’histoire d’une dis­ci­pline aus­si com­plexe com­porte néces­saire­ment son lot d’inexactitudes.

“Les travaux de McCulloch vont ainsi inspirer les sciences cognitives naissantes et les fondateurs de l’intelligence artificielle.”

Pour sim­pli­fi­er, on peut dire que l’intelligence arti­fi­cielle suiv­ra grosso modo deux grandes approches. D’un côté l’approche sym­bol­ique reprend l’idée que le raison­nement peut être mod­élisé par un ensem­ble de règles logiques et qu’il suf­fit d’apprendre ces règles à la machine. Cette approche passe par deux étapes qui ont cha­cune son lot de dif­fi­cultés : d’une part la machine doit dis­pos­er de con­nais­sances sur le monde (par exem­ple qu’un chien est un mam­mifère, qu’il a qua­tre pattes), d’autre part elle doit savoir com­ment com­bin­er ces con­nais­sances pour arriv­er à un raison­nement. De l’autre côté l’approche con­nec­tiviste, ain­si nom­mée car elle utilise des fonc­tions math­é­ma­tiques inspirées des neu­rones biologiques.

Ces « neu­rones » ren­voient un sig­nal dont l’intensité dépend des inputs reçus. À son tour un neu­rone peut être con­nec­té à d’autres neu­rones, ce qui per­met d’amplifier ou d’atténuer le sig­nal. Les méth­odes dites con­nec­tivistes reposent sur des méth­odes d’apprentissages sta­tis­tiques très var­iées – en anglais machine learn­ing –, dont les réseaux neu­ronaux ne sont qu’une sous-famille. Il s’agit d’optimiser les paramètres d’une fonc­tion plus ou moins com­plexe, afin de min­imiser une fonc­tion d’erreur sur les don­nées d’observation. Une fois cette fonc­tion opti­male obtenue, on l’applique à de nou­velles obser­va­tions, ce qui per­met de répli­quer l’apprentissage fait sur les don­nées d’entraînement. Toute la dif­fi­culté d’utilisation de ces mod­èles revien­dra à avoir des don­nées d’entraînement suff­isam­ment détail­lées et génériques à la fois, pour que le mod­èle puisse se généralis­er à de nou­velles données.

Des résultats décevants, une mise en sommeil et un réveil récent

Dans les années 50 et 60, les chercheurs se con­cen­trent ain­si sur des tâch­es pré­cis­es : résoudre des énigmes, jouer à des jeux cod­i­fiés (comme les échecs ou les dames), recon­naître des images ou des let­tres, répon­dre à des ques­tions. L’approche dite sym­bol­ique reste majori­taire, même si les pre­miers mod­èles de réseaux de neu­rones appa­rais­sent, expéri­men­tés notam­ment par Frank Rosen­blatt et son per­cep­tron. Alors qu’elle est floris­sante durant deux décen­nies, la recherche en intel­li­gence arti­fi­cielle ralen­tit forte­ment dans les années 70. 

Les résul­tats obtenus sont déce­vants, les finance­ments se taris­sent. Après un hiv­er qui dur­era trente ans, l’intelligence arti­fi­cielle revient sur le devant de la scène dans les années 2010, avec un retour en force des mod­èles dits de machine learn­ing. Les pro­grès des années 2000 à 2010 n’ont en aucun cas con­sti­tué une révo­lu­tion, tout au plus une opti­mi­sa­tion d’algorithmes exis­tants. Sim­ple­ment le développe­ment d’internet a per­mis la con­sti­tu­tion d’immenses bases de don­nées, per­me­t­tant un meilleur entraîne­ment des modèles. 

La baisse du coup du cal­cul, du stock­age et de la mémoire a fait le reste, per­me­t­tant enfin aux mod­èles sta­tis­tiques d’atteindre des per­for­mances sat­is­faisantes, impres­sion­nantes, grâce notam­ment à l’utilisation de processeurs graphiques (GPU). Les suc­cès de l’intelligence arti­fi­cielle ont été aus­si nom­breux que médi­atisés, de Alpha­Go aux récents mod­èles GPT‑3 ou DALL‑E. Mais cela a eu un effet per­vers : celui de dis­créditer com­plète­ment l’intelligence arti­fi­cielle sym­bol­ique, par assèche­ment des financements. 

Changer de modèle ? 

Mal­gré les pro­grès ful­gu­rants obtenus, les algo­rithmes actuels restent cepen­dant extrême­ment loin d’une intel­li­gence arti­fi­cielle com­pa­ra­ble à la pen­sée humaine. Ils sont per­for­mants sur des tâch­es très spé­cial­isées sur lesquelles ils ont été entraînés, mais il est encore dif­fi­cile de se pass­er de super­vi­sion humaine dans de nom­breux cas (la détec­tion de con­tenus prob­lé­ma­tiques sur les réseaux soci­aux par exem­ple). Des attaques célèbres ont égale­ment mon­tré les faib­less­es de mod­èles de recon­nais­sance visuelle. Le chercheur Gary Mar­cus reproche ain­si à la recherche en intel­li­gence arti­fi­cielle de se lim­iter à l’utilisation des mod­èles de machine learn­ing.

Pour Gary Mar­cus, ils sont bons pour faire de l’interpolation et non de l’extrapolation, c’est-à-dire que leur « con­nais­sance » est lim­itée à l’ensemble des don­nées sur lesquelles ils ont été entraînés. Il mon­tre qu’il est par exem­ple extrême­ment dif­fi­cile à un tel algo­rithme de recon­naître la fonc­tion iden­tité, alors qu’un enfant devin­era aisé­ment la suite de f(1)=1, f(2)=2, f(3)=3… Par ailleurs, il leur manque un sys­tème de représen­ta­tion, ce que nous appelons le sens com­mun, un réseau de con­nais­sance per­me­t­tant de lier des concepts.

Ces mod­èles détectent des cor­réla­tions, mais ils ne com­pren­nent pas la façon dont le monde fonc­tionne de façon fon­da­men­tale. Ain­si le mod­èle GPT‑3 donne l’illusion qu’il maîtrise le lan­gage naturel, mais il ne le com­prend pas en réal­ité. Il ne fait que repro­duire des occur­rences sta­tis­tiques présentes dans des cor­pus. Pour Gary Mar­cus, il faut revenir à l’intelligence arti­fi­cielle sym­bol­ique et con­stru­ire des mod­èles hybrides qui seuls pour­ront dépass­er les lim­ites des mod­èles actuels de deep learn­ing.

Changer carrément de paradigme ? 

Le philosophe Hubert Drey­fus, lui, cri­tique de façon plus fon­da­men­tale la façon dont l’intelligence arti­fi­cielle a été dévelop­pée. Pour lui, la théorie de l’intelligence arti­fi­cielle repose sur une vision dual­iste – héritée de Descartes – d’un intel­lect dis­tinct du corps, dont le fonc­tion­nement serait indépen­dant de celui du corps. Pour cette tra­di­tion philosophique, l’esprit reçoit pas­sive­ment des élé­ments de l’extérieur et les trie ensuite.

Cette représen­ta­tion philosophique qui assim­i­le l’esprit à une machine de Tur­ing, qui trait­erait des don­nées issues des sens ou de nos représen­ta­tions internes, pour répon­dre par des influx nerveux, manque la vraie nature de l’intelligence qui est d’être incar­née. Drey­fus se réfère ain­si au philosophe Mer­leau-Pon­ty pour qui la per­cep­tion est une expéri­ence active, dans laque­lle le corps est engagé, et non le résul­tat d’un traite­ment d’information séparée de toute incar­na­tion cor­porelle. Cette con­cep­tion de l’intelligence est représen­tée par un courant des sci­ences cog­ni­tives dites de l’embod­ied cog­ni­tion (dont les représen­tants sont Fran­cis­co Varela, Evan Thomp­son et Eleanor Rosch), qui conçoit la cog­ni­tion comme le résul­tat de l’activité d’un corps en rap­port per­ma­nent avec son environnement.

“Jamais les réalisations de l’intelligence artificielle n’ont été aussi impressionnantes, mais jamais l’écart avec la pensée humaine n’a été aussi prononcé.”

C’est bien parce que nous sommes avant tout des êtres vivants, en per­ma­nence en mou­ve­ment et en inter­ac­tion avec notre envi­ron­nement physique, que notre intel­li­gence s’est dévelop­pée. L’esprit devient alors un attrib­ut du corps, son pro­longe­ment, en aucun cas une fonc­tion­nal­ité dis­tincte. En par­ti­c­uli­er l’intelligence ne peut se dévelop­per que dans un corps en con­tact avec l’extérieur, qui inter­ag­it avec son envi­ron­nement. Il faudrait dans ce cas chang­er totale­ment de par­a­digme de l’intelligence arti­fi­cielle. L’intelligence arti­fi­cielle appa­raît ain­si comme une sci­ence encore dans son enfance, jamais les réal­i­sa­tions de l’intelligence arti­fi­cielle n’ont été aus­si impres­sion­nantes (que l’on pense à DALL‑E ou GPT‑3), mais jamais l’écart avec la pen­sée humaine n’a été aus­si pronon­cé, et avec lui l’espoir qu’on parvi­enne à le combler.


Image de cou­ver­ture : Stat­ue en ardoise du math­é­mati­cien Alan Tur­ing à Bletch­ley Park Muse­um, Bletch­ley, Grande-Bre­tagne. © lenscap50 / Adobe Stock

Commentaire

Ajouter un commentaire

Pierre Boudi­errépondre
20 janvier 2023 à 14 h 36 min

la rai­son prin­ci­pale que les IAs d’au­jour­d’hui ne sont pas entraînées dans le monde réel au tra­vers d’in­ter­ac­tions est qu’une sim­u­la­tion virtuelle est plus rapi­de de plusieurs ordres de grandeur. La stratégie actuelle est de pro­gress­er en amélio­rant les mécan­ismes fon­da­men­taux : représen­ta­tion opti­male (dense, hiear­ar­chique, …) dans les espaces latents, et tech­nique plus effi­ciente d’ap­pren­tis­sage. chat­G­PT utilise déja “Rein­force­ment Learn­ing from Human Feed­back”, qui est une forme d’in­ter­ac­tion avec le monde extérieur.

Répondre