Histoire de l’IA : Statue en ardoise du mathématicien Alan Turing à Bletchley Park Museum, Bletchley, Grande-Bretagne.

Histoire de l’IA : philosophie, épistémologie, science et fantasmes

Dossier : Intelligence artificielleMagazine N°781 Janvier 2023
Par Marie DAVID (X96)

Faire l’histoire de l’IA, c’est plus que faire de l’histoire, c’est tou­cher à la nature même de l’humain, à la nature de son intel­li­gence. Les pro­grès réa­li­sés depuis l’invention de l’intelligence arti­fi­cielle, au len­de­main de la der­nière guerre, sont à la fois spec­ta­cu­laires et frus­trants dans leurs résul­tats. L’IA n’est encore qu’au stade de l’enfance.

L’histoire de l’IA est sou­vent mal connue, peut-être parce qu’elle échappe à la phi­lo­so­phie des sciences et que ses racines remontent à celles de la phi­lo­so­phie occi­den­tale. C’est en effet Aris­tote qui, défi­nis­sant le syl­lo­gisme, se pose en père de la logique, le ter­reau de l’intelligence arti­fi­cielle. Un syl­lo­gisme part de pré­misses pour s’assurer de la véra­ci­té d’un pré­di­cat selon un rai­son­ne­ment valide. Avec le syl­lo­gisme, Aris­tote tente de doter l’esprit de règles for­melles capables de créer de la connais­sance vraie.

Le « Nul n’entre ici s’il n’est géo­mètre » de l’Académie annonce une ten­ta­tion de la phi­lo­so­phie occi­den­tale : les mathé­ma­tiques, pro­pé­deu­tiques de la phi­lo­so­phie pour Pla­ton, en consti­tue­ront tou­jours en fili­grane l’étalon et le modèle invi­sible. Peut-on don­ner à la pen­sée la même rigueur qu’aux démons­tra­tions mathé­ma­tiques et com­ment faire ? Et réci­pro­que­ment la pen­sée peut-elle être réduc­tible à une for­ma­li­sa­tion de type mathé­ma­tique ? Ces ques­tions pré­oc­cu­pe­ront les phi­lo­sophes de Des­cartes à Hobbes ou Leib­niz. La logique se for­ma­li­se­ra au XIXe siècle avec Boole et Frege, et Rus­sell et Whi­te­head, avec les Prin­ci­pia Mathe­ma­ti­ca, cher­che­ront à don­ner une nou­velle fon­da­tion – logique celle-là – aux mathématiques.


Lire aus­si : Éty­mo­lo­gie : à pro­pos de l’intelligence artificielle


L’intervention fondamentale de Gödel

Mais, para­doxa­le­ment, c’est en pul­vé­ri­sant l’espoir d’une axio­ma­ti­sa­tion par­faite des mathé­ma­tiques que le mathé­ma­ti­cien Kurt Gödel crée­ra les condi­tions de la nais­sance de l’intelligence artificielle.

Gödel démontre en effet que, pour tout sys­tème for­mel non contra­dic­toire conte­nant l’arithmétique, il existe une pro­po­si­tion vraie non démon­trable. Cela implique que les Prin­ci­pia Mathe­ma­ti­ca com­portent des pro­po­si­tions indé­ci­dables, des pro­po­si­tions que l’on peut admettre comme vraies mais que l’on ne peut ni démon­trer, ni réfuter.

Ce résul­tat est révo­lu­tion­naire. D’une part il brise l’espoir d’obtenir un sys­tème d’axiomes com­plets et consis­tants per­met­tant de fon­der les mathé­ma­tiques. Mais d’autre part c’est la tech­nique employée par Gödel qui aura une des­cen­dance féconde : Gödel code non seule­ment les for­mules par des nombres, mais aus­si les démons­tra­tions. Un nombre vaut pour sa valeur, mais aus­si pour ce à quoi il fait réfé­rence, pré­fi­gu­rant l’usage de la mémoire en infor­ma­tique, où une réfé­rence mémoire peut être uti­li­sée pour elle-même mais pointe éga­le­ment vers la valeur qu’elle contient.

Alors advint Turing

Il reste une dif­fi­cul­té : Gödel ne par­vient pas à défi­nir pré­ci­sé­ment ce qu’est un sys­tème for­mel. Com­ment défi­nir sans ambi­guï­té la façon dont un tel sys­tème fonc­tionne ? Cette ques­tion pré­oc­cupe le mathé­ma­ti­cien Alan Turing. En effet pour Leib­niz, comme pour les logi­ciens, les règles de la logique res­tent des règles abs­traites, sui­vies par l’esprit de façon implicite.

Alan Turing a l’idée d’utiliser pour une démons­tra­tion mathé­ma­tique l’artefact d’une machine, ce qui met pour la pre­mière fois les hommes en face d’une idée révo­lu­tion­naire : celle d’un rai­son­ne­ment effec­tué par un méca­nisme maté­riel. Il montre ain­si que, étant don­né une machine de Turing et un état des don­nées que lira la machine, il n’existe pas de machine de Turing per­met­tant de pré­dire si la pre­mière machine va s’arrêter ou non.

Turing par­achève ain­si ce que Gödel avait enta­mé : la mise en équi­va­lence entre un rai­son­ne­ment for­mel et un sys­tème méca­nique. Tout cal­cul que nous effec­tuons en sui­vant des règles est sus­cep­tible d’être implé­men­té sur une machine. Mais, à par­tir du moment où étant don­né une machine de Turing il n’existe pas de machine de Turing per­met­tant de pré­dire si elle va s’arrêter ou non se pose la ques­tion sui­vante : si on ne peut pas pré­voir de quoi une machine de Turing est capable, de quoi est-elle capable ?


Une autre machine de Turing

La machine de Turing dont on parle ici lit un ruban de papier, divi­sé en cases, conte­nant des sym­boles appar­te­nant à une liste finie. En fonc­tion de ce qu’elle lit et de son pro­gramme interne (qui déter­mine l’action à faire en fonc­tion de l’état de la machine et du sym­bole impri­mé), la machine peut se dépla­cer sur le ruban, impri­mer un sym­bole dans une case vide, rem­pla­cer le sym­bole d’une case pleine ou chan­ger d’état. Les sym­boles appar­tiennent à un alpha­bet fini mais le ruban, lui, est de taille infinie. 


Et McCulloch vint

Dans Com­pu­ting Machi­ne­ry and Intel­li­gence, Turing conclut ain­si qu’il est tout à fait pos­sible qu’une machine fasse preuve d’une intel­li­gence sem­blable à l’intelligence humaine. Pour Turing, il ne s’agit pas de repro­duire, il s’agit de simu­ler. Le test de Turing appe­lé Imi­ta­tion Game (mais le phi­lo­sophe John Searle cri­ti­que­ra le test de Turing par l’expérience de pen­sée dite de la chambre chi­noise, qui montre qu’une machine peut mimer l’intelligence sans pour autant faire preuve d’intelligence), qui sert encore d’étalon à la mesure d’intelligence arti­fi­cielle, pré­voit ain­si qu’un inter­lo­cu­teur humain ne puisse dis­tin­guer si son inter­lo­cu­teur est ou n’est pas une machine.

Ayant plei­ne­ment inté­gré les consé­quences des décou­vertes de Gödel et Turing, le neu­ro­logue McCul­loch est ain­si per­sua­dé d’une part que la pen­sée se réduit à des rai­son­ne­ments logiques, d’autre part que ces rai­son­ne­ments logiques sont inté­grés dans la struc­ture du cer­veau. Il y a donc une équi­va­lence entre la fonc­tion et la struc­ture : l’esprit est assi­mi­lé à une machine logique et la pen­sée peut se repré­sen­ter par des méca­nismes qui sont for­mels, mais qui ont en même temps une base maté­rielle. C’est là encore une idée révo­lu­tion­naire. Il y a donc équi­va­lence (au sens mathé­ma­tique d’une classe d’équivalence) entre les règles for­melles de la pen­sée et la struc­ture logique du cer­veau (repré­sen­tée par les neurones).

Warren McCulloch dont les travaux vont compter dans l'histoire de l'IA.
War­ren McCulloch.

Enfin en 1955 naquit l’intelligence artificielle

Les tra­vaux de McCul­loch vont ain­si ins­pi­rer les sciences cog­ni­tives nais­santes et les fon­da­teurs de l’intelligence arti­fi­cielle. En 1955, le Dar­mouth Sum­mer Research Pro­ject on Arti­fi­cial Intel­li­gence signe l’acte de nais­sance offi­ciel de l’intelligence arti­fi­cielle, qui se voit à la fois dotée d’un nom et d’un pro­gramme : doter les machines de facul­tés ana­logues à celles de l’esprit humain, entre autres uti­li­ser le lan­gage, construire des abs­trac­tions et des concepts, résoudre des pro­blèmes… Résu­mer l’histoire d’une dis­ci­pline aus­si com­plexe com­porte néces­sai­re­ment son lot d’inexactitudes.

“Les travaux de McCulloch vont ainsi inspirer les sciences cognitives naissantes et les fondateurs de l’intelligence artificielle.”

Pour sim­pli­fier, on peut dire que l’intelligence arti­fi­cielle sui­vra gros­so modo deux grandes approches. D’un côté l’approche sym­bo­lique reprend l’idée que le rai­son­ne­ment peut être modé­li­sé par un ensemble de règles logiques et qu’il suf­fit d’apprendre ces règles à la machine. Cette approche passe par deux étapes qui ont cha­cune son lot de dif­fi­cul­tés : d’une part la machine doit dis­po­ser de connais­sances sur le monde (par exemple qu’un chien est un mam­mi­fère, qu’il a quatre pattes), d’autre part elle doit savoir com­ment com­bi­ner ces connais­sances pour arri­ver à un rai­son­ne­ment. De l’autre côté l’approche connec­ti­viste, ain­si nom­mée car elle uti­lise des fonc­tions mathé­ma­tiques ins­pi­rées des neu­rones biologiques.

Ces « neu­rones » ren­voient un signal dont l’intensité dépend des inputs reçus. À son tour un neu­rone peut être connec­té à d’autres neu­rones, ce qui per­met d’amplifier ou d’atténuer le signal. Les méthodes dites connec­ti­vistes reposent sur des méthodes d’apprentissages sta­tis­tiques très variées – en anglais machine lear­ning –, dont les réseaux neu­ro­naux ne sont qu’une sous-famille. Il s’agit d’optimiser les para­mètres d’une fonc­tion plus ou moins com­plexe, afin de mini­mi­ser une fonc­tion d’erreur sur les don­nées d’observation. Une fois cette fonc­tion opti­male obte­nue, on l’applique à de nou­velles obser­va­tions, ce qui per­met de répli­quer l’apprentissage fait sur les don­nées d’entraînement. Toute la dif­fi­cul­té d’utilisation de ces modèles revien­dra à avoir des don­nées d’entraînement suf­fi­sam­ment détaillées et géné­riques à la fois, pour que le modèle puisse se géné­ra­li­ser à de nou­velles données.

Des résultats décevants, une mise en sommeil et un réveil récent

Dans les années 50 et 60, les cher­cheurs se concentrent ain­si sur des tâches pré­cises : résoudre des énigmes, jouer à des jeux codi­fiés (comme les échecs ou les dames), recon­naître des images ou des lettres, répondre à des ques­tions. L’approche dite sym­bo­lique reste majo­ri­taire, même si les pre­miers modèles de réseaux de neu­rones appa­raissent, expé­ri­men­tés notam­ment par Frank Rosen­blatt et son per­cep­tron. Alors qu’elle est flo­ris­sante durant deux décen­nies, la recherche en intel­li­gence arti­fi­cielle ralen­tit for­te­ment dans les années 70. 

Les résul­tats obte­nus sont déce­vants, les finan­ce­ments se tarissent. Après un hiver qui dure­ra trente ans, l’intelligence arti­fi­cielle revient sur le devant de la scène dans les années 2010, avec un retour en force des modèles dits de machine lear­ning. Les pro­grès des années 2000 à 2010 n’ont en aucun cas consti­tué une révo­lu­tion, tout au plus une opti­mi­sa­tion d’algorithmes exis­tants. Sim­ple­ment le déve­lop­pe­ment d’internet a per­mis la consti­tu­tion d’immenses bases de don­nées, per­met­tant un meilleur entraî­ne­ment des modèles. 

La baisse du coup du cal­cul, du sto­ckage et de la mémoire a fait le reste, per­met­tant enfin aux modèles sta­tis­tiques d’atteindre des per­for­mances satis­fai­santes, impres­sion­nantes, grâce notam­ment à l’utilisation de pro­ces­seurs gra­phiques (GPU). Les suc­cès de l’intelligence arti­fi­cielle ont été aus­si nom­breux que média­ti­sés, de Alpha­Go aux récents modèles GPT‑3 ou DALL‑E. Mais cela a eu un effet per­vers : celui de dis­cré­di­ter com­plè­te­ment l’intelligence arti­fi­cielle sym­bo­lique, par assè­che­ment des financements. 

Changer de modèle ? 

Mal­gré les pro­grès ful­gu­rants obte­nus, les algo­rithmes actuels res­tent cepen­dant extrê­me­ment loin d’une intel­li­gence arti­fi­cielle com­pa­rable à la pen­sée humaine. Ils sont per­for­mants sur des tâches très spé­cia­li­sées sur les­quelles ils ont été entraî­nés, mais il est encore dif­fi­cile de se pas­ser de super­vi­sion humaine dans de nom­breux cas (la détec­tion de conte­nus pro­blé­ma­tiques sur les réseaux sociaux par exemple). Des attaques célèbres ont éga­le­ment mon­tré les fai­blesses de modèles de recon­nais­sance visuelle. Le cher­cheur Gary Mar­cus reproche ain­si à la recherche en intel­li­gence arti­fi­cielle de se limi­ter à l’utilisation des modèles de machine lear­ning.

Pour Gary Mar­cus, ils sont bons pour faire de l’interpolation et non de l’extrapolation, c’est-à-dire que leur « connais­sance » est limi­tée à l’ensemble des don­nées sur les­quelles ils ont été entraî­nés. Il montre qu’il est par exemple extrê­me­ment dif­fi­cile à un tel algo­rithme de recon­naître la fonc­tion iden­ti­té, alors qu’un enfant devi­ne­ra aisé­ment la suite de f(1)=1, f(2)=2, f(3)=3… Par ailleurs, il leur manque un sys­tème de repré­sen­ta­tion, ce que nous appe­lons le sens com­mun, un réseau de connais­sance per­met­tant de lier des concepts.

Ces modèles détectent des cor­ré­la­tions, mais ils ne com­prennent pas la façon dont le monde fonc­tionne de façon fon­da­men­tale. Ain­si le modèle GPT‑3 donne l’illusion qu’il maî­trise le lan­gage natu­rel, mais il ne le com­prend pas en réa­li­té. Il ne fait que repro­duire des occur­rences sta­tis­tiques pré­sentes dans des cor­pus. Pour Gary Mar­cus, il faut reve­nir à l’intelligence arti­fi­cielle sym­bo­lique et construire des modèles hybrides qui seuls pour­ront dépas­ser les limites des modèles actuels de deep lear­ning.

Changer carrément de paradigme ? 

Le phi­lo­sophe Hubert Drey­fus, lui, cri­tique de façon plus fon­da­men­tale la façon dont l’intelligence arti­fi­cielle a été déve­lop­pée. Pour lui, la théo­rie de l’intelligence arti­fi­cielle repose sur une vision dua­liste – héri­tée de Des­cartes – d’un intel­lect dis­tinct du corps, dont le fonc­tion­ne­ment serait indé­pen­dant de celui du corps. Pour cette tra­di­tion phi­lo­so­phique, l’esprit reçoit pas­si­ve­ment des élé­ments de l’extérieur et les trie ensuite.

Cette repré­sen­ta­tion phi­lo­so­phique qui assi­mile l’esprit à une machine de Turing, qui trai­te­rait des don­nées issues des sens ou de nos repré­sen­ta­tions internes, pour répondre par des influx ner­veux, manque la vraie nature de l’intelligence qui est d’être incar­née. Drey­fus se réfère ain­si au phi­lo­sophe Mer­leau-Pon­ty pour qui la per­cep­tion est une expé­rience active, dans laquelle le corps est enga­gé, et non le résul­tat d’un trai­te­ment d’information sépa­rée de toute incar­na­tion cor­po­relle. Cette concep­tion de l’intelligence est repré­sen­tée par un cou­rant des sciences cog­ni­tives dites de l’embo­died cog­ni­tion (dont les repré­sen­tants sont Fran­cis­co Vare­la, Evan Thomp­son et Elea­nor Rosch), qui conçoit la cog­ni­tion comme le résul­tat de l’activité d’un corps en rap­port per­ma­nent avec son environnement.

“Jamais les réalisations de l’intelligence artificielle n’ont été aussi impressionnantes, mais jamais l’écart avec la pensée humaine n’a été aussi prononcé.”

C’est bien parce que nous sommes avant tout des êtres vivants, en per­ma­nence en mou­ve­ment et en inter­ac­tion avec notre envi­ron­ne­ment phy­sique, que notre intel­li­gence s’est déve­lop­pée. L’esprit devient alors un attri­but du corps, son pro­lon­ge­ment, en aucun cas une fonc­tion­na­li­té dis­tincte. En par­ti­cu­lier l’intelligence ne peut se déve­lop­per que dans un corps en contact avec l’extérieur, qui inter­agit avec son envi­ron­ne­ment. Il fau­drait dans ce cas chan­ger tota­le­ment de para­digme de l’intelligence arti­fi­cielle. L’intelligence arti­fi­cielle appa­raît ain­si comme une science encore dans son enfance, jamais les réa­li­sa­tions de l’intelligence arti­fi­cielle n’ont été aus­si impres­sion­nantes (que l’on pense à DALL‑E ou GPT‑3), mais jamais l’écart avec la pen­sée humaine n’a été aus­si pro­non­cé, et avec lui l’espoir qu’on par­vienne à le combler.


Image de cou­ver­ture : Sta­tue en ardoise du mathé­ma­ti­cien Alan Turing à Blet­chley Park Museum, Blet­chley, Grande-Bre­tagne. © lenscap50 / Adobe Stock

Commentaire

Ajouter un commentaire

Pierre Bou­dierrépondre
20 janvier 2023 à 14 h 36 min

la rai­son prin­ci­pale que les IAs d’au­jourd’­hui ne sont pas entraî­nées dans le monde réel au tra­vers d’in­te­rac­tions est qu’une simu­la­tion vir­tuelle est plus rapide de plu­sieurs ordres de gran­deur. La stra­té­gie actuelle est de pro­gres­ser en amé­lio­rant les méca­nismes fon­da­men­taux : repré­sen­ta­tion opti­male (dense, hiea­rar­chique, …) dans les espaces latents, et tech­nique plus effi­ciente d’ap­pren­tis­sage. chatGPT uti­lise déja « Rein­for­ce­ment Lear­ning from Human Feed­back », qui est une forme d’in­te­rac­tion avec le monde extérieur.

Répondre