Intelligence artificielle (IA)

Pour une IA responsable

Dossier : ExpressionsMagazine N°753 Mars 2020
Par David CORTÉS (97)

Il y a vingt ans, Pierre-Gilles de Gennes présen­tait ses travaux nova­teurs sur les cristaux liq­uides à tra­vers la France et con­seil­lait à son pub­lic, sou­vent réfrac­taire à l’étude de la chimie, de s’essayer à la lec­ture du livre Le Sys­tème péri­odique de Pri­mo Levi, col­lec­tion de réc­its, cha­cun inspiré d’un épisode auto­bi­ographique et d’un élé­ment du tableau de Mendeleïev. Cette invi­ta­tion à faire se crois­er dif­férents regards, et à éclair­er les uns par les autres, vaut plus que jamais : con­vi­er lit­téra­ture, sci­ences math­é­ma­tiques, soci­olo­gie me sem­ble bien­venu pour mieux saisir les enjeux de l’« IA ».

La recherche con­cer­nant l’« Intel­li­gence arti­fi­cielle (IA) » trou­ve son orig­ine dans la con­férence de Dart­mouth en 1956, organ­isée prin­ci­pale­ment par John McCarthy et Mar­vin Min­sky. Elle est le pro­longe­ment direct de mou­ve­ments plus anciens, tels que la cyberné­tique de Nor­bert Wiener dévelop­pée dès 1947.

Dès 1956 : logique formelle et apprentissage machine

Les tech­nolo­gies présen­tées lors de cette con­férence ont cepen­dant fait date : dès 1956 l’algorithme de preuve formelle, per­me­t­tant à des machines de démon­tr­er cer­tains résul­tats math­é­ma­tiques ; et un embry­on algo­rith­mique de machines expertes au jeu des échecs. Puis en 1957 le per­cep­tron de Frank Rosen­blatt, élé­ment con­sti­tu­tif des réseaux de neu­rones arti­fi­ciels actuels. Ce dernier intro­duit en pio­nnier un con­cept majeur car, si les pre­miers algo­rithmes par­taient d’une approche déduc­tive (= par­tir de règles et prédire), ce dernier appelle une approche induc­tive (= par­tir des résul­tats et bâtir un sys­tème de pré­dic­tion) ren­due pos­si­ble par un sys­tème d’inspiration bio­mimé­tique. La machine doit donc « appren­dre » mais, fait déroutant, sans même… com­pren­dre, ni pou­voir expliciter son cheminement.

« L’IA » serait ain­si une nou­velle impul­sion don­née à la fois aux sci­ences cog­ni­tives et à cer­tains sys­tèmes infor­ma­tiques afin « d’émuler » les capac­ités men­tales humaines. L’« IA » n’est donc pas une tech­nolo­gie, mais un champ de recherche qui vise en asymp­tote, loin­taine, la recréa­tion d’une véri­ta­ble « intel­li­gence humaine sur des sub­strats arti­fi­ciels », var­iés. Les sys­tèmes actuels, s’ils excel­lent sur cer­taines appli­ca­tions de per­cep­tion, sont loin d’atteindre encore cet objectif.

Intelligence humaine ? l’IA actuelle est plutôt une « intuition artificielle »

L’intelligence humaine était vue par les infor­mati­ciens et math­é­mati­ciens de Dar­mouth dans un con­tin­u­um de pen­sée entre ratio­nal­isme et empirisme. Stéphane Mal­lat rap­pelle dans les leçons au Col­lège de France que les approches de l’intelligence (inter-leg­ere, « choisir entre ») évolu­ent sans chronolo­gie depuis la pure spécu­la­tion abstraite jusqu’à l’apprentissage au plus près de l’expérience. L’intelligence humaine est à con­sid­ér­er non seule­ment comme innée, struc­turelle et pure­ment logique, mais égale­ment comme large­ment con­stru­ite, définie par un long proces­sus d’apprentissages suc­ces­sifs nour­ri des cor­réla­tions observées lors de mul­ti­ples expéri­ences comparables.

Le terme d’intelligence est donc actuelle­ment ambigu et sou­vent abusif. Ambigu, car en France, pays au cartésian­isme encore tri­om­phant, l’intelligence est vue prin­ci­pale­ment comme math­é­ma­tique, déduc­tive, causale… beau­coup plus que dans des cul­tures, anglo-sax­onnes par exem­ple, priv­ilé­giant l’empirisme, l’intuition. Abusif, car tout d’abord, comme le rap­pelle Yann Le Cun, le champ cog­ni­tif cou­vert par les « intel­li­gences arti­fi­cielles » actuelles reste extrême­ment étroit : le plus puis­sant des super­cal­cu­la­teurs cou­plé aux algo­rithmes les plus inno­vants est très loin de savoir traiter « autant de prob­lèmes que ne le fait le cerveau même d’un rat ».

Ensuite, parce que ces « intel­li­gences » nou­velles appren­nent des don­nées, mais… sans nous don­ner en retour de règles explicites. Les sys­tèmes de réseaux de neu­rones actuels sont con­sti­tués de gigan­tesques matri­ces de chiffres. Les « règles » appris­es par ces sys­tèmes sont dis­tribuées dans l’ensemble des nœuds du réseau neu­ronal et ses mil­lions de paramètres. Elles sont donc opaques par con­struc­tion : de même que ce n’est pas en étu­di­ant une image d’IRM, fût-elle prise à la gran­u­lar­ité des neu­rones activés ou inhibés (~80 mil­liards dans un cerveau humain), que nous accéderons à l’instantané d’un raison­nement ou à la per­son­nal­ité d’un patient.

Ces « intel­li­gences » sont large­ment ain­si… des intu­itions. Leur deman­der de nous expli­quer leur fonc­tion­nement sup­poserait d’elles à l’heure actuelle un effort d’introspection que leur principe de con­struc­tion rend par­ti­c­ulière­ment dif­fi­cile à réaliser.

L’IA, nouvel « or noir » : parachèvement d’une tendance biséculaire d’automatisation

Con­séquence de l’engouement pour l’IA, sont apparues de très nom­breuses études anx­iogènes liées à l’automatisation : « Quelles pro­fes­sions sont les plus men­acées, en fonc­tion du secteur, ou de la plus ou moin­dre grande répéti­tiv­ité des tâch­es, du pays, etc. Serai-je touché moi aus­si ? » Si ces refrains lanci­nants sont en fait con­nus depuis plus de deux siè­cles, et les lud­dites de 1811 en Angleterre ou les canuts lyon­nais, l’IA me sem­ble toute­fois porter en soi, con­ceptuelle­ment, de quoi men­er le phénomène d’automatisation à son terme. 

En 1958, soit deux ans après la con­férence de Dart­mouth, Han­nah Arendt pro­po­sait dans Con­di­tion de l’homme mod­erne un regard philo­soph­ico-his­torique, notam­ment sur le tra­vail, qui fit date. Elle rap­pelle tout d’abord la hiérar­chie des valeurs tacite­ment admise par l’Occident depuis Aris­tote, plaçant tout en haut les actions non néces­saires à la survie… action poli­tique, philoso­phie, con­tem­pla­tion (theo­ria) et en sec­ond plan les tâch­es que l’on défini­rait actuelle­ment comme celles du bas de la pyra­mide de Maslow. Les deux derniers siè­cles ont vu l’automatisation crois­sante de ces dernières (agri­cul­ture, com­merce…) grâce à l’exploitation con­juguée des ressources naturelles : matières pre­mières et éner­gies. L’IA se pro­pose d’achever le mou­ve­ment et de nous débar­rass­er, égale­ment, à terme du souci des tâch­es cognitives.

Impact en retour sur l’intelligence humaine ?

Georges Bernanos (dans La France con­tre les robots, 1947, notam­ment) anticipe les effets du machin­isme sur la « matière humaine » même et, par là, sur les organ­i­sa­tions poli­tiques et économiques. C’est une préoc­cu­pa­tion proche des intu­itions de Mar­shall McLuhan (dévelop­pées dans La Galax­ie Guten­berg, 1962), qui soute­nait que le média lui-même influ­ençait l’homme, et pas seule­ment le mes­sage qu’il véhic­u­lait. Ain­si, par exem­ple, l’homme de tra­di­tion orale sur­développe une hyper­mnésie. Dit autrement : si l’apprentissage manuel s’amenuise par l’automatisation, puis si l’apprentissage cog­ni­tif est réduit par l’IA, quel pour­rait être l’impact sur la for­ma­tion de l’intelligence humaine ? quel sera « l’Homme de l’IA » ?

Tout d’abord une bonne nou­velle : les prophètes d’apocalypse faisant leur fonds de com­merce d’une sépa­ra­tion entre élite maîtrisant et util­isant les IA et le reste de l’humanité ont cer­taine­ment tort, pour deux raisons. D’une part, l’automatisation des tâch­es touchera à terme toute la pop­u­la­tion, quelle que soit la « noblesse » perçue des tâch­es qui lui incom­baient aupar­a­vant (ter­ti­aire inclus). D’autre part, même les plus experts en IA, leurs con­cep­teurs, sont et seront tou­jours plus inca­pables de com­pren­dre eux-mêmes les sys­tèmes qu’ils auront créés, du fait de la com­plex­ité con­juguée des don­nées et des algo­rithmes (ex. de l’ordre de 100 mil­lions de paramètres pour les sys­tèmes de recon­nais­sance d’images), et de l’empilement algo­rith­mique (sys­tème de systèmes).

“L’IA actuelle est celle de l’apprentissage machine.”

Intelligence artificielle oui, mais collective

Si les promess­es de véri­ta­ble intel­li­gence arti­fi­cielle indi­vidu­elle ren­voient à un hori­zon encore loin­tain, les formes d’intelligence arti­fi­cielle col­lec­tive por­tent d’ores et déjà le plus de fruits.

L’accroissement de pré­ci­sion d’IA indi­vidu­elle via la prise en compte de beau­coup plus de fac­teurs pré­dic­tifs que ne peut le faire un cerveau humain con­tribue para­doxale­ment à certes ren­forcer la qual­ité des pré­dic­tions, mais dans le même temps réduit la var­iété des prévi­sions possibles.

Or cette réduc­tion de diver­sité a égale­ment pour effet d’amoindrir la qual­ité des intel­li­gences col­lec­tives. Émile Ser­van-Schreiber rap­pelle que par exem­ple le phénomène de sagesse des foules ne fonc­tionne que si la diver­sité des biais de cha­cun est suff­isante pour que l’effet de moyenne sur le grand nom­bre per­me­tte une pré­dic­tion effi­cace. Les formes les plus effi­caces d’intelligence col­lec­tive actuelle (moteurs de recherche, graphes de causal­ité…) tirent leur force pré­cisé­ment de l’exploitation bien au-delà des capac­ités humaines indi­vidu­elles, ou col­lec­tives, de cette diver­sité d’avis humains. Jusqu’aux algo­rithmes d’IA eux-mêmes, de types Ran­dom For­est ou Boost­ing Trees ou Boot­strap, qui génèrent un foi­son­nement d’algorithmes ou d’échantillons et en moyen­nent les pré­dic­tions, pour éviter le surapprentissage…

L’enjeu prin­ci­pal finale­ment ne serait-il pas, plus encore que dans l’éthique des IA, dans l’uniformisation crois­sante du savoir, des actions humaines ?

Pour une IA diversifiée et responsable

Si le terme d’intelligence arti­fi­cielle est ancien, et sou­vent abu­sive­ment employé pour désign­er les sys­tèmes d’apprentissage sta­tis­tique actuels, le retour en force de la notion d’apprentissage automa­tique a per­mis de réalis­er des per­cées opéra­tionnelles et con­ceptuelles majeures. Mais n’oublions pas pour autant, notam­ment dans nos cur­sus de for­ma­tion, que ces sys­tèmes sont le pro­longe­ment d’autres tech­nolo­gies par­fois plus per­for­mantes sur cer­taines tâch­es, tels les sys­tèmes experts ou les appli­ca­tions de recherche opéra­tionnelle en général, et plus explic­a­bles. Encore insuff­isam­ment soulignée, c’est toute­fois l’intelligence arti­fi­cielle col­lec­tive qui porte les avancées majeures, met­tant à prof­it les capac­ités infor­ma­tiques afin de démul­ti­pli­er les capac­ités d’analyse et de syn­thèse des savoirs humains. L’efficience sidérante des moteurs de recherche en témoigne.

Ces mécan­ismes d’apprentissage sta­tis­tique reposant sur l’analogie posent prin­ci­pale­ment deux défis majeurs : leur opac­ité (par con­struc­tion) et leur capac­ité nor­ma­tive à ten­dan­cielle­ment ren­forcer l’uniformisation glob­ale. La ques­tion de l’éthique de ces IA appelle une vig­i­lance nou­velle de la part de toutes les par­ties prenantes : citoyens, col­lab­o­ra­teurs en entre­pris­es, clients, comme régu­la­teurs et législateurs.

Quelles que soient les car­ac­téris­tiques des sys­tèmes d’IA, un con­trôle humain sera néces­saire. L’enjeu alors sera de garder la capac­ité de ces sys­tèmes à tou­jours répon­dre de leurs déci­sions et s’expliquer : il est impératif d’œuvrer à une IA responsable.


Cet arti­cle, écrit en ver­sion plus dévelop­pée pour Variances.eu, la revue des Ensae Alum­ni, a été pub­lié le 13 févri­er 2020. Nous le reprenons dans La J & R avec leur aimable autorisation.

2 Commentaires

Ajouter un commentaire

David Cortésrépondre
23 mars 2020 à 18 h 24 min

En com­plé­ment : rejoignez les espaces de dis­cus­sion sur l’IA du groupe X‑IA (sur le site de l’AX, Face­book ou linkedin : lien ci-après).
Notam­ment disponible, une con­férence dédiée au thème de l’ex­plic­a­bil­ité de l’IA.
Enfin, les arti­cles plus détail­lés sur ce sujets sur le site de Vari­ances (Intu­ition arti­fi­cielle, et automa­ti­sa­tion : http://variances.eu/?p=4713 ; éthique et IA col­lec­tive — http://variances.eu/?p=4722 )

DAVID CORTESrépondre
16 avril 2020 à 21 h 51 min

Lien vers groupe X‑IA : https://www.linkedin.com/groups/8912836/

Répondre