Intelligence artificielle (IA)

Pour une IA responsable

Dossier : ExpressionsMagazine N°753 Mars 2020
Par David CORTÉS (97)

Il y a vingt ans, Pierre-Gilles de Gennes pré­sen­tait ses tra­vaux nova­teurs sur les cris­taux liquides à tra­vers la France et conseillait à son public, sou­vent réfrac­taire à l’étude de la chi­mie, de s’essayer à la lec­ture du livre Le Sys­tème pério­dique de Pri­mo Levi, col­lec­tion de récits, cha­cun ins­pi­ré d’un épi­sode auto­bio­gra­phique et d’un élé­ment du tableau de Men­de­leïev. Cette invi­ta­tion à faire se croi­ser dif­fé­rents regards, et à éclai­rer les uns par les autres, vaut plus que jamais : convier lit­té­ra­ture, sciences mathé­ma­tiques, socio­lo­gie me semble bien­ve­nu pour mieux sai­sir les enjeux de l’« IA ».

La recherche concer­nant l’« Intel­li­gence arti­fi­cielle (IA) » trouve son ori­gine dans la confé­rence de Dart­mouth en 1956, orga­ni­sée prin­ci­pa­le­ment par John McCar­thy et Mar­vin Mins­ky. Elle est le pro­lon­ge­ment direct de mou­ve­ments plus anciens, tels que la cyber­né­tique de Nor­bert Wie­ner déve­lop­pée dès 1947.

Dès 1956 : logique formelle et apprentissage machine

Les tech­no­lo­gies pré­sen­tées lors de cette confé­rence ont cepen­dant fait date : dès 1956 l’algorithme de preuve for­melle, per­met­tant à des machines de démon­trer cer­tains résul­tats mathé­ma­tiques ; et un embryon algo­rith­mique de machines expertes au jeu des échecs. Puis en 1957 le per­cep­tron de Frank Rosen­blatt, élé­ment consti­tu­tif des réseaux de neu­rones arti­fi­ciels actuels. Ce der­nier intro­duit en pion­nier un concept majeur car, si les pre­miers algo­rithmes par­taient d’une approche déduc­tive (= par­tir de règles et pré­dire), ce der­nier appelle une approche induc­tive (= par­tir des résul­tats et bâtir un sys­tème de pré­dic­tion) ren­due pos­sible par un sys­tème d’inspiration bio­mi­mé­tique. La machine doit donc « apprendre » mais, fait dérou­tant, sans même… com­prendre, ni pou­voir expli­ci­ter son cheminement.

« L’IA » serait ain­si une nou­velle impul­sion don­née à la fois aux sciences cog­ni­tives et à cer­tains sys­tèmes infor­ma­tiques afin « d’émuler » les capa­ci­tés men­tales humaines. L’« IA » n’est donc pas une tech­no­lo­gie, mais un champ de recherche qui vise en asymp­tote, loin­taine, la recréa­tion d’une véri­table « intel­li­gence humaine sur des sub­strats arti­fi­ciels », variés. Les sys­tèmes actuels, s’ils excellent sur cer­taines appli­ca­tions de per­cep­tion, sont loin d’atteindre encore cet objectif.

Intelligence humaine ? l’IA actuelle est plutôt une « intuition artificielle »

L’intelligence humaine était vue par les infor­ma­ti­ciens et mathé­ma­ti­ciens de Dar­mouth dans un conti­nuum de pen­sée entre ratio­na­lisme et empi­risme. Sté­phane Mal­lat rap­pelle dans les leçons au Col­lège de France que les approches de l’intelligence (inter-legere, « choi­sir entre ») évo­luent sans chro­no­lo­gie depuis la pure spé­cu­la­tion abs­traite jusqu’à l’apprentissage au plus près de l’expérience. L’intelligence humaine est à consi­dé­rer non seule­ment comme innée, struc­tu­relle et pure­ment logique, mais éga­le­ment comme lar­ge­ment construite, défi­nie par un long pro­ces­sus d’apprentissages suc­ces­sifs nour­ri des cor­ré­la­tions obser­vées lors de mul­tiples expé­riences comparables.

Le terme d’intelligence est donc actuel­le­ment ambi­gu et sou­vent abu­sif. Ambi­gu, car en France, pays au car­té­sia­nisme encore triom­phant, l’intelligence est vue prin­ci­pa­le­ment comme mathé­ma­tique, déduc­tive, cau­sale… beau­coup plus que dans des cultures, anglo-saxonnes par exemple, pri­vi­lé­giant l’empirisme, l’intuition. Abu­sif, car tout d’abord, comme le rap­pelle Yann Le Cun, le champ cog­ni­tif cou­vert par les « intel­li­gences arti­fi­cielles » actuelles reste extrê­me­ment étroit : le plus puis­sant des super­cal­cu­la­teurs cou­plé aux algo­rithmes les plus inno­vants est très loin de savoir trai­ter « autant de pro­blèmes que ne le fait le cer­veau même d’un rat ».

Ensuite, parce que ces « intel­li­gences » nou­velles apprennent des don­nées, mais… sans nous don­ner en retour de règles expli­cites. Les sys­tèmes de réseaux de neu­rones actuels sont consti­tués de gigan­tesques matrices de chiffres. Les « règles » apprises par ces sys­tèmes sont dis­tri­buées dans l’ensemble des nœuds du réseau neu­ro­nal et ses mil­lions de para­mètres. Elles sont donc opaques par construc­tion : de même que ce n’est pas en étu­diant une image d’IRM, fût-elle prise à la gra­nu­la­ri­té des neu­rones acti­vés ou inhi­bés (~80 mil­liards dans un cer­veau humain), que nous accé­de­rons à l’instantané d’un rai­son­ne­ment ou à la per­son­na­li­té d’un patient.

Ces « intel­li­gences » sont lar­ge­ment ain­si… des intui­tions. Leur deman­der de nous expli­quer leur fonc­tion­ne­ment sup­po­se­rait d’elles à l’heure actuelle un effort d’introspection que leur prin­cipe de construc­tion rend par­ti­cu­liè­re­ment dif­fi­cile à réaliser.

L’IA, nouvel « or noir » : parachèvement d’une tendance biséculaire d’automatisation

Consé­quence de l’engouement pour l’IA, sont appa­rues de très nom­breuses études anxio­gènes liées à l’automatisation : « Quelles pro­fes­sions sont les plus mena­cées, en fonc­tion du sec­teur, ou de la plus ou moindre grande répé­ti­ti­vi­té des tâches, du pays, etc. Serai-je tou­ché moi aus­si ? » Si ces refrains lan­ci­nants sont en fait connus depuis plus de deux siècles, et les lud­dites de 1811 en Angle­terre ou les canuts lyon­nais, l’IA me semble tou­te­fois por­ter en soi, concep­tuel­le­ment, de quoi mener le phé­no­mène d’automatisation à son terme. 

En 1958, soit deux ans après la confé­rence de Dart­mouth, Han­nah Arendt pro­po­sait dans Condi­tion de l’homme moderne un regard phi­lo­so­phi­co-his­to­rique, notam­ment sur le tra­vail, qui fit date. Elle rap­pelle tout d’abord la hié­rar­chie des valeurs taci­te­ment admise par l’Occident depuis Aris­tote, pla­çant tout en haut les actions non néces­saires à la sur­vie… action poli­tique, phi­lo­so­phie, contem­pla­tion (theo­ria) et en second plan les tâches que l’on défi­ni­rait actuel­le­ment comme celles du bas de la pyra­mide de Mas­low. Les deux der­niers siècles ont vu l’automatisation crois­sante de ces der­nières (agri­cul­ture, com­merce…) grâce à l’exploitation conju­guée des res­sources natu­relles : matières pre­mières et éner­gies. L’IA se pro­pose d’achever le mou­ve­ment et de nous débar­ras­ser, éga­le­ment, à terme du sou­ci des tâches cognitives.

Impact en retour sur l’intelligence humaine ?

Georges Ber­na­nos (dans La France contre les robots, 1947, notam­ment) anti­cipe les effets du machi­nisme sur la « matière humaine » même et, par là, sur les orga­ni­sa­tions poli­tiques et éco­no­miques. C’est une pré­oc­cu­pa­tion proche des intui­tions de Mar­shall McLu­han (déve­lop­pées dans La Galaxie Guten­berg, 1962), qui sou­te­nait que le média lui-même influen­çait l’homme, et pas seule­ment le mes­sage qu’il véhi­cu­lait. Ain­si, par exemple, l’homme de tra­di­tion orale sur­dé­ve­loppe une hyper­mné­sie. Dit autre­ment : si l’apprentissage manuel s’amenuise par l’automatisation, puis si l’apprentissage cog­ni­tif est réduit par l’IA, quel pour­rait être l’impact sur la for­ma­tion de l’intelligence humaine ? quel sera « l’Homme de l’IA » ?

Tout d’abord une bonne nou­velle : les pro­phètes d’apocalypse fai­sant leur fonds de com­merce d’une sépa­ra­tion entre élite maî­tri­sant et uti­li­sant les IA et le reste de l’humanité ont cer­tai­ne­ment tort, pour deux rai­sons. D’une part, l’automatisation des tâches tou­che­ra à terme toute la popu­la­tion, quelle que soit la « noblesse » per­çue des tâches qui lui incom­baient aupa­ra­vant (ter­tiaire inclus). D’autre part, même les plus experts en IA, leurs concep­teurs, sont et seront tou­jours plus inca­pables de com­prendre eux-mêmes les sys­tèmes qu’ils auront créés, du fait de la com­plexi­té conju­guée des don­nées et des algo­rithmes (ex. de l’ordre de 100 mil­lions de para­mètres pour les sys­tèmes de recon­nais­sance d’images), et de l’empilement algo­rith­mique (sys­tème de systèmes).

“L’IA actuelle est celle de l’apprentissage machine.”

Intelligence artificielle oui, mais collective

Si les pro­messes de véri­table intel­li­gence arti­fi­cielle indi­vi­duelle ren­voient à un hori­zon encore loin­tain, les formes d’intelligence arti­fi­cielle col­lec­tive portent d’ores et déjà le plus de fruits.

L’accroissement de pré­ci­sion d’IA indi­vi­duelle via la prise en compte de beau­coup plus de fac­teurs pré­dic­tifs que ne peut le faire un cer­veau humain contri­bue para­doxa­le­ment à certes ren­for­cer la qua­li­té des pré­dic­tions, mais dans le même temps réduit la varié­té des pré­vi­sions possibles.

Or cette réduc­tion de diver­si­té a éga­le­ment pour effet d’amoindrir la qua­li­té des intel­li­gences col­lec­tives. Émile Ser­van-Schrei­ber rap­pelle que par exemple le phé­no­mène de sagesse des foules ne fonc­tionne que si la diver­si­té des biais de cha­cun est suf­fi­sante pour que l’effet de moyenne sur le grand nombre per­mette une pré­dic­tion effi­cace. Les formes les plus effi­caces d’intelligence col­lec­tive actuelle (moteurs de recherche, graphes de cau­sa­li­té…) tirent leur force pré­ci­sé­ment de l’exploitation bien au-delà des capa­ci­tés humaines indi­vi­duelles, ou col­lec­tives, de cette diver­si­té d’avis humains. Jusqu’aux algo­rithmes d’IA eux-mêmes, de types Ran­dom Forest ou Boos­ting Trees ou Boots­trap, qui génèrent un foi­son­ne­ment d’algorithmes ou d’échantillons et en moyennent les pré­dic­tions, pour évi­ter le surapprentissage…

L’enjeu prin­ci­pal fina­le­ment ne serait-il pas, plus encore que dans l’éthique des IA, dans l’uniformisation crois­sante du savoir, des actions humaines ?

Pour une IA diversifiée et responsable

Si le terme d’intelligence arti­fi­cielle est ancien, et sou­vent abu­si­ve­ment employé pour dési­gner les sys­tèmes d’apprentissage sta­tis­tique actuels, le retour en force de la notion d’apprentissage auto­ma­tique a per­mis de réa­li­ser des per­cées opé­ra­tion­nelles et concep­tuelles majeures. Mais n’oublions pas pour autant, notam­ment dans nos cur­sus de for­ma­tion, que ces sys­tèmes sont le pro­lon­ge­ment d’autres tech­no­lo­gies par­fois plus per­for­mantes sur cer­taines tâches, tels les sys­tèmes experts ou les appli­ca­tions de recherche opé­ra­tion­nelle en géné­ral, et plus expli­cables. Encore insuf­fi­sam­ment sou­li­gnée, c’est tou­te­fois l’intelligence arti­fi­cielle col­lec­tive qui porte les avan­cées majeures, met­tant à pro­fit les capa­ci­tés infor­ma­tiques afin de démul­ti­plier les capa­ci­tés d’analyse et de syn­thèse des savoirs humains. L’efficience sidé­rante des moteurs de recherche en témoigne.

Ces méca­nismes d’apprentissage sta­tis­tique repo­sant sur l’analogie posent prin­ci­pa­le­ment deux défis majeurs : leur opa­ci­té (par construc­tion) et leur capa­ci­té nor­ma­tive à ten­dan­ciel­le­ment ren­for­cer l’uniformisation glo­bale. La ques­tion de l’éthique de ces IA appelle une vigi­lance nou­velle de la part de toutes les par­ties pre­nantes : citoyens, col­la­bo­ra­teurs en entre­prises, clients, comme régu­la­teurs et législateurs.

Quelles que soient les carac­té­ris­tiques des sys­tèmes d’IA, un contrôle humain sera néces­saire. L’enjeu alors sera de gar­der la capa­ci­té de ces sys­tèmes à tou­jours répondre de leurs déci­sions et s’expliquer : il est impé­ra­tif d’œuvrer à une IA responsable.


Cet article, écrit en ver­sion plus déve­lop­pée pour Variances.eu, la revue des Ensae Alum­ni, a été publié le 13 février 2020. Nous le repre­nons dans La J & R avec leur aimable autorisation.

2 Commentaires

Ajouter un commentaire

David Cor­tésrépondre
23 mars 2020 à 18 h 24 min

En com­plé­ment : rejoi­gnez les espaces de dis­cus­sion sur l’IA du groupe X‑IA (sur le site de l’AX, Face­book ou lin­ke­din : lien ci-après).
Notam­ment dis­po­nible, une confé­rence dédiée au thème de l’ex­pli­ca­bi­li­té de l’IA.
Enfin, les articles plus détaillés sur ce sujets sur le site de Variances (Intui­tion arti­fi­cielle, et auto­ma­ti­sa­tion : http://variances.eu/?p=4713 ; éthique et IA col­lec­tive – http://variances.eu/?p=4722 )

DAVID CORTESrépondre
16 avril 2020 à 21 h 51 min

Lien vers groupe X‑IA : https://www.linkedin.com/groups/8912836/

Répondre