Tablette avec affichage de FaceBook

L’urgente nécessité d’une réappropriation publique de la régulation de l’IA

Dossier : L'intelligence artificielleMagazine N°733 Mars 2018
Par Alexandre TISSERANT (X99)
Par Florent de BODMAN

Dès lors que l’u­sage de l’in­tel­li­gence arti­fi­cielle devient mas­sif, l’in­ter­ven­tion publique est néces­saire pour impo­ser une cer­taine trans­pa­rence et s’as­su­rer que l’impact de ces outils reste conforme aux objec­tifs de poli­tiques défi­nis par la nation. Il faut, en par­ti­cu­lier, évi­ter d’ac­croître les inéga­li­tés et la concen­tra­tion des richesses. 

Les ado­les­cents amé­ri­cains regardent aujourd’hui davan­tage You­tube que la télé­vi­sion ; Face­book est aus­si deve­nu leur pre­mier média d’information. Les conte­nus déli­vrés à chaque uti­li­sa­teur sont choi­sis par un algo­rithme sophis­ti­qué de recom­man­da­tion, qui sug­gère des vidéos ou des infor­ma­tions proches de celles qu’il a déjà regardées. 

Demain une intel­li­gence arti­fi­cielle (IA) plus sophis­ti­quée encore pour­ra leur pro­po­ser proac­ti­ve­ment ces conte­nus « per­son­na­li­sés », dans une cohé­rence infor­ma­tion­nelle par­faite – mais émi­nem­ment réduc­trice et par­tiale. Or, les chaînes de télé­vi­sion ont des obli­ga­tions en France de quo­tas de dif­fu­sion de pro­grammes fran­çais ou euro­péens ain­si que des limites en volume de publi­ci­té diffusée. 

Le sec­teur de l’information télé­vi­suelle ou écrite obéit à des règles déon­to­lo­giques pré­cises (celles du jour­na­lisme). Com­ment pen­ser des objec­tifs de poli­tiques publiques ou des règles « éthiques » pour ces algo­rithmes de recom­man­da­tion de plus en plus com­plexes, aujourd’hui conçus par des ingé­nieurs et demain peut-être auto­dé­fi­nis par une IA en fonc­tion d’un simple objec­tif de volume de consommation ? 

REPÈRES

La question de la maîtrise de la machine par l’homme revient régulièrement sur le devant de la scène avec les progrès de l’IA : les cris d’alarme d’entrepreneurs comme Elon Musk ou de scientifiques comme Stephen Hawking montrent que les problèmes imaginés ne sont pas qu’un fantasme.
La question sera notamment posée très vite avec les applications militaires (robots et drones militaires tueurs autonomes).

UN USAGE DE PLUS EN PLUS MASSIF

Aux algo­rithmes de recherche en ligne (comme celui de Google) s’ajoutent des algo­rithmes de recom­man­da­tion (comme celui de You­tube ou de Waze) ou ceux de tri/filtre de l’information quo­ti­dienne (comme celui de Face­book ou de Twitter). 


Face­book est deve­nu le pre­mier média d’information des jeunes Amé­ri­cains. © ALESIAKAN / SHUTTERSTOCK.COM

Tant que ces nou­veaux outils, plé­bis­ci­tés par les consom­ma­teurs, ne consti­tuent qu’une alter­na­tive sup­plé­men­taire pour atteindre un objec­tif per­son­nel don­né, le rôle des pou­voirs publics ne peut être que d’accompagner leur déve­lop­pe­ment, pour faire béné­fi­cier de l’innovation à tous. 

Mais dès lors que leur usage devient mas­sif voire qua­si incon­tour­nable, en rai­son d’effets sociaux de réseau (« Je pri­vi­lé­gie l’outil que mes pairs uti­lisent car mon béné­fice immé­diat y est plus grand ») et de cap­ti­vi­té (« Je ne vais pas chan­ger d’outil car il connaît mon his­to­rique per­son­nel et peut me faire de meilleures recom­man­da­tions »), alors la ques­tion d’une inter­ven­tion publique se pose, pour assu­rer que l’impact socié­tal et éco­no­mique de ces outils reste conforme aux objec­tifs de poli­tiques publiques défi­nis par la nation. 

Cette réflexion s’étend sans peine à d’autres appli­ca­tions à base d’IA plus ou moins sophis­ti­quées, exis­tantes ou à venir. 

LE SECTEUR PUBLIC CONCERNÉ

Les admi­nis­tra­tions publiques elles-mêmes sont d’ailleurs confron­tées de plus en plus à ces ques­tions. Les algo­rithmes publics – encore rela­ti­ve­ment simples et sur­tout déter­mi­nistes sans méca­nismes d’apprentissage – se déve­loppent dans de nom­breux domaines. 

“ Les inégalités et la concentration des richesses pourraient être accrues à cause d’applications à base d’IA ”

Ain­si, feu admis­sion post­bac (APB) uti­lise des règles de prio­ri­té pour attri­buer aux étu­diants can­di­dats les places dis­po­nibles à l’université. Des algo­rithmes de sco­ring (ou cota­tion des demandes) se déve­loppent au niveau local, par exemple pour l’attribution des loge­ments sociaux (Paris) ou des crèches (Lyon, Nantes…). 

Les caisses de Sécu­ri­té sociale ou l’administration fis­cale ont recours au data mining pour détec­ter d’éventuels abus et uti­lisent des algo­rithmes pour repé­rer auto­ma­ti­que­ment les cas de fraudes les plus probables. 

Cer­taines admi­nis­tra­tions mettent en place des chat­bots (robot logi­ciel qui peut mener une conver­sa­tion en ligne avec l’usager pour répondre à ses interrogations). 

BESOIN DE TRANSPARENCE

Ces exemples d’algorithmes publics illus­trent le besoin de trans­pa­rence sur leur usage, qui a déjà émer­gé dans le débat public. Le débat devien­dra d’autant plus vif que ces algo­rithmes seront plus sophistiqués. 

Il existe à plus long terme un risque cré­dible de perte de contrôle d’une IA « forte » (consciente et autoap­pre­nante), qui ren­dra néces­saire une régu­la­tion. L’accroissement pos­sible des inéga­li­tés et de la concen­tra­tion des richesses à cause d’applications à base d’IA est éga­le­ment mis en lumière par des équipes scien­ti­fiques britanniques. 

La faible diver­si­té cultu­relle et sociale des experts en IA, recru­tés en très grande majo­ri­té par le sec­teur pri­vé, pour­rait, selon ces experts, intro­duire, même incons­ciem­ment, de sérieux biais sociaux de com­por­te­ment d’intelligence artificielle. 

Embouteillage
Waze peut aider les conduc­teurs à s’échapper des embou­teillages mais en créer d’autres ailleurs. © ANNACOVIC

ITINÉRAIRE BIS

Quand, alors que je suis retenu par des embouteillages sur l’autoroute, Waze me propose d’en sortir par un itinéraire bis qui traverse nombre de petits villages proches, le bénéfice est évident pour tous (je libère de la place sur l’autoroute et j’optimise mon trajet).
Mais si la majorité des conducteurs fait de même, une externalité négative est également créée : les habitants des villages concernés voient défiler un trafic dense sur des petites routes communales, ce qui détériore une chaussée entretenue et financée en vue d’un trafic faible.

UNE RÉFLEXION ÉTHIQUE ET JURIDIQUE

Si les appli­ca­tions à base d’IA sont natu­rel­le­ment pro­met­teuses en termes de béné­fices d’usage pour le plus grand nombre, les pro­blèmes sociaux, éthiques et poli­tiques sou­le­vés sont réels. Frei­ner ou empê­cher leur déve­lop­pe­ment semble autant voué à l’échec que dom­ma­geable pour la socié­té, mais une démarche publique proac­tive de réflexion éthique et juri­dique est néces­saire pour per­mettre une régu­la­tion per­ti­nente et socia­le­ment juste de ces applications. 

“ À partir d’octobre 2018, les administrations auront l’obligation de publier d’elles-mêmes les principaux codes sources de leurs logiciels ”

Le sec­teur pri­vé, conscient des risques à long terme et des enjeux d’acceptabilité sociale, s’est déjà empa­ré du sujet, à l’image de l’initiative Ope­nAI d’Elon Musk. Mais la déci­sion publique ne peut s’alimenter seule­ment de tra­vaux menés et finan­cés par des acteurs pri­vés du secteur. 

La réponse publique à ces pro­blèmes a com­men­cé à prendre forme en France : la loi pour une Répu­blique numé­rique du 7 octobre 2016 a ébau­ché une forme de régu­la­tion de cer­taines pla­te­formes numé­riques. Elle oblige notam­ment à une trans­pa­rence accrue des cri­tères de clas­se­ment de l’information, en s’appuyant sur le cadre exis­tant du droit de la consommation. 

Néan­moins, ces pre­miers pas doivent venir nour­rir une ambi­tion plus forte au niveau euro­péen. Le pro­gramme du can­di­dat Emma­nuel Macron pré­voyait d’ailleurs la créa­tion d’une Agence euro­péenne de régu­la­tion des pla­te­formes : elle reste aujourd’hui à concrétiser. 

UN PREMIER CADRE LÉGAL

Puisqu’il faut tou­jours com­men­cer par balayer devant sa propre porte, un cadre légal a été ins­tau­ré pour rendre trans­pa­rents les algo­rithmes publics, et doit désor­mais être mis en œuvre. 

BIAIS SOCIAL

Le dépôt en 2015 par Facebook d’un brevet visant à permettre au secteur bancaire de qualifier automatiquement la solvabilité d’un client (et donc le taux minimum de ses emprunts) à partir de celle de ses amis sur le réseau social, ou l’IA de Microsoft, Tay, qui reproduisait en 2016 des comportements sexistes et racistes après apprentissage sur Twitter, mettent en évidence des risques de reproduction d’inégalités par l’IA.

L’article 4 de cette loi oblige ain­si à ce qu’« une déci­sion indi­vi­duelle prise sur le fon­de­ment d’un trai­te­ment algo­rith­mique com­porte une men­tion expli­cite en infor­mant l’intéressé » et que « les règles défi­nis­sant ce trai­te­ment […] sont com­mu­ni­quées à l’intéressé s’il en fait la demande ». Cela couvre par exemple l’attribution d’une place à l’université ou d’un loge­ment social. 

L’article 2 étend aus­si le prin­cipe d’open data aux codes sources pro­duits ou reçus par une admi­nis­tra­tion publique, sous réserve des secrets pro­té­gés par la loi. À par­tir d’octobre 2018, les admi­nis­tra­tions auront l’obligation de publier d’elles-mêmes les prin­ci­paux codes sources de leurs logi­ciels (prin­cipe d’open data par défaut). 

DES IDÉES À CONCRÉTISER

Il reste énor­mé­ment à faire néan­moins sur l’ensemble des appli­ca­tions de l’IA, et la récente prise de conscience des pou­voirs publics en France est encourageante : 

Attribution de logements sociaux
L’attribution de loge­ments sociaux fait de plus en plus appel à des algo­rithmes sophis­ti­qués. © SÉBASTIEN DURAND / SHUTTERSTOCK.COM

La loi pour une Répu­blique numé­rique a confié à la Cnil la mis­sion de conduire une réflexion sur les enjeux éthiques sou­le­vés par l’évolution des tech­no­lo­gies numé­riques, les par­le­men­taires de l’OPECST ont pro­duit en mars 2017 un rap­port sur l’IA (au moment même où le Par­le­ment euro­péen deman­dait une légis­la­tion éthique sur les robots), le pré­cé­dent gou­ver­ne­ment a mené l’initiative #Fran­ceIA début 2017 (en cours d’approfondissement par le nou­veau gou­ver­ne­ment), le Conseil d’État vient de sor­tir son étude annuelle sur le thème « Puis­sance publique et pla­te­formes numé­riques », le Conseil natio­nal du numé­rique de lan­cer une consul­ta­tion publique sur la « loyau­té des plateformes »… 

Ce foi­son­ne­ment de réflexions doit aujourd’hui être rapi­de­ment concré­ti­sé par une ligne d’action pré­cise et coor­don­née (faute de quoi les acteurs pri­vés déci­de­ront de fac­to de ce qui est accep­table ou non, de par le déploie­ment des appli­ca­tions pro­duites), tout en pre­nant en compte les réelles oppor­tu­ni­tés éco­no­miques qu’offre ce sec­teur, sur lequel la France a de nom­breux atouts pour se posi­tion­ner par­mi les pays leaders.

Poster un commentaire