Tablette avec affichage de FaceBook

L’urgente nécessité d’une réappropriation publique de la régulation de l’IA

Dossier : L'intelligence artificielleMagazine N°733 Mars 2018
Par Alexandre TISSERANT (X99)
Par Florent de BODMAN

Dès lors que l’usage de l’in­tel­li­gence arti­fi­cielle devient mas­sif, l’in­ter­ven­tion publique est néces­saire pour impos­er une cer­taine trans­parence et s’as­sur­er que l’impact de ces out­ils reste con­forme aux objec­tifs de poli­tiques défi­nis par la nation. Il faut, en par­ti­c­uli­er, éviter d’ac­croître les iné­gal­ités et la con­cen­tra­tion des richesses. 

Les ado­les­cents améri­cains regar­dent aujourd’hui davan­tage Youtube que la télévi­sion ; Face­book est aus­si devenu leur pre­mier média d’information. Les con­tenus délivrés à chaque util­isa­teur sont choi­sis par un algo­rithme sophis­tiqué de recom­man­da­tion, qui sug­gère des vidéos ou des infor­ma­tions proches de celles qu’il a déjà regardées. 

Demain une intel­li­gence arti­fi­cielle (IA) plus sophis­tiquée encore pour­ra leur pro­pos­er proac­tive­ment ces con­tenus « per­son­nal­isés », dans une cohérence infor­ma­tion­nelle par­faite – mais éminem­ment réduc­trice et par­tiale. Or, les chaînes de télévi­sion ont des oblig­a­tions en France de quo­tas de dif­fu­sion de pro­grammes français ou européens ain­si que des lim­ites en vol­ume de pub­lic­ité diffusée. 

Le secteur de l’information télévi­suelle ou écrite obéit à des règles déon­tologiques pré­cis­es (celles du jour­nal­isme). Com­ment penser des objec­tifs de poli­tiques publiques ou des règles « éthiques » pour ces algo­rithmes de recom­man­da­tion de plus en plus com­plex­es, aujourd’hui conçus par des ingénieurs et demain peut-être autodéfi­nis par une IA en fonc­tion d’un sim­ple objec­tif de vol­ume de consommation ? 

REPÈRES

La question de la maîtrise de la machine par l’homme revient régulièrement sur le devant de la scène avec les progrès de l’IA : les cris d’alarme d’entrepreneurs comme Elon Musk ou de scientifiques comme Stephen Hawking montrent que les problèmes imaginés ne sont pas qu’un fantasme.
La question sera notamment posée très vite avec les applications militaires (robots et drones militaires tueurs autonomes).

UN USAGE DE PLUS EN PLUS MASSIF

Aux algo­rithmes de recherche en ligne (comme celui de Google) s’ajoutent des algo­rithmes de recom­man­da­tion (comme celui de Youtube ou de Waze) ou ceux de tri/filtre de l’information quo­ti­di­enne (comme celui de Face­book ou de Twitter). 


Face­book est devenu le pre­mier média d’information des jeunes Améri­cains. © ALESIAKAN / SHUTTERSTOCK.COM

Tant que ces nou­veaux out­ils, plébisc­ités par les con­som­ma­teurs, ne con­stituent qu’une alter­na­tive sup­plé­men­taire pour attein­dre un objec­tif per­son­nel don­né, le rôle des pou­voirs publics ne peut être que d’accompagner leur développe­ment, pour faire béné­fici­er de l’innovation à tous. 

Mais dès lors que leur usage devient mas­sif voire qua­si incon­tourn­able, en rai­son d’effets soci­aux de réseau (« Je priv­ilégie l’outil que mes pairs utilisent car mon béné­fice immé­di­at y est plus grand ») et de cap­tiv­ité (« Je ne vais pas chang­er d’outil car il con­naît mon his­torique per­son­nel et peut me faire de meilleures recom­man­da­tions »), alors la ques­tion d’une inter­ven­tion publique se pose, pour assur­er que l’impact socié­tal et économique de ces out­ils reste con­forme aux objec­tifs de poli­tiques publiques défi­nis par la nation. 

Cette réflex­ion s’étend sans peine à d’autres appli­ca­tions à base d’IA plus ou moins sophis­tiquées, exis­tantes ou à venir. 

LE SECTEUR PUBLIC CONCERNÉ

Les admin­is­tra­tions publiques elles-mêmes sont d’ailleurs con­fron­tées de plus en plus à ces ques­tions. Les algo­rithmes publics – encore rel­a­tive­ment sim­ples et surtout déter­min­istes sans mécan­ismes d’apprentissage – se dévelop­pent dans de nom­breux domaines. 

“ Les inégalités et la concentration des richesses pourraient être accrues à cause d’applications à base d’IA ”

Ain­si, feu admis­sion post­bac (APB) utilise des règles de pri­or­ité pour attribuer aux étu­di­ants can­di­dats les places disponibles à l’université. Des algo­rithmes de scor­ing (ou cota­tion des deman­des) se dévelop­pent au niveau local, par exem­ple pour l’attribution des loge­ments soci­aux (Paris) ou des crèch­es (Lyon, Nantes…). 

Les caiss­es de Sécu­rité sociale ou l’administration fis­cale ont recours au data min­ing pour détecter d’éventuels abus et utilisent des algo­rithmes pour repér­er automa­tique­ment les cas de fraudes les plus probables. 

Cer­taines admin­is­tra­tions met­tent en place des chat­bots (robot logi­ciel qui peut men­er une con­ver­sa­tion en ligne avec l’usager pour répon­dre à ses interrogations). 

BESOIN DE TRANSPARENCE

Ces exem­ples d’algorithmes publics illus­trent le besoin de trans­parence sur leur usage, qui a déjà émergé dans le débat pub­lic. Le débat devien­dra d’autant plus vif que ces algo­rithmes seront plus sophistiqués. 

Il existe à plus long terme un risque crédi­ble de perte de con­trôle d’une IA « forte » (con­sciente et autoap­prenante), qui ren­dra néces­saire une régu­la­tion. L’accroissement pos­si­ble des iné­gal­ités et de la con­cen­tra­tion des richess­es à cause d’applications à base d’IA est égale­ment mis en lumière par des équipes sci­en­tifiques britanniques. 

La faible diver­sité cul­turelle et sociale des experts en IA, recrutés en très grande majorité par le secteur privé, pour­rait, selon ces experts, intro­duire, même incon­sciem­ment, de sérieux biais soci­aux de com­porte­ment d’intelligence artificielle. 

Embouteillage
Waze peut aider les con­duc­teurs à s’échapper des embouteil­lages mais en créer d’autres ailleurs. © ANNACOVIC

ITINÉRAIRE BIS

Quand, alors que je suis retenu par des embouteillages sur l’autoroute, Waze me propose d’en sortir par un itinéraire bis qui traverse nombre de petits villages proches, le bénéfice est évident pour tous (je libère de la place sur l’autoroute et j’optimise mon trajet).
Mais si la majorité des conducteurs fait de même, une externalité négative est également créée : les habitants des villages concernés voient défiler un trafic dense sur des petites routes communales, ce qui détériore une chaussée entretenue et financée en vue d’un trafic faible.

UNE RÉFLEXION ÉTHIQUE ET JURIDIQUE

Si les appli­ca­tions à base d’IA sont naturelle­ment promet­teuses en ter­mes de béné­fices d’usage pour le plus grand nom­bre, les prob­lèmes soci­aux, éthiques et poli­tiques soulevés sont réels. Frein­er ou empêch­er leur développe­ment sem­ble autant voué à l’échec que dom­mage­able pour la société, mais une démarche publique proac­tive de réflex­ion éthique et juridique est néces­saire pour per­me­t­tre une régu­la­tion per­ti­nente et sociale­ment juste de ces applications. 

“ À partir d’octobre 2018, les administrations auront l’obligation de publier d’elles-mêmes les principaux codes sources de leurs logiciels ”

Le secteur privé, con­scient des risques à long terme et des enjeux d’acceptabilité sociale, s’est déjà emparé du sujet, à l’image de l’initiative Ope­nAI d’Elon Musk. Mais la déci­sion publique ne peut s’alimenter seule­ment de travaux menés et financés par des acteurs privés du secteur. 

La réponse publique à ces prob­lèmes a com­mencé à pren­dre forme en France : la loi pour une République numérique du 7 octo­bre 2016 a ébauché une forme de régu­la­tion de cer­taines plate­formes numériques. Elle oblige notam­ment à une trans­parence accrue des critères de classe­ment de l’information, en s’appuyant sur le cadre exis­tant du droit de la consommation. 

Néan­moins, ces pre­miers pas doivent venir nour­rir une ambi­tion plus forte au niveau européen. Le pro­gramme du can­di­dat Emmanuel Macron prévoy­ait d’ailleurs la créa­tion d’une Agence européenne de régu­la­tion des plate­formes : elle reste aujourd’hui à concrétiser. 

UN PREMIER CADRE LÉGAL

Puisqu’il faut tou­jours com­mencer par bal­ay­er devant sa pro­pre porte, un cadre légal a été instau­ré pour ren­dre trans­par­ents les algo­rithmes publics, et doit désor­mais être mis en œuvre. 

BIAIS SOCIAL

Le dépôt en 2015 par Facebook d’un brevet visant à permettre au secteur bancaire de qualifier automatiquement la solvabilité d’un client (et donc le taux minimum de ses emprunts) à partir de celle de ses amis sur le réseau social, ou l’IA de Microsoft, Tay, qui reproduisait en 2016 des comportements sexistes et racistes après apprentissage sur Twitter, mettent en évidence des risques de reproduction d’inégalités par l’IA.

L’article 4 de cette loi oblige ain­si à ce qu’« une déci­sion indi­vidu­elle prise sur le fonde­ment d’un traite­ment algo­rith­mique com­porte une men­tion explicite en infor­mant l’intéressé » et que « les règles définis­sant ce traite­ment […] sont com­mu­niquées à l’intéressé s’il en fait la demande ». Cela cou­vre par exem­ple l’attribution d’une place à l’université ou d’un loge­ment social. 

L’article 2 étend aus­si le principe d’open data aux codes sources pro­duits ou reçus par une admin­is­tra­tion publique, sous réserve des secrets pro­tégés par la loi. À par­tir d’octobre 2018, les admin­is­tra­tions auront l’obligation de pub­li­er d’elles-mêmes les prin­ci­paux codes sources de leurs logi­ciels (principe d’open data par défaut). 

DES IDÉES À CONCRÉTISER

Il reste énor­mé­ment à faire néan­moins sur l’ensemble des appli­ca­tions de l’IA, et la récente prise de con­science des pou­voirs publics en France est encourageante : 

Attribution de logements sociaux
L’attribution de loge­ments soci­aux fait de plus en plus appel à des algo­rithmes sophis­tiqués. © SÉBASTIEN DURAND / SHUTTERSTOCK.COM

La loi pour une République numérique a con­fié à la Cnil la mis­sion de con­duire une réflex­ion sur les enjeux éthiques soulevés par l’évolution des tech­nolo­gies numériques, les par­lemen­taires de l’OPECST ont pro­duit en mars 2017 un rap­port sur l’IA (au moment même où le Par­lement européen demandait une lég­is­la­tion éthique sur les robots), le précé­dent gou­verne­ment a mené l’initiative #Fran­ceIA début 2017 (en cours d’approfondissement par le nou­veau gou­verne­ment), le Con­seil d’État vient de sor­tir son étude annuelle sur le thème « Puis­sance publique et plate­formes numériques », le Con­seil nation­al du numérique de lancer une con­sul­ta­tion publique sur la « loy­auté des plateformes »… 

Ce foi­son­nement de réflex­ions doit aujourd’hui être rapi­de­ment con­crétisé par une ligne d’action pré­cise et coor­don­née (faute de quoi les acteurs privés décideront de fac­to de ce qui est accept­able ou non, de par le déploiement des appli­ca­tions pro­duites), tout en prenant en compte les réelles oppor­tu­nités économiques qu’offre ce secteur, sur lequel la France a de nom­breux atouts pour se posi­tion­ner par­mi les pays leaders.

Poster un commentaire