Construire l’IA : des données, des algorithmes, des ressources et des hommes

Dossier : Simulation et supercalculateursMagazine N°732 Février 2018
Par Nicolas VAYATIS (D2000)

Après deux vagues d’é­checs, les cal­culs de l’in­tel­li­gence arti­fi­cielle peuvent main­te­nant trans­for­mer notre socié­té. Il ne faut pas en craindre les risques, car si les déve­lop­pe­ments sont per­mis par la pro­fu­sion de don­nées trai­tées avec des cal­cu­la­teurs haute per­for­mance, il s’a­vère qu’il faut inté­grer le fac­teur humain tant dans la concep­tion que dans la per­cep­tion des usages à venir. 

La révo­lu­tion annon­cée de l’IA résulte de la conver­gence de trois fac­teurs. D’une part, la pro­fu­sion de don­nées numé­ri­sées via l’Internet, les outils internes des entre­prises et des centres de recherche scien­ti­fique, les pla­te­formes numé­riques, les réseaux de cap­teurs, l’Internet des objets, etc. 

D’autre part, la matu­ri­té des com­mu­nau­tés scien­ti­fiques en mathé­ma­tiques et en infor­ma­tique sur le thème de l’apprentissage auto­ma­tique, avec les avan­cées de la modé­li­sa­tion sta­tis­tique de don­nées com­plexes, le déve­lop­pe­ment et l’analyse d’algorithmes sophis­ti­qués foca­li­sés sur l’optimisation de règles prédictives. 

Et enfin, la dis­po­ni­bi­li­té de res­sources maté­rielles et d’environnements logi­ciels ouvrant des pers­pec­tives pra­ti­que­ment illi­mi­tées pour le sto­ckage, le cal­cul et le déve­lop­pe­ment logi­ciel sur un mode collaboratif. 

Il s’agit de la troi­sième vague que connaît le grand public sur le thème de l’IA, les deux pre­mières n’ayant pas eu l’impact atten­du – ou craint – sur l’humanité.

En réa­li­té, cette trans­for­ma­tion est déjà en cours, mais à des rythmes très dis­pa­rates selon les domaines d’application : très rapide dans l’Internet, le mar­ke­ting numé­rique, le tou­risme, et le trans­port, plus pous­sif dans l’industrie tra­di­tion­nelle, et presque au départ dans la san­té, la for­ma­tion et la ges­tion des compétences. 

REPÈRES

Chaque seconde, 29 000 gigaoctets (Go) d’informations sont publiés dans le monde, soit 2,5 exaoctets1 par jour, soit 912,5 exaoctets par an.
Ces données représentent un gisement de ressources considérable : ainsi, l’International Data Corporation (IDC) estime que le marché du cloud (stockage, exploitation des données) atteindra 554 milliards de dollars en 2021, doublant sa valeur de 2016.

LES CLÉS DE L’APPRENTISSAGE AUTOMATIQUE, MOTEUR DE L’IA MODERNE

La fièvre du big data est quelque peu retom­bée suite au constat que la masse ne suf­fit pas : l’ordre et le sens ont aus­si leur importance. 

En effet, la notion d’information dans ce contexte mérite d’être déve­lop­pée ici. Elle relève de trois niveaux : la mesure (signal), la répé­ti­tion sta­tis­tique (régu­la­ri­té du phé­no­mène) et l’appréciation experte (label­li­sa­tion ou anno­ta­tion par l’expert humain). 

LES NOUVEAUX ALGORITHMES D’APPRENTISSAGE

Les algorithmes modernes d’apprentissage n’échappent pas aux prérequis des méthodes statistiques : il faut observer suffisamment les configurations d’intérêt pour un ensemble de variables avant de pouvoir les détecter et les prévoir.
La nouveauté vient de la capacité à prendre en compte un très grand nombre de variables explicatives et également les données dites structurées (patterns caractéristiques dans des signaux, des images, des vidéos, du texte, etc.).

Les espoirs por­tés dans les masses de don­nées accu­mu­lées sont par­fois déçus lorsque la valeur infor­ma­tion­nelle de ces don­nées n’a pas été éva­luée en amont et que leur orga­ni­sa­tion dans les bases de don­nées ne per­met pas des accès souples et rapides pour extraire les échan­tillons per­ti­nents pour la modé­li­sa­tion et l’apprentissage.

Les méthodes d’apprentissage se scindent en deux selon le carac­tère super­vi­sé ou non super­vi­sé des don­nées, c’est-à-dire selon la dis­po­ni­bi­li­té ou non de don­nées anno­tées par un expert humain. 

Or, le suc­cès des méthodes d’apprentissage dans les appli­ca­tions inter­net, notam­ment l’indexation d’images, de musique et de vidéo, repose sur un tra­vail consi­dé­rable d’annotation réa­li­sé en grande par­tie par des opé­ra­teurs humains (voir, par exemple, la place de mar­ché Ama­zon Mecha­ni­cal Turk2, ou le prin­cipe du capt­cha pour iden­ti­fier les uti­li­sa­teurs humains et fil­trer les robots sur cer­taines pages web). 

Dans le domaine indus­triel, notam­ment dans les sys­tèmes cri­tiques ou les appli­ca­tions bio­mé­di­cales, il est peu pro­bable que l’apprentissage non super­vi­sé conduise à des réa­li­sa­tions majeures autres que dans l’analyse explo­ra­toire de données. 

Il est alors cru­cial de dis­po­ser de don­nées qua­li­fiées et anno­tées. Or, ce tra­vail labo­rieux pré­sente un coût impor­tant et mobi­lise des experts qui peuvent se sen­tir dépos­sé­dés de leur savoir-faire dans cette étape. C’est pour­tant une clé de la réussite. 

DES ALGORITHMES POUR L’APPRENTISSAGE


Les experts peuvent se sen­tir dépos­sé­dés de leur savoir-faire.
© JAKUB JIRSÁK

SOUS-APPRENTISSAGE ET SURAPPRENTISSAGE

Il faut trouver la courbe en U et résoudre le compromis biais-variance : la relation entre performance statistique et complexité, et une courbe en forme de U qui illustre le fait que des modèles trop simples peuvent ne pas rendre compte d’un mécanisme de dépendance complexe (sous-apprentissage), alors que des modèles trop complexes par rapport à la cible vont surinterpréter les données (surapprentissage).

Il faut dis­tin­guer deux niveaux dans la réso­lu­tion algo­rith­mique du pro­blème d’apprentissage auto­ma­tique : (1) la phase d’apprentissage d’une règle de déci­sion à par­tir d’une famille de règles can­di­dates, (2) l’exécution de la règle de déci­sion qui se pré­sente sous une forme ana­ly­tique expli­cite sur une nou­velle don­née pour pro­duire une pré­dic­tion pertinente. 

Ces deux niveaux peuvent satis­faire à des exi­gences radi­ca­le­ment dif­fé­rentes en termes de tem­po­ra­li­té et de cal­cul. Ain­si, la phase d’apprentissage cor­res­pond à l’exécution d’un pro­gramme d’optimisation cou­plé avec une base de don­nées, alors que le cal­cul de la règle de déci­sion consiste à appli­quer une for­mule qui peut conte­nir un grand nombre d’opérations.

On peut consi­dé­rer géné­ra­le­ment que l’apprentissage s’effectue hors-ligne et l’application de la règle de déci­sion doit être réa­li­sée en ligne et en temps réel. 

Il existe trois points clés pour une mise en œuvre réus­sie pour l’apprentissage automatique. 

CONCILIER PERFORMANCE STATISTIQUE ET ACCEPTABILITÉ

Un algo­rithme d’apprentissage opère géné­ra­le­ment comme un pro­gramme d’optimisation d’un cer­tain cri­tère de per­for­mance à par­tir d’un jeu de don­nées exis­tant, la vali­di­té du cri­tère ayant un sens avant tout sta­tis­tique (exemple de cri­tère objec­tif pour une tâche de recon­nais­sance : le taux d’objets cor­rec­te­ment classés). 

Or, l’acceptabilité de la règle de déci­sion éta­blie peut dépendre d’autres aspects : 

  • la confor­mi­té opé­ra­tion­nelle (par exemple, contrainte de temps réel pour l’évaluation du résul­tat par la règle de déci­sion sur une nou­velle don­née, cf. cas des enchères en ligne sur les ban­nières publi­ci­taires ou tra­ding algo­rith­mique, les déci­sions doivent être ren­dues en quelques millisecondes) ; 
  • la qua­li­té de l’expérience-utilisateur (par exemple, en recon­nais­sance des formes, le sys­tème recon­naît par­fai­te­ment tous les objets sauf ceux qui inté­ressent l’utilisateur) ;
  • l’alignement avec les objec­tifs éco­no­miques (par exemple, dans le mar­ke­ting numé­rique, équi­libre entre le taux de clics qui rend compte de la per­for­mance du sys­tème de ciblage et la valo­ri­sa­tion éco­no­mique qui peut être réa­li­sée via dif­fé­rents modèles) ; 
  • enfin, le res­pect de l’éthique (par exemple, l’IA « raciste » de Microsoft/Tay).

Pour finir, il faut assu­rer le sui­vi de la règle de déci­sion pen­dant tout son cycle de vie : sui­vi conti­nu de la per­for­mance, adap­ta­tion au chan­ge­ment dans les don­nées, ges­tion de la nou­veau­té… L’enjeu de ce point est de s’assurer que la qua­li­té du sys­tème ne se dégra­de­ra pas signi­fi­ca­ti­ve­ment au cours du temps. 

Dans cer­tains domaines, l’ensemble des garan­ties à four­nir sur l’environnement d’un algo­rithme d’apprentissage devra faire l’objet de pro­cé­dures de certification. 

L’ACCÈS AUX RESSOURCES EST CRUCIAL

Dans cette période d’émergence de l’apprentissage auto­ma­tique, la prio­ri­té est don­née aux études dites de fai­sa­bi­li­té, sur des modèles réduits (péri­mètre res­treint des don­nées en espace et en temps, et non prise en compte des contraintes d’opération).

Amphithéatre du master MVA (Mathématiques-Vision- Apprentissage) de l’ENS Paris-Saclay
Dans le domaine de l’IA, la for­ma­tion d’excellence est le mas­ter MVA (Mathé­ma­tiques-Vision- Appren­tis­sage) de l’ENS Paris-Saclay qui, en 2017, a accueilli plus de 150 étu­diants dont 60 poly­tech­ni­ciens. © ENS PARIS-SACLAY

Or, cette démarche per­met au mieux de réa­li­ser un état des lieux sur les don­nées dis­po­nibles, mais ne per­met pas réel­le­ment de rendre compte de ce qui est attei­gnable dans un fonc­tion­ne­ment industriel. 

La ques­tion du pas­sage à l’échelle (en espace et en temps) doit être inté­grée dans la réflexion dès les pre­mières étapes d’un projet. 

Ain­si, l’accès à des moyens de cal­cul rele­vant du cal­cul de haute per­for­mance (HPC) peut se révé­ler cri­tique pour cer­taines appli­ca­tions mais le dimen­sion­ne­ment de ces moyens est sans aucun doute très varié selon la nature et l’organisation des don­nées, les choix algo­rith­miques (par exemple, nature du prin­cipe d’optimisation sous-jacent) et la réso­lu­tion du com­pro­mis biais-variance, les contraintes opé­ra­tion­nelles por­tant sur l’actualisation et le déploie­ment de la règle de déci­sion résul­tant de l’apprentissage.

Le lien entre appren­tis­sage auto­ma­tique et HPC est par­ti­cu­liè­re­ment inté­res­sant puisque les infra­struc­tures pour le HPC sont elles-mêmes des sys­tèmes com­plexes qui pro­duisent des don­nées à appré­hen­der et sujettes à la valo­ri­sa­tion par appren­tis­sage (contrôle d’expériences, main­te­nance pré­ven­tive, etc.). 

Enfin, les approches hybrides mêlant modé­li­sa­tion phy­sique et exploi­ta­tion des don­nées expé­ri­men­tales ou des rele­vés du ter­rain vont vrai­sem­bla­ble­ment se déve­lop­per en inter­ac­tion avec l’utilisation des grands calculateurs. 

UN ENJEU DE TAILLE : LE FACTEUR HUMAIN

UN RÔLE POUR LES EXPERTS ?

La mise à contribution ou non d’experts « métier » (quand le sujet s’y prête) peut radicalement changer la complexité de la résolution algorithmique puisque cela revient à réduire drastiquement la dimension du problème (par exemple, en reconnaissance des formes, l’apprentissage sur les caractéristiques géométriques d’une forme est de bien moindre complexité que l’apprentissage sur la base des pixels de l’image).

Si les briques tech­no­lo­giques actuelles dans le domaine de l’IA pré­sentent, sous réserve d’intégration, un poten­tiel qua­si­ment illi­mi­té, les acteurs tra­di­tion­nels, publics ou pri­vés, tous sec­teurs d’activité confon­dus, peinent à trou­ver la voie pour s’équiper et se pré­mu­nir ain­si du risque d’intermédiation.

Il convient de s’intéresser aux évo­lu­tions atten­dues dans les pos­tures et les métiers liés d’une manière ou d’une autre à l’intégration d’outils et de sys­tèmes rele­vant de l’IA. Ain­si, on peut ima­gi­ner qu’un cer­tain nombre de rôles vont émer­ger à l’occasion de la mise en place de tels systèmes. 

  • Il y a d’une part le spon­sor, mana­ger ou poli­tique qui per­çoit les enjeux stra­té­giques de l’IA pour son orga­ni­sa­tion, dimen­sionne le coût de déve­lop­pe­ment, motive son orga­ni­sa­tion et faci­lite l’acceptabilité de la solu­tion envisagée ; 
  • puis, le concep­teur, expert en science des don­nées, algo­rith­mie de l’apprentissage, ingé­nie­rie des sys­tèmes com­plexes, qui va construire et spé­ci­fier une solution ; 
  • l’intégrateur, l’expert infor­ma­ti­cien capable d’implémenter le sys­tème dans une ins­tan­cia­tion spécifique ; 
  • l’entraîneur, ingé­nieur spé­cia­li­sé dans la ges­tion des don­nées qui peut actua­li­ser le sys­tème en cou­plage avec une base de données ; 
  • le super­vi­seur, expert « métier » pou­vant ajus­ter le com­por­te­ment du sys­tème selon les retours d’expérience ;
  • l’utilisateur, expert « métier » ou grand public qui inter­agit au quo­ti­dien avec le sys­tème, fami­lier des capa­ci­tés et des limites du système ; 
  • enfin, le juge, auto­ri­té morale ou légale qui apporte la garan­tie que le sys­tème res­pecte un cer­tain code de conduite. 

L’IA AU SECOURS DE L’HUMAIN FAILLIBLE ?

Par ailleurs, l’interaction crois­sante de l’humain avec des inter­faces numé­riques aux apti­tudes gran­dis­santes va sou­le­ver des ques­tions inté­res­santes sur l’ergonomie de cette relation. 

LE PROCHAIN REMBRANDT

Le projet The next Rembrandt3 rend compte de la réalisation d’un nouveau tableau dans la continuité des œuvres du grand maître hollandais, mais qui n’aurait certainement pas vu le jour si Rembrandt n’avait pas réellement existé.

Faut-il pas­ser le volant à l’homme pour gérer les 5 % des situa­tions à risque ? Des faits récents montrent que les consé­quences peuvent être désas­treuses (voir, par exemple, les causes du crash du vol Paris-Rio). Il faut recher­cher les méca­nismes de cette ten­sion au plus pro­fond de la neu­ro­phy­sio­lo­gie du corps humain et des boucles sen­so­ri­mo­trices qui en régissent le comportement. 

Outre les ques­tions liées au pilo­tage des sys­tèmes auto­ma­ti­sés ou semi-auto­ma­ti­sés, il y a éga­le­ment la ques­tion de l’impact à plus long terme de cette inter­ac­tion : com­ment pré­ser­ver un cer­tain patri­moine intel­lec­tuel dans un monde sans experts et une capa­ci­té d’inventivité dans un uni­vers où les tech­no­lo­gies numé­riques risquent d’appauvrir notre expé­rience du monde sensible ? 

L'évolution humaine vers l'intelligence artificielle
L’humain sera-t-il rem­pla­cé ou aug­men­té par les tech­no­lo­gies qu’il va créer ? © PICT RIDER

Par ailleurs, les sys­tèmes dotés d’intelligence arti­fi­cielle peuvent certes créer de la nou­veau­té mais uni­que­ment dans la conti­nui­té de ce que l’humain a déjà créé. 

En conclu­sion, les ques­tions de fond sub­sistent : l’humain sera-t-il rem­pla­cé ou aug­men­té par les tech­no­lo­gies qu’il va créer ? Les vieilles entre­prises seront-elles rem­pla­cées par les jeunes entre­prises opé­rant sur Inter­net, telles des pieuvres géantes ? L’histoire n’est pas encore écrite mais elle sera cer­tai­ne­ment très dif­fé­rente selon que le déve­lop­pe­ment de l’IA inté­gre­ra ou non le fac­teur humain tant dans sa concep­tion que dans la per­cep­tion de ses usages à venir.
 

__________________________________
1. 1 exa­oc­tet = 1 mil­liard de mil­liards d’octets.
2. Ser­vice de micro­tra­vail par crowd­sour­cing conçu pour accé­lé­rer l’annotation d’images sur le Web notamment.
3. https://www.nextrembrandt.com/

Poster un commentaire