Construire l’IA : des données, des algorithmes, des ressources et des hommes

Dossier : Simulation et supercalculateursMagazine N°732 Février 2018
Par Nicolas VAYATIS (D2000)

Après deux vagues d’échecs, les cal­culs de l’in­tel­li­gence arti­fi­cielle peu­vent main­tenant trans­former notre société. Il ne faut pas en crain­dre les risques, car si les développe­ments sont per­mis par la pro­fu­sion de don­nées traitées avec des cal­cu­la­teurs haute per­for­mance, il s’avère qu’il faut inté­gr­er le fac­teur humain tant dans la con­cep­tion que dans la per­cep­tion des usages à venir. 

La révo­lu­tion annon­cée de l’IA résulte de la con­ver­gence de trois fac­teurs. D’une part, la pro­fu­sion de don­nées numérisées via l’Internet, les out­ils internes des entre­pris­es et des cen­tres de recherche sci­en­tifique, les plate­formes numériques, les réseaux de cap­teurs, l’Internet des objets, etc. 

D’autre part, la matu­rité des com­mu­nautés sci­en­tifiques en math­é­ma­tiques et en infor­ma­tique sur le thème de l’apprentissage automa­tique, avec les avancées de la mod­éli­sa­tion sta­tis­tique de don­nées com­plex­es, le développe­ment et l’analyse d’algorithmes sophis­tiqués focal­isés sur l’optimisation de règles prédictives. 

Et enfin, la disponi­bil­ité de ressources matérielles et d’environnements logi­ciels ouvrant des per­spec­tives pra­tique­ment illim­itées pour le stock­age, le cal­cul et le développe­ment logi­ciel sur un mode collaboratif. 

Il s’agit de la troisième vague que con­naît le grand pub­lic sur le thème de l’IA, les deux pre­mières n’ayant pas eu l’impact atten­du – ou craint – sur l’humanité.

En réal­ité, cette trans­for­ma­tion est déjà en cours, mais à des rythmes très dis­parates selon les domaines d’application : très rapi­de dans l’Internet, le mar­ket­ing numérique, le tourisme, et le trans­port, plus pous­sif dans l’industrie tra­di­tion­nelle, et presque au départ dans la san­té, la for­ma­tion et la ges­tion des compétences. 

REPÈRES

Chaque seconde, 29 000 gigaoctets (Go) d’informations sont publiés dans le monde, soit 2,5 exaoctets1 par jour, soit 912,5 exaoctets par an.
Ces données représentent un gisement de ressources considérable : ainsi, l’International Data Corporation (IDC) estime que le marché du cloud (stockage, exploitation des données) atteindra 554 milliards de dollars en 2021, doublant sa valeur de 2016.

LES CLÉS DE L’APPRENTISSAGE AUTOMATIQUE, MOTEUR DE L’IA MODERNE

La fièvre du big data est quelque peu retombée suite au con­stat que la masse ne suf­fit pas : l’ordre et le sens ont aus­si leur importance. 

En effet, la notion d’information dans ce con­texte mérite d’être dévelop­pée ici. Elle relève de trois niveaux : la mesure (sig­nal), la répéti­tion sta­tis­tique (régu­lar­ité du phénomène) et l’appréciation experte (label­li­sa­tion ou anno­ta­tion par l’expert humain). 

LES NOUVEAUX ALGORITHMES D’APPRENTISSAGE

Les algorithmes modernes d’apprentissage n’échappent pas aux prérequis des méthodes statistiques : il faut observer suffisamment les configurations d’intérêt pour un ensemble de variables avant de pouvoir les détecter et les prévoir.
La nouveauté vient de la capacité à prendre en compte un très grand nombre de variables explicatives et également les données dites structurées (patterns caractéristiques dans des signaux, des images, des vidéos, du texte, etc.).

Les espoirs portés dans les mass­es de don­nées accu­mulées sont par­fois déçus lorsque la valeur infor­ma­tion­nelle de ces don­nées n’a pas été éval­uée en amont et que leur organ­i­sa­tion dans les bases de don­nées ne per­met pas des accès sou­ples et rapi­des pour extraire les échan­til­lons per­ti­nents pour la mod­éli­sa­tion et l’apprentissage.

Les méth­odes d’apprentissage se scindent en deux selon le car­ac­tère super­visé ou non super­visé des don­nées, c’est-à-dire selon la disponi­bil­ité ou non de don­nées annotées par un expert humain. 

Or, le suc­cès des méth­odes d’apprentissage dans les appli­ca­tions inter­net, notam­ment l’indexation d’images, de musique et de vidéo, repose sur un tra­vail con­sid­érable d’annotation réal­isé en grande par­tie par des opéra­teurs humains (voir, par exem­ple, la place de marché Ama­zon Mechan­i­cal Turk2, ou le principe du captcha pour iden­ti­fi­er les util­isa­teurs humains et fil­tr­er les robots sur cer­taines pages web). 

Dans le domaine indus­triel, notam­ment dans les sys­tèmes cri­tiques ou les appli­ca­tions bio­médi­cales, il est peu prob­a­ble que l’apprentissage non super­visé con­duise à des réal­i­sa­tions majeures autres que dans l’analyse exploratoire de données. 

Il est alors cru­cial de dis­pos­er de don­nées qual­i­fiées et annotées. Or, ce tra­vail laborieux présente un coût impor­tant et mobilise des experts qui peu­vent se sen­tir dépos­sédés de leur savoir-faire dans cette étape. C’est pour­tant une clé de la réussite. 

DES ALGORITHMES POUR L’APPRENTISSAGE


Les experts peu­vent se sen­tir dépos­sédés de leur savoir-faire.
© JAKUB JIRSÁK

SOUS-APPRENTISSAGE ET SURAPPRENTISSAGE

Il faut trouver la courbe en U et résoudre le compromis biais-variance : la relation entre performance statistique et complexité, et une courbe en forme de U qui illustre le fait que des modèles trop simples peuvent ne pas rendre compte d’un mécanisme de dépendance complexe (sous-apprentissage), alors que des modèles trop complexes par rapport à la cible vont surinterpréter les données (surapprentissage).

Il faut dis­tinguer deux niveaux dans la réso­lu­tion algo­rith­mique du prob­lème d’apprentissage automa­tique : (1) la phase d’apprentissage d’une règle de déci­sion à par­tir d’une famille de règles can­di­dates, (2) l’exécution de la règle de déci­sion qui se présente sous une forme ana­ly­tique explicite sur une nou­velle don­née pour pro­duire une pré­dic­tion pertinente. 

Ces deux niveaux peu­vent sat­is­faire à des exi­gences rad­i­cale­ment dif­férentes en ter­mes de tem­po­ral­ité et de cal­cul. Ain­si, la phase d’apprentissage cor­re­spond à l’exécution d’un pro­gramme d’optimisation cou­plé avec une base de don­nées, alors que le cal­cul de la règle de déci­sion con­siste à appli­quer une for­mule qui peut con­tenir un grand nom­bre d’opérations.

On peut con­sid­ér­er générale­ment que l’apprentissage s’effectue hors-ligne et l’application de la règle de déci­sion doit être réal­isée en ligne et en temps réel. 

Il existe trois points clés pour une mise en œuvre réussie pour l’apprentissage automatique. 

CONCILIER PERFORMANCE STATISTIQUE ET ACCEPTABILITÉ

Un algo­rithme d’apprentissage opère générale­ment comme un pro­gramme d’optimisation d’un cer­tain critère de per­for­mance à par­tir d’un jeu de don­nées exis­tant, la valid­ité du critère ayant un sens avant tout sta­tis­tique (exem­ple de critère objec­tif pour une tâche de recon­nais­sance : le taux d’objets cor­recte­ment classés). 

Or, l’acceptabilité de la règle de déci­sion établie peut dépen­dre d’autres aspects : 

  • la con­for­mité opéra­tionnelle (par exem­ple, con­trainte de temps réel pour l’évaluation du résul­tat par la règle de déci­sion sur une nou­velle don­née, cf. cas des enchères en ligne sur les ban­nières pub­lic­i­taires ou trad­ing algo­rith­mique, les déci­sions doivent être ren­dues en quelques millisecondes) ; 
  • la qual­ité de l’expérience-utilisateur (par exem­ple, en recon­nais­sance des formes, le sys­tème recon­naît par­faite­ment tous les objets sauf ceux qui intéressent l’utilisateur) ;
  • l’alignement avec les objec­tifs économiques (par exem­ple, dans le mar­ket­ing numérique, équili­bre entre le taux de clics qui rend compte de la per­for­mance du sys­tème de ciblage et la val­ori­sa­tion économique qui peut être réal­isée via dif­férents modèles) ; 
  • enfin, le respect de l’éthique (par exem­ple, l’IA « raciste » de Microsoft/Tay).

Pour finir, il faut assur­er le suivi de la règle de déci­sion pen­dant tout son cycle de vie : suivi con­tinu de la per­for­mance, adap­ta­tion au change­ment dans les don­nées, ges­tion de la nou­veauté… L’enjeu de ce point est de s’assurer que la qual­ité du sys­tème ne se dégradera pas sig­ni­fica­tive­ment au cours du temps. 

Dans cer­tains domaines, l’ensemble des garanties à fournir sur l’environnement d’un algo­rithme d’apprentissage devra faire l’objet de procé­dures de certification. 

L’ACCÈS AUX RESSOURCES EST CRUCIAL

Dans cette péri­ode d’émergence de l’apprentissage automa­tique, la pri­or­ité est don­née aux études dites de fais­abil­ité, sur des mod­èles réduits (périmètre restreint des don­nées en espace et en temps, et non prise en compte des con­traintes d’opération).

Amphithéatre du master MVA (Mathématiques-Vision- Apprentissage) de l’ENS Paris-Saclay
Dans le domaine de l’IA, la for­ma­tion d’excellence est le mas­ter MVA (Math­é­ma­tiques-Vision- Appren­tis­sage) de l’ENS Paris-Saclay qui, en 2017, a accueil­li plus de 150 étu­di­ants dont 60 poly­tech­ni­ciens. © ENS PARIS-SACLAY

Or, cette démarche per­met au mieux de réalis­er un état des lieux sur les don­nées disponibles, mais ne per­met pas réelle­ment de ren­dre compte de ce qui est atteignable dans un fonc­tion­nement industriel. 

La ques­tion du pas­sage à l’échelle (en espace et en temps) doit être inté­grée dans la réflex­ion dès les pre­mières étapes d’un projet. 

Ain­si, l’accès à des moyens de cal­cul rel­e­vant du cal­cul de haute per­for­mance (HPC) peut se révéler cri­tique pour cer­taines appli­ca­tions mais le dimen­sion­nement de ces moyens est sans aucun doute très var­ié selon la nature et l’organisation des don­nées, les choix algo­rith­miques (par exem­ple, nature du principe d’optimisation sous-jacent) et la réso­lu­tion du com­pro­mis biais-vari­ance, les con­traintes opéra­tionnelles por­tant sur l’actualisation et le déploiement de la règle de déci­sion résul­tant de l’apprentissage.

Le lien entre appren­tis­sage automa­tique et HPC est par­ti­c­ulière­ment intéres­sant puisque les infra­struc­tures pour le HPC sont elles-mêmes des sys­tèmes com­plex­es qui pro­duisent des don­nées à appréhen­der et sujettes à la val­ori­sa­tion par appren­tis­sage (con­trôle d’expériences, main­te­nance préven­tive, etc.). 

Enfin, les approches hybrides mêlant mod­éli­sa­tion physique et exploita­tion des don­nées expéri­men­tales ou des relevés du ter­rain vont vraisem­blable­ment se dévelop­per en inter­ac­tion avec l’utilisation des grands calculateurs. 

UN ENJEU DE TAILLE : LE FACTEUR HUMAIN

UN RÔLE POUR LES EXPERTS ?

La mise à contribution ou non d’experts « métier » (quand le sujet s’y prête) peut radicalement changer la complexité de la résolution algorithmique puisque cela revient à réduire drastiquement la dimension du problème (par exemple, en reconnaissance des formes, l’apprentissage sur les caractéristiques géométriques d’une forme est de bien moindre complexité que l’apprentissage sur la base des pixels de l’image).

Si les briques tech­nologiques actuelles dans le domaine de l’IA présen­tent, sous réserve d’intégration, un poten­tiel qua­si­ment illim­ité, les acteurs tra­di­tion­nels, publics ou privés, tous secteurs d’activité con­fon­dus, peinent à trou­ver la voie pour s’équiper et se pré­mu­nir ain­si du risque d’intermédiation.

Il con­vient de s’intéresser aux évo­lu­tions atten­dues dans les pos­tures et les métiers liés d’une manière ou d’une autre à l’intégration d’outils et de sys­tèmes rel­e­vant de l’IA. Ain­si, on peut imag­in­er qu’un cer­tain nom­bre de rôles vont émerg­er à l’occasion de la mise en place de tels systèmes. 

  • Il y a d’une part le spon­sor, man­ag­er ou poli­tique qui perçoit les enjeux stratégiques de l’IA pour son organ­i­sa­tion, dimen­sionne le coût de développe­ment, motive son organ­i­sa­tion et facilite l’acceptabilité de la solu­tion envisagée ; 
  • puis, le con­cep­teur, expert en sci­ence des don­nées, algo­rith­mie de l’apprentissage, ingénierie des sys­tèmes com­plex­es, qui va con­stru­ire et spé­ci­fi­er une solution ; 
  • l’intégrateur, l’expert infor­mati­cien capa­ble d’implémenter le sys­tème dans une instan­ci­a­tion spécifique ; 
  • l’entraîneur, ingénieur spé­cial­isé dans la ges­tion des don­nées qui peut actu­alis­er le sys­tème en cou­plage avec une base de données ; 
  • le super­viseur, expert « méti­er » pou­vant ajuster le com­porte­ment du sys­tème selon les retours d’expérience ;
  • l’utilisateur, expert « méti­er » ou grand pub­lic qui inter­ag­it au quo­ti­di­en avec le sys­tème, fam­i­li­er des capac­ités et des lim­ites du système ; 
  • enfin, le juge, autorité morale ou légale qui apporte la garantie que le sys­tème respecte un cer­tain code de conduite. 

L’IA AU SECOURS DE L’HUMAIN FAILLIBLE ?

Par ailleurs, l’interaction crois­sante de l’humain avec des inter­faces numériques aux apti­tudes gran­dis­santes va soulever des ques­tions intéres­santes sur l’ergonomie de cette relation. 

LE PROCHAIN REMBRANDT

Le projet The next Rembrandt3 rend compte de la réalisation d’un nouveau tableau dans la continuité des œuvres du grand maître hollandais, mais qui n’aurait certainement pas vu le jour si Rembrandt n’avait pas réellement existé.

Faut-il pass­er le volant à l’homme pour gér­er les 5 % des sit­u­a­tions à risque ? Des faits récents mon­trent que les con­séquences peu­vent être désas­treuses (voir, par exem­ple, les caus­es du crash du vol Paris-Rio). Il faut rechercher les mécan­ismes de cette ten­sion au plus pro­fond de la neu­ro­phys­i­olo­gie du corps humain et des boucles sen­so­ri­motri­ces qui en régis­sent le comportement. 

Out­re les ques­tions liées au pilotage des sys­tèmes automa­tisés ou semi-automa­tisés, il y a égale­ment la ques­tion de l’impact à plus long terme de cette inter­ac­tion : com­ment préserv­er un cer­tain pat­ri­moine intel­lectuel dans un monde sans experts et une capac­ité d’inventivité dans un univers où les tech­nolo­gies numériques risquent d’appauvrir notre expéri­ence du monde sensible ? 

L'évolution humaine vers l'intelligence artificielle
L’humain sera-t-il rem­placé ou aug­men­té par les tech­nolo­gies qu’il va créer ? © PICT RIDER

Par ailleurs, les sys­tèmes dotés d’intelligence arti­fi­cielle peu­vent certes créer de la nou­veauté mais unique­ment dans la con­ti­nu­ité de ce que l’humain a déjà créé. 

En con­clu­sion, les ques­tions de fond sub­sis­tent : l’humain sera-t-il rem­placé ou aug­men­té par les tech­nolo­gies qu’il va créer ? Les vieilles entre­pris­es seront-elles rem­placées par les jeunes entre­pris­es opérant sur Inter­net, telles des pieu­vres géantes ? L’histoire n’est pas encore écrite mais elle sera cer­taine­ment très dif­férente selon que le développe­ment de l’IA inté­gr­era ou non le fac­teur humain tant dans sa con­cep­tion que dans la per­cep­tion de ses usages à venir.
 

__________________________________
1. 1 exaoctet = 1 mil­liard de mil­liards d’octets.
2. Ser­vice de micro­tra­vail par crowd­sourc­ing conçu pour accélér­er l’annotation d’images sur le Web notamment.
3. https://www.nextrembrandt.com/

Poster un commentaire