Enfants jouant et courant

La révolution de l’apprentissage machine autonome

Dossier : L'intelligence artificielleMagazine N°733 Mars 2018
Par Édouard GEOFFROIS

L’in­tel­li­gence arti­fi­cielle a bien pro­gres­sé grâce au deep lear­ning qui per­met un appren­tis­sage auto­nome dans les cas simples. Les per­for­mances res­tent en deçà des attentes dans les cas plus com­plexes où il faut impli­quer le concep­teur du sys­tème pour opti­mi­ser le pro­ces­sus. La pro­chaine étape est de don­ner les moyens à l’u­ti­li­sa­teur de contrô­ler l’ap­pren­tis­sage de la machine. 

L’intel­li­gence arti­fi­cielle a connu des pro­grès conti­nus depuis des décen­nies. Ces pro­grès s’appuient sur des tech­niques d’apprentissage auto­ma­tique éla­bo­rées, notam­ment celles qua­li­fiées d’apprentissage pro­fond ou deep lear­ning, qui per­mettent d’exploiter des quan­ti­tés de don­nées dis­po­nibles sans cesse croissantes. 

Ils béné­fi­cient éga­le­ment de l’organisation d’expérimentations coor­don­nées qui per­mettent de com­pa­rer dif­fé­rentes approches et de gui­der les développements. 

L’ÉVALUATION DES SYSTÈMES INTELLIGENTS

À l’instar des examens d’étudiants, l’évaluation des systèmes intelligents suppose d’organiser des tests communs dont le sujet général est convenu au préalable, mais dont le contenu exact n’est communiqué qu’au dernier moment.
L’organisation de ce type de tests au service de la communauté scientifique et technologique est un facteur de progrès essentiel dans le domaine.

Ces pro­grès ont déjà conduit à de mul­tiples appli­ca­tions concrètes, dont cer­taines d’usage cou­rant. La détec­tion de visage est inté­grée dans la plu­part des appa­reils pho­tos, la tra­duc­tion auto­ma­tique en ligne rend des ser­vices indé­niables et par­ler à une machine n’étonne plus grand monde. 

Dans le cas par­ti­cu­lier des jeux, où les règles défi­nissent des uni­vers faci­le­ment acces­sibles à la machine et où l’affrontement entre joueurs se prête bien à la mise en scène, les avan­cées ont été spectaculaires. 

Ain­si, les suc­cès média­ti­sés de Deep Blue contre Kas­pa­rov aux échecs en 1997 et de Wat­son contre les cham­pions du jeu télé­vi­sé « Jeo­par­dy ! » en 2011 ont frap­pé les esprits. Celui d’AlphaGo contre Lee Sedol au jeu de go en 2016 a même contri­bué à remettre en avant le terme d’intelligence artificielle. 

Pour autant, dans bien des domaines, les per­for­mances res­tent en deçà des attentes. Même des pro­blèmes appa­rem­ment simples, du moins pour un être humain, sont loin d’être réso­lus. Par exemple, les robots sont encore inca­pables de se dépla­cer dans un envi­ron­ne­ment natu­rel comme le fait un enfant. 

Et pour reprendre les exemples pré­cé­dents de tech­no­lo­gies pour­tant déjà déployées, la détec­tion auto­ma­tique de visage est loin d’être infaillible et les erreurs de tra­duc­tion auto­ma­tique ou des inter­faces vocales sont par­fois cocasses. 

REPÈRES

En 2017, le logiciel AlphaGo Zero a atteint un niveau inédit au jeu de go sans autre donnée que les règles du jeu, simplement en jouant avec lui-même, grâce à de nouvelles techniques d’apprentissage.

UN BESOIN D’AUTONOMIE AU SERVICE DES UTILISATEURS

En par­ti­cu­lier, les uti­li­sa­teurs non experts n’ont actuel­le­ment pas les moyens de faire pro­gres­ser eux-mêmes les sys­tèmes, ou alors de manière très limitée. 

Par exemple si un robot ne recon­naît pas un objet ou un mot don­né, il est ten­tant de vou­loir lui expli­quer direc­te­ment, mais en pra­tique, quand on sou­haite une telle adap­ta­tion à un besoin par­ti­cu­lier, il faut impli­quer le concep­teur du sys­tème et attendre qu’il en pro­duise une nou­velle version. 

Cela empêche que l’adaptation soit ins­tan­ta­née, voire qu’elle ait sim­ple­ment lieu, et plus géné­ra­le­ment crée une situa­tion de dépendance. 


Les robots sont encore inca­pables de se dépla­cer dans un envi­ron­ne­ment natu­rel comme le fait un enfant © ROBERT KNESCHKE

Cette limi­ta­tion est liée au fait qu’avec les tech­niques actuelles, l’apprentissage dit auto­ma­tique ne l’est en fait pas complètement. 

En pra­tique, la per­for­mance des sys­tèmes dépend non seule­ment des don­nées uti­li­sées pour l’apprentissage auto­ma­tique mais aus­si de choix de concep­tion et de para­mètres qui sont opti­mi­sés de manière heuristique. 

Cette opti­mi­sa­tion reste ain­si un art, qui sup­pose une grande expé­rience, et le simple fait d’ajouter des don­nées n’est pas une garan­tie abso­lue d’amélioration, d’autant plus que ces don­nées peuvent être de qua­li­té variable. 

Les déboires de l’agent conver­sa­tion­nel Tay de Micro­soft, qu’un petit groupe d’utilisateurs a pu influen­cer pour lui faire tenir des pro­pos répré­hen­sibles, illus­trent bien le risque de dérive qu’il peut y avoir à inté­grer des don­nées sup­plé­men­taires sans reva­li­der le système. 

Il y a donc un besoin de capa­ci­tés d’apprentissage auto­nome par rap­port au concep­teur du sys­tème. Il ne s’agit pas de sup­pri­mer tout appren­tis­sage ini­tial effec­tué sous son contrôle, mais de per­mettre au sys­tème de conti­nuer à s’améliorer au-delà. 

Il ne s’agit pas non plus d’exclure toute super­vi­sion humaine lors de cet appren­tis­sage com­plé­men­taire, mais de faire en sorte qu’elle ne requière pas d’expertise par­ti­cu­lière en intel­li­gence artificielle. 

Au contraire, une super­vi­sion par l’utilisateur est même bien­ve­nue dans de nom­breuses appli­ca­tions, dans la mesure où l’effort asso­cié reste raisonnable. 

L’ÉMERGENCE DE L’APPRENTISSAGE AUTONOME

L’idée n’est pas nou­velle. Elle est même intui­tive, puisqu’elle cor­res­pond à notre propre mode de pen­sée, et l’article fon­da­teur d’Alan Turing sur l’intelligence arti­fi­cielle pré­sen­tait déjà l’apprentissage machine sous cet angle en 1950. 

QUELLE ÉVALUATION DE L’APPRENTISSAGE AUTONOME ?

Dans le cas particulier où on peut figer des données d’apprentissage, la capacité d’un système à apprendre de manière autonome peut être évaluée objectivement en effectuant l’apprentissage en amont d’un test classique et en mesurant si le système en a profité pour s’améliorer.
Dans le cas général, où l’apprentissage dépend du comportement du système et ne peut donc être figé, il faut recourir à des protocoles plus élaborés. On peut par exemple demander au système de résoudre un ensemble de problèmes plus ou moins liés en ayant la possibilité d’obtenir la solution de certains d’entre eux.
On mesure alors le niveau de supervision nécessaire pour résoudre l’ensemble des problèmes, qui est un indicateur de la capacité du système à apprendre d’une solution pour résoudre un autre problème.

Mais elle n’est pas évi­dente à mettre en œuvre, d’autant plus que jusqu’à récem­ment elle n’était pas clai­re­ment for­ma­li­sée, et en pra­tique les efforts se sont foca­li­sés sur l’exploitation de masses de don­nées au détri­ment de l’automatisation com­plète du pro­ces­sus d’apprentissage.

Néan­moins, les solu­tions pour répondre à ce besoin sont en train d’émerger. Dans le cas par­ti­cu­lier des jeux, une per­cée impres­sion­nante a déjà été obte­nue avec la mise au point d’AlphaGo Zero, qui a dépas­sé en peu de temps tous les autres logi­ciels de jeu de go sans aucune don­née autre que les règles du jeu, en jouant sim­ple­ment avec lui-même. 

Dans le cas géné­ral, les tech­niques néces­saires sont pour l’essentiel dis­po­nibles mais néces­sitent encore d’être inté­grées et opti­mi­sées. Pour cela, il est impor­tant de bien défi­nir l’objectif visé au tra­vers de pro­to­coles d’évaluation rigou­reux. Or, de tels pro­to­coles ont été pro­po­sés récem­ment (voir enca­dré) et de pre­mières cam­pagnes d’expérimentations coor­don­nées sont en pré­pa­ra­tion dans le cadre de pro­jets sou­te­nus par le pro­gramme de recherche euro­péen CHIST-ERA. 

L’expérience montre que de telles cam­pagnes jouent un rôle de cata­ly­seur et per­mettent des pro­grès cumu­la­tifs. Les condi­tions sont donc aujourd’hui réunies pour une accé­lé­ra­tion des pro­grès et on peut s’attendre à ce que les capa­ci­tés d’apprentissage auto­nome deviennent cou­rantes dans les années à venir. 

UNE ÉVOLUTION AUX CONSÉQUENCES MAJEURES

Ces nou­velles capa­ci­tés per­met­tront non seule­ment une adap­ta­tion plus facile et immé­diate aux besoins de l’utilisateur, mais aus­si de le faire loca­le­ment et donc d’offrir des solu­tions plus res­pec­tueuses de la vie pri­vée et de la confi­den­tia­li­té des données. 

machine joueuse de go
La machine bat désor­mais les meilleurs joueurs de go. © SERGEY

On peut ain­si ima­gi­ner des objets connec­tés intel­li­gents qui ne com­mu­niquent à l’extérieur que le strict néces­saire, tout en évo­luant avec leurs uti­li­sa­teurs. De plus, chaque sys­tème pou­vant ain­si évo­luer selon un par­cours qui lui est propre, on assis­te­ra à une indi­vi­dua­li­sa­tion de ces sys­tèmes alors qu’ils sont aujourd’hui très standardisés. 

Une consé­quence plus indi­recte est liée au fait qu’à par­tir du moment où une adap­ta­tion par un tiers autre que le concep­teur est pos­sible, cette adap­ta­tion peut se faire en cas­cade. Cela conduit à une orga­ni­sa­tion de la filière de l’intelligence arti­fi­cielle plus diver­si­fiée qu’aujourd’hui, avec l’apparition d’un nou­veau métier qui consiste à sélec­tion­ner et adap­ter des sys­tèmes intel­li­gents pour répondre au mieux aux besoins d’utilisateurs tiers. 

Cer­tains parlent déjà de coach pour robots. Et comme il ne sera plus néces­saire de cen­tra­li­ser les don­nées pour obte­nir des per­for­mances opti­males, l’organisation de cette filière sera aus­si plus décen­tra­li­sée, ce qui peut conduire à une concur­rence éco­no­mique plus équi­li­brée qu’aujourd’hui.

Cette évo­lu­tion crée ain­si de nou­velles oppor­tu­ni­tés, mais pose aus­si de nou­veaux défis. En don­nant plus de contrôle aux uti­li­sa­teurs, elle leur donne aus­si de nou­velles res­pon­sa­bi­li­tés. En condui­sant à une bien plus grande varié­té de sys­tèmes, elle rend les risques de dérive plus variés, même s’ils seront plus locaux. 

Pour résu­mer, en démo­cra­ti­sant le contrôle, elle le complexifie. 

“ Une organisation de la filière de l’intelligence artificielle plus diversifiée et décentralisée qu’aujourd’hui ”

Il fau­dra pré­ve­nir, détec­ter et cor­ri­ger les dérives non seule­ment lors de la concep­tion des sys­tèmes, mais aus­si de leur for­ma­tion et de leur édu­ca­tion. Les solu­tions sont à la fois tech­niques et orga­ni­sa­tion­nelles. La mise en place d’un cadre de confiance impli­quant un large spectre d’acteurs est pro­ba­ble­ment néces­saire, en s’appuyant sur les réflexions déjà enga­gées sur les ques­tions d’éthique en intel­li­gence artificielle. 

En résu­mé, après l’apprentissage auto­ma­tique, qui est au cœur des pro­grès de ces der­nières décen­nies mais n’est en pra­tique pas si auto­ma­ti­sé que le terme peut le lais­ser croire, l’arrivée de l’apprentissage auto­nome va pro­ba­ble­ment repré­sen­ter une rup­ture majeure pour l’intelligence artificielle. 

Ces nou­velles capa­ci­tés vont démo­cra­ti­ser l’apprentissage machine en don­nant plus de contrôle aux uti­li­sa­teurs, décen­tra­li­ser l’organisation de la filière, l’enrichir de nou­veaux types d’acteurs, et démul­ti­plier les possibilités. 

C’est une révo­lu­tion qui s’annonce. Il faut l’anticiper pour en tirer le meilleur par­ti tout en en maî­tri­sant les risques.
 

POUR ALLER PLUS LOIN :

  • Alan M. Turing, « Computing Machinery and Intelligence », Mind, vol. 59, p. 433–460, 1950.
  • Rodney Douglas and Terry Sejnowski, NSF Workshop on « Future Challenges for the Science and Engineering of Learning », Arlington, Virginia, July 23–25, 2007.
  • Édouard Geoffrois, « Evaluating Interactive System Adaptation », Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC), 2016.
  • David Silver et al., « Mastering the game of Go without human knowledge », Nature, vol. 550, p. 354–359, 2017.

Poster un commentaire