Il est temps de réfléchir aux nouvelles valeurs éthiques

Dossier : La RobotiqueMagazine N°655 Mai 2010
Par Jean-Christophe BAILLIE (94)

Comme toute nou­velle tech­no­lo­gie de rup­ture, la robo­tique va modi­fier notre quo­ti­dien. Que ce soit pour la sur­veillance, l’aide aux per­sonnes, le diver­tis­se­ment ou l’é­du­ca­tion, les robots vont accom­pa­gner nos modes de vie et vont sans aucun doute, comme toute nou­velle tech­no­lo­gie, sou­le­ver des ques­tions éthiques, par­fois ori­gi­nales, par­fois plus clas­siques. D’in­té­res­santes ini­tia­tives sont déjà prises en France sur ce sujet.

Les robots vont-ils prendre notre tra­vail ? Vont-ils se retour­ner contre nous ? Est-ce que les robots vont nous rendre dépendants ?

Nous arri­vons à un moment clef dans le déve­lop­pe­ment de la robotique

Ces ques­tions clas­siques illus­trent l’in­té­rêt crois­sant por­té aux sujets éthiques liés à la robo­tique, ques­tions sou­vent limi­tées à ce que les films hol­ly­woo­diens nous donnent à en voir.

Un sujet qui passionne

Cet inté­rêt, et le besoin d’en débattre, va aller crois­sant alors que la robo­tique, en par­ti­cu­lier la robo­tique grand public, va entrer pro­gres­si­ve­ment dans notre quo­ti­dien. Dans le cadre du syn­di­cat » Syro­bo » des acteurs de la robo­tique grand public, il est envi­sa­gé une com­mis­sion sur l’é­thique et la robo­tique afin de com­men­cer à mener une réflexion en amont sur ce thème et de pou­voir affi­ner notre com­pré­hen­sion des enjeux sous-jacents, tout en pro­po­sant éven­tuel­le­ment des recommandations.

REPÈRES
Le robot appa­raît comme une machine d’un type nou­veau par son auto­no­mie, sa capa­ci­té d’in­te­rac­tion avec les per­sonnes et l’en­vi­ron­ne­ment, ses facul­tés d’ap­pren­tis­sage qui lui per­mettent de s’a­dap­ter et, de manière géné­rale, par la nature com­plexe ou dan­ge­reuse des tâches qu’il peut réa­li­ser, lui don­nant la pos­si­bi­li­té de rem­pla­cer ou de dépas­ser l’Homme. C’est cette com­bi­nai­son de qua­li­tés qui dif­fé­ren­cie le robot dans l’in­cons­cient col­lec­tif du simple outil ou de la machine à laver, à tis­ser, à cou­per, etc. C’est l’i­dée que, par ses qua­li­tés, le robot se rap­proche de l’Homme et, d’une cer­taine manière, entre en com­pé­ti­tion avec lui sur le plan phy­sique, intel­lec­tuel, émo­tion­nel. En cela, c’est un objet qui sou­lève des inter­ro­ga­tions éthiques nou­velles car il force plus que toute autre inven­tion à se poser des ques­tions sur ce qui défi­nit la nature humaine, ce qui est inhé­rent à l’Homme ou ce qu’il peut aban­don­ner à des machines. Cette ques­tion n’est pas nou­velle, du golem aux lud­dites, elle ne cesse d’ac­com­pa­gner les pro­grès de la technologie.

Dans la pra­tique, les robots que l’on peut ache­ter aujourd’­hui ont une auto­no­mie limi­tée, des capa­ci­tés d’ap­pren­tis­sage encore réduites et sont glo­ba­le­ment assez loin de poser des pro­blèmes éthiques d’un genre nou­veau. Per­sonne n’a à se plaindre du fait que l’as­pi­ra­teur auto­ma­tique Room­ba nous évite quelques heures de ménage par mois, et ce n’est pas cette machine qui va faire s’effondrer le mar­ché du tra­vail dans le monde.

SHUTTER STOCK

Mais la tech­no­lo­gie en robo­tique pro­gresse très vite : la vision arti­fi­cielle pour recon­naître des images, des visages, pour se loca­li­ser dans l’es­pace, la syn­thèse et la recon­nais­sance vocales, la méca­tro­nique, les tech­niques d’ap­pren­tis­sage par ren­for­ce­ment, toutes ces tech­no­lo­gies ont fait des pro­grès remar­quables au cours des dix der­nières années. Ajou­tons à cela les pro­grès dans la minia­tu­ri­sa­tion, les cap­teurs, les bat­te­ries et le prix en baisse de ces tech­no­lo­gies, et nous arri­vons très cer­tai­ne­ment à un point de conver­gence et un moment clef dans le déve­lop­pe­ment de la robo­tique. Dans de nom­breux labo­ra­toires et dans quelques socié­tés pri­vées, dont cer­taines fran­çaises, des machines réel­le­ment impres­sion­nantes sont construites à ce jour et devraient être dis­po­nibles sur le mar­ché au plus tard dans la décen­nie à venir. Des machines qui entrent tout à fait dans le cadre de la défi­ni­tion pra­tique du » robot » et qui sus­ci­te­ront cer­tai­ne­ment des débats éthiques.

Légi­fé­rer temporairement
Si réel­le­ment la socié­té n’ar­ri­vait pas à se réin­ven­ter ou s’a­dap­ter assez vite, il res­te­rait tou­jours la pos­si­bi­li­té de légi­fé­rer pour res­treindre les domaines où la robo­tique peut être employée, en atten­dant d’ou­vrir pro­gres­si­ve­ment de nou­velles pers­pec­tives pour cha­cun et d’or­ga­ni­ser une tran­si­tion vers une éco­no­mie robo­tique. Nous n’en sommes pas là, mais les enjeux pour la crois­sance et la créa­tion d’emplois sont réels et il faut que l’Eu­rope et la France en par­ti­cu­lier puissent jouer un rôle clé dans cette éco­no­mie de demain.

Chômage et création de nouveaux métiers

Le pre­mier risque est celui de l’aug­men­ta­tion du chô­mage pour les employés les moins qua­li­fiés. On évoque jus­qu’à 30 % de la popu­la­tion sans tra­vail et sans pers­pec­tive d’en retrou­ver, ce qui peut mener à un effon­dre­ment social dont les consé­quences sont imprévisibles.

La robo­tique va peut-être aider les hommes à se rapprocher

L’é­du­ca­tion et la for­ma­tion conti­nue jouent un rôle cru­cial, mais sera-t-il suf­fi­sant ? Les pertes d’emplois géné­rées par la robo­ti­sa­tion peuvent favo­ri­ser la créa­tion de nou­veaux métiers liés à la robo­tique (entre­tien, ser­vice, for­ma­tion), mais éga­le­ment ortho­go­naux à la robo­tique, en par­ti­cu­lier les métiers de proxi­mi­té où le contact humain est la véri­table valeur ajou­tée (aide aux per­sonnes seules, aux enfants, acti­vi­tés artis­tiques, cultu­relles, etc.).

Cela peut néces­si­ter des évo­lu­tions fortes de la socié­té, tout comme l’a été la tran­si­tion du monde de la révo­lu­tion indus­trielle à celui de l’ère tech­no­lo­gique que nous vivons actuellement.

Recentrer les rapports humains

Le second risque sou­vent évo­qué est la déshu­ma­ni­sa­tion. Alors que nous allons vivre pro­gres­si­ve­ment dans un monde de plus en plus entou­ré de robots, des robots patients, tolé­rants, imper­tur­bables, atten­tion­nés, à quel point n’en vien­drions- nous pas à pré­fé­rer leur com­pa­gnie à celle des êtres humains ? L’en­semble des liens qui unissent les êtres humains dépasse une simple ana­lyse uti­li­taire, et, sauf cas patho­lo­gique, l’Homme res­te­ra un ani­mal social et aura donc un besoin fort de contact avec ses sem­blables. Au contraire, la robo­tique peut recen­trer les rap­ports humains sur ce qui fait leur vraie valeur et leur véri­table inté­rêt. Plu­tôt que de déshu­ma­ni­ser, la robo­tique va peut-être au contraire aider les Hommes à se rapprocher.

Poignée de main avec un robot
ISTOCK PHOTO

Accentuer la dépendance technologique

Le troi­sième exemple concerne la dépen­dance tech­no­lo­gique, le risque de voir un monde où l’Homme ne peut tout sim­ple­ment plus se pas­ser des robots pour survivre.

Il faut se gar­der des réponses trop simples ou imagées

Ce monde existe déjà, bien sûr, même si notre dépen­dance n’est pas liée aux robots : ima­gi­nons un ins­tant ce que pro­vo­que­rait une cou­pure glo­bale de l’élec­tri­ci­té sur la pla­nète en quelques semaines, voire quelques jours. Et ce n’est qu’un exemple par­mi de nom­breux autres ; notre dépen­dance tech­no­lo­gique est déjà une réalité.

Les trois lois d’Asimov
Célèbre auteur de science-fic­tion, Isaac Asi­mov (1920−1992) a consa­cré une grande par­tie de son oeuvre aux robots, du moins tels qu’il pou­vait les ima­gi­ner dans un futur plus ou moins loin­tain. Les robots d’A­si­mov res­pectent trois lois fon­da­men­tales : 1) un robot ne peut por­ter atteinte à un être humain, ni, res­tant pas­sif, per­mettre qu’un être humain soit expo­sé au dan­ger ; 2) un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la pre­mière loi ; 3) un robot doit pro­té­ger son exis­tence tant que cette pro­tec­tion n’entre pas en conflit avec la pre­mière ou la seconde loi.

La robo­tique vien­drait sans doute contri­buer à accen­tuer cette dépen­dance géné­rale à la tech­no­lo­gie, mais on peut aus­si ima­gi­ner qu’au contraire elle nous per­mette d’être plus résis­tants aux acci­dents : un robot peut répa­rer un autre robot, qui peut répa­rer une cen­trale élec­trique, etc., et cela peut-être mieux que nous ne pour­rions le faire nous-mêmes.

Des missions militaires

Le der­nier exemple est celui de l’u­sage mili­taire de la robo­tique. Il est évi­dem­ment inquié­tant d’i­ma­gi­ner un robot auto­ri­sé à tirer sur un humain de manière auto­nome, et ce type de scé­na­rio reste encore très peu pro­bable pour des rai­sons évi­dentes. La majo­ri­té des appli­ca­tions mili­taires concernent la sur­veillance, le démi­nage, la recon­nais­sance, et en ce sens le robot ne fait que pro­té­ger, ou amé­lio­rer les capa­ci­tés d’ac­tion des sol­dats, sans en chan­ger radi­ca­le­ment la nature. Le risque peut-être le plus impor­tant est de rendre le coût social d’une inter­ven­tion armée de moins en moins éle­vé, car le risque de devoir faire face à des pertes mas­sives de troupes dimi­nue. Il y a une pos­si­bi­li­té que cela bana­lise le recours à la force dans de nom­breux conflits. La nature des conflits évo­lue en per­ma­nence avec l’ar­ri­vée de nou­velles tech­no­lo­gies, et il faut res­ter poli­ti­que­ment vigi­lant face à l’es­ca­lade qui peut en décou­ler. On repense ici aux efforts pour la non-pro­li­fé­ra­tion nucléaire, par exemple.

Vie pri­vée et démocratie
De nom­breuses autres ques­tions se posent : res­pect de la vie pri­vée avec des robots omni­pré­sents et connec­tés, accès démo­cra­tique aux tech­no­lo­gies (les robots seront-ils chers ?), pro­blèmes envi­ron­ne­men­taux, éner­gé­tiques, etc. Les robots ne posent d’ailleurs pas for­cé­ment que des ques­tions nou­velles, mais par­tagent les mêmes pro­blé­ma­tiques que n’im­porte quel objet d’élec­tro­nique grand public.

Réfléchir en amont

SHUTTERSTOCK

Face à ces ques­tions, quelles réponses pou­vons- nous appor­ter ? Il faut bien sûr être très humble ici, car il n’y a pas de réponse toute faite, d’au­tant plus que les pro­blèmes poten­tiels ne sont pas for­cé­ment bien iden­ti­fiés aujourd’­hui. Une pre­mière chose impor­tante est d’ou­vrir le débat, d’é­cou­ter et de réflé­chir en amont à ces ques­tions. C’est ce que nous essayons de faire par exemple dans le cadre de la Com­mis­sion éthique et robo­tique de Syro­bo. D’autres ini­tia­tives simi­laires existent aux États-Unis, au Japon, en Corée, en Ita­lie et au niveau euro­péen. La deuxième chose est de se gar­der des réponses trop simples ou ima­gées, comme, par exemple, les fameuses trois lois d’A­si­mov. Il fau­drait consa­crer un article entier à expli­quer en quoi cette approche, dite » éthique déon­to­lo­gique « , ne convient pas pour des robots. Essen­tiel­le­ment, disons sim­ple­ment qu’elle n’est pas spé­ci­fiable pour une machine, il n’est pas pos­sible d’en don­ner une repré­sen­ta­tion for­melle (pas plus qu’il ne serait pos­sible de le faire pour un humain d’ailleurs). Il existe une large lit­té­ra­ture sur ces sujets, à com­men­cer par les livres d’A­si­mov eux-mêmes.

Éduquer au lieu de programmer

SHUTTERSTOCK

Lorsque l’on parle d’ap­pren­tis­sage ou d’au­to­no­mie d’un robot, il ne s’a­git en fait, à ce jour, que d’une capa­ci­té du robot à évo­luer dans un espace de com­por­te­ment plus ou moins défi­ni par l’in­gé­nieur ou le cher­cheur. Même dans des approches telles que la pro­gram­ma­tion par algo­rithmes géné­tiques, qui per­met de faire émer­ger des solu­tions ori­gi­nales sans inter­ven­tion du concep­teur, l’es­pace de recherche et la fonc­tion dite de fit­ness qui pilote l’é­vo­lu­tion du sys­tème sont déter­mi­nés de manière cru­ciale par le concep­teur. Il sera un jour pos­sible, par exemple en s’ins­pi­rant des recherches actuelles en robo­tique » déve­lop­pe­men­tale « , d’al­ler vers des sys­tèmes capables de réel appren­tis­sage, capables de construire dyna­mi­que­ment du sens et des objec­tifs à plu­sieurs niveaux, de mani­fes­ter de la curio­si­té, des émo­tions. Bref, de per­mettre au robot non plus d’être » pro­gram­mé » mais d’être » éduqué « .

Apprendre à un robot comme on le fait à un enfant

Il sera pos­sible d’ap­prendre de nou­velles tâches, de nou­veaux concepts et sans doute éga­le­ment de nou­velles valeurs éthiques à un robot, comme on le fait aujourd’­hui avec un enfant. Quand ce jour vien­dra, nous aurons alors une tout autre dimen­sion à prendre en compte lorsque nous par­le­rons d’é­thique et de robo­tique. Il ne s’a­gi­ra plus uni­que­ment d’é­thique du com­por­te­ment du robot envers l’Homme, mais aus­si de celui de l’Homme envers le robot. Il est même pro­bable que la fron­tière entre Homme et robot devienne floue (l’Homme a déjà qua­si fusion­né avec son iPhone) et qu’il faille à nou­veau reve­nir sur la défi­ni­tion sans cesse mou­vante de ce qu’est un robot.

Commentaire

Ajouter un commentaire

Jean-Marcrépondre
17 juin 2012 à 12 h 19 min


Très juste ! Peut-être qu’il fau­dra « spé­ci­fier l’es­pace de doute “néces­saire” à chaque robot ». De quoi peut-il dou­ter ? De quoi ne peut-il pas dou­ter ? Nous code­rons ain­si les limites en dur de ce dont ils ne devront pas dou­ter et leur lais­se­rons de la marge quant au domaine sur lequel ils pour­ront apprendre (i.e. néces­sai­re­ment dou­ter ;D !).

Pour nous, êtres humains, il me semble que, jus­te­ment, nous n’a­vons pas encore atteint cette limite ! Qu’il s’a­gisse de nos repré­sen­ta­tions (en sciences comme du reste d’ailleurs, il existe une foule d’exemples où nous dou­tons à mort ;D !) comme de nos obser­va­tions (de l’in­fi­ni­ment petit, à l’in­fi­ni­ment grand mais aus­si de n’im­porte quelle obser­va­tion poten­tiel­le­ment issue d’un foul­ti­tude de para­mètres et dont l’ex­pli­ca­tion, i.e. le modèle de repré­sen­ta­tion, s’a­vère pour le coup dif­fi­cile à élu­ci­der…). Bref nous, nous pou­vons vrai­ment remettre en cause les choses ! C’est une des défi­ni­tions de la liber­té, non ?

Ce sera à nous de contrô­ler tout cela… Ce sera sûre­ment une res­pon­sa­bi­li­té aus­si exté­nuante que celle d’é­du­quer un enfant (il paraît que même à 30 ans on est pas fini ! ;D !).

Bien à vous.

Répondre