Chirurgie par robots

La régulation juridique des robots intelligents

Dossier : L'intelligence artificielleMagazine N°733 Mars 2018
Par Grégoire LOISEAU

Quelle va être l’ap­pré­hen­sion par le droit du déve­lop­pe­ment de l’IA ? Deux orien­ta­tions, celle de la res­pon­sa­bi­li­té du dom­mage qui pour­rait être une adap­ta­tion des régimes exis­tants du droit civil, celle de l’é­thique qui fait plu­tôt l’ob­jet de la défi­ni­tion d’une charte. Dans ce cadre, il est peu sou­hai­table d’ac­cor­der une per­son­na­li­té juri­dique aux robots cognitifs. 

À mesure que les pro­grès de l’intelligence arti­fi­cielle ne laissent plus de doute sur la capa­ci­té des machines intel­li­gentes à effec­tuer des tâches de plus en plus variées, les inter­ro­ga­tions ne portent plus sur la réa­li­té du phé­no­mène mais sur son appré­hen­sion par le droit. Le bond en avant tech­no­lo­gique impli­que­ra cer­tai­ne­ment des adap­ta­tions normatives. 

La mesure du chan­ge­ment est en revanche, pour l’instant, insai­sis­sable. Tout au plus a‑t-on conscience que la ques­tion essen­tielle à régler est celle de la ges­tion des risques puisqu’il en va de l’acceptabilité sociale de ces nou­veaux objets intelligents. 

REPÈRES

La prise de conscience des risques et menaces que fait peser le développement des machines intelligentes ne s’est pas fait attendre.
Dès le début de l’année 2017, des délibérations d’institutions européennes et françaises ont appelé à adopter des règles éthiques afin d’accompagner la progression de l’intelligence artificielle dont le potentiel est aujourd’hui indéfini.

ROBOTS MÉDICAUX ET VÉHICULES AUTONOMES

Cer­tains risques ne sont pas, il est vrai, incon­nus ; mais l’instrument du dom­mage, quand sont en cause des machines auto­nomes, voire autoap­pre­nantes, fait réflé­chir à l’adaptation des régimes exis­tants pour prendre en charge l’indemnisation.


Quelle est la res­pon­sa­bi­li­té médi­cale quand un robot est uti­li­sé ? © ZAPP2PHOTO

La ques­tion se pose, par exemple, dans le cadre de la res­pon­sa­bi­li­té médi­cale en ce qui concerne l’utilisation de robots médi­caux et se pose­ra bien­tôt pour les véhi­cules auto­nomes. Il semble cepen­dant trop tôt pour connaître les besoins et mettre en place, le cas échéant, de nou­veaux instruments. 

D’autres risques se pré­sentent davan­tage comme des menaces. On peut craindre une uti­li­sa­tion débri­dée de l’intelligence arti­fi­cielle pour pro­cé­der à des réa­li­sa­tions qui défient les prin­cipes fon­da­men­taux de res­pect de la per­sonne humaine. 

Demain, ce sont des cybe­ror­ga­nismes qui seront dis­po­nibles : des greffes d’humains sur des machines ou des implants de tech­no­lo­gies sur les corps. 

UNE ÉTHIQUE À L’USAGE DES MACHINES INTELLIGENTES

Avant de réfor­mer ou de modi­fier quoi que ce soit, l’avis lar­ge­ment par­ta­gé est de se pré­oc­cu­per d’une prise en charge huma­niste des ques­tions liées à l’intelligence arti­fi­cielle. L’idée est que l’intelligence arti­fi­cielle devrait être, de la concep­tion à l’utilisation, « éthi­co-com­pa­tible », c’est-à-dire conforme aux valeurs huma­nistes por­tées par notre société. 

La concep­tion défen­due à ce sujet est celle d’un « déve­lop­pe­ment res­pon­sable, sûr et utile de l’intelligence arti­fi­cielle dans le cadre duquel les machines res­te­raient les machines, sous le contrôle per­ma­nent des humains » (avis du Comi­té éco­no­mique et social euro­péen du 31 mai 2017). 

UNE CHARTE COMME CADRE

La confec­tion d’une charte est pré­sen­tée comme l’instrument pri­vi­lé­gié pour consti­tuer un cadre éthique. 

“ La question essentielle à régler est celle de la gestion des risques ”

Le Comi­té éco­no­mique et social euro­péen pro­meut ain­si des valeurs éthiques « inté­grées » à l’intelligence arti­fi­cielle, sorte d’ethics by desi­gn, qui seraient déve­lop­pées dans un « code éthique uni­forme appli­cable à l’échelle mondiale ». 

Une réso­lu­tion du Par­le­ment euro­péen « conte­nant des recom­man­da­tions à la Com­mis­sion concer­nant des règles de droit civil sur la robo­tique » en date du 16 février 2017 com­porte une « charte sur la robo­tique » décli­née en un « code de conduite éthique pour les ingé­nieurs en robo­tique », un « code de déon­to­lo­gie pour les comi­tés d’éthique de la recherche », une « licence pour les concep­teurs » et une autre « pour les utilisateurs ». 

Ces pro­po­si­tions – par­mi d’autres – mettent à pro­fit les ver­tus prê­tées à la démarche éthique : avan­tage de la sou­plesse pour atteindre des objec­tifs dans un domaine mou­vant qui serait contraint par des règles rigides, les­quelles ris­que­raient de ralen­tir l’innovation ; atta­che­ment à des valeurs com­munes pour déve­lop­per des prin­cipes cadres sus­cep­tibles d’être dif­fu­sés dans un envi­ron­ne­ment international. 

Le Parlement Européen
En février 2017, le Par­le­ment euro­péen a voté une réso­lu­tion « conte­nant des recom­man­da­tions à la Com­mis­sion concer­nant des règles de droit civil sur la robo­tique ». © LEONID ANDRONOV

DES OBJECTIFS ET DES RÈGLES SOUPLES

Il est attendu de l’éthique qu’elle agrège des objectifs qui vont du respect des droits fondamentaux à la diffusion de règles souples valorisant des comportements responsables et permettant d’aborder de manière transversale les enjeux philosophiques, politiques, juridiques, économiques, éducatifs.

UNE APPROCHE COMPLÉMENTAIRE À LA LOI

La pro­mo­tion de cette approche ne doit cepen­dant pas faire oublier ses défauts. La pri­va­ti­sa­tion de la norme est le plus sérieux. 

« La règle éthique définit une ligne de conduite et ne prévoit pas de sanction directe »

Que la norme éthique soit à l’initiative des auto­ri­tés publiques ou qu’elle pro­cède d’une démarche d’autorégulation de grou­pe­ments pri­vés, elle implique les acteurs du sec­teur dans sa concep­tion et/ ou dans sa mise en œuvre. Et encore ne s’agit-il pas de tous les acteurs privés. 

Car cette voie fait incon­tes­ta­ble­ment pri­mer la loi du plus fort, celle des opé­ra­teurs les plus influents qui impo­se­ront leur éthique. Un autre incon­vé­nient est la faible nor­ma­ti­vi­té de la règle éthique qui défi­nit une ligne de conduite et ne pré­voit pas de sanc­tion directe. 

L’éthique doit être appré­hen­dée comme une voie com­plé­men­taire à la voie légis­la­tive, qui reste essen­tielle dans une socié­té démocratique. 

LA MOBILISATION DE LA RESPONSABILITÉ CIVILE

Quelle que puisse être l’utilité de chartes éthiques, le trai­te­ment des dom­mages cau­sés par des machines intel­li­gentes est et demeu­re­ra du res­sort de la res­pon­sa­bi­li­té civile. Le risque de dom­mages n’a rien en soi d’original mais il sus­cite plus d’interrogations que d’ordinaire en rai­son de la nou­veau­té de ces tech­no­lo­gies et de l’autonomie des sys­tèmes autoapprenants. 

CADRES SPÉCIFIQUES

D’autres régimes seront aussi sollicités en les adaptant au besoin. C’est le cas, en particulier, en ce qui concerne les véhicules autonomes : leur mise sur le marché suppose l’existence d’une réglementation qui sécurise l’utilisation et la couverture des dommages causés par ces nouveaux objets.

Il n’y a cepen­dant pas de rai­son, à ce stade du déve­lop­pe­ment de l’intelligence arti­fi­cielle, de cham­bou­ler le droit de la res­pon­sa­bi­li­té. Des ajus­te­ments peuvent être suf­fi­sants s’ils per­mettent de pas­ser d’un état expé­ri­men­tal à la mise en appli­ca­tion pra­tique des machines intelligentes. 

Le chan­ge­ment est pour l’instant de cet ordre : la dif­fu­sion des sys­tèmes intel­li­gents devra s’accompagner de la garan­tie d’une cou­ver­ture des risques. 

Deux régimes de res­pon­sa­bi­li­té peuvent aujourd’hui prin­ci­pa­le­ment être mis à contri­bu­tion, celui du droit com­mun de la res­pon­sa­bi­li­té du fait des choses et celui propre aux pro­duits défec­tueux. Entre les deux, c’est le régime de res­pon­sa­bi­li­té du fabri­cant qui paraît devoir être pri­vi­lé­gié chaque fois que le dom­mage est pro­vo­qué par un défaut de sécu­ri­té du sys­tème d’intelligence artificielle. 

Il y a plu­sieurs rai­sons pour impu­ter prio­ri­tai­re­ment les risques au fabri­cant et, le cas échéant, aux concep­teurs de pro­duits inté­grés. La pre­mière est que ces pro­fes­sion­nels ont un devoir de pré­ven­tion ; la seconde qu’ils sont en prin­cipe assu­rés en cas de réa­li­sa­tion du risque. 

Dans le champ des pos­sibles, une orien­ta­tion doit en revanche être fer­me­ment reje­tée : celle d’une res­pon­sa­bi­li­té des robots eux-mêmes, qui oriente la réflexion vers la recon­nais­sance d’une per­son­na­li­té juri­dique de ces machines intelligentes. 

L’INSOUTENABLE PERSONNALITÉ JURIDIQUE DES ROBOTS COGNITIFS

La réso­lu­tion adop­tée par le Par­le­ment euro­péen en février 2017 envi­sage très sérieu­se­ment « la créa­tion, à terme, d’une per­son­na­li­té juri­dique spé­ci­fique aux robots, pour qu’au moins les robots auto­nomes les plus sophis­ti­qués puissent être consi­dé­rés comme des per­sonnes élec­tro­niques res­pon­sables, tenues de répa­rer tout dom­mage cau­sé à un tiers ». 

Véhicule à conduite autonome
Il fau­dra adap­ter les régle­men­ta­tions pour per­mettre l’usage de voi­tures auto­nomes. © CHOMBOSAN

Impul­si­ve­ment, l’idée d’une per­son­na­li­té juri­dique pro­cède d’une repré­sen­ta­tion des robots auto­nomes comme des créa­tures intel­li­gentes et auto­nomes sus­cep­tibles d’agir, voire de se com­por­ter, comme des per­sonnes. C’est d’ailleurs la fonc­tion des machines intel­li­gentes que d’être capables de réa­li­ser des actions qui sont en prin­cipe exé­cu­tées par des humains. 

Il y a tou­te­fois beau­coup à redou­ter d’une telle pro­po­si­tion. Pour quelle uti­li­té, d’abord ? La per­son­na­li­té attri­buée à cer­tains objets intel­li­gents – les­quels ? selon quel cri­tère ? – ne régle­rait en rien les ques­tions qui se posent en termes de sécu­ri­té et de res­pon­sa­bi­li­té. La sécu­ri­té peut plus sûre­ment comp­ter sur des normes impo­sées aux concep­teurs de logi­ciels, aux fabri­cants, voire aux uti­li­sa­teurs de robots qu’en pro­gram­mant des devoirs dont ces der­niers seraient per­son­nel­le­ment débiteurs. 

Quant à la res­pon­sa­bi­li­té, rien ne per­met de croire qu’elle serait plus effi­cace conçue comme une res­pon­sa­bi­li­té du robot, ce qui impli­que­rait d’abonder un patri­moine qui lui serait atta­ché pour l’exécution de la dette de réparation. 

Elle serait de sur­croît ampu­tée de son effet pro­phy­lac­tique si le fabri­quant n’assume plus le risque de res­pon­sa­bi­li­té qui serait trans­fé­ré au sys­tème d’intelligence artificielle. 

UNE CHIMÈRE À ÉCARTER

La per­son­ni­fi­ca­tion des robots trou­ble­rait sur­tout gra­ve­ment les caté­go­ries juri­diques en don­nant vie à une chi­mère, mi-per­sonne mi-chose, à la fois sujet de droit et objet de droit. Une telle chi­mère, sans inté­rêt iden­ti­fié, déré­gle­rait pro­fon­dé­ment le construit juridique. 

“ Faudra-t-il faire accéder les personnes artificielles aux mêmes droits que ceux des personnes humaines ? ”

Elle per­ver­tit la sum­ma divi­sio des per­sonnes et des choses et la hié­rar­chie, qui cor­res­pond à un ordre de valeur, entre les unes et les autres. 

A‑t-on en outre idée des droits qui seraient dévo­lus aux per­sonnes robots ren­dues capables d’en être les sujets ? 

Fau­dra-t-il, sous cou­vert d’égalité entre les per­sonnes juri­diques, faire accé­der les per­sonnes arti­fi­cielles aux mêmes droits que ceux des per­sonnes humaines ? 

L’idée même est onto­lo­gi­que­ment déplaisante.

Poster un commentaire