Chirurgie par robots

La régulation juridique des robots intelligents

Dossier : L'intelligence artificielleMagazine N°733 Mars 2018
Par Grégoire LOISEAU

Quelle va être l’ap­préhen­sion par le droit du développe­ment de l’IA ? Deux ori­en­ta­tions, celle de la respon­s­abil­ité du dom­mage qui pour­rait être une adap­ta­tion des régimes exis­tants du droit civ­il, celle de l’éthique qui fait plutôt l’ob­jet de la déf­i­ni­tion d’une charte. Dans ce cadre, il est peu souhaitable d’ac­corder une per­son­nal­ité juridique aux robots cognitifs. 

À mesure que les pro­grès de l’intelligence arti­fi­cielle ne lais­sent plus de doute sur la capac­ité des machines intel­li­gentes à effectuer des tâch­es de plus en plus var­iées, les inter­ro­ga­tions ne por­tent plus sur la réal­ité du phénomène mais sur son appréhen­sion par le droit. Le bond en avant tech­nologique impli­quera cer­taine­ment des adap­ta­tions normatives. 

La mesure du change­ment est en revanche, pour l’instant, insai­siss­able. Tout au plus a‑t-on con­science que la ques­tion essen­tielle à régler est celle de la ges­tion des risques puisqu’il en va de l’acceptabilité sociale de ces nou­veaux objets intelligents. 

REPÈRES

La prise de conscience des risques et menaces que fait peser le développement des machines intelligentes ne s’est pas fait attendre.
Dès le début de l’année 2017, des délibérations d’institutions européennes et françaises ont appelé à adopter des règles éthiques afin d’accompagner la progression de l’intelligence artificielle dont le potentiel est aujourd’hui indéfini.

ROBOTS MÉDICAUX ET VÉHICULES AUTONOMES

Cer­tains risques ne sont pas, il est vrai, incon­nus ; mais l’instrument du dom­mage, quand sont en cause des machines autonomes, voire autoap­prenantes, fait réfléchir à l’adaptation des régimes exis­tants pour pren­dre en charge l’indemnisation.


Quelle est la respon­s­abil­ité médi­cale quand un robot est util­isé ? © ZAPP2PHOTO

La ques­tion se pose, par exem­ple, dans le cadre de la respon­s­abil­ité médi­cale en ce qui con­cerne l’utilisation de robots médi­caux et se posera bien­tôt pour les véhicules autonomes. Il sem­ble cepen­dant trop tôt pour con­naître les besoins et met­tre en place, le cas échéant, de nou­veaux instruments. 

D’autres risques se présen­tent davan­tage comme des men­aces. On peut crain­dre une util­i­sa­tion débridée de l’intelligence arti­fi­cielle pour procéder à des réal­i­sa­tions qui défient les principes fon­da­men­taux de respect de la per­son­ne humaine. 

Demain, ce sont des cyberor­gan­ismes qui seront disponibles : des greffes d’humains sur des machines ou des implants de tech­nolo­gies sur les corps. 

UNE ÉTHIQUE À L’USAGE DES MACHINES INTELLIGENTES

Avant de réformer ou de mod­i­fi­er quoi que ce soit, l’avis large­ment partagé est de se préoc­cu­per d’une prise en charge human­iste des ques­tions liées à l’intelligence arti­fi­cielle. L’idée est que l’intelligence arti­fi­cielle devrait être, de la con­cep­tion à l’utilisation, « éthico-com­pat­i­ble », c’est-à-dire con­forme aux valeurs human­istes portées par notre société. 

La con­cep­tion défendue à ce sujet est celle d’un « développe­ment respon­s­able, sûr et utile de l’intelligence arti­fi­cielle dans le cadre duquel les machines resteraient les machines, sous le con­trôle per­ma­nent des humains » (avis du Comité économique et social européen du 31 mai 2017). 

UNE CHARTE COMME CADRE

La con­fec­tion d’une charte est présen­tée comme l’instrument priv­ilégié pour con­stituer un cadre éthique. 

“ La question essentielle à régler est celle de la gestion des risques ”

Le Comité économique et social européen promeut ain­si des valeurs éthiques « inté­grées » à l’intelligence arti­fi­cielle, sorte d’ethics by design, qui seraient dévelop­pées dans un « code éthique uni­forme applic­a­ble à l’échelle mondiale ». 

Une réso­lu­tion du Par­lement européen « con­tenant des recom­man­da­tions à la Com­mis­sion con­cer­nant des règles de droit civ­il sur la robo­t­ique » en date du 16 févri­er 2017 com­porte une « charte sur la robo­t­ique » déclinée en un « code de con­duite éthique pour les ingénieurs en robo­t­ique », un « code de déon­tolo­gie pour les comités d’éthique de la recherche », une « licence pour les con­cep­teurs » et une autre « pour les utilisateurs ». 

Ces propo­si­tions – par­mi d’autres – met­tent à prof­it les ver­tus prêtées à la démarche éthique : avan­tage de la sou­p­lesse pour attein­dre des objec­tifs dans un domaine mou­vant qui serait con­traint par des règles rigides, lesquelles ris­queraient de ralen­tir l’innovation ; attache­ment à des valeurs com­munes pour dévelop­per des principes cadres sus­cep­ti­bles d’être dif­fusés dans un envi­ron­nement international. 

Le Parlement Européen
En févri­er 2017, le Par­lement européen a voté une réso­lu­tion « con­tenant des recom­man­da­tions à la Com­mis­sion con­cer­nant des règles de droit civ­il sur la robo­t­ique ». © LEONID ANDRONOV

DES OBJECTIFS ET DES RÈGLES SOUPLES

Il est attendu de l’éthique qu’elle agrège des objectifs qui vont du respect des droits fondamentaux à la diffusion de règles souples valorisant des comportements responsables et permettant d’aborder de manière transversale les enjeux philosophiques, politiques, juridiques, économiques, éducatifs.

UNE APPROCHE COMPLÉMENTAIRE À LA LOI

La pro­mo­tion de cette approche ne doit cepen­dant pas faire oubli­er ses défauts. La pri­vati­sa­tion de la norme est le plus sérieux. 

« La règle éthique définit une ligne de conduite et ne prévoit pas de sanction directe »

Que la norme éthique soit à l’initiative des autorités publiques ou qu’elle procède d’une démarche d’autorégulation de groupe­ments privés, elle implique les acteurs du secteur dans sa con­cep­tion et/ ou dans sa mise en œuvre. Et encore ne s’agit-il pas de tous les acteurs privés. 

Car cette voie fait incon­testable­ment primer la loi du plus fort, celle des opéra­teurs les plus influ­ents qui imposeront leur éthique. Un autre incon­vénient est la faible nor­ma­tiv­ité de la règle éthique qui définit une ligne de con­duite et ne prévoit pas de sanc­tion directe. 

L’éthique doit être appréhendée comme une voie com­plé­men­taire à la voie lég­isla­tive, qui reste essen­tielle dans une société démocratique. 

LA MOBILISATION DE LA RESPONSABILITÉ CIVILE

Quelle que puisse être l’utilité de chartes éthiques, le traite­ment des dom­mages causés par des machines intel­li­gentes est et demeur­era du ressort de la respon­s­abil­ité civile. Le risque de dom­mages n’a rien en soi d’original mais il sus­cite plus d’interrogations que d’ordinaire en rai­son de la nou­veauté de ces tech­nolo­gies et de l’autonomie des sys­tèmes autoapprenants. 

CADRES SPÉCIFIQUES

D’autres régimes seront aussi sollicités en les adaptant au besoin. C’est le cas, en particulier, en ce qui concerne les véhicules autonomes : leur mise sur le marché suppose l’existence d’une réglementation qui sécurise l’utilisation et la couverture des dommages causés par ces nouveaux objets.

Il n’y a cepen­dant pas de rai­son, à ce stade du développe­ment de l’intelligence arti­fi­cielle, de cham­bouler le droit de la respon­s­abil­ité. Des ajuste­ments peu­vent être suff­isants s’ils per­me­t­tent de pass­er d’un état expéri­men­tal à la mise en appli­ca­tion pra­tique des machines intelligentes. 

Le change­ment est pour l’instant de cet ordre : la dif­fu­sion des sys­tèmes intel­li­gents devra s’accompagner de la garantie d’une cou­ver­ture des risques. 

Deux régimes de respon­s­abil­ité peu­vent aujourd’hui prin­ci­pale­ment être mis à con­tri­bu­tion, celui du droit com­mun de la respon­s­abil­ité du fait des choses et celui pro­pre aux pro­duits défectueux. Entre les deux, c’est le régime de respon­s­abil­ité du fab­ri­cant qui paraît devoir être priv­ilégié chaque fois que le dom­mage est provo­qué par un défaut de sécu­rité du sys­tème d’intelligence artificielle. 

Il y a plusieurs raisons pour imput­er pri­or­i­taire­ment les risques au fab­ri­cant et, le cas échéant, aux con­cep­teurs de pro­duits inté­grés. La pre­mière est que ces pro­fes­sion­nels ont un devoir de préven­tion ; la sec­onde qu’ils sont en principe assurés en cas de réal­i­sa­tion du risque. 

Dans le champ des pos­si­bles, une ori­en­ta­tion doit en revanche être fer­me­ment rejetée : celle d’une respon­s­abil­ité des robots eux-mêmes, qui ori­ente la réflex­ion vers la recon­nais­sance d’une per­son­nal­ité juridique de ces machines intelligentes. 

L’INSOUTENABLE PERSONNALITÉ JURIDIQUE DES ROBOTS COGNITIFS

La réso­lu­tion adop­tée par le Par­lement européen en févri­er 2017 envis­age très sérieuse­ment « la créa­tion, à terme, d’une per­son­nal­ité juridique spé­ci­fique aux robots, pour qu’au moins les robots autonomes les plus sophis­tiqués puis­sent être con­sid­érés comme des per­son­nes élec­tron­iques respon­s­ables, tenues de répar­er tout dom­mage causé à un tiers ». 

Véhicule à conduite autonome
Il fau­dra adapter les régle­men­ta­tions pour per­me­t­tre l’usage de voitures autonomes. © CHOMBOSAN

Impul­sive­ment, l’idée d’une per­son­nal­ité juridique procède d’une représen­ta­tion des robots autonomes comme des créa­tures intel­li­gentes et autonomes sus­cep­ti­bles d’agir, voire de se com­porter, comme des per­son­nes. C’est d’ailleurs la fonc­tion des machines intel­li­gentes que d’être capa­bles de réalis­er des actions qui sont en principe exé­cutées par des humains. 

Il y a toute­fois beau­coup à red­outer d’une telle propo­si­tion. Pour quelle util­ité, d’abord ? La per­son­nal­ité attribuée à cer­tains objets intel­li­gents – lesquels ? selon quel critère ? – ne réglerait en rien les ques­tions qui se posent en ter­mes de sécu­rité et de respon­s­abil­ité. La sécu­rité peut plus sûre­ment compter sur des normes imposées aux con­cep­teurs de logi­ciels, aux fab­ri­cants, voire aux util­isa­teurs de robots qu’en pro­gram­mant des devoirs dont ces derniers seraient per­son­nelle­ment débiteurs. 

Quant à la respon­s­abil­ité, rien ne per­met de croire qu’elle serait plus effi­cace conçue comme une respon­s­abil­ité du robot, ce qui impli­querait d’abonder un pat­ri­moine qui lui serait attaché pour l’exécution de la dette de réparation. 

Elle serait de sur­croît amputée de son effet pro­phy­lac­tique si le fab­ri­quant n’assume plus le risque de respon­s­abil­ité qui serait trans­féré au sys­tème d’intelligence artificielle. 

UNE CHIMÈRE À ÉCARTER

La per­son­ni­fi­ca­tion des robots trou­blerait surtout grave­ment les caté­gories juridiques en don­nant vie à une chimère, mi-per­son­ne mi-chose, à la fois sujet de droit et objet de droit. Une telle chimère, sans intérêt iden­ti­fié, déré­glerait pro­fondé­ment le con­stru­it juridique. 

“ Faudra-t-il faire accéder les personnes artificielles aux mêmes droits que ceux des personnes humaines ? ”

Elle per­ver­tit la sum­ma divi­sio des per­son­nes et des choses et la hiérar­chie, qui cor­re­spond à un ordre de valeur, entre les unes et les autres. 

A‑t-on en out­re idée des droits qui seraient dévo­lus aux per­son­nes robots ren­dues capa­bles d’en être les sujets ? 

Fau­dra-t-il, sous cou­vert d’égalité entre les per­son­nes juridiques, faire accéder les per­son­nes arti­fi­cielles aux mêmes droits que ceux des per­son­nes humaines ? 

L’idée même est ontologique­ment déplaisante.

Poster un commentaire