Robot humanoïde Sophia

Le statut juridique du robot doit-il évoluer ?

Dossier : Robotique et intelligence artificielleMagazine N°750 Décembre 2019
Par Nathalie NEVEJANS

Le déve­lop­pe­ment des robots, notam­ment avec leur appa­rence par­fois huma­noïde, et celui de leurs moda­li­tés d’échange avec les per­sonnes humaines pro­voquent un cer­tain trouble dans leur per­cep­tion par les gens. Sortent-ils pro­gres­si­ve­ment de la caté­go­rie des machines, des « choses », pour se rap­pro­cher de la notion de « per­sonne » ? Une juriste pré­sente ici sur le sujet une ana­lyse sans ambiguïté.

Le sta­tut juri­dique peut être défi­ni comme les règles de droit qui s’appliquent à une per­sonne ou à une enti­té. Les robots sont fabri­qués, ache­tés, ven­dus, don­nés ou détruits, à la condi­tion de res­pec­ter la régle­men­ta­tion exis­tante, spé­cia­le­ment les règles contrac­tuelles pour réa­li­ser ces opé­ra­tions juri­diques, celles de mises sur le mar­ché ou encore celles rela­tives à la pro­tec­tion de l’environnement. Mais des ques­tions plus déli­cates appa­raissent au moment où le robot cause un dom­mage en rai­son d’une déci­sion erro­née ou d’une défaillance technique.


REPÈRES

D’un point de vue géné­ral, la per­son­na­li­té juri­dique a plu­sieurs effets remar­quables en droit. Tout d’abord, son titu­laire, c’est-à-dire la per­sonne-sujet de droit, est doté de droits et d’obligations, ain­si que d’un patri­moine. Ensuite, il peut agir en jus­tice pour défendre ses droits. Et enfin il est res­pon­sable de ses propres dom­mages, de sorte qu’il lui appar­tient d’indemniser la vic­time. Si on attri­buait la per­son­na­li­té juri­dique au robot, il serait alors res­pon­sable de ses propres dom­mages, comme tout sujet de droit. 


Le robot peut-il être responsable des dommages qu’il provoque ?

La res­pon­sa­bi­li­té civile cor­res­pond à l’obligation de répa­rer en nature ou en argent le dom­mage que l’on a cau­sé, par sa faute ou non, dans les cas pré­vus par la loi. Celui qui est tenu de répa­rer est tou­jours un sujet de droit, c’est-à-dire une per­sonne. Par oppo­si­tion aux per­sonnes, le robot n’est actuel­le­ment qu’un objet de droit, puisqu’il est une chose d’un point de vue juri­dique. Les consé­quences sont impor­tantes. Comme seul un sujet de droit peut enga­ger sa res­pon­sa­bi­li­té, le robot, en tant qu’objet de droit, ne peut pas être res­pon­sable des dom­mages qu’il occa­sionne. C’est tou­jours une per­sonne, phy­sique ou morale, qui répond des dom­mages cau­sés par le robot et qui indem­nise les victimes.

Toutes les règles de res­pon­sa­bi­li­té civile clas­siques sont appli­cables en robo­tique pour indem­ni­ser la vic­time. Ain­si, en cas de dom­mage lié à un défaut – hard­ware ou soft­ware – du robot engen­drant une atteinte à la sécu­ri­té de la vic­time, la direc­tive Pro­duits défec­tueux de 1985, en cours de révi­sion, per­met à la vic­time d’attaquer en res­pon­sa­bi­li­té direc­te­ment le fabri­cant du robot. Il en va ain­si d’un robot aspi­ra­teur qui, à la suite d’un dys­fonc­tion­ne­ment, tom­be­rait dans les esca­liers et bles­se­rait quelqu’un. Mais, si le robot ne connaît aucune défec­tuo­si­té, le dom­mage peut encore être impu­table à son pro­prié­taire ou à son uti­li­sa­teur en rai­son de son usage. Tel est le cas lorsque l’accident d’un invi­té est dû au bas­cu­le­ment d’un robot ser­veur dont le pro­prié­taire n’aurait pas res­pec­té les consignes de poids maxi­mum sur le pla­teau qu’il porte.

“Le robot n’est actuellement
qu’un objet de droit. ”

Vers un sujet de droit ?

En Europe, la réso­lu­tion de 2017 sur les « Règles de droit civil sur la robo­tique » consti­tue une réelle nova­tion en la matière. Le Par­le­ment euro­péen s’est deman­dé si le déve­lop­pe­ment des robots de plus en plus auto­nomes et capables d’autoapprentissage n’imposait pas de repen­ser la res­pon­sa­bi­li­té civile en robo­tique. Selon le texte voté, le cadre juri­dique actuel­le­ment en vigueur ne sau­rait suf­fire à cou­vrir les dom­mages cau­sés par la nou­velle géné­ra­tion de robots puisqu’il devien­drait impos­sible d’imputer la res­pon­sa­bi­li­té à un être humain. Cela serait dû au fait que leurs nou­velles capa­ci­tés entraî­ne­raient « une cer­taine part d’imprévisibilité dans leur com­por­te­ment, étant don­né que ces robots tire­raient, de manière auto­nome, des ensei­gne­ments de leurs expé­riences, variables de l’un à l’autre, et inter­agi­raient avec leur envi­ron­ne­ment de manière unique et impré­vi­sible » (point AI). Dans son texte, le Par­le­ment a encou­ra­gé la Com­mis­sion euro­péenne à éva­luer les pistes de solu­tions qu’il pro­pose pour assu­rer l’indemnisation des vic­times, à savoir l’instauration d’un régime d’assurance obli­ga­toire comme pour les véhi­cules ou encore la créa­tion d’un fonds de com­pen­sa­tion. La piste la plus sur­pre­nante, sur laquelle nous allons nous attar­der, est celle de « la créa­tion, à terme, d’une per­son­na­li­té juri­dique spé­ci­fique aux robots, pour qu’au moins les robots auto­nomes les plus sophis­ti­qués puissent être consi­dé­rés comme des per­sonnes élec­tro­niques res­pon­sables, tenues de répa­rer tout dom­mage cau­sé à un tiers » (§ 59 f).


Des initiatives sans portée juridique

En octobre 2017 le robot Sophia de Han­son Robo­tics a atti­ré l’attention pla­né­taire en rece­vant la natio­na­li­té saou­dienne dans le cadre du forum éco­no­mique Future Invest­ment Ini­tia­tive à Riyad.
En novembre de la même année, c’était au tour du pro­gramme d’intelligence arti­fi­cielle Mirai, repré­sen­tant un petit gar­çon, de deve­nir résident d’un quar­tier de Tokyo au Japon. Dans ces deux hypo­thèses, le pseu­do-sta­tut accor­dé au robot ou au pro­gramme d’IA est seule­ment moti­vé par la volon­té de mar­quer les esprits et d’attirer l’attention des médias et du public. Il n’a donc pas voca­tion à accor­der un véri­table sta­tut juridique.


Doit-on considérer le robot autonome comme une personne ?

À notre sens, la réso­lu­tion du Par­le­ment euro­péen va bien au-delà d’une simple piste de solu­tion comme les autres. Le sen­ti­ment s’installe très vite à sa lec­ture que les évo­lu­tions sou­hai­tées ne sont pas sim­ple­ment moti­vées par des argu­ments juri­diques, mais pré­parent impli­ci­te­ment un bou­le­ver­se­ment onto­lo­gique de la place de l’humain dans un monde tech­no­lo­gique. En effet, force est de consta­ter que le chan­ge­ment des règles du droit de la res­pon­sa­bi­li­té civile envi­sa­gé s’accompagnerait éga­le­ment d’une évo­lu­tion pro­fonde du sta­tut du robot, annon­cée dès le début du texte. La réso­lu­tion affirme coup sur coup que « plus un robot est auto­nome, moins il peut être consi­dé­ré comme un simple outil contrô­lé par d’autres acteurs (tels que le fabri­cant, l’opérateur, le pro­prié­taire, l’utilisateur, etc.) » (point AB) et que « l’autonomie des robots pose la ques­tion de leur nature à la lumière des caté­go­ries juri­diques exis­tantes ou de la néces­si­té de créer une nou­velle caté­go­rie dotée de ses propres carac­té­ris­tiques et effets spé­ci­fiques » (point AC). Elle semble ain­si signi­fier que l’autonomie impacte direc­te­ment la nature même du robot, qui est plus qu’une simple chose. En pro­po­sant de trans­for­mer le robot en un véri­table sujet de droit, la réso­lu­tion invite donc à remettre en cause les piliers du droit que sont la dis­tinc­tion entre les per­sonnes et les choses, et celle entre les sujets et les objets de droit.

Nom­breuses sont les voix qui s’élèvent contre l’idée de faire du robot auto­nome une per­sonne. Des ins­ti­tu­tions euro­péennes et inter­na­tio­nales s’y opposent fer­me­ment. Tel est le cas du Comi­té éco­no­mique et social euro­péen (Cese) qui, en 2017, a refu­sé « l’octroi d’une forme de per­son­na­li­té juri­dique aux robots ou à l’IA et aux sys­tèmes d’IA, en rai­son du risque moral inac­cep­table inhé­rent à une telle démarche » ou de la Com­mis­sion mon­diale d’éthique des connais­sances scien­ti­fiques et des tech­no­lo­gies (Comest) qui, dans son rap­port de 2017 sur la robo­tique éthique, affirme qu’il serait absurde de qua­li­fier les robots de per­sonnes, « puisqu’ils sont dépour­vus de cer­taines autres qua­li­tés géné­ra­le­ment asso­ciées aux êtres humains comme le libre arbitre, l’intentionnalité, la conscience de soi, le sens moral et le sen­ti­ment de l’identité per­son­nelle » (§ 201). De même, la com­mu­nau­té des cher­cheurs, tous domaines confon­dus, est unie contre la per­son­na­li­té juri­dique du robot auto­nome, comme en témoignent les 285 signa­tures de l’Open Let­ter to the Euro­pean Com­mis­sion « Arti­fi­cial Intel­li­gence and Robo­tics » créée à notre initiative.

“Rejeter la tentation mâtinée de transhumanisme
de faire du robot une personne.”

Une fausse bonne idée ?

D’un point de vue juri­dique et éthique, il convient de reje­ter la ten­ta­tion mâti­née de trans­hu­ma­nisme de faire du robot auto­nome et autoap­pre­nant une per­sonne, pour trois rai­sons au moins.

Tout d’abord, le pos­tu­lat de départ de la réso­lu­tion, selon lequel le droit de la res­pon­sa­bi­li­té serait face à un vide juri­dique avec les robots de der­nière géné­ra­tion, est faux. Il appa­raît que la ques­tion de la res­pon­sa­bi­li­té n’est pas inso­luble en robo­tique auto­nome. Même lorsque la machine est auto­nome et apprend d’elle-même, elle a néces­sai­re­ment été conçue, fabri­quée, ven­due et uti­li­sée par un humain. L’humain n’a pas dis­pa­ru de la chaîne des res­pon­sa­bi­li­tés. De plus, l’argument affir­mant l’imprévisibilité du com­por­te­ment de ces robots, impo­sant de revoir tout le droit de la res­pon­sa­bi­li­té civile, est éga­le­ment erro­né. Si une machine est impré­vi­sible au point de cau­ser un dom­mage, c’est qu’elle pré­sente un défaut de sécu­ri­té dès la concep­tion. Il s’agit donc juri­di­que­ment d’un pro­duit défectueux.

Ensuite, la réso­lu­tion évoque la créa­tion d’une nou­velle sorte de per­sonne-robot, mais n’en donne pas le sta­tut exact. Ici encore, il existe un pilier du droit qui dis­tingue les per­sonnes phy­siques (humains) des per­sonnes morales (socié­té, asso­cia­tion…). Si le modèle de per­sonne envi­sa­gé par la réso­lu­tion est celui de la per­sonne phy­sique, nul conteste qu’il serait dan­ge­reux et aber­rant d’en faire déri­ver le sta­tut juri­dique du robot auto­nome, car un robot ne se rap­proche en rien d’un humain. En effet, en l’état actuel de la robo­tique, le robot n’a ni conscience ou volon­té propre, ni sen­ti­ment ou capa­ci­té de souf­france. De plus, s’il fait preuve de capa­ci­tés supé­rieures à l’humain dans des domaines spé­ci­fiques, comme jouer au go, dans tous les autres domaines ses apti­tudes sont bien infé­rieures. Accor­der la per­son­na­li­té juri­dique à un robot sur le modèle de la per­sonne humaine revien­drait à recon­naître à la machine une éga­li­té avec l’être humain et à lui accor­der des droits fon­da­men­taux, comme le droit à sa digni­té, à son inté­gri­té ou à sa citoyenneté.

Si l’on consi­dère plu­tôt que le modèle de per­sonne rete­nu serait celui de la per­sonne morale, la ques­tion mérite une plus grande atten­tion. Depuis l’Antiquité, le droit recon­naît le sta­tut des per­sonnes morales aux socié­tés ou aux asso­cia­tions, alors qu’elles ne sont pas humaines. Donc a prio­ri il sem­ble­rait cohé­rent d’envisager de faire déri­ver le sta­tut juri­dique du robot auto­nome de celui de la per­sonne morale. Cela per­met­trait de lui consti­tuer un patri­moine, ce qui ren­drait alors pos­sible la prise en charge de ses dom­mages en cas d’accident. Le pro­blème est qu’une per­sonne morale ne fonc­tionne pas toute seule, puisqu’elle a tou­jours à sa tête un être humain qui prend les déci­sions pour la faire agir dans l’espace juri­dique. Or le robot auto­nome deve­nu per­sonne morale serait bien inca­pable de prendre de telles déci­sions. Le Cese rap­pelle éga­le­ment fort bien le côté inepte de cette solu­tion (§ 3.33).

Enfin, et sur­tout, la créa­tion d’une per­son­na­li­té juri­dique pour le robot auto­nome aurait pour effet de dépor­ter la res­pon­sa­bi­li­té du fabri­cant vers le seul uti­li­sa­teur. Toute la régle­men­ta­tion exis­tante, impo­sant au fabri­cant de res­pec­ter des exi­gences essen­tielles en termes de san­té et de sécu­ri­té lors de la mise sur le mar­ché des machines – spé­cia­le­ment la direc­tive Machines de 2006, en cours de révi­sion, ou le règle­ment Dis­po­si­tifs médi­caux de 2017 –, pour­rait alors perdre son sens. Le fabri­cant ris­que­rait d’être moins vigi­lant sur la qua­li­té du robot qu’il met­trait sur le mar­ché, sachant que, en cas de dom­mage, ce serait la machine elle-même ou son uti­li­sa­teur qui serait res­pon­sable, et non lui.

Des lycéens observant le robot humanoïde social Sophia, création de la société Hanson Robotics.
Des lycéens obser­vant le robot huma­noïde social Sophia, créa­tion de la socié­té Han­son Robo­tics. © papa­razz­za / Shutterstock.com

Des conséquences économiques désastreuses

Les consé­quences éco­no­miques qui décou­le­raient de la créa­tion d’une per­son­na­li­té juri­dique pour le robot seraient éga­le­ment désas­treuses sur le plan natio­nal et inter­na­tio­nal. En termes d’économie natio­nale, la ges­tion de ce nou­veau sta­tut géné­re­rait certes une impor­tante acti­vi­té éco­no­mique, mais serait sur­tout source de nou­velles charges pour les uti­li­sa­teurs. L’utilisateur pro­fes­sion­nel, pro­prié­taire d’une flotte de robots auto­nomes, pour­rait peut-être sup­por­ter le coût de ges­tion du nou­veau sta­tut de ses machines, mais tel serait rare­ment le cas de l’acquéreur simple consom­ma­teur uti­li­sant le robot pour ses propres besoins, comme une per­sonne âgée avec un robot d’assistance aux soins à son domi­cile. Cette situa­tion pour­rait inci­ter les par­ti­cu­liers à ne pas inves­tir dans ces inno­va­tions tech­no­lo­giques. En termes inter­na­tio­naux, la créa­tion d’une per­son­na­li­té juri­dique pour les seuls robots euro­péens impac­te­rait néces­sai­re­ment la com­pé­ti­ti­vi­té des entre­prises euro­péennes à l’échelle mondiale.

Pour l’instant, la Com­mis­sion euro­péenne a résis­té à la ten­ta­tion trans­hu­ma­niste de la per­son­na­li­té juri­dique du robot. D’ailleurs, l’Union euro­péenne s’est aujourd’hui lan­cée dans le nou­veau défi de l’intelligence arti­fi­cielle, et cherche en prio­ri­té à encou­ra­ger l’innovation dans ce sec­teur et à déve­lop­per un modèle d’IA éthique. 

Poster un commentaire