Robot humanoïde Sophia

Le statut juridique du robot doit-il évoluer ?

Dossier : Robotique et intelligence artificielleMagazine N°750 Décembre 2019
Par Nathalie NEVEJANS

Le développe­ment des robots, notam­ment avec leur apparence par­fois humanoïde, et celui de leurs modal­ités d’échange avec les per­son­nes humaines provo­quent un cer­tain trou­ble dans leur per­cep­tion par les gens. Sor­tent-ils pro­gres­sive­ment de la caté­gorie des machines, des « choses », pour se rap­procher de la notion de « per­son­ne » ? Une juriste présente ici sur le sujet une analyse sans ambiguïté.

Le statut juridique peut être défi­ni comme les règles de droit qui s’appliquent à une per­son­ne ou à une entité. Les robots sont fab­riqués, achetés, ven­dus, don­nés ou détru­its, à la con­di­tion de respecter la régle­men­ta­tion exis­tante, spé­ciale­ment les règles con­tractuelles pour réalis­er ces opéra­tions juridiques, celles de mis­es sur le marché ou encore celles rel­a­tives à la pro­tec­tion de l’environnement. Mais des ques­tions plus déli­cates appa­rais­sent au moment où le robot cause un dom­mage en rai­son d’une déci­sion erronée ou d’une défail­lance technique.


REPÈRES

D’un point de vue général, la per­son­nal­ité juridique a plusieurs effets remar­quables en droit. Tout d’abord, son tit­u­laire, c’est-à-dire la per­son­ne-sujet de droit, est doté de droits et d’obligations, ain­si que d’un pat­ri­moine. Ensuite, il peut agir en jus­tice pour défendre ses droits. Et enfin il est respon­s­able de ses pro­pres dom­mages, de sorte qu’il lui appar­tient d’indemniser la vic­time. Si on attribuait la per­son­nal­ité juridique au robot, il serait alors respon­s­able de ses pro­pres dom­mages, comme tout sujet de droit. 


Le robot peut-il être responsable des dommages qu’il provoque ?

La respon­s­abil­ité civile cor­re­spond à l’obligation de répar­er en nature ou en argent le dom­mage que l’on a causé, par sa faute ou non, dans les cas prévus par la loi. Celui qui est tenu de répar­er est tou­jours un sujet de droit, c’est-à-dire une per­son­ne. Par oppo­si­tion aux per­son­nes, le robot n’est actuelle­ment qu’un objet de droit, puisqu’il est une chose d’un point de vue juridique. Les con­séquences sont impor­tantes. Comme seul un sujet de droit peut engager sa respon­s­abil­ité, le robot, en tant qu’objet de droit, ne peut pas être respon­s­able des dom­mages qu’il occa­sionne. C’est tou­jours une per­son­ne, physique ou morale, qui répond des dom­mages causés par le robot et qui indem­nise les victimes.

Toutes les règles de respon­s­abil­ité civile clas­siques sont applic­a­bles en robo­t­ique pour indem­nis­er la vic­time. Ain­si, en cas de dom­mage lié à un défaut – hard­ware ou soft­ware – du robot engen­drant une atteinte à la sécu­rité de la vic­time, la direc­tive Pro­duits défectueux de 1985, en cours de révi­sion, per­met à la vic­time d’attaquer en respon­s­abil­ité directe­ment le fab­ri­cant du robot. Il en va ain­si d’un robot aspi­ra­teur qui, à la suite d’un dys­fonc­tion­nement, tomberait dans les escaliers et blesserait quelqu’un. Mais, si le robot ne con­naît aucune défec­tu­osité, le dom­mage peut encore être imputable à son pro­prié­taire ou à son util­isa­teur en rai­son de son usage. Tel est le cas lorsque l’accident d’un invité est dû au bas­cule­ment d’un robot serveur dont le pro­prié­taire n’aurait pas respec­té les con­signes de poids max­i­mum sur le plateau qu’il porte.

“Le robot n’est actuellement
qu’un objet de droit. ”

Vers un sujet de droit ?

En Europe, la réso­lu­tion de 2017 sur les « Règles de droit civ­il sur la robo­t­ique » con­stitue une réelle nova­tion en la matière. Le Par­lement européen s’est demandé si le développe­ment des robots de plus en plus autonomes et capa­bles d’autoapprentissage n’imposait pas de repenser la respon­s­abil­ité civile en robo­t­ique. Selon le texte voté, le cadre juridique actuelle­ment en vigueur ne saurait suf­fire à cou­vrir les dom­mages causés par la nou­velle généra­tion de robots puisqu’il deviendrait impos­si­ble d’imputer la respon­s­abil­ité à un être humain. Cela serait dû au fait que leurs nou­velles capac­ités entraîn­eraient « une cer­taine part d’imprévisibilité dans leur com­porte­ment, étant don­né que ces robots tir­eraient, de manière autonome, des enseigne­ments de leurs expéri­ences, vari­ables de l’un à l’autre, et inter­a­gi­raient avec leur envi­ron­nement de manière unique et imprévis­i­ble » (point AI). Dans son texte, le Par­lement a encour­agé la Com­mis­sion européenne à éval­uer les pistes de solu­tions qu’il pro­pose pour assur­er l’indemnisation des vic­times, à savoir l’instauration d’un régime d’assurance oblig­a­toire comme pour les véhicules ou encore la créa­tion d’un fonds de com­pen­sa­tion. La piste la plus sur­prenante, sur laque­lle nous allons nous attarder, est celle de « la créa­tion, à terme, d’une per­son­nal­ité juridique spé­ci­fique aux robots, pour qu’au moins les robots autonomes les plus sophis­tiqués puis­sent être con­sid­érés comme des per­son­nes élec­tron­iques respon­s­ables, tenues de répar­er tout dom­mage causé à un tiers » (§ 59 f).


Des initiatives sans portée juridique

En octo­bre 2017 le robot Sophia de Han­son Robot­ics a attiré l’attention plané­taire en rece­vant la nation­al­ité saou­di­enne dans le cadre du forum économique Future Invest­ment Ini­tia­tive à Riyad.
En novem­bre de la même année, c’était au tour du pro­gramme d’intelligence arti­fi­cielle Mirai, représen­tant un petit garçon, de devenir rési­dent d’un quarti­er de Tokyo au Japon. Dans ces deux hypothès­es, le pseu­do-statut accordé au robot ou au pro­gramme d’IA est seule­ment motivé par la volon­té de mar­quer les esprits et d’attirer l’attention des médias et du pub­lic. Il n’a donc pas voca­tion à accorder un véri­ta­ble statut juridique.


Doit-on considérer le robot autonome comme une personne ?

À notre sens, la réso­lu­tion du Par­lement européen va bien au-delà d’une sim­ple piste de solu­tion comme les autres. Le sen­ti­ment s’installe très vite à sa lec­ture que les évo­lu­tions souhaitées ne sont pas sim­ple­ment motivées par des argu­ments juridiques, mais pré­par­ent implicite­ment un boule­verse­ment ontologique de la place de l’humain dans un monde tech­nologique. En effet, force est de con­stater que le change­ment des règles du droit de la respon­s­abil­ité civile envis­agé s’accompagnerait égale­ment d’une évo­lu­tion pro­fonde du statut du robot, annon­cée dès le début du texte. La réso­lu­tion affirme coup sur coup que « plus un robot est autonome, moins il peut être con­sid­éré comme un sim­ple out­il con­trôlé par d’autres acteurs (tels que le fab­ri­cant, l’opérateur, le pro­prié­taire, l’utilisateur, etc.) » (point AB) et que « l’autonomie des robots pose la ques­tion de leur nature à la lumière des caté­gories juridiques exis­tantes ou de la néces­sité de créer une nou­velle caté­gorie dotée de ses pro­pres car­ac­téris­tiques et effets spé­ci­fiques » (point AC). Elle sem­ble ain­si sig­ni­fi­er que l’autonomie impacte directe­ment la nature même du robot, qui est plus qu’une sim­ple chose. En pro­posant de trans­former le robot en un véri­ta­ble sujet de droit, la réso­lu­tion invite donc à remet­tre en cause les piliers du droit que sont la dis­tinc­tion entre les per­son­nes et les choses, et celle entre les sujets et les objets de droit.

Nom­breuses sont les voix qui s’élèvent con­tre l’idée de faire du robot autonome une per­son­ne. Des insti­tu­tions européennes et inter­na­tionales s’y opposent fer­me­ment. Tel est le cas du Comité économique et social européen (Cese) qui, en 2017, a refusé « l’octroi d’une forme de per­son­nal­ité juridique aux robots ou à l’IA et aux sys­tèmes d’IA, en rai­son du risque moral inac­cept­able inhérent à une telle démarche » ou de la Com­mis­sion mon­di­ale d’éthique des con­nais­sances sci­en­tifiques et des tech­nolo­gies (Comest) qui, dans son rap­port de 2017 sur la robo­t­ique éthique, affirme qu’il serait absurde de qual­i­fi­er les robots de per­son­nes, « puisqu’ils sont dépourvus de cer­taines autres qual­ités générale­ment asso­ciées aux êtres humains comme le libre arbi­tre, l’intentionnalité, la con­science de soi, le sens moral et le sen­ti­ment de l’identité per­son­nelle » (§ 201). De même, la com­mu­nauté des chercheurs, tous domaines con­fon­dus, est unie con­tre la per­son­nal­ité juridique du robot autonome, comme en témoignent les 285 sig­na­tures de l’Open Let­ter to the Euro­pean Com­mis­sion « Arti­fi­cial Intel­li­gence and Robot­ics » créée à notre initiative.

“Rejeter la tentation mâtinée de transhumanisme
de faire du robot une personne.”

Une fausse bonne idée ?

D’un point de vue juridique et éthique, il con­vient de rejeter la ten­ta­tion mât­inée de tran­shu­man­isme de faire du robot autonome et autoap­prenant une per­son­ne, pour trois raisons au moins.

Tout d’abord, le pos­tu­lat de départ de la réso­lu­tion, selon lequel le droit de la respon­s­abil­ité serait face à un vide juridique avec les robots de dernière généra­tion, est faux. Il appa­raît que la ques­tion de la respon­s­abil­ité n’est pas insol­u­ble en robo­t­ique autonome. Même lorsque la machine est autonome et apprend d’elle-même, elle a néces­saire­ment été conçue, fab­riquée, ven­due et util­isée par un humain. L’humain n’a pas dis­paru de la chaîne des respon­s­abil­ités. De plus, l’argument affir­mant l’imprévisibilité du com­porte­ment de ces robots, imposant de revoir tout le droit de la respon­s­abil­ité civile, est égale­ment erroné. Si une machine est imprévis­i­ble au point de causer un dom­mage, c’est qu’elle présente un défaut de sécu­rité dès la con­cep­tion. Il s’agit donc juridique­ment d’un pro­duit défectueux.

Ensuite, la réso­lu­tion évoque la créa­tion d’une nou­velle sorte de per­son­ne-robot, mais n’en donne pas le statut exact. Ici encore, il existe un pili­er du droit qui dis­tingue les per­son­nes physiques (humains) des per­son­nes morales (société, asso­ci­a­tion…). Si le mod­èle de per­son­ne envis­agé par la réso­lu­tion est celui de la per­son­ne physique, nul con­teste qu’il serait dan­gereux et aber­rant d’en faire dériv­er le statut juridique du robot autonome, car un robot ne se rap­proche en rien d’un humain. En effet, en l’état actuel de la robo­t­ique, le robot n’a ni con­science ou volon­té pro­pre, ni sen­ti­ment ou capac­ité de souf­france. De plus, s’il fait preuve de capac­ités supérieures à l’humain dans des domaines spé­ci­fiques, comme jouer au go, dans tous les autres domaines ses apti­tudes sont bien inférieures. Accorder la per­son­nal­ité juridique à un robot sur le mod­èle de la per­son­ne humaine reviendrait à recon­naître à la machine une égal­ité avec l’être humain et à lui accorder des droits fon­da­men­taux, comme le droit à sa dig­nité, à son intégrité ou à sa citoyenneté.

Si l’on con­sid­ère plutôt que le mod­èle de per­son­ne retenu serait celui de la per­son­ne morale, la ques­tion mérite une plus grande atten­tion. Depuis l’Antiquité, le droit recon­naît le statut des per­son­nes morales aux sociétés ou aux asso­ci­a­tions, alors qu’elles ne sont pas humaines. Donc a pri­ori il sem­blerait cohérent d’envisager de faire dériv­er le statut juridique du robot autonome de celui de la per­son­ne morale. Cela per­me­t­trait de lui con­stituer un pat­ri­moine, ce qui rendrait alors pos­si­ble la prise en charge de ses dom­mages en cas d’accident. Le prob­lème est qu’une per­son­ne morale ne fonc­tionne pas toute seule, puisqu’elle a tou­jours à sa tête un être humain qui prend les déci­sions pour la faire agir dans l’espace juridique. Or le robot autonome devenu per­son­ne morale serait bien inca­pable de pren­dre de telles déci­sions. Le Cese rap­pelle égale­ment fort bien le côté inepte de cette solu­tion (§ 3.33).

Enfin, et surtout, la créa­tion d’une per­son­nal­ité juridique pour le robot autonome aurait pour effet de déporter la respon­s­abil­ité du fab­ri­cant vers le seul util­isa­teur. Toute la régle­men­ta­tion exis­tante, imposant au fab­ri­cant de respecter des exi­gences essen­tielles en ter­mes de san­té et de sécu­rité lors de la mise sur le marché des machines – spé­ciale­ment la direc­tive Machines de 2006, en cours de révi­sion, ou le règle­ment Dis­posi­tifs médi­caux de 2017 –, pour­rait alors per­dre son sens. Le fab­ri­cant ris­querait d’être moins vig­i­lant sur la qual­ité du robot qu’il met­trait sur le marché, sachant que, en cas de dom­mage, ce serait la machine elle-même ou son util­isa­teur qui serait respon­s­able, et non lui.

Des lycéens observant le robot humanoïde social Sophia, création de la société Hanson Robotics.
Des lycéens obser­vant le robot humanoïde social Sophia, créa­tion de la société Han­son Robot­ics. © paparazzza / Shutterstock.com

Des conséquences économiques désastreuses

Les con­séquences économiques qui découleraient de la créa­tion d’une per­son­nal­ité juridique pour le robot seraient égale­ment désas­treuses sur le plan nation­al et inter­na­tion­al. En ter­mes d’économie nationale, la ges­tion de ce nou­veau statut génér­erait certes une impor­tante activ­ité économique, mais serait surtout source de nou­velles charges pour les util­isa­teurs. L’utilisateur pro­fes­sion­nel, pro­prié­taire d’une flotte de robots autonomes, pour­rait peut-être sup­port­er le coût de ges­tion du nou­veau statut de ses machines, mais tel serait rarement le cas de l’acquéreur sim­ple con­som­ma­teur util­isant le robot pour ses pro­pres besoins, comme une per­son­ne âgée avec un robot d’assistance aux soins à son domi­cile. Cette sit­u­a­tion pour­rait inciter les par­ti­c­uliers à ne pas inve­stir dans ces inno­va­tions tech­nologiques. En ter­mes inter­na­tionaux, la créa­tion d’une per­son­nal­ité juridique pour les seuls robots européens impacterait néces­saire­ment la com­péti­tiv­ité des entre­pris­es européennes à l’échelle mondiale.

Pour l’instant, la Com­mis­sion européenne a résisté à la ten­ta­tion tran­shu­man­iste de la per­son­nal­ité juridique du robot. D’ailleurs, l’Union européenne s’est aujourd’hui lancée dans le nou­veau défi de l’intelligence arti­fi­cielle, et cherche en pri­or­ité à encour­ager l’innovation dans ce secteur et à dévelop­per un mod­èle d’IA éthique. 

Poster un commentaire