Robot humanoïde Sophia

Le statut juridique du robot doit-il évoluer ?

Dossier : Robotique et intelligence artificielleMagazine N°750 Décembre 2019
Par Nathalie NEVEJANS

Le développement des robots, notamment avec leur apparence parfois humanoïde, et celui de leurs modalités d’échange avec les personnes humaines provoquent un certain trouble dans leur perception par les gens. Sortent-ils progressivement de la catégorie des machines, des « choses », pour se rapprocher de la notion de « personne » ? Une juriste présente ici sur le sujet une analyse sans ambiguïté.

 

Le statut juridique peut être défini comme les règles de droit qui s’appliquent à une personne ou à une entité. Les robots sont fabriqués, achetés, vendus, donnés ou détruits, à la condition de respecter la réglementation existante, spécialement les règles contractuelles pour réaliser ces opérations juridiques, celles de mises sur le marché ou encore celles relatives à la protection de l’environnement. Mais des questions plus délicates apparaissent au moment où le robot cause un dommage en raison d’une décision erronée ou d’une défaillance technique.

 


REPÈRES

D’un point de vue général, la personnalité juridique a plusieurs effets remarquables en droit. Tout d’abord, son titulaire, c’est-à-dire la personne-sujet de droit, est doté de droits et d’obligations, ainsi que d’un patrimoine. Ensuite, il peut agir en justice pour défendre ses droits. Et enfin il est responsable de ses propres dommages, de sorte qu’il lui appartient d’indemniser la victime. Si on attribuait la personnalité juridique au robot, il serait alors responsable de ses propres dommages, comme tout sujet de droit.


 

Le robot peut-il être responsable des dommages qu’il provoque ?

La responsabilité civile correspond à l’obligation de réparer en nature ou en argent le dommage que l’on a causé, par sa faute ou non, dans les cas prévus par la loi. Celui qui est tenu de réparer est toujours un sujet de droit, c’est-à-dire une personne. Par opposition aux personnes, le robot n’est actuellement qu’un objet de droit, puisqu’il est une chose d’un point de vue juridique. Les conséquences sont importantes. Comme seul un sujet de droit peut engager sa responsabilité, le robot, en tant qu’objet de droit, ne peut pas être responsable des dommages qu’il occasionne. C’est toujours une personne, physique ou morale, qui répond des dommages causés par le robot et qui indemnise les victimes.

Toutes les règles de responsabilité civile classiques sont applicables en robotique pour indemniser la victime. Ainsi, en cas de dommage lié à un défaut – hardware ou software – du robot engendrant une atteinte à la sécurité de la victime, la directive Produits défectueux de 1985, en cours de révision, permet à la victime d’attaquer en responsabilité directement le fabricant du robot. Il en va ainsi d’un robot aspirateur qui, à la suite d’un dysfonctionnement, tomberait dans les escaliers et blesserait quelqu’un. Mais, si le robot ne connaît aucune défectuosité, le dommage peut encore être imputable à son propriétaire ou à son utilisateur en raison de son usage. Tel est le cas lorsque l’accident d’un invité est dû au basculement d’un robot serveur dont le propriétaire n’aurait pas respecté les consignes de poids maximum sur le plateau qu’il porte.

 

“Le robot n’est actuellement
qu’un objet de droit. ”

 

Vers un sujet de droit ?

En Europe, la résolution de 2017 sur les « Règles de droit civil sur la robotique » constitue une réelle novation en la matière. Le Parlement européen s’est demandé si le développement des robots de plus en plus autonomes et capables d’autoapprentissage n’imposait pas de repenser la responsabilité civile en robotique. Selon le texte voté, le cadre juridique actuellement en vigueur ne saurait suffire à couvrir les dommages causés par la nouvelle génération de robots puisqu’il deviendrait impossible d’imputer la responsabilité à un être humain. Cela serait dû au fait que leurs nouvelles capacités entraîneraient « une certaine part d’imprévisibilité dans leur comportement, étant donné que ces robots tireraient, de manière autonome, des enseignements de leurs expériences, variables de l’un à l’autre, et interagiraient avec leur environnement de manière unique et imprévisible » (point AI). Dans son texte, le Parlement a encouragé la Commission européenne à évaluer les pistes de solutions qu’il propose pour assurer l’indemnisation des victimes, à savoir l’instauration d’un régime d’assurance obligatoire comme pour les véhicules ou encore la création d’un fonds de compensation. La piste la plus surprenante, sur laquelle nous allons nous attarder, est celle de « la création, à terme, d’une personnalité juridique spécifique aux robots, pour qu’au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques responsables, tenues de réparer tout dommage causé à un tiers » (§ 59 f).


Des initiatives sans portée juridique

En octobre 2017 le robot Sophia de Hanson Robotics a attiré l’attention planétaire en recevant la nationalité saoudienne dans le cadre du forum économique Future Investment Initiative à Riyad.
En novembre de la même année, c’était au tour du programme d’intelligence artificielle Mirai, représentant un petit garçon, de devenir résident d’un quartier de Tokyo au Japon. Dans ces deux hypothèses, le pseudo-statut accordé au robot ou au programme d’IA est seulement motivé par la volonté de marquer les esprits et d’attirer l’attention des médias et du public. Il n’a donc pas vocation à accorder un véritable statut juridique.


 

Doit-on considérer le robot autonome comme une personne ?

À notre sens, la résolution du Parlement européen va bien au-delà d’une simple piste de solution comme les autres. Le sentiment s’installe très vite à sa lecture que les évolutions souhaitées ne sont pas simplement motivées par des arguments juridiques, mais préparent implicitement un bouleversement ontologique de la place de l’humain dans un monde technologique. En effet, force est de constater que le changement des règles du droit de la responsabilité civile envisagé s’accompagnerait également d’une évolution profonde du statut du robot, annoncée dès le début du texte. La résolution affirme coup sur coup que « plus un robot est autonome, moins il peut être considéré comme un simple outil contrôlé par d’autres acteurs (tels que le fabricant, l’opérateur, le propriétaire, l’utilisateur, etc.) » (point AB) et que « l’autonomie des robots pose la question de leur nature à la lumière des catégories juridiques existantes ou de la nécessité de créer une nouvelle catégorie dotée de ses propres caractéristiques et effets spécifiques » (point AC). Elle semble ainsi signifier que l’autonomie impacte directement la nature même du robot, qui est plus qu’une simple chose. En proposant de transformer le robot en un véritable sujet de droit, la résolution invite donc à remettre en cause les piliers du droit que sont la distinction entre les personnes et les choses, et celle entre les sujets et les objets de droit.

Nombreuses sont les voix qui s’élèvent contre l’idée de faire du robot autonome une personne. Des institutions européennes et internationales s’y opposent fermement. Tel est le cas du Comité économique et social européen (Cese) qui, en 2017, a refusé « l’octroi d’une forme de personnalité juridique aux robots ou à l’IA et aux systèmes d’IA, en raison du risque moral inacceptable inhérent à une telle démarche » ou de la Commission mondiale d’éthique des connaissances scientifiques et des technologies (Comest) qui, dans son rapport de 2017 sur la robotique éthique, affirme qu’il serait absurde de qualifier les robots de personnes, « puisqu’ils sont dépourvus de certaines autres qualités généralement associées aux êtres humains comme le libre arbitre, l’intentionnalité, la conscience de soi, le sens moral et le sentiment de l’identité personnelle » (§ 201). De même, la communauté des chercheurs, tous domaines confondus, est unie contre la personnalité juridique du robot autonome, comme en témoignent les 285 signatures de l’Open Letter to the European Commission « Artificial Intelligence and Robotics » créée à notre initiative.

 

“Rejeter la tentation mâtinée de transhumanisme
de faire du robot une personne.”

 

Une fausse bonne idée ?

D’un point de vue juridique et éthique, il convient de rejeter la tentation mâtinée de transhumanisme de faire du robot autonome et autoapprenant une personne, pour trois raisons au moins.

Tout d’abord, le postulat de départ de la résolution, selon lequel le droit de la responsabilité serait face à un vide juridique avec les robots de dernière génération, est faux. Il apparaît que la question de la responsabilité n’est pas insoluble en robotique autonome. Même lorsque la machine est autonome et apprend d’elle-même, elle a nécessairement été conçue, fabriquée, vendue et utilisée par un humain. L’humain n’a pas disparu de la chaîne des responsabilités. De plus, l’argument affirmant l’imprévisibilité du comportement de ces robots, imposant de revoir tout le droit de la responsabilité civile, est également erroné. Si une machine est imprévisible au point de causer un dommage, c’est qu’elle présente un défaut de sécurité dès la conception. Il s’agit donc juridiquement d’un produit défectueux.

Ensuite, la résolution évoque la création d’une nouvelle sorte de personne-robot, mais n’en donne pas le statut exact. Ici encore, il existe un pilier du droit qui distingue les personnes physiques (humains) des personnes morales (société, association…). Si le modèle de personne envisagé par la résolution est celui de la personne physique, nul conteste qu’il serait dangereux et aberrant d’en faire dériver le statut juridique du robot autonome, car un robot ne se rapproche en rien d’un humain. En effet, en l’état actuel de la robotique, le robot n’a ni conscience ou volonté propre, ni sentiment ou capacité de souffrance. De plus, s’il fait preuve de capacités supérieures à l’humain dans des domaines spécifiques, comme jouer au go, dans tous les autres domaines ses aptitudes sont bien inférieures. Accorder la personnalité juridique à un robot sur le modèle de la personne humaine reviendrait à reconnaître à la machine une égalité avec l’être humain et à lui accorder des droits fondamentaux, comme le droit à sa dignité, à son intégrité ou à sa citoyenneté.

Si l’on considère plutôt que le modèle de personne retenu serait celui de la personne morale, la question mérite une plus grande attention. Depuis l’Antiquité, le droit reconnaît le statut des personnes morales aux sociétés ou aux associations, alors qu’elles ne sont pas humaines. Donc a priori il semblerait cohérent d’envisager de faire dériver le statut juridique du robot autonome de celui de la personne morale. Cela permettrait de lui constituer un patrimoine, ce qui rendrait alors possible la prise en charge de ses dommages en cas d’accident. Le problème est qu’une personne morale ne fonctionne pas toute seule, puisqu’elle a toujours à sa tête un être humain qui prend les décisions pour la faire agir dans l’espace juridique. Or le robot autonome devenu personne morale serait bien incapable de prendre de telles décisions. Le Cese rappelle également fort bien le côté inepte de cette solution (§ 3.33).

Enfin, et surtout, la création d’une personnalité juridique pour le robot autonome aurait pour effet de déporter la responsabilité du fabricant vers le seul utilisateur. Toute la réglementation existante, imposant au fabricant de respecter des exigences essentielles en termes de santé et de sécurité lors de la mise sur le marché des machines – spécialement la directive Machines de 2006, en cours de révision, ou le règlement Dispositifs médicaux de 2017 –, pourrait alors perdre son sens. Le fabricant risquerait d’être moins vigilant sur la qualité du robot qu’il mettrait sur le marché, sachant que, en cas de dommage, ce serait la machine elle-même ou son utilisateur qui serait responsable, et non lui.

Des lycéens observant le robot humanoïde social Sophia, création de la société Hanson Robotics.
Des lycéens observant le robot humanoïde social Sophia, création de la société Hanson Robotics. © paparazzza / Shutterstock.com

Des conséquences économiques désastreuses

Les conséquences économiques qui découleraient de la création d’une personnalité juridique pour le robot seraient également désastreuses sur le plan national et international. En termes d’économie nationale, la gestion de ce nouveau statut générerait certes une importante activité économique, mais serait surtout source de nouvelles charges pour les utilisateurs. L’utilisateur professionnel, propriétaire d’une flotte de robots autonomes, pourrait peut-être supporter le coût de gestion du nouveau statut de ses machines, mais tel serait rarement le cas de l’acquéreur simple consommateur utilisant le robot pour ses propres besoins, comme une personne âgée avec un robot d’assistance aux soins à son domicile. Cette situation pourrait inciter les particuliers à ne pas investir dans ces innovations technologiques. En termes internationaux, la création d’une personnalité juridique pour les seuls robots européens impacterait nécessairement la compétitivité des entreprises européennes à l’échelle mondiale.

Pour l’instant, la Commission européenne a résisté à la tentation transhumaniste de la personnalité juridique du robot. D’ailleurs, l’Union européenne s’est aujourd’hui lancée dans le nouveau défi de l’intelligence artificielle, et cherche en priorité à encourager l’innovation dans ce secteur et à développer un modèle d’IA éthique.

Poster un commentaire