Magazine N°733 Mars 2018 - L'intelligence artificielle
  • Dernier magazine (740)
  • Magazine de l'article (733)

Grégoire LOISEAU

Professeur à l’université Paris 1 Panthéon-Sorbonne

Articles du Dossier

Par Alexandra DUTHEILLET de LAMOTHE
et Édouard d'ARCHIMBAUD (04)
Par Jean PONCE
Par Jean-Philippe VERT (92)
Par Mathieu AUBRY (06)
Par Édouard GEOFFROIS
Par François BOURDONCLE (84)
Par Florent de BODMAN
et Alexandre TISSERANT (99)
Par Grégoire LOISEAU
Par Emmanuel SCHNEIDER (12)
Par Édouard d'ARCHIMBAUD (04)

La régulation juridique des robots intelligents

La nécessité d’encadrer le déploiement de l’intelligence artificielle de règles déontologiques et juridiques propres ne fait plus de doute et amènera naturellement à définir des règles éthiques et adapter les lois. Mais la tentation d’attribuer à certains robots une personnalité juridique doit être écartée.

À mesure que les progrès de l’intelligence artificielle ne laissent plus de doute sur la capacité des machines intelligentes à effectuer des tâches de plus en plus variées, les interrogations ne portent plus sur la réalité du phénomène mais sur son appréhension par le droit. Le bond en avant technologique impliquera certainement des adaptations normatives.

La mesure du changement est en revanche, pour l’instant, insaisissable. Tout au plus a-t-on conscience que la question essentielle à régler est celle de la gestion des risques puisqu’il en va de l’acceptabilité sociale de ces nouveaux objets intelligents.

REPÈRES

La prise de conscience des risques et menaces que fait peser le développement des machines intelligentes ne s’est pas fait attendre.
Dès le début de l’année 2017, des délibérations d’institutions européennes et françaises ont appelé à adopter des règles éthiques afin d’accompagner la progression de l’intelligence artificielle dont le potentiel est aujourd’hui indéfini.

ROBOTS MÉDICAUX ET VÉHICULES AUTONOMES

Certains risques ne sont pas, il est vrai, inconnus ; mais l’instrument du dommage, quand sont en cause des machines autonomes, voire autoapprenantes, fait réfléchir à l’adaptation des régimes existants pour prendre en charge l’indemnisation.

Chirurgie par robots
Quelle est la responsabilité médicale quand un robot est utilisé ? © ZAPP2PHOTO

La question se pose, par exemple, dans le cadre de la responsabilité médicale en ce qui concerne l’utilisation de robots médicaux et se posera bientôt pour les véhicules autonomes. Il semble cependant trop tôt pour connaître les besoins et mettre en place, le cas échéant, de nouveaux instruments.

D’autres risques se présentent davantage comme des menaces. On peut craindre une utilisation débridée de l’intelligence artificielle pour procéder à des réalisations qui défient les principes fondamentaux de respect de la personne humaine.

Demain, ce sont des cyberorganismes qui seront disponibles : des greffes d’humains sur des machines ou des implants de technologies sur les corps.

UNE ÉTHIQUE À L’USAGE DES MACHINES INTELLIGENTES

Avant de réformer ou de modifier quoi que ce soit, l’avis largement partagé est de se préoccuper d’une prise en charge humaniste des questions liées à l’intelligence artificielle. L’idée est que l’intelligence artificielle devrait être, de la conception à l’utilisation, « éthico-compatible », c’est-à-dire conforme aux valeurs humanistes portées par notre société.

La conception défendue à ce sujet est celle d’un « développement responsable, sûr et utile de l’intelligence artificielle dans le cadre duquel les machines resteraient les machines, sous le contrôle permanent des humains » (avis du Comité économique et social européen du 31 mai 2017).

UNE CHARTE COMME CADRE

La confection d’une charte est présentée comme l’instrument privilégié pour constituer un cadre éthique.

“ La question essentielle à régler est celle de la gestion des risques ”

Le Comité économique et social européen promeut ainsi des valeurs éthiques « intégrées » à l’intelligence artificielle, sorte d’ethics by design, qui seraient développées dans un « code éthique uniforme applicable à l’échelle mondiale ».

Une résolution du Parlement européen « contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique » en date du 16 février 2017 comporte une « charte sur la robotique » déclinée en un « code de conduite éthique pour les ingénieurs en robotique », un « code de déontologie pour les comités d’éthique de la recherche », une « licence pour les concepteurs » et une autre « pour les utilisateurs ».

Ces propositions – parmi d’autres – mettent à profit les vertus prêtées à la démarche éthique : avantage de la souplesse pour atteindre des objectifs dans un domaine mouvant qui serait contraint par des règles rigides, lesquelles risqueraient de ralentir l’innovation ; attachement à des valeurs communes pour développer des principes cadres susceptibles d’être diffusés dans un environnement international.

Le Parlement Européen
En février 2017, le Parlement européen a voté une résolution « contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique ». © LEONID ANDRONOV

DES OBJECTIFS ET DES RÈGLES SOUPLES

Il est attendu de l’éthique qu’elle agrège des objectifs qui vont du respect des droits fondamentaux à la diffusion de règles souples valorisant des comportements responsables et permettant d’aborder de manière transversale les enjeux philosophiques, politiques, juridiques, économiques, éducatifs.

UNE APPROCHE COMPLÉMENTAIRE À LA LOI

La promotion de cette approche ne doit cependant pas faire oublier ses défauts. La privatisation de la norme est le plus sérieux.

« La règle éthique définit une ligne de conduite et ne prévoit pas de sanction directe »

Que la norme éthique soit à l’initiative des autorités publiques ou qu’elle procède d’une démarche d’autorégulation de groupements privés, elle implique les acteurs du secteur dans sa conception et/ ou dans sa mise en œuvre. Et encore ne s’agit-il pas de tous les acteurs privés.

Car cette voie fait incontestablement primer la loi du plus fort, celle des opérateurs les plus influents qui imposeront leur éthique. Un autre inconvénient est la faible normativité de la règle éthique qui définit une ligne de conduite et ne prévoit pas de sanction directe.

L’éthique doit être appréhendée comme une voie complémentaire à la voie législative, qui reste essentielle dans une société démocratique.

LA MOBILISATION DE LA RESPONSABILITÉ CIVILE

Quelle que puisse être l’utilité de chartes éthiques, le traitement des dommages causés par des machines intelligentes est et demeurera du ressort de la responsabilité civile. Le risque de dommages n’a rien en soi d’original mais il suscite plus d’interrogations que d’ordinaire en raison de la nouveauté de ces technologies et de l’autonomie des systèmes autoapprenants.

CADRES SPÉCIFIQUES

D’autres régimes seront aussi sollicités en les adaptant au besoin. C’est le cas, en particulier, en ce qui concerne les véhicules autonomes : leur mise sur le marché suppose l’existence d’une réglementation qui sécurise l’utilisation et la couverture des dommages causés par ces nouveaux objets.

Il n’y a cependant pas de raison, à ce stade du développement de l’intelligence artificielle, de chambouler le droit de la responsabilité. Des ajustements peuvent être suffisants s’ils permettent de passer d’un état expérimental à la mise en application pratique des machines intelligentes.

Le changement est pour l’instant de cet ordre : la diffusion des systèmes intelligents devra s’accompagner de la garantie d’une couverture des risques.

Deux régimes de responsabilité peuvent aujourd’hui principalement être mis à contribution, celui du droit commun de la responsabilité du fait des choses et celui propre aux produits défectueux. Entre les deux, c’est le régime de responsabilité du fabricant qui paraît devoir être privilégié chaque fois que le dommage est provoqué par un défaut de sécurité du système d’intelligence artificielle.

Il y a plusieurs raisons pour imputer prioritairement les risques au fabricant et, le cas échéant, aux concepteurs de produits intégrés. La première est que ces professionnels ont un devoir de prévention ; la seconde qu’ils sont en principe assurés en cas de réalisation du risque.

Dans le champ des possibles, une orientation doit en revanche être fermement rejetée : celle d’une responsabilité des robots eux-mêmes, qui oriente la réflexion vers la reconnaissance d’une personnalité juridique de ces machines intelligentes.

L’INSOUTENABLE PERSONNALITÉ JURIDIQUE DES ROBOTS COGNITIFS

La résolution adoptée par le Parlement européen en février 2017 envisage très sérieusement « la création, à terme, d’une personnalité juridique spécifique aux robots, pour qu’au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques responsables, tenues de réparer tout dommage causé à un tiers ».

Véhicule à conduite autonome
Il faudra adapter les réglementations pour permettre l’usage de voitures autonomes. © CHOMBOSAN

Impulsivement, l’idée d’une personnalité juridique procède d’une représentation des robots autonomes comme des créatures intelligentes et autonomes susceptibles d’agir, voire de se comporter, comme des personnes. C’est d’ailleurs la fonction des machines intelligentes que d’être capables de réaliser des actions qui sont en principe exécutées par des humains.

Il y a toutefois beaucoup à redouter d’une telle proposition. Pour quelle utilité, d’abord ? La personnalité attribuée à certains objets intelligents – lesquels ? selon quel critère ? – ne réglerait en rien les questions qui se posent en termes de sécurité et de responsabilité. La sécurité peut plus sûrement compter sur des normes imposées aux concepteurs de logiciels, aux fabricants, voire aux utilisateurs de robots qu’en programmant des devoirs dont ces derniers seraient personnellement débiteurs.

Quant à la responsabilité, rien ne permet de croire qu’elle serait plus efficace conçue comme une responsabilité du robot, ce qui impliquerait d’abonder un patrimoine qui lui serait attaché pour l’exécution de la dette de réparation.

Elle serait de surcroît amputée de son effet prophylactique si le fabriquant n’assume plus le risque de responsabilité qui serait transféré au système d’intelligence artificielle.

UNE CHIMÈRE À ÉCARTER

La personnification des robots troublerait surtout gravement les catégories juridiques en donnant vie à une chimère, mi-personne mi-chose, à la fois sujet de droit et objet de droit. Une telle chimère, sans intérêt identifié, déréglerait profondément le construit juridique.

“ Faudra-t-il faire accéder les personnes artificielles aux mêmes droits que ceux des personnes humaines ? ”

Elle pervertit la summa divisio des personnes et des choses et la hiérarchie, qui correspond à un ordre de valeur, entre les unes et les autres.

A-t-on en outre idée des droits qui seraient dévolus aux personnes robots rendues capables d’en être les sujets ?

Faudra-t-il, sous couvert d’égalité entre les personnes juridiques, faire accéder les personnes artificielles aux mêmes droits que ceux des personnes humaines ?

L’idée même est ontologiquement déplaisante.

Ajouter un commentaire

Publication des commentaires

La publication des commentaires est modérée, principalement pour éviter des offres commerciales inadaptées.
Cela est exécuté une ou deux fois par jour.

Depuis un certain temps,les fiches des auteurs (cliquer sur la photo)comportent un lien sur leur fiche LinkedIn. Cela permet de contacter les auteurs sans que nous ayons à publier leur adresse. Dans le cas de cette utilisation veuillez bien préciser les références de l'article commenté.

Actualités

La page Facebook de la JR

.