L’un des plus gros enjeux en matière d’Intelligence Artificielle est la question de la responsabilité. Comment indemniser un dommage causé par un robot, et notamment lorsque celui-ci acquiert une certaine autonomie ? Pour rappel, notre droit est fondé en grande partie sur le principe d’autonomie de la volonté, lui même basé sur des conceptions philosophiques kantiennes. Ce sont ces conceptions qui permettent au droit positif (i.e. le droit existant, soit l’inverse du droit prospectif) de faire respecter un contrat, d’autoriser une personne physique à s’engager, à voter, etc. C’est la base même du nouvel article 1103 du code civil français selon lequel « les contrats légalement formés tiennent lieu de loi à ceux qui les ont faits ». Cette conception est flexible, c’est ce qui permet par exemple de reconnaitre une capacité contractuelle à des entités non-humaines, comme une entreprise par exemple.

La rapporteuse Mady Delvaux, députée au Parlement Européen (et ancienne professeur de lettres classiques, c’est toujours bon à souligner) a rédigé un projet de rapport « contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique »

Pour résumer, la Commission des Affaires Juridiques s’interroge sur la possibilité de créer une personnalité juridique pour les robots et les intelligences artificielles. C’est au point (f), page 13 :

(Demande à la Commission d’examiner) la création d’une personnalité juridique spécifique aux robots, pour qu’au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques dotées de droits et de devoirs bien précis, y compris celui de réparer tout dommage causé à un tiers; serait considéré comme une personne électronique tout robot qui prend des décisions autonomes de manière intelligente ou qui interagit de manière indépendante avec des tiers;

L’idée de Mady Delvaux serait donc d’appliquer un principe de responsabilité stricte pour les robots. Qu’est-ce que cela signifie ? Tout simplement qu’on devrait apporter la preuve du dommage et de la relation de cause à effet entre le dommage et le comportement dommageable pour pouvoir engager la responsabilité du robot, et donc être indemnisé. On n’aurait ainsi pas besoin de prouver la faute (ce qui est heureux, car si on commence à entrer dans des considérations d’intentionnalité, et donc de discrimination entre faute lourde et faute grave, on risque de sérieusement compliquer les débats, déjà peu évidents).

Un principe de responsabilité proportionnelle

Cette responsabilité stricte qu’envisage le projet serait également proportionnelle, autrement dit adaptée au « niveau réel d’instructions données au robot et à l’autonomie de celui-ci[1] ». L’idée est assez simple : plus le robot est autonome (notamment dans son apprentissage), moins les autres parties concernées sont responsables en cas de dommage. J’entends quelqu’un crier dans la salle… Et oui, il y a plusieurs avantages. Parmi lesquels :

  1. Permettre de déresponsabiliser les fabricants et autres ingénieurs (en d’autres termes : le docteur Frankenstein doit-il être responsable des méfaits de sa créature ?), et donc de ne pas freiner l’innovation et le commerce – on peut penser au futur de l’internet des objets, mais pas seulement.
  2. Donner une certaine marge de manœuvre à la jurisprudence future, qui se fera un plaisir de jauger du degré d’autonomie des robots et de leurs dommages.

Si une telle législation voit le jour, cela promet de passionnants débats, surtout quand on songe aux juges français qui prononcent Google « Gogleu » et parlent de « Lojin » (au lieu de login). Bref, ça ne fera que donner un peu plus de poids aux évaluations des ingénieurs, spécialistes et autres consultants qui foisonnent en la matière, sur lesquels se reposeront toujours un peu plus les professionnels du droit, qui ne peuvent pas être spécialistes en tout. Le pendant de cette responsabilité proportionnelle (et on se demande la part de lobbying dans cette histoire) c’est aussi et surtout la création d’un régime d’assurance obligatoire, obligation faite au fabricant (et répercutée, on s’en doute, sur le consommateur) de contracter une police d’assurance pour les robots qu’il fabriquera.

Le régime d’assurance robotique obligatoire, ou la poule aux œufs d’or

Créer un régime d’assurance robotique obligatoire, ce serait ainsi garantir un dédommagement à la victime en cas de dommage causé par un robot. La question n’est pas fictionnelle, notamment en ce qui concerne les dommages corporels, et ce depuis qu’un conducteur passif de voiture autonome est mort à cause d’une erreur d’interprétation de l’Intelligence Artificielle qui conduisait. On distinguerait ainsi entre les dommages matériels (dédommagés par le fonds) et les autres types de dommages, notamment corporels, qui ne seraient soumis à aucune limite. Le rapport s’interroge ainsi sur la création de « dons ou versements d’une rémunération aux robots autonomes intelligents, sommes qui seraient transférées au fonds[2] ». Payer des robots pour alimenter un fonds, cela ne parait pas si idiot que ça, mais encore une fois, cela requiert avant tout une chose : attribuer la personnalité juridique aux intelligences artificielles autonomes.

La personnalité juridique des robots

Traditionnellement, on reconnait la personnalité juridique aux seules personnes physiques (les êtres humains) et aux personnes morales (les sociétés, les groupes, les entreprises). Les robots, comme les chatons ou les voitures, n’ont pas de personnalité juridique – ils n’ont donc ni droits, ni devoirs. Ce que recommande le projet est donc de créer une personnalité juridique pour les intelligences artificielles autonomes. Le moyen ? Passer par une directive (autrement dit, laisser aux États membres une certaine latitude dans l’application de ce droit, contrairement aux règlements). En gros : chaque pays se débrouille, on ne fixe qu’un objectif commun. Il y a encore loin à paraitre avant qu’une telle création juridique ne voit le jour. Il est néanmoins peu probable qu’au vu de la situation actuelle, dans laquelle les voitures autonomes et les robots chirurgiens commencent déjà à créer des dommages, les choses n’évoluent très rapidement. Affaire à suivre, donc.

[1] C’est le point 28 du rapport.

[2] C’est le point 31 b) du rapport.