Lawgier.net

The technical side of a french guy.

Intelligence artificielle et responsabilité

Cet article se place dans une série de projets rédigés dans le cadre de mon Master 2 en Droit des activités numériques à Paris Descartes. Une version pdf de celui-ci est disponible en téléchargement.


Depuis l’adoption de l’agriculture, la densité et la taille de la population s’est accrue. Cet accroissement a entrainé deux choses : l’augmentation du nombre d’individus, qui conduit à une augmentation du nombre d’idées, et la concentration croissante, qui permet à la fois à ces idées de se transmettre plus facilement et aux personnes de se spécialiser[1]. Ces mutations ont conduit à une accélération du développement humain, entrainant les différentes révolutions industrielles et aujourd’hui notre entrée dans l’ère numérique.
Le développement des capacités de calcul permises par la « loi de Moore »[2] a entrainé l’apparition de nouvelles possibilités de traitement automatisé de tâches et de nouvelles méthodes. L’intelligence artificielle, que le chercheur Yann LeCun[3] définit simplement comme « faire faire aux machines des activités qu’on attribue généralement aux animaux ou aux humains »[4], s’extrait progressivement de la science-fiction pour devenir réalité.
Cette évolution de la machine est permise en particulier grâce au développement de méthodes telles que le machine learning et le deep learning, crée dans les années 1990 et revenue sur le devant de la scène en 2012[5]. Le machine learning, ou « apprentissage automatique » permet à un ordinateur d’apprendre de lui-même, en mettant à sa disposition un algorithme et une grande base de données étiquetées, lui permettant de reconnaître des données et de prendre des décisions en conséquence.

Cette prise de décisions automatisée n’est cependant pas sans conséquences. Au départ plutôt bégnines, l’augmentation des capacités des machines ou robots[6] fait que les décisions prises deviennent de plus en plus importantes et de plus en plus incontrôlées. Un exemples est celui du high frequency trading, où les ordinateurs prennent des décisions de placement financiers dans un laps de temps de quelques microsecondes[7]. Autre exemple, les voitures autonomes, qui approchent leur phase de commercialisation dans certaines villes des États-Unis[8].

Cette prise de décisions automatisée emporte donc certaines interrogations juridiques. Si le robot agit seul, qui est responsable de ses actes ? Les régimes de responsabilité actuels conviennent-t-ils à ce cas de figure ? Quel régime de responsabilité pour l’intelligence artificielle ?
Cette question se pose, d’autant plus que le droit français a des difficultés à appréhender cette question[9]. Dans un arrêt de 2013, la Cour de cassation avait exclu la responsabilité de Google car « *la fonctionnalité aboutissant au rapprochement critiqué est le fruit d’un processus purement automatique dans son fonctionnement et aléatoire dans ses résultats, de sorte que l’affichage qui el résulte est exclusif de toute volonté de l’exploitant du moteur de recherche d’emmètre les propos en cause *»[10].

Pour répondre à cette question, une analyse en deux temps sera réalisée. D’abord, il faudra voir si le droit commun de la responsabilité est apte à envisager les décisions prises par une machine, puis, s’il est nécessaire de créer une personnalité juridique pour les robots.

1. Intelligence artificielle et droit commun de la responsabilité

A. Intelligence artificielle et responsabilité pour faute

Le cadre classique de la responsabilité civile est celui de la responsabilité pour faute, prévu à l’article 1240 du Code civil. Il suppose 3 choses : une faute, un préjudice et un lien de responsabilité.
Il semble néanmoins très difficile d’appliquer ce cadre à l’intelligence artificielle. En effet, il faudra démontrer une faute, qu’elle soit intentionnelle ou non, dans la programmation du robot ou dans son utilisation[11]. Si le robot commet une faute en prenant une décision sans qu’il y ait un comportement litigieux de la part du propriétaire/utilisateur ou du fabriquant, l’article 1240 ne trouvera pas à s’appliquer.

B. Intelligence artificielle et responsabilité du fait des choses et d’autrui

La responsabilité prévue par l’article 1240 étant exclue, il faut envisager celle de l’article 1242 alinéa 1er du Code civil, qui prévoit la responsabilité du fait des choses et d’autrui. Cette responsabilité permet de « faire remonter la responsabilité vers la personne qui dispose d’une autorité sur le responsable de la faute ou du fait dommageable »[12]. Elle emporte la responsabilité du fait des préposés, du fait des enfants ou du fait des animaux[13]. Cette responsabilité du fait d’autrui se justifie néanmoins par « le pouvoir de contrôle du gardien », qui intervient pour « juguler les écarts de comportement » de ce qu’il a sous son contrôle[14].
Cette responsabilité ne semble également pas convenir à l’intelligence artificielle, à la fois parce qu’elle a été conçue pour des objets corporels et s’adapte mal à l’immatérialité de l’intelligence artificielle[15], mais aussi car elle semble aller à l’encontre de la fonction consubstantielle à toute chose autonome : «* servir l’homme en prétendant le soulager d’un contrôle qui […] lui reviendrait sinon *»[16], la relation entre homme et robot allant de plus en plus vers une situation où l’homme se repose sur le contrôle du robot plutôt que l’inverse[17], et où le robot a de plus en plus tendance à s’émanciper de son gardien[18].

C. Intelligence artificielle et responsabilité du fait des produits défectueux

Le régime de responsabilité du fait des produits défectueux, issu d’une directive européenne[19], est un régime « particulièrement favorable à la victime, qui n’a pas besoin de rapporter la preuve d’une faute du producteur »[20]. Pour engager la responsabilité du fabriquant, la victime devra apporter la preuve d’un dommage, de la défectuosité d’un produit, et un lien de causalité entre les deux.
S’il semble que ce régime ne pose pas véritablement de difficultés à s’appliquer à l’intelligence artificielle[21], se pose la question de l’exonération du producteur. Si le fabriquant prouve « que l’état des connaissances scientifiques et techniques, au moment où il a mis le produit en circulation, n’a pas permis de déceler l’existence du défaut »[22], il pourra s’exonérer de sa responsabilité, ce qui empêche l’indemnisation de la victime du comportement du robot. Même si les hypothèses d’exonération sont faibles[23], elles restent applicables au cas de l’intelligence artificielle, dont l’amélioration constante et automatique pourra conduire à des cas où le robot échappera à son fabricant.

Ces régimes de responsabilité ne sont donc pas suffisants si l’on considère que les robots, apprenant sans l’intervention de l’homme, prennent des décisions qui ne pouvaient être anticipées par ses concepteurs, les faisant entrer dans un vide juridique si la décision prise entraine un dommage à un tiers. Il faut donc envisager d’autres solutions.

2. La création d’une personnalité juridique pour les robots

Outre la création d’un nouveau régime de responsabilité pour l’intelligence artificielle, une autre possibilité, proposée par des auteurs[24] et reprise par le Parlement européen, serait de créer, à l’image des sociétés et non pas à celle de l’homme[25], une personnalité juridique propre aux robots.
Dans un Résolution du 16 février 2017 concernant les règles de droit civil sur la robotique[26], le Parlement européen a demandé à la Commission européenne d’examiner la possibilité de créer « à terme, une personnalité juridique spécifique aux robots, pour qu’au moins les robots autonomes les plus sophistiqués puisse être considérés comme des personnes électroniques responsables, tenues de réparer tout dommage causé à un tiers »[27]. De ce fait, le robot deviendrait responsable, ce qui lui permettrait de passer des contrats, notamment des contrats d’assurance[28].

A. Une proposition contestée

Cette proposition est cependant risquée, certains auteurs dénonçant une à la fois un manque d’intérêt et une possible déresponsabilisation des utilisateurs et des fabricants des robots[29]. Manque d’intérêt car la réparation ne serait réellement garantie que par un contrat d’assurance qui peut être souscrit « directement par l’utilisateur/propriétaire du robot sans qu’il soit utile de faire du robot une personne juridique qui devrait s’assurer contre son propre risque »[30].
Déresponsabilisation, car les utilisateurs et fabriquant ne seraient plus incités à concevoir et utiliser des robots non-dangereux si « leur responsabilité personnelle pouvait être écartée au profit de celle des robots »[31] et priverait « d’effet correctifs préventifs découlant du droit de la responsabilité civile »[32] dès lors que « le fabriquant n’assumera plus le risque de responsabilité, celui-ci ayant été transféré au robot »[33].

B. Une proposition intéressante

La création d’une personnalité juridique pour les robots n’est cependant pas totalement dénuée de sens. En effet, elle n’exclue pas totalement la responsabilité des autres acteurs. En effet, « en cas de faute de conception, de mise à jour ou d’utilisation, le fabricant, le concepteur le propriétaire ou encore l’utilisateur du robot pourront toujours voir leur responsabilité engagée pour faute »[34].
De plus, le Parlement européen suggère, pour la chaine de responsabilité, qu’elle soit proportionnée au niveau d’instructions données, permettant de distinguer la période de formation par l’homme de celle où le robot se serait formé lui-même[35].

Conclusion

Même si l’augmentation des capacités de l’intelligence artificielle est rapide et le nombre de taches qu’il est possible de réaliser avec s’accroit, il semble cependant trop tôt, en l’état actuel des choses, de se positionner définitivement[36]. Dans sa résolution, le parlement européen considère d’ailleurs que de nouveaux instruments ne pourront être mis en place qu’à un horizon de dix à quinze ans[37]. La pratique, notamment assurantielle, permettra de se positionner de manière plus ferme sur « le point d’ancrage de la couverture du risque »[38].
Il est peut-être donc intéressant, afin d’anticiper les risques, de privilégier aujourd’hui une autorégulation[39] des robots pour anticiper certains risques, tout en réfléchissant à un cadre juridique pérenne. À moins que l’intelligence artificielle soit une illusion, ou, à l’inverse, surpasse celle de l’homme. Dans ce cas, la question de la supériorité plutôt que de la responsabilité devrait se poser.[40]


  1. N. Bostrom, Superintelligence – Paths, danger, strategies, Oxford University Press, 2016, p. 2. ↩︎

  2. G. E. Moore, Cramming more components onto integrated circuits, [en ligne], Electronics, vol. 38, n° 8, 1965. ↩︎

  3. Yann LeCun est un chercheur en intelligence artificielle, responsable du laboratoire d’apprentissage profond (FAIR) chez Facebook. ↩︎

  4. R. Maggiori, Préface, p. 13-14. In : Collectif, Intelligence artificielle – Enquête sur ces technologies qui changent nos vies, Champs actuels, 2018. ↩︎

  5. Idem, p. 15. ↩︎

  6. S. Dormont, Quel régime de responsabilité pour l’intelligence artificielle ?, Comm. com. élect. 2018, n° 11, étude 19, p. 1. ↩︎

  7. A ce propos, voir M. Lewis, Flash boys – A Wall Street revolt, Norton, 2014, USA ↩︎

  8. K. Korosec, Waymo is testing what it should charge for its robotaxi service, [en ligne], Techcrunch, 26 octobre 2018. ↩︎

  9. L. Archambault, L. Zimmermann, La réparation des dommages causés par l’intelligence artificielle : le droit français doit évoluer, Gaz. Pal. 6 mars 2018, n°315c3, p. 17. ↩︎

  10. Cass, 1ère civ, 19 juin 2013, n° 12-17.591. ↩︎

  11. L. Archambault, L. Zimmermann, v. supra. ↩︎

  12. G. Courtois, Robots intelligents et responsabilité : quels régimes, quelles perspectives ?, D. IP/IT 2016, p. 289 ↩︎

  13. C. Civil, art. 1243. ↩︎

  14. P. Brun, La responsabilité du fait des objets connectés. In : Lamy Droit de la responsabilité, 2018, n°350-60. ↩︎

  15. L. Archambault, L. Zimmermann, v. supra. ↩︎

  16. Lamy Droit de la responsabilité, 2018, n°350-60, v. supra. ↩︎

  17. Idem. ↩︎

  18. S. Dormont, v. supra. ↩︎

  19. Directive 85/374/CEE du Conseil du 25 juillet 1985 relative au rapprochement des dispositions législatives, réglementaires et administratives des États membres en matière de responsabilité du fait des produits défectueux. ↩︎

  20. S. Dormont, v. supra. ↩︎

  21. S. Dormont, v. supra. ↩︎

  22. C. Civ, art. 1245-10, 4°. ↩︎

  23. CJCE, 29 mai 1997, aff. 300/95. Comme l’indique S. Dormont (v. supra) : « *Pour la Cour de justice, l’état des connaissances à prendre en compte n’est pas “l’état des connaissances dont le producteur en cause est ou peut être concrètement ou subjectivement informé, mais l’état objectif des connaissances scientifiques ou techniques dont le producteur est présumé informé” (arrêt, pt 27). La juridiction renvoie donc à un état des connaissances mondiales et “au niveau le plus avancé tel qu’il existait au moment de la mise en circulation du produit en cause”(arrêt, pt 26) *» ↩︎

  24. A. Bensoussan, Plaidoyer pour un droit des robots : de la « personne morale » à la « personne robot », LJA 2013, n° 1134. ↩︎

  25. A. Bensamoun, G. Loiseau, *L’intégration de l’intelligence artificielle dans l’ordre juridique en droit commun : questions de temps, *D. IP/IT 2017, p. 239. ↩︎

  26. Résolution 2015/2103(INL) du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique. ↩︎

  27. Idem, § 59, f. ↩︎

  28. A. S. Choné-Grimaldi, P. Glaser, *Responsabilité civile du fait du robot doué d’intelligence artificielle : faut-il créer une personnalité robotique ?, * Comm. com. élect. 2018, n° 1, focus 1, p. 2. et G. Loiseau, M. Bourgeois, Du robot en droit à un droit des robots, JCP G 2014, 1231, p. 2164. ↩︎

  29. Lamy Droit de la responsabilité, n°350-60. ↩︎

  30. G. Loiseau, M. Bourgeois, idem. ↩︎

  31. Id. ↩︎

  32. Comité économique et social européen (CESE), Avis d’initiative INT/806 sur l’intelligence artificielle – Les retombées de l’intelligence artificielle pour le marché unique (numérique), la production, la consommation, l’emploi et la société, 31 mai 2017, p. 11. ↩︎

  33. Idem. ↩︎

  34. A. S. Choné-Grimaldi, v. note supra. ↩︎

  35. Résolution 2015/2103(INL) du Parlement européen, v. note supra, pt. 56. ↩︎

  36. A. Bensamoun, G. Loiseau, v. supra. ↩︎

  37. Résolution 2015/2103(INL) du Parlement européen, *v. note supra, *pt. 51. ↩︎

  38. A. Bensamoun, G. Loiseau, v. supra ↩︎

  39. Idem. ↩︎

  40. N. Bostrom, v. supra. ↩︎