Lawgier.net

The technical side of a french guy.

Intelligence artificielle : justice prédictive et réforme de la justice

Cet article se place dans une série de projets rédigés dans le cadre de mon Master 2 en Droit des activités numériques à Paris Descartes. Une version pdf de celui-ci est disponible en téléchargement.


La sécurité juridique est un principe directeur de l’État de droit. Comme le faisait remarquer le Professeur Boulouis, « la formule sonne en effet comme une sorte de redondance, tant il paraît évident qu'un droit qui n'assurerait pas la sécurité des relations qu'il régit cesserait d'en être un. »[1] Outre l’inflation législative, ce principe de sécurité juridique se heure parfois à la réalité des tribunaux et à la difficile évaluation de ses chances de succès en cas de litige. C’est ce à quoi la justice prédictive tente d’apporter une réponse.
Le Professeur Dondero définit la justice prédictive comme « des instruments d’analyse de la jurisprudence et des écritures des parties, […] qui permettraient de prédire les décisions à venir dans les litiges similaires à ceux analysés »[2]. Elle se compose de deux éléments essentiels : une intelligence artificielle (IA), qui effectue des diagnostics de manière automatisée, à partir d’une base de données, qui compile un très grand nombre de décisions de justice.
Cette idée d’une analyse statistique des décisions de justice afin d’en tirer des probabilités n’est pas nouvelle. En effet, elle fait suite aux travaux de Simon-Denis Poisson, de Condorcet et de Laplace[3].
Aujourd’hui, il existe plusieurs sociétés qui utilisent ces outils de justice prédictive. Par exemple, aux États-Unis, la société Legalist propose de financer des actions en justice qu’elle sélectionne grâce à un algorithme qui évalue les chances de succès et la durée probable de la procédure, en échange de la moitié des sommes attribuées par le juge[4].
Si cette question est redevenue actuelle, c’est en grande partie grâce à la conjonction de deux éléments : à la fois, l’ouverture des données jurisprudentielles, en principe accessible librement depuis la loi Lemaire de 2016[5], qui s’intègre au phénomène de big data ; et le développement de l’IA, en particulier celui de la technique de machine learning[6]. Cette conjonction a permis l’apparition de nouveaux acteurs : les legaltechs[7], qui enrichissent à leur tour les données jurisprudentielles et le développement de ces IA.
L’intérêt de la justice prédictive serait de permettre aux justiciables de prévoir efficacement les conséquences d’un potentiel litige afin de se prémunir contre une potentielle action infructueuse ou pouvoir réaliser de meilleurs arbitrages économiques.

1. Les potentiels bénéfices de la justice prédictive

A. Permettre une meilleure accessibilité du droit

La justice prédictive répond tout d’abord[8] à un problème de lisibilité et d’accessibilité du droit qui, souvent victime d’une inflation législative proposant de nouvelles normes peu lisibles, renforce de facto le pouvoir et la nécessité du juge d’interpréter la règle. Or, ces règles de second rang sont beaucoup moins accessibles que les règles dites de premier rang[9].
En analysant automatiquement de grandes quantités de données, les outils de justice prédictive ont pour but de participer à remédier à ce problème de lisibilité. Leur analyse permettrait à la fois de formaliser les règles d’application de la norme, mais aussi de prévoir le traitement réservé par les juges à des cas particuliers[10]. Pour A. Garapon, contrairement à la statistique, qui approchait le problème « de manière trop générale », et aux juristes, qui ne pouvaient attendre ce résultat que par « un savoir intuitif », le big data permettrait de conférer une « consistance mathématique » à la prévision d’une décision de justice[11].
De même, le recours à des algorithmes, cantonnés au traitement des dossiers répétitifs, pourrait encourager le règlement de nombreux litiges en développant des modes alternatifs de règlement, afin de décharger les juges des tâches les plus chronophages[12]. Cela pourrait permettre d’améliorer les temps et les conditions d’accès à la Justice, cruellement en manque d’efficacité en France.

B. Permettre une prise de décision efficace

L’un des principaux attraits de la justice prédictive, c’est d’optimiser le travail des juristes, clients, avocats et juges en anticipant certains résultats, afin « d’obtenir la meilleure rentabilité avec le minimum de moyens »[13].
Grâce à ces outils, le justiciable pourrait évaluer de manière efficace les risques auxquels telle décision l’expose, mais aussi les chances de succès d’une procédure juridictionnelle et les moyens les plus pertinents à soulever lors de l’action[14].
L’utilisation et le développement des outils de justice prédictive n’est cependant pas sans conséquence.

2. Les conséquences potentiellement néfastes de la justice prédictive

La soustraction progressive de l’humain dans la prise de décision, commune aux secteurs concernés par les avancées de l’IA, soulève de nombreuses questions et n’est pas sans conséquence. Néanmoins, il faut nuancer le développement potentiel de l’IA, qui est parsemé d’embuches.

A. Les problématiques techniques liées au développement de la justice prédictive

Si Antoine Garapon écrit que « le numérique permet de chiffrer la réalité, c’est-à-dire de la coder de telle manière que des réalités hétérogènes peuvent être lues et décryptées ensemble »[15], concernant la justice prédictive, cette analyse est à la fois prospective et quelque peu problématique.
En effet, afin d’interpréter la loi (absconse) et les chances de réussite, les legaltechs se proposent de se reposer sur les décisions de justice qu’elles auront collectées, ce qui, contrairement au droit anglais, donne un rôle normatif à la jurisprudence, qui n’est normalement « qu’une application à des cas individuels de la règle de droit »[16] et non pas la règle de droit[17].

De plus, la modélisation a priori du raisonnement juridique, nécessaire pour pouvoir aboutir à une prévision la plus juste possible par la machine, risque de se heurter au manque de rationalité de certaines normes juridiques, à l’absence d’imbrication de certaines sources et à la très forte évolutivité des règles, rendant la tâche extrêmement ardue[18].
Cette modélisation s’avère encore plus complexe en ce qui concerne le raisonnement des juges[19]. Comme l’indique X. Linant de Bellefonds, « la complexité du droit tient à son caractère téléologique et contentieux : deux raisonnements cohérents peuvent conduire à des arbitrages différents en fonction de deux ordres d’impératifs »[20]. Cette absence de cohérence d’ensemble des décisions de justice[21] révèle donc un problème capital : comment déduire de ce jeu de données un résultat probable avec une marge d’erreur acceptable ?

Enfin se pose la question de l’analyse de la conformité en droit de telle ou telle solution. En effet, l’IA, en sa conception actuelle, ne procède « qu’à des calculs de probabilité et ne [peut] pas discriminer entre les raisonnements juridiques valides et ceux qui ne le sont pas »[22].

B. Les risques d’une prise de décision fondée sur une prédiction

Le risque principal de la justice prédictive est que la prévision donnée par l’outil influe sur la décision du juge[23]. Cette influence, outre les problèmes qu’elle peut causer si la prévision faite ou les chiffres donnés sont faux ou biaisés, peut mener à une uniformisation de la pensée judiciaire.
Le résultat de l’analyse de la machine viendrait alors corrompre le jeu de données utilisé par celle-ci lorsque la décision prise sous son influence est ajoutée. Le biais initial de l’algorithme s’en trouverait alors renforcé, et renforcerait une sorte de cycle s’autoalimentant.

L’autre danger viendrait de l’incertitude de son fonctionnement[24]. L’utilisation d’un tel outil, s’il tend à se développer, ne serait pas sans conséquences juridiques, puisque, à la suite d’une interrogation, une entreprise par exemple pourrait lancer une action en justice promise au succès par l’algorithme, mais couronnée d’échec et avec des conséquences financières graves.
Il est donc important de pouvoir savoir comment et pourquoi l’outil arrive à de telles conclusions afin de pouvoir véritablement apprécier le risque.

Conclusion

« There is no way that the law can avoid the scrutiny of science. If the lawyers and judges do not participate in this work, it will all be done by others »[25]. Les propos de Lawlor, tenus en 1963 à propos des avancées scientifiques, correspondent parfaitement à la Révolution numérique et à ses conséquences sur l’ensemble de la société.
L’ensemble des mutations induites, notamment par la démocratisation de l’Internet, ont eu du mal à être appréhendées par beaucoup de juristes ; ce qui a laissé le champ libre à des hommes d’affaires, des mathématiciens et de férus d’informatique ; dotés d’une logique souvent très éloignée de celle du droit[26].
En se dessaisissant de ses problématiques, les professionnels du droit ont laissé apparaître des externalités négatives contre lesquelles ils ont peu d’outils pour les combattre. Le risque est de se retrouver confronté à une situation où la place du juge, face à l’efficacité de surface de la machine, voit son rôle remis en question.
En l’état actuel des choses, il ne semble pas souhaitable de prévoir une réforme de la justice en profondeur. Néanmoins, le bilan n’est cependant pas entièrement négatif et la justice prédictive dispose de certains atouts qu’il sera intéressant de développer, sous certaines conditions.


  1. J. Boulouis, Quelques observations à propos de la sécurité juridique, Du droit international au droit de l'intégration : Liber amicorum, Pierre Pescatore, Nomos Verlag, 1987, p. 53. In J.G Huglo, La Cour de cassation et le principe de la sécurité juridique, [en ligne], Cahiers du Conseil constitutionnel n°11, déc. 2001. Disponible sur : https://www.conseil-constitutionnel.fr/nouveaux-cahiers-du-conseil-constitutionnel/la-cour-de-cassation-et-le-principe-de-la-securite-juridique . ↩︎

  2. B. Dondero, Justice prédictive : la fin de l’aléa judiciaire ?, D. 2017, p. 532. ↩︎

  3. Voir E. Barbin & Y. Marec, Les recherches sur la probabilité des jugements de Simon-Denis Poisson, *in *Histoire et Mesure, 1987, vol. 2, n°2, p. 39. *In *B. Dondero, *art. prec., *D. 2017, p. 533. ↩︎

  4. J. Marin, Legalist, la start-up qui finance les plaints des entreprises, [en ligne], Le Monde, 29 août 2016. Disponible sur : https://www.lemonde.fr/economie/article/2016/08/29/legalist-la-start-up-qui-finance-les-plaintes-des-petites-entreprises_4989263_3234.html . ↩︎

  5. Loi n°2016-1321 du 7 octobre 2016 pour une République numérique (dite également « Loi Lemaire »). ↩︎

  6. Le machine learning, ou « apprentissage automatique » permet à un ordinateur d’apprendre de lui-même, en mettant à sa disposition un algorithme et une grande base de données étiquetées, lui permettant de reconnaître des données et de prendre des décisions en conséquence. ↩︎

  7. Le terme de « Legaltech » vise les jeunes entreprises de type « Start-up » qui exercent dans le domaine du droit. ↩︎

  8. Elle s’y heurte également, *V. infra *Section 2. ↩︎

  9. A. Garapon, art. préc., §8. ↩︎

  10. Eod Loc, §9. ↩︎

  11. Ibid. ↩︎

  12. J. M. Sauvé & S. Houiller, La justice prédictive, [en ligne], Colloque organisé à l’occasion du bicentenaire de l’Ordre des avocats au Conseil d’État et à la Cour de cassation, Cour de cassation, 12 février 2018, p. 2. Disponible sur : http://www.conseil-etat.fr/Actualites/Discours-Interventions/La-justice-predictive . ↩︎

  13. A. Garapon, art. préc., §7. ↩︎

  14. J. M. Sauvé & S. Houiller, art. préc., p. 2. ↩︎

  15. A. Garapon, art. préc., §14. ↩︎

  16. B. Dondero, *art. préc., *p. 535-536. ↩︎

  17. *Eod Loc., *p. 536. ↩︎

  18. Y. Meneceur, Quel avenir pour la « justice prédictive » ? Enjeux et limites des algorithmes d’anticipation des décisions de justice, JCP G 2018, 190, §15. ↩︎

  19. Eod Loc., §16. ↩︎

  20. X. Linant de Bellefonds, L’utilisation des systèmes experts en droit comparé, Revue internationale de droit comparé, 1994, vol. 46, n°2, p. 703-718. *In *Y. Meneceur, art. préc., §16. ↩︎

  21. Y. Meneceur, art. préc., §16. ↩︎

  22. *Eod Loc., *§17. ↩︎

  23. B. Dondero, art. préc., p. 537-538. ↩︎

  24. *Eod Loc., *p. 537. ↩︎

  25. R. C. Lawlor, What computers can do: analysis and prediction of judicial decisions, American Bar Association Journal, 1963, 49, p. 339. *In *B. Dondero, art. préc., p. 533. ↩︎

  26. A. Garapon, art. préc., §1-2. ↩︎

Intelligence artificielle et responsabilité

Cet article se place dans une série de projets rédigés dans le cadre de mon Master 2 en Droit des activités numériques à Paris Descartes. Une version pdf de celui-ci est disponible en téléchargement.


Depuis l’adoption de l’agriculture, la densité et la taille de la population s’est accrue. Cet accroissement a entrainé deux choses : l’augmentation du nombre d’individus, qui conduit à une augmentation du nombre d’idées, et la concentration croissante, qui permet à la fois à ces idées de se transmettre plus facilement et aux personnes de se spécialiser[1]. Ces mutations ont conduit à une accélération du développement humain, entrainant les différentes révolutions industrielles et aujourd’hui notre entrée dans l’ère numérique.
Le développement des capacités de calcul permises par la « loi de Moore »[2] a entrainé l’apparition de nouvelles possibilités de traitement automatisé de tâches et de nouvelles méthodes. L’intelligence artificielle, que le chercheur Yann LeCun[3] définit simplement comme « faire faire aux machines des activités qu’on attribue généralement aux animaux ou aux humains »[4], s’extrait progressivement de la science-fiction pour devenir réalité.
Cette évolution de la machine est permise en particulier grâce au développement de méthodes telles que le machine learning et le deep learning, crée dans les années 1990 et revenue sur le devant de la scène en 2012[5]. Le machine learning, ou « apprentissage automatique » permet à un ordinateur d’apprendre de lui-même, en mettant à sa disposition un algorithme et une grande base de données étiquetées, lui permettant de reconnaître des données et de prendre des décisions en conséquence.

Cette prise de décisions automatisée n’est cependant pas sans conséquences. Au départ plutôt bégnines, l’augmentation des capacités des machines ou robots[6] fait que les décisions prises deviennent de plus en plus importantes et de plus en plus incontrôlées. Un exemples est celui du high frequency trading, où les ordinateurs prennent des décisions de placement financiers dans un laps de temps de quelques microsecondes[7]. Autre exemple, les voitures autonomes, qui approchent leur phase de commercialisation dans certaines villes des États-Unis[8].

Cette prise de décisions automatisée emporte donc certaines interrogations juridiques. Si le robot agit seul, qui est responsable de ses actes ? Les régimes de responsabilité actuels conviennent-t-ils à ce cas de figure ? Quel régime de responsabilité pour l’intelligence artificielle ?
Cette question se pose, d’autant plus que le droit français a des difficultés à appréhender cette question[9]. Dans un arrêt de 2013, la Cour de cassation avait exclu la responsabilité de Google car « *la fonctionnalité aboutissant au rapprochement critiqué est le fruit d’un processus purement automatique dans son fonctionnement et aléatoire dans ses résultats, de sorte que l’affichage qui el résulte est exclusif de toute volonté de l’exploitant du moteur de recherche d’emmètre les propos en cause *»[10].

Pour répondre à cette question, une analyse en deux temps sera réalisée. D’abord, il faudra voir si le droit commun de la responsabilité est apte à envisager les décisions prises par une machine, puis, s’il est nécessaire de créer une personnalité juridique pour les robots.

1. Intelligence artificielle et droit commun de la responsabilité

A. Intelligence artificielle et responsabilité pour faute

Le cadre classique de la responsabilité civile est celui de la responsabilité pour faute, prévu à l’article 1240 du Code civil. Il suppose 3 choses : une faute, un préjudice et un lien de responsabilité.
Il semble néanmoins très difficile d’appliquer ce cadre à l’intelligence artificielle. En effet, il faudra démontrer une faute, qu’elle soit intentionnelle ou non, dans la programmation du robot ou dans son utilisation[11]. Si le robot commet une faute en prenant une décision sans qu’il y ait un comportement litigieux de la part du propriétaire/utilisateur ou du fabriquant, l’article 1240 ne trouvera pas à s’appliquer.

B. Intelligence artificielle et responsabilité du fait des choses et d’autrui

La responsabilité prévue par l’article 1240 étant exclue, il faut envisager celle de l’article 1242 alinéa 1er du Code civil, qui prévoit la responsabilité du fait des choses et d’autrui. Cette responsabilité permet de « faire remonter la responsabilité vers la personne qui dispose d’une autorité sur le responsable de la faute ou du fait dommageable »[12]. Elle emporte la responsabilité du fait des préposés, du fait des enfants ou du fait des animaux[13]. Cette responsabilité du fait d’autrui se justifie néanmoins par « le pouvoir de contrôle du gardien », qui intervient pour « juguler les écarts de comportement » de ce qu’il a sous son contrôle[14].
Cette responsabilité ne semble également pas convenir à l’intelligence artificielle, à la fois parce qu’elle a été conçue pour des objets corporels et s’adapte mal à l’immatérialité de l’intelligence artificielle[15], mais aussi car elle semble aller à l’encontre de la fonction consubstantielle à toute chose autonome : «* servir l’homme en prétendant le soulager d’un contrôle qui […] lui reviendrait sinon *»[16], la relation entre homme et robot allant de plus en plus vers une situation où l’homme se repose sur le contrôle du robot plutôt que l’inverse[17], et où le robot a de plus en plus tendance à s’émanciper de son gardien[18].

C. Intelligence artificielle et responsabilité du fait des produits défectueux

Le régime de responsabilité du fait des produits défectueux, issu d’une directive européenne[19], est un régime « particulièrement favorable à la victime, qui n’a pas besoin de rapporter la preuve d’une faute du producteur »[20]. Pour engager la responsabilité du fabriquant, la victime devra apporter la preuve d’un dommage, de la défectuosité d’un produit, et un lien de causalité entre les deux.
S’il semble que ce régime ne pose pas véritablement de difficultés à s’appliquer à l’intelligence artificielle[21], se pose la question de l’exonération du producteur. Si le fabriquant prouve « que l’état des connaissances scientifiques et techniques, au moment où il a mis le produit en circulation, n’a pas permis de déceler l’existence du défaut »[22], il pourra s’exonérer de sa responsabilité, ce qui empêche l’indemnisation de la victime du comportement du robot. Même si les hypothèses d’exonération sont faibles[23], elles restent applicables au cas de l’intelligence artificielle, dont l’amélioration constante et automatique pourra conduire à des cas où le robot échappera à son fabricant.

Ces régimes de responsabilité ne sont donc pas suffisants si l’on considère que les robots, apprenant sans l’intervention de l’homme, prennent des décisions qui ne pouvaient être anticipées par ses concepteurs, les faisant entrer dans un vide juridique si la décision prise entraine un dommage à un tiers. Il faut donc envisager d’autres solutions.

2. La création d’une personnalité juridique pour les robots

Outre la création d’un nouveau régime de responsabilité pour l’intelligence artificielle, une autre possibilité, proposée par des auteurs[24] et reprise par le Parlement européen, serait de créer, à l’image des sociétés et non pas à celle de l’homme[25], une personnalité juridique propre aux robots.
Dans un Résolution du 16 février 2017 concernant les règles de droit civil sur la robotique[26], le Parlement européen a demandé à la Commission européenne d’examiner la possibilité de créer « à terme, une personnalité juridique spécifique aux robots, pour qu’au moins les robots autonomes les plus sophistiqués puisse être considérés comme des personnes électroniques responsables, tenues de réparer tout dommage causé à un tiers »[27]. De ce fait, le robot deviendrait responsable, ce qui lui permettrait de passer des contrats, notamment des contrats d’assurance[28].

A. Une proposition contestée

Cette proposition est cependant risquée, certains auteurs dénonçant une à la fois un manque d’intérêt et une possible déresponsabilisation des utilisateurs et des fabricants des robots[29]. Manque d’intérêt car la réparation ne serait réellement garantie que par un contrat d’assurance qui peut être souscrit « directement par l’utilisateur/propriétaire du robot sans qu’il soit utile de faire du robot une personne juridique qui devrait s’assurer contre son propre risque »[30].
Déresponsabilisation, car les utilisateurs et fabriquant ne seraient plus incités à concevoir et utiliser des robots non-dangereux si « leur responsabilité personnelle pouvait être écartée au profit de celle des robots »[31] et priverait « d’effet correctifs préventifs découlant du droit de la responsabilité civile »[32] dès lors que « le fabriquant n’assumera plus le risque de responsabilité, celui-ci ayant été transféré au robot »[33].

B. Une proposition intéressante

La création d’une personnalité juridique pour les robots n’est cependant pas totalement dénuée de sens. En effet, elle n’exclue pas totalement la responsabilité des autres acteurs. En effet, « en cas de faute de conception, de mise à jour ou d’utilisation, le fabricant, le concepteur le propriétaire ou encore l’utilisateur du robot pourront toujours voir leur responsabilité engagée pour faute »[34].
De plus, le Parlement européen suggère, pour la chaine de responsabilité, qu’elle soit proportionnée au niveau d’instructions données, permettant de distinguer la période de formation par l’homme de celle où le robot se serait formé lui-même[35].

Conclusion

Même si l’augmentation des capacités de l’intelligence artificielle est rapide et le nombre de taches qu’il est possible de réaliser avec s’accroit, il semble cependant trop tôt, en l’état actuel des choses, de se positionner définitivement[36]. Dans sa résolution, le parlement européen considère d’ailleurs que de nouveaux instruments ne pourront être mis en place qu’à un horizon de dix à quinze ans[37]. La pratique, notamment assurantielle, permettra de se positionner de manière plus ferme sur « le point d’ancrage de la couverture du risque »[38].
Il est peut-être donc intéressant, afin d’anticiper les risques, de privilégier aujourd’hui une autorégulation[39] des robots pour anticiper certains risques, tout en réfléchissant à un cadre juridique pérenne. À moins que l’intelligence artificielle soit une illusion, ou, à l’inverse, surpasse celle de l’homme. Dans ce cas, la question de la supériorité plutôt que de la responsabilité devrait se poser.[40]


  1. N. Bostrom, Superintelligence – Paths, danger, strategies, Oxford University Press, 2016, p. 2. ↩︎

  2. G. E. Moore, Cramming more components onto integrated circuits, [en ligne], Electronics, vol. 38, n° 8, 1965. ↩︎

  3. Yann LeCun est un chercheur en intelligence artificielle, responsable du laboratoire d’apprentissage profond (FAIR) chez Facebook. ↩︎

  4. R. Maggiori, Préface, p. 13-14. In : Collectif, Intelligence artificielle – Enquête sur ces technologies qui changent nos vies, Champs actuels, 2018. ↩︎

  5. Idem, p. 15. ↩︎

  6. S. Dormont, Quel régime de responsabilité pour l’intelligence artificielle ?, Comm. com. élect. 2018, n° 11, étude 19, p. 1. ↩︎

  7. A ce propos, voir M. Lewis, Flash boys – A Wall Street revolt, Norton, 2014, USA ↩︎

  8. K. Korosec, Waymo is testing what it should charge for its robotaxi service, [en ligne], Techcrunch, 26 octobre 2018. ↩︎

  9. L. Archambault, L. Zimmermann, La réparation des dommages causés par l’intelligence artificielle : le droit français doit évoluer, Gaz. Pal. 6 mars 2018, n°315c3, p. 17. ↩︎

  10. Cass, 1ère civ, 19 juin 2013, n° 12-17.591. ↩︎

  11. L. Archambault, L. Zimmermann, v. supra. ↩︎

  12. G. Courtois, Robots intelligents et responsabilité : quels régimes, quelles perspectives ?, D. IP/IT 2016, p. 289 ↩︎

  13. C. Civil, art. 1243. ↩︎

  14. P. Brun, La responsabilité du fait des objets connectés. In : Lamy Droit de la responsabilité, 2018, n°350-60. ↩︎

  15. L. Archambault, L. Zimmermann, v. supra. ↩︎

  16. Lamy Droit de la responsabilité, 2018, n°350-60, v. supra. ↩︎

  17. Idem. ↩︎

  18. S. Dormont, v. supra. ↩︎

  19. Directive 85/374/CEE du Conseil du 25 juillet 1985 relative au rapprochement des dispositions législatives, réglementaires et administratives des États membres en matière de responsabilité du fait des produits défectueux. ↩︎

  20. S. Dormont, v. supra. ↩︎

  21. S. Dormont, v. supra. ↩︎

  22. C. Civ, art. 1245-10, 4°. ↩︎

  23. CJCE, 29 mai 1997, aff. 300/95. Comme l’indique S. Dormont (v. supra) : « *Pour la Cour de justice, l’état des connaissances à prendre en compte n’est pas “l’état des connaissances dont le producteur en cause est ou peut être concrètement ou subjectivement informé, mais l’état objectif des connaissances scientifiques ou techniques dont le producteur est présumé informé” (arrêt, pt 27). La juridiction renvoie donc à un état des connaissances mondiales et “au niveau le plus avancé tel qu’il existait au moment de la mise en circulation du produit en cause”(arrêt, pt 26) *» ↩︎

  24. A. Bensoussan, Plaidoyer pour un droit des robots : de la « personne morale » à la « personne robot », LJA 2013, n° 1134. ↩︎

  25. A. Bensamoun, G. Loiseau, *L’intégration de l’intelligence artificielle dans l’ordre juridique en droit commun : questions de temps, *D. IP/IT 2017, p. 239. ↩︎

  26. Résolution 2015/2103(INL) du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique. ↩︎

  27. Idem, § 59, f. ↩︎

  28. A. S. Choné-Grimaldi, P. Glaser, *Responsabilité civile du fait du robot doué d’intelligence artificielle : faut-il créer une personnalité robotique ?, * Comm. com. élect. 2018, n° 1, focus 1, p. 2. et G. Loiseau, M. Bourgeois, Du robot en droit à un droit des robots, JCP G 2014, 1231, p. 2164. ↩︎

  29. Lamy Droit de la responsabilité, n°350-60. ↩︎

  30. G. Loiseau, M. Bourgeois, idem. ↩︎

  31. Id. ↩︎

  32. Comité économique et social européen (CESE), Avis d’initiative INT/806 sur l’intelligence artificielle – Les retombées de l’intelligence artificielle pour le marché unique (numérique), la production, la consommation, l’emploi et la société, 31 mai 2017, p. 11. ↩︎

  33. Idem. ↩︎

  34. A. S. Choné-Grimaldi, v. note supra. ↩︎

  35. Résolution 2015/2103(INL) du Parlement européen, v. note supra, pt. 56. ↩︎

  36. A. Bensamoun, G. Loiseau, v. supra. ↩︎

  37. Résolution 2015/2103(INL) du Parlement européen, *v. note supra, *pt. 51. ↩︎

  38. A. Bensamoun, G. Loiseau, v. supra ↩︎

  39. Idem. ↩︎

  40. N. Bostrom, v. supra. ↩︎

La Blockchain dans les services financiers

Cet article se place dans une série de projets rédigés dans le cadre de mon Master 2 en Droit des activités numériques à Paris Descartes. Une version pdf de celui-ci est disponible en téléchargement.


La dématérialisation des transactions a entrainé comme conséquence principale l’augmentation de la dépendance des utilisateurs aux établissements financiers. Cependant, plusieurs crises financières et un certain sentiment de méfiance envers le secteur ont conduit à une volonté de s’affranchir de ce contrôle. C’est dans ce contexte que la blockchain a réussi à se développer, principalement grâce à la création du bitcoin en janvier 2009[1].
Comme beaucoup de concepts issus de l’informatique et de l’Internet, c’est la locution anglaise qui est préférée pour désigner ce système, au grand dam de la Commission d’enrichissement de la langue française, qui lui préfère le terme de « chaîne de blocs »[2].
La blockchain peut être définie comme « une base de données décentralisée et sans intermédiaires qui permet d’automatiser une transaction, de l’authentifier et de l’horodater, tout en garantissant son immuabilité et son inviolabilité. Elle peut aussi assurer la confidentialité des données grâce au cryptage (sic) »[3].
Le principal avantage de la blockchain, à la différence d’une base de données « classique », est qu’elle permet de s’assurer que les informations qui sont inscrites n’ont pas été modifiées par quelqu’un a posteriori, grâce à l’utilisation de procédés de chiffrements et à la présence d’une multitude de détenteurs de « blocs » d’informations.
Dans le cas d’une base de données classique, centralisée, il est possible de modifier ou de supprimer les informations enregistrées a posteriori, et donc de falsifier ces données. Il est donc nécessaire de faire confiance à la personne qui détient et gère la base de données, qui sera par essence souvent un tiers à la relation. La blockchain permet de se passer de la nécessité de faire confiance à un tiers.
La blockchain, ou la distributed ledger technology (DLT – technologie des registres distribués) a comme particularité de pouvoir être utilisé pour plusieurs types d’opérations : monnaie électronique, première utilisation à « grande échelle » avec le Bitcoin[4] ; service de paiement ; mais aussi comme système de levée de fond : les ICO, qui font concurrence aux levées de fond menées auprès d’investisseurs institutionnels et traditionnels, et aux introductions en bourses.
Cette technologie fait donc concurrence aux principales activités de la Banque, qui est la colonne vertébrale des économies de marché et un secteur très réglementé. Si, parce que la technologie est relativement récente, elle paraît peu encadrée, le législateur commence néanmoins à se saisir du sujet, notamment avec le projet de loi dit « PACTE »[5].

On peut alors se poser plusieurs questions : La DLT fait-elle peser une véritable menace sur le système bancaire ? Le cadre juridique des services financiers est-il adapté à cette mutation ? En somme, une réponse légale doit-elle être apportée à la blockchain ?
Nous verrons dans un premier temps quels sont les apports technologiques de la Blockchain dans le secteur financier pour pouvoir, dans un second temps, analyser l’encadrement juridique actuel et futur.

1. Les mutations technologiques provoquées par la blockchain

A. Les transactions financières

a. L’absence de tiers de confiance

La blockchain, en raison de sa nature distribuée, permet de s’affranchir de certains intermédiaires autrefois indispensables pour assurer certains échanges. En effet, il n’est plus nécessaire de passer par un établissement financier pour effectuer des transactions financières de manière dématérialisée[6]. Certaines versions de la blockchain permettent aussi de se passer de tiers de confiance tels qu’eBay ou PayPal pour réaliser certaines transactions : c’est le cas des contrats intelligents qui s’auto exécutent lorsque les conditions établies par les cocontractants se réalisent[7].

b. La traçabilité des transactions

La blockchain peut également présenter certains intérêts pour les banques centrales dans le cadre de leurs activités[8] [9]. Elle permet de mieux retracer les transactions en pouvant suivre précisément chaque euro … en circulation, notamment grâce à un registre unique de transactions ; simplifier le processus de règlement et de livraisons de titres financiers, tels que les bons du Trésor ; une réduction des coûts de transmission et d’exploitation ; et améliorer la lutte contre le blanchiment d’argent.

B. Les cryptomonnaies

a. Le bitcoin, premier bien numérique « unique »

Si la blockchain permet de décentraliser le processus de confiance, elle permet également d’apporter aux biens numériques une caractéristique qu’ils n’avaient pas auparavant : le caractère « unique ». En effet, les biens numériques ont pour caractéristique de pouvoir être dupliqués à l’infini sans perte d’information, contrairement aux supports « traditionnels »[10]. C’est cette caractéristique qui a permis l’exposition de la contrefaçon d’œuvres, puisque celles-ci pouvaient être librement partagées sans coût.
Le bitcoin et la blockchain permettent de changer cela et de rendre un bien numérique « unique » et non reproductible, ce qui a un véritable intérêt dans le cadre du secteur de la finance : un titre doit être unique, tout comme la monnaie, afin de pouvoir s’assurer que le phénomène de double dépense ne se produise pas[11].

b. Cryptomonnaies et système monétaire traditionnel

Le Bitcoin, comme les autres cryptomonnaies basées sur une blockchain, représente un tournant dans l’approche « classique » de la monnaie, émise traditionnellement par l’État, qui dispose d’un pouvoir régalien sur la « frappe » de la monnaie.
Même si la monnaie-fiat comme l’Euro n’a pas de valeur intrinsèque[12] et peut donc être émise dans des quantités arbitraires, cet aspect régalien et unique de la monnaie (en France, seul l’Euro a cours légal[13]) est remis en cause par les cryptomonnaies, émises de manière décentralisée et sous de nombreuses variantes.
Ces cryptomonnaies ne sont d’ailleurs pas envisagées par le Code monétaire et financier (CMF), car elles ne rentrent pas dans la définition de monnaie électronique donnée à l’article L. 315-1, puisqu’elles ne sont pas « émises contre la remise de fonds aux fins d'opérations de paiement », mais contre la validation des transactions des utilisateurs de la blockchain de la monnaie en question.

C. Les Initial Coin Offerings (ICO)

L’*Initial Coin Offering *(ICO) peut être défini comme « *une opération de levée de fonds par offre au public, donnant lieu à une émission de jetons numériques (ou ‘tokens’) destinée à financer le développement d’un projet par l’émetteur *»[14].
L’ICO tire son nom d’« IPO », l’Initial Public Offering ou introduction en bourse en anglais, dont elle s’inspire et concurrence de plus en plus aujourd’hui.

Maintenant que les apports techniques de la Blockchain ont pu être développés, il faut se pencher sur la régulation, actuelle et future, de la technologie de chaîne de blocs.

2. La régulation de la blockchain

A. Cadre juridique actuel

Même si la blockchain a entrainé la création de nouvelles pratiques, il n’en reste pas moins que ses produits restent soumis à la règlementation sur les instruments financiers en vigueur[15], les régulateurs des marchés financiers faisant une approche au cas par cas[16].
Concernant les ICO, il est difficile de les intégrer dans le cadre légal actuel[17]. C’est pour cela que l’AMF a, après consultation[18], décidé d’opter pour un régime d’autorisation optionnel des ICO[19].

B. Cadre juridique à venir

a. La loi PACTE de 2018

Ces vides juridiques tendent cependant à être résorbés par le législateur. C’est à l’occasion du projet de loi PACTE[20] qu’a été intégrée une disposition sur les ICO, qui reprend la position de l’AMF en délivrant des visas optionnels[21].
Ce projet reste cependant insuffisant sur de nombreux points. En effet, il n’est pour l’instant pas prévu d’instaurer un régime fiscal et comptable pour ces opérations ; et la délivrance d’un visa ralentirait le lancement de l’ICO, dont la rapidité de mise en œuvre est l’un de ses principaux avantages[22].

b. Discussions en cours

L’Ordonnance du 8 décembre 2017[23] prévoit la possibilité de transmettre des titres financiers par le biais de la DLT[24]. Sont concernés les titres de créance négociables, les parts ou actions d'organismes de placement collectif, et les actions et obligations non cotées[25]. Cette Ordonnance n’a cependant, à ce jour, pas été ratifiée par le Parlement[26].

Conclusion

Si la technologie blockchain peut être considérée comme une véritable valeur ajoutée face aux anciens modes électroniques de conservation et de transmission de titres financiers, il faut néanmoins relativiser certains de ses apports.
Même si les ICO rencontrent un succès fulgurant[27], leur intérêt, dans un cadre juridique protecteur des investisseurs, reste relativement concis. Techniquement parlant, la blockchain du Bitcoin, qui est la plus utilisée aujourd’hui, reste, pour gérer des transactions de la vie courante, inefficiente face aux infrastructures d’ores et déjà en place (en particulier celles de Visa et de MasterCard). Enfin, l’utilisation de cryptomonnaies en tant que véritable remplaçant des devises légales telles que l’euro n’est, aux vues de la relative fluctuation de leur valeur, toujours pas viable.
Cependant, même si la prudence reste de mise, les insuffisances techniques risquent d’être rapidement comblées. Il est donc important que le secteur financier et le législateur restent attentifs afin de se préparer à une mutation qui, comme celle lancée par l’Internet, semble de plus en plus inévitable.


  1. B. Wallace, The rise and fall of bitcoin, [en ligne], Wired.com, 23 novembre 2011. ↩︎

  2. JORF n°0121 du 23 mai 2017, texte n° 20. ↩︎

  3. B. Barraud, Les blockchains et le droit, RLDI 2018/147, n°5206. ↩︎

  4. S. Nakamoto, Bitcoin: A Peer-to-Peer Electronic Cash System, [en ligne], 2008. ↩︎

  5. TA AN, 2017-2018, Projet de loi relatif à la croissance et la transformation des entreprises, n° 1088. ↩︎

  6. « Une version purement électronique de l'argent électronique permettrait aux paiements en ligne d'être envoyés directement d'une partie à l'autre sans passer par une institution financière » : S. Nakamoto, id., p. 1. ↩︎

  7. V. Buterin, Ethereum White Paper, [en ligne], The Ethereum Foundation, 2014. ↩︎

  8. C. R. W. De Meijer, Blockchain and Central banks : a Tour de Table, Part 1, [en ligne], finextra.com, 3 janvier 2017. ↩︎

  9. H. de Vauplane, Blockchain, cryptomonnaies, finance et droit : état des lieux, RLDA 2018/140, n°6526. ↩︎

  10. B. Thompson, The cost of Bitcoin, [en ligne], stratechery.com, 3 mars 2014. ↩︎

  11. S. Nakamoto, id., p. 2. ↩︎

  12. H. de Vauplane, *id., *p. 7. ↩︎

  13. Code monétaire et financier, article L. 111-1. ↩︎

  14. J. Brosset & A. Barbet-Massin, La souscription de cryptoactifs et de jetons d’ICO : les recours des investisseurs, RLDA 2018/140, n°6531 ↩︎

  15. Iris M. Barsan, Initial Coin Offerings : Comment réguler l’émission de cryptojetons ?, Revue Banque n°821bis, p. 61. ↩︎

  16. AMF, Synthèse des réponses à la consultation publique portant sur les Initial Coin Offerings (ICO) et point d’étape sur le programme “UNICORN”, [en ligne], 22 février 2018, p. 5. Disponible sur : https://www.amf-france.org/Publications/Consultations-publiques/Archives?docId=workspace%3A%2F%2FSpacesStore%2Fa9e0ae85-f015-4beb-92d2-ece78819d4da (consulté le 4.11.2018). ↩︎

  17. Iris M. Barsan, id. ↩︎

  18. AMF, Discussion Paper on Initial Coin Offerings (ICOs), [en ligne], 26 oct. 2017. Disponible sur : https://www.amf-france.org/Publications/Consultations-publiques/Archives?docId=workspace%3A%2F%2FSpacesStore%2Fa2b267b3-2d94-4c24-acad-7fe3351dfc8a (consulté le 3.11.2018). ↩︎

  19. AMF, Synthèse des réponses à la consultation publique portant sur les Initial Coin Offerings (ICO) et point d’étape sur le programme “UNICORN”, [en ligne], 22 février 2018, p. 5. ↩︎

  20. TA AN, 2017-2018, id. ↩︎

  21. R. A. Ozcan Les tokens pourraient devenir les titres financiers de demain, RLDA 2018/140, n°6527, p. 17. ↩︎

  22. R. A. Ozcan, id., p. 17. ↩︎

  23. Ordonnance n° 2017-1674 du 8 décembre 2017 relative à l'utilisation d'un dispositif d'enregistrement électronique partagé pour la représentation et la transmission de titres financiers. ↩︎

  24. M. A. de Montlivault-Jacquot, Ordonnance Blockchain sur la transmission de titres financiers, [en ligne], alain-bensoussan.com, 27 décembre 2017. ↩︎

  25. Compte rendu du Conseil des ministres du 30 mai 2018. ↩︎

  26. Projet de loi ratifiant l'ordonnance n° 2017-1674 du 8 décembre 2017 relative à l'utilisation d'un dispositif d'enregistrement électronique partagé pour la représentation et la transmission de titres financiers, n° 997, déposé le 30 mai 2018. ↩︎

  27. Selon le site Coinschedule.com, environ 21,5 milliards de dollars US auraient été investis sur les 10 premiers mois de 2018, contre 6,5 milliards de dollars US en 2017 : Coinschedule, Cryptocurrency ICO Stats, [en ligne], coinschedule.com ↩︎

Is your brain really like a computer?

As I’m reading Nick Bostrom’s Superintelligence, I found this article from Aeon[1] about the brain and the bad analogy it suffers from computers.

In it, Robert Epstein writes that brains are not at all like computers, but their own organic things. For example, they don’t store information like computers: the author asked people to draw from memory 1$ bills and then to draw them with a reference. The results vastly differ, the first draw being very sparse and the second much more elaborate[2], showing that our brain has trouble to store that kind of information, unlike computers who don’t have any problem to do it.

Then, the author moves to a different thing: the idea of downloading your brain to a computer. And this is where the article rang a bell: this is a subject that Bostrom talks about in his book, but focusing mainly on the technical difficulties of doing it: how to scan a brain down to the protein scale, how to get the sufficient processing power to run it, …

But here, the author makes a totally different point: you just can’t do it.

This is because your brain and a computer aren’t the same things at all, not dealing with the same kind of things : you can’t store memories like a computer can, as you don’t deal with situations like a computer does: when you walk, you don’t calculate the size between your steps, the inclination of your legs, your balance, et cetera. You just do it; as a computer has to all of those things[3].

The author then points out to Stephen Rose book[4] : The future of the brain, who shows that to understand the current state of the brain, you have to get its entire history and the social context of its owner, because you can’t just replicate it like a digitized file : by itself the brain is just cells (neurons) interconnected (synapses), and cells can’t just store things.

There is a piece missing in our understanding of our brain — something that we will probably not get until a century[5] — that make things work. But thinking that they work like computers could refrain it.


  1. Thanks to Farnam Street “Brain Food” mailing list. You should subscribe to it. ↩︎

  2. You should check the illustration on the article ↩︎

  3. https://www.youtube.com/watch?v=rVlhMGQgDkY ↩︎

  4. That I didn’t read and don’t know the worth. But it has good ratings on Amazon! ↩︎

  5. I have some doubts about this, but first, I have to finish Bostrom book. ↩︎

Rich Cohen - The Fish That Ate The Whale

You may have casually heard the expression “Banana Republic” in a conversation, understanding vaguely its meaning but not really grasping where does it comes from, or why it does have this connotation.

If you take a dictionary, you would find this definition :

A small nation, especially in Central America, dependent on one crop or the influx of foreign capital.

Well, okay, but why is it used in a pejorative way? And why “Banana”, not something like a “Coffee Republic” or a “Sugar Cane Republic”?

This is because you didn’t get the whole story.

Meet Sam “The Banana Man” Zemmuray.

In his life, Samuel “The Banana Man” Zemmuray witnessed the wake of the first multinationals, the rise and the instability of Central America, the first and second world war, the cold war and the wake of the CIA. But he did not only watch those things happen, he was actively involved in them.

And this is much more impressive when you consider that he began as a peasant, and went single-handedly to the top of the world, being the only person competent in managing the biggest corporation of his time and even a kingmaker in some countries.

Now is the moment you’re wondering why you never heard of Zemmuray before. Don’t worry, you’re not the only one.

I read about him first in Mastery I believe, being presented “The fish that ate the whale”, the guy who started selling a bunch ripe bananas thrown away by United Fruit and ended up owning and controlling this same company, the behemoth who started the trade.

But Zemmuray life isn’t limited to this feat. He made the banana the most consumed fruit in the world, produced and sold at dirt cheap prices, even if it was a luxury item at the start of the trade. He also deeply transformed South America, being at the origin of the gringo's reputation, and going so far as indirectly starting the Cuban revolution. When you see what the CIA did in the cold war in Latin America, you can see his shadow behind, trying to protect his interests, going so far as handling the smuggling of the weapons to Honduras and the Bay of Pigs. If you go further east, you’ll still find his fingerprint in Israël, a country he heavily helped to create.

What you will find in this book is the life of a man who wanted everything and got more, a man who stayed true to his principles, ho was willing to get his hands dirty to achieve the things that he wanted, finding solutions that no one could have thought, circumventing the problems when they couldn’t be directly torn down.

If you didn’t know Sam Zemmuray, now is the time.

Buy this book.

This article is part of a series called The Book Corner, where I post short reviews of books that I found on the internet and thought they were worth sharing. If you’re interested, you can find more on this page.

As a young foreign student, I’m looking to perfect my writing. If you have some time to give me feedback about this article or anything else, please reach out on Twitter or via email. This is greatly appreciated. Thanks!