WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Régulation des marchés financiers face à la cryptomonnaie en droit positif congolais avec un regard du droit européen


par Aristide NGONGA
Université de Kinshasa - Licence en Droit 2020
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

§3. Régulation

La conception même des cryptomonnaie repond à un certain ordre des normes qui la gouverne voir une influence normative qui la contrôle comprendre sa regulation technique debloquerai son contrôle juridique ; le combat demeure facile lorsqu'on connait son adversaire. A la lumière des lignes précédentes, il en ressort que la conception même des cryptomonnaies et sa commande par des algorithmes renvoient tout d'un coup à la régulation technique née de l'émergence de l'internet.

De prime à bord, le developpement des nouvelles technologies de l'information et du numérique et l'établissement d'un réseau global de communication tel que l'Internet ont permis la création d'un nouvel espace d'interaction - l'espace numérique, ou le cyberespace parfois considéré comme un espace autonome qui opère selon ses propres règles106(*). Cet espace se caractérise par un système normatif propre, un ensemble de normes sociales et de règles techniques qui peuvent être facilement modulées par les opérateurs du réseau afin de réguler les comportement des internautes, d'où le mantra « Code is law ».107(*) Ainsi, au-delà de l'informatisation du droit, on assiste aujourd'hui à l'émergence d'un nouvel usage de la technique, qui se présente comme une nouvelle source de normativité dans la mesure où elle impose son propre système de règles (techniques) qui font effet de loi : l'utilisation de nos ordinateurs, de nos smartphones, de nos tablettes et de nos lecteurs MP3, ou encore des plateformes en ligne telles que Google, Facebook, iTunes ou Deezer ne dépend pas des règles issues du système de droit traditionnel, mais plutôt des caractéristiques techniques ou informatiques de ces dispositifs108(*). On remarque alors le passage d'un modèle d'informatique juridique, qui utilise la technique pour organiser ou interpréter les règles de droit, à un système de régulation technique où la technique est utilisée pour assister, renforcer ou suppléer les règles de droit, en incorporant des normes (contractuelles, juridique ou autre) au sein de ces nouveaux objets techniques qui régissent nos comportements par l'intermédiaire de normes techniques109(*)

Le recours à la technique comme nouvelle modalité de régulation est motivé par deux raisons principales. D'une part, la régulation étatique, fondée sur le concept de territorialité nationale, ne s'applique pas facilement sur un réseau de caractère transnational tel que l'Internet, où le concept même de juridiction est remis en question. D'autre part, les normes juridiques - rigides et statiques - ne se prêtent pas facilement à réguler un environnement dynamique et en mutation constante tel que l'environnement numérique110(*). La lenteur du procédé législatif et l'inaptitude des règles juridiques à s'adapter au paysage numérique111(*) sont telles que de nombreux acteurs se servent aujourd'hui de dispositifs technologiques pour réguler les comportements des internautes et, plus généralement, des individus (voir, à cet égard, l'utilisation des systèmes de Digital Rights Management pour la protection des oeuvres de l'esprit par l'intermédiaire de la technique).

En ce sens, la régulation technique pourrait être considérée (tout comme l'informatique juridique) comme un outil au service du droit. Bien qu'elles existent à l'extérieur du domaine de la technique, certaines normes juridiques ou contractuelles qui peuvent être incorporées, après avoir été transposées sous forme de contraintes ou de normes techniques, au sein de certains dispositifs technologiques qui vont les appliquer de façon automatique. La technique se présente ainsi comme un outil visant à garantir ou à faciliter l'application des règles de droit, grâce à une couche de protection additionnelle qui se révèle être souvent plus efficace que la plupart des solutions d'ordre juridique. Or, la régulation technique se distingue de la régulation juridique dans la mesure où les systèmes informatiques ont la capacité de prévenir certaines actions avant même qu'elles ne surviennent112(*). Alors que les règles juridiques ne s'appliquent qu'a posteriori (après le fait accompli), l'incorporation de normes techniques au sein d'un dispositif technologique permet une application des règles a priori (avant même que le fait ne se soit produit). La norme juridique passe alors en second plan113(*) : si on a le choix de ne pas respecter nos obligations contractuelles (sous peine d'assumer les sanctions prévues par le contrat), on se retrouve dans l'impossibilité d'enfreindre ces obligations telles qu'elles ont été transposées dans un objet technique (à moins d'avoir les outils et les connaissances nécessaires pour les contourner), et ce, même lorsque cela s'avérerait être dans notre intérêt114(*).

En sus, toute tentative d'incorporer des normes juridiques au sein d'un objet technique est inévitablement vouée à l'échec : la transposition du langage juridique en un langage informatique, formel et structuré, ne se prête pas facilement à encadrer l'ambiguïté des règles de droit écrites en un langage naturel caractérisé par une forte polysémie et une flexibilité qui ne se retrouve pas dans les langages formels.115(*) Ainsi, les règles de droit ne peuvent être transposées dans des systèmes informatiques à moins d'en modifier le sens ou du moins de le figer116(*). Compte tenu des objectifs parfois contradictoires de ces règles, censées être interprétées par un juge afin d'être mises en oeuvre au cas par cas, la formalisation du droit en un langage informatique va inévitablement en limiter le processus d'interprétation. 118(*) D'autant plus que, compte tenu des limitations inhérentes au langage informatique qui manque de flexibilité et d'extensibilité, la technique a du mal à réguler des situations nouvelles qui n'ont pas été bien appréhendées par la loi.

La régulation technique se présente donc à la fois comme un support et comme une menace pour la régulation juridique, dans la mesure où elle introduit des contraintes techniques qui vont déterminer ce qu'on peut faire ou ne pas faire dans une situation donnée, indépendamment de ce qu'en dirait la loi telle qu'interprétée par un juge. Or, bien que dans le monde numérique elles soient souvent plus efficaces que les règles juridiques, ces règles ne reflètent pas toujours le système juridique dans lequel elles opèrent (voir le cas de Sony et iTune) imposant des restrictions supplémentaires sur l'exploitation des oeuvres de l'esprit qui allaient bien au-delà des contraintes imposées par le droit d'auteur). Elles risquent ainsi d'aller à l'encontre de certains principes établis par la législation des États, dans la mesure où elles ne sont sujettes à aucun contrôle constitutionnel ou démocratique.

L'impact des nouvelles technologies s'étend bien au-delà du domaine du droit. On parle désormais d'humanités numériques (digital humanities) : l'application des technologies de l'information aux services de sciences humaines et sociales, avec la création de banques de données qui recueillent des corpus immenses de données (big data) et qui peuvent être consultées en temps réel. Les solutions de data mining se multiplient119(*) : on peut désormais explorer, sélectionner, agréger, isoler, filtrer et raffiner ces données à partir de critères spécifiques, dans le but d'identifier des corrélations, de construire des modèles et d'en extraire de nouvelles connaissances120(*). Les données se mettent alors au service de la technique. Elles nourrissent les objets techniques avec des informations leur permettant d'interpréter le monde qui les entoure, avec un impact considérable aussi bien sur l'informatique juridique que sur la régulation technique.

Avec la montée en force du big data, les algorithmes prédictifs ou d'inférence statistique sont devenus une technologie incontournable.

Ils se camouflent dans la plupart des logiciels ou des plateformes en ligne : on les retrouve dans le système de recommandations sur Amazon, nous proposant des livres ou des objets susceptibles de nous intéresser, dans les moteurs de recherche tels que Google, ou dans les mécanismes de sélections des «nouveautés» utilisés par Facebook ou Twitter. Tous ces algorithmes analysent des données dans le but de trier, de classer et de hiérarchiser des idées, des objets ou des personnes, afin de décider quels sont les contenus les plus intéressants, les plus adaptés, ou simplement les plus rentables pour certaines catégories d'utilisateurs. Au-delà des systèmes de recommandation, les algorithmes servent aussi à assister les fonctions des administrations publiques (p. ex. par le biais d'analyses statistiques pour la lutte contre les fraudes fiscales), ou pour optimiser la gestion des ressources au sein des villes (smart cities), p. ex. pour réduire le trafic, organiser les trajectoires des transports publics ou le déploiement des patrouilles de police. 121(*)

Enfin, les résultats issus de l'analyse et du traitement des grandes masses de données servent aussi à alimenter les différents systèmes de règles qui sous-tendent la régulation technique. En ce sens, les données ont un impact toujours plus conséquent sur nos activités quotidiennes dans la mesure où elles peuvent guider (ou dicter) les opérations de la technique. Ainsi, s'il est vrai que la technique est devenue une des principales sources de normativité, ce sont les données qui vont nourrir la technique avec les informations relatives aux individus qu'elle est censée réguler122(*). On passe alors d'un modèle de régulation par la technique (`Code is Law') vers un nouveau paradigme de régulation algorithmique où les actions de la technique sont, de fait, déterminées par les données (`Data is Law').

Il s'agit là d'une nouvelle modalité de régulation que l'on nommera « gouvernance algorithmique »123(*)du fait que nos comportements sont de plus en plus guidés ou influencés par des algorithmes, aussi bien online que offline124(*). Car l'impact des technologies numériques ne se limite pas au monde numérique. Bien que l'Internet demeure l'espace le plus concerné par la régulation technique, avec l'Internet des objets (Internet of things), les technologies numériques s'imprègnent toujours plus dans notre quotidien. Alors que nous interagissons tous les jours avec des machines ou des dispositifs soi-disant intelligents, dont les fonctionnalités sont dictées par des règles techniques, l'espace numérique se présente désormais comme le prolongement naturel et incontournable de notre société. C'est cette progression vers un système intégrant l'informatique juridique, la régulation technique et la gouvernance algorithmique qui risque de remettre en question les fonctions régulatrices de l'État et l'efficacité du système juridique dans son ensemble. Sans tomber dans le travers du déterminisme technologique125(*), il est utile d'analyser comment cette nouvelle forme de régulation implique une « objectivité technique» qui comporte une incapacité à la fois psychique et physique à transgresser126(*). Pour comprendre les raisons de cette incapacité, il convient de distinguer entre la gouvernance algorithmique comme « outil de support à la décision » qui peut influencer certains individus par le biais de recommandations, et la gouvernance algorithmique comme « mécanisme de préemption » qui agit directement sur leurs comportements.

Face aux enjeux soulevés par la régulation technique et la gouvernance algorithmique, on ressent désormais une nécessité croissante d'élaborer un droit de l'informatique qui réponde effectivement au besoin de protéger les individus contre ces nouvelles modalités de régulation qui risquent de porter atteinte à leurs droits et à leur libertés fondamentales127(*).

L'État est ainsi appelé à réguler aussi bien les producteurs que les opérateurs des objets techniques, pour redéfinir les limites de ce qu'ils peuvent ou ne peuvent pas faire (dans le sens juridique) afin de s'assurer qu'ils soient conformes à la loi. Le droit assumerait alors un rôle non plus de « régulateur » mais plutôt de « modérateur » visant à protéger les citoyens contre les invasions de la technique.

De même qu'il est nécessaire d'apprécier la constitutionnalité et la légitimité des normes juridiques et contractuelles, il est important de s'assurer que les algorithmes qui sous-tendent la technique n'agissent pas au mépris de la loi. Mais s'il est facile d'observer le fonctionnement des normes, la nature juridique ou contractuelle, il est souvent difficile d'identifier, d'analyser, voir même de mesurer l'efficacité des normes techniques et des algorithmes qui en régissent le fonctionnement.128(*)

Bien qu'il soit parfois possible de vérifier (par le biais d'une rétro-ingénierie informatique) si les algorithmes sont « loyaux », les algorithmes modernes incorporent des règles d'une telle complexité qu'ils défient toute tentative d'en retracer le raisonnement

Malgré les difficultés que cela implique, il est aujourd'hui plus que jamais, nécessaire de réfléchir à la manière dont le droit peut influencer les usages et les évolutions de la technique, afin d'en éviter les d'abus. La question de l'encadrement juridique des algorithmes a été récemment soulevée en France par le Conseil d'État francais dans son rapport sur « Le numérique et les droits fondamentaux », s'interrogeant sur comment le droit peut réguler le fonctionnement des algorithmes, aussi bien a priori qu'a posteriori. 129(*)

Une solution à envisager serait la mise en place de garanties, de procédures et de critères de transparence par rapport aux règles statistiques déployées par les opérateurs du réseau. Étant donné le rôle que jouent ces algorithmes dans notre société, réclamer plus de transparence à propos de leur fonctionnement est nécessaire pour que les individus soient au courant des critères selon lesquels ils vont être profilés, tout en ayant la possibilité de questionner la validité et l'efficacité de ces critères.

Or, les opérateurs sont généralement réticents à dévoiler l'ensemble des règles qui régissent leurs systèmes. Une alternative serait pour l'État de s'emparer des outils de régulation technique avec l'imposition de normes ou de standards obligeant les producteurs d'objets techniques à incorporer des normes techno-juridiques au sein de l'architecture même de leurs dispositifs (ex. privacy-by-design).

Enfin, certains auteurs proposent de se concentrer sur la régulation (a posteriori) des comportements qui découlent de l'analyse statistique des grandes masses de données130(*). D'après ces auteurs, il est souvent difficile de réglementer a priori les opérations de data mining (dont les motivations et les implications ne peuvent être connues à l'avance), il demeure cependant possible de règlementer et, le cas échéant de punir les utilisations qui en sont faites131(*). Même lorsque les règles qui sous-tendent les algorithmes ne sont pas publiquement divulguées, l'accès aux bases de connaissances utilisées par les logiciels de data mining permettrait de mettre en place des mécanismes de contrôle sur les résultats, qui pourraient être examinés afin de détecter des discriminations ou des anomalies potentielles132(*). Cela permettrait d'assurer le respect de la loi applicable et de contrôler qu'il y ait bien un alignement entre ce que disent faire ces algorithmes et ce qu'ils font réellement (Grimmelmann 2007, 2014)133(*)

* 106 https://www.eff.org/fr/cyberspace-independence, John Perry BARLOW, « Declaration of Independence for Cyberspace », 8 février 1996. Consulté le 28/03/2022 à 10h21

* 107 Thierry BONNEAU, Crédit industriel et commercial, SAS Macaraja, n°12/00161, septembre 2013, Paris, p.9

* 108 Niva ELKIN-KOREN, « Copyrights in Cyberspace-Rights Without Laws », (1997) 73 Chi.-Kent L. Rev. 1155; Niva ELKIN-KOREN, « The Privatization of Information Policy », (2000) 2 Ethics and Information Technology. P.201

* 109 La notion de « norme technique » fait mention ici non pas à un référentiel publié par un organisme de normalisation (tels que les normes ISO, par exemple) mais à une caractéristique technique qui va déterminer ce que les individus peuvent ou ne peuvent pas faire avec un objet technique donné. Il s'agit, par exemple, des dispositifs de protection anti-copie qui se trouvent sur de nombreux CD ou DVD, des codes régionaux limitant la région du monde dans laquelle les DVD peuvent être joués, ou des contraintes sur les activités qui peuvent être effectuées sur une plateforme en ligne selon le profil ou les références des utilisateurs.

* 110 Justin HUGHES, « Internet and the Persistence of Law », (2002) 44 B. C. L. Rev.359. p.15

* 111 Gary E. MARCHANT, « The Growing Gap Between Emerging Technologies and the Law », dans Gary E. MARCHANT, Braden R. ALLENBY et Joseph R. HERKERT (dir.), The Growing Gap Between Emerging Technologies and Legal-Ethical Oversight, New York, Springer, 2011, p. 19. Voir notamment la loi HADOPI qui, plutôt que d'aller à l'encontre des nouvelles opportunités offertes par les technologies numériques, a introduit au sein du code de la propriété intellectuelle des restrictions qui ne font qu'illustrer les contradictions, difficiles à lever, entre le droit d'auteur et les nouveaux usages du numériques (Primavera DE FILIPPI et Danièle BOURCIER, « Three-Strikes » Response to Copyright Infringement : The case of HADOPI, dans Derrick L. COGBURN (dir.), The Turn to Infrastructure in Internet Governance, New York, Palgrave Macmillan, 2015, p. 125).

* 112 Idem, p.56

* 113 http://www.coinbit.com N. ELKIN-KOREN, « The Privatization of Information Policy », préc., note 29; Julie E. COHEN, « Copyright and the Jurisprudence of Self-Help », (1998) 13 Berkeley Tech. L.J. 1089.

* 114 35 Joel R. REIDENBERG, « States and Internet Enforcement », (2004) 1 U. Ottawa L. & Tech. J. 213; Philip J. WEISER, « Future of Internet Regulation », (2009) 43 U.C. Davis L. Rev. 529.

* 115 Henry PRAKKEN, « A Logical Framework for Modelling Legal Argument », International Conference on Artificial Intelligence and Law, présentée à Amsterdam, Juin 1993, Proceedings of 4th International Conference on Artificial Intelligence and Law, New York, ACM Press, 1993, p. 1.

* 116117 Ugo PAGALLO, « As Law Goes by: Topology, Ontology, Evolution », dans Pompeu CASANOVAS, Ugo PAGALLO, Giovanni SARTOR et Gianmaria AJANI, (dir.), AI Approaches to the Complexity of Legal Systems. Complex Systems, the Semantic Web, Ontologies, Argumentation, and Dialogue, Berlin, Springer, 2010, p. 12.

* 118 Giovanni SARTOR, « Normative Conflicts in Legal Reasoning », (1992) 1 Artificial Intelligence and Law 209.

* 119 Ian H. WITTEN et Eibe FRANK, Data Mining: Practical Machine Learning Tools and Techniques, Burlington, Morgan Kaufmann, 2005.

* 120 Edd DUMBILL, « Making sense of big data », (2013) 1 Big Data 1.

* 121 Mireille HILDEBRANDT, « Profiling: From Data to Knowledge », (2006) 30 Datenschutz und Datensicherheit

* 122 Voir, par exemple, les algorithmes de Facebook qui vont chercher des contenus contraires aux conditions d'utilisation afin d'en censurer la publication sans préavis, portant ainsi atteinte au droit au procès équitable.

* 123 Antoinette ROUVROY et Thomas BERNS, « Gouvernementalité algorithmique et perspectives d'émancipation. Le disparate comme condition d'individuation par la relation ? », (2013) 1 Réseaux 163.

* 124 Guy LEBEER et Jacques MORIAU, « Gouvernementalité et résistance », dans Guy LEBEER et Jacques MORIAU (dir.), (Se) gouverner. Entre souci de soi et action publique, Bruxelles, Peter Lang, 2010, p. 185

* 125 Thomas P. HUGHES, « Technological Momentum », dans Meritt Roe SMITH et Leo MARX (dir.), Does Technology Drive History? The Dilemma of Technological De terminism, Cambridge, MIT Press, 1994, p. 101; Sally WYATT, « Technological Determinism Is Dead; Long Live Technological Determinism », dans Edward J. HACKETT (dir.), The Handbook of Science & Technology Studies, Cambridge, MIT Press, 2008, p. 165.

* 126 Mireille HILDEBRANDT, « Who Is Profiling Who? Invisible Visibility », dans Serge GUTWIRTH, Yves POULLET, Paul DE HERT, Cécile DE TERWANGNE et Sjaak NOUWT (dir.), Reinventing Data Protection? New York, Springer, 2009, p. 239.

* 127 Pierre CATALA, « Le nécessaire accompagnement juridique de la nouvelle économie », dans Sélim ABOU et Pierre CATALA (dir.), La francophonie aux défi s de l'économie et du droit aujourd'hui, Beyrouth, Presses de l'Université Saint-Joseph, 2002, p. 63 ; Solon BAROCAS, Sophie HOOD et Malte ZIEWITZ, « Governing Algorithms : A Provocation Piece », 29 mars 2013,

* 128 http://ssrn.com/abstract=2245322. Consulté le 28/03/2022

* 129 James GRIMMELMANN, « Speech Engines », (2014) 98 Minn. L. Rev. 868.

* 130 Tal Z. ZARSKY, « Desperately Seeking Solutions: Using Implementation-Based Solutions for the Troubles of Information Privacy in the Age of Data Mining and the Internet Society », (2004) 56 Me. L. Rev. 13; Eric GOLDMAN, « Data Mining and Attention Consumption », dans Katherine J. STRANDBURG et Daniela Stan RAICU (dir.), Privacy and Technologies of Identity: A Cross-Disciplinary Conversation, New York, Springer, 2006, p. 225.

* 131 E. GOLDMAN, préc., note 89.

* 132 Mireille HILDEBRANDT, « Profile Transparency by Design: Re-Enabling Double Contingency », dans Mireille HILDEBRANDT et Katja DE VRIES (dir.), Privacy, Due Process and the Computational Turn. The Philosophy of Law Meets the Philosophy of Technology, New York, Routledge, 2013, p. 221.

* 133 James GRIMMELMANN, « Structure of Search Engine Law », (2007) 93 Iowa L.Rev. 1; J. GRIMMELMANN, p.88.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Aux âmes bien nées, la valeur n'attend point le nombre des années"   Corneille