WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Intelligence artificielle et mise en oeuvre des principes de privacy by design et privacy by default


par Julie Morin Richard
Ulco - Master 2 Droit des affaires 2020
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

Section 2 : L'éthique de l'IA, fruit d'une réflexion pluridisciplinaire de tous les acteurs

Une approche interdisciplinaire est nécessaire pour réfléchir aux enjeux éthiques de l'intelligence artificielle451 (§2). Elle doit réunir les disciplines économiques, juridiques, sociales et techniques, car elles se confondent dans ces questions452 (§1).

§1. Inclure tous les acteurs dans la réflexion éthique de l'IA

Une Europe pionnière d'une intelligence artificielle éthique n'est possible que si chaque maillon de la chaîne de création d'un logiciel d'IA est sensibilisé à ces enjeux, comme le recommande la CNIL453.

Cette sensibilisation débute tout d'abord par le responsable du traitement. L'EDPS a rappelé à plusieurs reprises la nécessité pour les entreprises d'adopter une culture éthique454.

445 Ibid., p. 25

446 Ibid., p. 4

447 Corp, « Guide du big data : 365 jours au coeur de la data économie », 2019-2020, p.43

448 Ibid., p. 43

449 C. Thibout, « La stratégie européenne en intelligence artificielle : un acte manqué ? », Iris France, 19 février 2020

450 CNIL, LINC, « Cahier IP - La forme des choix - Données personnelles, design et frictions désirables », P.23

451 A. Basdevant, « Promoting data culture in Europe with interdisciplinary research institutes », Coup Data, 8 octobre 2019

452 R., Alain, F.Rochelandet, et C/Zolynski. « De la Privacy by Design à la Privacy by Using. Regards croisés droit/économie », Réseaux, vol. 189, no. 1, 2015, pp. 15-46.

453 CNIL, les enjeux éthiques des algorithmes et de l'intelligence artificielle, op. cit., p.54

454 Practical law, «Expert Q&A: European Data Protection Supervisor on Digital Ethics», 2019, p.2

- 76 -

Le régime de lege feranda

C'est pour cela que le RGPD place au coeur de sa règlementation le principe d'acccountability455, qui va de pair avec le privacy by design et le privacy by default. Cette sensibilisation porte déjà ses fruits, mais témoigne aussi de la puissance des grandes entreprises du numérique, à l'heure où Microsoft propose une Convention de Genève digitale456.

Les développeurs doivent également faire partie de la concertation sur l'éthique du numérique. La nécessité de former des programmeurs capables de développer des logiciels d'intelligence artificielle est croissante. Si la pénurie d'experts dans ce domaine était déjà annoncée en 2011 dans un rapport de McKinsey Global Institute et dans le rapport ministériel de T. Rhamani en 2014457, une étude plus récente prévoit une augmentation de la demande de Data scientist et Data analysts de 28 % dans les cinq prochaines années458.

Le rapport Villani insiste sur la nécessité de sensibiliser à l'éthique les ingénieurs et les chercheurs en IA dès leur formation459. Ils auront un rôle « décisif dans la société numérique de demain ». Cet enseignement devrait viser à doter ces programmeurs d'outils conceptuels afin d'agir de manière responsable en cas de confrontation à des questions morales et éthiques. Cette formation est d'autant plus nécessaire que ces futures questions ne pourront pas être tranchées directement par le droit. Par exemple, la responsabilité incombera aux développeurs en matière de systèmes de traçabilités dans leurs algorithmes. En cas d'apprentissage supervisé, L.Godefroy recommande460 aux programmeurs de porter une attention particulière aux données annotées qui constituent le traitement pour l'initialisation de l'algorithme.

L'interface homme-machine étant le « premier objet de médiation entre la loi, les droits et les individus », il est impératif de sensibiliser les architectes informatiques à un « design de la privacy461 » et de les intégrer à la chaîne de gouvernance462.

Il est essentiel que les autorités de régulation s'adaptent à cette évolution technologique. Dans un rapport conjoint, ces autorités, dont la CNIL, appellent à une régulation par la donnée463. Cette nouvelle approche, qui complète les outils traditionnels de régulation, vise à sensibiliser tous les acteurs du marché pour les inciter à un comportement responsable. Cette vision appelle à un changement de culture. Ces Autorités recommandent également la pratique

455 G. Buttarelli , «Artificial Intelligence and the future Digital Single Market «, EDPS, Keynote speech on privacy, 24 avril 2018

456 B. Smith, «The need for a Digital Geneva Convention», Microsoft, 14 février 2017

457 T. Rhamani , « Les développeurs, un atout pour la France », 2014

458 Burning Glass Technologies, BHEF, IBM, «The quant crunch how the demand for data science skills is disrupting the job market», 2017, p. 6

459 C. Villani, « Donner un sens à l'intelligence artificielle », mars 2018, p.146

460 L. Godefroy, « Le code algorithmique au service du droit » recueil Dalloz, 2018, p. 734

461 CNIL, LINC, « Cahier IP - La forme des choix - Données personnelles, design et frictions désirables », p.10

462 Ibid., P.39

463 AMF, Arafer, Arcep, Arjel, CNIL, CRE, CSA, ADLC, « Nouvelles modalités de régulation : la régulation par la donnée », 8 juillet 2019, p.3

- 77 -

Le régime de lege feranda

du « crowdsourcing », qui consiste à s'appuyer sur des acteurs tiers pour optimiser leurs actions et leurs régulations464. Enfin, pour mener à bien leur rôle de régulateur, ces Autorités ont besoin elles aussi d'une formation afin de se doter de compétences techniques, et de mettre à disposition des outils communs permettant de traiter les données. Dans cette perspective, l'usage de l'IA permettrait d'aider la vérification de la conformité du privacy by design et du privacy by default.

De nombreux acteurs du numériques appellent par ailleurs à la création d'une entité spécialisée sur les questions du numériques. Déjà en 2015, la commission parlementaire465 proposait de former les juges au numérique et de créer un « pôle de compétences numériques » au sein du ministère de la Justice. Parmi les praticiens, A. Basdevant et J. P Mignard appellent à la création d'un parquet spécialisé dans le numérique466. Le rapport Villani élargit les pouvoirs de cette entité et recommande467 de créer un service d'audit des algorithmes. Ces experts agiraient soit dans le cadre d'enquêtes judicaires ou sous la demande d'autorités administratives indépendantes. Leur champ d'action s'exercerait à plusieurs niveaux : accès à certaines preuves, consultation du code source, test des biais algorithmiques avec des bases de données fictives. Certains auteurs, comme L. Godefroy468 prônent la création d'une autorité de contrôle des algorithmes capable d'effectuer des audits des algorithmes. La CNIL partage également cette opinion469.

Les praticiens doivent également se saisir des questions éthiques de l'IA, et cela impose une compréhension de la technologie. C. Castets-Renard propose470 deux méthodes complémentaires. Il s'agit dans un premier temps d'évaluer les enjeux juridiques d'une technologique pour chaque branche du droit. Dans un second temps, il conviendra de mesurer les questions juridiques soulevées par les nouvelles technologies pour comprendre les risques économiques et sociaux sous-jacents. Dans la même perspective, les praticiens du droit devront être sensibilisés aux techniques de l'informatique. Le rapport Villani suggère471 ainsi de permettre des enseignements pluridisciplinaires avec par exemple une majeure en droit et une mineure en informatique.

Dernier point, mais non des moindres, l'ensemble de la population civile doit mesurer les enjeux éthiques de ces technologies afin d'exercer leurs droits et de permettre un débat

464 Ibid., p.9 et s.

465 Commission de réflexion et de propositions sur le droit et les libertés à l'âge numérique, op. cit., prop. n°36, 37

466 A. Basdevant, J. Mignard, op. cit. , p. 177

467 C. Villani, « Donner un sens à l'intelligence artificielle », mars 2018, p.143

468 L. Godefroy, « Le code algorithmique au service du droit » recueil Dalloz, 2018, p. 734

469 CNIL, les enjeux éthiques des algorithmes et de l'intelligence artificielle, op. cit., p.57

470 C. Castests-Renard, « Comment construire une intelligence artificielle responsable et inclusive ? » Recueil Dalloz 2020, p.225

471 C. Villani, « Donner un sens à l'intelligence artificielle », mars 2018, p.147

- 78 -

Le régime de lege feranda

démocratique472. Cela passe d'abord par l'éducation. Le Conseil de l'Europe473, et le rassemblement des Autorités de protection des données internationales474 se sont saisis de ces questions. En France, des dynamiques sont mises en place mais sont insuffisantes, et il est impératif que les individus « ne (soient) pas seulement consommateur de l'ère numérique mais aussi entrepreneur, innovateur et créateur475 ». C'est en étant formé dès l'école et en étant sensibilisé régulièrement à ces enjeux que les individus pourront « rester maîtres476 » de leurs choix, et ainsi s'approprier leur souveraineté numérique.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Soit réservé sans ostentation pour éviter de t'attirer l'incompréhension haineuse des ignorants"   Pythagore