WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Intelligence artificielle et mise en oeuvre des principes de privacy by design et privacy by default


par Julie Morin Richard
Ulco - Master 2 Droit des affaires 2020
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

Section 2 : Un risque inhérent au logiciel d'intelligence artificielle

Une mise en oeuvre effective du privacy by design et du privacy by default requiert des mesures techniques et organisationnelles pour pallier les risques d'atteinte aux droits et libertés des personnes concernées selon l'intensité du risque (§1). Ce risque doit prendre en compte la spécificité de la technologie d'IA (§2).

§1. L'appréciation du critère de risque élevé

L'article 35.1 du RGPD dispose que l'analyse d'impact relative à la protection des données est obligatoire et est susceptible d'engendrer un « risque élevé pour les droits et libertés des personnes physiques ». Le management du risque ne peut se résumer à une analyse binaire de traitements risqués ou non risqués. Cette pratique vise à réduire les risques à un niveau acceptable au regard du bénéfice potentiel et du contexte200. La CNIL propose une méthode de mise en oeuvre d'une analyse d'impact à la protection des données pas à pas201. Le risque peut traditionnellement provenir de sources humaines internes, de sources humaines externes et de sources non humaines202. Afin de mesurer le risque lié au traitement, il convient d'envisager la conjugaison de la gravité et de la vraisemblance du fait générateur203. Les facteurs de gravité prennent en compte le recours à de nouvelles technologies dans le traitement, ainsi que la nature, le contexte, la portée et la finalité du traitement. L'analyse de risque comprend le risque ainsi que les mesures coercitives prévues pour y remédier204.

Certains types de traitement sont par nature susceptibles d'engendrer un risque élevé. Tout d'abord, le paragraphe 3 de l'article 35 du RGPD dresse une liste non exhaustive205 qui inclut notamment les décisions automatisées produisant des effets significatifs ou équivalant sur les personnes ; le traitement à grande échelle de données sensibles ou relatives à des infractions pénales ; ainsi que la surveillance systématique à grande échelle d'une zone interdite au public. De plus, conformément aux paragraphes 4 et 5 de cet article, la CNIL a publié une liste d'opérations de traitements pour lesquelles cette analyse d'impact est requise206 ou non

200 OCDE, «Enhancing Access to and Sharing of Data : Reconciling Risks and Benefits for Data Re-use across Societies», 6 novembre 2019, 4.

201 CNIL, « Outil PIA : téléchargez et installez le logiciel de la CNIL », 8 avril 2020

202 CNIL, « Analyse d'impact à la protection des données : les bases de connaissances », février 2018, p.2

203 CNIL, « Analyse d'impact relative à la protection des données, la méthode », février 2018, p.6

204 CNIL, « Analyse d'impact relative à la protection des données, application aux objets connectés », février 2018, p. 33

205 G29, « Lignes directrices concernant l'analyse d'impact relative à la protection des données (AIPD) et la manière de déterminer si le traitement est «susceptible d'engendrer un risque élevé» aux fins du règlement (UE) 2016/679 », WP 248, 4 avril 2017, p. 9

206 CNIL, Délib. n° 2018-327, 11 octobre 2018

- 38 -

Les moyens d'autorégulation adaptés à l'intelligence artificielle

requise207. Sur cette liste figurent notamment les traitements de profilage faisant appel àÌ des données provenant de sources externes, les traitements qui présentent un risque élevé du fait du croisement des bases de données et les traitements dont l'usage est innovant.

Par ailleurs, le G29 a adopté des lignes directrices208 listant les cas de figure susceptibles d'engendrer un risque élevé. En compilant les paragraphes de l'article 35 et les Considérants (91), (71), (75) et (91) du RGPD, le G29 liste les neuf critères susceptibles de rendre le risque du traitement élevé :

· évaluation ou notation

· prise de décisions automatisées avec effet juridique ou effet similaire significatif

· surveillance systématique

· données sensibles ou données à caractère hautement personnel

· données traitées à grande échelle

· croisement ou combinaison d'ensembles de données

· données concernant des personnes vulnérables

· utilisation innovante ou application de nouvelles solutions technologiques ou organisationnelles

· traitements en eux-mêmes qui « empêchent [les personnes concernées] d'exercer un droit ou de bénéficier d'un service ou d'un contrat »

Dès que deux critères sont réunis, il est fort probable que le traitement présente un risque élevé209.

En l'absence de lignes directrices, la Commission européenne recommande de déterminer ce qui constitue un risque élevé d'une application de l'IA en prenant en compte le secteur d'activité et le traitement210. Or, afin de réaliser un traitement par un logiciel d'intelligence artificielle, il est nécessaire de disposer d'une grande quantité de données. C'est justement ce qui constitue la « plus-value de l'intelligence artificielle211 ». Dès lors, tout traitement peut potentiellement être considéré comme présentant un risque élevé du fait qu'il est effectué par une nouvelle technologie, qu'il est permis par un croisement ou une combinaison de données, et/ou que les données sont traitées à grande échelle.

Il est alors recommandé de systématiquement effectuer une analyse d'impact lors d'un traitement effectué par IA.

207 CNIL, Délib. n° 2019-118, 12 septembre 2019

208 G29, WP 248, op. cit., p. 10

209 G29, ibid., p. 13

210 Commission Européenne, livre blanc sur l'intelligence artificielle, op. cit., p.17

211 A. Bensamoun, G. Loiseau, l'intégration de l'intelligence artificielle dans certains droits spéciaux, op. cit.

- 39 -

Les moyens d'autorégulation adaptés à l'intelligence artificielle

§2. Un risque spécifique au logiciel de l'intelligence artificielle

Le traitement effectué par des logiciels d'intelligence artificielle crée de nouveaux risques spécifiques et augmente les risques existants. La prise en compte des évolutions techniques de l'IA est nécessaire pour effectuer une analyse d'impact efficace, qui permet de mesurer les risques et de proposer des solutions scientifiques réalisables212. La Commission européenne recommande que l'Europe mette en oeuvre des outils de guide pour aider l'évaluation de ces risques spécifiques213.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"La première panacée d'une nation mal gouvernée est l'inflation monétaire, la seconde, c'est la guerre. Tous deux apportent une prospérité temporaire, tous deux apportent une ruine permanente. Mais tous deux sont le refuge des opportunistes politiques et économiques"   Hemingway