WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Intelligence artificielle et mise en oeuvre des principes de privacy by design et privacy by default


par Julie Morin Richard
Ulco - Master 2 Droit des affaires 2020
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

§2. Promouvoir un design pour la privacy

L'usage du design est nécessaire afin de garantir les principes de privacy by design et de privacy by default515. Ces principes impliquent en effet la mise en oeuvre de garanties relatives à l'information, l'exercice des droits des personnes concernées et l'obtention de leur consentement. La CNIL a pour cela créé un site internet dédié au design afin de garantir des « parcours utilisateurs respectueux du RGPD et de la vie privée ».

En ce qui concerne le droit des personnes, les individus ont tendance à choisir la proposition par défaut516. La mise en oeuvre d'un design respectueux du privacy by default implique que les utilisateurs soient capables de consulter et de comprendre les configurations et les options pour être capable de changer eux même les paramètres par défaut517.

Concernant le droit d'information, il arrive que la surcharge informationnelle noie les individus sous le flux d'informations, la mise en oeuvre effective de ce droit correspond alors à un « droit de ne pas choisir518 ». Consacrer une réelle information des utilisateurs passe aussi par une communication honnête des risques, ce qui peut s'avérer être une solution à l'impossible promesse de garantir une confidentialité sans failles519.

Le modèle user-centric permet ainsi d'augmenter le contrôle des personnes concernées sur leurs données520. Néanmoins, le big data rend les mécanismes de collecte du consentement dépassés. Il devient donc nécessaire d'adapter ces procédés à l'intelligence artificielle, par le biais par exemple des préférences pour la protection de la vie privée, ou d'entrepôts de données personnelles : « Les nouvelles technologies requièrent de nouveaux modèles de consentement et l'industrie doit être ouverte et créative en proposant des solutions pratiques d'opt-in complétées par des solutions d'opt-out et de mécanismes d'accès qui placent les utilisateurs

514 P. Pucheral, A. Rallet, F. Rochelandet, C. Zolynski, op. cit., p.13

515 CNIL, LINC, « Cahier IP - La forme des choix - Données personnelles, design et frictions désirables », p.43

516 Ibid ., p. 19

517 M. Hansen, K. Limniotis, ENISA, recommendations on GDPR provisions, op cit., p.35

518 CNIL, « Cahier IP - La forme des choix - Données personnelles, design et frictions désirables », p.30, 19

519 S. Watcher, «The GDPR and the Internet of Things : A Three-Step Transparency Model», 2018, p.12

520 G. D'acquisto, J. Domingo-ferrer, ENISA, « Privacy by design in big data», décembre 2015, p. 46

- 84 -

Le régime de lege feranda

dans une démarche de contrôle de la chaîne de traitement des données521 ». La CNIL recommande de réfléchir à l'interface entre la machine et son utilisateur, pour garantir la liberté humaine522. L'institut Montaigne encourage l'investissement dans la recherche relative à l'aide aux utilisateurs en matière de protection de la vie privée523.

Néanmoins, ces dispositifs restent des prémices. Les grandes plateformes interrogées lors de l'enquête de la Commission sur la souveraineté du numérique ont reconnu que ces outils étaient « récents et perfectibles524 ». Si la Commission félicite quelques pratiques à l'instar du tableau de bord de Google recensant l'historique de la collecte des données personnelles et de leurs utilisations, ces initiatives doivent être davantage encouragées et contrôlées.

Ainsi, recentrer l'utilisateur au coeur de l'IA éthique requiert de l'éduquer à la technologie et aux pratiques de bulle filtrante et de design trompeur. Pour cela, l'intégration du principe de privacy by using en complément du privacy by design et du privacy by default est impératif, ainsi que la mise à disposition d'outils adaptés.

La réglementation en vigueur ne donnant pas de lignes directrices, l'importance de l'autorégulation se voit accrue. Le responsable du traitement doit donc veiller à déterminer une politique de gouvernance de la donnée efficace et prendre des précautions particulières tout au long du cycle de vie de la donnée lors du traitement effectué par un logiciel d'intelligence artificielle.

Le régime de demain, respectueux de l'usage des données à caractère personnel doit proposer une intelligence artificielle éthique, avec au coeur de cette réflexion l'utilisateur. Ce dernier doit être formé et doté d'outils permettant une prise de décision éclairée.

521 Ibid., p. 50

522 CNIL, les enjeux éthiques des algorithmes et de l'intelligence artificielle, op. cit., p.56

523 F. Godement «Données personnelles, comment gagner la bataille ?» Institut Montaigne, décembre 2019, P. 184

524 F. Montaugé, G. LONGUET, Rapport Commission d'enquête sur la souveraineté au numérique, « le devoir de souveraineté numérique : ni résignation, ni naïveté » version provisoire, n° 7 tome I (2019-2020) , 1 octobre 2019, p. 76

- 85 -

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Il faut répondre au mal par la rectitude, au bien par le bien."   Confucius