WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Intelligence artificielle et mise en oeuvre des principes de privacy by design et privacy by default


par Julie Morin Richard
Ulco - Master 2 Droit des affaires 2020
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

2.1. Risque d'opacité des systèmes d'IA

La nécessité de transparence dans le cadre de traitements automatisés à des fins de profilage a été souligné par le G29214. Il ne s'agit pas de divulguer des secrets d'affaires mais de proposer une « intelligence artificielle explicable » afin d'obtenir la confiance des consommateurs215.

Néanmoins, dans le cadre de l'apprentissage automatique supervisé, le phénomène de « black box » empêche l'homme de connaitre le fonctionnement du logiciel. Ce phénomène est lié à cette technologie qui empêche de comprendre comment raisonne le logiciel lors du traitement. La transparence du processus est donc illusoire.

Par ailleurs, l'opacité de certains systèmes d'intelligence artificielle rend impossible l'audit des systèmes216 et également le contrôle a posteriori.

2.2. Risque de biais algorithmique

Le biais d'un algorithme est l'écart entre ce que dit l'algorithme et la réalité217. Il existe deux types de biais algorithmique218 : les « biais directs », généré par le codage de l'algorithme, et les « biais indirects », créés par le design de l'algorithme. Ces derniers ne sont pas créés directement par les humains, mais indirectement lors de l'initialisation des algorithmes.

Le biais est susceptible de provoquer des discriminations et de créer des atteintes tant collectives qu'individuelles et provoquer des baisses d'opportunité, des pertes économiques,

212 Commission Européenne « Robustesse et explicabilité de l'intelligence artificielle », 2020, p. 2 et s.

213 Commission Européenne, livre blanc sur l'intelligence artificielle, op. cit., p.14, p.17

214 G29, «Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679», 3 octobre 2017

215 J. Toscano, «Privacy By Design: What Needs to be Done, How to do It, and How to Sell It to your Boss», Medium, 30 octobre 2018

216 E. Caprioli, «intelligence artificielle et RGPD peuvent-ils cohabiter ?», L'usine Digitale, 30 janvier 2020

217 Institut Montaigne, «Algorithmes : contrôle des biais S.V.P», mars 2020

218 A. Jean « Interview : The history and future of algorithms», France 24 English, 18 février 2020

- 40 -

Les moyens d'autorégulation adaptés à l'intelligence artificielle

des préjudices sociaux et des pertes de liberté219. Or, lutter contre les biais algorithmiques revient à se heurter au principe même de l'algorithme. L'algorithme est par nature discriminant étant donné qu'il vise à effectuer une distinction entre les individus en se basant sur certaines caractéristiques220. Tout d'abord, il est impossible de garantir simultanément une équité individuelle et une équité de groupe221. Par ailleurs, la mesure du biais n'est pas toujours possible, car il faudrait avoir accès à des données sensibles, telles que l'orientation sexuelle ou la religion. Par exemple, l'auditeur ne pourra pas vérifier que son logiciel favorise les hommes de couleur blanche s'il ne peut pas mesurer dans sa base de données le nombre d'hommes et le nombre de personnes de couleur blanche.

L'intelligence artificielle soulève de nouveaux risques, presque systématiquement susceptibles de porter des atteintes élevées pour les droits et libertés des personnes concernées. Le responsable de traitement doit donc accorder une attention particulière aux risques d'opacité des systèmes d'intelligence artificielle et de biais algorithmique, en amont et en aval du traitement.

219 Future of Privacy Forum, «unfairness by algorithm: distilling the harms of automated decision-making», 2017, p.4

220 A. Basdevant, «the rise of the blackbox society», Coup Data

221 Institut Montaigne, « Algorithmes : contrôle des biais S.V.P », mars 2020 p. 34

- 41 -

Les moyens d'autorégulation adaptés à l'intelligence artificielle

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Il y a des temps ou l'on doit dispenser son mépris qu'avec économie à cause du grand nombre de nécessiteux"   Chateaubriand