Section 2 : La confrontation des principes directeurs
du RGPD à la technologie de l'IA
Les algorithmes du big data permettent de traiter une
immense quantité de données qui échappe à
l'expertise humaine. Ce fonctionnement est aux antipodes de la
réglementation du RGPD159 fondée sur des principes
directeurs (§1, §2). Ces algorithmes remettent également en
question la validité du consentement des personnes concernées,
qui ne sont pas capables de mesurer l'ensemble des risques induits liés
à leur utilisation (§3).
155 C. Villani, « Donner un sens à
l'intélligence artificielle », mars 2018, p.148
156 F. Godement «Données personnelles, comment
gagner la bataille ?» Institut Montaigne, décembre 2019, P.
41
157 A. Bensamoun, G. Loiseau « L'intégration de
l'intelligence artificielle dans certains droits spéciaux »,
Dalloz IP/IT, 2017, p. 295
158 B. Nguyen, « Survey sur les techniques
d'anonymisation : Théorie et Pratique », Journée CERNA
sur l'Anonymisation, p.50
159 P. Pucheral, A. Rallet, F. Rochelandet, Célia
Zolynski, op. cit., p. 89-99
- 27 -
L'application des principes de protection des données
à caractère personnel à l'intelligence artificielle
§1. Le Big data face au principe de minimisation
Les principes du RGPD se placent en contradiction avec
l'essence même de l'intelligence artificielle. Pour fonctionner, cette
technologie nécessite de traiter des données massives,
caractérisées par les « 5 V : volume,
variété, vélocité, véracité, valeur
»160. L'intelligence artificielle nécessite une
grande consommation de données, conservées pour une longue
durée. Ce besoin va donc à l'encontre des principes de
minimisation et de durée de conservation du RGPD.
Par ailleurs, le principe de minimisation est par nature
antagoniste à l'objectif du big data qui nécessite une
grande quantité de données pour fonctionner. Ainsi,
l'efficacité du big data est inversement proportionnelle au
minimum requis nécessaire pour garantir le principe de
minimisation161.
§2. L'Intelligence artificielle face au principe de
finalité
A. Bensamoun et G. Loiseau soulignent162 l'aspect
irréalisable de cet objectif de garantir par défaut un traitement
strictement nécessaire à une finalité. C'est justement
l'accumulation, l'étendue et la durée qui rendent cette
technologie efficiente. Le logiciel d'intelligence artificielle traite des
masses unitaires et dynamiques et non des unités statistiques comme
c'est le cas traditionnellement. La quantité de données est alors
préférée à leur qualité. La finalité
est alors définie non pas au stade de la collecte mais au stade de
l'exploitation.
§3. Le paradoxe de la vie privée face au principe
de consentement
La notion de « privacy Paradoxe » est
née en 2001 dans une étude de B. Brown, qui met en
évidence163 un paradoxe entre les utilisateurs qui utilisent
des cartes de fidélité dans les supermarchés tout en se
plaignant de l'atteinte à leur vie privée. Le paradoxe de la vie
privée, qui peut se définir comme l'incohérence entre les
préoccupations relatives à la vie privée et notre
comportement en ligne, est d'autant plus d'actualité à l'heure
d'internet. K. Burkhardt préfère employer le terme de «
dilemme de la vie privée »164. L'usage
d'internet a modifié en profondeur la notion de vie privée qui
s'incarne désormais à la fois en ligne et hors ligne. Il est donc
préférable de parler de « privacy dilemma »,
dans la mesure où les utilisateurs doivent désormais choisir
entre utiliser un service ou partager leurs données. K. Burkhardt
souligne
160 A. Bensamoun, G. Loiseau, l'intégration de
l'intelligence artificielle dans certains droits spéciaux, op.
cit.
161 P. Pucheral, A. Rallet, F. Rochelandet, Célia
Zolynski, op. cit., p. 10
162 A. Bensamoun, G. Loiseau, l'intégration de
l'intelligence artificielle dans certains droits spéciaux, op.
cit.
163 B. Brown, «Studying the Internet
Experience», Publishing Systems and Solutions Laboratory HP
Laboratories Bristol, HPL-2001-49, 26 mars 2001, p.1
164 K. Burkhardt «The privacy paradox is a privacy
dilemma», Internet citizen, 24 août 2018
- 28 -
L'application des principes de protection des données
à caractère personnel à l'intelligence
artificielle
également la difficulté à chiffrer la
valeur de la donnée, ce qui complexifie la prise de décision dans
ce dilemme. Aux États-Unis, certains utilisateurs croient
néanmoins naïvement que les données de leur historique
valent l'équivalent d'un Big Mac165. La question de la
patrimonialisation des données est fallacieuse en Europe. La protection
des personnes concernées et de leurs droits y est
préférée et consacrée quel que soit la valeur de
leur donnée à caractère personnel.
|