Dans le rapport sur l'intelligence artificielle dirigé
par C. Villani,121 la difficulté d'encadrer le traitement des
logiciels d'intelligence artificielle est soulignée. Il s'agit d'un
« angle mort » de la législation actuelle, du fait
que l'IA ne traite pas que des données à caractère
personnel, et n'est donc pas intégralement soumise aux dispositions du
RGPD. L'intelligence artificielle ne fait pas non plus l'objet d'une
régulation à l'échelle européenne122, ni
d'exigences ou de lignes directrices spécifiques123.
L'efficacité de la mise en oeuvre des principes du RGPD est en
parallèle discutée, à l'heure où les conditions de
confidentialité de Facebook sont plus longues que la Constitution
américaine124.
Ce mémoire vise à dépasser
l'oxymore traditionnel big data / vie privée125,
afin d'aspirer à un objectif de « big data et vie
privée126 ». Cette réflexion s'aligne avec
les recommandations de la Commission Européenne qui
affirme127 et réaffirme128 de «
faire le lien entre les attentes légitimes (...) et le paysage actuel de
l'intelligence artificielle ».
Le big data bouleverse la vie privée dans la
mesure où il réduit le contrôle et la transparence,
augmente la réutilisation des données, et permet la
ré-identification des individus129. De nouvelles technologies
doivent être anticipées telle que la technologie quantique qui
pourrait augmenter la capacité de traitement de manière
exponentielle130. De nouvelles pratiques qui participent à
l'essor du big data131 tels que l'open
data132 et l'internet des objets133 posent
également de nouvelles questions.
Si le choix du paramètre par défaut n'est pas
nouveau dans la conception d'un logiciel, il n'en est pas de même du
principe de «priorité à la protection des
données» imposé par le RGPD134 qui constitue
une approche nouvelle pour les développeurs. Pourtant, la
conformité de ces principes impose une Protection Intégrée
de la Vie Privée. Il s'agit d'« intégrer des mesures
protectrices directement dans les systèmes informatiques, les pratiques
d'affaires et
121 C. Villani, Rapport «Donner un sens à
l'intelligence artificielle», 2018, p. 148
122 Commission Européenne, livre blanc sur
l'intelligence artificielle, op. cit
123 EDPB, «Response to the MEP Sophie in't Veld's letter
on unfair algorithms», 29 janvier 2020, p. 5
124 N. Bilton «Price of Facebook Privacy? Start
Clicking», The New York Times, 12 mai 2010
125 G. D'acquisto, J. Domingo-ferrer, ENISA, « Privacy by
design in big data», décembre 2015, p.18
126 Ibid., p.49
127 Commission Européenne, robustness and
Explainability of Artificial Intelligence, op. cit., p. 5
128 Ibid., p. 5
129 G. D'acquisto, J. Domingo-ferrer, ENISA, « Privacy by
design in big data», décembre 2015, p.13
130 Commission Européenne, livre blanc sur
l'intelligence artificielle, op. cit., p.4
131 36th Conference of Data protection and Privacy
commissioners, «resolution big data», 2014
132 C. Villani, « Donner un sens à l'intelligence
artificielle », mars 2018, p.29 et s.
133 36th Conference of Data protection and Privacy
commissioners, «Mauritius Declaration on the Internet of
Things», 14 octobre 2014
134 M. Hansen, K. Limniotis, ENISA, recommendations on GDPR
provisions, op cit., p.5