Section 2 : L'éthique de l'IA, fruit d'une
réflexion pluridisciplinaire de tous les acteurs
Une approche interdisciplinaire est nécessaire pour
réfléchir aux enjeux éthiques de l'intelligence
artificielle451 (§2). Elle doit réunir les disciplines
économiques, juridiques, sociales et techniques, car elles se confondent
dans ces questions452 (§1).
§1. Inclure tous les acteurs dans la réflexion
éthique de l'IA
Une Europe pionnière d'une intelligence artificielle
éthique n'est possible que si chaque maillon de la chaîne de
création d'un logiciel d'IA est sensibilisé à ces enjeux,
comme le recommande la CNIL453.
Cette sensibilisation débute tout d'abord par le
responsable du traitement. L'EDPS a rappelé à plusieurs reprises
la nécessité pour les entreprises d'adopter une culture
éthique454.
445 Ibid., p. 25
446 Ibid., p. 4
447 Corp, « Guide du big data : 365 jours au coeur de la
data économie », 2019-2020, p.43
448 Ibid., p. 43
449 C. Thibout, « La stratégie européenne
en intelligence artificielle : un acte manqué ? », Iris France, 19
février 2020
450 CNIL, LINC, « Cahier IP - La forme des choix -
Données personnelles, design et frictions désirables »,
P.23
451 A. Basdevant, « Promoting data culture in Europe
with interdisciplinary research institutes », Coup Data, 8
octobre 2019
452 R., Alain, F.Rochelandet, et C/Zolynski. « De la
Privacy by Design à la Privacy by Using. Regards
croisés droit/économie », Réseaux, vol. 189,
no. 1, 2015, pp. 15-46.
453 CNIL, les enjeux éthiques des algorithmes et de
l'intelligence artificielle, op. cit., p.54
454 Practical law, «Expert Q&A: European Data
Protection Supervisor on Digital Ethics», 2019, p.2
- 76 -
Le régime de lege feranda
C'est pour cela que le RGPD place au coeur de sa
règlementation le principe d'acccountability455, qui
va de pair avec le privacy by design et le privacy by
default. Cette sensibilisation porte déjà ses fruits, mais
témoigne aussi de la puissance des grandes entreprises du
numérique, à l'heure où Microsoft propose une Convention
de Genève digitale456.
Les développeurs doivent également faire partie
de la concertation sur l'éthique du numérique. La
nécessité de former des programmeurs capables de
développer des logiciels d'intelligence artificielle est croissante. Si
la pénurie d'experts dans ce domaine était déjà
annoncée en 2011 dans un rapport de McKinsey Global Institute et dans le
rapport ministériel de T. Rhamani en 2014457, une
étude plus récente prévoit une augmentation de la demande
de Data scientist et Data analysts de 28 % dans les cinq
prochaines années458.
Le rapport Villani insiste sur la nécessité de
sensibiliser à l'éthique les ingénieurs et les chercheurs
en IA dès leur formation459. Ils auront un rôle «
décisif dans la société numérique de demain
». Cet enseignement devrait viser à doter ces programmeurs
d'outils conceptuels afin d'agir de manière responsable en cas de
confrontation à des questions morales et éthiques. Cette
formation est d'autant plus nécessaire que ces futures questions ne
pourront pas être tranchées directement par le droit. Par exemple,
la responsabilité incombera aux développeurs en matière de
systèmes de traçabilités dans leurs algorithmes. En cas
d'apprentissage supervisé, L.Godefroy recommande460 aux
programmeurs de porter une attention particulière aux données
annotées qui constituent le traitement pour l'initialisation de
l'algorithme.
L'interface homme-machine étant le « premier
objet de médiation entre la loi, les droits et les individus
», il est impératif de sensibiliser les architectes
informatiques à un « design de la privacy461
» et de les intégrer à la chaîne de
gouvernance462.
Il est essentiel que les autorités de régulation
s'adaptent à cette évolution technologique. Dans un rapport
conjoint, ces autorités, dont la CNIL, appellent à une
régulation par la donnée463. Cette nouvelle approche,
qui complète les outils traditionnels de régulation, vise
à sensibiliser tous les acteurs du marché pour les inciter
à un comportement responsable. Cette vision appelle à un
changement de culture. Ces Autorités recommandent également la
pratique
455 G. Buttarelli , «Artificial Intelligence and the
future Digital Single Market «, EDPS, Keynote speech on privacy, 24
avril 2018
456 B. Smith, «The need for a Digital Geneva
Convention», Microsoft, 14 février 2017
457 T. Rhamani , « Les développeurs, un atout pour
la France », 2014
458 Burning Glass Technologies, BHEF, IBM, «The quant
crunch how the demand for data science skills is disrupting the job
market», 2017, p. 6
459 C. Villani, « Donner un sens à l'intelligence
artificielle », mars 2018, p.146
460 L. Godefroy, « Le code algorithmique au service du droit
» recueil Dalloz, 2018, p. 734
461 CNIL, LINC, « Cahier IP - La forme des choix -
Données personnelles, design et frictions désirables »,
p.10
462 Ibid., P.39
463 AMF, Arafer, Arcep, Arjel, CNIL, CRE, CSA, ADLC, «
Nouvelles modalités de régulation : la régulation par la
donnée », 8 juillet 2019, p.3
- 77 -
Le régime de lege feranda
du « crowdsourcing », qui consiste à
s'appuyer sur des acteurs tiers pour optimiser leurs actions et leurs
régulations464. Enfin, pour mener à bien leur
rôle de régulateur, ces Autorités ont besoin elles aussi
d'une formation afin de se doter de compétences techniques, et de mettre
à disposition des outils communs permettant de traiter les
données. Dans cette perspective, l'usage de l'IA permettrait d'aider la
vérification de la conformité du privacy by design et du
privacy by default.
De nombreux acteurs du numériques appellent par
ailleurs à la création d'une entité
spécialisée sur les questions du numériques.
Déjà en 2015, la commission parlementaire465 proposait
de former les juges au numérique et de créer un «
pôle de compétences numériques » au sein du
ministère de la Justice. Parmi les praticiens, A. Basdevant et J. P
Mignard appellent à la création d'un parquet
spécialisé dans le numérique466. Le rapport
Villani élargit les pouvoirs de cette entité et
recommande467 de créer un service d'audit des algorithmes.
Ces experts agiraient soit dans le cadre d'enquêtes judicaires ou sous la
demande d'autorités administratives indépendantes. Leur champ
d'action s'exercerait à plusieurs niveaux : accès à
certaines preuves, consultation du code source, test des biais algorithmiques
avec des bases de données fictives. Certains auteurs, comme L.
Godefroy468 prônent la création d'une autorité
de contrôle des algorithmes capable d'effectuer des audits des
algorithmes. La CNIL partage également cette opinion469.
Les praticiens doivent également se saisir des
questions éthiques de l'IA, et cela impose une compréhension de
la technologie. C. Castets-Renard propose470 deux méthodes
complémentaires. Il s'agit dans un premier temps d'évaluer les
enjeux juridiques d'une technologique pour chaque branche du droit. Dans un
second temps, il conviendra de mesurer les questions juridiques
soulevées par les nouvelles technologies pour comprendre les risques
économiques et sociaux sous-jacents. Dans la même perspective, les
praticiens du droit devront être sensibilisés aux techniques de
l'informatique. Le rapport Villani suggère471 ainsi de
permettre des enseignements pluridisciplinaires avec par exemple une majeure en
droit et une mineure en informatique.
Dernier point, mais non des moindres, l'ensemble de la
population civile doit mesurer les enjeux éthiques de ces technologies
afin d'exercer leurs droits et de permettre un débat
464 Ibid., p.9 et s.
465 Commission de réflexion et de propositions sur le
droit et les libertés à l'âge numérique, op.
cit., prop. n°36, 37
466 A. Basdevant, J. Mignard, op. cit. , p. 177
467 C. Villani, « Donner un sens à l'intelligence
artificielle », mars 2018, p.143
468 L. Godefroy, « Le code algorithmique au service du droit
» recueil Dalloz, 2018, p. 734
469 CNIL, les enjeux éthiques des algorithmes et de
l'intelligence artificielle, op. cit., p.57
470 C. Castests-Renard, « Comment construire une
intelligence artificielle responsable et inclusive ? » Recueil Dalloz
2020, p.225
471 C. Villani, « Donner un sens à l'intelligence
artificielle », mars 2018, p.147
- 78 -
Le régime de lege feranda
démocratique472. Cela passe d'abord par
l'éducation. Le Conseil de l'Europe473, et le rassemblement
des Autorités de protection des données
internationales474 se sont saisis de ces questions. En France, des
dynamiques sont mises en place mais sont insuffisantes, et il est
impératif que les individus « ne (soient) pas seulement
consommateur de l'ère numérique mais aussi entrepreneur,
innovateur et créateur475 ». C'est en étant
formé dès l'école et en étant sensibilisé
régulièrement à ces enjeux que les individus pourront
« rester maîtres476 » de leurs choix, et
ainsi s'approprier leur souveraineté numérique.
|