![](La-reponse-reglementaire-de-lUnion-Europeenne-face--levolution-de-lintelligence-artif1.png)
![](La-reponse-reglementaire-de-lUnion-Europeenne-face--levolution-de-lintelligence-artif2.png)
MÉMOIRE COLLECTIF VALENTINE BOURRAS
PAULINE BRUGERON GARANCE LAFAURIE SEBASTIEN SABY LUCAS TORRES
Sous la direction de Madame Alma-Delettre
La réponse réglementaire de l'Union
Européenne face à
l'évolution de l'Intelligence
Artificielle
![](La-reponse-reglementaire-de-lUnion-Europeenne-face--levolution-de-lintelligence-artif3.png)
TABLE DES MATIÈRES
INTRODUCTION
PARTIE I : LA NÉCESSITÉ D'UNE
RÉGLEMENTATION FACE À L'INQUIÉTUDE
CROISSANTE DES DÉRIVES DE L'INTELLIGENCE
ARTIFICIELLE
I. Une réglementation face aux dérives
des entreprises et des géants du numérique
A. Des dérives dénoncées par les
magnats de l'intelligence artificielle mêmes
1. Identification progressive des dérivés
liées à l'intelligence artificielle
2. Signature de la Beneficial AI et principes
d'Asilomar
B. La définition de lignes de conduites
indispensables
1. L'édification de « bons comportements
»
2. La nécessité d'un cadre pour les
usagers
II. Une réglementation face aux enjeux
éthiques et humanitaires
A. D'une problématique liée à
l'éthique
1. Des lacunes éthiques substantielle à
l'IA
2. Une sensibilisation progressive à la question
éthique
B. L'exemple des SALA : De nécessaires fondations
d'un « droit moral encadré » de
tuer
1. Un droit international à l'épreuve de
l'armement robotique
a. De sérieuses lacunes en matière
d'identification juridiques des drones militaires
b. La nécessité d'une régulation juridiques
des drones tueurs autonomes
2. L'autonomie des robots comme bouleversement en
matière de responsabilité a. Une autonomie
nécessairement jaugée
2
b. D'une stricte nécessité d'encadrer l'existence
et l'utilisation d'armes autonomes
PARTIE II : L'ÉTAT ACTUEL DE CETTE
RÉGLEMENTATION : ENTRE AMBITIONS ET CARENCES
I. Une réglementation aux dispositions ambitieuses
A. La favorisation du progrès
1. L'encouragement de l'excellence dans le domaine de
l'Intelligence artificielle
2. La formation de nouvelles compétences dans les
technologies de l'Intelligence artificielle
3. Les stratégies de collecte d'informations et de
données
B. Garantir la sécurité des citoyens
1. Prioriser une évalution des risques
2. La recherche d'une concordance avec les Droits
fondamentaux
3. L'Introduction du principe de Garantie Humaine
II. Les critiques des autorités de protection
des données personnelles face à cette
réglementation
A- Une réglementation insuffisamment protectrice
1. Un manque de clarté dans le cadre juridique
2- Une conformité nécessaire des bases
législatives avec celles du règlement général de
protection des données
B- Une approche sceptique sur l'organisation
institutionnelle
1- La nécessité d'un gouvernement
organisé
3
2- La régulation de l'IA face à la
concurrence internationale : atout ou faiblesse de l'Union ?
4
INTRODUCTION
«Success in creating AI would be the biggest event in
human history,'he said. Unfortunately, it might also be the last, unless we
learn how to avoid the risks.»/ »Créer une intelligence
artificielle serait le plus grand événement de l'histoire
humaine. Malheureusement, ce pourrait être le dernier, à moins que
nous ne découvrions comment éviter les risques. » Stephen
Hawking, Article The Independent, mai 2014.
Il nous est difficile de définir l'intelligence
artificielle sans aborder le milieu dans lequel elle évolue. Ainsi, il
nous faut envisager brièvement la notion de « cyberespace » ou
de « métavers ». Il est considéré comme un
espace de technologie comprenant les réseaux informatiques, les
ressources informatiques et tous les dispositifs fixes et mobiles
connectés au réseau mondial. De ce fait, le cyberespace d'une
nation fait partie du cyberespace mondial : il ne peut être isolé
pour en définir les limites puisque le cyberespace est sans
frontière, qui ne cesse de s'accroître et s'étendre,
contrairement aux nations qui sont elles délimitées par des
frontières géographiques.
Le petit Robert définit le cyberespace comme « un
ensemble de données numérisées constituant un univers
d'information et un milieu de communication, lié à
l'interconnexion mondiale des ordinateurs ». Ainsi De la pose de ces
premières briques constitutives du cyberespace dans les années
1950, à ce qu'il est devenu aujourd'hui, un vaste réseau
constitué de milliards d'ordinateurs, l'IA a acquis une place centrale
dans les débats de sociétés, notamment en question de son
utilisation dans les domaines militaires, ce qui mènera à des
questionnements scientifiques, éthiques, politiques et juridiques.
Dans ce grand domaine que représente le cyberespace,
l'un des éléments qui le constitue, et qui sera l'oeuvre de notre
mémoire, reposera sur l'Intelligence Artificielle (ci-après
« IA »).
L'IA est à part entière « cyber », car
elle n'existe qu'au travers de logiciels, de langages de programmation,
d'ordinateurs. L'IA est une discipline scientifique et un ensemble de
techniques qui prennent naissance en même temps que l'informatique.
Le point de départ des IA se fait notamment par la
publication d'Alan Turing « Computing Machinery and Intelligence » en
1950, qui constitue l'un des actes fondateurs de l'IA. Cet ouvrage
répond notamment à la question « les machines peuvent-elles
penser ? »
5
Le questionnement de base n'est pas de savoir si la machine
peut en elle-même « penser », mais « imiter » un
comportement. En d'autres termes : un ordinateur peut-il tenir la place de
l'humain dans le jeu de l'imitation ? En 1955 est développé Logic
theorist, considéré comme le premier programme d'IA,
développé par John Shaw, Herbert Simon et Allen Newell.
Même si le programme est qualifié du premier code IA, jamais les
trois chercheurs n'utilisent pas l'expression « intelligence artificielle
». Cette expression apparaît en 1956, à l'occasion d'un
ensemble de séminaires organisés au Darthmouth college par John
Mc Carthy (Dartmouth college), Claude Shannon (Bell telephone Laboratories),
Marvin Minsky (Harvard University) et Nathaniel Rochester (IBM Corportation),
qui seront considérés comme les pères fondateurs de cette
technologie.
Le terme « intelligence » est utilisé dans
les premières années de l'IA dans de multiples technologies et
objets de recherche. On pouvait alors parler en astronomie de « satellites
terrestres intelligents » pour différencier les satellites
envoyés dans l'espace et ceux dits « satellites terrestres naturels
», qui renvoient aux objets spatiaux, la Lune.
Un des pionner de l'IA tentera de donner un axe de
pensée pour définir le mot « intelligent », qui
relève de la capacité pour une personne ou un objet de
résoudre des problèmes difficiles.
Les premières machines intelligentes apparaissent avec
entre autres les tortues de Bristol en 1947, en passant par le renard
électronique d'Albert Ducrocq développé en 1953, ou bien
des « Zébulons », les premiers robots de manutention autonomes
informatisés inventé par Bruno Lussato dans les années
1970. Toutes ces inventions sont apparues dans des laboratoires
d'universités pour finalement se voir démocratiser au sein des
populations, impactant la vie de millions, voire de milliards de personnes.
L'IA nous accompagne dans notre quotidien, partout où
nous sommes, sans que le plus souvent nous ne le sachions. On les retrouve dans
les véhicules modernes tel que les caméras de recul ou les
capteurs ; les téléphones portables avec les assistants virtuels,
les réseaux sociaux, les jeux vidéo ; les systèmes d'aides
au diagnostiques médicales.
Ainsi, il est difficile de donner une définition simple
et unique de L'IA car cette définition est sans cesse analysée,
déconstruite, remodelée, du fait de son champ d'utilisation et de
son expansion sans limites dans toutes les facettes de la vie humaine.
Du fait du peu de réelle délimitation quant
à sa définition, l'IA suscite de vifs débats, car
puisqu'elle est intégrée dans notre quotidien du fait de tous les
objets connectés qui nous entourent.
Certains auteurs, philosophes et politiques, remettent en
question son pouvoir transformatif, qui est depuis quelques années
devenu central.
Un courant de pensées avance la théorie que l'IA
est une menace existentielle, de peur d'un grand remplacement par les machines
considérant que celle-ci est une nouvelle technologie de pouvoir,
coercition, d'oppression, voire de contrôle qui s'exercent sur les
activités humaines : « Les machines qui jusqu'ici ne
libéraient l'homme que du travail physique, ne s'avisent-elles pas de le
remplacer dans les tâches les plus nobles, entre autres la pensée
dont il assurait jusqu'ici le monopole ? Ces machines intelligentes,
douées de mémoire, ne sont-elles pas désormais capables de
surpasser le cerveau humain dans des travaux chaque jour plus nombreux ? La
suprématie de l'homme n'est-elle pas menacée ? Ces robots pensant
ne vont-ils pas, dans un avenir que certains nous président proche,
redire l'humanité en esclavage? [...] Pour l'ancien ministre de
l'éducation national, Edgar Faure, « la machine qui décide
au lieu d'exécuter » serait à l'origine d'un traumatisme
grave de l'intelligence humaine.» (LANGEVIN L. « Les machines
à penser », La Pensée : revue du rationalisme moderne,
n°147, p. 61-89, octobre 1969).
L'IA est aussi vue comme une menace existentielle.
En 2014, Stephen Hawking et Elon Musk reprennent l'argument en
affirmant que la véritable IA pourrait entraîner vers la fin de
l'humanité, en avançant le fait que puisqu'elle est
dépourvue d'émotions ou de sensations humaines, elle ne peut
alors comprendre des notions dichotomiques, en premier lieu celle du bien et du
mal. D'autres voient en L'IA la possibilité que l'homme et la machine
oeuvrent ensemble, qu'elle soit le prolongement du corps et de l'esprit de
l'être humain, venant l'accompagner dans sa réalisation et
étendre ses capacités.
Pour parer aux inquiétudes des individus et
certainement des Etats quant à l'utilisation toujours plus soutenues des
IA dans tous les domaines, il nous faut regarder l'essor des différentes
législations qui viennent répondre à ses nouveaux
questionnements sociétaux et de leurs utilisations par des grandes
entités, pas toujours étatiques, notamment l'Union
européenne. Ainsi, il s'agirait de se demander dans quelles conditions
la réglementation de l'Union européenne tente de répondre
aux enjeux principaux de l'Intelligence Artificielle ?
6
C'est à cette question que nous allons tenter de
répondre tout au long de ce mémoire.
7
Pour cela, il est nécessaire de se pencher sur la
question de savoir quelles sont les dérives actuelles concernant
l'Intelligence Artificielle (Partie I), et comment ces dérives tendent
à être encadrées par les différentes
législations (Partie II).
8
PARTIE I
LA NÉCESSITÉ D'UNE
RÉGLEMENTATION FACE À L'INQUIÉTUDE CROISSANTE DES
DÉRIVES DE L'INTELLIGENCE ARTIFICIELLE
La nécessité d'une réglementation de
l'intelligence artificielle est un sujet qui, depuis une dizaine
d'années, ne cesse de s'accroître. En effet, nombre d'articles
prolifèrent, dans le but de prévenir des dérives de cette
dernière, ou peut être d'effrayer le grand public. L'industrie
cinématographique s'est notamment emparée du sujet afin de
démontrer les différents effets néfastes que ces
innovations pourraient avoir sur l'humanité, tels que dans la
série «Black Mirror», ou les films «Ex Machina» ou
«Blade Runner 2049».
Mais qu'en est-il vraiment? Quels sont les réels enjeux
se trouvant derrière cette nécessaire réglementation ?
Outre l'objectif d'éviter une de ses théories
post-apocalyptiques, cette réglementation s'est avérée
urgente d'abord face aux dérives des entreprises et des géants du
numérique (I), mais aussi face aux enjeux éthiques et
humanitaires (II).
I. Une réglementation face aux dérives des
entreprises et des géants du numérique
Cette réglementation s'est donc d'abord
avérée indispensable face aux dérives des entreprises et
des géants du numérique, dénoncés même par
des magnats de l'intelligence artificielle (A) et mettant en avant des lignes
de conduites indispensables pour ces entreprises (B).
A - Des dérives dénoncées par les
magnats de l'intelligence artificielle mêmes
L'essor des différentes formes d'intelligences
artificielles dans le domaine des entreprises et des géants du
numérique a permis l'identification progressive des dérives qui y
étaient liées (1), et a conduit des personnalités telles
que E. MUSK ou encore S.HAWKING à signer la Beneficial AI (2),
établissant ainsi les principes d'Asilomar.
1 - L'identification progressive des dérives
liées à l'intelligence artificielle
S'il est vrai que l'intelligence artificielle est source de
progrès, et présente dans nos quotidiens sans même que l'on
s'en rende compte, les innovations qui y sont liées ont pu rappeler
qu'elle est aussi source de failles, notamment si elle est utilisée
à mauvais escient.
9
Les conséquences ont ainsi pu être
observées dans plusieurs cas au cours de la dernière
décennie.
En 2016, l'entreprise Microsoft avait lancé le robot
Tay qui avait la capacité de pouvoir converser sur les réseaux
sociaux tels que Twitter ou Snapchat en se basant sur des données
accessibles publiquement pour répondre aux questions qu'il recevait,
mais aussi sur des phrases déjà toutes faites,
réalisées par des humoristes.
Mais, au fil des utilisations, il s'est avéré
que lorsqu'on lançait le robot sur des sujets sensibles, les
réponses n'étaient pas toujours adaptées.
Il a finalement été mis hors circuit
après avoir eu des propos négationnistes au sujet de
l'Holocaust.
En 2014, l'entreprise Amazon avait mis en place un algorithme
qui lui permettrait de recruter ses employés en choisissant les
meilleurs parmi les candidats. Il pouvait ainsi examiner le curriculum vitae
des postulants et attribuer des notes de zéro à cinq
étoiles.
Cependant, il est ressorti que l'algorithme avait tendance
à préférer automatiquement les profils masculins aux
profils féminins, forçant le géant du e-commerce à
abandonner ce projet pour manque de garantie d'impartialité.
La mise en place du Correctional Offender Management Profiling
for Alternative Sanctions aux États-Unis, ou Logiciel COMPAS a aussi
été à l'origine de polémiques.
En effet, s'il a été créé dans le
but d'évaluer le risque de récidive chez les criminels,
influençant les cautions, les conditions de probation ou la durée
des peines en s'appuyant sur des études académiques en
criminologie et sociologie, ainsi que sur différents modèles
statistiques, en mai 2016, une enquête de l'ONG ProPublica a
révélé que ce logiciel aurait un apriori négatif
sur la communauté noire.
S'il n'a pas été abandonné à ce
jour, la Cour suprême du Wisconsin a néanmoins appelé
à l'utiliser avec grande prudence.
L'avènement du Deep Fake, technique consistant à
modifier des vidéos réalisées par une synthèse
d'images pour répandre des fake news, est lui aussi venu affirmer un peu
plus les craintes qui se sont soulevées autour des intelligences
artificielles.
Ainsi, le groupe Facebook avait même fait appel à
sa communauté afin de trouver des solutions qui permettraient de contrer
les effets néfastes de cette technique. En effet, celle-ci
10
pourrait conduire à usurper l'apparence de chefs
d'État ou politiciens pour leur donner des propos qui pourraient mener
à des incidents diplomatiques ou des conflits internationaux.
Mais, si les ingérences de ces techniques ont
contribué à la montée de la vision négative
qu'à le grand public des intelligences artificielles, c'est
l'ingérence dans la vie privée qui à tendance à
inquiéter le plus.
En effet, l'exemple des caméras dotées d'un
système de reconnaissance faciale présentes dans les rues de
Singapour, ou en Chine, afin d'identifier les populations, et d'attribuer
à chacun un nombre de points en fonction des «infractions»
commises, conditionnant l'accès à certains logements,
métiers, ou mêmes endroits, est la parfaite édification des
craintes entourant ces techniques.
Ces exemples sont ainsi les raisons types pour lesquelles
certains magnats de la technologie et de la science se sont accordés
pour dire qu'il devenait indispensable de dénoncer ces pratiques et
dérives.
2. Signature de la Beneficial AI et principes
d'Asilomar
Le 5 janvier 2017 s'est ouverte en Californie l'Asilomar
Conference on Beneficial AI, organisée par le Future of Life Institute,
jusqu'au 8 janvier de la même année.
Cette conférence, qui a réuni des dirigeants du
monde universitaire et de l'industrie, avait ainsi pour but de façonner
les contours de l'intelligence artificielle par la communauté de
l'intelligence artificielle.
En effet, dans un contexte où ces techniques
soulèvent de plus en plus d'intérêts positifs comme
négatifs, cette conférence tenait à rappeler que ceux qui
jouent un rôle dans leur développement ont la
responsabilité et la possibilité de la façonner au
mieux.
Stephen HAWKING, qui était un brillant physicien
théoricien et cosmologiste britannique disant que «Parvenir
à créer des intelligences artificielles serait le plus grand
accomplissement de l'histoire humaine. Malheureusement, il pourrait aussi
s'agir du dernier, à moins que nous apprenions à éviter
les risques.», ainsi que Elon MUSK, ingénieur-chercheur et
directeur général de Tesla et SpaceX ont ainsi participés
et signés la lettre ouverte issue de cette conférence, parmis les
2500 personnes dont plus de la moitié sont des chercheurs, à y
avoir participé.
11
Cette conférence est à l'origine de la liste
d'Alisomar qui vient donner vingt-trois principes, qui selon les personnes
ayant aidé à les développer, permet d'éviter les
dérives de l'intelligence artificielle dans son processus de
création et d'innovation, aussi appelée «guide de
référence pour un développement éthique de
l'intelligence artificielle».
Ces principes tendent à s'inscrire dans la
lignée des trois lois de la robotique d'Asimov des années 1940,
créées telles que «Un robot ne peut porter atteinte à
un être humain, ni, en restant passif, permettre qu'un être humain
soit exposé au danger ; Un robot doit obéir aux ordres qui lui
sont donnés par un être humain, sauf si de tels ordres entrent en
conflit avec la première loi ; Un robot doit protéger son
existence en tant que cette protection n'entre pas en conflit avec la
première ou la deuxième loi».
Ces principes d'Asilomar se présentent sous trois
catégories : ceux concernant le développement, ceux concernant
l'éthique et les valeurs, et ceux concernant les risques à long
terme.
Ils concernent ainsi les objectifs des recherches, les
investissements, les relations entre scientifiques et législateurs,
l'esprit de la recherche, la nécessité d'éviter les
courses, la sécurité, la transparence en cas de problème,
la transparence judiciaire, la responsabilité, la concordance des
valeurs, les valeurs humaines, les données personnelles, la
liberté et la vie privée, les bénéfices collectifs,
la prospérité partagée, le contrôle humain,
l'anti-renversement, la course aux IA d'armement, l'avertissement sur les
capacités, l'importance, les risques, l'auto-développement
infini, et le bien commun.
Cette conférence a, plus que l'élaboration de
ces principes, permis de mettre en avant le caractère indispensable de
la définition de lignes de conduites à adopter dans tout ce qui
implique l'intelligence artificielle.
B - La définition de lignes de conduites
indispensables
La définition de ces lignes de conduites indispensables
pour les entreprises et les géants du numérique s'est d'abord
faite par l'édification de «bons comportements» (1), dans la
nécessité de donner un cadre pour les usagers tant privés
que publics (2).
12
1 - L'édification de «bons
comportements»
Ces «bons comportements» sont donc des lignes de
conduites que les géants du numériques et les entreprises
spécialisées dans les intelligences artificielles, ou qui
exercent le gros de leur activité grâce à des techniques
d'intelligence artificielle sont tenus de suivre. Les réglementations
entourant les intelligences artificielles sont tellement récentes qu'il
a fallu identifier au plus vite des comportements à adopter,
fondés sur la coutume, le droit existant ou encore sur des
conférences telles que celle d'Asilomar.
Par exemple, l'Organisation de coopération et de
développement économiques (OCDE) a adopté une liste de
principes attenants aux intelligences artificielles en 2019. Ainsi, elle
demande aux entreprises de centrer leur utilisation sur des valeurs humaines,
et la nécessité de robustesse, de sécurité et de
sûreté.
La Déclaration de Montréal de 2018 est elle
aussi venue adopter une liste de dix comportements ou principes en ce qui
concerne l'intelligence artificielle. Ainsi, on y retrouve le principe de
respect de l'autonomie qui tend à demander aux entreprises de ne pas
mettre en oeuvre des mécanismes de surveillance, d'évaluation ou
d'incitation visant à instaurer un mode de vie.
De même, ce texte prône le principe de
bien-être, de protection de l'intimité et de la vie privée,
de solidarité, de participation démocratique, d'inclusion de la
diversité, de responsabilité, ou encore de développement
soutenable.
Mais, ces textes n'ayant malheureusement qu'une valeur
déclaratoire, les entreprises n'ont donc pas d'obligation de suivre ces
principes au pied de la lettre.
Ainsi, la tête de file des réseaux sociaux,
Facebook, se retrouve aujourd'hui encore contraint de payer une amende pour
utilisation abusive des données personnelles par le biais du
développement d'une intelligence artificielle qui visait à
reconnaître les visages et mettre des descriptions de manière
automatique.
Cependant, ces techniques étant très
récentes et n'ayant de cesse de se développer, les
législateurs ont parfois du mal à suivre et à s'aligner
avec ces innovations, forçant à établir un cadre pour les
usagers.
13
2 - La nécessité d'un cadre pour les
usagers
Il faut savoir au préalable que les IA sont
présentes dans nos quotidiens sans qu'on ne puisse s'en rendre
compte.
Ainsi, elles interviennent par exemple dans nos boîtes
mail en filtrant les «spams» et en les redirigeant automatiquement
vers les mails indésirables. On les retrouve aussi lorsque des messages
courts et cérémonieux nous sont proposés, permettant de
répondre à des mails de manière très rapide.
Comme il a été dit précédemment,
elles sont aussi présentes dans notre utilisation des réseaux
sociaux. En effet, c'est elles qui influencent les informations qui sont
présentées, comme sur Facebook où elles trient les
publications des contacts et des pages suivies, en mettant ensuite en avant
celles qu'elles estiment les plus «importantes».
Elles sont aussi retrouvées afin de détecter des
propos à teneur violente, injurieuse, raciste ou encore des
pensées suicidaires.
Les intelligences artificielles nous permettent aussi de
faciliter notre accès aux moteurs de recherches. C'est elles qui trient
les informations afin de faire remonter celles qui sont
considérées comme les plus pertinentes aux vues de la recherche
qui est faite. Elles vont ainsi parcourir les sites pour les indexer.
Il existe notamment une avancée notable en termes
d'intelligence artificielle en ce qui concerne la traduction. Outre le fait que
c'est grâce à elles que des logiciels tels que Google Traduction
fonctionnent, elles permettent à présent de traduire
automatiquement tous les textes présents sur les plateformes telles que
Instagram ou Facebook grâce aux techniques de deep learning comme avec la
Neural Machine Translation System.
Elles sont aussi utiles dans nos trajets du quotidien. En
effet, elles interviennent grandement dans les applications de navigation tels
que Waze ou Google Maps en déterminant, par exemple, le trajet le plus
court, l'heure d'arrivée, ou encore en prenant en compte le trafic en
temps réel et modifiant automatiquement la trajectoire.
Toutes ces utilisations quotidiennes des intelligences
artificielles ont démontré que le manque de force contraignante
des textes, tels que la Déclaration de Montréal, pour les
entreprises
14
concernées engendraient la nécessité de
l'adoption et l'édification d'un cadre d'utilisation des intelligences
artificielles pour les usagers directement.
Les entreprises ont petit à petit été
soumises à des règles de transparence envers leurs usagers, en
leur faisant adhérer à des consignes d'utilisation ou de modelage
du traitement des données personnelles.
II. Une réglementation face aux enjeux
éthiques et humanitaires
Le développement technologique lié à
l'intelligence artificielle pose nécessairement de sérieuses
questions autour de la problématique éthique (a), malgré
qu'apparaissent de plus en plus des campagnes de sensibilisations
sérieuses autour dudit conflit (b).
A - D'une problématique liée à
l'éthique
1 - Des lacunes éthiques substantielle à
l'IA
A l'aide de l'intelligence artificielle, la
créativité elle-même peut être
déléguée et parfaitement appliquée à ce
nouvel outil de technologie. En somme, l'IA en tant que super-logiciel
autodidacte permet la réalisation de tâches complexes à la
place des humains. Néanmoins, il n'est aujourd'hui pas un mystère
que pour de nombreux chercheurs et scientifiques, la question d'éthique
en la matière relève d'une importance quasi capitale.
La recherche d'éthique en matière d'IA est
importante et ce, pour deux raisons. Premièrement quand l'intelligence
artificielle raisonne de manière trop simpliste: c'est le cas par
exemple avec une voiture autonome, qui décrypte et analyse ce qui se
déroule sur la route, peut-elle réellement décrypter toute
la complexité du moment présent dans le cas d'un trafic abondant
?
En 2017, une équipe de chercheurs américains
avait posé sur des panneaux « STOP » des stickers noirs et
blancs à la suite de quoi, 84% des voitures autonomes testées
avaient pris les STOPS comme des panneaux de limitation à 50km/h.
15
Ces exemples permettent de développer cette question de
l'éthique en se questionnant sur la réelle capacité des IA
à gérer des situations parfois imprévisibles avec des
piétons par exemple, ou la question de choix moraux dans le cas
d'accident imminent.
Ainsi l'imprévisibilité constitue une lacune
majeure de l'IA mais n'est pas la seule dès lors qu'une intelligence
artificielle qui apprend vite et obéit parfaitement peut poser tout de
même d'autres soucis. C'est le cas par exemple de l'IA
créée par Microsoft « Tay » qui de par ses
interactions avec les humains sur les réseaux sociaux devait progresser
et devenir « humaine ». Pourtant, cette dernière a
dû être désactivée d'urgence dès lors qu'elle
reçut des connaissances controversées et se mit à tweeter
des propos antisémites.
Au-delà même de toutes les utilisations douteuses
de cette technologie, c'est au coeur même du fonctionnement de
l'intelligence artificielle que se posent certaines limites éthiques. En
effet, une IA est aussi intelligente que l'ensemble des données
emmagasinée pour apprendre. A titre d'exemple, Amazon avait
lancée un logiciel de recrutement automatisé qui s'est
soldé par un échec dès lors que la base de données
s'est trouvée biaisée et totalement discriminante, favorisant et
automatisant par extension la discrimination à l'embauche.
En somme, la problématique tourne autour de cette
opacité de réflexion à l'intérieur de l'IA, la
« boîte noire », l'idée serait donc de
créer des technologies plus lisibles et traçables pour permettre
de démêler les bugs ou les résultats discriminants. Une
science existe déjà en la matière, il s'agit de la
« Rétro-ingénierie ».
Une deuxième solution serait d'immiscer davantage de
sociologues, anthropologues ou de philosophes sur des projets scientifiques et
former les ingénieurs et mathématiciens aux questions
éthiques directement à l'université.
2 - Une sensibilisation progressive à la question
éthique
Cette sensibilisation aux questions éthiques à
débutée peu à peu en 2019, avec tout d'abord les
universités qui se sont mises à faire graviter cette
problématique autour des projets liés à l'intelligence
artificielle. D'un oeil plus juridique, la Commission Européenne publie
régulièrement autour de ces questions éthiques et à
titre illustratif, elle publie en avril 2019, un communiqué
établissant les lignes directrices sur l'éthique dans
l'intelligence artificielle élaborées par un groupe d'experts
indépendants en la matière. Cette publication
16
avait pour objectif de prévenir, signaler, sensibiliser
et contribuer activement aux discussions réglementaires sur le sujet.
Il est question notamment d'inscrire au sein de la charte des
droits fondamentaux de l'UE de grands principes liés à la
protection des données et à la transparence de ces derniers.
Concernant plus précisément les IA, les lignes directives
viennent propose les lignes directrices viennent proposer sept principes pour
la mise en oeuvre d'un IA digne de confiance : « Ces principes ont
trait (i) au facteur humain et contrôle humain, (ii) à la
robustesse et la sécurité, (iii) au respect de la vie
privée et à la gouvernance des données, (iv) à la
transparence, (v) à la diversité, la non-discrimination et
l'équité, (vi) au bien-être sociétal et
environnemental et enfin (vii) à la
responsabilisation».
En réalité, l'ensemble de ces initiatives
démontrent une volonté claire des institutions publiques et des
établissements de recherches également, de se positionner sur le
sujet de l'IA. Elles démontrent également un encouragement clair
émanant d'une volonté commune d'acteurs d'échanger, de
s'accompagner concernant le cadre qui devrait accompagner le
développement des IA.
Au regard de ce besoin impératif de réglementer
l'intelligence artificielle pour des questions éthiques sur le plan
civil, il convient de également de prendre en compte des questions
d'ordres morales plurielles s'incarnant en la nécessité
d'encadrer les robots tueurs qui dans un contexte militaires correspondent
aisément à ce besoin impérieux d'un cadre éthique
propre aux Intelligences artificielles.
B - L'exemple des SALA : De nécessaires
fondations d'un « droit moral encadré » de
tuer
En droit international, seul l'Homme a le « droit
moral encadré » de tuer, pourtant, apparu à partir de
2003 durant la deuxième guerre d'Irak, la robotique militaire servait
initialement dans un but de déminage dans un contexte où les
menaces d'engins explosif improvisés était telle que mettre en
danger la vie des hommes à cette période était
compliqué. A ce jour, toujours essentiel pour le déminage, ces
derniers tendent à s'acheminer vers d'autres utilisations notamment dans
le domaine de la surveillance car forcé de constater que
17
le robot à l'immense avantage de déporter les
sens humains que sont la vue, l'ouïe, l'odorat, le toucher.
L'évolution Système d'armes létales
autonome (SALA) a connu d'importantes évolutions institutionnelles ces
dernières années. Portée à l'ordre du jour en 2007,
les SALA sont pour la première fois pointé du doigt par un
docteur en robotique du nom de Noel Sharkey, qui dans une tribune du journal
The Guardian va lancer une alerte sur le développement rapide de ces
armes autonomes et a appelé à un encadrement juridique
international très urgent. En 2012, la question a dépassé
le cercle des experts, puisque l'affaire est médiatisée par la
publication d'un rapport conjoint de Human Right Watch et de
l'université d'Harvard ; en parallèle une coalition d'ONG se
forme avec Stop Killers Robot. En 2013, le débat a
pénétré les enceintes du systèmes des nations unies
avec un rapport dans le cadre du Conseil des Droits de l'Homme sur les
exécutions extrajudiciaires mais également au sein du Conseil
Consultatif des nations unies pour les questions de désarmements qui a
demandé que la questions soit examiné dans le cadre d'un forum
existant, celui de la Convention de 1980 relatif à certaines armes
classiques.
En ce qui concerne les Etats membres, il y a un réel
manque de consensus puisque ces derniers sont partagés entre ceux qui
souhaitent une interdiction préventive, et ceux réclament un
moratoire concernant les recherches et l'utilisations de ces SALA, d'autres qui
prônent une réglementation non contraignante qui pourrait
évoluer vers des normes obligatoires et certains à l'instar de la
France considère que ces systèmes sont une évolution des
moyens de combat tout à fait naturel et qui doit être
analysé dans le cadre de la réglementation existante.
En somme, l'appétence pour ces « robots
killers » et ces drones disposant d'une autonomie propre semble
inéluctable bien que déjà présente de nos jours.
Une censure de ces derniers impossible dès lors qu'une interdiction
portant sur des technologies à double usage comme les robots risquerait
de porter préjudice à la recherche civile. Les questions
juridiques relatives à ce sujet sont d'une pluralité et
relèvent aussi bien du droit du recours à la force, que du droit
des armes, en passant par le Droit international humanitaire etc...
L'idée semble ici de se tourner vers l'encadrement
juridique de ces intelligences artificielles que ce soit dans l'existence ainsi
que dans l'usage. Il convient de se restreindre aux discussions en cours
à Genève au sujet de l'autonomie robotique et des
conséquences que
18
cela pourrait avoir et incombe de traiter
particulièrement de la définition, du contrôle humain, de
l'examen préalable et des questions relatives à la
responsabilité. Dès lors, il convient de constater qu'à ce
jour le droit international/humanitaire doit s'adapter et faire face à
l'avènement des SALA, de même qu'il doit réguler sa
juridiction notamment en matière de responsabilité.
1 - Un Droit International à l'épreuve de
l'armement robotique
Régir de nouvelles règles juridiques pour la
robotique incombe d'une nécessité d'identifier ces derniers au
sein des textes internationaux (a) compte tenu le profond vide juridique dans
ce domaine (b)
a - De sérieuses lacunes en matière
d'identification juridique des drones militaires
Le droit international prône une souveraineté
propre des Etats, plus encore, est mis à l'honneur au sein des
organisations internationales le non-recours à la force et/ou à
la menace à l'égard d'un Etat pour des raisons d'ordres
politiques, territoriales... (Article 2.4 de la Charte des Nations
Unis) Ainsi, l'usage de drones armés sur un territoire
étranger sera motivé seulement s'il respecte les règles
relatives à la légalité du recours à la force, aux
règles relatives à la conduites des opérations militaires
et aux droits de l'Homme.
Pour autant, l'utilisation de drones armées dans un
territoire étranger ne viole pas nécessairement lesdits principes
notamment si l'Etat faisant usage de ces instruments de guerre a reçu
l'approbation légitime (sans pressions, ni influences) de l'Etat
territorial. Ainsi, la présence militaire étrangère et
l'utilisation de la force peut être légitime.
De même, le cas de la légitime défense
contenu à l'article 51 de la Charte susmentionnée,
peut justifier l'utilisation de drones armés. Enfin, une
autorisation expresse du Conseil de sécurité des Nations unies
peut justifier l'intervention d'un autre Etat et l'utilisation desdites
armes.
Sur le plan du cadre juridique international, il est possible
de retenir certains textes à l'instar du traité sur le
commerce des armes entrée en vigueur le 24 décembre 2014
prévoyant la non-exportation d'armes vers des pays susceptibles
de menacer la paix et/ou vers des pays
19
susceptibles de commettre des crimes envers leur population
ainsi que la lutte contre les détournements et trafic d'armes ; mais
également l'arrangement de Wassenaar, qui est un accord concernant les
produits et les bien ou les technologies à double usage, d'où le
fait qu'il est possible d'y retrouver les drones, les robots qui vont
être censés aider au plan civil mais également avoir des
usages militaires.
C'est en somme, la suite du COCOM issu de la guerre froide
fonctionnant sur une liste de produit interdit à exportation et un
système de liste de pays (noir, gris) dans lequel il faut
interdire/limiter les exportations.
En réalité, le débat relatif aux drones
et aux robots tueurs posent de nombreuses questions. Ainsi, à titre
d'exemple a été récemment pointé du doigt, au sein
du conflit Arab saoudite et Yémen, la France qui continuait à
alimenter en arme l'Arabie saoudite car cela rapportait beaucoup d'argent
malgré le fait qu'il ait à la fois beaucoup de questions
juridiques et éthiques dans ce conflit.
Il semble ainsi que le commerce prenne plus de place que
certaines conditions éthiques et humaines pour les industries
d'armement. C'est là, l'application de la fameuse expression «
L'argent est le nerf de la Guerre » qu'il convient d'occulter par de
nouveaux encadrements juridiques strictes et une rigoureuse
réglementation quant à l'utilisation/possession de drones et de
robots tueurs.
Le problème étant qu'il y a, au sein du droit
international une réelle absence de consensus sur le champ d'application
d'un éventuel droit à venir pour ces robots, du fait des
interrogations sur la gamme des options ouvertes en termes d'encadrement
juridique. L'opportunité d'une réglementation, son contenu
dépend de la conformité de ces systèmes, au droit
international humanitaire et tous les Etats s'accordent pour considérer
que ledit droit est pleinement applicable aux systèmes d'armements
autonomes.
b - La nécessité d'une régulation juridique
des drones tueurs autonomes
Au sein du droit international humanitaire, l'utilisation des
drones n'est nullement mentionnée mais reste pour autant contrainte par
les règles régies par ledit droit. Ainsi, dans ce cadre l'usage
de drones doit être rigoureusement réfléchi par les parties
qui doivent strictement distinguer le caractère civil et militaire que
ce soit d'un point de vue matériel ou
20
humain. En effet, doit subsister dans le cadre d'une
utilisation de drones armés un conflit armé. En outre, un
arrêt Tadic en date de 1995, rendu le tribunal pénal international
est venu définir la notion de « conflit armé
». Dans le cas d'une utilisation autre qu'un conflit armé,
sera appliquée la législation nationale en vigueur et le droit
international relatif aux droits de l'homme.
En réalité, le flou juridique à
l'égard de ces instruments laisse place à des désaccords
quant à l'utilisation légitime ou non de drones. A titre
d'exemple, de nombreuses questions restent en suspens quant à la
possibilité d'utiliser ce type d'arme sur un individu ayant
participé à un conflit armé et s'étant
déplacé sur un territoire non belligérant. (Quel
droit appliquer ?).
De même, lorsqu'il s'agit de disséquer les
règles relatives aux nouveaux armements au sein du Droit international
Humanitaire, ces lacunes juridiques sont tout autant présentes. Ainsi
l'article 36 du protocole 1 (Convention de Genève),
impose à chaque Etats parties, un examen préalable d'une arme
nouvelle au droit international humanitaire pour déterminer si l'emploi
serait légal ou non en certaines circonstances ou en toutes
circonstances. Néanmoins, ledit même article ne prévoit pas
comment cet examen doit être conduit et en la matière il y a de
très nombreuses divergences entre les pratiques étatiques. Le
Comité international de la Croix-Rouge à partir de 2013, a
demandé instamment aux Etats d'examiner les questions que
soulèvent l'emploi d'armes létales autonomes avant qu'elles
soient mises au point ou employées. Autrement dit, tout Etat qui met au
point ou acquiert ces systèmes doit s'assurer qu'ils peuvent être
utilisés en conformité avec les règles du droit
humanitaire (interdiction aux souffrances inutiles, principe de distinction, de
précaution, de proportionnalité...).
A ce sujet, des débats très vifs, portent
actuellement sur la possibilité d'encoder dans un programme des
règles relatives à la participation directes aux
hostilités, ce qui poserait en l'occurrence un sérieux
problème notamment en matière de responsabilité dès
lors d'une accession à l'autonomie par ces « robots
killers ».
2 - L'autonomie des robots comme bouleversement en
matière de responsabilité
Ce n'est pas à l'outil de dicter sa vision à
l'artisan. Dès lors, il convient de s'interroger quant à la
limite d'autonomie offerte au robot (a) afin d'en délimiter
réellement l'existence et l'utilisation (b).
21
a - Une autonomie nécessairement jaugée
L'intelligence artificielle est une grande révolution
du XXIème siècle en progression et par ailleurs immuable qui sera
portée par le monde civil pour des usages civils. En effet, beaucoup de
technologie militaire ont à ce jour une utilité duale
(civil-militaire). Le problème se pose de savoir si ladite intelligence
artificielle doit disposer d'une décision de tir dans le cadre
militaire.
Il y a certains cas de figures où potentiellement, la
question peut se poser notamment avec l'exemple du robot militaire «
Samsung SGR-A1 » de la Corée du Sud conçu pour
remplacer les soldats humain et l'armée de la Corée du Sud dans
la zone coréenne démilitarisée à la
frontière avec la Corée du Nord. Ledit robot fait ainsi face
à un no man's land, une zone d'exclusion interdite aux civils. Dans le
cas d'une éventuelle invasion et en l'absence d'autres
possibilités, le militaire responsable de la décision de tir
pourrait légitimement activer l'autonomie du robot dans ce cadre-ci.
Parmi les Etats en haute pointe dans ce domaine se trouvent :
les Etats-Unis avec la DARPA (Agence pour les projets de recherche
avancée de défense) ; les Israéliens et la Russie qui en
2015 testent ses robots en Syrie sur une base rebelle syrienne.
Il existe une campagne internationale de contestations
créée par des ONG à l'égard de ces «
robots killers » (Stop Killer Robot) qui soumet
à l'ONU une demande visant à interdire ce type d'arme. Donnant
lieu à beaucoup de discussions à Genève, le but
étant de ne pas laisser le contrôle aux machines d'une
décision autonome létale.
Le problème posé par ces « robots
tueurs » relèvent d'une éventualité dans
laquelle ces derniers disposent d'une autonomie de décision.
Un rapport du 27 Janvier 2017 rendu par le Parlement
Européen concernant les questions relatives à la
responsabilité civiles en matière d'action dommageable d'un robot
recommande à la commission : « La création d'une
personnalité juridique spécifique pour les robots autonomes les
plus sophistiqués qui devront être considéré comme
des personnes
22
électroniques dotés de droit et de devoir
bien précis y compris celui de réparer tout dommage causé
à un tier. »
Dudit rapport, il en convient de constater que l'on est bien
loin de la déclaration de St Pétersbourg qui sans
difficulté majeure en 1868 avait fixé les limites techniques ou
les nécessités de la guerre doivent s'arrêter devant les
exigences de l'humanité.
b - D'une stricte nécessité d'encadrer l'existence
et l'utilisation d'armes autonomes
Initialement, l'utilisation d'une machine nécessite
d'être téléopéré par un individu disposant de
la décision de tir. Ainsi, est écartée la décision
du tir confiée à l'autonomie du robot. En outre, il s'agit
là de reconnaître une responsabilité humaine fondamentale
émanant de la décision première d'un Homme de
décider du droit de la machine à tuer.
Pour autant, ne pas nier l'existence future de robots
autonomes échappant au contrôle humain ne semble pas absurde. A
titre d'exemple, la question a été très récemment
posée en France où la nécessité pour cette
dernière de réglementer à l'échelle internationale
son droit robotique a été soumis dans la continuité des
discussions dans le cadre de l'ONU. En l'occurrence, est
préconisé à cette dernière de poursuivre son
financement à l'égard des recherches relatives à
l'autonomie des systèmes pour éviter un déclassement
international, néanmoins elle doit adjoindre à cela un
encadrement juridique propre à ses valeurs. ("Robots tueurs"
dans l'armée : "La responsabilité humaine, la possibilité
d'avoir la dernière main sur la machine, est absolument fondamentale" ;
France Info)
Ainsi, la question se pose de savoir si ces robots sur la base
de modèles mathématiques avec le droit de vie ou de mort vont
remettre en cause le droit de la guerre et plus encore les principes du droit
international humanitaire. Pour l'ONU, il s'agit aujourd'hui de trouver une
définition précise et une régulation des armes autonomes
car confier à des robots un pouvoir de décision dans des
situations de vie ou de mort revient à affranchir une ligne morale
fondamentale. L'intérêt est donc ici pour l'ONU de définir
un cadre réglementaire notamment en cas d'erreur d'appréciation
d'un robot ou d'un humain à distance. A l'issue des premières
réunions, la perspective d'un traité régissant leurs
utilisations restait lointaine.
23
En somme, l'enjeu principal est de définir ce qu'est
réellement une arme autonome et de donner des limites à son
utilisation. Ceci, d'un point de vue civil, peut être mis en
parallèle et se rapproche du débat autour de la
responsabilité des voitures automatisées en cas d'accident.
24
PARTIE II : L'ÉTAT ACTUEL DE CETTE
RÉGLEMENTATION : ENTRE
AMBITIONS ET CARENCES
Le 21 avril 2021, la Commission a proposé un nouveau
Règlement permettant d'améliorer le fonctionnement du
marché intérieur de l'Union européenne concernant
l'intelligence artificielle. Elle souhaite le faire adopter dans un cadre
juridique uniforme, voulant faire de l'Europe le pôle mondial d'une
intelligence artificielle digne de confiance.
I- Une réglementation aux dispositions
ambitieuses
La proposition de nouvelle réglementation sur
l'Intelligence Artificielle présentée le 21 avril 2021 permet,
à travers un texte clair et relativement précis, de favoriser le
progrès (A), tout en garantissant la sécurité des citoyens
(B).
A- La favorisation du progrès
Ces dernières années, l'Intelligence
Artificielle a connu un essor considérable. Ce développement a
donc nécessité l'émergence d'une réglementation de
l'Intelligence Artificielle.
Une proposition de nouvelle réglementation sur
l'Intelligence Artificielle a été présentée le 21
avril 2021 par la Commission européenne. L' « Artificial
Intelligence Act» est le résultat de plusieurs études et
d'analyses qui ont débuté en 2018 permettant de démontrer
que la législation était lacunaire. La Commission souhaite
dès lors réaffirmer l'importance stratégique de
l'Intelligence Artificielle pour l'Europe. De plus, elle précise qu'il
est aujourd'hui indispensable d'encadrer son usage dans un grand nombre de
secteurs. Ce projet de réglementation sur l'Intelligence Artificielle
ferait de l'Union européenne un acteur mondial de premier plan dans le
développement d'une IA fiable garantissant, qui plus est, une grande
sécurité.
Un des principaux buts de la Commission européenne est
d'améliorer le quotidien de tous les européens en favorisant le
progrès dans l'intelligence artificielle. La mise en place de cet
aménagement passe par l'encouragement de l'excellence dans ce domaine
(1), la formation de nouvelles compétences aux technologies
concernées (2) et des stratégies de collecte d'informations de
données (3).
25
1- L'encouragement de l'excellence dans le domaine de
l'Intelligence Artificielle
La Commission européenne souhaite renforcer
l'excellence en même temps que la place de l'Europe dans le domaine de
l'Intelligence Artificielle. Un des principaux buts de ce règlement est
de préserver l'avantage européen sur les marchés mondiaux.
Pour cela, la Commission européenne souhaite appuyer l'innovation dans
les domaines du développement et de l'utilisation des technologies de
l'Intelligence Artificielle dans tous les États membres.
En 2018, un plan coordonné sur l'Intelligence
Artificielle a vu le jour et a permis de créer un environnement
dynamique de stratégies nationales et de financements de l'Union
européenne pour les partenariats public-privé et les
réseaux de recherche et innovation. Pour autant, il est aujourd'hui
nécessaire de s'intéresser au plan coordonné publié
en avril 2021. Ce plan coordonné définit une nouvelle
stratégie proposant des actions concrètes et fonctionne avec la
proposition de règlement sur l'IA. Ce dernier vise les
différentes actions qui doivent être mises en oeuvre par les
États membres.
Il est financé par des programmes comme le fonds pour
une Europe numérique ou Horizon Europe. Ce fonds permet
d'accélérer les investissements dans les technologies
d'Intelligence Artificielle pour relancer l'activité économique
et sociale après la crise sanitaire qui a touché le continent. Il
permet également d'interagir sur les stratégies nationales et les
programmes d'Intelligence Artificielle. Enfin, il vise à aligner la
politique d'Intelligence Artificielle en éliminant la fragmentation et
en relevant les défis qui se posent au niveau mondial.
En parallèle, il est alors nécessaire de mettre
en place des conditions adéquates pour le développement de l'IA
dans l'Union européenne. L'Union européenne doit alors devenir le
lieu privilégié où l'excellence se développe mais
il faut également un renforcement du leadership stratégique. Pour
cela, l'Union européenne doit disposer d'un écosystème
d'excellence ainsi que d'une recherche fondamentale et des capacités
permettant de mettre sur le marché les innovations du « lab ».
A ce niveau, la mise en place d'un partenariat public-privé peut
s'avérer bénéfique. Il faut également constituer et
mobiliser des capacités de recherche et d'innovation. L'appui et la
collaboration des PME et des administrations publiques des installations
d'expérimentation constitue un atout majeur.
26
Le commissaire chargé du marché
intérieur, Thierry Breton s'est exprimé en ces
termes:
«L'IA est un moyen, et non une fin. Elle existe
depuis plusieurs décennies, mais ses capacités se sont
considérablement développées avec l'accroissement de la
puissance de calcul. Cela offre un énorme potentiel dans des secteurs
aussi divers que la santé, les transports, l'énergie,
l'agriculture, le tourisme ou la cybersécurité. Cela comporte
aussi un certain nombre de risques. Les propositions présentées
aujourd'hui visent à conforter la position de l'Europe en tant que
pôle mondial d'excellence dans le domaine de l'IA, du laboratoire au
marché, à faire en sorte que, en Europe, l'IA respecte nos
valeurs et nos règles et à exploiter son potentiel à des
fins industrielles.»
Pour pouvoir encourager l'excellence dans le domaine de
l'Intelligence Artificielle, il est nécessaire de former de nouvelles
compétences.
2- La formation de nouvelles compétences dans les
technologies de l'Intelligence
Artificielle
L'Intelligence Artificielle se développe rapidement et
engendre de nombreux changements dans la société. La proposition
de règlement sur l'Intelligence Artificielle qui a été
présentée le 21 avril 2021 développe les changements et
les nouvelles compétences que l'IA va entraîner. De nombreuses
évolutions ont lieu en améliorant les soins de santé.
Effectivement, la possibilité d'avoir des précisions accrues des
diagnostics ou une meilleure prévention des maladies fait partie des
nouvelles compétences mises en place par ce texte relativement
ambitieux. De plus, l'IA va permettre de rendre l'agriculture plus efficiente
en s'adaptant au changement climatique et en augmentant l'efficacité des
systèmes de production par la maintenance prédictive.
Effectivement, pour renforcer la position de l'Union
européenne à l'échelle mondiale, le plan coordonné
sur l'intelligence artificielle 2021 propose des actions conjointes dans sept
secteurs. Ces secteurs sont les suivants : l'environnement, la santé,
une stratégie pour la robotique dans le monde de l'IA, le secteur
public, les transports, l'application de la loi, la migration et l'asile, ainsi
que l'agriculture.
Le Livre Blanc sur l'IA portant sur une approche
européenne axée sur l'excellence et la confiance, précise
que pour construire un écosystème d'excellence capable de
soutenir le développement de l'Intelligence Artificielle dans l'ensemble
de l'économie et de
27
l'administration publique de l'Union européenne, il est
nécessaire de renforcer l'action à plusieurs niveaux, dont celui
des compétences. Ce livre blanc définit des options
stratégiques poursuivant le double objectif de promouvoir l'adoption de
l'IA et de tenir compte des risques associés à certaines
utilisations de cette technologie.
Une action doit en effet être nécessairement
portée au niveau des compétences en ce qui concerne
l'Intelligence Artificielle pour pouvoir en combler les lacunes. Comme il est
énoncé précédemment, la société et
l'IA sont toutes deux en constante évolution, d'où les
préoccupations de la Commission dans ce domaine.
Cette stratégie en matière de compétences
doit permettre à tous les Européens de bénéficier
d'une transformation verte ainsi que du virage numérique de
l'économie de l'Union européenne. Plusieurs initiatives doivent
alors être envisagées, notamment concernant les régulateurs
sectoriels. Il s'agit ici d'améliorer leurs compétences en
matière d'Intelligence Artificielle favorisant une mise en oeuvre
certaine des règles pertinentes.
Par ailleurs, une révision du plan d'action en
matière d'éducation numérique devra permettre d'utiliser
à bon escient les données et les technologies qui se fondent sur
l'IA. La mise en place d'analyse prédictive et d'analyse d'apprentissage
pourra alors permettre d'améliorer les systèmes d'enseignements
et de formations et de les adapter à notre société.
Il est également nécessaire d'accroître la
sensibilisation de l'IA à tous les niveaux d'enseignement pour permettre
aux citoyens de se préparer à des décisions toujours plus
influencées par l'IA.
Ce développement de compétences est une
priorité. C'est ce qu'il ressort de la proposition de règlement
du 21 avril 2021. Il est par ailleurs nécessaire de faire des efforts
considérables pour augmenter le nombre de femmes formées et
employées dans ce domaine.
Il semble alors bénéfique de mettre en place un
centre spécialisé dans la recherche et l'innovation dans le
domaine de l'Intelligence Artificielle en Europe. Ce centre serait le moyen
d'attirer des chercheurs du monde entier et de permettre d'accroître
l'excellence dans les compétences qui se développent en
Europe.
28
3 - Les stratégies de collecte d'informations et de
données
La proposition de Règlement du Parlement
européen et du Conseil établissant des règles
harmonisées concernant l'IA du 21 avril 2021, met en place un
développement des utilisations technologiques de l'IA relatif
principalement aux stratégies de collecte d'informations et de
données. La Commission européenne désire saisir
l'opportunité de prendre "la nouvelle vague des données" dans les
prochaines années. L'objectif principal est alors de mettre en place une
émergence des espaces de données des divers secteurs et
d'alimenter les systèmes d'Intelligence Artificielle.
Avec cette proposition de règlement, de nombreux
changements sont prévus concernant la valeur des données ainsi
que leur réutilisation transsectorielle. Si l'Europe accuse encore du
retard dans ce domaine, elle peut, grâce à une nouvelle vague de
données, néanmoins prochainement espérée, se hisser
au premier rang mondial dans l'économie tirant parti des
données.
Ainsi dans les cinq années à venir, le but est
de bouleverser les modes de stockage et de traitement des données. Comme
il est précisé dans le Livre Blanc du 19 février 2020,
à cette période, 80 pourcent des opérations de traitement
et d'analyse des données se déroulaient dans des centres de
données et des installations informatiques centralisées. A
contrario, seulement 20 pourcent se déroulaient dans des objets
connectés intelligents. Il faut tout de même préciser que
d'ici 2025, ces chiffres sont amenés à relativement
évoluer.
L'amélioration de l'accès aux données est
d'une importance fondamentale. Effectivement, l'Intelligence Artificielle est
une association de technologies permettant de combiner des données, des
algorithmes et puissance de calcul. Sans données, il est donc impossible
de développer des applications d'Intelligence Artificielle. Pour que
l'IA puisse être en essor perpétuel, il est nécessaire de
réaliser des progrès en matière de calcul des
données. Le volume important de nouvelles données qui sera
généré dans l'avenir va permettre à l'Europe de se
placer aux avant-postes de la transformation des données et de
l'intelligence artificielle. L'utilisation de pratiques responsables en
matière de gestion de données contribue à instaurer un
climat de confiance ainsi qu'à garantir le caractère
réutilisable de ces dernières.
L'objectif final est d'établir des mécanismes et
des services de confiance pour la réutilisation, le partage et la mise
en commun des données essentielles au développement de
modèles d'Intelligence Artificielle fondés sur les données
de haute qualité.
29
Cependant, cette favorisation du progrès doit se faire
en cohérence avec les exigences de protection qui garantissent la
sécurité des citoyens et le respect des valeurs éthiques
du droit de l'Union européenne (B).
B- Garantir la sécurité des citoyens
Cette proposition de règlement met en place un cadre
cohérent et proportionné (1), tout en garantissant que
l'Intelligence Artificielle soit développée en respectant les
droits des personnes et à gagner leur confiance (2)
1- Prioriser une évaluation des risques
La Commission européenne souhaite, à travers
cette proposition de règlement en matière d'Intelligence
Artificielle, se fonder sur une approche basée sur les risques. Il est
alors composé de règles proportionnées et souples
prévues pour faire face aux risques spécifiques liés aux
systèmes d'IA. Cette approche fondée sur les risques est
effectuée grâce à 4 niveaux différents.
La première catégorie est celle du «
Risque inacceptable ». Ce sont alors les
différents systèmes d'Intelligence Artificielle qui sont
considérés comme étant une menace évidente pour la
sécurité ainsi que pour le droits des personnes. Ces
systèmes doivent alors être interdits. Il peut s'agir des
systèmes d'Intelligence Artificielle qui permettent la notation sociale
par les États.
La deuxième catégorie est celle du «
Risque élevé ». Cette
catégorie comprend alors les systèmes d'Intelligence Artificielle
qui sont considérés à haut risque. Les systèmes
d'Intelligence Artificielle utilisés dans l'éducation ou la
formation professionnelle permettant de déterminer l'accès
à l'éducation et le parcours professionnel d'une personne , font
partie de cette catégorie. Il peut s'agir également des
technologies d'Intelligence Artificielle utilisées dans le domaine de
l'emploi, comme les logiciels de tri des CV pour les procédures de
recrutement. Cela peut aussi être le cas des technologies d'Intelligence
Artificielle utilisées dans le domaine du maintien de l'ordre. Celles-ci
seront alors en possibilité d'interférer avec les droits
fondamentaux des personnes.
Pour pouvoir être utilisés, il est
nécessaire que les systèmes d'Intelligence Artificielle à
haut risque soient conformes à des obligations strictes. Pour cela, il
est nécessaire de mettre en place des systèmes appropriés
d'évaluation et d'atténuation des risques; une qualité
élevée
30
des ensembles de données permettant d'alimenter le
système pour réduire les risques et les résultats ayant un
effet discriminatoire ; un enregistrement des activités pour garantir le
suivi des résultats ; une large documentation permettant de fournir les
informations nécessaires sur le système et sur sa finalité
; des informations claires pour l'utilisateur ainsi qu'un contrôle humain
approprié pour réduire un minimum les risques.
Les systèmes d'identification biométrique
à distance fondés sur l'Intelligence Artificielle seront
particulièrement considérés à haut risques. Pour
cela, ils sont soumis à des conditions relativement strictes.
La troisième catégorie est celle du «
Risque limité ». Il s'agit ici des
systèmes d'Intelligence Artificielle pour lesquels des obligations
spécifiques en matière de transparence s'appliquent. Par exemple,
lorsque des personnes utilisent des « Chatbots », ils doivent
nécessairement être prévenus qu'ils interagissent avec une
machine.
La dernière catégorie est celle du «
Risque minime ». Cette proposition de
règlement permet l'utilisation d'applications telles que les jeux
vidéos reposant sur l'Intelligence Artificielle car une grande
majorité relève de cette catégorie. Partant du principe
que ce domaine représente seulement un risque minime, le projet de
règlement ne prévoit pas d'intervention.
Pour veiller au respect de cette approche fondée sur
les risques, la Commission souhaite que les autorités nationales
compétentes fassent appliquer les nouvelles règles sur le
marché. De plus, la création d'un Comité européen
de l'IA, va permettre de stimuler l'élaboration de nouvelles normes pour
l'Intelligence Artificielle.
2 - La recherche d'une concordance avec les Droits
fondamentaux
La technologie numérique occupe, à l'heure
actuelle, une place centrale dans la société. La
possibilité d'utiliser l'Intelligence Artificielle peut alors être
perçue comme un risque par les citoyens. Effectivement, il se peut que
ces derniers se sentent impuissants à défendre leurs droits
lorsqu'ils sont confrontés à l'asymétrie de l'information
en matière de prise de décision algorithmique. Pour inverser
cette tendance, il est nécessaire que les citoyens puissent faire
confiance à la nouvelle technologie.
31
L'objectif premier de cette proposition de règlement
est de mettre en place un cadre légal uniforme favorable à
l'utilisation de l'Intelligence Artificielle. Pour autant, l'Union
européenne présente une approche fondée sur la protection
des Droits fondamentaux des citoyens.
Aujourd'hui, l'Europe souhaite protéger ses citoyens.
En ce sens, la Charte éthique d'utilisation de l'IA dans les
systèmes judiciaires a été adoptée le
8 décembre 2018 par le Conseil de l'Europe. Elle permet d'énoncer
des principes permettant que l'Intelligence Artificielle reste un outil au
service de l'intérêt général. Les principes sont les
suivants : respect des droits fondamentaux ; principe de non-discrimination ;
qualité et sécurité dans le traitement des données
; transparence, neutralité et intégrité intellectuelle ;
maîtrise par l'utilisateur.
L'utilisation de l'Intelligence Artificielle peut porter
atteinte aux droits fondamentaux consacrés dans la charte des droits
fondamentaux de l'Union européenne. Il est alors primordial que
l'Intelligence Artificielle soit fondée sur des valeurs essentielles de
l'Europe.
La proposition de règlement permet donc de mettre en
place un niveau particulièrement élevé de protection des
droits fondamentaux ainsi que de lutter contre certains risques liés
à l'utilisation de l'IA. L'objectif est de renforcer et favoriser la
protection des droits protégés par la Charte. Il s'agit donc du
droit à la dignité humaine (article premier), du respect de la
vie privée et la protection des données à caractère
personnel (article 7 et 8), de la non-discrimination (article 21) et de
l'égalité entre les femmes et les hommes (article 23).
La proposition permet également de mettre en oeuvre un
effet dissuasif sur les droits à la liberté d'expression (article
11) et à la liberté de réunion (article 12). Elle a
également pour ambition de préserver le droit à un recours
effectif et à accéder à un tribunal impartial, les droits
de la défense et la présomption d'innocence (articles 47 et 48),
ainsi que le principe général de bonne administration.
Cette proposition a pour mission de consolider les droits des
parties dites « faibles ». Il s'agit des droits des travailleurs
d'avoir des conditions de travail justes et équitables mais
également du droit des consommateurs d'avoir un niveau
élevé de protection. De plus, la proposition permet de renforcer
les droits de l'enfant et l'intégration des personnes
handicapées.
32
A côté d'une consolidation certaine des droits
fondamentaux, la proposition de règlement met également en place
des restrictions à la liberté d'entreprise et à la
liberté des arts et des sciences. Pour autant, ces restrictions sont
proportionnées et limitées au strict nécessaire pour
prévenir et atténuer les risques graves pour la
sécurité et les éventuelles violations des droits
fondamentaux.
Pour finir, les obligations en matière de renforcement
de la transparence ne doivent pas porter atteinte de manière
disproportionnée au droit à la protection de la
propriété intellectuelle.
De fait, l'Intelligence Artificielle remplit plusieurs
fonctions précédemment réservées aux être
humains. Les individus feront de plus en plus l'objet d'actions prises par des
systèmes d'IA qui peuvent être difficiles à contester,
c'est pour cela qu'une protection importante est justifiée. Les
particuliers peuvent avoir des difficultés en ce qui concerne
l'accès effectif à la justice lorsque ces décisions sont
susceptibles d'avoir des effets négatifs pour eux. La protection des
droits fondamentaux effectuée par la proposition est nécessaire
mais également obligatoire.
Cette protection des droits fondamentaux permet de renforcer
les exigences éthiques dans les systèmes de l'IA, tout comme le
principe de Garantie Humaine qui permet de faire valoir l'intérêt
de l'humain à travers ces avancées technologiques.
3 - L'introduction du principe de garantie humaine
L'Intelligence Artificielle se retrouve également dans
la révision de la loi bioéthique. Un article L. 4001-3 a
été introduit dans le Code de la santé publique, il vise
l'utilisation par un professionnel de santé d'un « dispositif
médical comportant un traitement de données algorithmique dont
l'apprentissage a été réalisé à partir de
données massives » pour « un acte de
prévention, de diagnostic ou de soin ». La création de
ce principe pour l'IA dans le domaine de la santé est une étape
relativement importante qui permettrait d'amener d'autres domaines à
évoluer.
Cette avancée fait référence à des
valeurs très fortes en Europe qui placent l'humain au premier plan.
L'enjeu pour l'Europe est de s'ouvrir à l'innovation tout en
régulant les enjeux éthiques. C'est le principe d'une «
Garantie Humaine » de l'Intelligence Artificielle.
33
Le principe de Garantie Humaine de l'Intelligence Artificielle
a été introduit dans la proposition de règlement du 21
avril 2021. L'article 14 consacre alors une portée
générale pour la totalité des champs et secteurs d'usage
de l'Intelligence Artificielle à ce principe. Il permet alors la mise en
place d'une information préalable du patient sur le recours à
l'Intelligence Artificielle sans sa prise en charge mais également le
déploiement d'une supervision humaine de la solution d'Intelligence
Artificielle.
L'article 14 de la proposition de règlement sur l'IA
est intervenu après l'apparition d'un projet pilote de «
Collège de Garantie Humaine » mis en oeuvre en 2020 par Ethik-IA.
Il se place dans la continuité de ce projet.
Cet article met en place certaines mesures. En outre, il est
précisé que les systèmes d'IA doivent permettre
d'être supervisés par des humains. De plus, la supervision humaine
doit pouvoir prévenir au maximum les risques pour la santé et
pour les droits fondamentaux qui peuvent éventuellement présenter
un niveau de risque élevé. Il est alors consacré la
nécessité d'une Garantie Humaine pour un développement
éthique de l'Intelligence Artificielle. Des indications sont
également fournies sur la mise en oeuvre de cette supervision. La
Garantie Humaine doit alors être identifiée et construite par le
fournisseur avant sa mise sur le marché ou identifiée par le
fournisseur. Elle doit faire l'objet d'un suivi en « vie
réelle» de l'IA. Pour finir, cet article énonce des
objectifs d'informations à mettre en place.
Cette proposition de règlement met en place de
nombreuses avancées bénéfiques pour les citoyens
européens. Pour autant, il est malheureusement difficile de ne recenser
que les points positifs de cette dernière.
II- Les critiques des autorités de protection
des données personnelles face à cette
réglementation
Cette proposition de règlement sur l'intelligence
artificielle, aussi appelé IA Act, est le premier cadre juridique
posé sur ces pratiques au sein de l'Union européenne. Très
attendu, il a été analysé par les autorités de
contrôle et de protection pour relever ce qu'il pouvait être
amélioré et rechercher des solutions dans le but de renforcer son
efficacité aussi bien dans sa rédaction (A) que dans son
organisation institutionnelle (B).
34
Pour cela, le Comité européen de la protection
des données (CEPD) et le contrôleur européen de la
protection des données ont émis un avis conjoint 5/2021 le 18
juin 2021 sur cette réglementation dont l'objectif est d'assurer un
cadre juridique effectif tout en respectant les exigences de protection des
données personnelles prévues au sein de l'Union.
A- Une réglementation insuffisamment protectrice
Pour garantir la confiance des consommateurs, la protection
des données personnelles doit être un élément
fondamental dans l'élaboration du cadre juridique de l'IA. Le CEPD et le
contrôleur européen de la protection des données estiment
que ce cadre pourrait être renforcé en dénonçant une
faible précision de certaines dispositions (1) et insistent sur la
nécessité de conformer les bases législatives à
celles déjà envisagées dans le règlement
général de protection des données de l'Union
européenne (2).
1- Un manque de clarté dans le cadre juridique
A travers cette proposition de réglementation, la
vice-présidente de la Commission précise que « Avec ces
règles qui feront date, l'UE prend l'initiative d'élaborer de
nouvelles normes mondiales qui garantiront que l'IA soit digne de confiance
». L'objectif est donc de garantir une confiance des utilisateurs
autour de l'intelligence artificielle pour pouvoir assurer son essor effectif.
Ces réglementations sont vues comme une sorte de précaution pour
empêcher toutes sortes de dérives.
Pour gagner cette confiance, la Commission précise les
usages interdits dans l'objectif de faire prévaloir l'éthique sur
l'investissement. Cependant, dans leur avis du 18 juin 2021, le CEPD et le
Contrôleur européen de la protection des données
relèvent la nécessité d'élargir le champ des
systèmes interdits et de les clarifier.
L'article 5 paragraphe 1 de la proposition du règlement
énumère ces 4 systèmes inacceptables fixés en
fonction des dangers éthiques qu'ils soulèvent. «
- systèmes d'IA qui influencent de manière
subliminale le comportement d'une personne en vue de lui causer ou de causer
à un tiers un dommage ,
·
- systèmes d'IA qui exploitent la
vulnérabilité d'un groupe de personnes en
vue de fausser le comportement de l'une de ces personnes et
de causer un dommage ,
·
35
- systèmes d'IA de notation sociale mis sur le
marché, mis en service ou
utilisés par les autorités publiques ou en leur
nom ;
- systèmes d'identification biométrique
à distance en temps réel dans des
espaces accessibles au public, sauf exception. »
Ce sont les utilisations de l'IA qui vont à l'encontre
des valeurs de l'Union européenne en se fondant sur la manipulation ou
l'exploitation de populations vulnérables.
Cependant, les pratiques interdites dans cette proposition ne
sont pas énumérées. Elles laissent donc accès
à une large confusion d'interprétation et ne permettent pas de
garantir un encadrement strict de l'intelligence artificielle. Le CEPD et le
contrôleur européen estiment conjointement dans leur avis rendu le
18 juin 2021, qu'il faudrait donc énoncer les pratiques qui doivent
être interdites plutôt qu'en énoncer certains
critères pouvant être interprétés.
Pour illustrer cette nécessité d'élaborer
un cadre strict et clair, la Commission a choisi d'interdire dans le IA Act,
les dispositifs d'identification en temps réel des individus dont le
cadre juridique n'avait jamais été clair jusque-là. Bien
que cette modification soit encourageante, elle n'est pas absolue. Ce sont ces
dérogations prévues au bénéfice des
procédures judiciaires qui posent débat. En effet, accorder des
exceptions à des pratiques par nature opposées à la
liberté de la vie privée interroge les auteurs à une
«extension généralisée de la reconnaissance
faciale» qui, bien qu'elles soient interdites dans l'espace public,
motivent à l'aménagement de son exploitation dans ces espaces et
ainsi à dépasser à long terme le cadre juridique strict
qui les encadre.
La Commission nationale de l'informatique et des
libertés (CNIL) considère que la précision des pratiques
autorisées et interdites doit être claire et se faire à
l'égard des usagers mais également des professionnels. Le but est
de permettre à toutes les personnes concernées d'évaluer
de manière autonome si les produits qu'ils proposent sont
autorisés. La CNIL rejoint l'avis du 18 juin 2021 dans lequel est
considéré que certains domaines d'activités tels que la
police et les forces de l'ordre exigent des «mesures
spécifiques, précises, prévisibles et
proportionnées». Sont pris en compte l'impact de ces
systèmes sur l'intégrité des personnes concernées
mais également sur les valeurs d'une société
démocratique.
La régulation des pratiques de l'IA a pour objectif
d'assurer une harmonisation entre les secteurs d'activité et les Etats
membres de l'Union européenne autour de son utilisation en
36
garantissant une sécurité juridique effective.
Sur une question aussi sensible que l'intelligence artificielle, il est
impératif que le cadre juridique mis en place réponde à
des critères de précision et de clarification pour ne pouvoir
donner aucune place à l'interprétation.
Pour renforcer la sécurité juridique, le cadre
juridique doit passer par l'élaboration de dispositions claires mais
également par la conformité de ces dispositions avec celles
préexistantes en matière de protection des données.
2- Une conformité nécessaire des bases
législatives avec celles du règlement général de
protection des données
L'importance des dangers, la Commission l'a bien comprise en
retenant une approche fondée sur les risques. La stratégie
adoptée est de focaliser la régulation sur les pratiques dites
«à haut risque» pour les droits fondamentaux, donc sur une
quantité limitée des systèmes d'IA. Cette solution est
considérée comme « flexible » car les conditions
d'application sont adaptées aux risques qu'ils représentent. Elle
figurait déjà dans le Livre Blanc du 19 février 2020 mais
elle se concrétise ici par l'élaboration d'un cadre juridique
strict.
C'est également dans ce livre blanc que les
systèmes à haut risque sont répartis selon plusieurs
critères, que l'IA Act s'est entaché de préciser. En
effet, l'article 6.1 prévoit les systèmes
considérés comme une composante de produits faisant
déjà l'objet d'une certification tierce-partie et l'article 6.2
ceux ayant des impacts prévisibles sur les droits fondamentaux. En
annexe, la Commission vient rajouter huit catégories de systèmes
à «haut risque» : l'identification biométrique et
catégorisation des personnes, la gestion et exploitation
d'infrastructures critiques, la formation et formation professionnelle,
l'emploi, la gestion des salariés et l'accès au travail
indépendant, l'accès et la jouissance de services privés
essentiels et de services publics, l'application de la loi (exécution
d'une décision de justice, enquête judiciaire), l'immigration,
l'asile et la gestion des contrôles à la frontière,
l'administration de la justice et processus démocratiques. Cependant,
cette disposition est contestable car les systèmes d'IA à
«haut risque» de cette liste ne font l'objet d'aucune réelle
justification, d'aucun critère commun. Or, l'encadrement de l'IA
étant en pleine construction, il est restrictif d'imaginer qu'aucune
mise à jour ou du moins difficilement puisse y être
ajoutée, pouvant remettre en cause le respect des valeurs
éthiques.
37
En remarquant que ces systèmes «à haut
risque» représentent en majeure partie des exploitations de
données personnelles, il est nécessaire de rappeler qu'un cadre
de protection des données personnelles existe déjà au
niveau de l'Union européenne en tant que règlement
général de la protection des données (RGPD) entré
en vigueur le 27 avril 2016. Il se fonde sur l'article 16 du Traité sur
le fonctionnement de l'UE (TFUE) qui garantit que «Toute personne a le
droit à la protection des données à caractère
personnelles la concernant». Il prévoit que les règles
sont fixées conjointement par le Parlement européen et le Conseil
et que son contrôle est assuré par les autorités
indépendantes. Le CEPD et le contrôleur européen
précisent dans leur avis qu'en instaurant un cadre juridique autour des
pratiques de l'IA, il est inévitable pour la Commission d'encadrer la
protection des données personnelles des personnes concernées.
Ainsi, le cadre de protection qu'elle envisage doit être en accord avec
celui du RGPD. Le CEPD, en tant que garant de l'application cohérente du
RGPD, insiste sur la nécessité de s'adapter aux restrictions et
aux réglementations établies dans ses dispositions pour
éviter des contradictions portant atteinte à la
sécurité juridique des usagers. Cela implique également
les relations entre les différentes autorités de protection au
sein de l'Union européenne qui doivent se fonder sur les mêmes
bases légales pour assurer une harmonisation dans cette protection.
Les autorités rappellent également l'importance
de cette conformité pour les professionnels. En effet, le respect des
obligations légales issues de la législation de l'Union est une
condition préalable pour pouvoir accéder au marché commun.
Elle passe par l'apposition du marquage CE, signe d'un respect des
législations techniques européennes. Ce marquage est obligatoire
pour tous les produits couverts par un nouveau cadre législatif
européen. Ils font l'objet d'un contrôle de conformité aux
exigences essentielles des textes européens pour pouvoir jouir du
principe de liberté de circulation garanti au sein de l'Union.
Ainsi, l'articulation avec le RGPD est un
élément essentiel qui permet d'affirmer l'approche
réglementaire européenne de l'intelligence artificielle
envisagée par la proposition de la Commission. Cette prise en compte ne
doit pas être négligée par la Commission car elle permet
d'élargir le spectre de la protection communautaire des données
personnelles à l'intelligence artificielle, renforçant de facto
le cadre juridique qui les entoure, propre aux exigences de l'Union. Ainsi, par
la garantie d'une sécurité juridique, la conformité des
bases législatives facilite l'investissement et l'essor de l'innovation
de l'intelligence artificielle à travers l'Union.
38
Ainsi, les critiques relatives à cette
réglementation se consacrent foncièrement à la protection
de cet encadrement. Cette sécurité recherchée repose sur
une analyse des dispositions de cette réglementation mais
également sur la mise en oeuvre institutionnelle et gouvernementale
rattachée à ce renforcement de la protection juridique.
B- Une approche sceptique sur l'organisation
institutionnelle
Les autorités de protection pointent du doigt la mise en
oeuvre du gouvernement que propose ce règlement (1) pouvant
s'avérer décisif dans son rôle au sein de la concurrence
internationale de l'IA (2).
1- La nécessité d'un gouvernement
organisé
Le titre VI du règlement est consacré à
la gouvernance et sa mise en oeuvre. Cette gouvernance se fait au niveau
national et européen. Dans cette disposition, la Commission
évoque l'idée de créer un Comité européen de
l'intelligence artificielle, composé de représentants de chaque
Etat-membre. Son rôle sera de fluidifier et harmoniser la mise en oeuvre
dudit règlement en privilégiant une coopération avec les
autorités nationales chargées de contrôler au niveau
national l'application de ce règlement.
Cependant, la CNIL et ses homologues considèrent que
les modalités d'exercice de ce pouvoir ne sont pas
précisées dans ce règlement. Le Parlement européen
rejoint cette pensée en reprochant une absence de précisions
concernant notamment son financement, son organisation et ses missions autour
de l'intelligence artificielle. Or, cette définition est
nécessaire pour garantir son indépendance et renforcer ce pouvoir
de contrôle qu'il exerce en collaboration avec les autorités
nationales. Ce comité devra également s'imposer face au
comité européen spécialisé dans la protection des
données personnelles en général. En effet, le défi
est d'adopter une même approche européenne dans l'exercice de son
contrôle, tout en respectant son champ d'application réduit
uniquement à l'intelligence artificielle pour éviter des
confusions de compétence pouvant impacter sur la sécurité
juridique des consommateurs. Tout comme au niveau réglementaire, une
articulation est nécessaire entre les différents organes de
contrôle lorsqu'ils défendent les mêmes valeurs
européennes.
Cependant, la CNIL remet en cause cette organisation et penche
vers la volonté de fusionner les autorités indépendantes.
Ainsi, une seule autorité de protection viendrait contrôler
l'intelligence artificielle au niveau national et européen. L'objectif
est de créer un cadre
39
cohérent de protection réglementaire de l'IA et
d'éviter la multiplication inutile d'autorités de protection qui
exercent le même contrôle.
En outre, certains estiment que l'intelligence artificielle
nécessite un régulateur compétent et
expérimenté. Ainsi, créer un nouvel organe
spécifiquement consacré à ce domaine pourrait porter
atteinte à la sécurité juridique et révéler
des complexités administratives. Or, cela s'opposerait à
l'objectif d'harmonisation consacré par cette réglementation et
ainsi dégraderait l'idée de conserver la confiance des usagers
vue «non pas comme un luxe, mais une nécessité
absolue» (Margrethe Vestager, vice-présidente de la Commission
européenne).
Dans le domaine de l'IA, la mise en place d'un
régulateur est pertinente pour assurer son contrôle au niveau
national et européen mais en est-il de même à
l'échelle internationale?
2- La régulation de l'IA face à la
concurrence internationale : atout ou faiblesse de l'Union ?
Un des enjeux majeurs de cette réglementation est de
trouver l'équilibre entre la régulation de l'IA et l'essor de
l'innovation. Cette question relève de nombreuses difficultés
entraînées par une nécessaire concurrence entre les
Etats-membres. Les fournisseurs sont forcés de proposer de nouvelles
solutions technologiques nécessitant en contrepartie un plus grand
contrôle.
Ainsi, les autorités estiment qu'il est indispensable
d'ajouter à ce règlement un accompagnement à l'innovation
pour aider les entreprises à rendre l'intelligence artificielle utile
à leur productivité tout en respectant des exigences de
protection. A l'initiative du régulateur, cet appui doit permettre aussi
bien au niveau national qu'européen, d'obtenir une vision
équilibrée entre le respect de l'harmonisation
règlementaire de l'Union et la valorisation du progrès
technique.
Cet accompagnement est d'autant plus nécessaire car les
entreprises des Etats membres craignent que les règles protectionnistes
européennes ne soient pas intégrées à
l'échelle internationale. Ainsi, respecter les normes de l'IA Act et du
RGPD dévaloriserait les entreprises européennes face à la
concurrence internationale. En effet, les grosses entreprises
40
américaines et chinoises ne voient aucun
inconvénient à utiliser des techniques parfois discriminatoires
pour pouvoir être avantagées sur le marché de l'innovation.
Ainsi, des techniques spécifiques telles que celle du scrapping
(collecter un très grand nombre de données sur un site web) sont
utilisées. Cependant, de nature discriminatoire, ces techniques sont
prohibées par les exigences européennes. La question est de
savoir s'il existe une réglementation de l'IA pour ces autres pays ? A
l'internationale, la régulation de l'IA proposée par l'Union
européenne a beaucoup inspiré les autres Etats, perçue
comme «chef de fil» en la matière. Cependant, certaines formes
d'Etat ou les régimes politiques adoptés freinent cette
adaptation, à l'instar des Etats Unis qui, par son
fédéralisme rencontre des difficultés à
éradiquer les pratiques discriminatoires de chaque Etat
fédéré, créant des écarts de concurrence et
d'innovation.
Pour revenir à l'échelle européenne, les
autorités européennes doivent donc, à travers cette
nouvelle réglementation, s'affirmer face aux défaillances des
Etats tiers. Dans cette optique, l'accompagnement doit d'abord se faire au
niveau interne pour pouvoir conformer l'équilibre recherché
à la réalité de chaque Etat membre et des problèmes
qu'ils rencontrent.
L'enjeu organique de cette régulation s'apparente
à l'enjeu normatif dont l'idée première est
d'acquérir une conformité transversale de l'intelligence
artificielle. Bien que des autorités de protection détiennent ce
rôle de régulateur, cet enjeu concerne tous les acteurs
confrontés à l'IA, tels que les juristes, les ingénieurs,
les scientifiques de données, les corps de métiers relatifs
à la production ou l'industrie. Par conséquent, plus il y a
d'agents plus l'harmonisation est difficile à trouver. Toutefois, les
risques relatifs à l'éthique sont si importants qu'ils pourraient
presque affecter l'essence même des valeurs démocratiques d'un
Etat. Ainsi, les chercheurs en la matière ont tenté de trouver
des solutions.
Isabelle Budor, directrice associée de l'éthique
et la vie privée chez Capgimini (entreprise française de service
numérique) évoque dans un article, la possibilité de voir
plus tard émerger un post spécialement dédié
à l'éthique et à la conformité de l'IA. Ce
rêve pourrait bien devenir réalité avec
l'élaboration du Comité européen de l'IA instauré
par l'IA Act. Cependant, son efficacité dépend en grande partie
des comportements antérieurs à son entrée en vigueur. Il
faut donc que cette régulation soit fluide et fondée sur un
« langage commun» et «des compromis entre les
priorités» pour qu'elle reste un atout de l'Union européenne
et ne devienne pas son talon d'Achille.
41
BIBLIOGRAPHIE
-
cabinetrondeauabouly.com,
Véronique RONDEAU-ABOULY Avocat - Artificial Intelligence Act du 21
avril 2021
- l'éthique-washing - meta-media
-
capgemini.com, Isabelle Budor - Futur
règlement européen sur l'IA : Comment s'y préparer ?
-
lestempselectriques.net,
Yannick MENECEUR et Sophie SONTAG-KOENIG - Proposition de règlement de
l'IA de la Commission européenne : entre le trop et le trop peu ?
-
siècledigital.fr,
Clémence MAQUET - Quel règlement pour l'intelligence
artificielle
en Europe ?
-
Viepublique.fr, Intelligence
Artificielle : un nouveau règlement européen sur l'IA
-
europa.eu, Une Europe adaptée
à l'ère du numérique : Intelligence artificielle
-
cnil.fr, Intelligence artificielle : l'avis
de la CNIL et de ses homologues sur le futur
règlement européen
-
dalloz-actualité.fr,
L'Intelligence artificielle dans la révision de la loi
bioéthique
- Futura Tech, L'intelligence artificielle
- JVTech, 460 millions de dollars, C'est ce que Facebook doit
payer pour usage abusif
des données personnelles
- Asilomar Conference on Beneficial AI
- "Robots tueurs" dans l'armée : "La responsabilité
humaine, la possibilité d'avoir la
dernière main sur la machine, est absolument fondamentale"
; France Info
42