WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

La réponse réglementaire de l'Union Européenne face à  l'évolution de l'intelligence artificielle


par Lucas TORRES
UPPA - Master Etudes européennes et internationales 2022
  

Disponible en mode multipage

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

    MÉMOIRE COLLECTIF VALENTINE BOURRAS PAULINE BRUGERON GARANCE LAFAURIE SEBASTIEN SABY LUCAS TORRES

    Sous la direction de Madame Alma-Delettre

    La réponse réglementaire de l'Union Européenne face à
    l'évolution de l'Intelligence Artificielle

    TABLE DES MATIÈRES

    INTRODUCTION

    PARTIE I : LA NÉCESSITÉ D'UNE RÉGLEMENTATION FACE À L'INQUIÉTUDE

    CROISSANTE DES DÉRIVES DE L'INTELLIGENCE ARTIFICIELLE

    I. Une réglementation face aux dérives des entreprises et des géants du numérique

    A. Des dérives dénoncées par les magnats de l'intelligence artificielle mêmes

    1. Identification progressive des dérivés liées à l'intelligence artificielle

    2. Signature de la Beneficial AI et principes d'Asilomar

    B. La définition de lignes de conduites indispensables

    1. L'édification de « bons comportements »

    2. La nécessité d'un cadre pour les usagers

    II. Une réglementation face aux enjeux éthiques et humanitaires

    A. D'une problématique liée à l'éthique

    1. Des lacunes éthiques substantielle à l'IA

    2. Une sensibilisation progressive à la question éthique

    B. L'exemple des SALA : De nécessaires fondations d'un « droit moral encadré » de

    tuer

    1. Un droit international à l'épreuve de l'armement robotique

    a. De sérieuses lacunes en matière d'identification juridiques des drones militaires

    b. La nécessité d'une régulation juridiques des drones tueurs autonomes

    2. L'autonomie des robots comme bouleversement en matière de responsabilité a. Une autonomie nécessairement jaugée

    2

    b. D'une stricte nécessité d'encadrer l'existence et l'utilisation d'armes autonomes

    PARTIE II : L'ÉTAT ACTUEL DE CETTE RÉGLEMENTATION : ENTRE AMBITIONS ET CARENCES

    I. Une réglementation aux dispositions ambitieuses

    A. La favorisation du progrès

    1. L'encouragement de l'excellence dans le domaine de l'Intelligence artificielle

    2. La formation de nouvelles compétences dans les technologies de l'Intelligence artificielle

    3. Les stratégies de collecte d'informations et de données

    B. Garantir la sécurité des citoyens

    1. Prioriser une évalution des risques

    2. La recherche d'une concordance avec les Droits fondamentaux

    3. L'Introduction du principe de Garantie Humaine

    II. Les critiques des autorités de protection des données personnelles face à cette réglementation

    A- Une réglementation insuffisamment protectrice 1. Un manque de clarté dans le cadre juridique

    2- Une conformité nécessaire des bases législatives avec celles du règlement général de protection des données

    B- Une approche sceptique sur l'organisation institutionnelle

    1- La nécessité d'un gouvernement organisé

    3

    2- La régulation de l'IA face à la concurrence internationale : atout ou faiblesse de l'Union ?

    4

    INTRODUCTION

    «Success in creating AI would be the biggest event in human history,'he said. Unfortunately, it might also be the last, unless we learn how to avoid the risks.»/ »Créer une intelligence artificielle serait le plus grand événement de l'histoire humaine. Malheureusement, ce pourrait être le dernier, à moins que nous ne découvrions comment éviter les risques. » Stephen Hawking, Article The Independent, mai 2014.

    Il nous est difficile de définir l'intelligence artificielle sans aborder le milieu dans lequel elle évolue. Ainsi, il nous faut envisager brièvement la notion de « cyberespace » ou de « métavers ». Il est considéré comme un espace de technologie comprenant les réseaux informatiques, les ressources informatiques et tous les dispositifs fixes et mobiles connectés au réseau mondial. De ce fait, le cyberespace d'une nation fait partie du cyberespace mondial : il ne peut être isolé pour en définir les limites puisque le cyberespace est sans frontière, qui ne cesse de s'accroître et s'étendre, contrairement aux nations qui sont elles délimitées par des frontières géographiques.

    Le petit Robert définit le cyberespace comme « un ensemble de données numérisées constituant un univers d'information et un milieu de communication, lié à l'interconnexion mondiale des ordinateurs ». Ainsi De la pose de ces premières briques constitutives du cyberespace dans les années 1950, à ce qu'il est devenu aujourd'hui, un vaste réseau constitué de milliards d'ordinateurs, l'IA a acquis une place centrale dans les débats de sociétés, notamment en question de son utilisation dans les domaines militaires, ce qui mènera à des questionnements scientifiques, éthiques, politiques et juridiques.

    Dans ce grand domaine que représente le cyberespace, l'un des éléments qui le constitue, et qui sera l'oeuvre de notre mémoire, reposera sur l'Intelligence Artificielle (ci-après « IA »).

    L'IA est à part entière « cyber », car elle n'existe qu'au travers de logiciels, de langages de programmation, d'ordinateurs. L'IA est une discipline scientifique et un ensemble de techniques qui prennent naissance en même temps que l'informatique.

    Le point de départ des IA se fait notamment par la publication d'Alan Turing « Computing Machinery and Intelligence » en 1950, qui constitue l'un des actes fondateurs de l'IA. Cet ouvrage répond notamment à la question « les machines peuvent-elles penser ? »

    5

    Le questionnement de base n'est pas de savoir si la machine peut en elle-même « penser », mais « imiter » un comportement. En d'autres termes : un ordinateur peut-il tenir la place de l'humain dans le jeu de l'imitation ? En 1955 est développé Logic theorist, considéré comme le premier programme d'IA, développé par John Shaw, Herbert Simon et Allen Newell. Même si le programme est qualifié du premier code IA, jamais les trois chercheurs n'utilisent pas l'expression « intelligence artificielle ». Cette expression apparaît en 1956, à l'occasion d'un ensemble de séminaires organisés au Darthmouth college par John Mc Carthy (Dartmouth college), Claude Shannon (Bell telephone Laboratories), Marvin Minsky (Harvard University) et Nathaniel Rochester (IBM Corportation), qui seront considérés comme les pères fondateurs de cette technologie.

    Le terme « intelligence » est utilisé dans les premières années de l'IA dans de multiples technologies et objets de recherche. On pouvait alors parler en astronomie de « satellites terrestres intelligents » pour différencier les satellites envoyés dans l'espace et ceux dits « satellites terrestres naturels », qui renvoient aux objets spatiaux, la Lune.

    Un des pionner de l'IA tentera de donner un axe de pensée pour définir le mot « intelligent », qui relève de la capacité pour une personne ou un objet de résoudre des problèmes difficiles.

    Les premières machines intelligentes apparaissent avec entre autres les tortues de Bristol en 1947, en passant par le renard électronique d'Albert Ducrocq développé en 1953, ou bien des « Zébulons », les premiers robots de manutention autonomes informatisés inventé par Bruno Lussato dans les années 1970. Toutes ces inventions sont apparues dans des laboratoires d'universités pour finalement se voir démocratiser au sein des populations, impactant la vie de millions, voire de milliards de personnes.

    L'IA nous accompagne dans notre quotidien, partout où nous sommes, sans que le plus souvent nous ne le sachions. On les retrouve dans les véhicules modernes tel que les caméras de recul ou les capteurs ; les téléphones portables avec les assistants virtuels, les réseaux sociaux, les jeux vidéo ; les systèmes d'aides au diagnostiques médicales.

    Ainsi, il est difficile de donner une définition simple et unique de L'IA car cette définition est sans cesse analysée, déconstruite, remodelée, du fait de son champ d'utilisation et de son expansion sans limites dans toutes les facettes de la vie humaine.

    Du fait du peu de réelle délimitation quant à sa définition, l'IA suscite de vifs débats, car puisqu'elle est intégrée dans notre quotidien du fait de tous les objets connectés qui nous entourent.

    Certains auteurs, philosophes et politiques, remettent en question son pouvoir transformatif, qui est depuis quelques années devenu central.

    Un courant de pensées avance la théorie que l'IA est une menace existentielle, de peur d'un grand remplacement par les machines considérant que celle-ci est une nouvelle technologie de pouvoir, coercition, d'oppression, voire de contrôle qui s'exercent sur les activités humaines : « Les machines qui jusqu'ici ne libéraient l'homme que du travail physique, ne s'avisent-elles pas de le remplacer dans les tâches les plus nobles, entre autres la pensée dont il assurait jusqu'ici le monopole ? Ces machines intelligentes, douées de mémoire, ne sont-elles pas désormais capables de surpasser le cerveau humain dans des travaux chaque jour plus nombreux ? La suprématie de l'homme n'est-elle pas menacée ? Ces robots pensant ne vont-ils pas, dans un avenir que certains nous président proche, redire l'humanité en esclavage? [...] Pour l'ancien ministre de l'éducation national, Edgar Faure, « la machine qui décide au lieu d'exécuter » serait à l'origine d'un traumatisme grave de l'intelligence humaine.» (LANGEVIN L. « Les machines à penser », La Pensée : revue du rationalisme moderne, n°147, p. 61-89, octobre 1969).

    L'IA est aussi vue comme une menace existentielle.

    En 2014, Stephen Hawking et Elon Musk reprennent l'argument en affirmant que la véritable IA pourrait entraîner vers la fin de l'humanité, en avançant le fait que puisqu'elle est dépourvue d'émotions ou de sensations humaines, elle ne peut alors comprendre des notions dichotomiques, en premier lieu celle du bien et du mal. D'autres voient en L'IA la possibilité que l'homme et la machine oeuvrent ensemble, qu'elle soit le prolongement du corps et de l'esprit de l'être humain, venant l'accompagner dans sa réalisation et étendre ses capacités.

    Pour parer aux inquiétudes des individus et certainement des Etats quant à l'utilisation toujours plus soutenues des IA dans tous les domaines, il nous faut regarder l'essor des différentes législations qui viennent répondre à ses nouveaux questionnements sociétaux et de leurs utilisations par des grandes entités, pas toujours étatiques, notamment l'Union européenne. Ainsi, il s'agirait de se demander dans quelles conditions la réglementation de l'Union européenne tente de répondre aux enjeux principaux de l'Intelligence Artificielle ?

    6

    C'est à cette question que nous allons tenter de répondre tout au long de ce mémoire.

    7

    Pour cela, il est nécessaire de se pencher sur la question de savoir quelles sont les dérives actuelles concernant l'Intelligence Artificielle (Partie I), et comment ces dérives tendent à être encadrées par les différentes législations (Partie II).

    8

    PARTIE I

    LA NÉCESSITÉ D'UNE RÉGLEMENTATION FACE À L'INQUIÉTUDE CROISSANTE DES DÉRIVES DE L'INTELLIGENCE ARTIFICIELLE

    La nécessité d'une réglementation de l'intelligence artificielle est un sujet qui, depuis une dizaine d'années, ne cesse de s'accroître. En effet, nombre d'articles prolifèrent, dans le but de prévenir des dérives de cette dernière, ou peut être d'effrayer le grand public. L'industrie cinématographique s'est notamment emparée du sujet afin de démontrer les différents effets néfastes que ces innovations pourraient avoir sur l'humanité, tels que dans la série «Black Mirror», ou les films «Ex Machina» ou «Blade Runner 2049».

    Mais qu'en est-il vraiment? Quels sont les réels enjeux se trouvant derrière cette nécessaire réglementation ? Outre l'objectif d'éviter une de ses théories post-apocalyptiques, cette réglementation s'est avérée urgente d'abord face aux dérives des entreprises et des géants du numérique (I), mais aussi face aux enjeux éthiques et humanitaires (II).

    I. Une réglementation face aux dérives des entreprises et des géants du numérique

    Cette réglementation s'est donc d'abord avérée indispensable face aux dérives des entreprises et des géants du numérique, dénoncés même par des magnats de l'intelligence artificielle (A) et mettant en avant des lignes de conduites indispensables pour ces entreprises (B).

    A - Des dérives dénoncées par les magnats de l'intelligence artificielle mêmes

    L'essor des différentes formes d'intelligences artificielles dans le domaine des entreprises et des géants du numérique a permis l'identification progressive des dérives qui y étaient liées (1), et a conduit des personnalités telles que E. MUSK ou encore S.HAWKING à signer la Beneficial AI (2), établissant ainsi les principes d'Asilomar.

    1 - L'identification progressive des dérives liées à l'intelligence artificielle

    S'il est vrai que l'intelligence artificielle est source de progrès, et présente dans nos quotidiens sans même que l'on s'en rende compte, les innovations qui y sont liées ont pu rappeler qu'elle est aussi source de failles, notamment si elle est utilisée à mauvais escient.

    9

    Les conséquences ont ainsi pu être observées dans plusieurs cas au cours de la dernière décennie.

    En 2016, l'entreprise Microsoft avait lancé le robot Tay qui avait la capacité de pouvoir converser sur les réseaux sociaux tels que Twitter ou Snapchat en se basant sur des données accessibles publiquement pour répondre aux questions qu'il recevait, mais aussi sur des phrases déjà toutes faites, réalisées par des humoristes.

    Mais, au fil des utilisations, il s'est avéré que lorsqu'on lançait le robot sur des sujets sensibles, les réponses n'étaient pas toujours adaptées.

    Il a finalement été mis hors circuit après avoir eu des propos négationnistes au sujet de l'Holocaust.

    En 2014, l'entreprise Amazon avait mis en place un algorithme qui lui permettrait de recruter ses employés en choisissant les meilleurs parmi les candidats. Il pouvait ainsi examiner le curriculum vitae des postulants et attribuer des notes de zéro à cinq étoiles.

    Cependant, il est ressorti que l'algorithme avait tendance à préférer automatiquement les profils masculins aux profils féminins, forçant le géant du e-commerce à abandonner ce projet pour manque de garantie d'impartialité.

    La mise en place du Correctional Offender Management Profiling for Alternative Sanctions aux États-Unis, ou Logiciel COMPAS a aussi été à l'origine de polémiques.

    En effet, s'il a été créé dans le but d'évaluer le risque de récidive chez les criminels, influençant les cautions, les conditions de probation ou la durée des peines en s'appuyant sur des études académiques en criminologie et sociologie, ainsi que sur différents modèles statistiques, en mai 2016, une enquête de l'ONG ProPublica a révélé que ce logiciel aurait un apriori négatif sur la communauté noire.

    S'il n'a pas été abandonné à ce jour, la Cour suprême du Wisconsin a néanmoins appelé à l'utiliser avec grande prudence.

    L'avènement du Deep Fake, technique consistant à modifier des vidéos réalisées par une synthèse d'images pour répandre des fake news, est lui aussi venu affirmer un peu plus les craintes qui se sont soulevées autour des intelligences artificielles.

    Ainsi, le groupe Facebook avait même fait appel à sa communauté afin de trouver des solutions qui permettraient de contrer les effets néfastes de cette technique. En effet, celle-ci

    10

    pourrait conduire à usurper l'apparence de chefs d'État ou politiciens pour leur donner des propos qui pourraient mener à des incidents diplomatiques ou des conflits internationaux.

    Mais, si les ingérences de ces techniques ont contribué à la montée de la vision négative qu'à le grand public des intelligences artificielles, c'est l'ingérence dans la vie privée qui à tendance à inquiéter le plus.

    En effet, l'exemple des caméras dotées d'un système de reconnaissance faciale présentes dans les rues de Singapour, ou en Chine, afin d'identifier les populations, et d'attribuer à chacun un nombre de points en fonction des «infractions» commises, conditionnant l'accès à certains logements, métiers, ou mêmes endroits, est la parfaite édification des craintes entourant ces techniques.

    Ces exemples sont ainsi les raisons types pour lesquelles certains magnats de la technologie et de la science se sont accordés pour dire qu'il devenait indispensable de dénoncer ces pratiques et dérives.

    2. Signature de la Beneficial AI et principes d'Asilomar

    Le 5 janvier 2017 s'est ouverte en Californie l'Asilomar Conference on Beneficial AI, organisée par le Future of Life Institute, jusqu'au 8 janvier de la même année.

    Cette conférence, qui a réuni des dirigeants du monde universitaire et de l'industrie, avait ainsi pour but de façonner les contours de l'intelligence artificielle par la communauté de l'intelligence artificielle.

    En effet, dans un contexte où ces techniques soulèvent de plus en plus d'intérêts positifs comme négatifs, cette conférence tenait à rappeler que ceux qui jouent un rôle dans leur développement ont la responsabilité et la possibilité de la façonner au mieux.

    Stephen HAWKING, qui était un brillant physicien théoricien et cosmologiste britannique disant que «Parvenir à créer des intelligences artificielles serait le plus grand accomplissement de l'histoire humaine. Malheureusement, il pourrait aussi s'agir du dernier, à moins que nous apprenions à éviter les risques.», ainsi que Elon MUSK, ingénieur-chercheur et directeur général de Tesla et SpaceX ont ainsi participés et signés la lettre ouverte issue de cette conférence, parmis les 2500 personnes dont plus de la moitié sont des chercheurs, à y avoir participé.

    11

    Cette conférence est à l'origine de la liste d'Alisomar qui vient donner vingt-trois principes, qui selon les personnes ayant aidé à les développer, permet d'éviter les dérives de l'intelligence artificielle dans son processus de création et d'innovation, aussi appelée «guide de référence pour un développement éthique de l'intelligence artificielle».

    Ces principes tendent à s'inscrire dans la lignée des trois lois de la robotique d'Asimov des années 1940, créées telles que «Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger ; Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ; Un robot doit protéger son existence en tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi».

    Ces principes d'Asilomar se présentent sous trois catégories : ceux concernant le développement, ceux concernant l'éthique et les valeurs, et ceux concernant les risques à long terme.

    Ils concernent ainsi les objectifs des recherches, les investissements, les relations entre scientifiques et législateurs, l'esprit de la recherche, la nécessité d'éviter les courses, la sécurité, la transparence en cas de problème, la transparence judiciaire, la responsabilité, la concordance des valeurs, les valeurs humaines, les données personnelles, la liberté et la vie privée, les bénéfices collectifs, la prospérité partagée, le contrôle humain, l'anti-renversement, la course aux IA d'armement, l'avertissement sur les capacités, l'importance, les risques, l'auto-développement infini, et le bien commun.

    Cette conférence a, plus que l'élaboration de ces principes, permis de mettre en avant le caractère indispensable de la définition de lignes de conduites à adopter dans tout ce qui implique l'intelligence artificielle.

    B - La définition de lignes de conduites indispensables

    La définition de ces lignes de conduites indispensables pour les entreprises et les géants du numérique s'est d'abord faite par l'édification de «bons comportements» (1), dans la nécessité de donner un cadre pour les usagers tant privés que publics (2).

    12

    1 - L'édification de «bons comportements»

    Ces «bons comportements» sont donc des lignes de conduites que les géants du numériques et les entreprises spécialisées dans les intelligences artificielles, ou qui exercent le gros de leur activité grâce à des techniques d'intelligence artificielle sont tenus de suivre. Les réglementations entourant les intelligences artificielles sont tellement récentes qu'il a fallu identifier au plus vite des comportements à adopter, fondés sur la coutume, le droit existant ou encore sur des conférences telles que celle d'Asilomar.

    Par exemple, l'Organisation de coopération et de développement économiques (OCDE) a adopté une liste de principes attenants aux intelligences artificielles en 2019. Ainsi, elle demande aux entreprises de centrer leur utilisation sur des valeurs humaines, et la nécessité de robustesse, de sécurité et de sûreté.

    La Déclaration de Montréal de 2018 est elle aussi venue adopter une liste de dix comportements ou principes en ce qui concerne l'intelligence artificielle. Ainsi, on y retrouve le principe de respect de l'autonomie qui tend à demander aux entreprises de ne pas mettre en oeuvre des mécanismes de surveillance, d'évaluation ou d'incitation visant à instaurer un mode de vie.

    De même, ce texte prône le principe de bien-être, de protection de l'intimité et de la vie privée, de solidarité, de participation démocratique, d'inclusion de la diversité, de responsabilité, ou encore de développement soutenable.

    Mais, ces textes n'ayant malheureusement qu'une valeur déclaratoire, les entreprises n'ont donc pas d'obligation de suivre ces principes au pied de la lettre.

    Ainsi, la tête de file des réseaux sociaux, Facebook, se retrouve aujourd'hui encore contraint de payer une amende pour utilisation abusive des données personnelles par le biais du développement d'une intelligence artificielle qui visait à reconnaître les visages et mettre des descriptions de manière automatique.

    Cependant, ces techniques étant très récentes et n'ayant de cesse de se développer, les législateurs ont parfois du mal à suivre et à s'aligner avec ces innovations, forçant à établir un cadre pour les usagers.

    13

    2 - La nécessité d'un cadre pour les usagers

    Il faut savoir au préalable que les IA sont présentes dans nos quotidiens sans qu'on ne puisse s'en rendre compte.

    Ainsi, elles interviennent par exemple dans nos boîtes mail en filtrant les «spams» et en les redirigeant automatiquement vers les mails indésirables. On les retrouve aussi lorsque des messages courts et cérémonieux nous sont proposés, permettant de répondre à des mails de manière très rapide.

    Comme il a été dit précédemment, elles sont aussi présentes dans notre utilisation des réseaux sociaux. En effet, c'est elles qui influencent les informations qui sont présentées, comme sur Facebook où elles trient les publications des contacts et des pages suivies, en mettant ensuite en avant celles qu'elles estiment les plus «importantes».

    Elles sont aussi retrouvées afin de détecter des propos à teneur violente, injurieuse, raciste ou encore des pensées suicidaires.

    Les intelligences artificielles nous permettent aussi de faciliter notre accès aux moteurs de recherches. C'est elles qui trient les informations afin de faire remonter celles qui sont considérées comme les plus pertinentes aux vues de la recherche qui est faite. Elles vont ainsi parcourir les sites pour les indexer.

    Il existe notamment une avancée notable en termes d'intelligence artificielle en ce qui concerne la traduction. Outre le fait que c'est grâce à elles que des logiciels tels que Google Traduction fonctionnent, elles permettent à présent de traduire automatiquement tous les textes présents sur les plateformes telles que Instagram ou Facebook grâce aux techniques de deep learning comme avec la Neural Machine Translation System.

    Elles sont aussi utiles dans nos trajets du quotidien. En effet, elles interviennent grandement dans les applications de navigation tels que Waze ou Google Maps en déterminant, par exemple, le trajet le plus court, l'heure d'arrivée, ou encore en prenant en compte le trafic en temps réel et modifiant automatiquement la trajectoire.

    Toutes ces utilisations quotidiennes des intelligences artificielles ont démontré que le manque de force contraignante des textes, tels que la Déclaration de Montréal, pour les entreprises

    14

    concernées engendraient la nécessité de l'adoption et l'édification d'un cadre d'utilisation des intelligences artificielles pour les usagers directement.

    Les entreprises ont petit à petit été soumises à des règles de transparence envers leurs usagers, en leur faisant adhérer à des consignes d'utilisation ou de modelage du traitement des données personnelles.

    II. Une réglementation face aux enjeux éthiques et humanitaires

    Le développement technologique lié à l'intelligence artificielle pose nécessairement de sérieuses questions autour de la problématique éthique (a), malgré qu'apparaissent de plus en plus des campagnes de sensibilisations sérieuses autour dudit conflit (b).

    A - D'une problématique liée à l'éthique

    1 - Des lacunes éthiques substantielle à l'IA

    A l'aide de l'intelligence artificielle, la créativité elle-même peut être déléguée et parfaitement appliquée à ce nouvel outil de technologie. En somme, l'IA en tant que super-logiciel autodidacte permet la réalisation de tâches complexes à la place des humains. Néanmoins, il n'est aujourd'hui pas un mystère que pour de nombreux chercheurs et scientifiques, la question d'éthique en la matière relève d'une importance quasi capitale.

    La recherche d'éthique en matière d'IA est importante et ce, pour deux raisons. Premièrement quand l'intelligence artificielle raisonne de manière trop simpliste: c'est le cas par exemple avec une voiture autonome, qui décrypte et analyse ce qui se déroule sur la route, peut-elle réellement décrypter toute la complexité du moment présent dans le cas d'un trafic abondant ?

    En 2017, une équipe de chercheurs américains avait posé sur des panneaux « STOP » des stickers noirs et blancs à la suite de quoi, 84% des voitures autonomes testées avaient pris les STOPS comme des panneaux de limitation à 50km/h.

    15

    Ces exemples permettent de développer cette question de l'éthique en se questionnant sur la réelle capacité des IA à gérer des situations parfois imprévisibles avec des piétons par exemple, ou la question de choix moraux dans le cas d'accident imminent.

    Ainsi l'imprévisibilité constitue une lacune majeure de l'IA mais n'est pas la seule dès lors qu'une intelligence artificielle qui apprend vite et obéit parfaitement peut poser tout de même d'autres soucis. C'est le cas par exemple de l'IA créée par Microsoft « Tay » qui de par ses interactions avec les humains sur les réseaux sociaux devait progresser et devenir « humaine ». Pourtant, cette dernière a dû être désactivée d'urgence dès lors qu'elle reçut des connaissances controversées et se mit à tweeter des propos antisémites.

    Au-delà même de toutes les utilisations douteuses de cette technologie, c'est au coeur même du fonctionnement de l'intelligence artificielle que se posent certaines limites éthiques. En effet, une IA est aussi intelligente que l'ensemble des données emmagasinée pour apprendre. A titre d'exemple, Amazon avait lancée un logiciel de recrutement automatisé qui s'est soldé par un échec dès lors que la base de données s'est trouvée biaisée et totalement discriminante, favorisant et automatisant par extension la discrimination à l'embauche.

    En somme, la problématique tourne autour de cette opacité de réflexion à l'intérieur de l'IA, la « boîte noire », l'idée serait donc de créer des technologies plus lisibles et traçables pour permettre de démêler les bugs ou les résultats discriminants. Une science existe déjà en la matière, il s'agit de la « Rétro-ingénierie ».

    Une deuxième solution serait d'immiscer davantage de sociologues, anthropologues ou de philosophes sur des projets scientifiques et former les ingénieurs et mathématiciens aux questions éthiques directement à l'université.

    2 - Une sensibilisation progressive à la question éthique

    Cette sensibilisation aux questions éthiques à débutée peu à peu en 2019, avec tout d'abord les universités qui se sont mises à faire graviter cette problématique autour des projets liés à l'intelligence artificielle. D'un oeil plus juridique, la Commission Européenne publie régulièrement autour de ces questions éthiques et à titre illustratif, elle publie en avril 2019, un communiqué établissant les lignes directrices sur l'éthique dans l'intelligence artificielle élaborées par un groupe d'experts indépendants en la matière. Cette publication

    16

    avait pour objectif de prévenir, signaler, sensibiliser et contribuer activement aux discussions réglementaires sur le sujet.

    Il est question notamment d'inscrire au sein de la charte des droits fondamentaux de l'UE de grands principes liés à la protection des données et à la transparence de ces derniers. Concernant plus précisément les IA, les lignes directives viennent propose les lignes directrices viennent proposer sept principes pour la mise en oeuvre d'un IA digne de confiance : « Ces principes ont trait (i) au facteur humain et contrôle humain, (ii) à la robustesse et la sécurité, (iii) au respect de la vie privée et à la gouvernance des données, (iv) à la transparence, (v) à la diversité, la non-discrimination et l'équité, (vi) au bien-être sociétal et environnemental et enfin (vii) à la responsabilisation».

    En réalité, l'ensemble de ces initiatives démontrent une volonté claire des institutions publiques et des établissements de recherches également, de se positionner sur le sujet de l'IA. Elles démontrent également un encouragement clair émanant d'une volonté commune d'acteurs d'échanger, de s'accompagner concernant le cadre qui devrait accompagner le développement des IA.

    Au regard de ce besoin impératif de réglementer l'intelligence artificielle pour des questions éthiques sur le plan civil, il convient de également de prendre en compte des questions d'ordres morales plurielles s'incarnant en la nécessité d'encadrer les robots tueurs qui dans un contexte militaires correspondent aisément à ce besoin impérieux d'un cadre éthique propre aux Intelligences artificielles.

    B - L'exemple des SALA : De nécessaires fondations d'un « droit moral encadré » de tuer

    En droit international, seul l'Homme a le « droit moral encadré » de tuer, pourtant, apparu à partir de 2003 durant la deuxième guerre d'Irak, la robotique militaire servait initialement dans un but de déminage dans un contexte où les menaces d'engins explosif improvisés était telle que mettre en danger la vie des hommes à cette période était compliqué. A ce jour, toujours essentiel pour le déminage, ces derniers tendent à s'acheminer vers d'autres utilisations notamment dans le domaine de la surveillance car forcé de constater que

    17

    le robot à l'immense avantage de déporter les sens humains que sont la vue, l'ouïe, l'odorat, le toucher.

    L'évolution Système d'armes létales autonome (SALA) a connu d'importantes évolutions institutionnelles ces dernières années. Portée à l'ordre du jour en 2007, les SALA sont pour la première fois pointé du doigt par un docteur en robotique du nom de Noel Sharkey, qui dans une tribune du journal The Guardian va lancer une alerte sur le développement rapide de ces armes autonomes et a appelé à un encadrement juridique international très urgent. En 2012, la question a dépassé le cercle des experts, puisque l'affaire est médiatisée par la publication d'un rapport conjoint de Human Right Watch et de l'université d'Harvard ; en parallèle une coalition d'ONG se forme avec Stop Killers Robot. En 2013, le débat a pénétré les enceintes du systèmes des nations unies avec un rapport dans le cadre du Conseil des Droits de l'Homme sur les exécutions extrajudiciaires mais également au sein du Conseil Consultatif des nations unies pour les questions de désarmements qui a demandé que la questions soit examiné dans le cadre d'un forum existant, celui de la Convention de 1980 relatif à certaines armes classiques.

    En ce qui concerne les Etats membres, il y a un réel manque de consensus puisque ces derniers sont partagés entre ceux qui souhaitent une interdiction préventive, et ceux réclament un moratoire concernant les recherches et l'utilisations de ces SALA, d'autres qui prônent une réglementation non contraignante qui pourrait évoluer vers des normes obligatoires et certains à l'instar de la France considère que ces systèmes sont une évolution des moyens de combat tout à fait naturel et qui doit être analysé dans le cadre de la réglementation existante.

    En somme, l'appétence pour ces « robots killers » et ces drones disposant d'une autonomie propre semble inéluctable bien que déjà présente de nos jours. Une censure de ces derniers impossible dès lors qu'une interdiction portant sur des technologies à double usage comme les robots risquerait de porter préjudice à la recherche civile. Les questions juridiques relatives à ce sujet sont d'une pluralité et relèvent aussi bien du droit du recours à la force, que du droit des armes, en passant par le Droit international humanitaire etc...

    L'idée semble ici de se tourner vers l'encadrement juridique de ces intelligences artificielles que ce soit dans l'existence ainsi que dans l'usage. Il convient de se restreindre aux discussions en cours à Genève au sujet de l'autonomie robotique et des conséquences que

    18

    cela pourrait avoir et incombe de traiter particulièrement de la définition, du contrôle humain, de l'examen préalable et des questions relatives à la responsabilité. Dès lors, il convient de constater qu'à ce jour le droit international/humanitaire doit s'adapter et faire face à l'avènement des SALA, de même qu'il doit réguler sa juridiction notamment en matière de responsabilité.

    1 - Un Droit International à l'épreuve de l'armement robotique

    Régir de nouvelles règles juridiques pour la robotique incombe d'une nécessité d'identifier ces derniers au sein des textes internationaux (a) compte tenu le profond vide juridique dans ce domaine (b)

    a - De sérieuses lacunes en matière d'identification juridique des drones militaires

    Le droit international prône une souveraineté propre des Etats, plus encore, est mis à l'honneur au sein des organisations internationales le non-recours à la force et/ou à la menace à l'égard d'un Etat pour des raisons d'ordres politiques, territoriales... (Article 2.4 de la Charte des Nations Unis) Ainsi, l'usage de drones armés sur un territoire étranger sera motivé seulement s'il respecte les règles relatives à la légalité du recours à la force, aux règles relatives à la conduites des opérations militaires et aux droits de l'Homme.

    Pour autant, l'utilisation de drones armées dans un territoire étranger ne viole pas nécessairement lesdits principes notamment si l'Etat faisant usage de ces instruments de guerre a reçu l'approbation légitime (sans pressions, ni influences) de l'Etat territorial. Ainsi, la présence militaire étrangère et l'utilisation de la force peut être légitime.

    De même, le cas de la légitime défense contenu à l'article 51 de la Charte susmentionnée, peut justifier l'utilisation de drones armés. Enfin, une autorisation expresse du Conseil de sécurité des Nations unies peut justifier l'intervention d'un autre Etat et l'utilisation desdites armes.

    Sur le plan du cadre juridique international, il est possible de retenir certains textes à l'instar du traité sur le commerce des armes entrée en vigueur le 24 décembre 2014 prévoyant la non-exportation d'armes vers des pays susceptibles de menacer la paix et/ou vers des pays

    19

    susceptibles de commettre des crimes envers leur population ainsi que la lutte contre les détournements et trafic d'armes ; mais également l'arrangement de Wassenaar, qui est un accord concernant les produits et les bien ou les technologies à double usage, d'où le fait qu'il est possible d'y retrouver les drones, les robots qui vont être censés aider au plan civil mais également avoir des usages militaires.

    C'est en somme, la suite du COCOM issu de la guerre froide fonctionnant sur une liste de produit interdit à exportation et un système de liste de pays (noir, gris) dans lequel il faut interdire/limiter les exportations.

    En réalité, le débat relatif aux drones et aux robots tueurs posent de nombreuses questions. Ainsi, à titre d'exemple a été récemment pointé du doigt, au sein du conflit Arab saoudite et Yémen, la France qui continuait à alimenter en arme l'Arabie saoudite car cela rapportait beaucoup d'argent malgré le fait qu'il ait à la fois beaucoup de questions juridiques et éthiques dans ce conflit.

    Il semble ainsi que le commerce prenne plus de place que certaines conditions éthiques et humaines pour les industries d'armement. C'est là, l'application de la fameuse expression « L'argent est le nerf de la Guerre » qu'il convient d'occulter par de nouveaux encadrements juridiques strictes et une rigoureuse réglementation quant à l'utilisation/possession de drones et de robots tueurs.

    Le problème étant qu'il y a, au sein du droit international une réelle absence de consensus sur le champ d'application d'un éventuel droit à venir pour ces robots, du fait des interrogations sur la gamme des options ouvertes en termes d'encadrement juridique. L'opportunité d'une réglementation, son contenu dépend de la conformité de ces systèmes, au droit international humanitaire et tous les Etats s'accordent pour considérer que ledit droit est pleinement applicable aux systèmes d'armements autonomes.

    b - La nécessité d'une régulation juridique des drones tueurs autonomes

    Au sein du droit international humanitaire, l'utilisation des drones n'est nullement mentionnée mais reste pour autant contrainte par les règles régies par ledit droit. Ainsi, dans ce cadre l'usage de drones doit être rigoureusement réfléchi par les parties qui doivent strictement distinguer le caractère civil et militaire que ce soit d'un point de vue matériel ou

    20

    humain. En effet, doit subsister dans le cadre d'une utilisation de drones armés un conflit armé. En outre, un arrêt Tadic en date de 1995, rendu le tribunal pénal international est venu définir la notion de « conflit armé ». Dans le cas d'une utilisation autre qu'un conflit armé, sera appliquée la législation nationale en vigueur et le droit international relatif aux droits de l'homme.

    En réalité, le flou juridique à l'égard de ces instruments laisse place à des désaccords quant à l'utilisation légitime ou non de drones. A titre d'exemple, de nombreuses questions restent en suspens quant à la possibilité d'utiliser ce type d'arme sur un individu ayant participé à un conflit armé et s'étant déplacé sur un territoire non belligérant. (Quel droit appliquer ?).

    De même, lorsqu'il s'agit de disséquer les règles relatives aux nouveaux armements au sein du Droit international Humanitaire, ces lacunes juridiques sont tout autant présentes. Ainsi l'article 36 du protocole 1 (Convention de Genève), impose à chaque Etats parties, un examen préalable d'une arme nouvelle au droit international humanitaire pour déterminer si l'emploi serait légal ou non en certaines circonstances ou en toutes circonstances. Néanmoins, ledit même article ne prévoit pas comment cet examen doit être conduit et en la matière il y a de très nombreuses divergences entre les pratiques étatiques. Le Comité international de la Croix-Rouge à partir de 2013, a demandé instamment aux Etats d'examiner les questions que soulèvent l'emploi d'armes létales autonomes avant qu'elles soient mises au point ou employées. Autrement dit, tout Etat qui met au point ou acquiert ces systèmes doit s'assurer qu'ils peuvent être utilisés en conformité avec les règles du droit humanitaire (interdiction aux souffrances inutiles, principe de distinction, de précaution, de proportionnalité...).

    A ce sujet, des débats très vifs, portent actuellement sur la possibilité d'encoder dans un programme des règles relatives à la participation directes aux hostilités, ce qui poserait en l'occurrence un sérieux problème notamment en matière de responsabilité dès lors d'une accession à l'autonomie par ces « robots killers ».

    2 - L'autonomie des robots comme bouleversement en matière de responsabilité

    Ce n'est pas à l'outil de dicter sa vision à l'artisan. Dès lors, il convient de s'interroger quant à la limite d'autonomie offerte au robot (a) afin d'en délimiter réellement l'existence et l'utilisation (b).

    21

    a - Une autonomie nécessairement jaugée

    L'intelligence artificielle est une grande révolution du XXIème siècle en progression et par ailleurs immuable qui sera portée par le monde civil pour des usages civils. En effet, beaucoup de technologie militaire ont à ce jour une utilité duale (civil-militaire). Le problème se pose de savoir si ladite intelligence artificielle doit disposer d'une décision de tir dans le cadre militaire.

    Il y a certains cas de figures où potentiellement, la question peut se poser notamment avec l'exemple du robot militaire « Samsung SGR-A1 » de la Corée du Sud conçu pour remplacer les soldats humain et l'armée de la Corée du Sud dans la zone coréenne démilitarisée à la frontière avec la Corée du Nord. Ledit robot fait ainsi face à un no man's land, une zone d'exclusion interdite aux civils. Dans le cas d'une éventuelle invasion et en l'absence d'autres possibilités, le militaire responsable de la décision de tir pourrait légitimement activer l'autonomie du robot dans ce cadre-ci.

    Parmi les Etats en haute pointe dans ce domaine se trouvent : les Etats-Unis avec la DARPA (Agence pour les projets de recherche avancée de défense) ; les Israéliens et la Russie qui en 2015 testent ses robots en Syrie sur une base rebelle syrienne.

    Il existe une campagne internationale de contestations créée par des ONG à l'égard de ces « robots killers » (Stop Killer Robot) qui soumet à l'ONU une demande visant à interdire ce type d'arme. Donnant lieu à beaucoup de discussions à Genève, le but étant de ne pas laisser le contrôle aux machines d'une décision autonome létale.

    Le problème posé par ces « robots tueurs » relèvent d'une éventualité dans laquelle ces derniers disposent d'une autonomie de décision.

    Un rapport du 27 Janvier 2017 rendu par le Parlement Européen concernant les questions relatives à la responsabilité civiles en matière d'action dommageable d'un robot recommande à la commission : « La création d'une personnalité juridique spécifique pour les robots autonomes les plus sophistiqués qui devront être considéré comme des personnes

    22

    électroniques dotés de droit et de devoir bien précis y compris celui de réparer tout dommage causé à un tier. »

    Dudit rapport, il en convient de constater que l'on est bien loin de la déclaration de St Pétersbourg qui sans difficulté majeure en 1868 avait fixé les limites techniques ou les nécessités de la guerre doivent s'arrêter devant les exigences de l'humanité.

    b - D'une stricte nécessité d'encadrer l'existence et l'utilisation d'armes autonomes

    Initialement, l'utilisation d'une machine nécessite d'être téléopéré par un individu disposant de la décision de tir. Ainsi, est écartée la décision du tir confiée à l'autonomie du robot. En outre, il s'agit là de reconnaître une responsabilité humaine fondamentale émanant de la décision première d'un Homme de décider du droit de la machine à tuer.

    Pour autant, ne pas nier l'existence future de robots autonomes échappant au contrôle humain ne semble pas absurde. A titre d'exemple, la question a été très récemment posée en France où la nécessité pour cette dernière de réglementer à l'échelle internationale son droit robotique a été soumis dans la continuité des discussions dans le cadre de l'ONU. En l'occurrence, est préconisé à cette dernière de poursuivre son financement à l'égard des recherches relatives à l'autonomie des systèmes pour éviter un déclassement international, néanmoins elle doit adjoindre à cela un encadrement juridique propre à ses valeurs. ("Robots tueurs" dans l'armée : "La responsabilité humaine, la possibilité d'avoir la dernière main sur la machine, est absolument fondamentale" ; France Info)

    Ainsi, la question se pose de savoir si ces robots sur la base de modèles mathématiques avec le droit de vie ou de mort vont remettre en cause le droit de la guerre et plus encore les principes du droit international humanitaire. Pour l'ONU, il s'agit aujourd'hui de trouver une définition précise et une régulation des armes autonomes car confier à des robots un pouvoir de décision dans des situations de vie ou de mort revient à affranchir une ligne morale fondamentale. L'intérêt est donc ici pour l'ONU de définir un cadre réglementaire notamment en cas d'erreur d'appréciation d'un robot ou d'un humain à distance. A l'issue des premières réunions, la perspective d'un traité régissant leurs utilisations restait lointaine.

    23

    En somme, l'enjeu principal est de définir ce qu'est réellement une arme autonome et de donner des limites à son utilisation. Ceci, d'un point de vue civil, peut être mis en parallèle et se rapproche du débat autour de la responsabilité des voitures automatisées en cas d'accident.

    24

    PARTIE II : L'ÉTAT ACTUEL DE CETTE RÉGLEMENTATION : ENTRE
    AMBITIONS ET CARENCES

    Le 21 avril 2021, la Commission a proposé un nouveau Règlement permettant d'améliorer le fonctionnement du marché intérieur de l'Union européenne concernant l'intelligence artificielle. Elle souhaite le faire adopter dans un cadre juridique uniforme, voulant faire de l'Europe le pôle mondial d'une intelligence artificielle digne de confiance.

    I- Une réglementation aux dispositions ambitieuses

    La proposition de nouvelle réglementation sur l'Intelligence Artificielle présentée le 21 avril 2021 permet, à travers un texte clair et relativement précis, de favoriser le progrès (A), tout en garantissant la sécurité des citoyens (B).

    A- La favorisation du progrès

    Ces dernières années, l'Intelligence Artificielle a connu un essor considérable. Ce développement a donc nécessité l'émergence d'une réglementation de l'Intelligence Artificielle.

    Une proposition de nouvelle réglementation sur l'Intelligence Artificielle a été présentée le 21 avril 2021 par la Commission européenne. L' « Artificial Intelligence Act» est le résultat de plusieurs études et d'analyses qui ont débuté en 2018 permettant de démontrer que la législation était lacunaire. La Commission souhaite dès lors réaffirmer l'importance stratégique de l'Intelligence Artificielle pour l'Europe. De plus, elle précise qu'il est aujourd'hui indispensable d'encadrer son usage dans un grand nombre de secteurs. Ce projet de réglementation sur l'Intelligence Artificielle ferait de l'Union européenne un acteur mondial de premier plan dans le développement d'une IA fiable garantissant, qui plus est, une grande sécurité.

    Un des principaux buts de la Commission européenne est d'améliorer le quotidien de tous les européens en favorisant le progrès dans l'intelligence artificielle. La mise en place de cet aménagement passe par l'encouragement de l'excellence dans ce domaine (1), la formation de nouvelles compétences aux technologies concernées (2) et des stratégies de collecte d'informations de données (3).

    25

    1- L'encouragement de l'excellence dans le domaine de l'Intelligence Artificielle

    La Commission européenne souhaite renforcer l'excellence en même temps que la place de l'Europe dans le domaine de l'Intelligence Artificielle. Un des principaux buts de ce règlement est de préserver l'avantage européen sur les marchés mondiaux. Pour cela, la Commission européenne souhaite appuyer l'innovation dans les domaines du développement et de l'utilisation des technologies de l'Intelligence Artificielle dans tous les États membres.

    En 2018, un plan coordonné sur l'Intelligence Artificielle a vu le jour et a permis de créer un environnement dynamique de stratégies nationales et de financements de l'Union européenne pour les partenariats public-privé et les réseaux de recherche et innovation. Pour autant, il est aujourd'hui nécessaire de s'intéresser au plan coordonné publié en avril 2021. Ce plan coordonné définit une nouvelle stratégie proposant des actions concrètes et fonctionne avec la proposition de règlement sur l'IA. Ce dernier vise les différentes actions qui doivent être mises en oeuvre par les États membres.

    Il est financé par des programmes comme le fonds pour une Europe numérique ou Horizon Europe. Ce fonds permet d'accélérer les investissements dans les technologies d'Intelligence Artificielle pour relancer l'activité économique et sociale après la crise sanitaire qui a touché le continent. Il permet également d'interagir sur les stratégies nationales et les programmes d'Intelligence Artificielle. Enfin, il vise à aligner la politique d'Intelligence Artificielle en éliminant la fragmentation et en relevant les défis qui se posent au niveau mondial.

    En parallèle, il est alors nécessaire de mettre en place des conditions adéquates pour le développement de l'IA dans l'Union européenne. L'Union européenne doit alors devenir le lieu privilégié où l'excellence se développe mais il faut également un renforcement du leadership stratégique. Pour cela, l'Union européenne doit disposer d'un écosystème d'excellence ainsi que d'une recherche fondamentale et des capacités permettant de mettre sur le marché les innovations du « lab ». A ce niveau, la mise en place d'un partenariat public-privé peut s'avérer bénéfique. Il faut également constituer et mobiliser des capacités de recherche et d'innovation. L'appui et la collaboration des PME et des administrations publiques des installations d'expérimentation constitue un atout majeur.

    26

    Le commissaire chargé du marché intérieur, Thierry Breton s'est exprimé en ces termes:

    «L'IA est un moyen, et non une fin. Elle existe depuis plusieurs décennies, mais ses capacités se sont considérablement développées avec l'accroissement de la puissance de calcul. Cela offre un énorme potentiel dans des secteurs aussi divers que la santé, les transports, l'énergie, l'agriculture, le tourisme ou la cybersécurité. Cela comporte aussi un certain nombre de risques. Les propositions présentées aujourd'hui visent à conforter la position de l'Europe en tant que pôle mondial d'excellence dans le domaine de l'IA, du laboratoire au marché, à faire en sorte que, en Europe, l'IA respecte nos valeurs et nos règles et à exploiter son potentiel à des fins industrielles

    Pour pouvoir encourager l'excellence dans le domaine de l'Intelligence Artificielle, il est nécessaire de former de nouvelles compétences.

    2- La formation de nouvelles compétences dans les technologies de l'Intelligence

    Artificielle

    L'Intelligence Artificielle se développe rapidement et engendre de nombreux changements dans la société. La proposition de règlement sur l'Intelligence Artificielle qui a été présentée le 21 avril 2021 développe les changements et les nouvelles compétences que l'IA va entraîner. De nombreuses évolutions ont lieu en améliorant les soins de santé. Effectivement, la possibilité d'avoir des précisions accrues des diagnostics ou une meilleure prévention des maladies fait partie des nouvelles compétences mises en place par ce texte relativement ambitieux. De plus, l'IA va permettre de rendre l'agriculture plus efficiente en s'adaptant au changement climatique et en augmentant l'efficacité des systèmes de production par la maintenance prédictive.

    Effectivement, pour renforcer la position de l'Union européenne à l'échelle mondiale, le plan coordonné sur l'intelligence artificielle 2021 propose des actions conjointes dans sept secteurs. Ces secteurs sont les suivants : l'environnement, la santé, une stratégie pour la robotique dans le monde de l'IA, le secteur public, les transports, l'application de la loi, la migration et l'asile, ainsi que l'agriculture.

    Le Livre Blanc sur l'IA portant sur une approche européenne axée sur l'excellence et la confiance, précise que pour construire un écosystème d'excellence capable de soutenir le développement de l'Intelligence Artificielle dans l'ensemble de l'économie et de

    27

    l'administration publique de l'Union européenne, il est nécessaire de renforcer l'action à plusieurs niveaux, dont celui des compétences. Ce livre blanc définit des options stratégiques poursuivant le double objectif de promouvoir l'adoption de l'IA et de tenir compte des risques associés à certaines utilisations de cette technologie.

    Une action doit en effet être nécessairement portée au niveau des compétences en ce qui concerne l'Intelligence Artificielle pour pouvoir en combler les lacunes. Comme il est énoncé précédemment, la société et l'IA sont toutes deux en constante évolution, d'où les préoccupations de la Commission dans ce domaine.

    Cette stratégie en matière de compétences doit permettre à tous les Européens de bénéficier d'une transformation verte ainsi que du virage numérique de l'économie de l'Union européenne. Plusieurs initiatives doivent alors être envisagées, notamment concernant les régulateurs sectoriels. Il s'agit ici d'améliorer leurs compétences en matière d'Intelligence Artificielle favorisant une mise en oeuvre certaine des règles pertinentes.

    Par ailleurs, une révision du plan d'action en matière d'éducation numérique devra permettre d'utiliser à bon escient les données et les technologies qui se fondent sur l'IA. La mise en place d'analyse prédictive et d'analyse d'apprentissage pourra alors permettre d'améliorer les systèmes d'enseignements et de formations et de les adapter à notre société.

    Il est également nécessaire d'accroître la sensibilisation de l'IA à tous les niveaux d'enseignement pour permettre aux citoyens de se préparer à des décisions toujours plus influencées par l'IA.

    Ce développement de compétences est une priorité. C'est ce qu'il ressort de la proposition de règlement du 21 avril 2021. Il est par ailleurs nécessaire de faire des efforts considérables pour augmenter le nombre de femmes formées et employées dans ce domaine.

    Il semble alors bénéfique de mettre en place un centre spécialisé dans la recherche et l'innovation dans le domaine de l'Intelligence Artificielle en Europe. Ce centre serait le moyen d'attirer des chercheurs du monde entier et de permettre d'accroître l'excellence dans les compétences qui se développent en Europe.

    28

    3 - Les stratégies de collecte d'informations et de données

    La proposition de Règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l'IA du 21 avril 2021, met en place un développement des utilisations technologiques de l'IA relatif principalement aux stratégies de collecte d'informations et de données. La Commission européenne désire saisir l'opportunité de prendre "la nouvelle vague des données" dans les prochaines années. L'objectif principal est alors de mettre en place une émergence des espaces de données des divers secteurs et d'alimenter les systèmes d'Intelligence Artificielle.

    Avec cette proposition de règlement, de nombreux changements sont prévus concernant la valeur des données ainsi que leur réutilisation transsectorielle. Si l'Europe accuse encore du retard dans ce domaine, elle peut, grâce à une nouvelle vague de données, néanmoins prochainement espérée, se hisser au premier rang mondial dans l'économie tirant parti des données.

    Ainsi dans les cinq années à venir, le but est de bouleverser les modes de stockage et de traitement des données. Comme il est précisé dans le Livre Blanc du 19 février 2020, à cette période, 80 pourcent des opérations de traitement et d'analyse des données se déroulaient dans des centres de données et des installations informatiques centralisées. A contrario, seulement 20 pourcent se déroulaient dans des objets connectés intelligents. Il faut tout de même préciser que d'ici 2025, ces chiffres sont amenés à relativement évoluer.

    L'amélioration de l'accès aux données est d'une importance fondamentale. Effectivement, l'Intelligence Artificielle est une association de technologies permettant de combiner des données, des algorithmes et puissance de calcul. Sans données, il est donc impossible de développer des applications d'Intelligence Artificielle. Pour que l'IA puisse être en essor perpétuel, il est nécessaire de réaliser des progrès en matière de calcul des données. Le volume important de nouvelles données qui sera généré dans l'avenir va permettre à l'Europe de se placer aux avant-postes de la transformation des données et de l'intelligence artificielle. L'utilisation de pratiques responsables en matière de gestion de données contribue à instaurer un climat de confiance ainsi qu'à garantir le caractère réutilisable de ces dernières.

    L'objectif final est d'établir des mécanismes et des services de confiance pour la réutilisation, le partage et la mise en commun des données essentielles au développement de modèles d'Intelligence Artificielle fondés sur les données de haute qualité.

    29

    Cependant, cette favorisation du progrès doit se faire en cohérence avec les exigences de protection qui garantissent la sécurité des citoyens et le respect des valeurs éthiques du droit de l'Union européenne (B).

    B- Garantir la sécurité des citoyens

    Cette proposition de règlement met en place un cadre cohérent et proportionné (1), tout en garantissant que l'Intelligence Artificielle soit développée en respectant les droits des personnes et à gagner leur confiance (2)

    1- Prioriser une évaluation des risques

    La Commission européenne souhaite, à travers cette proposition de règlement en matière d'Intelligence Artificielle, se fonder sur une approche basée sur les risques. Il est alors composé de règles proportionnées et souples prévues pour faire face aux risques spécifiques liés aux systèmes d'IA. Cette approche fondée sur les risques est effectuée grâce à 4 niveaux différents.

    La première catégorie est celle du « Risque inacceptable ». Ce sont alors les différents systèmes d'Intelligence Artificielle qui sont considérés comme étant une menace évidente pour la sécurité ainsi que pour le droits des personnes. Ces systèmes doivent alors être interdits. Il peut s'agir des systèmes d'Intelligence Artificielle qui permettent la notation sociale par les États.

    La deuxième catégorie est celle du « Risque élevé ». Cette catégorie comprend alors les systèmes d'Intelligence Artificielle qui sont considérés à haut risque. Les systèmes d'Intelligence Artificielle utilisés dans l'éducation ou la formation professionnelle permettant de déterminer l'accès à l'éducation et le parcours professionnel d'une personne , font partie de cette catégorie. Il peut s'agir également des technologies d'Intelligence Artificielle utilisées dans le domaine de l'emploi, comme les logiciels de tri des CV pour les procédures de recrutement. Cela peut aussi être le cas des technologies d'Intelligence Artificielle utilisées dans le domaine du maintien de l'ordre. Celles-ci seront alors en possibilité d'interférer avec les droits fondamentaux des personnes.

    Pour pouvoir être utilisés, il est nécessaire que les systèmes d'Intelligence Artificielle à haut risque soient conformes à des obligations strictes. Pour cela, il est nécessaire de mettre en place des systèmes appropriés d'évaluation et d'atténuation des risques; une qualité élevée

    30

    des ensembles de données permettant d'alimenter le système pour réduire les risques et les résultats ayant un effet discriminatoire ; un enregistrement des activités pour garantir le suivi des résultats ; une large documentation permettant de fournir les informations nécessaires sur le système et sur sa finalité ; des informations claires pour l'utilisateur ainsi qu'un contrôle humain approprié pour réduire un minimum les risques.

    Les systèmes d'identification biométrique à distance fondés sur l'Intelligence Artificielle seront particulièrement considérés à haut risques. Pour cela, ils sont soumis à des conditions relativement strictes.

    La troisième catégorie est celle du « Risque limité ». Il s'agit ici des systèmes d'Intelligence Artificielle pour lesquels des obligations spécifiques en matière de transparence s'appliquent. Par exemple, lorsque des personnes utilisent des « Chatbots », ils doivent nécessairement être prévenus qu'ils interagissent avec une machine.

    La dernière catégorie est celle du « Risque minime ». Cette proposition de règlement permet l'utilisation d'applications telles que les jeux vidéos reposant sur l'Intelligence Artificielle car une grande majorité relève de cette catégorie. Partant du principe que ce domaine représente seulement un risque minime, le projet de règlement ne prévoit pas d'intervention.

    Pour veiller au respect de cette approche fondée sur les risques, la Commission souhaite que les autorités nationales compétentes fassent appliquer les nouvelles règles sur le marché. De plus, la création d'un Comité européen de l'IA, va permettre de stimuler l'élaboration de nouvelles normes pour l'Intelligence Artificielle.

    2 - La recherche d'une concordance avec les Droits fondamentaux

    La technologie numérique occupe, à l'heure actuelle, une place centrale dans la société. La possibilité d'utiliser l'Intelligence Artificielle peut alors être perçue comme un risque par les citoyens. Effectivement, il se peut que ces derniers se sentent impuissants à défendre leurs droits lorsqu'ils sont confrontés à l'asymétrie de l'information en matière de prise de décision algorithmique. Pour inverser cette tendance, il est nécessaire que les citoyens puissent faire confiance à la nouvelle technologie.

    31

    L'objectif premier de cette proposition de règlement est de mettre en place un cadre légal uniforme favorable à l'utilisation de l'Intelligence Artificielle. Pour autant, l'Union européenne présente une approche fondée sur la protection des Droits fondamentaux des citoyens.

    Aujourd'hui, l'Europe souhaite protéger ses citoyens. En ce sens, la Charte éthique d'utilisation de l'IA dans les systèmes judiciaires a été adoptée le 8 décembre 2018 par le Conseil de l'Europe. Elle permet d'énoncer des principes permettant que l'Intelligence Artificielle reste un outil au service de l'intérêt général. Les principes sont les suivants : respect des droits fondamentaux ; principe de non-discrimination ; qualité et sécurité dans le traitement des données ; transparence, neutralité et intégrité intellectuelle ; maîtrise par l'utilisateur.

    L'utilisation de l'Intelligence Artificielle peut porter atteinte aux droits fondamentaux consacrés dans la charte des droits fondamentaux de l'Union européenne. Il est alors primordial que l'Intelligence Artificielle soit fondée sur des valeurs essentielles de l'Europe.

    La proposition de règlement permet donc de mettre en place un niveau particulièrement élevé de protection des droits fondamentaux ainsi que de lutter contre certains risques liés à l'utilisation de l'IA. L'objectif est de renforcer et favoriser la protection des droits protégés par la Charte. Il s'agit donc du droit à la dignité humaine (article premier), du respect de la vie privée et la protection des données à caractère personnel (article 7 et 8), de la non-discrimination (article 21) et de l'égalité entre les femmes et les hommes (article 23).

    La proposition permet également de mettre en oeuvre un effet dissuasif sur les droits à la liberté d'expression (article 11) et à la liberté de réunion (article 12). Elle a également pour ambition de préserver le droit à un recours effectif et à accéder à un tribunal impartial, les droits de la défense et la présomption d'innocence (articles 47 et 48), ainsi que le principe général de bonne administration.

    Cette proposition a pour mission de consolider les droits des parties dites « faibles ». Il s'agit des droits des travailleurs d'avoir des conditions de travail justes et équitables mais également du droit des consommateurs d'avoir un niveau élevé de protection. De plus, la proposition permet de renforcer les droits de l'enfant et l'intégration des personnes handicapées.

    32

    A côté d'une consolidation certaine des droits fondamentaux, la proposition de règlement met également en place des restrictions à la liberté d'entreprise et à la liberté des arts et des sciences. Pour autant, ces restrictions sont proportionnées et limitées au strict nécessaire pour prévenir et atténuer les risques graves pour la sécurité et les éventuelles violations des droits fondamentaux.

    Pour finir, les obligations en matière de renforcement de la transparence ne doivent pas porter atteinte de manière disproportionnée au droit à la protection de la propriété intellectuelle.

    De fait, l'Intelligence Artificielle remplit plusieurs fonctions précédemment réservées aux être humains. Les individus feront de plus en plus l'objet d'actions prises par des systèmes d'IA qui peuvent être difficiles à contester, c'est pour cela qu'une protection importante est justifiée. Les particuliers peuvent avoir des difficultés en ce qui concerne l'accès effectif à la justice lorsque ces décisions sont susceptibles d'avoir des effets négatifs pour eux. La protection des droits fondamentaux effectuée par la proposition est nécessaire mais également obligatoire.

    Cette protection des droits fondamentaux permet de renforcer les exigences éthiques dans les systèmes de l'IA, tout comme le principe de Garantie Humaine qui permet de faire valoir l'intérêt de l'humain à travers ces avancées technologiques.

    3 - L'introduction du principe de garantie humaine

    L'Intelligence Artificielle se retrouve également dans la révision de la loi bioéthique. Un article L. 4001-3 a été introduit dans le Code de la santé publique, il vise l'utilisation par un professionnel de santé d'un « dispositif médical comportant un traitement de données algorithmique dont l'apprentissage a été réalisé à partir de données massives » pour « un acte de prévention, de diagnostic ou de soin ». La création de ce principe pour l'IA dans le domaine de la santé est une étape relativement importante qui permettrait d'amener d'autres domaines à évoluer.

    Cette avancée fait référence à des valeurs très fortes en Europe qui placent l'humain au premier plan. L'enjeu pour l'Europe est de s'ouvrir à l'innovation tout en régulant les enjeux éthiques. C'est le principe d'une « Garantie Humaine » de l'Intelligence Artificielle.

    33

    Le principe de Garantie Humaine de l'Intelligence Artificielle a été introduit dans la proposition de règlement du 21 avril 2021. L'article 14 consacre alors une portée générale pour la totalité des champs et secteurs d'usage de l'Intelligence Artificielle à ce principe. Il permet alors la mise en place d'une information préalable du patient sur le recours à l'Intelligence Artificielle sans sa prise en charge mais également le déploiement d'une supervision humaine de la solution d'Intelligence Artificielle.

    L'article 14 de la proposition de règlement sur l'IA est intervenu après l'apparition d'un projet pilote de « Collège de Garantie Humaine » mis en oeuvre en 2020 par Ethik-IA. Il se place dans la continuité de ce projet.

    Cet article met en place certaines mesures. En outre, il est précisé que les systèmes d'IA doivent permettre d'être supervisés par des humains. De plus, la supervision humaine doit pouvoir prévenir au maximum les risques pour la santé et pour les droits fondamentaux qui peuvent éventuellement présenter un niveau de risque élevé. Il est alors consacré la nécessité d'une Garantie Humaine pour un développement éthique de l'Intelligence Artificielle. Des indications sont également fournies sur la mise en oeuvre de cette supervision. La Garantie Humaine doit alors être identifiée et construite par le fournisseur avant sa mise sur le marché ou identifiée par le fournisseur. Elle doit faire l'objet d'un suivi en « vie réelle» de l'IA. Pour finir, cet article énonce des objectifs d'informations à mettre en place.

    Cette proposition de règlement met en place de nombreuses avancées bénéfiques pour les citoyens européens. Pour autant, il est malheureusement difficile de ne recenser que les points positifs de cette dernière.

    II- Les critiques des autorités de protection des données personnelles face à cette réglementation

    Cette proposition de règlement sur l'intelligence artificielle, aussi appelé IA Act, est le premier cadre juridique posé sur ces pratiques au sein de l'Union européenne. Très attendu, il a été analysé par les autorités de contrôle et de protection pour relever ce qu'il pouvait être amélioré et rechercher des solutions dans le but de renforcer son efficacité aussi bien dans sa rédaction (A) que dans son organisation institutionnelle (B).

    34

    Pour cela, le Comité européen de la protection des données (CEPD) et le contrôleur européen de la protection des données ont émis un avis conjoint 5/2021 le 18 juin 2021 sur cette réglementation dont l'objectif est d'assurer un cadre juridique effectif tout en respectant les exigences de protection des données personnelles prévues au sein de l'Union.

    A- Une réglementation insuffisamment protectrice

    Pour garantir la confiance des consommateurs, la protection des données personnelles doit être un élément fondamental dans l'élaboration du cadre juridique de l'IA. Le CEPD et le contrôleur européen de la protection des données estiment que ce cadre pourrait être renforcé en dénonçant une faible précision de certaines dispositions (1) et insistent sur la nécessité de conformer les bases législatives à celles déjà envisagées dans le règlement général de protection des données de l'Union européenne (2).

    1- Un manque de clarté dans le cadre juridique

    A travers cette proposition de réglementation, la vice-présidente de la Commission précise que « Avec ces règles qui feront date, l'UE prend l'initiative d'élaborer de nouvelles normes mondiales qui garantiront que l'IA soit digne de confiance ». L'objectif est donc de garantir une confiance des utilisateurs autour de l'intelligence artificielle pour pouvoir assurer son essor effectif. Ces réglementations sont vues comme une sorte de précaution pour empêcher toutes sortes de dérives.

    Pour gagner cette confiance, la Commission précise les usages interdits dans l'objectif de faire prévaloir l'éthique sur l'investissement. Cependant, dans leur avis du 18 juin 2021, le CEPD et le Contrôleur européen de la protection des données relèvent la nécessité d'élargir le champ des systèmes interdits et de les clarifier.

    L'article 5 paragraphe 1 de la proposition du règlement énumère ces 4 systèmes inacceptables fixés en fonction des dangers éthiques qu'ils soulèvent. «

    - systèmes d'IA qui influencent de manière subliminale le comportement d'une personne en vue de lui causer ou de causer à un tiers un dommage ,
    ·

    - systèmes d'IA qui exploitent la vulnérabilité d'un groupe de personnes en

    vue de fausser le comportement de l'une de ces personnes et de causer un dommage ,
    ·

    35

    - systèmes d'IA de notation sociale mis sur le marché, mis en service ou

    utilisés par les autorités publiques ou en leur nom ;

    - systèmes d'identification biométrique à distance en temps réel dans des

    espaces accessibles au public, sauf exception. »

    Ce sont les utilisations de l'IA qui vont à l'encontre des valeurs de l'Union européenne en se fondant sur la manipulation ou l'exploitation de populations vulnérables.

    Cependant, les pratiques interdites dans cette proposition ne sont pas énumérées. Elles laissent donc accès à une large confusion d'interprétation et ne permettent pas de garantir un encadrement strict de l'intelligence artificielle. Le CEPD et le contrôleur européen estiment conjointement dans leur avis rendu le 18 juin 2021, qu'il faudrait donc énoncer les pratiques qui doivent être interdites plutôt qu'en énoncer certains critères pouvant être interprétés.

    Pour illustrer cette nécessité d'élaborer un cadre strict et clair, la Commission a choisi d'interdire dans le IA Act, les dispositifs d'identification en temps réel des individus dont le cadre juridique n'avait jamais été clair jusque-là. Bien que cette modification soit encourageante, elle n'est pas absolue. Ce sont ces dérogations prévues au bénéfice des procédures judiciaires qui posent débat. En effet, accorder des exceptions à des pratiques par nature opposées à la liberté de la vie privée interroge les auteurs à une «extension généralisée de la reconnaissance faciale» qui, bien qu'elles soient interdites dans l'espace public, motivent à l'aménagement de son exploitation dans ces espaces et ainsi à dépasser à long terme le cadre juridique strict qui les encadre.

    La Commission nationale de l'informatique et des libertés (CNIL) considère que la précision des pratiques autorisées et interdites doit être claire et se faire à l'égard des usagers mais également des professionnels. Le but est de permettre à toutes les personnes concernées d'évaluer de manière autonome si les produits qu'ils proposent sont autorisés. La CNIL rejoint l'avis du 18 juin 2021 dans lequel est considéré que certains domaines d'activités tels que la police et les forces de l'ordre exigent des «mesures spécifiques, précises, prévisibles et proportionnées». Sont pris en compte l'impact de ces systèmes sur l'intégrité des personnes concernées mais également sur les valeurs d'une société démocratique.

    La régulation des pratiques de l'IA a pour objectif d'assurer une harmonisation entre les secteurs d'activité et les Etats membres de l'Union européenne autour de son utilisation en

    36

    garantissant une sécurité juridique effective. Sur une question aussi sensible que l'intelligence artificielle, il est impératif que le cadre juridique mis en place réponde à des critères de précision et de clarification pour ne pouvoir donner aucune place à l'interprétation.

    Pour renforcer la sécurité juridique, le cadre juridique doit passer par l'élaboration de dispositions claires mais également par la conformité de ces dispositions avec celles préexistantes en matière de protection des données.

    2- Une conformité nécessaire des bases législatives avec celles du règlement général de protection des données

    L'importance des dangers, la Commission l'a bien comprise en retenant une approche fondée sur les risques. La stratégie adoptée est de focaliser la régulation sur les pratiques dites «à haut risque» pour les droits fondamentaux, donc sur une quantité limitée des systèmes d'IA. Cette solution est considérée comme « flexible » car les conditions d'application sont adaptées aux risques qu'ils représentent. Elle figurait déjà dans le Livre Blanc du 19 février 2020 mais elle se concrétise ici par l'élaboration d'un cadre juridique strict.

    C'est également dans ce livre blanc que les systèmes à haut risque sont répartis selon plusieurs critères, que l'IA Act s'est entaché de préciser. En effet, l'article 6.1 prévoit les systèmes considérés comme une composante de produits faisant déjà l'objet d'une certification tierce-partie et l'article 6.2 ceux ayant des impacts prévisibles sur les droits fondamentaux. En annexe, la Commission vient rajouter huit catégories de systèmes à «haut risque» : l'identification biométrique et catégorisation des personnes, la gestion et exploitation d'infrastructures critiques, la formation et formation professionnelle, l'emploi, la gestion des salariés et l'accès au travail indépendant, l'accès et la jouissance de services privés essentiels et de services publics, l'application de la loi (exécution d'une décision de justice, enquête judiciaire), l'immigration, l'asile et la gestion des contrôles à la frontière, l'administration de la justice et processus démocratiques. Cependant, cette disposition est contestable car les systèmes d'IA à «haut risque» de cette liste ne font l'objet d'aucune réelle justification, d'aucun critère commun. Or, l'encadrement de l'IA étant en pleine construction, il est restrictif d'imaginer qu'aucune mise à jour ou du moins difficilement puisse y être ajoutée, pouvant remettre en cause le respect des valeurs éthiques.

    37

    En remarquant que ces systèmes «à haut risque» représentent en majeure partie des exploitations de données personnelles, il est nécessaire de rappeler qu'un cadre de protection des données personnelles existe déjà au niveau de l'Union européenne en tant que règlement général de la protection des données (RGPD) entré en vigueur le 27 avril 2016. Il se fonde sur l'article 16 du Traité sur le fonctionnement de l'UE (TFUE) qui garantit que «Toute personne a le droit à la protection des données à caractère personnelles la concernant». Il prévoit que les règles sont fixées conjointement par le Parlement européen et le Conseil et que son contrôle est assuré par les autorités indépendantes. Le CEPD et le contrôleur européen précisent dans leur avis qu'en instaurant un cadre juridique autour des pratiques de l'IA, il est inévitable pour la Commission d'encadrer la protection des données personnelles des personnes concernées. Ainsi, le cadre de protection qu'elle envisage doit être en accord avec celui du RGPD. Le CEPD, en tant que garant de l'application cohérente du RGPD, insiste sur la nécessité de s'adapter aux restrictions et aux réglementations établies dans ses dispositions pour éviter des contradictions portant atteinte à la sécurité juridique des usagers. Cela implique également les relations entre les différentes autorités de protection au sein de l'Union européenne qui doivent se fonder sur les mêmes bases légales pour assurer une harmonisation dans cette protection.

    Les autorités rappellent également l'importance de cette conformité pour les professionnels. En effet, le respect des obligations légales issues de la législation de l'Union est une condition préalable pour pouvoir accéder au marché commun. Elle passe par l'apposition du marquage CE, signe d'un respect des législations techniques européennes. Ce marquage est obligatoire pour tous les produits couverts par un nouveau cadre législatif européen. Ils font l'objet d'un contrôle de conformité aux exigences essentielles des textes européens pour pouvoir jouir du principe de liberté de circulation garanti au sein de l'Union.

    Ainsi, l'articulation avec le RGPD est un élément essentiel qui permet d'affirmer l'approche réglementaire européenne de l'intelligence artificielle envisagée par la proposition de la Commission. Cette prise en compte ne doit pas être négligée par la Commission car elle permet d'élargir le spectre de la protection communautaire des données personnelles à l'intelligence artificielle, renforçant de facto le cadre juridique qui les entoure, propre aux exigences de l'Union. Ainsi, par la garantie d'une sécurité juridique, la conformité des bases législatives facilite l'investissement et l'essor de l'innovation de l'intelligence artificielle à travers l'Union.

    38

    Ainsi, les critiques relatives à cette réglementation se consacrent foncièrement à la protection de cet encadrement. Cette sécurité recherchée repose sur une analyse des dispositions de cette réglementation mais également sur la mise en oeuvre institutionnelle et gouvernementale rattachée à ce renforcement de la protection juridique.

    B- Une approche sceptique sur l'organisation institutionnelle

    Les autorités de protection pointent du doigt la mise en oeuvre du gouvernement que propose ce règlement (1) pouvant s'avérer décisif dans son rôle au sein de la concurrence internationale de l'IA (2).

    1- La nécessité d'un gouvernement organisé

    Le titre VI du règlement est consacré à la gouvernance et sa mise en oeuvre. Cette gouvernance se fait au niveau national et européen. Dans cette disposition, la Commission évoque l'idée de créer un Comité européen de l'intelligence artificielle, composé de représentants de chaque Etat-membre. Son rôle sera de fluidifier et harmoniser la mise en oeuvre dudit règlement en privilégiant une coopération avec les autorités nationales chargées de contrôler au niveau national l'application de ce règlement.

    Cependant, la CNIL et ses homologues considèrent que les modalités d'exercice de ce pouvoir ne sont pas précisées dans ce règlement. Le Parlement européen rejoint cette pensée en reprochant une absence de précisions concernant notamment son financement, son organisation et ses missions autour de l'intelligence artificielle. Or, cette définition est nécessaire pour garantir son indépendance et renforcer ce pouvoir de contrôle qu'il exerce en collaboration avec les autorités nationales. Ce comité devra également s'imposer face au comité européen spécialisé dans la protection des données personnelles en général. En effet, le défi est d'adopter une même approche européenne dans l'exercice de son contrôle, tout en respectant son champ d'application réduit uniquement à l'intelligence artificielle pour éviter des confusions de compétence pouvant impacter sur la sécurité juridique des consommateurs. Tout comme au niveau réglementaire, une articulation est nécessaire entre les différents organes de contrôle lorsqu'ils défendent les mêmes valeurs européennes.

    Cependant, la CNIL remet en cause cette organisation et penche vers la volonté de fusionner les autorités indépendantes. Ainsi, une seule autorité de protection viendrait contrôler l'intelligence artificielle au niveau national et européen. L'objectif est de créer un cadre

    39

    cohérent de protection réglementaire de l'IA et d'éviter la multiplication inutile d'autorités de protection qui exercent le même contrôle.

    En outre, certains estiment que l'intelligence artificielle nécessite un régulateur compétent et expérimenté. Ainsi, créer un nouvel organe spécifiquement consacré à ce domaine pourrait porter atteinte à la sécurité juridique et révéler des complexités administratives. Or, cela s'opposerait à l'objectif d'harmonisation consacré par cette réglementation et ainsi dégraderait l'idée de conserver la confiance des usagers vue «non pas comme un luxe, mais une nécessité absolue» (Margrethe Vestager, vice-présidente de la Commission européenne).

    Dans le domaine de l'IA, la mise en place d'un régulateur est pertinente pour assurer son contrôle au niveau national et européen mais en est-il de même à l'échelle internationale?

    2- La régulation de l'IA face à la concurrence internationale : atout ou faiblesse de l'Union ?

    Un des enjeux majeurs de cette réglementation est de trouver l'équilibre entre la régulation de l'IA et l'essor de l'innovation. Cette question relève de nombreuses difficultés entraînées par une nécessaire concurrence entre les Etats-membres. Les fournisseurs sont forcés de proposer de nouvelles solutions technologiques nécessitant en contrepartie un plus grand contrôle.

    Ainsi, les autorités estiment qu'il est indispensable d'ajouter à ce règlement un accompagnement à l'innovation pour aider les entreprises à rendre l'intelligence artificielle utile à leur productivité tout en respectant des exigences de protection. A l'initiative du régulateur, cet appui doit permettre aussi bien au niveau national qu'européen, d'obtenir une vision équilibrée entre le respect de l'harmonisation règlementaire de l'Union et la valorisation du progrès technique.

    Cet accompagnement est d'autant plus nécessaire car les entreprises des Etats membres craignent que les règles protectionnistes européennes ne soient pas intégrées à l'échelle internationale. Ainsi, respecter les normes de l'IA Act et du RGPD dévaloriserait les entreprises européennes face à la concurrence internationale. En effet, les grosses entreprises

    40

    américaines et chinoises ne voient aucun inconvénient à utiliser des techniques parfois discriminatoires pour pouvoir être avantagées sur le marché de l'innovation. Ainsi, des techniques spécifiques telles que celle du scrapping (collecter un très grand nombre de données sur un site web) sont utilisées. Cependant, de nature discriminatoire, ces techniques sont prohibées par les exigences européennes. La question est de savoir s'il existe une réglementation de l'IA pour ces autres pays ? A l'internationale, la régulation de l'IA proposée par l'Union européenne a beaucoup inspiré les autres Etats, perçue comme «chef de fil» en la matière. Cependant, certaines formes d'Etat ou les régimes politiques adoptés freinent cette adaptation, à l'instar des Etats Unis qui, par son fédéralisme rencontre des difficultés à éradiquer les pratiques discriminatoires de chaque Etat fédéré, créant des écarts de concurrence et d'innovation.

    Pour revenir à l'échelle européenne, les autorités européennes doivent donc, à travers cette nouvelle réglementation, s'affirmer face aux défaillances des Etats tiers. Dans cette optique, l'accompagnement doit d'abord se faire au niveau interne pour pouvoir conformer l'équilibre recherché à la réalité de chaque Etat membre et des problèmes qu'ils rencontrent.

    L'enjeu organique de cette régulation s'apparente à l'enjeu normatif dont l'idée première est d'acquérir une conformité transversale de l'intelligence artificielle. Bien que des autorités de protection détiennent ce rôle de régulateur, cet enjeu concerne tous les acteurs confrontés à l'IA, tels que les juristes, les ingénieurs, les scientifiques de données, les corps de métiers relatifs à la production ou l'industrie. Par conséquent, plus il y a d'agents plus l'harmonisation est difficile à trouver. Toutefois, les risques relatifs à l'éthique sont si importants qu'ils pourraient presque affecter l'essence même des valeurs démocratiques d'un Etat. Ainsi, les chercheurs en la matière ont tenté de trouver des solutions.

    Isabelle Budor, directrice associée de l'éthique et la vie privée chez Capgimini (entreprise française de service numérique) évoque dans un article, la possibilité de voir plus tard émerger un post spécialement dédié à l'éthique et à la conformité de l'IA. Ce rêve pourrait bien devenir réalité avec l'élaboration du Comité européen de l'IA instauré par l'IA Act. Cependant, son efficacité dépend en grande partie des comportements antérieurs à son entrée en vigueur. Il faut donc que cette régulation soit fluide et fondée sur un « langage commun» et «des compromis entre les priorités» pour qu'elle reste un atout de l'Union européenne et ne devienne pas son talon d'Achille.

    41

    BIBLIOGRAPHIE

    - cabinetrondeauabouly.com, Véronique RONDEAU-ABOULY Avocat - Artificial Intelligence Act du 21 avril 2021

    - l'éthique-washing - meta-media

    - capgemini.com, Isabelle Budor - Futur règlement européen sur l'IA : Comment s'y préparer ?

    - lestempselectriques.net, Yannick MENECEUR et Sophie SONTAG-KOENIG - Proposition de règlement de l'IA de la Commission européenne : entre le trop et le trop peu ?

    - siècledigital.fr, Clémence MAQUET - Quel règlement pour l'intelligence artificielle

    en Europe ?

    - Viepublique.fr, Intelligence Artificielle : un nouveau règlement européen sur l'IA

    - europa.eu, Une Europe adaptée à l'ère du numérique : Intelligence artificielle

    - cnil.fr, Intelligence artificielle : l'avis de la CNIL et de ses homologues sur le futur

    règlement européen

    - dalloz-actualité.fr, L'Intelligence artificielle dans la révision de la loi bioéthique

    - Futura Tech, L'intelligence artificielle

    - JVTech, 460 millions de dollars, C'est ce que Facebook doit payer pour usage abusif

    des données personnelles

    - Asilomar Conference on Beneficial AI

    - "Robots tueurs" dans l'armée : "La responsabilité humaine, la possibilité d'avoir la

    dernière main sur la machine, est absolument fondamentale" ; France Info

    42






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Là où il n'y a pas d'espoir, nous devons l'inventer"   Albert Camus