A- Une réglementation insuffisamment protectrice
Pour garantir la confiance des consommateurs, la protection
des données personnelles doit être un élément
fondamental dans l'élaboration du cadre juridique de l'IA. Le CEPD et le
contrôleur européen de la protection des données estiment
que ce cadre pourrait être renforcé en dénonçant une
faible précision de certaines dispositions (1) et insistent sur la
nécessité de conformer les bases législatives à
celles déjà envisagées dans le règlement
général de protection des données de l'Union
européenne (2).
1- Un manque de clarté dans le cadre juridique
A travers cette proposition de réglementation, la
vice-présidente de la Commission précise que « Avec ces
règles qui feront date, l'UE prend l'initiative d'élaborer de
nouvelles normes mondiales qui garantiront que l'IA soit digne de confiance
». L'objectif est donc de garantir une confiance des utilisateurs
autour de l'intelligence artificielle pour pouvoir assurer son essor effectif.
Ces réglementations sont vues comme une sorte de précaution pour
empêcher toutes sortes de dérives.
Pour gagner cette confiance, la Commission précise les
usages interdits dans l'objectif de faire prévaloir l'éthique sur
l'investissement. Cependant, dans leur avis du 18 juin 2021, le CEPD et le
Contrôleur européen de la protection des données
relèvent la nécessité d'élargir le champ des
systèmes interdits et de les clarifier.
L'article 5 paragraphe 1 de la proposition du règlement
énumère ces 4 systèmes inacceptables fixés en
fonction des dangers éthiques qu'ils soulèvent. «
- systèmes d'IA qui influencent de manière
subliminale le comportement d'une personne en vue de lui causer ou de causer
à un tiers un dommage , ·
- systèmes d'IA qui exploitent la
vulnérabilité d'un groupe de personnes en
vue de fausser le comportement de l'une de ces personnes et
de causer un dommage , ·
35
- systèmes d'IA de notation sociale mis sur le
marché, mis en service ou
utilisés par les autorités publiques ou en leur
nom ;
- systèmes d'identification biométrique
à distance en temps réel dans des
espaces accessibles au public, sauf exception. »
Ce sont les utilisations de l'IA qui vont à l'encontre
des valeurs de l'Union européenne en se fondant sur la manipulation ou
l'exploitation de populations vulnérables.
Cependant, les pratiques interdites dans cette proposition ne
sont pas énumérées. Elles laissent donc accès
à une large confusion d'interprétation et ne permettent pas de
garantir un encadrement strict de l'intelligence artificielle. Le CEPD et le
contrôleur européen estiment conjointement dans leur avis rendu le
18 juin 2021, qu'il faudrait donc énoncer les pratiques qui doivent
être interdites plutôt qu'en énoncer certains
critères pouvant être interprétés.
Pour illustrer cette nécessité d'élaborer
un cadre strict et clair, la Commission a choisi d'interdire dans le IA Act,
les dispositifs d'identification en temps réel des individus dont le
cadre juridique n'avait jamais été clair jusque-là. Bien
que cette modification soit encourageante, elle n'est pas absolue. Ce sont ces
dérogations prévues au bénéfice des
procédures judiciaires qui posent débat. En effet, accorder des
exceptions à des pratiques par nature opposées à la
liberté de la vie privée interroge les auteurs à une
«extension généralisée de la reconnaissance
faciale» qui, bien qu'elles soient interdites dans l'espace public,
motivent à l'aménagement de son exploitation dans ces espaces et
ainsi à dépasser à long terme le cadre juridique strict
qui les encadre.
La Commission nationale de l'informatique et des
libertés (CNIL) considère que la précision des pratiques
autorisées et interdites doit être claire et se faire à
l'égard des usagers mais également des professionnels. Le but est
de permettre à toutes les personnes concernées d'évaluer
de manière autonome si les produits qu'ils proposent sont
autorisés. La CNIL rejoint l'avis du 18 juin 2021 dans lequel est
considéré que certains domaines d'activités tels que la
police et les forces de l'ordre exigent des «mesures
spécifiques, précises, prévisibles et
proportionnées». Sont pris en compte l'impact de ces
systèmes sur l'intégrité des personnes concernées
mais également sur les valeurs d'une société
démocratique.
La régulation des pratiques de l'IA a pour objectif
d'assurer une harmonisation entre les secteurs d'activité et les Etats
membres de l'Union européenne autour de son utilisation en
36
garantissant une sécurité juridique effective.
Sur une question aussi sensible que l'intelligence artificielle, il est
impératif que le cadre juridique mis en place réponde à
des critères de précision et de clarification pour ne pouvoir
donner aucune place à l'interprétation.
Pour renforcer la sécurité juridique, le cadre
juridique doit passer par l'élaboration de dispositions claires mais
également par la conformité de ces dispositions avec celles
préexistantes en matière de protection des données.
|