B- Garantir la sécurité des citoyens
Cette proposition de règlement met en place un cadre
cohérent et proportionné (1), tout en garantissant que
l'Intelligence Artificielle soit développée en respectant les
droits des personnes et à gagner leur confiance (2)
1- Prioriser une évaluation des risques
La Commission européenne souhaite, à travers
cette proposition de règlement en matière d'Intelligence
Artificielle, se fonder sur une approche basée sur les risques. Il est
alors composé de règles proportionnées et souples
prévues pour faire face aux risques spécifiques liés aux
systèmes d'IA. Cette approche fondée sur les risques est
effectuée grâce à 4 niveaux différents.
La première catégorie est celle du «
Risque inacceptable ». Ce sont alors les
différents systèmes d'Intelligence Artificielle qui sont
considérés comme étant une menace évidente pour la
sécurité ainsi que pour le droits des personnes. Ces
systèmes doivent alors être interdits. Il peut s'agir des
systèmes d'Intelligence Artificielle qui permettent la notation sociale
par les États.
La deuxième catégorie est celle du «
Risque élevé ». Cette
catégorie comprend alors les systèmes d'Intelligence Artificielle
qui sont considérés à haut risque. Les systèmes
d'Intelligence Artificielle utilisés dans l'éducation ou la
formation professionnelle permettant de déterminer l'accès
à l'éducation et le parcours professionnel d'une personne , font
partie de cette catégorie. Il peut s'agir également des
technologies d'Intelligence Artificielle utilisées dans le domaine de
l'emploi, comme les logiciels de tri des CV pour les procédures de
recrutement. Cela peut aussi être le cas des technologies d'Intelligence
Artificielle utilisées dans le domaine du maintien de l'ordre. Celles-ci
seront alors en possibilité d'interférer avec les droits
fondamentaux des personnes.
Pour pouvoir être utilisés, il est
nécessaire que les systèmes d'Intelligence Artificielle à
haut risque soient conformes à des obligations strictes. Pour cela, il
est nécessaire de mettre en place des systèmes appropriés
d'évaluation et d'atténuation des risques; une qualité
élevée
30
des ensembles de données permettant d'alimenter le
système pour réduire les risques et les résultats ayant un
effet discriminatoire ; un enregistrement des activités pour garantir le
suivi des résultats ; une large documentation permettant de fournir les
informations nécessaires sur le système et sur sa finalité
; des informations claires pour l'utilisateur ainsi qu'un contrôle humain
approprié pour réduire un minimum les risques.
Les systèmes d'identification biométrique
à distance fondés sur l'Intelligence Artificielle seront
particulièrement considérés à haut risques. Pour
cela, ils sont soumis à des conditions relativement strictes.
La troisième catégorie est celle du «
Risque limité ». Il s'agit ici des
systèmes d'Intelligence Artificielle pour lesquels des obligations
spécifiques en matière de transparence s'appliquent. Par exemple,
lorsque des personnes utilisent des « Chatbots », ils doivent
nécessairement être prévenus qu'ils interagissent avec une
machine.
La dernière catégorie est celle du «
Risque minime ». Cette proposition de
règlement permet l'utilisation d'applications telles que les jeux
vidéos reposant sur l'Intelligence Artificielle car une grande
majorité relève de cette catégorie. Partant du principe
que ce domaine représente seulement un risque minime, le projet de
règlement ne prévoit pas d'intervention.
Pour veiller au respect de cette approche fondée sur
les risques, la Commission souhaite que les autorités nationales
compétentes fassent appliquer les nouvelles règles sur le
marché. De plus, la création d'un Comité européen
de l'IA, va permettre de stimuler l'élaboration de nouvelles normes pour
l'Intelligence Artificielle.
|