2 - Une sensibilisation progressive à la question
éthique
Cette sensibilisation aux questions éthiques à
débutée peu à peu en 2019, avec tout d'abord les
universités qui se sont mises à faire graviter cette
problématique autour des projets liés à l'intelligence
artificielle. D'un oeil plus juridique, la Commission Européenne publie
régulièrement autour de ces questions éthiques et à
titre illustratif, elle publie en avril 2019, un communiqué
établissant les lignes directrices sur l'éthique dans
l'intelligence artificielle élaborées par un groupe d'experts
indépendants en la matière. Cette publication
16
avait pour objectif de prévenir, signaler, sensibiliser
et contribuer activement aux discussions réglementaires sur le sujet.
Il est question notamment d'inscrire au sein de la charte des
droits fondamentaux de l'UE de grands principes liés à la
protection des données et à la transparence de ces derniers.
Concernant plus précisément les IA, les lignes directives
viennent propose les lignes directrices viennent proposer sept principes pour
la mise en oeuvre d'un IA digne de confiance : « Ces principes ont
trait (i) au facteur humain et contrôle humain, (ii) à la
robustesse et la sécurité, (iii) au respect de la vie
privée et à la gouvernance des données, (iv) à la
transparence, (v) à la diversité, la non-discrimination et
l'équité, (vi) au bien-être sociétal et
environnemental et enfin (vii) à la
responsabilisation».
En réalité, l'ensemble de ces initiatives
démontrent une volonté claire des institutions publiques et des
établissements de recherches également, de se positionner sur le
sujet de l'IA. Elles démontrent également un encouragement clair
émanant d'une volonté commune d'acteurs d'échanger, de
s'accompagner concernant le cadre qui devrait accompagner le
développement des IA.
Au regard de ce besoin impératif de réglementer
l'intelligence artificielle pour des questions éthiques sur le plan
civil, il convient de également de prendre en compte des questions
d'ordres morales plurielles s'incarnant en la nécessité
d'encadrer les robots tueurs qui dans un contexte militaires correspondent
aisément à ce besoin impérieux d'un cadre éthique
propre aux Intelligences artificielles.
B - L'exemple des SALA : De nécessaires
fondations d'un « droit moral encadré » de
tuer
En droit international, seul l'Homme a le « droit
moral encadré » de tuer, pourtant, apparu à partir de
2003 durant la deuxième guerre d'Irak, la robotique militaire servait
initialement dans un but de déminage dans un contexte où les
menaces d'engins explosif improvisés était telle que mettre en
danger la vie des hommes à cette période était
compliqué. A ce jour, toujours essentiel pour le déminage, ces
derniers tendent à s'acheminer vers d'autres utilisations notamment dans
le domaine de la surveillance car forcé de constater que
17
le robot à l'immense avantage de déporter les
sens humains que sont la vue, l'ouïe, l'odorat, le toucher.
L'évolution Système d'armes létales
autonome (SALA) a connu d'importantes évolutions institutionnelles ces
dernières années. Portée à l'ordre du jour en 2007,
les SALA sont pour la première fois pointé du doigt par un
docteur en robotique du nom de Noel Sharkey, qui dans une tribune du journal
The Guardian va lancer une alerte sur le développement rapide de ces
armes autonomes et a appelé à un encadrement juridique
international très urgent. En 2012, la question a dépassé
le cercle des experts, puisque l'affaire est médiatisée par la
publication d'un rapport conjoint de Human Right Watch et de
l'université d'Harvard ; en parallèle une coalition d'ONG se
forme avec Stop Killers Robot. En 2013, le débat a
pénétré les enceintes du systèmes des nations unies
avec un rapport dans le cadre du Conseil des Droits de l'Homme sur les
exécutions extrajudiciaires mais également au sein du Conseil
Consultatif des nations unies pour les questions de désarmements qui a
demandé que la questions soit examiné dans le cadre d'un forum
existant, celui de la Convention de 1980 relatif à certaines armes
classiques.
En ce qui concerne les Etats membres, il y a un réel
manque de consensus puisque ces derniers sont partagés entre ceux qui
souhaitent une interdiction préventive, et ceux réclament un
moratoire concernant les recherches et l'utilisations de ces SALA, d'autres qui
prônent une réglementation non contraignante qui pourrait
évoluer vers des normes obligatoires et certains à l'instar de la
France considère que ces systèmes sont une évolution des
moyens de combat tout à fait naturel et qui doit être
analysé dans le cadre de la réglementation existante.
En somme, l'appétence pour ces « robots
killers » et ces drones disposant d'une autonomie propre semble
inéluctable bien que déjà présente de nos jours.
Une censure de ces derniers impossible dès lors qu'une interdiction
portant sur des technologies à double usage comme les robots risquerait
de porter préjudice à la recherche civile. Les questions
juridiques relatives à ce sujet sont d'une pluralité et
relèvent aussi bien du droit du recours à la force, que du droit
des armes, en passant par le Droit international humanitaire etc...
L'idée semble ici de se tourner vers l'encadrement
juridique de ces intelligences artificielles que ce soit dans l'existence ainsi
que dans l'usage. Il convient de se restreindre aux discussions en cours
à Genève au sujet de l'autonomie robotique et des
conséquences que
18
cela pourrait avoir et incombe de traiter
particulièrement de la définition, du contrôle humain, de
l'examen préalable et des questions relatives à la
responsabilité. Dès lors, il convient de constater qu'à ce
jour le droit international/humanitaire doit s'adapter et faire face à
l'avènement des SALA, de même qu'il doit réguler sa
juridiction notamment en matière de responsabilité.
|