Chapitre 2 Le degré d'autonomie que le droit
autorise
Dans cette étude, on part de l'hypothèse à
priori que l'utilisation de robots militaires totalement autonomes est
illégale en DIP. Le raisonnement confirmera cela.
Dans cette partie, on cherche à déterminer le
degré d'autonomie des robots militaires que le DIP autorise. La
méthode que l'on suit consiste à étudier la
légalité d'un scénario majorant qui est
l'utilisation d'un robot totalement autonome. Cela permet de délimiter
le degré d'autonomie autorisé.
Il apparait qu'un robot totalement autonome violerait le DIP de 5
manières : Il y aurait violation du principe de distinction (de 2
manières), du principe de précaution (de 2 manières) et
enfin violation des principes de l'humanité.
Cela met en évidence la limite du degré d'autonomie
des robots militaires que le DIP pose. Ainsi, l'autonomie ne peut priver
l'opérateur du robot de son obligation d'exercer un
doute quant à la qualité militaire ou non de la
cible attaquée, ni priver l'opérateur de son obligation de
reconnaitre en personne en temps réel une personne hors
de combat, ni priver les militaires de leur obligation de
veiller constamment au respect du DIH, ni les priver de leur
obligation d'adapter l'attaque s'il apparait que la cible
n'est pas un objectif militaire licite, ni enfin permettre que le robot
initie l'attaque de manière autonome. Alors pour ce qui est de
la mobilité du robot, l'autonomie peut être totale (à
condition que le robot ne devienne pas lui-même projectile de l'arme), la
phase de l'attaque par contre doit demeurer sous le contrôle actif d'un
opérateur.
Pour obtenir cette conclusion on dégage d'une part le
droit applicable aux robots militaires totalement autonomes (I) puis on
applique le droit au cas (II). Les illégalités qui apparaissent
sont les points critiques à partir desquelles on trace la limite du
degré d'autonomie maximal licite des robots militaires utilisés
(III).
I Les faits pertinents : l'utilisation d'un robot totalement
autonome
On fait l'hypothèse dans ce chapitre que le robot est
programmé pour techniquement respecter le DIH. En outre, on
pose l'hypothèse que le robot est fiable à 90%.
De manière générale, un robot totalement
autonome est techniquement capable de rechercher des informations sur son
environnement, de réaliser ses fonctions sans assistance humaine pendant
une période de temps étendue, il est en outre mobile dans son
environnement de travail sans assistance humaine.
On considère qu'un robot est autonome si, en outre, il ne
cause pas de dommages ni aux personnes, ni aux biens ni contre lui-même,
sauf si cela fait partie de son programme. Dans le cas des robots militaires
leur programme même, les conduit à causer des dommages aux
personnes ou aux biens, donc cela ne leur fait pas perdre leur caractère
autonome.
Pour cette étude, ce que je considère comme
totalement autonome est un robot qui, en particulier, est capable de
faire feu sur une cible identifiée, sans nécessiter une
intervention humaine ni sans nécessiter d'alerter une personne humaine
de l'attaque imminente de manière à permettre à cette
dernière, d'éventuellement prendre le contrôle du
robot. C'est-à-dire dans la pratique, sans qu'un militaire
opérateur ne commande en temps réel de tirer sur la cible, ni
sans qu'il soit alerté de manière à pouvoir intervenir
dans le fonctionnement jusque-là autonome du robot. Cette
catégorie est appelée dans le jargon
« man-out-the-loop », ce qui signifie
« personne humaine hors de la boucle » de
fonctionnement du robot.
Dans cette situation, le robot
« décide » et fait l'action consistant à
tirer sur la cible.
Cela décrit une situation de fait, qui ne se rencontre pas
dans la pratique mais qui pourrait apparaitre dans un futur relativement
proche. Actuellement il est très difficile d'envisager un robot dont
l'AI ne soit ni faible ni infaillible. Pourtant, vu la rapidité des
progrès technologiques, je pense que dans ce futur proche la question de
l'utilisation de tels robots totalement autonomes se posera. Dans cette
étude, le cas des robots militaires totalement autonomes servira aussi
de cas théorique de référence permettant de mettre en
évidence des aspects juridiques de l'utilisation des robots avec
« human-on-the-loop ».
Déjà, le « Techwin sgr-A1 », un
robot sentinelle non mobile est capable de détecter une cible
et, de faire feu selon un mode automatique sur cette
cible10. Mais il est actuellement utilisé seulement de
manière semi autonome, opéré par un militaire, ce dernier
pouvant, lui-seul, décider de faire feu. Le mode automatique de la
machine n'a pas été utilisé, peut-être parce qu'il
est très peu sophistiqué actuellement.
II Droit applicable
A) droit relatif à la légalité de
l'utilisation des robots militaires totalement autonomes
Dans cette hypothèse il n'y a plus d'opérateur qui
téléguide le robot. Un commandant donnerait l'ordre de lancer le
robot militaire contre un objectif militaire déterminé puis, un
opérateur sur le terrain lancerait le robot, qui à partir de ce
stade est totalement autonome. On fait l'hypothèse que le robot est
programmé pour techniquement respecter le DIH. En effet
de manière schématique, si un robot n'est pas programmé
pour respecter le DIH, alors il devient une arme qui frappe indistinctement
civils et militaires, ou bien une arme ne pouvant être lancée
contre un objectif militaire déterminé. C'est-à-dire une
arme illégale. Donc un robot autonome ne peut être utilisé
que s'il est programmé pour respecter le DIH. Cela ne libère en
rien les militaires de leurs obligations au regard du DIH.
1. Le régime applicable aux armes
1.1La qualification d'arme
?La qualification d'arme
En s'en tenant à la définition courante d'une arme
que l'interprétation du DIH permet, comme la convention de Vienne sur le
droit des traités le prévoit, on trouve qu'un robot militaire
totalement autonome est bien un « engin qui sert à
attaquer... » et donc une arme au sens du DIH.
? La qualification d'arme nouvelle
On a qualifié une arme. Lorsqu'ils sont mis au point (ou
seront mis au point), les robots militaires totalement autonomes sont à
un moment donné de nouvelles armes introduites et donc entrent dans
cette qualification de l'article 36 du PA 1. En outre, si, par la suite les
modèles sont améliorés, on peut considérer que les
nouveaux modèles sont eux aussi de nouvelles armes mises à
disposition des armées et donc entrent dans la qualification de
l'article 36. Dès lors, il faut que les Etats examinent la
légalité de l'utilisation de ces armes par des procédures
internes.
1.2 Le droit applicable
La légalité du robot totalement autonome
lui-même en tant qu'arme est soumise au même droit que celui
applicable si le robot est télécommandé,
déjà présenté plus haut.
Il s'agit des 4 règles que le DIH pose :
l'interdiction des armes qui causent des maux superflus, l'interdiction des
armes qui rendent la mort inévitable, l'interdiction des armes à
effets indiscriminés et l'interdiction des armes non conventionnelles.
Mais en particulier, le robot militaire totalement autonome, ne
doit pas produire d'effets indiscriminés d'après l'article 51 4.
du PA 1, précité. Les robots étant programmés, ils
sont limités par leur programme. Ils pourraient rencontrer des
situations qui ne sont pas prévues dans le programme et faillir à
leur fonction. C'est pourquoi il est intéressant d'envisager dans cette
étude, l'utilisation d'un robot fiable seulement à 90%.
Or, sont interdits, « des méthodes ou moyens
de combat dont les effets ne peuvent pas être limités
comme le prescrit le présent Protocole ; et qui sont, en
conséquence, dans chacun de ces cas, propres à frapper
indistinctement ».
Selon mon interprétation, le terme
« indistinctement » impose outre les autres règles
du DIH, que le robotaie une fiabilité au moins supérieure
à 50%.
|