2.2. Le principe de proportionnalité
Ce principe est particulièrement pertinent (art 51 (5) (b)
et 57 (2) (iii) précités). Il a été débattu
pour le cas de robots totalement autonomes dans le rapport
LosingHumanity de HRW et M. N. Schmitt dans ses articles.
A titre d'illustration, un drone totalement autonome pourrait
être lancé loin du front pour frapper un objectif militaire
situé à proximité de biens ou personnes, civils. Dans
cette hypothèse, l'obligation de proportionnalité pèse sur
le commandant et sur l'opérateur qui lancent le robot.
Cette obligation de proportionnalité, oblige ces derniers
à ne choisir d'utiliser le robot que si on peut en
attendretechniquement, qu'il ne cause pas de dommages
collatéraux disproportionnés.
Le problème à prendre en compte par les militaires
est qu'un robot totalement autonome n'est pas parfaitement prévisible.
On étudie par hypothèse un robot fiable à seulement 90%.
Or, si un robot militaire est techniquement capable de distinguer
mais de manière limitée, comment appliquer le principe de
proportionnalité ?
Le commentaire de l'article énonce que la
« précision des armes employées » fait,
entre autres, partie del'ensemble des « facteurs qui doi[ven]t
être pris en considération ». On interprète la
fiabilité du robot comme un de ces facteurs.
Dès lors, commandant et opérateur doivent
tenir compte du défaut de fiabilité dans leur
appréciation de la proportionnalité de l'attaque.
2.3. La nécessité militaire
Telle que nous l'avons étudiée, il n'y a pas
d'article relatif à la nécessité militaire qui s'applique
spécialement aux robots militaires. Tel que l'art 52 PA 1, le pose, une
attaque par un robot militaire contre des biens « normalement
affectés à un usage civil » doit être
nécessaire militairement c'est-à-dire apporter un
« avantage militaire ». Dans cette hypothèse,
l'opérateur et le commandant de l'attaque doivent ne lancer une telle
attaque, à l'aide d'un robot militaire totalement autonome,que si elle
est nécessaire militairement.
2.4. L'obligation de précaution dans l'attaque
L'art 57 1. Pose en particulier une l'obligation pour les,
commandantet opérateur de « constamment »
vérifier que l'attaque respecte le principe de distinction. Le
commentaire précise que le 1. énoncele principe
général que les alinéas suivants
précisent.
Or dans le déploiement d'un robot militaire autonome, les
militaires ne peuvent plus s'acquitter de cette obligation, dès lors que
le robot est lancé.
Leur obligation de veiller constamment au respect du principe de
distinction, se porte ainsi sur une partie réduite de l'attaque.
Mais ce 1. n'exige pas expressémentqu'un
militaire humain exerce ce contrôle en
personneen permanence. En particulier un commandant ou
opérateur pourrait remplir cette obligation lui-même lors du
lancement du robot. Puis, le commandant pourrait décider d'utiliser un
robot programmé de manière à examiner et à
réactualiser constamment son respect techniquedu principe de
distinction, tout au long de l'attaque. On pourrait ainsi licitement
considérer, qu'indirectement, grâce à la
programmation du robot, le commandant contrôle constamment le respect du
principe de distinction.
Mais alors, à partir du moment où il est
lancé, les militaires n'ont plus de contrôle sur le robot. Une
telle interprétation tronque trop la règle. Une telle
interprétation parait trop éloignée du but et de l'objet
du protocole au sens du droit des traités. Donc elle n'est pas
légale au regard du droit des traités.
Le 57 2. a) i), impose aux militaires de mettre en oeuvre les
moyens « pratiquement possibles » pour
vérifier la qualité de la cible. En outre, le
commentaire de l'article précise que les militaires doivent à
cette fin rechercher des informations sur la cible et le commentaire mentionne
en particulier les informations collectées par les reconnaissances
aériennes.
Selon le commentaire, il faut entendre cette terminologie comme
l'obligation de « prendre en temps utile les mesures d'identification
nécessaires, afin d'épargner, autant que possible, la
population ».
Dans le cas de robots totalement autonomes, il faut que les
militaires aient recherché des informations sur la cible avant de lancer
l'attaque.
En outre l'obligation de précaution les oblige aussi au 2.
ii) à choisir les méthodes d'attaque qui permettent le mieux
d'éviter des dommages collatéraux sur les civils. Dès
lors, si d'autres méthodes de guerre, permettant davantage
d'épargner les civils sont disponibles, elles doivent être
préférées aux robots totalement autonomes.
Le 57 2 b) oblige les commandants et opérateurs à
annuler ou interrompre une attaque, « lorsqu'il apparait »
qu'elle viole le DIH. Si on déploie un robot militaire totalement
autonome, une fois le robot lancé, les militaires ne peuvent plus
exercer ce contrôle. Cela limite drastiquement cette obligation. Cette
obligation ne peut plus en pratique être exercée que
pendant le lancement du robot. En réalité dans la
pratique, la probabilité qu'une attaque soit ainsi annulée lors
du lancement est totalement négligeable. On étudiera plus en
détail cela au III.
|