2. Application de l'obligation de
proportionnalité
Cette règle oblige commandant et opérateur juger le
caractère proportionné de l'attaque avant de lancer l'attaque en
prenant en compte autres, le défaut de fiabilité du robot. Mais
cette évaluation de la proportionnalité se fait très en
amont en particulier au vu de la distance que le robot peut parcourir et du
temps qu'il peut prendre pour mener l'attaque.
Il n'y a pas de pratique mais le rapport LosingHumanity,
insiste sur le fait que lors, de l'attaque, l'évaluationde
proportionalité effectuée par les militaires a perdu de son
efficacité car elle est effectuée trop en amont.
L'analyse du rapport est quelque peu confuse, mais il
énonce qu'à cause de cette distance entre les militaires et
l'attaque réelle, les limites techniques intrinsèques à
tout robot ne permettent pas aux militaires de correctement juger le
caractère proportionné de l'attaque.
Dans ces conditions, il apparait probable que certaines
utilisations de robots totalement autonomes seraient disproportionnées.
Dans ces cas, les attaques dont la proportionnalité ne
peut être correctement jugée, ne doivent pas être
ordonnées et les opérateurs ne doivent pas prendre
l'initiative de telles attaques.
3. Application de la règle de la
nécessité militaire
L'application de la règle de nécessité
militaire ne soulève pas de difficulté particulière quant
au travail des équipes de protection civile. Examinons, la protection
des biens qu'elle impose :
Les attaques peuvent porter sur des biens normalement
affectés à un usage civil s'il y a nécessité
militaire. Cela oblige commandants et opérateur à ne pas utiliser
un robot militaire totalement autonome contre de tels bien s'il n'y a pas de
nécessité militaire. Le rapport
« LosingHumanity » de HRW relève qu'il
apparait impossible de techniquement programmer le robot de manière
conforme à ce principe. Cette argumentation n'est pas pertinente et peu
convaincante.
4. Application de l'obligation de précaution dans
l'attaque
Comme on l'a vu, commandant et opérateur sont
obligés de constamment veiller au respect du principe
de distinction pendant l'attaque. Mais dès que le robot est
déployé, le contrôle constant par les militaires n'est plus
possible dans la pratique. Ainsi, l'utilisation de ces robots prive en pratique
les militaires de la possibilité d'exercer un tel contrôle. Alors
ces derniers ne peuvent s'acquitter de leurs obligations de précaution
telles qu'elles sont requises par le protocole.
Cela rendl'utilisation des robots totalement autonomes
illégale au regard de cette obligation de précaution.
Le 57 2. a) i), impose aux militaires de mettre en oeuvre les
moyens « pratiquement possibles » pour
vérifier la qualité de la cible. Et le
commentaire de l'article précise qu'il faut « prendre en temps
utile les mesures d'identification nécessaires, afin d'épargner,
autant que possible, la population ».
Dans la pratique, on souligne là encore, que l'autonomie
du robot implique un éloignement du contrôle des militaires. Ainsi
les renseignements que les militaires prendraient avant de lancer le robot
pourraient ne pas être considérés comme pris « en
temps utile » à cause de l'éloignement temporel et en
termes de contrôle sur le robot.
Dans ces cas on pourrait considérer qu'ils n'ont pas
vérifié la qualité de la cible tel que cela est requis
malgré l'éventuelle impossibilité technique d'en faire
davantage.
En outre l'obligation de précaution les oblige aussi au 2.
ii) à choisir les méthodes d'attaque qui permettent le mieux
d'éviter des dommages collatéraux sur les civils. Dès
lors, si d'autres méthodes de guerre, permettant davantage
d'épargner les civils sont disponibles, elles doivent être
préférées aux robots totalement autonomes. Cela
doit être examiné dans la pratique au cas par cas.
Enfin cette obligation implique l'obligation pour
l'opérateur d'adapter l'attaque s'il apparait qu'elle
viole le principe de distinction ou bien est disproportionnée.
Mais dans l'utilisation d'un robot totalement autonome,
l'opérateur est privé de cette possibilité d'adapter
l'attaque à l'évolution des faits, car une fois lancé, le
robot est autonome. Il ne peut plus être contrôlé en vue
d'adapter l'attaque. Or cette obligation d'adapter l'attaque est
indépendante des possibilités pratiques. Donc les commandants et
en particuliers, les opérateurs, doivent adapter l'attaque. S'ils
utilisent un robot totalement autonome, ils ne s'acquittent pas de cette
obligation.
Donc l'utilisation d'un robot totalement autonome viole
le DIH au regard de l'obligation de précaution dans l'attaque.
|