2. Le régime de l'utilisation
Concernant, les règles de DIH applicables à
l'utilisation d'un robot totalement autonome, les règles
précitées sont aussi applicables. Certaines semblent plus
pertinentes. On les mettra en évidence.
2.1 L'obligation de distinction
? Cas général
Sur qui pèse l'obligation de distinction ? Les Etats
sont obligés de respecter le DIH, donc les obligations pèsent en
bout de chaine sur les commandants responsables qui donnent l'ordre de lancer
puis sur les opérateurs des robots.
_L'art 48, PA 1 impose aux militaires de distinguer en tout temps
les objectifs attaqués.
Remarquons que cette obligation pèse sur les militaires
mais dans notre hypothèse, l'opérateur, ne fait que lancer le
robot sur une cible. Or, le robot peut rencontrer lors de ce déploiement
des civils. 10% d'entre eux seront attaqués.
Le commentaire de l'article précise qu'« il est
du devoir des Parties au conflit de se doter des moyens
accessibles qui leur permettront de respecter les règles du
Protocole. En tout état de cause, on pourrait reprocher à une
Partie qui dispose de tels moyens de ne pas les employer et de s'être
ainsi privée sciemment de la possibilité d'opérer la
distinction requise. » En effet, l'obligation de précaution
impose certains choix des armes à utiliser.
Mais, concernant la règle même, l'article impose de
ne pas « diriger » l'attaque contre des cibles civiles.
Donc il semble que le défaut de fiabilité du robot ne soit pas du
ressort de cette obligation.
_L'art 51 4. (c) interdit d'utiliser des moyens de combats dont
les effets dans certains « cas » sont propres à
frapper indistinctement, civils et militaires. Or, un robot est limité
techniquement. S'il y a des cas connus dans lesquels le robot ne peut
distinguer civils et combattants, le robot ne doit être utilisé
dans aucun de ces cas.
? Le régime relatif au doute
Concernant le problème du doute tel que prévu
à l'article 50 du PA 1 précité. D'après cette
règle s'il y a un doute sur la qualité de combattant ou de civil
concernant une personne, il faut considérer la personne comme civile.
L'obligation relative au doute pèse juridiquementsur le
commandant et l'opérateur qui lancent le robot.
Mais ces derniers ne doutent que de manière
anticipée avant de lancer le robot.
Or le robot n'est pas un simple missile intelligent. C'est une
arme capable de se déplacer de manière autonome et qui,
même dirigée contre un objectif militaire, a une capacité
d'initier une ou plusieurs attaques de manière autonome.
Si alors, uncommandant ou un opérateur
considèrequ'aucun des objectifs que le robot devrait rencontrer, n'est
indubitablement combattant, ils ne doivent pas du tout lancer le robot.
On ne parle pas ici, des dommages collatéraux dus à
un défaut de fiabilité mais des objectifs que le robot attaque
tel que son usage par les militaires le prévoit.
On peut se demander si cette exigence quant au doute est
licitement remplie de cette manière. Car si, avant et lors du lancement,
il n'y a pas de doute quant aux objectifs militaires, une fois
déployé,une cible attaquée pourrait s'avérer
douteuse quant à sa qualité militaire.
Un autre cas serait que le robot pourrait rencontrer d'autres
cibles lors du déploiement. Alors, le doute ne peut plus être
exercé par les militaires.
Donc le doute ne peut être exercé que sur une
portion réduite de l'attaque.
? L'interdiction d'attaquer les personnes hors de
combat
De même, les personnes « reconnues ou devant
être reconnue[s] eu égard aux circonstances » comme
combattants hors de combat d'après l'art 41 du PA 1, ne doivent pas
être attaquées. Est-ce que le robot peut reconnaitre les personnes
hors de combat? Un robot peut reconnaitre une cible techniquement. Mais,
l'obligation de reconnaitre les personnes hors de combat pèse sur
l'opérateur ou le commandant d'après cet article. Or, une fois le
robot lancé, les militaires ne peuvent plus exercer cette obligation.
Ils doivent reconnaitre les personnes hors de combat avant même de lancer
le robot ou lors du lancement, alors que celui-ci n'a encore attaqué
aucune cible. Il parait quasi impossible pour eux de reconnaitre les personnes
hors de combat comme cet article le commande.
Cela étant, les commandantspourraient de
manière abstraite, définir une personne hors de combat
comme présentant des caractéristiques données. Un robot
pourrait être programmé pour reconnaitre ces
caractéristiques, et les associer à la reconnaissance d'une
personne hors de combat, laquelle, il n'attaque pas. Alors le robot
reconnait techniquement une personne hors de combat et
l'épargne. On peut envisager ainsi qu'un commandant qui déploie
un tel robot, ajuridiquement reconnu indirectement une
personne hors de combat en s'appuyant sur la technologie du robot.
Justement, l'art 41 2.donne 3 caractéristiques
alternatives qui caractérisent la personne hors de combat.
Dès lors, le robot étant programmé pour
reconnaitre ces caractéristiques, il peut être utilisé par
le commandant, conformément à l'obligation qui pèse sur
lui de reconnaitre les combattants hors de combat.
Mais,Le 1. de cet article protège, une personne
« reconnue ou devant être reconnue, eu égard aux
circonstances », comme hors de combat. Or le commentaire de l'article
précise que sont protégés les combattants
« reconnus, par une personne
raisonnable », comme étant hors de combat. En l'absence de
mentions d'une possible reconnaissance indirecte, l'interprétation la
plus cohérente, au vu notamment de la date de rédaction du PA 1,
est que cet article oblige les parties à ce que leurs militaires
reconnaissent en personne, les combattants hors de combat.
? L'interdiction d'attaquer les personnes affectées
à la protection civile
De la même manière le personnel affecté
à la protection civile ne doit pas faire l'objet d'attaques (PA 1 art
12, 15... précités). L'obligation de distinction pèse sur
le commandant et l'opérateur. Il n'y a ici pas d'obligation de
distinction directe par un militaire. Cette obligation peut être remplie
par un robot programmé pour distinguer techniquement ce personnel.
|