L'UTILISATION DES ROBOTS MILITAIRES DANS LES
CONFLITS
Figure 1 : Le drone X47-B, de Northrop Grumman
Thomas SADIGH
Mémoire du M 2 droit public international et
européen (2012/2013), Université Paris-Sud 11
dirigé par M D. Dormoy
RESUME
Cette étude a pour but d'examiner la
légalité et certaines questions relatives à la
responsabilité de l'utilisation des robots militaires et notamment les
drones dans les conflits. On étudie, en outre dans ce cadre, le
degré d'autonomie de ces robots que le DIP autorise.
On confronte ces utilisations aux DIH. L'application du DIH
montre que l'utilisation des robots militaires semi autonomes peut être
selon les cas de nature à violer l'interdiction des armes de
nature à causer des maux superflus, l'interdiction des armes à
effets indiscriminés, les principes de distinction, de précaution
et de proportionnalité voire la clause de Martens. L'application du DIH
à des robots totalement autonomes fait apparaitre 5 violations
indépendantes des circonstances de faits et dues à l'autonomie du
robot. De tels robots violeraient ainsi les principes de distinction, de
précaution et la clause de Martens. Actuellement ces 5 violations que
j'ai mises en évidence sont les seules limites que le DIH pose quant
à l'autonomie des robots militaires. Hors de ces hypothèses, le
DIH s'applique mais permet une autonomie totale du robot (lors de la
mobilité du robot principalement). Mais il n'est pas communément
accepté en doctrine qu'il est illégal qu'un robot puisse prendre
la « décision » d'attaquer de manière
autonome. C'est pourquoi, il apparait nécessaire que le DIP interdise
spécifiquement que l'initiative d'une attaque soit laissée
à un robot.
PLAN
L'UTILISATION DES ROBOTS MILITAIRES DANS LES
CONFLITS
Chapitre 1. L'examen de légalité de
l'utilisation des robots militaires semi autonomes
I Les faits pertinents : l'utilisation de robots semi
autonomes
II Droit applicable
A) Définition juridique des robots militaires
1. Les robots militaires comme arme
2. Autres qualifications
3. Le régime des armes nouvelles armes
B) Etude de légalité de l'utilisation des robots
semi autonomes
1. DIP applicable
2. DIH applicable
2.1 Destinataires du DIH
2.2 Eléments du DIH applicable
2.2.1. Le DIH applicables aux armes
2.2.1.1L'interdiction des armes qui causent des maux superflus
2.2.1.2 L'interdiction des armes qui rendent la mort
inévitable
2.2.1.3 L'interdiction des armes à effets
indiscriminés
2.2.1.4 Les armes interdites désignées dans des
conventions
2.2.2 DIH applicable à l'utilisation des robots
militaires
2.2.2.1 Le principe de distinction
2.2.2.2Le principe de proportionnalité de l'attaque
2.2.2.3 La nécessité militaire
2.2.2.4 L'obligation de précaution dans l'attaque
2.2.2.5 L'humanité telle que posée dans la clause
de Martens
III Application
A) Application du droit relatif à
légalité du robot comme arme
B) Application du régime relatif à l'utilisation
des robots militaires
IV Conclusion : des préoccupations quant à la
légalité selon les cas
Chapitre 2 Le degré d'autonomie que le DIP
autorise
I Les faits pertinents : l'utilisation d'un robot totalement
autonome
II Droit applicable
A) droit relatif à la légalité
1. Le régime applicable aux armes
2. Le régime de l'utilisation
B) La responsabilité de l'utilisation d'un robot
totalement autonome
III Application
A) Application du régime relatif aux armes
B) Application du régime relatif à l'utilisation
IV Conclusion : les illégalités mises en
évidences
Chapitre 3. Proposition de régime juridique
spécial pour les robots militaires
I Les lacunes du droit
II proposition de régime spécial
L'UTILISATION DES ROBOTS MILITAIRES DANS LES
CONFLITS
Le droit international public (DIP) est un outil de la justice
dans les rapports entre Etats. Le droit humanitaire (DIH) est le droit qui
s'applique aux conflits armés. Les conflits peuvent donner lieu à
divers comportements injustes que le DIH permet de combattre.
Je propose d'étudier la manière dont le DIP et en
particulier le DIH s'appliquent à l'utilisation des robots militaires
dans les conflits.
Actuellement, l'utilisation des robots militaires dans les
conflits est en nette augmentation.
En particulier ces dernières années les drones,
véhicules aériens, pilotés à distance, aucun homme
n'étant à bord, ont été très
utilisés. Ils sont pilotés depuis un cockpit situé dans
une base militaire, parfois très loin du champ de bataille.
Le fameux drone Predator a été très
utilisé ces dernières années par l'armée
américaine en Irak et en Afghanistan entre autres. C'est un drone qui
est conçu pour des fonctions de surveillance mais qui a
été équipé d'un lanceur de petits missiles de
croisière.
Les Etats Unis ont mené des exécutions extra
judiciaires de terroristes présumés en Somalie, au Yémen
et au Pakistan à l'aide de drones. Ces pratiques ne seront pas
étudiées.
Dans le cockpit des drones, un pilote et un opérateur
dirigent le drone. Ils sont informés de ce que les capteurs du drone
relèvent grâce à de nombreux écrans. Le pilote
manipule le cockpit comme si c'était le cockpit d'un avion de combat
classique. Ils communiquent par radio avec d'autres militaires. Le pilote peut
faire feu sur une cible comme le ferait le pilote d'un avion de combat. La
portée des missiles des drones est très ample, ils peuvent
frapper des cibles très éloignées.
De manière générale, on peut raisonnablement
penser que, dans un futur proche, les robots seront encore davantage
utilisés par les armées. En outre et cela est la
problématique de cette étude, Les capacités techniques
d'autonomie des robots seront de plus en plus développées, et du
moins de plus en plus disponibles.
Pour donner une définition du robot en physique on
utilisera les définitions apportées par Wikipédia et
Roboticus.org1 :
Un robot est un agent (capable d'exécuter des
tâches) mécanique ou virtuel, guidé par un
programme informatique ou bien un circuit électronique.
Les robots peuvent être autonomes ou bien semi autonomes.
Un robot doté d'intelligence artificielle (AI) peut
adapter l'exécution de ses tâches à un
environnement aléatoire (du point de vue du robot).
Pour cela, il doit reconnaitre la contrainte puis
réagir à celle-ci.
Les contraintes sont perçues par des
capteurs (des caméras thermiques par exemple),
transmises à un système informatique ou électronique,
lequel les analyse. Il associe à ces signaux une
réponse qu'il commande au système moteur d'effectuer ou
non.
Cette AI repose sur des modèles mathématiques
complexes. En plus de capteurs physiques, ces robots peuvent prendre des
décisions très complexes et s'appuient également sur un
apprentissage de leurs erreurs comme peut le faire l'être humain. On peut
schématiser ce fonctionnement :
Figure 2 : Schéma du fonctionnement d'un
robot
Dans cette étude, j'analyserai les robots de
manière générale car cette étude se veut applicable
à tous les robots militaires mais on portera un intérêt
particulier aux drones.En effet,cette étude a pour objectif
d'étudier les questions soulevées pas la pratique comme
l'utilisation de plus en plus fréquente des drones.
L'ensemble des robots militaires inclue des robots très
variés et différents. Par exemple, techniquement, un missile de
croisière est un robot.En effet, ils sont robotisés,
sélectionnent une cible puis une fois tirés, ils sont autonomes.
Ils sont guidés grâce à des systèmes de guidage,
inertiels, topographiques ou satellites (Les missiles utilisés par les
drones Predator sont des missiles de croisière réduits). Mais
actuellement ils sont très chers et peu utilisés. En outre ce ne
sont pas des robots très « intelligents ». Dans
cette étude, les torpilles et mines ne seront pas
considérées comme des robots. Les drones par contre, sont
très utilisés et leur utilisation soulève de très
nombreuses questions juridiques et même au-delà, du champ
juridique.
On raisonnera donc de manière générale sur
les robots militaires. On parlera de manière générique
d'opérateur du robot. L'opérateur est un militaire
subordonné au commandant qui manipule le robot, le contrôle, le
pilote. L'opérateur contrôle le robot depuis un cockpit, non
nécessairement situé à proximité du champ de
bataille (grâce à des systèmes de communication par
satellite ou radio).
Quel est le droit applicable à l'utilisation de ces robots
militaires ? Quels problèmes l'application du droit actuel
pose-t-elle, et comment peuvent-ils être résolus ?
Je montrerai d'abord les préoccupations quant à la
légalité qui ressortent de l'application du DIP aux robots
militaires semi autonomes (Chapitre 1), puis le degré d'autonomie des
robots militaires dont le DIP autorise l'utilisation (Chapitre 2), et enfin,
les propositions de régime juridiquespécial envisageables
(Chapitres 3).
Chapitre 1. L'examen de la légalité de
l'utilisation des robots militaires semi autonomes
Dans ce chapitre, on examine la légalité de
l'utilisation de robots semi autonomes. Ce sont les robots qui sont
actuellement utilisés par les armées et dont l'utilisation est de
plus en plus fréquente. L'initiative de l'attaque est
contrôlée par un opérateur.
On se trouve en cas de conflit armé : le robot
militaire est déployé par l'armée. L'opérateur est
un militaire, soumis aux instructions de son commandant.
Comment le DIP s'applique-t-il à des robots ? On
dégagera dans une première étape, les faits pertinents et
le droit applicable, puis on appliquera ce droit et identifiera les
illégalités mises en évidences.
I Les faits pertinents : l'utilisation de robots semi
autonomes
On se place dans l'hypothèse d'un conflit armé.
Un robot peut dans cette catégorie, être
techniquement semi autonome, capable d'identifier une cible mais il demeure
incapable d'initier une attaque ou faire feu. Seul un
opérateur humain peut faire feu par une commande en temps réel
auprès du système.
Pour simplifier, cette catégorie désigne les robots
qui ne peuvent « décider » de manière
autonome d'initier une attaque ou bien de faire feu sur une cible
identifiée. Si un opérateur ne donne pas la commande en temps
réel de faire feu, le robot ne peut en aucun cas initier une attaque.
Les fonctions autonomes du robot seraient uniquement par exemple, le
décollage, l'atterrissage automatique pour le cas d'un drone, ou bien la
capacité d'une mobilité autonome, ou de détecter et
d'identifier des cibles et alerter l'opérateur.
Selon le jargon technique il s'agit du cas
« human-in-the-loop » que l'on peut
traduire littéralement par « humain dans le
circuit ». C'est-à-dire que l'interaction d'un humain est
nécessaire à une étape de la chaine de fonctionnement du
robot pour qu'il effectue sa fonction.
Dans ce cas, l'opérateur décide de tirer et il fait
feu (décision et action). L'opérateur pilote le robot semi
autonome depuis un cockpit qui peut être situé plus ou moins loin
du champ de bataille. Dans le conflit en Afghanistan, certains drones
« Predator » étaient pilotés depuis le
Nouveau Mexique aux Etats Unis2.
Une nouvelle catégorie plus fine est apparue
récemment, dans le jargon technique. Il s'agit du cas
« human-on-the-loop » (« personne
humaine sur le circuit de fonctionnement du robot »). C'est
la situation, dans laquelle le robot est capable de réaliser sa fonction
de manière totalement autonome, sans nécessiter l'interaction
avec un humain dans le circuit de réalisation d'une fonction. Mais, en
particulier lors de la perception de certains stimuli ou bien avant de
réaliser certaines fonctions, un opérateur humain peut intervenir
et surmonter la fonction automatique du robot.
L'opérateur peut,entre autre, empêcher la réalisation d'une
fonction par le robot. Par exemple on peut imaginer un robot qui
détecterait une cible comme devant être frappée, mais avant
de tirer automatiquement, le systèmealerte l'opérateur humain.
Alors ce dernier exerce un contrôle sur la fonction
« tirer sur la cible » du robot. Il peut intervenir dans le
circuit pour empêcher une telle attaque ou manoeuvrer le tir
lui-même ou ne rien faire. Cette catégorie semble correspondre aux
robots que l'armée américainesouhaite
développer3.
Je n'étudierai pas cette catégorie car d'un point
de vue juridique, cela fait simplement basculer l'étude juridique dans
le cas « human-in-the-loop » ou bien le cas
« human-out-of-the-loop ». En effet, si le militaire est
alerté par le système et décide de prendre le
contrôle de la machine, soit pour lui-même tirer sur la cible, soit
pour décider de ne pas tirer sur la cible, le régime juridique
applicable sera le même que dans les cas
« human-in-the-loop ». C'est le régime applicable
à l'utilisation de toute arme.
Si le militaire est alerté par le système, mais
décide de ne pas intervenir et que le robot initie l'usage de la force
ou tire sur la cible, de manière autonome, alors, le régime
applicable est le même que dans le cas
« human-out-of-the-loop ». Juridiquement, ce cas s'analyse
de manière différente et inédite.
La pratique actuelle est l'utilisation de robots
militaires avec « human-in-the-loop ».
II Droit applicable
On se propose d'étudier la
« silhouette » du régime juridique applicable
à l'utilisation des robots militaires. On dégagera en particulier
le droit applicable à cette utilisation.
On peut d'abord se demander comment les robots militaires sont
définis en DIP. Comme je le démontrerai, les robots militaires
soit semi (ou totalement)autonomes, peuvent être qualifiés d'arme.
A) Définition juridique des robots militaires
1. Les robots militaires comme arme
Les robots militaires sont-ils des armes ? On se situe dans
le DIP général mais celui-ci ne donne pas de
définition d'une arme. Si on recherche dans la sous branche du
DIH, on trouve plusieurs conventions internationales qui donnent des listes
d'armes spécifiques (interdites). Ces armes sont définies
juridiquement. Elles sont décrites de manière technique,
désignées par leur nom dans les utilisations par les Etats, mais
là encore dans le DIH, il n'y a pas de définition juridique
générale d'une arme.
Au-delà, en DIH les armes sont désignées
de manière générale, dans les conventions
de Genève par exemple. Leur utilisation est ainsi en
général, soumise à un régime juridique que l'on
étudiera plus loin.
En l'absence de définition générale, on peut
appliquer une interprétation d'après l'article 31 de la
Convention de Vienne de 1969, qui dispose :
« Un traité doit être
interprété de bonne foi suivant le sens ordinaire à
attribuer aux termes du traité dans leur contexte et à la
lumière de son objet et de son but. »
Dès lors, la définition courante
d'une arme remplit les conditions de cet article 31. E David que j'ai pu
contacter considère que cette définition courante peut être
utilisée. On peut alors utiliser la définition que donne un
dictionnaire : d'après le Larousse en ligne, une arme est :
« Tout objet, appareil, engin qui sert à
attaquer (arme offensive) ou à se défendre (arme
défensive) ».
On peut ainsi, qualifier les robots militaires d'armes, qu'ils
soient semi autonomes ou bien totalement autonomes.
Il y a une difficulté supplémentaire : le
robot militaire est un ensemble mais il porte souvent une arme de tir,
autonome, que des soldats dans des situations différentes utilisent
eux-mêmes directement. Par exemple, le « Foster-Miller
TALON »4, mini tank, téléguidé peut
porter des mitraillettes « M249 ». Comment qualifier cet
ensemble? Le jargon militaire américain parle de
« systèmes d'armes ».
Mais juridiquement, si l'on reste sur la définition
courante d'une arme, un robot militaire même équipé d'une
arme reste « un engin qui sert à attaquer... ».
L'ensemble est donc une arme, elle-même, composée
d'une arme.
En outre, qualifier les robots militaires d'armes ne semble pas
contrarier l'objet et le but des traités de DIH.
Donc, dans cette étude, on qualifierales robots
militaires, d'armes.
Alors, lorsque le DIH prévoit des régimes
applicables aux « armes » de manière
générale, on considérera que ces régimes sont
applicables aux robots militaires. Dans certaines autres hypothèses on
qualifiera les robots militaires autrement que comme
« armes ».
2. Autres qualifications
Cette qualification des robots militaires comme armes n'exclue
pas que selon l'utilisation qui en est faite, ces derniers ne puissent
être qualifiés d'objets juridiques autres que des armes. En
particulier, les drones, peuvent être qualifiés
d'aéronefs. En effet, d'après la convention de
Chicago de 1944 telle qu'actualisée, annexe 7, un aéronef
est :
« Toute machine capable de se soutenir dans
l'atmosphère par les réactions de l'air autres que celles de
l'air contre la surface de la Terre. »
C'est-à-dire tout engin autre qu'un simple planeur. On
remarquera que la Convention de Chicago pose un régime juridique pour
les aéronefs civils mais la définition de l'aéronef
qu'elle comporte est plus large et s'applique aussi aux aéronefs
militaires.
De manière plus générale, les robots
militaires peuvent être qualifiés autrement que comme
« armes ».
En conclusion, selon mon analyse, on peut qualifier les robots
militaires d'armes en DIH. Cette qualification englobe de nombreuses
hypothèses de fait rencontrées dans la pratique. Pour les autres
hypothèses de fait, on peutenvisager d'autres qualifications. Dans cette
étude, on se limitera principalement à qualifier les robots
militaires comme « armes ».
Dès lors que les robots militaires sont ainsi
qualifiés, on peut rechercher comment le DIP s'applique à ces
objets juridiques.
3. Le régime des armes nouvelles armes
En DIH, la recherche et le développement de nouvelles
armes par les Etats parties est limitée. Les Etats
doivent se conformer au DIH. Donc ils ne peuvent évidemment pas utiliser
une arme qui violerait le DIH. Le DIH va plus loin car il pose une
obligation de moyens sur les Etats qui consiste à ce
que dès le stade de « recherche/
développement », les Etats de leur propre initiative,
examinent la légalité de la nouvelle arme qu'ils
sont en train de développer.
Cette règle est esquissée dès la
Déclaration de St-Pétersbourg de 1868, dernier alinéa, et
actuellement posée à l'art 36, PA 1 :
« Article 36 -- Armes nouvelles
Dans l'étude, la mise au
point, l'acquisition ou l'adoption d'une nouvelle arme, de nouveaux
moyens ou d'une nouvelle méthode de guerre, une Haute Partie
contractante a l'obligation de déterminer si l'emploi en serait
interdit, dans certaines circonstances ou en toutes circonstances, par
les dispositions du présent Protocole ou par toute autre règle du
droit international applicable à cette Haute Partie
contractante. »
Cette obligation peut paraitre faible mais les Etats qui
développent de nouvelles armes ont intégré cette
règle parmi leurs obligations internationales. Les statistiques de
20065 indiquent que 9 Etats (Etats Unis, Pays Bas, Norvège,
Suède, France, Belgique, Royaume Uni, Allemagne, Australie) ont mis en
place des procédures formelles internes de contrôle de la
légalité internationale des nouvelles armes qu'ils
développent. Tous, sont des Etats occidentaux. On peut remarquer que la
Russie et la Chine, Etats communistes, d'après ces chiffres n'ont pas de
mécanisme de contrôle connu en 2006.
Un robot militaire peut être qualifié d'arme
nouvelle. Leur conception, selon les modèles est bien nouvelle. En
outre, même pour ceux plus anciens, ils sont régulièrement
améliorés technologiquement ce qui permet de considérer
les nouveaux modèles améliorés comme des nouvelles armes.
Les Etats Unis étant les leaders de la production de
robots militaires. Il est intéressant de se pencher sur le
mécanisme qu'ils ont mis en place. Le mécanisme a
été mis en place avant même l'adoption du PA 1, auquel ils
ne sont pas partie par une directive6 du « Department of
Defense » (DoD). Dès 1979. L'armée a ainsi mis en place
des mécanismes internes de contrôle de légalité
internationale de « toutes armes ou systèmes
d'armes... » au sein des composantes pertinentes du DoD. Un organe
juridictionnel militaire du DoD saisi par un responsable militaire
procède à cet examen (Rapport du CICR de 2006). Cela montre que
l'obligation de contrôler la légalité par une
procédure est respectée pour le cas des Etats Unis.
B) Etude de légalité de l'utilisation des robots
semi autonomes
En cas de conflit armé, il y a application cumulative de
2régimes juridiques : Le DIP des droits de l'Homme
s'applique de manière indifférente d'une part et d'autre part, le
DIH s'applique en tant que droit spécial.
C'est-à-dire que s'il y a contrariété entre le DIH et le
DIP des droits de l'Homme (DH), le DIH prime le DIP des droits de l'Homme et
s'applique sans restriction.
En effet d'après la CIJ, dans l'avis « du
Mur » (CIJ, avis Conséquences juridiques de
l'édification d'un mur..., 9/7/2004 para. 106) :
« De manière plus générale, la
Cour estime que la protection offerte par les conventions régissant les
droits de l'homme ne cesse pas en cas de conflit
armé... »
La CIJ qualifie plus loin dans ce même paragraphe le DIH de
« lexspecialis » par rapport au DIP des DH dans
les situations de conflit armé.
Dès lors, l'utilisation de robots militaires dans un
conflit armé est soumise au DIP des droits de l'Homme et au DIH en tant
que droit spécial.
On étudiera premièrement le DIP des DH applicable,
puis le DIH applicable.
1. DIP applicable
Le droit international des droits de l'Homme, est de source
conventionnelle ou coutumière. Les conventions pertinentes pour cette
étude sont la déclaration universelle des droits de l'Homme du
10/12/1948 et le pacte international relatif aux droits civiques et politiques
du 16/12/1966. La coutume apporte des éléments, notamment
l'interdiction de la torture.
La déclaration universelle des droits de l'Homme
protège en particulier le droit à la vie (art 3), elle interdit
la torture (art 5), elle reconnait aussi le droit à un recours effectif
devant les juridictions nationales compétentes contre les actes violant
les droits qui lui sont reconnus par la loi (art 8).
Le pacte international relatif aux droits civiques et politiques,
protège le droit à la vie (art6) et interdit la torture (art 7).
Le DIH protège très largement les personnes civiles
et les militaires. On pose l'hypothèse qu'il s'applique de
manière spéciale pour l'utilisation des robots militaires donc on
ne développera pas le DIP des DH.
2. DIH applicable
Le DIH fait peser sur les Etats un certain nombre d'obligations.
Les obligations applicables à l'utilisation des drones sont : Les
obligations quant aux armes, et les obligations relatives à la conduite
des hostilités qui régissent en particulier l'utilisation des
robots militaires.
2.1 Destinataires du DIH
Le DIH est de source conventionnelle ou coutumière. Les
Etats sont liés par les conventions de DIH
c'est-à-dire le droit « de La Haye » et les
conventions « de Genève »(CG)dans la seule mesure de
leur ratification ou adhésion aux traités. En effet,
conformément au droit des traités de la convention de Vienne, les
Etats peuvent faire des réserves aux traités auxquels ils
adhèrent. Il faut remarquer pour donner une idée de la pratique
que la quasi-totalité des Etats sont membres des CG. 173 Etats sont
partie au protocole 1 (PA 1). Mon étude est générale et ne
concerne pas les seules obligations de tel ou tel autre Etat. Je ferai
l'hypothèse que le DIH dans son ensemble est applicable. Pour
déterminer les obligations particulières d'un Etat, il revient au
lecteur de chercher si l'Etat est bien partie aux conventions applicables et si
oui dans quelle mesure.
Donc le DIH est dans notre hypothèse, applicable aux
Etats.
Dès lors, il est applicable aux Etats en
tant que sujet de DIP mais aussi aux organes de l'Etat dont le
comportement est imputé à l'Etat.
En effet, en DIP général, d'après l'article
4 du projet d'articles sur la responsabilité de l'Etat pour fait
illicite :
« 1. Le comportement de tout organe de l'Etat est
considéré comme un fait de l'Etat d'après le droit
international [...]
2. Un organe comprend toute personne ou entité qui a
ce statut d'après le droit interne de l'Etat. »
Pour rappel, Le projet d'article se voulait codification de la
coutume internationale mais a incorporé des adaptations de la coutume
par un phénomène de développement progressif du droit.
Cela étant le projet d'article a été largement
utilisé dans la pratique et entre autres dans la jurisprudence
internationale. Cette jurisprudence a quasiment donné aux articles 4 et
5 une valeur coutumière.
Le corps de l'armée et les militaires sont des organes de
l'Etat par définition. Le droit interne très souvent retranscrit
cela, ce qui permet d'appliquer le 2. de l'article 4. Dans la pratique,
qualifier l'armée, un corps de l'armée ou un militaire individuel
d'organe de l'Etat, ne soulève pas de difficulté
particulière. La CIJ examine très succinctement la qualification
du droit interne puis conclut (voir par exemple : CIJ, affaire des
activités armées sur le territoire du Congo, 19/12/05, para.
213).
Dès lors, une violation du DIH par un organe de l'Etat est
imputable à l'Etat en DIP. Sous un autre angle cela permet de dire que,
les militaires en tant qu'organes de l'Etat sont tenus de respecter le
DIH. Cet aspect est particulièrement pertinent dans notre
étude. Car ce sont les militaires qui utilisent les robots militaires au
sens propre. Un certain nombre des obligations pesant en amont sur l'Etat en
vertu du DIH applicable, pèse ainsi en bout de chaine,
intégralement sur les militaires qui utilisent les robots
militaires.
2.2 Eléments du DIH applicable
On présentera une synthèse des règles
pertinentes applicables à notre cas.
2.2.1. Le DIH applicables aux armes
C'est-à-dire le droit applicable aux armes
indépendamment de leur usage.
Quel est le régime applicable aux armes en DIH ?
Le DIH interdit de manière générale,
certaines armes en ce qu'elles présentent certaines
caractéristiques intrinsèques. En outre, de manière
spéciale, le DIH interdit des armes particulières,
identifiées sur la base de conventions. Ces armes spécialement
interdites, sont communément illégales par ailleurs en ce
qu'elles présentent les caractéristiques que le DIH interdit de
manière générale.
Pour déterminer si les robots militaires sont
légaux ou non eneux-mêmes, indépendamment de leur
utilisation, il faut rechercher s'ils correspondent aux armes interdites,
auquel cas, ils sont interdits. Il existe divers robots militaires mais ils
présentent certaines caractéristiques communes. Ainsi, on peut
examiner le droit qui leur est applicable de manière commune au regard
du DIH.
Les armes interdites sont celles qui causent des maux superflus,
celles qui rendent la mort inévitable,celles indiscriminées et
enfin celles spécialement désignées et interdites dans des
conventions internationales.
2.2.1.1 L'interdiction des armes qui causent des maux
superflus
C'est une règle ancienne, intégrée dans le
PA 1. D'après l'art 35§2 de ce dernier, l'utilisation d'armes qui
causent des maux superflus est interdite :
« Il est interdit d'employer des
armes, des projectiles et des matières ainsi que des
méthodes de guerre de nature à causer des maux
superflus. »
Que sont les maux superflus ? Pour E David, Il y a 2
manières d'interpréter cette règle et le DIH ne fait pas
clairement de choix entre les 2 interprétations :Il faut,
_soit mettre en balance les maux causés aux combattants
touchés avec l'avantage militaire que l'attaque apporte à la
partie,
_ou bien mettre en balance les maux causés avec l'objectif
de mettre le combattant attaqué hors de combat.
Si les maux causés sont superflus par rapport à
l'un ou l'autre objectif selon l'interprétation que l'on donne à
l'article, alors l'arme est interdite.
Selon M. N. Schmitt, les maux qui ne remplissent aucun but
militaire7 sont superflus.
Cette interdiction des armes qui causent des maux superflus est
coutumière et applicable dans les conflits armés non
internationaux (DIH coutumier, règle 70).
Si l'arme utilisée est un robot militaire, il faut
qu'en tant qu'ensemble il soit qualifiable d'arme légale. On ne
doit pas examiner de manière autonome, la légalité de
l'arme que le robot porte. Cela ne permet pas de déduire une solution
quant à la légalité du robot en tant qu'ensemble. Il faut
rester sur l'hypothèse que l'arme dont on examine la
légalité est l'ensemble du robot équipé
d'armes.
Dans notre étude, on doit donc rechercher si le robot
militaire est de nature à causer des maux superflus.
Il est nécessaire de relever un problème. Comme le
commentaire du protocole de 1986 le remarque cet article donne lieu à
des interprétations diverses par les Etats. Le texte interdit en
elles-mêmes des armes qui présentent pour caractéristique
de causer par nature des maux superflus. On s'en tiendra au texte dans cette
étude car dès le commentaire du protocole, il apparait des
incohérences que les auteurs répètent. On ne s'engagera
pas sur cet autre débat.
2.2.1.2 L'interdiction des armes qui rendent la mort
inévitable
Cette règle est posée par le préambule de la
déclaration de St-Pétersbourg de 1868. Ce préambule
dispose que :
«... ce but (le but légitime de la
guerre) serait dépassé par l'emploi d'armes qui aggraveraient
inutilement les souffrances des hommes mis hors de combat ou rendraient leur
mort inévitable ; »
Remarquons avec insistance qu'il est n'est pas interdit que les
armes rendent inévitables la mort des combattants ennemis mais
seulement celle de ceux « mis hors de
combat ». Si on replace cette règle dans son
contexte, vu le « but légitime » de la guerre, il
apparait que les auteurs veulent limiter « les calamités de la
guerre ». Ainsi sans être excessivement idéalistes ils
posent cette règle qu'une arme ne doit pas rendre inévitable la
mort d'un combattant alors qu'il est déjà mis hors de combat.
Cette règle est applicable dans l'hypothèse
où un combattant utilise un robot militaire contre son ennemi.
2.2.1.3 L'interdiction des armes à effets
indiscriminés
D'après l'article 51 4. Du PA 1, les armes à effets
indiscriminés sont interdites. En effet, celui-ci dispose :
« 4 ... « attaques sans
discrimination » s'entend : [...]
b) des attaques dans lesquelles on utilise des
méthodes ou moyens de combat qui ne peuvent pas être
dirigés contre un objectif militaire déterminé ;
ou
c) des attaques dans lesquelles on utilise des
méthodes ou moyens de combat dont les effets ne peuvent pas
être limités comme le prescrit le présent
Protocole ; et qui sont, en conséquence, dans chacun de ces
cas, propres à frapper indistinctement des objectifs militaires
et des personnes civiles ou des biens de caractère civil. »
Selon M. Schmitt, professeur au United States Naval WarCollege,
le 4 (b), d'une part, interdit les armes ne pouvant en aucun cas être
dirigées contre un objectif militaire déterminé. Celles-ci
sont interdites en elles-mêmes7.
D'autre part, le 4 (c), interdit, dans certains cas,
l'usage d'armes pouvant être ciblées contre un objectif militaire
déterminé, mais, qui même alors produisent des effets
indiscriminés rendant l'arme illégale.
On remarque que selon cette interprétation, l'arme est
illégale en fonction de son utilisation dans certains cas.
En effet, comme le commentaire de l'article le montre (point
1962), l'alinéa c) ne désigne pas des armes à effets
indiscriminés, par leur nature intrinsèque indépendamment
des circonstances. Cet alinéa interdit en tant qu'armes à effets
indiscriminés, des armes qui selon les
« situations » ou « circonstances »
impliquent plus globalement une attaque sans discrimination.
E. David utilise la qualification d' « armes
à effets indiscriminés », interdites en
elles-mêmes, en se fondant, entre autres, sur une interprétation
du §4 de l'art 51, dans son ensemble.
2.2.1.4 Les armes interdites désignées dans
des conventions
Il existe une série de conventions internationales qui
interdisent spécifiquement telles ou telles armes
désignées nommément dans les conventions. Aucune
convention n'interdit de robots militaires. Ni de manière
générale, ni aucun robot particulier.
Mais il est possible dans la pratique, d'équiper un robot
militaire de certaines de ces armes.
Or,si le robot est équipé d'une arme
interdite par exemple, utilisant des balles
« dum-dum », cela rend l'arme globale
interdite.
Démontrons cela :
Les armes non conventionnelles sont interdites en tant que
telles. Donc cela ne dépend pas de leur utilisation. On pourrait
concevoir qu'un robot équipé d'une arme non conventionnelle soit
très précis et puisse satisfaire aux exigences
générales du DIH malgré l'arme non conventionnelle
utilisée. Mais même si cela était le cas, juridiquement si
l'arme est interdite en tant que telle, elle ne peut être portée
par un robot.
Selon une autre interprétation, on pourrait
considérer qu'un robot militaire équipé d'une arme non
conventionnelle, est une arme globale juridiquement autonome de l'arme non
conventionnelle dont il est équipé, et ainsi
lui-même éventuellement légal. Mais alors,
si on examine pour chaque arme non conventionnelle, la légalité
de l'ensemble « robot + arme non conventionnelle », il
apparait que l'ensemble entre lui-même toujours sous la qualification de
l'arme interdite.
Donc, si une telle arme interdite est portée par le robot,
alors le robot militaire est qualifiable d'arme interdite. Il ne peut plus, en
aucun cas être utilisé légalement.
Mon raisonnement consiste à se demander pour chaque arme
interdite, listée par E. DAVID, (sauf les lance-flammes)si elle pourrait
être portée par un robot. Si oui, alors je considère que
l'interdiction concernée est pertinente pour cette étude. Cette
démarche nous donne au final comme liste d'armes interdites pertinentes,
la liste initiale exhaustive de toutes les armes interdites.
En effet, elles pourraient toutes être portées par
un robot. Par exemple, les nouvelles technologies des armes nucléaires,
permettent de fabriquer des têtes nucléaires de plus en plus
petites. On peut raisonnablement imaginer dans un futur proche, qu'il soit
possible technologiquement, de concevoir des drones aériens ou robots
terrestres capables de lancer des petites têtes nucléaires.
Ces armes interdites pertinentes sont donc :
_Les projectibles d'un poids inférieur à 400g
explosibles ou chargés de matières fulminantes ou inflammables,
Elles sont interdites d'après la déclaration de
St-Pétersourg du 29/7/1899.
_Les balles dum-dum,
Interdites par la déclaration de La Haye (IV, 3) de 1869.
Règle coutumière applicable aux CANI (DIH cout, règle 77).
_Les gaz asphyxiants, toxiques ou similaires et autres armes
chimiques,
Interdits par la déclaration de La Haye (IV, 2) du
29/7/1899 concernant les gaz asphyxiants. Puis entre autres, la Convention de
Paris du 13/1/1993 concernant les armes chimiques. Règle
coutumière et applicable dans les CANI (DIH cout, règle 7).
_Le poison et les armes empoisonnées,
Utilisation interdite par l'art 23 du règlement de La Haye
de 1907
_Les mines et les torpilles sous-marines,
Interdites par la 8ème convention de La Haye
relative à la pose des mines sous-marines de contact.
_Les armes bactériologiques,
Interdites par le protocole de Genève du 17/6/1925.
_Les armes nucléaires,
Interdites de manière limitée par l'avis
consultatifs de la CIJ du 8/7/1996 (para. 97) :
« En conséquence, au vu de l'état
actuel du droit international pris dans son ensemble, tel qu'elle l'a
examiné ci-dessus, ainsi que des éléments de fait à
sa disposition, la Cour est amenée à constater qu'elle ne saurait
conclure de façon définitive à la licéité ou
à l'illicéité de l'emploi d'armes nucléaires par un
Etat dans une circonstance extrême de légitime
défense dans laquelle sa survie même serait en
cause. »
_Les armes qui modifient l'environnement,
Interdites par la convention des Nations Unies du 10/10/1976.
_Les projectiles à éclats non localisables aux
rayons X
Interdits par les conventions des NU du 10/10/1980, protocole
1er. Cette interdiction est moins pertinente car il semble que ces
projectiles soient lancés par des armes dont le champ de tir n'est pas
très ample, alors que les robots militaires seraient plutôt
équipés d'armes dont la distance de tir est plus ample.
_Les mines et pièges terrestres
Interdites par la convention des NU de 1980
précitée ainsi que par la convention d'Oslo et d'Ottawa du
18/9/1997.
_Les armes incendiaires
Leur utilisation est limitéepar la convention des
NU de 1980, protocole 3, précitée
_Les armes à laser
Interdites par la convention des NU de 1980, protocole 4.
L'utilisation de laser pour cibler un objectif militaire n'est pas interdite.
Les drones par exemple utilisent des lasers pour cibler et diriger leurs tirs.
_Les sous munitions et les restes explosifs de guerre
Interdits par le protocole 5 de la convention des NU de 1980 et
par la convention de Dublin/ Oslo de 2008 « ASM ».
En conclusion,ce régime n'interdit pas les robots
militaires en général s'ils ne sont pas
équipés d'armes non conventionnelles. Dès lors comment est
régie leur utilisation ?
2.2.2 DIH applicable à l'utilisation des robots
militaires
De manière générale, le DIH lie les Etats
donc les obligations pèsent sur les commandants et les opérateurs
en tant qu'organe de l'Etat. Le DIH indique parfois précisément
que certaines obligations s'appliquent aux commandants (art 57 infra).
2.2.2.1 Le principe de distinction
D'une part l'utilisation des robots
militaires doit respecter le principe de distinction entre les
cibles autorisées, seules cibles légales et les cibles
protégées par le DIH qu'il est interdit d'attaquer.
On peut qualifier le robot militaire
d' « arme », ou bien de
« moyen » ou de « méthode de
combat ». L'utilisation de ces robots est de manière
générale soumise au principe de distinction.
Ce principe est posé notamment aux articles 48 et 51 du
1er PA.
Cette règle revêt en outre un caractère
coutumier et elle est codifiée dans le code de DIH coutumier à
l'article 1. La formulation de la règle dans le PA 1 montre le droit
applicable pour les conflits armés internationaux.
_« art 48
les parties [...] doivent en tout temps faire la
distinction entre la population civile et les
combattants ainsi qu'entre les biens de caractère civil
et les objectifs militaires [...] ne diriger leurs
opérations que contre des objectifs militaires.
»
Cet article pose un principe ancien mais son expression
reflète le droit actuel. Les personnes protégées sont
« la population civile ».Il est précisé
« en tout temps ». Cela exclut des exceptions au principe
éventuellement liées aux circonstances.
Cette règle s'applique aux
« opérations » des parties. L'utilisation d'un robot
militaire par un opérateur, peut être qualifiée
d'opération ou bien d'attaquefaisant partie de
l'opération. L'ordre donné par un commandant d'en utiliser,
s'inscrit aussi dans les opérations, et est donc aussi soumis à
ce régime.
D'après cet article, seuls les combattants et les
objectifs militaires peuvent être pris pour cible par l'opérateur
du robot. L'obligation pèse sur les opérateurs et commandants.
_« art 51
3. Les personnes civiles jouissent de la protection
accordée par la présente section, sauf si elles
participent directement aux hostilités et pendant la
durée de cette participation.
4. Les attaques sans discrimination sont interdites.
L'expression « attaques sans discrimination » s'entend :
a) des attaques qui ne sont pas
dirigées contre un objectif militaire
déterminé ;
[...]
5. b) les attaques dont on peut attendre qu'elles
causent incidemment des pertes en vies humaines dans la population
civile, des blessures aux personnes civiles, des dommages aux biens de
caractère civil, ou une combinaison de ces pertes et dommages, qui
seraient excessifs par rapport à l'avantage militaire
concret et direct attendu. »
Cet article 51,au 3. précise le principe de distinction et
fait perdre leur protection aux civils qui participent directement aux
hostilités tant que cette participation dure.
Puis au 4. Il est posé l'interdiction de lancer une
attaque non dirigée vers un objectif militaire
déterminé. Les règles posées au 4. (b) et
(c), sont applicables aux robots militaires en tant qu'armes
indépendamment de leur utilisation comme cela a été
démontré plus haut.
Le 5. qualifie de « sans discrimination » une
attaque qui produit des destructions collatérales
disproportionnées sur des cibles protégées par le DIH. De
mon analyse, cette règle pourrait se classer dans l'obligation que
l'attaque soit proportionnée plutôt que dans la qualification
d'attaque indiscriminée.
Juridiquement, il s'agit d'une hypothèse dans laquelle le
caractère disproportionné fait relever l'attaque du régime
du principe de distinction. Une telle attaque est ainsi qualifiable de
« disproportionnée » et
d' « indiscriminée ».
Vu, la définition de l'attaque à l'art 49 et le
commentaire de l'article 57 du PA 1, cette obligation pèse sur le
commandant et sur l'opérateur.
Les opérateurs ne doivent ainsi pas utiliser des robots
militaires semi autonomes, s'ils peuvent s'attendre à ce que cette
utilisation cause des dommages collatéraux disproportionnés. Les
commandants ne doivent pas ordonner de telles attaques.
Cette règle figure de plus dans le PA 2 à l'article
13. L'article 13 est moins précis que les règles du PA 1 mais le
principe général est très semblable. Cet article 13
étend ainsi cette obligation de distinction aux conflits armés
internes.
? Définition de la personne civile
En DIH, la personne civile est définie uniquement
de manière négative. Cela est posé
à l'art 50 du PA 1.
« Article 50 -- Définition des personnes
civiles et de la population civile
1. Est considérée comme civile toute personne
n'appartenant pas à l'une des catégories visées à
l'article 4 A. 1), 2), 3), et 6) de la IIIe Convention et à l'article 43
du présent Protocole... »
Cet article exclut de la qualité de civil, les personnes
qui appartiennent aux Forces armées de l'une des parties. Mais aussi les
membres des milices et des corps de volontaires qui en font partie (en outre
les personnes relevant de l'art 4. A. 3) de la convention 3, qu'il n'est pas
pertinent de développer dans cette étude). Sont aussi exclues de
la qualité de civils, les civils qui prennent les armes même non
organisés en force armée régulière s'ils portent
ouvertement les armes et respectent les lois et coutumes de guerre.
Bien que cette définition soit négative,si on
interprète cette qualité selon les prescriptions de l'art 31 de
la convention de Vienne sur le droit des traités,le sens de
« civil » est clair. Il s'agit de la
définition courante (le « sens ordinaire »).
Le problème qui subsiste est la délimitation dans
certaines hypothèses entre civils et cibles légalement
attaquables. En particulier, les civils qui prennent les armes : quelle
est la limite juridique précise, au-delà de laquelle, ils perdent
leur protection par le droit ? Il faut combiner une application de
l'article 51 et de l'article 4 de la CG 3 auquel renvoie l'article 50. De ces
articles lus de manière combinée, on tire que :
Les civils non protégés sont :
_ceux qui « participent directement aux
hostilités », ou bien
_ceux qui prennent les armes même sans former une force
armée organisée s'ils portent ouvertement les armes et respectent
les lois et coutumes de guerre.
Il semble que la 2èmehypothèse soit
incluse dans celle des civils qui participent « directement aux
hostilités ». Les professeurs spécialistes de DIHne
font pas une telle sous distinction et on suivra leur interprétation. On
reste donc sur la question de ce qu'il faut entendre par
« civil » qui « participe directement aux
hostilités ». Cela se résout lors de l'application du
droit au fait (voir Chapitre 3).
Donc les opérateurs de robots militaires qui
téléguident le robot, peuvent légalement prendre pour
cible les civils qui participent directement aux hostilités.
L'obligation pèse aussi sur les commandants qui donnent l'ordre
d'attaquer.
? Le régime relatif au doute
Un problème qui apparait dans le cas de l'utilisation de
robots semi autonomes que l'on envisage dans cette partie, est le
doute concernant la cible du robot quant à sa
qualité de combattant ou de civil (Cet aspect est soulevé par M.
N. Schmitt dans son article «Out of the Loop»:
AutonomousWeaponSystems and the Law of ArmedConflict, voir 7).
Ce cas est prévu à l'art 50 du PA 1 :
« Est considérée comme civile toute
personne [...]En cas de doute, ladite personne sera
considérée comme civile. »
Pour le cas d'un robot semi autonome, c'est-à-dire
télécommandé par un opérateur, le doute est celui
de l'opérateur du drone. Ce dernier télécommande le robot
à travers un système qui retransmet par exemple sur des
écrans les informations que les capteurs du robot collectent. Le doute
chez l'opérateur se porte sur des informations ainsi retranscrites. S'il
doute quant à la qualité de la cible, il ne doit pas l'attaquer.
Il semble que l'obligation pèse aussi sur le commandant.
En effet si on lit l'article 51 en rapport avec les autres
articles du protocole, on trouve que les obligations de distinction
pèsent dans leur ensemble sur les opérateurs et commandants. Par
exemple, dans certaines situations l'opérateur peut être contraint
par l'organisation interne de son armée de demander l'approbation de son
commandant avant de faire feu. Dans cette hypothèse, l'obligation
relative au doute pèse sur le commandant.
Le commentaire de l'article précise qu'il y a doute
« en raison des circonstances ».
Par ailleurs, d'après Eric DAVID, la protection des civils
vaut sur terre, en mer, et dans l'atmosphère (Principes de droit des
conflits armé, p290). C'est-à-dire dans tous les champs de
bataille possibles (sauf l'espace, mais on considère cette
hypothèse comme non pertinente, dans la période contemporaine de
publication de cette étude).
? L'interdiction d'attaquer les personnes hors de
combat
Cette règle est posée à l'art 41 du PA
1 :
« 1. Aucune personne reconnue, ou
devant être reconnue, eu égard aux circonstances, comme
étant hors de combat, ne doit être l'objet d'une attaque.
2. Est hors de combat toute personne :
[...]b) qui exprime clairement son intention de se
rendre, ou
c) qui a perdu connaissance ou est autrement en
état d'incapacité du fait de blessures ou de maladie et en
conséquence incapable de se défendre, à condition
que, dans tous les cas, elle s'abstienne de tout acte d'hostilité et ne
tente pas de s'évader. »
Un militaire hors de combat ne doit donc pas être
attaqué et distingué des combattants pouvant être
attaqués.
L'obligation pèse en particulier sur l'opérateur du
robot. Il doit reconnaitre la personne hors de combat, à travers les
informations que les capteurs du robot lui retransmettent. Si, par exemple il
reconnait sur les écrans qui transcrivent les images recueillies par les
caméras du robot, un combattant hors de combat, il ne doit pas
l'attaquer. Il est interdit en outre, au commandant d'ordonner ou d'autoriser
les attaques contre des personnes hors de combat.
? L'interdiction d'attaquer les personnes affectées
à la protection civile
Cette règle est posée au PA 1 art 12, 15... On
rappelle le principe de cette règle, d'après lequel les personnes
affectées à la protection médicale, sanitaire, civile et
religieuse des victimes de conflit ne peuvent faire l'objet d'attaques. Elle
pèse sur les opérateurs et les commandants. Il n'est pas
pertinent de développer ce point car il est peu probable que les
opérateurs de robots militaires, rencontrent dans leurs
opérations ces personnes.
En conclusion sur cette partie, ces obligations de
distinctionspèsent sur les Etats et en aval sur les militaires qui
utilisent des robots militaires. Ils doivent ainsi utiliser les robots
militaires en respectant ce principe de distinction.
2.2.2.2 Le principe de proportionnalité de
l'attaque
Il s'agit d'une limitation des attaques qu'un belligérant
peut mener. D'après ce principe, une attaque menée contre un
objectif militaire, ne doit pas causer de dommages collatéraux
disproportionnés à l'encontre de personnes ou de biens,
civils, protégés par le DIH.
Remarquons qu'il ne s'agit pas d'une obligation que l'attaque
contre un objectif militaire soit proportionnée en elle-même.
Ainsi, une attaque qui cause des dommages très importants uniquement sur
des cibles militaires n'est pas disproportionnée quelle que soit
l'ampleur des dommages causés. Bien sûr elle peut devenir
illégale au titre de l'interdiction des « méthodes de
guerre » qui causent des maux superflus. Mais il faut bien concevoir
qu'il ne s'agit pas de l'idée de proportionnalité dans l'usage de
la force ciblée. Il s'agit de la proportionnalité dans les
dommages collatéraux.
Cette règle est posée aux articles 51 (5) (b) et 57
(2) a)(iii) :
«51 (5) (b) Seront [...] considérés
comme effectués sans discrimination [...] les typesd'attaques [...] dont
on peut attendre qu'elles causent incidemment des pertes en vies humaines dans
la population civile, des blessures aux personnes civiles, des dommages aux
biens de caractère civil, ou une combinaison de ces pertes et dommages,
qui seraient excessifs par rapport à l'avantage militaire
concret et direct attendu. »
Donc les dommages collatéraux doivent être
proportionnels à « l'avantage militaire ».
Ce principe est particulièrement important pour cette
étude car les robots militaires type drones armés peuvent se
déplacer loin au-delà des zones de front là où il y
a présence de civils.
Dans un tel contexte, l'opérateur du robot ne doit pas
faire feu sur un objectif militaire identifié, si on peut s'attendre
à ce que l'attaque cause des dommages collatéraux sur les civils,
disproportionnés. D'après le commentaire du protocole,
L'obligation pèse sur les commandants (art 57 2.b) et sur les
opérateurs.
2.2.2.3 La nécessité militaire
Cette règle est étudiée dans le rapport
LosingHumanity de HumanRights Watch (HRW) de 20128, mais
l'analyse montre que cette elle n'est pas pertinente dans cette étude.
Cette règle n'est pas exprimée juridiquement par
une règle précise dans le droit actuel. Mais elle est
utilisée dans le droit de Genève. Cette exigence est
déjà présente dans le règlement de La Haye de 1907.
En outre, le droit de Genève comporte plusieursrègles quifont
référence à la « nécessité
militaire ». De manière commune, ces articles posent des
règles de DIH, auxquelles la nécessité militaire permet de
déroger.
On peut faire un travail d'analyse et de synthèse de ces
mentions du concept de nécessité militaire :
Il apparait qu'il est difficile de parler d'une règle ou
de principe de DIH car la nécessité est dans chaque article
seulement mentionnée.
Mais par ailleurs, ce concept a un certain régime
juridique propre : Il permet de déroger aux exigences du
DIH pour attaquer certains biens normalement
protégés (art. 23 g. , règlement de La
Haye : protection des propriétés ennemies sauf
« nécessités de la guerre » ; art 33 de
la CG 1 sur la protection des biens sanitaires des forces armées mobiles
tombés au pouvoir de la partie adverse ; l'art 54 sur la protection
des biens indispensables à la survie de la population ; art 67
§4. sur les biens de certains membres des forces armées
affectés à la protection civile...), ou bien afin de ne
pas laisser certains personnels affectés à la protection civile
intervenir dans certaines situations (art 15 , règlement de La
Haye(organisation du travail de la protection civile sauf
« nécessités militaires » ; art 62, PA
1, qui organise le travail des organismes de protection civile sauf si la
nécessité militaire « impérieuse »
commande de déroger à ce régime ; art 71 PA 1...).
Donc on peut parler de règle.
Par ailleurs, la nécessité militaireest
mentionnée dans la convention de la Haye de 1907. Il apparait que la
nécessité militaire, est une limiteautonomedu
DIH.Maistel que cela y est énoncé, la nécessité
militaire à laquelle il est fait référence, n'est pas un
concept juridique.
Le PA 1, art 52 2. apporte des éléments de
définition positive de la règle. Cet article
trace la délimitation entre les biens civils protégés (au
titre du principe de distinction) et ceux pouvant être pris pour cible.
D'après cet article, les biens pouvant être pris pour cible sont
définis de manière large et incluent ceux
« normalement affecté[s] à un usage
civil » sous condition. Cette condition, c'est la
nécessité militaire (selon les auteurs (David, Bettati) et
malgré que l'expression n'est pas utilisée dans l'article).
Schématiquement, d'après le principe de
distinction, il est interdit de détruire des biens civils.
Mais il y a des exceptions à ce principe : ce sont
les destructions de biens « normalement affecté[s] à un
usage civil »justifiées par la nécessité
militaire. Ainsi, si une attaque dirigée contre des biens civils est
nécessaire militairement, elle peut être menée de
manière licite.
Ainsi l'art 52 2. Du PA 1 dispose que :
«Les attaques doivent être strictement
limitées aux objectifs militaires. En ce qui concerne
les biens, les objectifs militaires sont limités aux biens qui, par leur
nature, leur emplacement, leur destination ou leur utilisation apportent une
contribution effective à l'action militaire et dont la
destruction totale ou partielle, la capture ou la neutralisation offre en
l'occurrence un avantage militaire
précis. »
Cette définition positive ne vaut que pour les biens.
Ainsi, pour qu'une attaque soit militairement nécessaire,
il faut qu'elle apporte un avantage militaire. Alors, cela justifie les
destructions de certains biens ou bien, qu'une partie ne laisse pas le
personnel affecté à la protection civile intervenir.
De telles attaques doivent remplir cette condition. L'obligation
pèse sur les commandants et les opérateurs.
Le principe de nécessité est relevé comme
pertinent par HumanRights Watch dans le rapport Losinghumanity de 2012
mais notre analyse montre le contraire. En effet, les destructions de biens
peuvent être faites par des robots militaires mais elles ne
nécessitent pas particulièrement l'utilisation de ces derniers.
Les dérogations à l'organisation du travail des membres de la
protection civile n'ont, elles pas de rapport direct avec l'utilisation de
robots militaires.
2.2.2.4 L'obligation de précaution dans
l'attaque
Cette règle est posée à l'art 57 PA 1. Elle
consiste à ce que les belligérants prennent toutes les
précautions possibles, de manière
« constante » pendant toute la durée des
« opérations militaires » en vue de ne pas violer le
DIH, et en particulier l'obligation de distinction, de proportionnalité
de l'attaque.... L'article liste une série d'obligations pesant sur les
belligérants lors de l'attaque, selon différentes
hypothèses envisagées.
On peut soulever en particulier pour le cas de l'utilisation des
robots militaires, le 2. :
« 2. En ce qui concerne les attaques, les
précautions suivantes doivent être prises :
a) ceux qui préparent ou décident une attaque
doivent :
i) faire tout ce qui est pratiquement possible pour
vérifier que les objectifs à attaquer ne sont ni des
personnes civiles, ni des biens de caractère civil, et ne
bénéficient pas d'une protection spéciale, mais qu'ils
sont des objectifs militaires au sens du paragraphe 2 de l'article 52, et que
les dispositions du présent Protocole n'en interdisent pas l'attaque
;
ii) prendre toutes les précautions pratiquement
possibles quant au choix des moyens et méthodes
d'attaque en vue d'éviter et, en tout cas, de réduire au
minimum les pertes en vies humaines dans la population civile, les blessures
aux personnes civiles et les dommages aux biens de caractère civil qui
pourraient être causés incidemment »
Le 2. a) tel que le commentaire de l'article de 1986, le
précise, ne vise pas uniquement les commandants mais aussi des
« chefs subalternes » ou plus loin, des
« militaires de rang inférieur ». En outre,
les moyens « pratiquement possibles » doivent être
interprétés selon le « bon sens » et la
« bonne foi ». En cas de doute quant à la
qualité de la cible, ceux qui préparent ou décident
l'attaque doivent demander des renseignements
complémentaires sur l'objectif militaire si les renseignements
à disposition sont insuffisants.
Le commentaire de l'art 15 du code de droit humanitaire coutumier
de 2006, précise que certains Etats considèrent que cette
obligation pèse uniquement sur les commandants.
Pour le cas des robots militaires, d'après l'alinéa
i), le commandant qui donne l'ordre de lancer le robot, doit de manière
pratique mettre en oeuvre des moyens pour vérifier que
les cibles de l'attaque sont des combattants. Il peut par exemple exiger que si
un combattant est identifié par le robot hors du champ de bataille,
l'opérateur demande son autorisation avant de tirer.
D'après le ii), le commandant doit mettre en oeuvre des
moyens consistant à évaluer s'il n'y a pas de méthode de
guerre à sa disposition qui pourraient causer moins de dommages
collatéraux éventuels que l'utilisation du robot.
En outre, il y a une obligation d'adaptation de l'attaque :
« b) une attaque doit être annulée ou
interrompue lorsqu'il apparaît que son objectif n'est
pas militaire ou qu'il bénéficie d'une protection spéciale
ou que l'on peut attendre qu'elle cause incidemment des pertes en vie
humaines dans la population civile, des blessures aux personnes
civiles, des dommages aux biens de caractère civil, ou une combinaison
de ces pertes et dommages, qui seraient excessifs par rapport à
l'avantage militaire concret et direct attendu ».
D'après le commentaire de l'article datant de 1986, cette
obligation pèse ici sur le commandant et surtout sur l'opérateur.
Cette règle est particulièrement pertinente pour le
cas des robots militaires, car ils peuvent être déployés
loin de la zone de front du champ de bataille à proximité de
cibles civiles. Alors, au cours du déploiement du robot,
l'opérateur doitadapter son attaque en fonction des
informations qui lui parviennent sur l'objectif militaire initial. Si par
exemple les informations que la caméra du robot rapporte montrent que la
cible se trouve à proximité de civils, l'opérateur doit
adapter son comportement en interrompant ou annulant l'attaque. Cette
obligation pèse aussi sur le commandant qui dans la pratique doit
intervenir pour décider d'annuler une attaque.
2.2.2.5 L'humanité telle que posée dans la
clause de Martens
Le principe d'humanité s'exprime par de
nombreuses règles sur le traitement des personnes au pouvoir de
l'ennemi. Mais il s'applique aussi à la conduite des hostilités.
La clause de Martens soumet, même en l'absence de
disposition expresse du DIH, la conduite des hostilités, notamment aux
« principes de l'humanité ». La clause de Martens a
été intégrée au droit de La Haye et au droit de
Genève, notamment à l'art 1 §2 du PA 1. qui dispose
que :
« Dans les cas non prévus par le
présent Protocole ou par d'autres accords internationaux, les personnes
civiles et les combattants restent sous la sauvegarde et sous l'empire des
principes du droit des gens, tels qu'ils résultent des
usages établis, des principes de l'humanité et
des exigences de la conscience publique. »
D'après cet article, le régime
minimal qui subsiste en tout temps en cas de conflit est celui qui
découle des principes du droit des gens. Ces derniers, résultent
eux-mêmes notamment des principes de l'humanité. Les
« principes du droit des gens » est une formule sujette
à interprétations.
Mais ils résultent en particulier des principes de
l'humanité. Cet article pose les principes de l'humanité en
termes très généraux. Il est donc difficile de
décrire les règles qui peuvent en découler en particulier
pour notre cas.
Donc la clause impose que les militaires qui utilisent les drones
se soumettent à un régime juridique, lui-même conforme aux
principes de l'humanité. Donc l'humanité indirectement est une
obligation pour les combattants.
Cette obligation pèse sur les commandants et les
opérateurs de robots militaires.
On a vu que le droit relatif aux armes peut s'appliquer aux
robots militaires semi autonomes. Dès lors, on peut procéder
à l'application afin de voir s'il ressort des illégalités
relativement à ces utilisations.
III Application
A) Application du droit relatif à
légalité du robot comme arme
On rappelle qu'on étudie ici un robot,
contrôlé et dirigé par un opérateur, qui seul peut
en temps réel faire feu sur une cible. Ces robots sont
déjà utilisés et en cours de nouveaux
développements.
On a vu que le robot ne doit pas ni rendre la mort
inévitable, ni causer des maux superflus, ni avoir des effets
indiscriminés, ni être équipé d'une arme non
conventionnelle. Que ressort-il de l'application de ce régime aux robots
semi autonomes ?
1. Application de l'obligation que le robot ne cause pas
des maux superflus
Les robots militaires ne doivent pas causer de maux superflus aux
combattants ennemis touchés.
D'une part cela interdit que le robot soit équipé
d'armes qui causent des maux superflus car alors, quelle que soit l'attaque,
l'arme est de nature à causer des maux superflus.
Il est possible, d'autre part, qu'un robot équipé
d'armes conventionnelles cause des maux superflus. En particulier, les drones
équipés de missiles explosifs antichars (les
« Hellfire ») ont été très
utilisés en Irak et en Afghanistan. Mais utilisés contre
un combattant comme unique cible, ils ne laissent quasiment aucune chance de
survie à ce combattant. Et en outre à supposer qu'il survive, il
est très probable qu'il perde un ou plusieurs membres de son corps. Cela
est superflu tant en rapport avec l'avantage
militaire que l'attaque donne à la partie, qu'en rapport avec la
nécessité de mettre ce combattant cible, hors de combat (les
industries militaires travaillent sur la mise au point de missiles plus petits
et moins puissants pour équiper spécialement les drones).
Le problème est que ces maux superflus, sont la
conséquence de l'utilisation d'une arme
légale. Mais alors le seul droit applicable à
l'utilisation d'une arme, ignore un tel cas.
Le droit relatif aux armes en elles-mêmes est-il
exclu ? Le commentaire de l'art 35 PA 1 et le commentaire du code de DIH
coutumier apportent des amorces de solution. Ces commentaires montrent que
cette règle est interprétée de manière diverse par
les Etats et en particulier le commentaire de l'article énonce, de
manière quelque peu étonnante que : « Il
[l'article] énonce une interdiction de résultat, mais non
directement une interdiction de moyen ». Ainsi le
résultat de causer les souffrances superflues dues aux drones serait
interdit par cette règle.
L'interprétation suivanteserait alorslégalement
concevable : onconsidère que les drones
utilisés contre des combattants
découverts sont des armes causant des maux superflus car lors d'une
telle utilisation, le drone par nature, dès
qu'il touche une cible lui inflige la mort ou bien la perte de membres, ce qui
est superflu.
Un tel raisonnement serait en effet analogue à
l'interdiction limitéedes lance-flammespar une
convention spéciale.
Donc, plus généralement, dans les
cas où les robots totalement autonomes sont de nature
à causer des maux superflus, ils sont interdits par le DIH.
En particulier en Irak et en Afghanistan, de telles utilisations
illégales ont été faites mais par ailleurs, les drones
Predator étaientsouvent utilisés contre des véhicules.
2. Application de l'obligation que le robot ne rende pas la
mort inévitable
Il est interdit d'utiliser une arme qui rend la mort des
combattants mis hors de combat, inévitable.
Dans les faits, le robot est déployé sur le champ
de bataille et télécommandé à distance.
L'opérateur, dispose des informations relevées par les capteurs
du robot, comme des caméras, des détecteurs thermiques... On fait
l'hypothèse que l'attaque est très
précise.
Dans le cas des drones, par exemple, l'un des problèmes
qui se posent est que ceux-ci peuvent tirer des missiles très puissants
comme des « Hellfire » contre des combattants. Alors, en
particulier, ces combattants étant pris pour cible de manière
très précise et, par des missiles explosifs très
puissants, il apparait qu'ils n'ont que très peu de chances de survie,
à cause de la nature même du robot comme arme.
Selon le manueld'E. DAVID, la légalité des
« armes modernes » très précises qui
« frappent plus surement les combattants » peut être
discutée, notamment au regard de « l'interdiction des armes
rendant la mort inévitable ».
Mais, l'interface du robot induit une certaine limite
technique à la précision, et un léger
décalage de temps entre le moment précis auquel
l'opérateur actionne la commande de tir et le moment auquel la munition
est tirée.
Il est pratiquement possible, qu'un opérateur de robot
semi autonome, fasse feu sur une cible repérée sur un
écran du cockpit de pilotage du robot, que le combattant pris pour
cible, alerté par le bruit du robot, se déplace et échappe
complètement à l'attaque ou du moins, qu'il soit touché et
survive. Alors, grâce aux capteurs du robot, il est tout à fait
possible que le combattant mis hors de combat soit reconnu comme tel et
épargné par l'opérateur.
Donc,selon les cas, les robots les robots militaires semi
autonomes peuvent rendre la mort des combattants mis hors de combat,
inévitable. En particulier, cela peut être le cas des drones
équipés de missiles Hellfire utilisés contre des
combattants découverts. Dans ces cas, ce sont des armes
illégales.
3. Application de l'interdiction d'utiliser des armes
à effets indiscriminés
Il faut que l'arme puisse être dirigée
contre un objectif militaire et, de manière cumulative, qu'elle
ne frappe pas alors, objectifs militaires et civils de manière
indistincte.
Les robots militaires peuvent manifestement être
dirigés contre un objectif militaire déterminé.
Concernant les effets de l'attaque, il faut que les effets de
l'attaque ne soient pas indiscriminés. L'article 51 4., PA 1, concerne
les « cas » dans lesquels les effets sont
indiscriminés. Donc il faut, au cas par cas, examiner si l'attaque ne
cause pas d'effets indiscriminés.
On propose cette interprétation comme repère :
les effets sont indiscriminés s'ils frappent dans au moins 50% des cas,
des civils.
Cela peut être le cas des attaques de drones
équipés de lanceurs de missiles Hellfire, s'ils sont
utilisés contre un combattant ennemi situé à
proximité de cibles civiles. Dans un tel cas, cette attaque pourrait
même frapper largement plus de civils que les objectifs militaires.
Dans ces cas, un tel drone armé
d'un lanceur de missiles Hellfire est illégal en tant qu'arme à
effets discriminés.
Si, plus généralement, le robot est
équipé d'armes explosives très puissantes, et est
utilisé contre un objectif militaire situé à
proximité de civils, alors le robot peut selon les cas,
être une arme à effets indiscriminés, interdite.
4. Application de l'interdiction des armes
désignées et interdites dans les conventions
Il ne faut pas dans la pratique que le robot (qui lui-même
ne figure dans aucune convention comme arme interdite), soit
équipé de l'une de ces armes interdites. Car alors, comme on l'a
montré cela rendrait l'arme globale interdite.
B) Application du régime relatif à l'utilisation
des robots militaires
1. Application du principe de distinction
? Cas général
Il faut que l'opérateur fasse la distinction entre civils
et militaires. La technologie est très sophistiquée et les
opérateurs disposent de nombreuses informations sur
leurs cibles. Mais ils n'ont pas de vue directe sur la cible. Les
caméras frontales des robots, d'après ce que les médias
ont divulgués sont parfois primitives9. Elles sont
utilisées de manière combinée avec d'autres capteurs comme
des capteurs thermiques. Mais cette relativement faible définition des
images, est une limite à prendre en compte lors de la
distinction entre cibles civiles et militaires.
? Application de l'obligation relative au doute
En particulier le DIH impose qu'en cas de doute
sur la qualité de combattant ou de civil, de la cible, la cible soit
considérée civile et épargnée.
Ce doute dans le chef de l'opérateur peut apparaitre dans
la pratique et dans certains cas être dû à la faible
résolution des caméras du robot. Alors, l'opérateur doit
considérer la cible comme civile et l'épargner.
Si les images transmises par le robot ne sont pas assez claires,
une attaque contre des cibles données, malgré le doute quant
à la qualité de civil ou militaire de la cible est une
violation de l'obligation de distinction.
? Application de l'obligation de distinguer les combattants
hors de combat
Le DIH interdit d'attaquer toute personne
« reconnue, ou devant être reconnue, eu égard aux
circonstances » comme combattant hors de combat (PA1, art 41).
Cette exigence peut être remplie par l'opérateur
d'un robot militaire même au travers des informations que lui
transmettent les capteurs du robot. Dans la pratique, il peut reconnaitre
l'Etat d'un combattant.
Mais la notion de personne hors de combat inclue, la personne qui
« exprime clairement son intention de se
rendre »
Mais comment le combattant pris pour cible par un robot militaire
peut-il exprimer son intention de se rendre ? Comment
peut-il se rendre ?
On peut relever 3 cas susceptibles de se rencontrer dans la
pratique.
_Si le combattant hors de combat exprime son intention de
se rendre à des militaires au sol, alors que, de son
côté l'opérateur le prenait pour cible, alors,
l'opérateur ne doit pas attaquer le combattant hors de combat. Dans
cette hypothèse la difficulté est que l'opérateur doit
être capable de comprendre le comportement du militaire qui se rend. Or,
il peut être assez subtil d'apprécier que le militaire exprime son
intention de se rendre depuis un cockpit de pilotage de robot à travers
des écrans d'ordinateur. Il semble que ce n'est pas le cas type qu'un
robot militaire rencontre dans la pratique actuelle.
_Pour que le combattant hors de combat puisse se rendre, il
faudrait que des militaires appartenant à la même partie que
l'opérateur qui dirige le robot, soient à
proximité pour capturer le militaire hors de combat. Quels cas
cela peut recouvrir ? A qui le militaire hors de combat doit il exprimer
son intention de se rendre ?
Un cas possible est que le combattant pris pour cible exprime son
intention de se rendre à l'opérateur, par l'intermédiaire
du robot. Dans la pratique actuelle cela parait très difficile à
appliquer car les attaques sont très rapides. Mais cela est possible
pour le futur si les militaires connaissent mieux les drones et que de bonnes
pratiques s'installent entre les Etats.
Même alors, il faudrait que les militaires du même
camp que l'opérateur soient informés, par exemple par
l'opérateur qu'un combattant hors de combat souhaite se rendre pour
pouvoir venir le capturer.
_Un autre problème est le cas où le militaire
exprime son intention de se rendre à l'opérateur à travers
les caméras du robot. L'opérateur alors reconnait un militaire
hors de combat, mais il n'y a aucune troupe au sol pour capturer le militaire.
Que doit faire l'opérateur du drone ?
D'après le DIH, un tel militaire est une cible
protégée donc il ne peut pas être attaqué même
s'il ne peut pas pratiquement être capturé.
En conclusion, il peut être difficile pour
l'opérateur de reconnaitre une personne hors de combat.
En outre, il est très difficile dans la pratique pour un
opérateur de reconnaitre qu'un militaire cible exprime son intention de
se rendre.
? Application de l'obligation de distinguer les personnes
affectées à la protection civile
La difficulté est celle pour l'opérateur de les
reconnaitre malgré les limites techniques éventuelles dans la
transmission des informations des capteurs au cockpit de pilotage. Alors,
l'obligation relative au doute peut s'appliquer aussi. Cela ne pose pas de
difficulté particulière dans la pratique.
2. Application du principe de proportionnalité
Il est interdit de mener des attaques « dont on peut
attendre » qu'elles causent des dommages collatéraux
disproportionnés sur les civils, par rapport à l'avantage
militaire attendu. Cette obligation pèse sur le commandant et
l'opérateur du robot. Cette interdiction s'applique à
l'utilisation des robots télécommandés.
Dans la pratique cette règle est pertinente pour les
utilisations de drones télécommandés. En effet, comme
énoncé plus haut de nombreux drones ont été
utilisés, munis de lanceurs de missiles anti chars. De
tels drones ont pris pour cible des objectifs militaires. Or, l'un des
avantages stratégiques des drones est qu'ils peuvent être
déployés loin des zones de front, là où se
trouvent des civils. Ces 2 éléments de faits sont des
difficultés à prendre en compte pour les militaires dans
l'application du principe.
Dès que les robots semi autonomes sont utilisés
contre des objectifs militaires dans de tels environnements, il est très
probable qu'ils causent des dommages collatéraux très importants.
Alors, le principe de proportionnalité s'applique.
Donc, si contrairement à ce que l' « on
peut attendre »,une attaque est menée, alors qu'elle cause des
dommages collatéraux excessifs par rapport à l'avantage
militaire apporté, cette attaque ordonnée par le
commandant ou menée par un opérateur,
est illégale.
Vu les cas révélés dans la presse, il
apparait que des dommages collatéraux importants ont été
causés. Dans la pratique, cette règle est pertinente pour les
attaques menées par les drones Predator en particulier.
Si l'ordre est donné alors qu'il n'est pas connu que des
civils sont présents à proximité de l'objectif militaire,
l'ordre est légal mais il peut apparaitre à l'opérateur
que les faits ne sont pas ce qui était prévu et que des civils se
trouvent à proximité des objectifs militaires. Alors,
l'obligation de précaution quant à la
proportionnalité (PA 1, art 57 2. B)) oblige l'opérateur
à annuler ou interrompre l'attaque.Même si l'ordre est
illégalement donné, alors qu'on pouvait attendre que des civils
se trouvent à proximité de l'objectif militaire, l'obligation de
précaution commandeà l'opérateur d'annuler ou
interrompre l'attaque s'il apparait qu'elle est
disproportionnée.
3. Application de la règle de
nécessité militaire
Cette règle oblige les parties à ne pas
détruire certains biens protégés ou empêcher le
travail du personnel de la protection civil sauf si cela est nécessaire
militairement. Cette règle n'a pas d'application particulière
pour l'utilisation des robots militaires.
4. Application de l'obligation de précaution dans
l'attaque
Cette obligation oblige commandants et opérateurs à
mettre en oeuvre des moyens afin d'assurer une précaution dans leurs
attaques.
En particulier il est pertinent de relever que commandant et
opérateur doivent faire tout ce qui est pratiquement possible pour
vérifier que l'objectif à attaquer est bien une
cible légalement attaquable. Cela oblige les opérateurs en
particulier, à exploiter tous les capteurs du robot,
éventuellement à communiquer par radio avec d'autres militaires
pour procéder à cette vérification. Dans le cas des
drones, ceux-ci peuvent être utilisés pour collecter des
renseignements sur la cible pendant des périodes étendues pour
vérifier la qualité de cible légalement attaquable.
En outre, les commandants ou opérateurs doivent prendre
les précautions « pratiquement possibles » quant au
choix des moyens ou méthodes de guerre pour
réduire au minimum les dommages collatéraux pour les civils.
Or par exemple, les drones Predator utilisés dans les
conflits récents lançaient des missiles explosifs très
puissants sur leurs cibles, dans des environnements où des civils
pouvaient se trouver. S'il est « pratiquement possible »
pour le commandant d'utiliser un moyen ou une méthode de guerre, propre
à causer moins de dommages collatéraux pour les civils, alors il
est obligé d'utiliser de tels moyens ou méthodes et non pas le
drone Predator.
Dans la pratique par l'armée américaine, cette
règle rendrait illégale une attaque au moyen d'un robot
équipé de lance-missiles Hellfire dans un environnement
où peuvent se trouver des civils s'il y a un moyen alternatif
d'attaquer l'objectif en risquant de causer moins de dommages contre des
civils.
En outre, commandant et opérateur en particulier doivent
adapter l'attaque s'il apparait que la cible n'est pas un
objectif militaire ou bien que l'attaque est disproportionnée.
L'opérateur qui manipule un robot télécommandé est
en mesure de faire cette adaptation. Il doit en particulier utiliser par
exemple les capteurs du robot pour pouvoir, le cas échéant,
adapter son attaque.
La pratique ne montre pas de préoccupation
particulière quant à la légalité des utilisations
de robots au regard de cette règle.
5. Application des principes de l'humanité
Les combattants dans la conduite des attaques sont indirectement
sous l'empire des principes de l'humanité. Donc ils doivent mener leurs
attaques avec humanité. Un problème pratique qui apparait est que
l'opérateur du robot militaire ne se situe pas sur le champ de bataille.
Donc il ne courre aucun risque lorsqu'il mène
l'attaque. Il peut faire feu sur un combattant ennemi, depuis une base
américaine. Cette absence de prise de risque rend l'attaque
déloyale.
Mettons-nous à la place de l'ennemi. Il ne voit peut
être même pas l'attaque arriver. Un drone fait feu sur lui avec un
missile de croisière propulsé à la vitesse du son (cas du
drone Predator armé). Il entend juste une détonation et c'en fini
de lui. A supposer qu'il soit habitué des drones il peut le reconnaitre
et tenter de fuir mais probablement que l'explosion de la munition le touchera.
Il est problématique que le combattant soit attaqué
dans un rapport de force déloyal et qu'en plus, ses chances
d'échapper à l'attaque soient très faibles. Cela
étant les drones ne sont pas déployés pour n'importe
quelles missions.
Mais que recouvrent « les principes de
l'humanité » ? Et de quelle manière sont-ils
applicables ? Les juridictions pénales internationales n'ont pas
défini cela. Donc on ne peut conclure que l'utilisation des robots semi
autonomes contrevient à la clause de Martens.
IV Conclusion : des préoccupations quant à
la légalité de l'utilisation des robots semi autonomes, selon les
cas
En conclusion, sauf cas particuliers, les robots
militaires semi autonomes ne sont pas interdits au regard du DIH. Ces cas
particulier, cela étant, doivent être soulignés :
_Les robots normalement dirigés contre des combattants
découvert mais équipé de lanceurs de missiles très
puissants sont illégaux au regard de l'interdiction des armes
qui causent des maux superflus.
_En outre, des robots équipés de lanceurs de
missiles explosifs très puissants, ne doivent pas être
utilisés contre des objectifs militaires dans des environnements
où sont présents des civils. Cela est interdit au titre de
l'interdiction des armes dont les effets sont
indiscriminés.
Quant à l'utilisation des robots, une
illégalité probable est le cas où un opérateur
attaque une cible, alors que les informations dont il dispose depuis son
cockpit sont limitées et en particulier, la résolution des
caméras, laisse subsister un doute quant à la qualité de
la cible. Il y a préoccupation quant à son obligation de
distinction.
Un cas plus net, est la probabilité élevée
de mener une attaque disproportionnée dans les
environnements où sont présents des civils et le robot est
équipé par exemple de missiles Hellfire.
On a montré les préoccupations quant à la
légalité de l'utilisation des robots semi autonomes dans les
conflits. Mais, les différents robots semi autonomespeuvent être
plus ou moins autonomes. En outre, la technologie relative aux fonctions
autonomes de ces robots se développe très rapidement et on voit
apparaitre de nouveaux robots dotés de fonctions autonomes de plus en
plus importantes. Donc on est amené à se demander quel
degré d'autonomie le DIP autorise.
Chapitre 2 Le degré d'autonomie que le droit
autorise
Dans cette étude, on part de l'hypothèse à
priori que l'utilisation de robots militaires totalement autonomes est
illégale en DIP. Le raisonnement confirmera cela.
Dans cette partie, on cherche à déterminer le
degré d'autonomie des robots militaires que le DIP autorise. La
méthode que l'on suit consiste à étudier la
légalité d'un scénario majorant qui est
l'utilisation d'un robot totalement autonome. Cela permet de délimiter
le degré d'autonomie autorisé.
Il apparait qu'un robot totalement autonome violerait le DIP de 5
manières : Il y aurait violation du principe de distinction (de 2
manières), du principe de précaution (de 2 manières) et
enfin violation des principes de l'humanité.
Cela met en évidence la limite du degré d'autonomie
des robots militaires que le DIP pose. Ainsi, l'autonomie ne peut priver
l'opérateur du robot de son obligation d'exercer un
doute quant à la qualité militaire ou non de la
cible attaquée, ni priver l'opérateur de son obligation de
reconnaitre en personne en temps réel une personne hors
de combat, ni priver les militaires de leur obligation de
veiller constamment au respect du DIH, ni les priver de leur
obligation d'adapter l'attaque s'il apparait que la cible
n'est pas un objectif militaire licite, ni enfin permettre que le robot
initie l'attaque de manière autonome. Alors pour ce qui est de
la mobilité du robot, l'autonomie peut être totale (à
condition que le robot ne devienne pas lui-même projectile de l'arme), la
phase de l'attaque par contre doit demeurer sous le contrôle actif d'un
opérateur.
Pour obtenir cette conclusion on dégage d'une part le
droit applicable aux robots militaires totalement autonomes (I) puis on
applique le droit au cas (II). Les illégalités qui apparaissent
sont les points critiques à partir desquelles on trace la limite du
degré d'autonomie maximal licite des robots militaires utilisés
(III).
I Les faits pertinents : l'utilisation d'un robot totalement
autonome
On fait l'hypothèse dans ce chapitre que le robot est
programmé pour techniquement respecter le DIH. En outre, on
pose l'hypothèse que le robot est fiable à 90%.
De manière générale, un robot totalement
autonome est techniquement capable de rechercher des informations sur son
environnement, de réaliser ses fonctions sans assistance humaine pendant
une période de temps étendue, il est en outre mobile dans son
environnement de travail sans assistance humaine.
On considère qu'un robot est autonome si, en outre, il ne
cause pas de dommages ni aux personnes, ni aux biens ni contre lui-même,
sauf si cela fait partie de son programme. Dans le cas des robots militaires
leur programme même, les conduit à causer des dommages aux
personnes ou aux biens, donc cela ne leur fait pas perdre leur caractère
autonome.
Pour cette étude, ce que je considère comme
totalement autonome est un robot qui, en particulier, est capable de
faire feu sur une cible identifiée, sans nécessiter une
intervention humaine ni sans nécessiter d'alerter une personne humaine
de l'attaque imminente de manière à permettre à cette
dernière, d'éventuellement prendre le contrôle du
robot. C'est-à-dire dans la pratique, sans qu'un militaire
opérateur ne commande en temps réel de tirer sur la cible, ni
sans qu'il soit alerté de manière à pouvoir intervenir
dans le fonctionnement jusque-là autonome du robot. Cette
catégorie est appelée dans le jargon
« man-out-the-loop », ce qui signifie
« personne humaine hors de la boucle » de
fonctionnement du robot.
Dans cette situation, le robot
« décide » et fait l'action consistant à
tirer sur la cible.
Cela décrit une situation de fait, qui ne se rencontre pas
dans la pratique mais qui pourrait apparaitre dans un futur relativement
proche. Actuellement il est très difficile d'envisager un robot dont
l'AI ne soit ni faible ni infaillible. Pourtant, vu la rapidité des
progrès technologiques, je pense que dans ce futur proche la question de
l'utilisation de tels robots totalement autonomes se posera. Dans cette
étude, le cas des robots militaires totalement autonomes servira aussi
de cas théorique de référence permettant de mettre en
évidence des aspects juridiques de l'utilisation des robots avec
« human-on-the-loop ».
Déjà, le « Techwin sgr-A1 », un
robot sentinelle non mobile est capable de détecter une cible
et, de faire feu selon un mode automatique sur cette
cible10. Mais il est actuellement utilisé seulement de
manière semi autonome, opéré par un militaire, ce dernier
pouvant, lui-seul, décider de faire feu. Le mode automatique de la
machine n'a pas été utilisé, peut-être parce qu'il
est très peu sophistiqué actuellement.
II Droit applicable
A) droit relatif à la légalité de
l'utilisation des robots militaires totalement autonomes
Dans cette hypothèse il n'y a plus d'opérateur qui
téléguide le robot. Un commandant donnerait l'ordre de lancer le
robot militaire contre un objectif militaire déterminé puis, un
opérateur sur le terrain lancerait le robot, qui à partir de ce
stade est totalement autonome. On fait l'hypothèse que le robot est
programmé pour techniquement respecter le DIH. En effet
de manière schématique, si un robot n'est pas programmé
pour respecter le DIH, alors il devient une arme qui frappe indistinctement
civils et militaires, ou bien une arme ne pouvant être lancée
contre un objectif militaire déterminé. C'est-à-dire une
arme illégale. Donc un robot autonome ne peut être utilisé
que s'il est programmé pour respecter le DIH. Cela ne libère en
rien les militaires de leurs obligations au regard du DIH.
1. Le régime applicable aux armes
1.1La qualification d'arme
?La qualification d'arme
En s'en tenant à la définition courante d'une arme
que l'interprétation du DIH permet, comme la convention de Vienne sur le
droit des traités le prévoit, on trouve qu'un robot militaire
totalement autonome est bien un « engin qui sert à
attaquer... » et donc une arme au sens du DIH.
? La qualification d'arme nouvelle
On a qualifié une arme. Lorsqu'ils sont mis au point (ou
seront mis au point), les robots militaires totalement autonomes sont à
un moment donné de nouvelles armes introduites et donc entrent dans
cette qualification de l'article 36 du PA 1. En outre, si, par la suite les
modèles sont améliorés, on peut considérer que les
nouveaux modèles sont eux aussi de nouvelles armes mises à
disposition des armées et donc entrent dans la qualification de
l'article 36. Dès lors, il faut que les Etats examinent la
légalité de l'utilisation de ces armes par des procédures
internes.
1.2 Le droit applicable
La légalité du robot totalement autonome
lui-même en tant qu'arme est soumise au même droit que celui
applicable si le robot est télécommandé,
déjà présenté plus haut.
Il s'agit des 4 règles que le DIH pose :
l'interdiction des armes qui causent des maux superflus, l'interdiction des
armes qui rendent la mort inévitable, l'interdiction des armes à
effets indiscriminés et l'interdiction des armes non conventionnelles.
Mais en particulier, le robot militaire totalement autonome, ne
doit pas produire d'effets indiscriminés d'après l'article 51 4.
du PA 1, précité. Les robots étant programmés, ils
sont limités par leur programme. Ils pourraient rencontrer des
situations qui ne sont pas prévues dans le programme et faillir à
leur fonction. C'est pourquoi il est intéressant d'envisager dans cette
étude, l'utilisation d'un robot fiable seulement à 90%.
Or, sont interdits, « des méthodes ou moyens
de combat dont les effets ne peuvent pas être limités
comme le prescrit le présent Protocole ; et qui sont, en
conséquence, dans chacun de ces cas, propres à frapper
indistinctement ».
Selon mon interprétation, le terme
« indistinctement » impose outre les autres règles
du DIH, que le robotaie une fiabilité au moins supérieure
à 50%.
2. Le régime de l'utilisation
Concernant, les règles de DIH applicables à
l'utilisation d'un robot totalement autonome, les règles
précitées sont aussi applicables. Certaines semblent plus
pertinentes. On les mettra en évidence.
2.1 L'obligation de distinction
? Cas général
Sur qui pèse l'obligation de distinction ? Les Etats
sont obligés de respecter le DIH, donc les obligations pèsent en
bout de chaine sur les commandants responsables qui donnent l'ordre de lancer
puis sur les opérateurs des robots.
_L'art 48, PA 1 impose aux militaires de distinguer en tout temps
les objectifs attaqués.
Remarquons que cette obligation pèse sur les militaires
mais dans notre hypothèse, l'opérateur, ne fait que lancer le
robot sur une cible. Or, le robot peut rencontrer lors de ce déploiement
des civils. 10% d'entre eux seront attaqués.
Le commentaire de l'article précise qu'« il est
du devoir des Parties au conflit de se doter des moyens
accessibles qui leur permettront de respecter les règles du
Protocole. En tout état de cause, on pourrait reprocher à une
Partie qui dispose de tels moyens de ne pas les employer et de s'être
ainsi privée sciemment de la possibilité d'opérer la
distinction requise. » En effet, l'obligation de précaution
impose certains choix des armes à utiliser.
Mais, concernant la règle même, l'article impose de
ne pas « diriger » l'attaque contre des cibles civiles.
Donc il semble que le défaut de fiabilité du robot ne soit pas du
ressort de cette obligation.
_L'art 51 4. (c) interdit d'utiliser des moyens de combats dont
les effets dans certains « cas » sont propres à
frapper indistinctement, civils et militaires. Or, un robot est limité
techniquement. S'il y a des cas connus dans lesquels le robot ne peut
distinguer civils et combattants, le robot ne doit être utilisé
dans aucun de ces cas.
? Le régime relatif au doute
Concernant le problème du doute tel que prévu
à l'article 50 du PA 1 précité. D'après cette
règle s'il y a un doute sur la qualité de combattant ou de civil
concernant une personne, il faut considérer la personne comme civile.
L'obligation relative au doute pèse juridiquementsur le
commandant et l'opérateur qui lancent le robot.
Mais ces derniers ne doutent que de manière
anticipée avant de lancer le robot.
Or le robot n'est pas un simple missile intelligent. C'est une
arme capable de se déplacer de manière autonome et qui,
même dirigée contre un objectif militaire, a une capacité
d'initier une ou plusieurs attaques de manière autonome.
Si alors, uncommandant ou un opérateur
considèrequ'aucun des objectifs que le robot devrait rencontrer, n'est
indubitablement combattant, ils ne doivent pas du tout lancer le robot.
On ne parle pas ici, des dommages collatéraux dus à
un défaut de fiabilité mais des objectifs que le robot attaque
tel que son usage par les militaires le prévoit.
On peut se demander si cette exigence quant au doute est
licitement remplie de cette manière. Car si, avant et lors du lancement,
il n'y a pas de doute quant aux objectifs militaires, une fois
déployé,une cible attaquée pourrait s'avérer
douteuse quant à sa qualité militaire.
Un autre cas serait que le robot pourrait rencontrer d'autres
cibles lors du déploiement. Alors, le doute ne peut plus être
exercé par les militaires.
Donc le doute ne peut être exercé que sur une
portion réduite de l'attaque.
? L'interdiction d'attaquer les personnes hors de
combat
De même, les personnes « reconnues ou devant
être reconnue[s] eu égard aux circonstances » comme
combattants hors de combat d'après l'art 41 du PA 1, ne doivent pas
être attaquées. Est-ce que le robot peut reconnaitre les personnes
hors de combat? Un robot peut reconnaitre une cible techniquement. Mais,
l'obligation de reconnaitre les personnes hors de combat pèse sur
l'opérateur ou le commandant d'après cet article. Or, une fois le
robot lancé, les militaires ne peuvent plus exercer cette obligation.
Ils doivent reconnaitre les personnes hors de combat avant même de lancer
le robot ou lors du lancement, alors que celui-ci n'a encore attaqué
aucune cible. Il parait quasi impossible pour eux de reconnaitre les personnes
hors de combat comme cet article le commande.
Cela étant, les commandantspourraient de
manière abstraite, définir une personne hors de combat
comme présentant des caractéristiques données. Un robot
pourrait être programmé pour reconnaitre ces
caractéristiques, et les associer à la reconnaissance d'une
personne hors de combat, laquelle, il n'attaque pas. Alors le robot
reconnait techniquement une personne hors de combat et
l'épargne. On peut envisager ainsi qu'un commandant qui déploie
un tel robot, ajuridiquement reconnu indirectement une
personne hors de combat en s'appuyant sur la technologie du robot.
Justement, l'art 41 2.donne 3 caractéristiques
alternatives qui caractérisent la personne hors de combat.
Dès lors, le robot étant programmé pour
reconnaitre ces caractéristiques, il peut être utilisé par
le commandant, conformément à l'obligation qui pèse sur
lui de reconnaitre les combattants hors de combat.
Mais,Le 1. de cet article protège, une personne
« reconnue ou devant être reconnue, eu égard aux
circonstances », comme hors de combat. Or le commentaire de l'article
précise que sont protégés les combattants
« reconnus, par une personne
raisonnable », comme étant hors de combat. En l'absence de
mentions d'une possible reconnaissance indirecte, l'interprétation la
plus cohérente, au vu notamment de la date de rédaction du PA 1,
est que cet article oblige les parties à ce que leurs militaires
reconnaissent en personne, les combattants hors de combat.
? L'interdiction d'attaquer les personnes affectées
à la protection civile
De la même manière le personnel affecté
à la protection civile ne doit pas faire l'objet d'attaques (PA 1 art
12, 15... précités). L'obligation de distinction pèse sur
le commandant et l'opérateur. Il n'y a ici pas d'obligation de
distinction directe par un militaire. Cette obligation peut être remplie
par un robot programmé pour distinguer techniquement ce personnel.
2.2. Le principe de proportionnalité
Ce principe est particulièrement pertinent (art 51 (5) (b)
et 57 (2) (iii) précités). Il a été débattu
pour le cas de robots totalement autonomes dans le rapport
LosingHumanity de HRW et M. N. Schmitt dans ses articles.
A titre d'illustration, un drone totalement autonome pourrait
être lancé loin du front pour frapper un objectif militaire
situé à proximité de biens ou personnes, civils. Dans
cette hypothèse, l'obligation de proportionnalité pèse sur
le commandant et sur l'opérateur qui lancent le robot.
Cette obligation de proportionnalité, oblige ces derniers
à ne choisir d'utiliser le robot que si on peut en
attendretechniquement, qu'il ne cause pas de dommages
collatéraux disproportionnés.
Le problème à prendre en compte par les militaires
est qu'un robot totalement autonome n'est pas parfaitement prévisible.
On étudie par hypothèse un robot fiable à seulement 90%.
Or, si un robot militaire est techniquement capable de distinguer
mais de manière limitée, comment appliquer le principe de
proportionnalité ?
Le commentaire de l'article énonce que la
« précision des armes employées » fait,
entre autres, partie del'ensemble des « facteurs qui doi[ven]t
être pris en considération ». On interprète la
fiabilité du robot comme un de ces facteurs.
Dès lors, commandant et opérateur doivent
tenir compte du défaut de fiabilité dans leur
appréciation de la proportionnalité de l'attaque.
2.3. La nécessité militaire
Telle que nous l'avons étudiée, il n'y a pas
d'article relatif à la nécessité militaire qui s'applique
spécialement aux robots militaires. Tel que l'art 52 PA 1, le pose, une
attaque par un robot militaire contre des biens « normalement
affectés à un usage civil » doit être
nécessaire militairement c'est-à-dire apporter un
« avantage militaire ». Dans cette hypothèse,
l'opérateur et le commandant de l'attaque doivent ne lancer une telle
attaque, à l'aide d'un robot militaire totalement autonome,que si elle
est nécessaire militairement.
2.4. L'obligation de précaution dans l'attaque
L'art 57 1. Pose en particulier une l'obligation pour les,
commandantet opérateur de « constamment »
vérifier que l'attaque respecte le principe de distinction. Le
commentaire précise que le 1. énoncele principe
général que les alinéas suivants
précisent.
Or dans le déploiement d'un robot militaire autonome, les
militaires ne peuvent plus s'acquitter de cette obligation, dès lors que
le robot est lancé.
Leur obligation de veiller constamment au respect du principe de
distinction, se porte ainsi sur une partie réduite de l'attaque.
Mais ce 1. n'exige pas expressémentqu'un
militaire humain exerce ce contrôle en
personneen permanence. En particulier un commandant ou
opérateur pourrait remplir cette obligation lui-même lors du
lancement du robot. Puis, le commandant pourrait décider d'utiliser un
robot programmé de manière à examiner et à
réactualiser constamment son respect techniquedu principe de
distinction, tout au long de l'attaque. On pourrait ainsi licitement
considérer, qu'indirectement, grâce à la
programmation du robot, le commandant contrôle constamment le respect du
principe de distinction.
Mais alors, à partir du moment où il est
lancé, les militaires n'ont plus de contrôle sur le robot. Une
telle interprétation tronque trop la règle. Une telle
interprétation parait trop éloignée du but et de l'objet
du protocole au sens du droit des traités. Donc elle n'est pas
légale au regard du droit des traités.
Le 57 2. a) i), impose aux militaires de mettre en oeuvre les
moyens « pratiquement possibles » pour
vérifier la qualité de la cible. En outre, le
commentaire de l'article précise que les militaires doivent à
cette fin rechercher des informations sur la cible et le commentaire mentionne
en particulier les informations collectées par les reconnaissances
aériennes.
Selon le commentaire, il faut entendre cette terminologie comme
l'obligation de « prendre en temps utile les mesures d'identification
nécessaires, afin d'épargner, autant que possible, la
population ».
Dans le cas de robots totalement autonomes, il faut que les
militaires aient recherché des informations sur la cible avant de lancer
l'attaque.
En outre l'obligation de précaution les oblige aussi au 2.
ii) à choisir les méthodes d'attaque qui permettent le mieux
d'éviter des dommages collatéraux sur les civils. Dès
lors, si d'autres méthodes de guerre, permettant davantage
d'épargner les civils sont disponibles, elles doivent être
préférées aux robots totalement autonomes.
Le 57 2 b) oblige les commandants et opérateurs à
annuler ou interrompre une attaque, « lorsqu'il apparait »
qu'elle viole le DIH. Si on déploie un robot militaire totalement
autonome, une fois le robot lancé, les militaires ne peuvent plus
exercer ce contrôle. Cela limite drastiquement cette obligation. Cette
obligation ne peut plus en pratique être exercée que
pendant le lancement du robot. En réalité dans la
pratique, la probabilité qu'une attaque soit ainsi annulée lors
du lancement est totalement négligeable. On étudiera plus en
détail cela au III.
2.5. Le principe d'humanité
D'après la clause de Martens, les combattants sont sous
l'empire d'un régime qui résulte notamment des
« principes de l'humanité ». Donc commandants et
opérateurs de robots militaires totalement autonomessont indirectement
soumis à ces principes. Cela les oblige à déployer les
robots en conformité avec ces principes. Cela apparait
problématique. Par hypothèse, il y a une contradiction entre les
principes de l'humanité et le fait qu'un robot attaque un combattant de
manière totalement autonome. En effet, on observe un combat qui oppose
des combattants à des robots. Les robots ne sont pas humain par
définition donc ils ne peuvent correctement respecter les principes
d'humanité. Ils ne peuvent en aucun cas faire preuve
d'humanité
En conclusion, la synthèse du droit applicable à
l'utilisation de robots totalement autonomes révèle
déjà, quede tels robots sont très peu
adaptés à la pratique et que le DIH ne peut pas
correctement s'y appliquer. En particulier l'utilisation de robots
militaires totalement autonomes, ne permet pas aux militaires de s'acquitter
d'obligations relatives à la distinction ou à la
précaution dans l'attaque.
B) La responsabilité de l'utilisation d'un robot
totalement autonome
Les Etats doivent respecter le DIH pertinent. Comme on l'a
déjà montré, les membres des forces armées dont les
commandants et opérateurs de robots militaires, sont des organes de
l'Etat.
Or, d'après l'article 4 du projet de la CDI, le
comportement des organes de l'Etat est imputable à l'Etat. Donc si les
membres des forces armées violent le DIH, cette violation est
imputée à l'Etat.
La violation d'une obligation internationale par l'Etat est un
fait illicite. D'après l'article 1 du projet de la CDI :
« Tout fait internationalement illicite de l'Etat
engage sa responsabilité internationale. »
Dès lors, l'Etat peut voir sa responsabilité
engagée pour ces actes.
Dans notre cas, toutes les obligations que nous avons
présentées comme applicables aux opérateurs de robots
militaires ou bien aux commandants, doivent être respectées.
Leur violation par les militaires est un fait illicite de l'Etat,
susceptible d'engager sa responsabilité internationale. Cela
vaut que le robot militaire soit semi ou totalement autonome.
Spécialement, l'art 91, PA 1, dispose que :
«La Partie au conflit qui violerait les dispositions des
Conventions ou du présent Protocole sera tenue à
indemnité, s'il y a lieu. Elle sera responsable de tous actes
commis par les personnes faisant partie de ses forces
armées. »
On envisage dans cette partie les utilisations normales des
robots militaires et non pas les crimes de guerre commis à l'aide de ces
derniers.
Une question qui est débattue par les auteurs et notamment
Philip Alston11, est la
responsabilitédisciplinaire, pour un fait illicite
commis en utilisant un robot militaire totalement autonome.
En effet, certains auteurs mettent en évidence
l'idée que les commandants pourraient commettre un tel acte illicite
mais que la mise en oeuvre de leur responsabilité pose problème
car ils n'ont aucun contrôle sur le robot, une fois celui-ci
déployé.
D'après l'art 43 du PA 1, Le commandant est responsable de
la conduite de ses subordonnés. En outre, ses subordonnés doivent
respecter le DIH.
Ainsi, lecommandant est responsable, des violations du
DIH commises par ses subordonnés dans certaines conditions. Les
subordonnés sont soumis à un régime de discipline interne.
Le DIH n'exige pas que leur responsabilité individuelle, soit
prévue.
L'article est ainsi formulé :
« 1. Les forces armées d'une Partie à
un conflit se composent de toutes les forces, tous les groupes et toutes les
unités armés et organisés qui sont placés
sous un commandement responsable de la conduite de ses
subordonnés devant cette Partie, même si celle-ci est
représentée par un gouvernement ou une autorité non
reconnus par une Partie adverse. Ces forces armées doivent être
soumises à un régime de discipline interne qui assure,
notamment, le respect des règles du droit international
applicable dans les conflits armés. »
Les commandants, non seulement ne doivent pas donner d'ordres
à leurs subordonnés contraires au DIH mais en outre,
d'après l'art 87 du PA 1, ils doivent empêcher que les
subordonnés de leur propre initiative, violent le DIH. D'après le
3., ils ont une obligation de moyens pour empêcher ces infractions,
dès lors qu'ils savent que leurs subordonnés sont
impliqués dans une infraction :
« 1. Les Hautes Parties contractantes et les
Parties au conflit doivent charger les commandants militaires, en ce qui
concerne les membres des forces armées placés sous leur
commandement et les autres personnes sous leur autorité,
d'empêcher que soient commises des infractions aux
Conventions et au présent Protocole et, au besoin, de les
réprimer et de les dénoncer aux autorités
compétentes. [...] »
D'après l'article 86 1. Du PA 1, les infractions des
commandants peuvent résulter, « d'une omission contraire
à un devoir d'agir ».
Selon le commentaire de cet article (point 3537), le
« devoir d'agir » auquel l'omission illicite s'applique,
est un régime posé aux militaires par le droit interne des Etats.
La seule omission du supérieur est une
infraction si le subordonné commet une infraction aux conventions de
Genève dans certaines conditions.
L'infraction du supérieur pour omission d'agir est
caractérisée sous conditions cumulatives :
_ Il est requis que le supérieur savait ou bien devait
savoir qu'il y avait une infraction
_ D'autre part, il faut que le supérieur n'ait pas pris
toutes les mesures pratiquement possibles en son pouvoir pour empêcher
l'infraction.
« 2. Le fait qu'une infraction aux Conventions ou
au présent Protocole a été commise par un
subordonné n'exonère pas ses supérieurs de leur
responsabilité pénale ou disciplinaire, selon le cas,
s'ils savaient ou possédaient des informations leur permettant
de conclure, dans les circonstances du moment, que ce subordonné
commettait ou allait commettre une telle infraction, et s'ils
n'ont pas pris toutes les mesures pratiquement possibles en leur pouvoir pour
empêcher ou réprimer cette
infraction. »
Donc la responsabilité du commandant ne peut être
engagée que s'il a omis d'agir tel que son devoir l'imposait, ou bien
s'il a lui-même violé le DIH.
Pour illustrer je propose un exemple pratique :
Soit l'hypothèse d'un opérateur qui, selon le droit
national doit demander à chaque fois l'autorisation de son commandant
avant de lancer un robot totalement autonome.
Ce droit national oblige alors, le commandant à
vérifier à partir d'images recueillies par les capteurs du robot
et par satellite, que l'attaque au moyen du robot n'est pas
disproportionnée. Le commandant donne l'autorisation d'utiliser le robot
sans vérifier les données satellites, lesquelles montrent la
présence d'une école à proximité de la cible. Si le
robot ainsi utilisé cause des dommages incidents
disproportionnés,qui est responsable ? L'opérateur, n'a pas
violé directement le DIH car il ne savait ni ne pouvait s'attendre
à ce qu'une école soit située à proximité de
la cible. Par contre, le commandant a violéle devoir
d'agir qui lui imposait de vérifier les données
vidéo et satellites. Alors, cette infraction viole par omission,
l'art 86 PA 1, et engage la responsabilité du commandant.
II Application du DIH à l'utilisation d'un robot
totalement autonome
On va appliquer le DIH applicable aux cas pertinents dans la
pratique. Bien que les robots totalement autonomes ne soient pas
utilisés actuellement, on tâchera, de relever certains cas qui
apparaissent probables dans un futur proches ou pertinents, en ce qu'ils
mettent en évidence des problèmes juridiques qui peuvent se poser
aussi dans le cas des robots semi autonomes. On tâchera d'éviter
d'étudier des cas imaginaires inutiles.
A) Application du régime relatif aux armes
1. application de l'interdiction des armes qui causent des
maux superflus
On a montré que l'utilisation du robot peut, selon les cas
rendre l'arme elle-même illégale (cf Chap. 1, III A) 1.) au regard
de l'art 35§2, PA 1.
Il apparait possible dans la pratique, que le robot soit muni
d'armes adaptées à son objectif militaire et à
l'environnement de celui-ci, de manière à ne pas causer de maux
superflus aux combattants touchés.
Mais, des robots équipés de missiles très
puissants utilisés contre des combattants découverts sont
dans ces cas des armes de nature à causer des
maux superflus. En effet, les combattants ainsi touchés de
manière analogue aux victimes de drones, pourraient par exemple perdre
des membres ou mourir à cause de la nature même du robot. De tels
maux sont superflus par rapport à l'avantage militaire apporté
par l'attaque ou bien l'objectif de neutraliser le combattant pris pour
cible.
Donc de telles utilisations des robots totalement autonomes les
rendraient dans ces cas illégaux comme armes de nature à
causer des maux superflus.
Dans l'ensemble, le robot peut être utilisé dans
diverses situations et l'évaluation de sa légalité en tant
qu'arme dépend de l'usage dont il fait l'objet. La
légalité doit alors être examinée au cas par cas.
2. application de l'interdiction des armes qui rendent la
mort inévitable
Cette règle n'interdit pas en toutes circonstances, les
robots totalement autonomes. En effet, il est possible que le robot soit
programmé de telle manière qu'il reconnaisse une personne hors de
combat et ne l'attaque pas ou plus. Alors, un combattant touché par le
robot, mis hors de combat, pourrait être secouru. Sa mort ne serait pas
inévitable. Donc le robot ne rend pas la mort des combattants mis hors
de combat, inévitable. Donc il n'est pas illégal.
Mais si, typiquement, ces robots sont équipés de
missiles explosifs très puissants, la précision du robot
étant très élevée, les combattants à
découvert, seront très probablement tués par ces attaques.
Donc dans ces cas, l'arme pourrait être illégale
comme arme rendant la mort des combattants mis hors de combat,
inévitable.
3. application de l'interdiction des armes à effets
indiscriminés
Une telle arme frappe « indistinctement »
civils et objectifs militaires en ce qu'elle ne peut être dirigé
contre un objectif militaire ou bien parce que même alors, elle frappe
indistinctement civils et militaires (art 51 4. PA 1).
D'une part le robot militaire qu'on envisage est fiableà
seulement 90%. Il frappe directement 10% de civils en moyenne que l'on a
considérés plus haut comme victimes des dommages
collatéraux de l'attaque.
Dans cette hypothèse, si le robot est équipé
d'armes précises dans un environnement où ne se trouvent que peu
de civils, par exemple, il ne frappe pas 50% de civils lors de l'attaque :
Il frappe directement uniquement 10% d'entre eux, auxquels il
faut ajouter les victimes incidentes à chaque fois qu'il est fait feu
sur un objectif réellement militaire. Dans cette hypothèse et
dans l'ensemble, Il y a nettement moins de 50% civils touchés. Donc
l'arme n'est pas indiscriminée.
Mais, dans les cas où ces mêmes robots seraient
équipés de missiles de type explosifs très puissants, et
utilisés dans des zones où il y a forte concentration de civils.
Les dommages sur les civils sont nettement plus importants : alors on a
d'une part 10% de civils directement frappés à cause du
défaut de fiabilité et d'autre part les civils frappés de
manière incidente chaque fois qu'un objectif réellement militaire
est touché alors qu'il se situe à proximité de civils.
Dans ces cas, les pertes civiles peuvent être de l'ordre de 50% ou plus
en rapport avec les pertes militaires. Dans ces cas, les effets de l'arme
peuvent être indiscriminés. Cela rend l'arme elle-même
illégale dans ces cas-là.
Donc, selon les cas, le robot totalement autonome peut être
une arme à effets indiscriminés,
illégale.
4. application de l'interdiction des armes non
conventionnelles
Le robot totalement autonome ne peut être
équipé d'armes non conventionnelles auquel cas, il devient en
tant qu'ensemble une arme non conventionnelle.
Le robot ne figure pas non plus en tant qu'ensemble dans les
conventions qui interdisent certaines armes, donc c'est une arme
conventionnelle tant, qu'il n'est pas lui-même équipé
d'armes non conventionnelles.
En conclusion, le robot comme arme serait illégal dans
certaines hypothèses. En particulier, s'il est équipé
d'armes explosives très puissantes, alors qu'il est utilisé
contre des combattants à découvert ou bien dans un environnement
à forte concentration de civils. Alors le robot serait illégal
car il serait de nature à causer des maux superflus, ou à rendre
la mort inévitable ou enfin, à produire des effets
indiscriminés.
B) Application du régime relatif à
l'utilisation
1. Application de l'obligation de distinction
? Cas général
Les art 48. et 51 4. a), imposent que le robot soit dirigé
contre un objectif militaire et en particulier un objectif militaire
déterminé.
Le problème est que le robot n'est pas totalement
prévisible dans la pratique. Si un opérateur lance effectivement
le robot contre un objectif militaire déterminé, le robot dans
10% des cas peut se tromper de cible.
En l'absence de pratique, on se limitera à relever que
l'obligation pèse sur les militaires mais le déploiement d'un
robot totalement pourrait permettre une attaque à grande distance, sur
une période de temps étendue, réduisant d'autant
l'efficacité d'une distinction opérée trop en amont. Le
rapport Losinghumanity, souligne qu'un robot totalement autonome, du
fait de son autonomie et de ses limites techniques ne pourrait permettre de
considérer que les militaires s'acquittent de leur obligation de
distintion en général.
?application du régime relatif au doute
Une autre difficulté est le problème du doute qui
oblige les opérateurs à épargner la cible. Or dans le cas
d'un robot totalement autonome, l'opérateur ne fait que lancer le robot.
Dès qu'il est déployé, l'opérateur est dans la
pratique privé de toute occasion de douter quant à une
éventuelle cible. Même si le robot est programmé pour
laisser le bénéfice du doute à la cible, cela ne remplit
pas l'obligation. L'art 50 est ainsi formulé :
« en cas de doute ». On peut
alors considérer que s'il n'y a pas de circonstances dans lesquelles,
l'opérateur peut douter, alors il n'y a pas d'obligation qui pèse
sur lui. Il est seulement obligé de laisser le bénéfice du
doute au civil, lorsqu'il lance le robot.
Mais une telle analyse vide cette règle de sa
substance. En effet, dans la pratique, on voit mal dans quel cas
l'opérateur douterait, lors même du lancement du robot. Cela
équivaudrait à réduire les cas de doute à quasiment
aucune hypothèse. On pourrait considérer qu'une telle
interprétation est contraire à l'objet et au but du protocole ou
même à l'esprit du DIH et que dès lors, le DIH, impose
qu'un opérateur juge et le cas échéant doute de la
qualité de la cible sur une partie significative de l'attaque.
Alors, si un opérateur déploie un robot totalement
autonome, il ne distingue pas les objectifs, tel que le protocole le
requiert et ainsi viole ce dernier. Donc cette utilisation est illégale.
?application de l'interdiction d'attaquer les personnes hors
de combat
Une problématique analogue se pose concernant les cibles
qui doivent être reconnues hors de combat.
Comme analysé plus haut au II, cet article, selon mon
interprétation oblige qu'un opérateur reconnaisse en
personne, en temps réel, un combattant comme hors de combat. Or
s'il lance un robot totalement autonome, l'opérateur, dans la pratique
n'a même pas l'occasion de reconnaitre ou non un combattant hors de
combat. Il doit intégralement s'appuyer sur la programmation technique
du robot.
Dès lors, la partie au conflit ne distingue pas les
cibles, tel que le protocole le requiert. Donc il y a violation de l'obligation
de distinction.
Ainsi, le DIH interdit qu'un robot totalement autonome
soit déployé dans des situations où il pourrait attaquer
des combattants hors de combat.
Cela réduit considérablement les cas dans lesquels
il pourrait être utilisé.
?application de l'interdiction d'attaquer les personnes
affectées à la protection
Ce cas ne soulève pas de problème particulier, il
ne nécéssite pas de développement.
2. Application de l'obligation de
proportionnalité
Cette règle oblige commandant et opérateur juger le
caractère proportionné de l'attaque avant de lancer l'attaque en
prenant en compte autres, le défaut de fiabilité du robot. Mais
cette évaluation de la proportionnalité se fait très en
amont en particulier au vu de la distance que le robot peut parcourir et du
temps qu'il peut prendre pour mener l'attaque.
Il n'y a pas de pratique mais le rapport LosingHumanity,
insiste sur le fait que lors, de l'attaque, l'évaluationde
proportionalité effectuée par les militaires a perdu de son
efficacité car elle est effectuée trop en amont.
L'analyse du rapport est quelque peu confuse, mais il
énonce qu'à cause de cette distance entre les militaires et
l'attaque réelle, les limites techniques intrinsèques à
tout robot ne permettent pas aux militaires de correctement juger le
caractère proportionné de l'attaque.
Dans ces conditions, il apparait probable que certaines
utilisations de robots totalement autonomes seraient disproportionnées.
Dans ces cas, les attaques dont la proportionnalité ne
peut être correctement jugée, ne doivent pas être
ordonnées et les opérateurs ne doivent pas prendre
l'initiative de telles attaques.
3. Application de la règle de la
nécessité militaire
L'application de la règle de nécessité
militaire ne soulève pas de difficulté particulière quant
au travail des équipes de protection civile. Examinons, la protection
des biens qu'elle impose :
Les attaques peuvent porter sur des biens normalement
affectés à un usage civil s'il y a nécessité
militaire. Cela oblige commandants et opérateur à ne pas utiliser
un robot militaire totalement autonome contre de tels bien s'il n'y a pas de
nécessité militaire. Le rapport
« LosingHumanity » de HRW relève qu'il
apparait impossible de techniquement programmer le robot de manière
conforme à ce principe. Cette argumentation n'est pas pertinente et peu
convaincante.
4. Application de l'obligation de précaution dans
l'attaque
Comme on l'a vu, commandant et opérateur sont
obligés de constamment veiller au respect du principe
de distinction pendant l'attaque. Mais dès que le robot est
déployé, le contrôle constant par les militaires n'est plus
possible dans la pratique. Ainsi, l'utilisation de ces robots prive en pratique
les militaires de la possibilité d'exercer un tel contrôle. Alors
ces derniers ne peuvent s'acquitter de leurs obligations de précaution
telles qu'elles sont requises par le protocole.
Cela rendl'utilisation des robots totalement autonomes
illégale au regard de cette obligation de précaution.
Le 57 2. a) i), impose aux militaires de mettre en oeuvre les
moyens « pratiquement possibles » pour
vérifier la qualité de la cible. Et le
commentaire de l'article précise qu'il faut « prendre en temps
utile les mesures d'identification nécessaires, afin d'épargner,
autant que possible, la population ».
Dans la pratique, on souligne là encore, que l'autonomie
du robot implique un éloignement du contrôle des militaires. Ainsi
les renseignements que les militaires prendraient avant de lancer le robot
pourraient ne pas être considérés comme pris « en
temps utile » à cause de l'éloignement temporel et en
termes de contrôle sur le robot.
Dans ces cas on pourrait considérer qu'ils n'ont pas
vérifié la qualité de la cible tel que cela est requis
malgré l'éventuelle impossibilité technique d'en faire
davantage.
En outre l'obligation de précaution les oblige aussi au 2.
ii) à choisir les méthodes d'attaque qui permettent le mieux
d'éviter des dommages collatéraux sur les civils. Dès
lors, si d'autres méthodes de guerre, permettant davantage
d'épargner les civils sont disponibles, elles doivent être
préférées aux robots totalement autonomes. Cela
doit être examiné dans la pratique au cas par cas.
Enfin cette obligation implique l'obligation pour
l'opérateur d'adapter l'attaque s'il apparait qu'elle
viole le principe de distinction ou bien est disproportionnée.
Mais dans l'utilisation d'un robot totalement autonome,
l'opérateur est privé de cette possibilité d'adapter
l'attaque à l'évolution des faits, car une fois lancé, le
robot est autonome. Il ne peut plus être contrôlé en vue
d'adapter l'attaque. Or cette obligation d'adapter l'attaque est
indépendante des possibilités pratiques. Donc les commandants et
en particuliers, les opérateurs, doivent adapter l'attaque. S'ils
utilisent un robot totalement autonome, ils ne s'acquittent pas de cette
obligation.
Donc l'utilisation d'un robot totalement autonome viole
le DIH au regard de l'obligation de précaution dans l'attaque.
5. Application du principe d'humanité
On rappelle que commandants et opérateurs indirectement
sont sous l'empire des principes de l'humanité.
Dans ce cas, un opérateur lance un robot totalement
autonome, contre une cible, par exemple un combattant ennemi. Ce robot
équipé d'armes, peut attaquer le combattant ennemi.
Dans ce cas, non seulement, l'opérateur ne courre aucun
risque, mais en outre, la discrétion de l'attaque pouvant causer la mort
du combattant est laissée à un robot.
Est-il conforme aux principes de l'humanité, qu'un robot
militaire soit autorisé à prendre pour cible de manière
autonome un combattant et l'attaquer ?
Le rapport Losinghumanity relève qu'un tel
scénario est inacceptable pour de nombreux auteurs au regard de la
clause de Martens.
De mon analyse, cela est contraire à l'esprit du
DIH et aux principes de l'humanité.
IV Conclusion : les illégalités mises en
évidences
Concernant l'utilisation des robots totalement autonomes,
plusieurs règles du DIH rendent l'utilisation des robots totalement
autonomes, illégales. D'abord quant à légalité du
robot en tant qu'arme, il est illégal, qu'un robot soit utilisé,
contre des combattants découverts ou à proximité de
civils, alors qu'il est équipé de lanceurs de missiles explosifs
puissants. Un tel robot est illégal en tant qu'arme causant des maux
superflus ou en tant qu'arme rendant la mort inévitable ou en tant
qu'arme à effets indiscriminés.
Concernant les utilisations du robot, il y a violation du
principe de distinction et de l'obligation de précaution en ce
que :
_les opérateurs sont privés de la
possibilité pratique de laisser le bénéfice du doute aux
cibles ;
_ils sont en outre privés de la possibilité de
reconnaitre ou non les personnes hors de combat
_commandants ou militaires sont privés de la
possibilité de veiller constamment au respect du DIH pendant
l'attaque
_les opérateurs en particuliers sont privés de la
possibilité d'adapter l'attaque si l'apparait la cible est
protégée par le DIH.
_Enfin, Il y aurait violation des principes de
l'humanité
Par ailleurs il y a des préoccupations quant à la
légalité de leur utilisation au regard du principe de
proportionnalité et de l'obligation de vérifier la qualité
de la cible dans le cadre de l'obligation de distinction
Chapitre 3. Proposition de régime juridique
spécial pour les robots militaires
Le Chapitre 3 a montré que l'utilisation des robots
militaires viole le DIH de diverses manières. Certaines
illégalités dépendent des cas et les autres sont dues de
manière générale aux fonctions autonomes du robot,
indépendamment de la pratique.
Il existe déjà quelques robots militaires qui
disposent d'automatismes. Le X47-B est un drone, pas encore utilisé par
les armées, mais il est techniquement capable d'une grande autonomie. Il
peut décoller et atterrir de manière automatique, sans
être piloté12. Donc même si les armées
souhaitent développer des robots avec
« human-on-the-loop » (les attaques sont
contrôlées par un opérateur mais le robot estcapable d'une
certaine autonomie). Les technologies vont tendre à rendre
possible la conception de divers types d'autonomies, et la conception de robots
de plus en plus autonomes. Peut-être sera-t-il envisagé
certaines modalités d'autonomie lors de l'initiative d'une
attaque ? Il faut que le droit pose des limites face au
développement de ces robots semi autonomes. Il n'est pas satisfaisant de
supposer que les armées ne veulent elles-mêmes pas utiliser de
robots totalement autonomes.
Je vais me servir des hypothèses de violations que
l'on a identifiées au Chapitre 3 pour mettre en
évidence, comment les futurs robots semi autonomes avec
« human-on-the-loop », seront limités par le DIH
actuel et comment, dans certains cas, il est nécessaire que des
règles spéciales dressent des interdictions fondamentales.
Dans ce chapitre, on étudie exclusivement les robots avec
« human-on-the-loop », c'est-à-dire dont les
fonctions d'attaque sont contrôlées par un opérateur mais
disposants d'une autonomie non négligeable par ailleurs.
I Les lacunes du DIH
Comme la partie relative aux robots totalement autonomes l'a
montré, le DIH actuel pose des interdictions de certaines fonctions
autonomes des robots militaires. Identifions les violations nettes du DIH par
les robots totalement autonomes.
Il ressort qu'au moins 2 règles sont violées par
les robots totalement autonomes : l'obligation de distinction et
l'obligation de précaution. Les principes de l'humanité en outre
sont violés mais il n'y a pas de règle identifiable
précisément.
Ainsi, un robot semi autonome ne peut être autonome dans
certains ensembles de situations.On peut dresser une liste de 5
interdictions :
1. Il faut en application du principe de distinction, qu'il ne
soit pas possible qu'une cible soit attaquée sans qu'un opérateur
humain ne soit en mesure d'exercer une faculté de doute
quant à la qualité militaire ou civile de la cible.
2. Il faut en outre en application de ce même principe que
les opérateurs soient en mesure d'exercer un jugement de
manière à reconnaitre une personne hors de combat, comme
ne pouvant pas être prise pour cible.
3. En outre il faut que l'opérateur ou le commandant
puissent veiller constamment au respect du DIH lors de
l'attaque, au titre de l'obligation de précaution.
4. Il faut que les opérateurs puissent adapter
l'attaque s'il apparait que la cible est protégée par le
DIH en vertu de l'obligation de précaution.
5. Il faut que l'initiative d'une attaque ne soit pas
laissée au robot d'après les principes de l'humanité. Mais
pour cette interdiction insistons sur le fait qu'il n'y a pas de règle
identifiable très clairement.
Dans les autres ensembles d'hypothèses hors de ces 5
hypothèses ici présentées, le robot semi autonome peut
fonctionner de manière autonome.
Une solution que l'on peut envisager est un robot avec
« human-on-the-loop » que l'on peut lancer contre
une cible et qui fonctionne de manière semi autonome, se déplace
de manière autonome, puis dès lors, qu'il identifie une cible,
il faudrait par exemple qu'il alerte un opérateur, qui lui seul
aurait la totale initiative de toute attaque contre une cible, qu'il identifie
comme un objectif militaire, en pouvant de manière pratique
exercer une faculté de doute quant à la
qualité de la victime, il pourrait ainsi en outre
reconnaitre que le combattant est hors de
combat,veiller constamment au respect du DIH, car, si le robot
n'attaque pas de manière autonome, il ne peut pas violer le DIH (s'il
n'attaque pas, il ne peut pas violer le DIH). Il pourrait en outre
adapter l'attaque et l'annuler s'il apparait que l'objectif
militaire est civil ou que l'attaque serait disproportionnée.
Alors, pendant tout le déplacement du robot, l'autonomie
peut être totale. L'ensemble des hypothèses qui doivent toujours
être contrôlées par un opérateur est la phase
d'attaque.
Mais, un problème qui demeure est l'hypothèse d'un
robot qui, lorsqu'il identifie une cible alerte l'opérateur. Mais qui
en l'absence d'action de l'opérateur, initie l'attaque de
manière autonome. Par exemple le robot alerterait
l'opérateur qui voit apparaitre un signal d'alerte sur l'un des
écrans du cockpit. L'opérateur vérifie les informations
que les capteurs transmettent. Il juge que la cible est bien un objectif
militaire et laisse le robot initier l'attaque en mode automatique.
Ce cas est purement hypothétique mais remarquons que les 4
premières interdictions que l'on a synthétisées sont
respectées : L'opérateur a pu exercer son doute, reconnaitre
si oui ou non, la cible était un personne hors de combat, commandant et
opérateur ont pu veiller constamment au respect du DIH, et enfin
l'opérateur a eu la possibilité d'adapter l'attaque bien qu'il ne
l'a pas fait.
La seule interdiction qui reste et qui est violée, est
l'interdiction que l'initiative d'une attaque soit laissée à un
robot en vertu des principes de l'humanité. Or cette
interdiction est la plus faible car elle résulte d'un raisonnement
déductif indirect, en l'absence d'une règle
précisément délimitée.
Ainsi certains auteurs pourraient considérer que cet
exemple hypothétique est légal. De tels auteurs
considèreraient que les principes de l'humanité n'interdisent pas
qu'un robot fasse feu de manière autonome sur un objectif militaire.
Cela est une lacune du DIP qui nourrit
actuellement un débat.
II Proposition d'interdire l'initiative d'une attaque par un
robot militaire
La société civile milite pour interdire les
« robots tueurs ». Cette expression est provocatrice, mais
les associations et ONG concernées ont mené une grande
réflexion sur la nécessité de clairement interdire que
l'initiative d'une attaque puisse être laissée à un robot.
On peut citer le rapport « LoosingHumanity » de HumanRights
Watch, le militantisme de l'association américaine ICRAC13
qui regroupe de nombreux universitaires et en particulier est menée par
des robotistes. Et enfin l'association américaine« Campaign to
stop killer robots ».
M Gubrud14 d'ICRAC a écrit notamment pour que
soit clairement posée l'interdiction de laisser l'initiative d'une
attaque à un robot militaire semi autonome.
Si le DIH posait clairement une telle limite aux fonctions
autonomes des robots, cela permettrait, d'expliciter cette interdiction et
d'empêcher l'exemple hypothétique que je viens de donner. Cette
interdiction a été déjà déduite de la clause
de Martens dans cette étude. Mais elle n'est pas acceptée par
tous les auteurs (M N Schmitt entre autres). D'autre part, si elle était
posée dans les textes du DIH, elle serait clairement diffusée
parmi les Etats parties et au sein de leurs armées.
M Gubrud, soutient d'autre part, que laisser un robot initier une
attaque contre un combattant est immoral.
Vu les débats de la doctrine américaine, il semble
que les idées de ces associations et ONG ne soient pas partagées.
Je pense qu'il faut garder en vue l'esprit du DIH et soutenir leur
revendication. Il est nécessaire de tracer clairement cette
interdiction que les robots militaires puissent
« décider » d'attaquer un objectif militaire de
manière autonome.
NOTES
1
http://www.roboticus.org/robotique/30-principe-de-fonctionnement-des-robots
2
http://www.courrierinternational.com/article/2013/01/03/un-ancien-pilote-americain-raconte
3
http://www.dtic.mil/whs/directives/corres/pdf/300009p.pdf
4
http://roboinfo.wordpress.com/2010/04/09/talon-specifications/
5
http://www.icrc.org/fre/resources/documents/publication/p0902.htm
6
http://www.dtic.mil/whs/directives/corres/pdf/500001p.pdf
7
http://harvardnsj.org/wp-content/uploads/2013/02/Schmitt-Autonomous-Weapon-Systems-and-IHL-Final.pdf
8
http://www.hrw.org/reports/2012/11/19/losing-humanity-0
9
http://www.theguardian.com/commentisfree/cifamerica/video/2011/jun/15/drone-attack-protocol
10
http://www.globalsecurity.org/military/world/rok/sgr-a1.htm
11
http://www2.ohchr.org/english/bodies/hrcouncil/docs/14session/A.HRC.14.24.Add6.pdf
12
http://www.futura-sciences.com/magazines/espace/infos/actu/d/aeronautique-video-x47b-drone-vraiment-automatique-27895/
13
http://icrac.net/ 14
http://gubrud.net/?p=35
BIBLIOGRAPHIE
ALSTON P., Interim Report of the Special Rapporteur on
extrajudicial, summary or arbitrary executions, UN Doc. A/65/321, 23/8/2010
ARKIN R. T., «People behaving badly, robots behaving better?
Embedding ethics in autonomous combat robots» (conférence au Mobile
robot laboratory, Georgia institute of technology), 11/7/2013,
http://www.youtube.com/watch?v=zrD62oXUZkQ,
consulté le 20/10/2013
DAVID E., « Principes de droit des conflits
armés », Bruylant - Ulb (5e édition), 18
Décembre 2012
DOCHERTY B., «Losing humanity: the case against killer
robots», HUMAN RIGHTS WATCH online reports, Novembre 2012
GUBRUD M., «Foust's case for killer robots engaged:
Autonomous weapons are no phantom menace», ICRAC Analysis, 21/06/2013,
http://icrac.net/2013/06/fousts-case-for-killer-robots-engaged-autonomous-weapons-are-no-phantom-menace/,
consulté le 24/10/2013
HEYNS C., Report of the Special Rapporteur on extrajudicial,
summary or arbitrary executions, UN general assembly, A/HRC/23/47,
publié le 9/4/2013
KRISHNAN A., «Killer Robots: Legality and Ethicality of
Autonomous Weapons, Surrey, UK :Ashgate Publishing Limited, 2009
SCHMITT M. N. et MARKHAM, C. J., «Precision air warfare and
the law of armed conflict », International law studies/ U.S naval
war college, 1/7/2013
SCHMITT M. N., «Autonomous Weapon Systems and International
Humanitarian Law: A Reply to the Critics», Harvard law school national
security journal, 1/2/2013
REMERCIEMENTS
Je tiens à remercier, mon directeur de mémoire pour
toute sa participation à ce mémoire, mon professeur E David pour
son aide précieuse et enfin mes camarades pour l'esprit de
solidarité qui règne entre nous.
ANNEXE
Je présente à titre d'illustration une brève
description technique du « SWORDS », version armée
du « Talon » du fabricant Foster-Miller fondée
sur Wikipedia :
Figure 3 : photo du « SWORDS »
équipé par Qinetiq
Il est commandé par un opérateur qui peut se situer
jusqu'à une distance de 1 km du tank,
Ila une autonomie énergétique de 8h30 extensible
jusqu'à 13h
La version non armée a été très
utilisée en Bosnie, en Irak et en Afghanistan.
3 SWORDS armés de mitraillettes M249 ont été
déployés en Iraq mais ils n'ont pas été
utilisés comme arme car l'armée américaine ne l'a pas
autorisé
D'après le fabricant il aurait été
utilisé pour neutraliser des explosifs lors de 20000 missions environ en
Iraq et en Afghanistan
Le fabricant développe actuellement son successeur le
MAARS (fabriqué par Qinetiq) qui a déjà fait l'objet
d'essais
|