WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

La réponse réglementaire de l'Union Européenne face à  l'évolution de l'intelligence artificielle


par Lucas TORRES
UPPA - Master Etudes européennes et internationales 2022
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

2 - Une sensibilisation progressive à la question éthique

Cette sensibilisation aux questions éthiques à débutée peu à peu en 2019, avec tout d'abord les universités qui se sont mises à faire graviter cette problématique autour des projets liés à l'intelligence artificielle. D'un oeil plus juridique, la Commission Européenne publie régulièrement autour de ces questions éthiques et à titre illustratif, elle publie en avril 2019, un communiqué établissant les lignes directrices sur l'éthique dans l'intelligence artificielle élaborées par un groupe d'experts indépendants en la matière. Cette publication

16

avait pour objectif de prévenir, signaler, sensibiliser et contribuer activement aux discussions réglementaires sur le sujet.

Il est question notamment d'inscrire au sein de la charte des droits fondamentaux de l'UE de grands principes liés à la protection des données et à la transparence de ces derniers. Concernant plus précisément les IA, les lignes directives viennent propose les lignes directrices viennent proposer sept principes pour la mise en oeuvre d'un IA digne de confiance : « Ces principes ont trait (i) au facteur humain et contrôle humain, (ii) à la robustesse et la sécurité, (iii) au respect de la vie privée et à la gouvernance des données, (iv) à la transparence, (v) à la diversité, la non-discrimination et l'équité, (vi) au bien-être sociétal et environnemental et enfin (vii) à la responsabilisation».

En réalité, l'ensemble de ces initiatives démontrent une volonté claire des institutions publiques et des établissements de recherches également, de se positionner sur le sujet de l'IA. Elles démontrent également un encouragement clair émanant d'une volonté commune d'acteurs d'échanger, de s'accompagner concernant le cadre qui devrait accompagner le développement des IA.

Au regard de ce besoin impératif de réglementer l'intelligence artificielle pour des questions éthiques sur le plan civil, il convient de également de prendre en compte des questions d'ordres morales plurielles s'incarnant en la nécessité d'encadrer les robots tueurs qui dans un contexte militaires correspondent aisément à ce besoin impérieux d'un cadre éthique propre aux Intelligences artificielles.

B - L'exemple des SALA : De nécessaires fondations d'un « droit moral encadré » de tuer

En droit international, seul l'Homme a le « droit moral encadré » de tuer, pourtant, apparu à partir de 2003 durant la deuxième guerre d'Irak, la robotique militaire servait initialement dans un but de déminage dans un contexte où les menaces d'engins explosif improvisés était telle que mettre en danger la vie des hommes à cette période était compliqué. A ce jour, toujours essentiel pour le déminage, ces derniers tendent à s'acheminer vers d'autres utilisations notamment dans le domaine de la surveillance car forcé de constater que

17

le robot à l'immense avantage de déporter les sens humains que sont la vue, l'ouïe, l'odorat, le toucher.

L'évolution Système d'armes létales autonome (SALA) a connu d'importantes évolutions institutionnelles ces dernières années. Portée à l'ordre du jour en 2007, les SALA sont pour la première fois pointé du doigt par un docteur en robotique du nom de Noel Sharkey, qui dans une tribune du journal The Guardian va lancer une alerte sur le développement rapide de ces armes autonomes et a appelé à un encadrement juridique international très urgent. En 2012, la question a dépassé le cercle des experts, puisque l'affaire est médiatisée par la publication d'un rapport conjoint de Human Right Watch et de l'université d'Harvard ; en parallèle une coalition d'ONG se forme avec Stop Killers Robot. En 2013, le débat a pénétré les enceintes du systèmes des nations unies avec un rapport dans le cadre du Conseil des Droits de l'Homme sur les exécutions extrajudiciaires mais également au sein du Conseil Consultatif des nations unies pour les questions de désarmements qui a demandé que la questions soit examiné dans le cadre d'un forum existant, celui de la Convention de 1980 relatif à certaines armes classiques.

En ce qui concerne les Etats membres, il y a un réel manque de consensus puisque ces derniers sont partagés entre ceux qui souhaitent une interdiction préventive, et ceux réclament un moratoire concernant les recherches et l'utilisations de ces SALA, d'autres qui prônent une réglementation non contraignante qui pourrait évoluer vers des normes obligatoires et certains à l'instar de la France considère que ces systèmes sont une évolution des moyens de combat tout à fait naturel et qui doit être analysé dans le cadre de la réglementation existante.

En somme, l'appétence pour ces « robots killers » et ces drones disposant d'une autonomie propre semble inéluctable bien que déjà présente de nos jours. Une censure de ces derniers impossible dès lors qu'une interdiction portant sur des technologies à double usage comme les robots risquerait de porter préjudice à la recherche civile. Les questions juridiques relatives à ce sujet sont d'une pluralité et relèvent aussi bien du droit du recours à la force, que du droit des armes, en passant par le Droit international humanitaire etc...

L'idée semble ici de se tourner vers l'encadrement juridique de ces intelligences artificielles que ce soit dans l'existence ainsi que dans l'usage. Il convient de se restreindre aux discussions en cours à Genève au sujet de l'autonomie robotique et des conséquences que

18

cela pourrait avoir et incombe de traiter particulièrement de la définition, du contrôle humain, de l'examen préalable et des questions relatives à la responsabilité. Dès lors, il convient de constater qu'à ce jour le droit international/humanitaire doit s'adapter et faire face à l'avènement des SALA, de même qu'il doit réguler sa juridiction notamment en matière de responsabilité.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Je ne pense pas qu'un écrivain puisse avoir de profondes assises s'il n'a pas ressenti avec amertume les injustices de la société ou il vit"   Thomas Lanier dit Tennessie Williams