WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

La réponse réglementaire de l'Union Européenne face à  l'évolution de l'intelligence artificielle


par Lucas TORRES
UPPA - Master Etudes européennes et internationales 2022
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

PARTIE I

LA NÉCESSITÉ D'UNE RÉGLEMENTATION FACE À L'INQUIÉTUDE CROISSANTE DES DÉRIVES DE L'INTELLIGENCE ARTIFICIELLE

La nécessité d'une réglementation de l'intelligence artificielle est un sujet qui, depuis une dizaine d'années, ne cesse de s'accroître. En effet, nombre d'articles prolifèrent, dans le but de prévenir des dérives de cette dernière, ou peut être d'effrayer le grand public. L'industrie cinématographique s'est notamment emparée du sujet afin de démontrer les différents effets néfastes que ces innovations pourraient avoir sur l'humanité, tels que dans la série «Black Mirror», ou les films «Ex Machina» ou «Blade Runner 2049».

Mais qu'en est-il vraiment? Quels sont les réels enjeux se trouvant derrière cette nécessaire réglementation ? Outre l'objectif d'éviter une de ses théories post-apocalyptiques, cette réglementation s'est avérée urgente d'abord face aux dérives des entreprises et des géants du numérique (I), mais aussi face aux enjeux éthiques et humanitaires (II).

I. Une réglementation face aux dérives des entreprises et des géants du numérique

Cette réglementation s'est donc d'abord avérée indispensable face aux dérives des entreprises et des géants du numérique, dénoncés même par des magnats de l'intelligence artificielle (A) et mettant en avant des lignes de conduites indispensables pour ces entreprises (B).

A - Des dérives dénoncées par les magnats de l'intelligence artificielle mêmes

L'essor des différentes formes d'intelligences artificielles dans le domaine des entreprises et des géants du numérique a permis l'identification progressive des dérives qui y étaient liées (1), et a conduit des personnalités telles que E. MUSK ou encore S.HAWKING à signer la Beneficial AI (2), établissant ainsi les principes d'Asilomar.

1 - L'identification progressive des dérives liées à l'intelligence artificielle

S'il est vrai que l'intelligence artificielle est source de progrès, et présente dans nos quotidiens sans même que l'on s'en rende compte, les innovations qui y sont liées ont pu rappeler qu'elle est aussi source de failles, notamment si elle est utilisée à mauvais escient.

9

Les conséquences ont ainsi pu être observées dans plusieurs cas au cours de la dernière décennie.

En 2016, l'entreprise Microsoft avait lancé le robot Tay qui avait la capacité de pouvoir converser sur les réseaux sociaux tels que Twitter ou Snapchat en se basant sur des données accessibles publiquement pour répondre aux questions qu'il recevait, mais aussi sur des phrases déjà toutes faites, réalisées par des humoristes.

Mais, au fil des utilisations, il s'est avéré que lorsqu'on lançait le robot sur des sujets sensibles, les réponses n'étaient pas toujours adaptées.

Il a finalement été mis hors circuit après avoir eu des propos négationnistes au sujet de l'Holocaust.

En 2014, l'entreprise Amazon avait mis en place un algorithme qui lui permettrait de recruter ses employés en choisissant les meilleurs parmi les candidats. Il pouvait ainsi examiner le curriculum vitae des postulants et attribuer des notes de zéro à cinq étoiles.

Cependant, il est ressorti que l'algorithme avait tendance à préférer automatiquement les profils masculins aux profils féminins, forçant le géant du e-commerce à abandonner ce projet pour manque de garantie d'impartialité.

La mise en place du Correctional Offender Management Profiling for Alternative Sanctions aux États-Unis, ou Logiciel COMPAS a aussi été à l'origine de polémiques.

En effet, s'il a été créé dans le but d'évaluer le risque de récidive chez les criminels, influençant les cautions, les conditions de probation ou la durée des peines en s'appuyant sur des études académiques en criminologie et sociologie, ainsi que sur différents modèles statistiques, en mai 2016, une enquête de l'ONG ProPublica a révélé que ce logiciel aurait un apriori négatif sur la communauté noire.

S'il n'a pas été abandonné à ce jour, la Cour suprême du Wisconsin a néanmoins appelé à l'utiliser avec grande prudence.

L'avènement du Deep Fake, technique consistant à modifier des vidéos réalisées par une synthèse d'images pour répandre des fake news, est lui aussi venu affirmer un peu plus les craintes qui se sont soulevées autour des intelligences artificielles.

Ainsi, le groupe Facebook avait même fait appel à sa communauté afin de trouver des solutions qui permettraient de contrer les effets néfastes de cette technique. En effet, celle-ci

10

pourrait conduire à usurper l'apparence de chefs d'État ou politiciens pour leur donner des propos qui pourraient mener à des incidents diplomatiques ou des conflits internationaux.

Mais, si les ingérences de ces techniques ont contribué à la montée de la vision négative qu'à le grand public des intelligences artificielles, c'est l'ingérence dans la vie privée qui à tendance à inquiéter le plus.

En effet, l'exemple des caméras dotées d'un système de reconnaissance faciale présentes dans les rues de Singapour, ou en Chine, afin d'identifier les populations, et d'attribuer à chacun un nombre de points en fonction des «infractions» commises, conditionnant l'accès à certains logements, métiers, ou mêmes endroits, est la parfaite édification des craintes entourant ces techniques.

Ces exemples sont ainsi les raisons types pour lesquelles certains magnats de la technologie et de la science se sont accordés pour dire qu'il devenait indispensable de dénoncer ces pratiques et dérives.

2. Signature de la Beneficial AI et principes d'Asilomar

Le 5 janvier 2017 s'est ouverte en Californie l'Asilomar Conference on Beneficial AI, organisée par le Future of Life Institute, jusqu'au 8 janvier de la même année.

Cette conférence, qui a réuni des dirigeants du monde universitaire et de l'industrie, avait ainsi pour but de façonner les contours de l'intelligence artificielle par la communauté de l'intelligence artificielle.

En effet, dans un contexte où ces techniques soulèvent de plus en plus d'intérêts positifs comme négatifs, cette conférence tenait à rappeler que ceux qui jouent un rôle dans leur développement ont la responsabilité et la possibilité de la façonner au mieux.

Stephen HAWKING, qui était un brillant physicien théoricien et cosmologiste britannique disant que «Parvenir à créer des intelligences artificielles serait le plus grand accomplissement de l'histoire humaine. Malheureusement, il pourrait aussi s'agir du dernier, à moins que nous apprenions à éviter les risques.», ainsi que Elon MUSK, ingénieur-chercheur et directeur général de Tesla et SpaceX ont ainsi participés et signés la lettre ouverte issue de cette conférence, parmis les 2500 personnes dont plus de la moitié sont des chercheurs, à y avoir participé.

11

Cette conférence est à l'origine de la liste d'Alisomar qui vient donner vingt-trois principes, qui selon les personnes ayant aidé à les développer, permet d'éviter les dérives de l'intelligence artificielle dans son processus de création et d'innovation, aussi appelée «guide de référence pour un développement éthique de l'intelligence artificielle».

Ces principes tendent à s'inscrire dans la lignée des trois lois de la robotique d'Asimov des années 1940, créées telles que «Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger ; Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ; Un robot doit protéger son existence en tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi».

Ces principes d'Asilomar se présentent sous trois catégories : ceux concernant le développement, ceux concernant l'éthique et les valeurs, et ceux concernant les risques à long terme.

Ils concernent ainsi les objectifs des recherches, les investissements, les relations entre scientifiques et législateurs, l'esprit de la recherche, la nécessité d'éviter les courses, la sécurité, la transparence en cas de problème, la transparence judiciaire, la responsabilité, la concordance des valeurs, les valeurs humaines, les données personnelles, la liberté et la vie privée, les bénéfices collectifs, la prospérité partagée, le contrôle humain, l'anti-renversement, la course aux IA d'armement, l'avertissement sur les capacités, l'importance, les risques, l'auto-développement infini, et le bien commun.

Cette conférence a, plus que l'élaboration de ces principes, permis de mettre en avant le caractère indispensable de la définition de lignes de conduites à adopter dans tout ce qui implique l'intelligence artificielle.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Là où il n'y a pas d'espoir, nous devons l'inventer"   Albert Camus