PARTIE I
LA NÉCESSITÉ D'UNE
RÉGLEMENTATION FACE À L'INQUIÉTUDE CROISSANTE DES
DÉRIVES DE L'INTELLIGENCE ARTIFICIELLE
La nécessité d'une réglementation de
l'intelligence artificielle est un sujet qui, depuis une dizaine
d'années, ne cesse de s'accroître. En effet, nombre d'articles
prolifèrent, dans le but de prévenir des dérives de cette
dernière, ou peut être d'effrayer le grand public. L'industrie
cinématographique s'est notamment emparée du sujet afin de
démontrer les différents effets néfastes que ces
innovations pourraient avoir sur l'humanité, tels que dans la
série «Black Mirror», ou les films «Ex Machina» ou
«Blade Runner 2049».
Mais qu'en est-il vraiment? Quels sont les réels enjeux
se trouvant derrière cette nécessaire réglementation ?
Outre l'objectif d'éviter une de ses théories
post-apocalyptiques, cette réglementation s'est avérée
urgente d'abord face aux dérives des entreprises et des géants du
numérique (I), mais aussi face aux enjeux éthiques et
humanitaires (II).
I. Une réglementation face aux dérives des
entreprises et des géants du numérique
Cette réglementation s'est donc d'abord
avérée indispensable face aux dérives des entreprises et
des géants du numérique, dénoncés même par
des magnats de l'intelligence artificielle (A) et mettant en avant des lignes
de conduites indispensables pour ces entreprises (B).
A - Des dérives dénoncées par les
magnats de l'intelligence artificielle mêmes
L'essor des différentes formes d'intelligences
artificielles dans le domaine des entreprises et des géants du
numérique a permis l'identification progressive des dérives qui y
étaient liées (1), et a conduit des personnalités telles
que E. MUSK ou encore S.HAWKING à signer la Beneficial AI (2),
établissant ainsi les principes d'Asilomar.
1 - L'identification progressive des dérives
liées à l'intelligence artificielle
S'il est vrai que l'intelligence artificielle est source de
progrès, et présente dans nos quotidiens sans même que l'on
s'en rende compte, les innovations qui y sont liées ont pu rappeler
qu'elle est aussi source de failles, notamment si elle est utilisée
à mauvais escient.
9
Les conséquences ont ainsi pu être
observées dans plusieurs cas au cours de la dernière
décennie.
En 2016, l'entreprise Microsoft avait lancé le robot
Tay qui avait la capacité de pouvoir converser sur les réseaux
sociaux tels que Twitter ou Snapchat en se basant sur des données
accessibles publiquement pour répondre aux questions qu'il recevait,
mais aussi sur des phrases déjà toutes faites,
réalisées par des humoristes.
Mais, au fil des utilisations, il s'est avéré
que lorsqu'on lançait le robot sur des sujets sensibles, les
réponses n'étaient pas toujours adaptées.
Il a finalement été mis hors circuit
après avoir eu des propos négationnistes au sujet de
l'Holocaust.
En 2014, l'entreprise Amazon avait mis en place un algorithme
qui lui permettrait de recruter ses employés en choisissant les
meilleurs parmi les candidats. Il pouvait ainsi examiner le curriculum vitae
des postulants et attribuer des notes de zéro à cinq
étoiles.
Cependant, il est ressorti que l'algorithme avait tendance
à préférer automatiquement les profils masculins aux
profils féminins, forçant le géant du e-commerce à
abandonner ce projet pour manque de garantie d'impartialité.
La mise en place du Correctional Offender Management Profiling
for Alternative Sanctions aux États-Unis, ou Logiciel COMPAS a aussi
été à l'origine de polémiques.
En effet, s'il a été créé dans le
but d'évaluer le risque de récidive chez les criminels,
influençant les cautions, les conditions de probation ou la durée
des peines en s'appuyant sur des études académiques en
criminologie et sociologie, ainsi que sur différents modèles
statistiques, en mai 2016, une enquête de l'ONG ProPublica a
révélé que ce logiciel aurait un apriori négatif
sur la communauté noire.
S'il n'a pas été abandonné à ce
jour, la Cour suprême du Wisconsin a néanmoins appelé
à l'utiliser avec grande prudence.
L'avènement du Deep Fake, technique consistant à
modifier des vidéos réalisées par une synthèse
d'images pour répandre des fake news, est lui aussi venu affirmer un peu
plus les craintes qui se sont soulevées autour des intelligences
artificielles.
Ainsi, le groupe Facebook avait même fait appel à
sa communauté afin de trouver des solutions qui permettraient de contrer
les effets néfastes de cette technique. En effet, celle-ci
10
pourrait conduire à usurper l'apparence de chefs
d'État ou politiciens pour leur donner des propos qui pourraient mener
à des incidents diplomatiques ou des conflits internationaux.
Mais, si les ingérences de ces techniques ont
contribué à la montée de la vision négative
qu'à le grand public des intelligences artificielles, c'est
l'ingérence dans la vie privée qui à tendance à
inquiéter le plus.
En effet, l'exemple des caméras dotées d'un
système de reconnaissance faciale présentes dans les rues de
Singapour, ou en Chine, afin d'identifier les populations, et d'attribuer
à chacun un nombre de points en fonction des «infractions»
commises, conditionnant l'accès à certains logements,
métiers, ou mêmes endroits, est la parfaite édification des
craintes entourant ces techniques.
Ces exemples sont ainsi les raisons types pour lesquelles
certains magnats de la technologie et de la science se sont accordés
pour dire qu'il devenait indispensable de dénoncer ces pratiques et
dérives.
2. Signature de la Beneficial AI et principes
d'Asilomar
Le 5 janvier 2017 s'est ouverte en Californie l'Asilomar
Conference on Beneficial AI, organisée par le Future of Life Institute,
jusqu'au 8 janvier de la même année.
Cette conférence, qui a réuni des dirigeants du
monde universitaire et de l'industrie, avait ainsi pour but de façonner
les contours de l'intelligence artificielle par la communauté de
l'intelligence artificielle.
En effet, dans un contexte où ces techniques
soulèvent de plus en plus d'intérêts positifs comme
négatifs, cette conférence tenait à rappeler que ceux qui
jouent un rôle dans leur développement ont la
responsabilité et la possibilité de la façonner au
mieux.
Stephen HAWKING, qui était un brillant physicien
théoricien et cosmologiste britannique disant que «Parvenir
à créer des intelligences artificielles serait le plus grand
accomplissement de l'histoire humaine. Malheureusement, il pourrait aussi
s'agir du dernier, à moins que nous apprenions à éviter
les risques.», ainsi que Elon MUSK, ingénieur-chercheur et
directeur général de Tesla et SpaceX ont ainsi participés
et signés la lettre ouverte issue de cette conférence, parmis les
2500 personnes dont plus de la moitié sont des chercheurs, à y
avoir participé.
11
Cette conférence est à l'origine de la liste
d'Alisomar qui vient donner vingt-trois principes, qui selon les personnes
ayant aidé à les développer, permet d'éviter les
dérives de l'intelligence artificielle dans son processus de
création et d'innovation, aussi appelée «guide de
référence pour un développement éthique de
l'intelligence artificielle».
Ces principes tendent à s'inscrire dans la
lignée des trois lois de la robotique d'Asimov des années 1940,
créées telles que «Un robot ne peut porter atteinte à
un être humain, ni, en restant passif, permettre qu'un être humain
soit exposé au danger ; Un robot doit obéir aux ordres qui lui
sont donnés par un être humain, sauf si de tels ordres entrent en
conflit avec la première loi ; Un robot doit protéger son
existence en tant que cette protection n'entre pas en conflit avec la
première ou la deuxième loi».
Ces principes d'Asilomar se présentent sous trois
catégories : ceux concernant le développement, ceux concernant
l'éthique et les valeurs, et ceux concernant les risques à long
terme.
Ils concernent ainsi les objectifs des recherches, les
investissements, les relations entre scientifiques et législateurs,
l'esprit de la recherche, la nécessité d'éviter les
courses, la sécurité, la transparence en cas de problème,
la transparence judiciaire, la responsabilité, la concordance des
valeurs, les valeurs humaines, les données personnelles, la
liberté et la vie privée, les bénéfices collectifs,
la prospérité partagée, le contrôle humain,
l'anti-renversement, la course aux IA d'armement, l'avertissement sur les
capacités, l'importance, les risques, l'auto-développement
infini, et le bien commun.
Cette conférence a, plus que l'élaboration de
ces principes, permis de mettre en avant le caractère indispensable de
la définition de lignes de conduites à adopter dans tout ce qui
implique l'intelligence artificielle.
|