Chapitre 2 : Replacer l'utilisateur au coeur de
l'intelligence artificielle
Le marché d'internet est dominé aujourd'hui par
de grandes plateformes dont le business model réside en la
monétisation des données à caractère personnel des
individus489. Capter l'attention devient l'enjeu majeur, ce qui
encourage le développement de méthodes persuasives et addictives,
au prix d'influencer nos perceptions de la réalité, nos choix et
nos comportements dans l'objectif d'accroître le profit490. Ce
comportement est cependant contraire à l'article 1 de la Loi
informatique et libertés qui dispose que « L'informatique doit
être au service de chaque citoyen ». Il devient alors
impératif de protéger l'autodétermination des personnes
concernées, en les formant (Section 1) et en leur fournissant des outils
adaptés (Section 2).
Section 1 : Responsabiliser l'utilisateur
Le consentement des personnes concernées ne peut
être obtenu qu'en étant « libre, spécifique,
éclairé et univoque491 ». Or, le
développement des algorithmes entraine une diminution des vigilances
individuelles, qu'il convient de pallier492. Le caractère
éclairé du consentement peut être affaibli face à
deux mécanismes que sont la bulle filtrante (§1) et le design
trompeur (§2).
§1. Ne pas réduire la personne concernée
à son alter égo numérique par le mécanisme de bulle
filtrante
Un des risques de l'usage des algorithmes d'intelligence
artificielle sur internet est la pratique d'enfermement et de perte de
pluralisme culturel. Dans son ouvrage493, E. Parisier emploie le
terme de « bulle filtrante », qui signifie que
l'activité intrinsèque de filtrage et de classement
opérée par les algorithmes a pour effet de nuire au pluralisme et
de renforcer le déterminisme de l'individu. Cet effet, appelé
aussi l'« effet performatif », utilisé sur internet
est lié à la personnalisation des recherches et limite ainsi les
contenus auxquels les individus sont exposés, et réduit par voie
de conséquence la créativité et la capacité de
penser494.
L'enfermement s'opère à deux niveaux. A
l'échelle de l'individu, « les algorithmes augmenteraient la
propension des individus à ne fréquenter que des objets, des
personnes, des
489 CEPD, avis n° 3/2018 sur la manipulation en ligne et
les données à caractère personnel, mars 2018, p. 12
490 N. Miailhe, « Géopolitique de l'intelligence
artificielle : le retour des empires ? », politique
étrangère, 2018, p. 109
491 Art. 4 11) RGPD
492 CNIL, les enjeux éthiques des algorithmes et de
l'intelligence artificielle, op. cit., p.50
493 E. Pariser, «The filter Bubble: What the Internet is
hiding from you», Penguin Press, 2011
494 Parlement européen, « Understanding
algorithmic decision-making: Opportunities and challenges», mars 2019,
p.13
- 81 -
Le régime de lege feranda
opinions, des cultures conformes à leurs propres
goûts et à rejeter l'inconnu495 ». L'individu
serait ainsi assimilé à son « alter-égo
numérique », enfermé dans sa prison de recommandations.
A l'échelle de la société, cet usage risque de nuire
à la démocratie du fait que les privations d'exposition des
individus à la différence réduiraient la qualité et
la vitalité du débat publique.
§2. Être conscient des pratiques de design
trompeur
La « théorie du nudge496
» repose sur l'idée que « l'homo
economicus497 » n'existe pas. L'homme n'est en
réalité pas totalement rationnel. Ses décisions sont
influencées par des structures mentales, appelées «
biais cognitifs » qui orientent nos perceptions et nos
comportements à partir de notre environnement physique, social et
cognitif498. Ce sont d'ailleurs ces biais cognitifs qui expliquent
le paradoxe de la vie privée.
La technique du « nudge » ou «
coup de pouce » consiste donc à agir sur l'architecture
des choix des individus pour les inciter à effectuer certaines actions
plutôt que d'autres499. Dans son sens péjoratif, le
Nudge est appelé « dark pattern ». Il existe en
effet des design abusifs, trompeurs, et dangereux500 dont l'usage
contrevient au respect de la protection de la vie privée. Il existe
quatre types de designs trompeurs : ceux qui influencent le consentement, ceux
qui déroutent la personne, ceux qui créent des frictions et ceux
qui incitent au partage des données501.
Le « dark pattern » peut nuire au
consentement de la personne concernée. Tout d'abord le «
paradoxe du choix » provoque une fausse impression de
contrôle de l'individu. De plus, le consentement est toujours
accordé dans un espace contraint, l'usage de stratégies de
détournement de l'attention invalidera alors le
consentement502. Ce comportement porte également atteinte aux
principes de transparence et de loyauté503.
Le design trompeur peut également induire en erreur la
personne concernée. L'autorité de contrôle
norvégienne a récemment démontré comment les
Darks Patterns employés par Facebook et Google empêchent les
personnes concernées d'exercer leurs droits504. Ces
procédés ont d'ailleurs fait l'objet d'une question à la
CNIL sur la conformité des pratiques de
495 CNIL, les enjeux éthiques des algorithmes et de
l'intelligence artificielle, op. cit., p.35
496 R. Thaler, « Nudge : améliorer les
décisions concernant la santé, la richesse et le bohneur »,
2008
497 E. Benays, « propaganda », 1928
498 CNIL, LINC, « Cahier IP - La forme des choix -
Données personnelles, design et frictions désirables »,
p.15
499 Ibid., p.19
500 Ibid., p.27
501 E. Hary; «Dark patterns : quelle grille de lecture
pour les réguler ? » 2 septembre 2019
502 CNIL, « Cahier IP - La forme des choix - Données
personnelles, design et frictions désirables », p.30, 40
503 Ibid., p.30, 43
504 Forbrukerradet, «Deceived by design, How tech
companies use dark patterns to discourage us from exercising our rights to
privacy», 27 juin 2018
- 82 -
Le régime de lege feranda
Facebook et de Google par rapport aux principes de privacy
by default et des modalités de collecte du
consentement505.
|