L'INTELLIGENCE ARTIFICIELLE DANS LE
SECTEUR DE L'ASSURANCE
|
Mémoire de recherche
BERGER Georges
Master 2 Droit de l'économie
numérique Année universitaire 2019-2020
1/97
Sous la direction de Madame Catherine LEDIG
Professeure à l'Université de Strasbourg
RÉSUMÉ
La révolution numérique a changé la face
de l'économie, non seulement européenne, mais aussi mondiale. Les
progrès technologiques et le développement des nouveaux
systèmes d'information et de communications ont bouleversé les
sociétés. En effet, le développement des nouvelles
technologies témoigne d'une réelle « mutation
sociétale dont la clé de voûte résulte de
l'information numérique et des communications électroniques
»1 qui vont alors jusqu'à impacter notre manière de
communiquer, d'échanger et d'appréhender le monde qui nous
entoure. Dans ce contexte, l'intelligence artificielle, et plus
particulièrement le machine learning et le deep
learning, offre de nouvelles perspectives économiques.
Ainsi, si leur intégration dans le secteur des
assurances va conduire à une refonte complète des processus
allant vers plus de transversalités entre les métiers, et un
effacement des frontières traditionnelles entre le back office et le
front office, l'intelligence artificielle laisse entrevoir de nouvelles
perspectives en termes d'analyse des risques et des offres qui entendre
répondre à un besoin croissant de personnalisation voulue par les
assurés. En même temps, l'intégration de l'intelligence
artificielle laisse entrevoir de nouvelles perspectives s'agissant de la
prévention et de la lutte contre la fraude à l'assurance.
Cependant, bousculant les codes existants jusqu'alors dans ce
secteur, l'utilisation des nouveaux procédés d'intelligence
artificielle pose la question de leur compatibilité avec le principe de
mutualisation des risques, central dans ce secteur, mais également du
cadre réglementaire applicable en la matière.
2/97
1 Éric A. Caprioli, Droit international de
l'économie numérique : les problèmes juridiques
liés à l'internationalisation de l'économie
numérique, Lexis Nexis, 2e Édition
ABSTRACT
The digital revolution has changed the face of the economy,
not only in Europe, but also globally. Technological advances and the
development of new information and communication systems have turned societies
upside down. Indeed, the development of new technologies is evidence of a real
societal change, the keystone of which is digital information and electronic
communications, which are now impacting the way we communicate, exchange and
understand the world around us2. In this context, artificial intelligence, and
more particularly machine learning and deep learning, offers new economic
perspectives.
While their integration in the insurance sector will lead to a
complete overhaul of processes, with more cross-functionality between
businesses, and the blurring of traditional boundaries between the back office
and the front office, artificial intelligence offers new perspectives in terms
of risk analysis and offers that aim to respond to a growing need for
personalization as required by policyholders. At the same time, the integration
of artificial intelligence opens up new perspectives when it comes to
preventing and combating insurance fraud.
However, the use of new artificial intelligence processes
raises the question of their compatibility with the principle of risk pooling,
which is central to this sector, but also with the regulatory framework
applicable in this area.
3/97
2 ric A. Caprioli, Droit international de
l'économie numérique : les problèmes juridiques
liés à l'internationalisation de l'économie
numérique, Lexis Nexis, 2e Édition
4/97
5/97
******
Je tiens à exprimer ma reconnaissance et mes
sincères remerciements à Madame Catherine LEDIG, ma directrice de
mémoire et responsable de master, qui m'a aidé, conseillé
et orienté tout au long de cette année si particulière.
J'adresse également mes sincères remerciements
à l'ensemble de l'équipe pédagogique, dont les
méthodes d'enseignement et d'évaluation nous auront permis de
mettre en pratique et de contextualiser l'ensemble des connaissances et
compétences acquises au cours de cette année.
Je tiens à remercier mes proches, qui par leur soutien
inconditionnel et leurs encouragements m'ont été d'une grande
aide.
À tous ces intervenants, je présente mes
remerciements, mon respect et ma gratitude.
6/97
TABLE DES MATIÈRES
INTRODUCTION 9
PARTIE I : La refonte du modèle assurantiel
traditionnel par l'usage
des procédés d'intelligence artificielle
13
Chapitre 1 : L'intégration de l'intelligence
artificielle, facteur d'innovation
dans le secteur de l'assurance 14 Section 1.
L'intelligence artificielle, outil de développement
opérationnel et de culture
des transversalités 14
I. Le décloisonnement des métiers induit par
l'utilisation de l'intelligence
artificielle 14
II. L'optimisation opérationnelle par
l'automatisation des processus 18 Section 2.
L'intelligence artificielle, moteur essentiel au développement
de nouvelles
activités à forte valeur ajoutée
centrée sur le client 22
I. Une réponse pertinente à l'ère de la
considération 22
II. Vers une prévention augmentée par le
recours à l'intelligence artificielle 25
Chapitre 2 : L'impact de l'intelligence artificielle sur
le principe de
mutualisation des risques 29 Section 1.
L'appréhension et la mutualisation des risques, piliers du
modèle
assurantiel traditionnel 29 Section 2.
L'usage de l'intelligence artificielle, méthode d'analyse du
risque plus
précise et dynamique 32
I. Le recours à l'intelligence artificielle en
réponse aux risques émergents et
complexes 32
II. L'intelligence artificielle comme outil de correction de
l'asymétrie
d'information 36 Section 3. La
crainte d'une démutualisation du système assurantiel par le
recours à
l'intelligence artificielle 39
PARTIE II : L'intelligence artificielle dans le secteur
de l'assurance,
une technologie en quête de repères
43
Chapitre 1 : Un cadre réglementaire et
éthique peu développé en la
matière 44 Section 1.
L'explicabilité des algorithmes, un enjeu majeur de
développement de
l'intelligence artificielle 44
I. 7/97
La transparence des algorithmes d'intelligence artificielle,
un principe socle
d'une intelligence artificielle soucieuse des droits humains
44
II. Des initiatives pour l'heure limitées et
disparates des acteurs du secteur 48 Section 2. Une
réglementation partielle de l'intelligence artificielle par le cadre
juridique existant 51
I. Le RGPD, une réponse incomplète au
développement de l'intelligence
artificielle 51
II. L'intelligence artificielle à l'origine de
nouvelles logiques de responsabilité 55
Chapitre 2 : Une gouvernance interne primordiale
préalablement au
recours à l'intelligence artificielle
59
Section 1. L'impératif d'une stratégie de
la donnée avant l'intégration des outils
d'intelligence artificielle 59 Section 2.
L'importance d'une prise en considération des risques
liés à la sécurité
des procédés d'intelligence artificielle 64
CONCLUSION 68
BIBLIOGRAPHIE 69
ANNEXES 74
Annexe 1. Chiffres clés de l'assurance en France
74
Annexe 2. Les différentes branches de
l'intelligence artificielle 76
Annexe 3. La mutualisation des risques 77
Annexe 4. Les principaux indicateurs du numérique
en France 77
Annexe 5. Les usages de l'intelligence artificielle en
assurance 82
Annexe 6. Classification des différentes formes
d'intelligence artificielle 83
Annexe 7. Codex des biais cognitifs humains
84
Annexe 8. Niveaux d'explication par cas d'usage
85
Annexe 9. Les objectifs et fonctions de la
cybersécurité 86
Annexe 10. Synthèse des principaux moyens
d'attaque spécifiques au
machine learning 87
Annexe 11. Briques de fonctionnement d'une application
basée sur la
machine learning 88
Annexe 12. Synthèse des dispositions applicables
au titre du Règlement
général sur la protection des
données personnelles 89
8/97
Annexe 13. Synthèse des cas d'usage de
l'utilisation de l'intelligence
artificielle dans le secteur de l'assurance
90
Annexe 14. Résultats du baromètre 2020
des risques émergents en
assurance 92
Annexe 15. Synthèse de l'approche du Conseil de
l'Europe en matière de
régulation de l'intelligence artificielle
94
Annexe 16. Synthèse de la nouvelle
stratégie de l'Union européenne en
matière de numérique 95
9/97
INTRODUCTION
« Réussir à créer une
intelligence artificielle efficace pourrait être le plus grand
évènement de l'histoire de notre civilisation, ou le pire. Nous
ne savons tout simplement pas. Nous ne pouvons donc pas savoir si nous seront
infiniment aidés par l'intelligence artificielle, ou ignorés par
elle et écartés ou éventuellement détruits par
elle3 ».
Ces mots, prononcés par Stephen Hawking, à
l'occasion de son discours d'ouverture de la Web Summit 20174, témoigne
du contexte actuel englobant l'essor de l'intelligence.
En effet, la révolution numérique a
changé la face de l'économie, non seulement européenne,
mais aussi mondiale. Les progrès technologiques et le
développement des nouveaux systèmes d'information et de
communications ont bouleversé les sociétés. En effet, le
développement des nouvelles technologies témoigne d'une
réelle « mutation sociétale dont la clé de
voûte résulte de l'information numérique et des
communications électroniques »5 qui vont alors jusqu'à
impacter notre manière de communiquer, d'échanger et
d'appréhender le monde qui nous entoure. Dans cet élan de «
digitalisation » des sociétés modernes, deux remarques
peuvent cependant être avancées. D'une part, il est possible
d'observer que les technologies de l'information et de la communication (les
« TIC ») ne sont plus un secteur de l'économie parmi d'autres,
mais constituent aujourd'hui la base sur laquelle repose tous les secteurs de
l'économie6. D'autre part, la révolution numérique entend
placer les données au coeur du processus, tant elles permettent, une
fois collectées, d'anticiper et de prédire. En ce sens, avec
l'essor constant du nombre de données produites par chaque individu, les
méthodes de traitement ont nécessairement dû
évoluer.
Selon les derniers chiffres publiés par IDC en novembre
20197, plus de 16,1 Zettaoctets (soit environ 17 287 243 366, 4 Teraoctets) de
données ont été générées en 2016, et
ce chiffre ne cesse de croitre chaque, puisque le cabinet prédit un
volume de données s'élevant à plus de 163 Zettaoctets
à l'horizon de 2025, soit une augmentation de près de 34% par
année. En telle hypothèse, la croissance exponentielle des
données disponibles a nécessité l'essor de nouvelles
3 Traduction de l'anglais : « success in creating
effective AI could be the biggest event in the history of our civilisation, or
the worst. We just don't know. So we cannot know if we will be infinitely
helped by AI, or ignored by it and sidelined or conceivably destroyed by it
».
4
https://websummit.com/blog/hall-of-famers
Le Web Summit est un évènement fondé par
Paddy Cosgrave, David Kelly et Daire Hickey, inauguré pour la
première en fois en 2009 et qui a lieu chaque année.
L'évènement est centré sur la technologie de l'Internet et
haute technologie, et réunit notamment les PDG des entreprises du
Fortune 500 et les fondateurs de start-ups de l'internet.
5 Éric A. Caprioli, Droit international de
l'économie numérique : les problèmes juridiques
liés à l'internationalisation de l'économie
numérique, Lexis Nexis, 2e Édition
6 Communication de la Commission européenne au
Parlement européen, au Conseil, au Comité économique et
social européen et au Comité des région du 6 mai 2015,
intitulé « Stratégie pour une marché unique
numérique en Europe », COM (2017) 192 Final, SWD (2015) 100
final,
p.3
7
https://www.idc.fr/infographies
10/97
technologies permettant le traitement et l'analyse de
pareilles données, aussi appelées technologies du big data. Qu'il
s'agisse de photographies, SMS ou mails échangés, de tweets ou
posts sur les réseaux sociaux, de données de navigation ou
d'utilisation d'objets connectés en tous genres, ou bien encore de
données météorologiques ou sismique, les données
constituent aujourd'hui des informations cruciales permettant pilotant la vie
des sociétés modernes8.
Dans un contexte où les données occupent une
place fondamentale dans l'économie numérique, l'intelligence
artificielle semble s'imposer non seulement comme une réponse
concrète au traitement des données, mais également de
tirer profit des données afin de fonder de nouveaux modèles
disruptifs pour les entreprises.
Dans sa Communication du 25 avril 2018 sur
l'Intelligence artificielle pour l'Europe, la Commission
européenne soulignait que « l'intelligence artificielle (IA)
désigne les systèmes qui font preuve d'un comportement
intelligent en analysant leur environnement et en prenant des mesures - avec un
certain degré d'autonomie - pour atteindre des objectifs
spécifiques.
Les systèmes dotés d'IA peuvent être
purement logiciels, agissant dans le monde virtuel (assistants vocaux,
logiciels d'analyse d'images, moteurs de recherche ou systèmes de
reconnaissance vocale et faciale, par exemple) mais l'IA peut aussi être
intégrée dans des dispositifs matériels (robots
évolués, voitures autonomes, drones ou applications de l'internet
des objets, par exemple) ». Toutefois, cette définition ne se
concentre que sur l'aspect fonctionnel, par référence aux
systèmes, support de l'intelligence artificielle.
Le Conseil de l'Europe, très actif s'agissant des
questions liées aux rapports entre les libertés fondamentales et
l'intelligence artificielle, définit cette dernière comme «
l'ensemble de sciences, théories et techniques (notamment logique
mathématique, statistiques, probabilités, neurobiologie
computationnelle, informatique) qui ambitionne d'imiter les capacités
cognitives d'un être humain. Initiés dans le souffle de la seconde
guerre mondiale, ses développements sont intimement liés à
ceux de l'informatique et ont conduit les ordinateurs à réaliser
des tâches de plus en plus complexes, qui ne pouvaient être
auparavant que déléguées à un humain9 ».
Laissant entrevoir de larges perspectives économiques,
le cabinet IDC a, dans ses dernières prévisions, estimé
que les dépenses mondiales en intelligence artificielle devraient
atteindre les 110 milliards de dollars en 202410. Plus particulièrement,
le cabinet estime qu'au regard des nouvelles possibilités offertes par
l'intelligence artificielle s'agissant de
8 Hubery Bitan, Droit et expertise du numérique,
Wolters Kluwer, 2015
9
https://www.coe.int/fr/web/artificial-intelligence/history-of-
ai#:~:text=L'intelligence%20artificielle%20(IA),cognitives%20d'un%20%C3%AAtre%20humain
10
https://www.idc.com/getdoc.jsp?containerId=prUS46794720
11/97
l'organisation du travail et de relation client, ce sont
principalement les secteurs de la vente au détail et de la finance qui
dépenseront le plus en solutions d'intelligence artificielle.
À cet égard, le secteur de l'assurance n'est pas
en reste s'agissant de l'intégration de ces nouveaux outils. En effet,
selon les chiffres publiés par Insurance Europe11,
le marché de l'assurance européen occupait en 2018 la
deuxième place du marché mondial de l'assurance, juste
après l'Asie, et avant l'Amérique du Nord. Le marché
européen de l'assurance représente plus de 1 311 milliards
d'euros de cotisations d'assurances sur l'année 2018, ce chiffre
étant en hausse de 6,2% par rapport à l'année 201712.
Et la France n'est pas en reste dans ce secteur. En effet, selon
l'étude, notre pays figure, aux côtés du Royaume-Uni et de
l'Allemagne, parmi les acteurs les plus importants du marché
européen, avec près de 19,4 milliards d'euros de
cotisations (voir annexe 1). Secteur marqué par l'importance de la
donnée, qui constitue le coeur de l'activité assurantielle13,
l'intégration des procédés d'intelligence artificielle
apparait comme une solution aux nouveaux besoins exprimés par les
assurés, dans un contexte le secteur connait une concurrence toujours
plus importante, une réglementation toujours plus contraignante en
matière de portage des risques, et un volume de données en
constante augmentation. En ce sens, ce contexte général pousse
les assureurs à devoir se réinventer et trouver de nouveaux
leviers de croissance. À cet égard, si certains auteurs
qualifiaient le cloud, la data et l'intelligence artificielle comme le
tiercé gagnant des assureurs14, triptyque qui permettrait aux acteurs du
secteur de pouvoir se démarquer par un processus de création de
valeur fondé sur le numérique.
Dans ce contexte où l'intelligence artificielle semble
répondre aux besoins du secteur par une remise en question des processus
prévalant jusqu'alors, comment l'intelligence artificielle
transforme-t-elle le secteur de l'assurance ? En outre, l'intelligence
artificielle constitue-t-elle un levier de transformation pérenne
?
11 Basée à Bruxelles, Insurance Europe est la
fédération européenne d'assurance et de
réassurance, qui représente toutes les entreprises d'assurance et
de réassurance. Ses missions sont les suivantes :
- Attirer l'attention sur les questions d'intérêt
stratégique pour tous les assureurs et réassureurs
européens de manière durable.
- Sensibiliser au rôle des assureurs et des
réassureurs dans la protection et la sécurité de la
communauté ainsi que dans la contribution à
la croissance et au développement économiques.
- Promouvoir - en tant qu'expert et représentant du
secteur de l'assurance - un marché concurrentiel et ouvert au profit du
consommateur européen ainsi que des entreprises clientes.
https://www.insuranceeurope.eu/about-us
12 Insurance Europe, European Insurance - Key Facts,
Septembre 2019.
Voir :
https://www.insuranceeurope.eu/sites/default/files/attachments/European%20insurance%20--%20Key%20facts.pdf
13
https://arfv2.cdn.axa-contento-118412.eu/arfv2%2F44d8a534-cd54-45e6-8aab-f3e5614a4d01_axa_livreblanc-ia-vf-pdfinteractif.pdf
14
https://www.argusdelassurance.com/la-valorisation-de-la-donnee-dans-l-assurance/cloud-data-et-intelligence-artificielle-le-tierce-gagnant-des-assureurs.153659
12/97
En l'état, il est indéniable que le deep
learning doit conduire à une mutation profonde du modèle
assurantiel traditionnel (Partie I). En effet, si l'intelligence
artificielle peut permettre de répondre à un besoin de
création de valeur par une refonte des processus et des métiers
traditionnels, elle doit également permettre de mieux cerner les besoins
des assurés. Néanmoins, si les perspectives offertes par les
procédés d'intelligence artificielle semblent positives et
nécessaires dans un contexte où le besoin de personnalisation est
toujours plus accentué, force est de constater que le manque de
repères clairs, notamment s'agissant des règles applicables
à l'intelligence artificielle, constitue un frein à son
intégration dans le secteur (Partie II).
PARTIE I :
La refonte du modèle assurantiel
traditionnel
par l'usage des procédés
d'intelligence
artificielle
Dans son étude publiée en 201715, le cabinet
Accenture soulignait que rares sont les secteurs échappant à la
baisse de leur rentabilité et à la crainte de voir l'innovation
et leurs futurs investissements considérablement réduits.
Toutefois, le cabinet soulignait qu'il était possible d'inverser cette
tendance, la croissance pouvant être stimulée par le recours
à l'intelligence artificielle, susceptible d'accroitre la
rentabilité de 38% en moyenne. En ce sens, l'intelligence
artificielle s'inscrit comme un nouveau facteur de productivité et
d'innovation (Chapitre 1), en ce qu'elle devrait permettre
l'automatisation intelligente de la chaine de production dans de
nombreux secteurs, l'extension des capacités humaines et
l'accroissement du capital humain, ainsi que la diffusion de
l'innovation. Néanmoins, si l'intelligence artificielle porte de
nombreuses opportunités, son recours dans le secteur de
l'assurance suscite de nouvelles craintes s'agissant de sa
compatibilité avec un principe central du système : le principe
de mutualisation des risques (Chapitre 2).
13/97
15 Accenture Research, How AI boosts industry profits and
innovation, 2017
14/97
Chapitre 1 :
L'intégration de l'intelligence artificielle,
facteur d'innovation dans le secteur de l'assurance
Le secteur de l'assurance devrait profiter du potentiel offert
par le machine learning, dont l'intégration constitue non
seulement un outil de développement opérationnel et de
culture des transversalités entre les différents métiers
(Section 1), mais également un moteur essentiel afin de
voir émerger de nouvelles activités à haute valeur
ajoutée (Section 2).
Section 1. L'intelligence artificielle, outil
de développement opérationnel et de culture des
transversalités
Utilisée dans le secteur de l'assurance, l'intelligence
artificielle devrait s'imposer comme un outil permettant le
décloisonnement et la transversalité entre les
métiers du secteur (I), mais également favoriser
l'automatisation des tâches répétitives (II)
afin de favoriser la productivité et replacer le client au
coeur du métier.
I. Le décloisonnement des métiers induit par
l'utilisation de l'intelligence artificielle
Traditionnellement, les métiers de la finance et de
l'assurance sont classés selon deux catégories selon qu'ils
soient dédiés ou non à la relation directe avec le
client.
Ainsi, le « front office » fait
référence à l'ensemble des actions, fonctions ou
tâches de l'entreprise visible par la clientèle et en contact
direct avec elle. Dans l'assurance, il s'agit donc principalement des services
clients, agences commerciales, ou encore le service communication de
l'entreprise, qui apparaissent donc en « première ligne » et
sont garants de l'image de marque de l'entreprise.
À l'inverse, le « back office
» correspond à l'ensemble des fonctions et tâches de
l'entreprise qui n'est pas visible par le client final. Ainsi peuvent
être cités les services de production et gestion des contrats, les
services de souscription, les services logistiques, les ressources humaines, ou
encore les fonctions liées à assurer le bon fonctionnement des
systèmes d'information de l'entreprise ou encore le service
indemnisation (« services sinistres »).
15/97
Toutefois, il faut souligner que la ligne entre « front
» et « back office » tend de plus en plus s'effacer dans un
contexte centré sur le client, de sorte qu'il n'existe pas de
cloisonnement strict dans la pratique. En effet, par exemple, les
chargés de sinistre interagissent de plus en plus directement avec le
client dans le cadre de la gestion de sinistre. En
réalité, cet effacement des frontières entre le «
front office » et le « back office » devrait
s'accélérer avec l'intégration des outils d'intelligence
artificielle.
En tout état de cause, le recours à
l'intelligence artificielle dans ce secteur vise deux principaux objectifs que
sont d'une part, le développement d'une approche centrée
sur le client et ses besoins en s'appuyant sur la technologie pour
proposer une relation assureur-assuré toujours plus personnalisée
et d'autre part, rendre les organisations plus agiles dans un secteur
où la concurrence entre les acteurs traditionnels est forte, et
où de nouveaux acteurs tentent de pénétrer le
marché en s'appuyant sur des modèles disruptifs fondés sur
des investissements importants en matière d'innovation, afin de proposer
des produits et services toujours plus innovants.
En ce sens, le secteur est confronté ces
dernières années à l'émergence de nouveaux acteurs
qui entendent bousculer les codes jusque-là établis de
l'assurance.
En effet, si l'inclusion des géants du
web est devenue pratique courante aux États-Unis ces
dernières années, comme en témoignent les initiatives de
Google avec sa firme d'assurance Coefficient qui se fonde sur un partenariat
stratégique avec la compagnie de réassurance Swiss Re CorSo16
afin de proposer des produits d'assurance santé ou encore l'accord entre
Amazon et la banque JPMorgan Chase visant à la création d'une
nouvelle compagnie d'assurance santé17, le secteur français
l'assurance était jusqu'à très récemment
préservé de l'inclusion des GAFAM. Néanmoins, le
partenariat conclu entre Amazon et Aviva à la fin de l'année 2018
a sonné comme un coup de grâce porté au secteur de
l'assurance français. Selon les termes de Jacques Richier, PDG d'Allianz
France, « avec la technologie, les frontières entre les secteurs
vont devenir de plus en plus floues. Certains acteurs vont venir manger des
morceaux de notre métier, notamment la relation client18 ».
16
https://www.reinsurancene.ws/googles-verily-launches-insurance-partnership-with-swiss-re/
17
https://www.insurancebusinessmag.com/ca/news/healthcare/amazon-and-google-the-next-generation-of-insurance-competition-in-canada-117644.aspx
18
https://www.argusdelassurance.com/a-la-une/assurance-amazon-menace-ou-opportunite.136979
16/97
Bien qu'il ne s'agisse pas d'une inclusion complète
d'Amazon dans l'assurance française (le partenariat conclu entre Amazon
et Aviva vise uniquement à accorder la possibilité pour les
nouveaux souscripteurs d'un contrat d'habitation ou automobile auprès
d'Aviva de pouvoir, au moment du paiement, d'entrer leurs identifiants Amazon
Pay afin de fluidifier et simplifier le parcours client19), ce mouvement
témoigne toutefois de la capacité des géants du web
à intégrer de nouveaux segments de l'économie jusqu'alors
réservés à certains acteurs.
Mais l'une des principales craintes des acteurs traditionnels
n'est pas tant l'entrée de ces géants du web, mais plutôt
le contexte dans lequel s'inscrit cette nouvelle concurrence. En effet, afin de
protéger les consommateurs, les assureurs sont tenus à des
obligations particulières en termes de solvabilité, d'obligation
d'immatriculation, ou encore d'obligations découlant du Code des
assurances. Or, l'arrivée de ces nouveaux acteurs posent une question
fondamentale : celle de la soumission de ces nouveaux acteurs au cadre
réglementaire applicable aux acteurs traditionnels du
secteur.
Outre l'inclusion des géants du web, il faut
également souligner l'émergence des assurtechs,
en référence l'ensemble des entreprises de petite ou moyenne
taille s'appuyant sur les nouvelles technologies et les activités
technologiques pour conquérir des parts sur le marché
convoité de l'assurance. L'objectif de ces sociétés est de
créer une disruption ou une rupture technologique améliorant et
simplifiant les services rendus aux assurés tout en réduisant le
prix. L'assurtech propose donc de s'appuyer sur les technologies
numériques pour créer de la valeur sur les produits en assurance
automobile, habitation, épargne-vie et autres garanties
professionnelles. Tel est le cas par exemple de la start-up Tractable qui
s'appuie sur l'intelligence artificielle pour proposer aux assureurs un
système d'évaluation des dommages et d'estimation des coûts
de réparation en temps réel en assurance automobile20 et les
évènements climatiques,21 le but étant
d'accélérer la gestion de ces sinistres. Mais on peut
également citer Luko, une néo-assurance habitation qui combine
imagerie satellite et intelligence artificielle pour déterminer les
caractéristiques principales de l'habitation. En pratique, après
avoir renseigné son adresse, le souscripteur sélectionne son
terrain, et l'intelligence artificielle se charge de détecter « la
surface du toit, la superficie du terrain, une piscine et d'autres variables22
» afin de proposer un rapport de risques, et des conseils
19
https://bonne-assurance.com/actualites/2018/11/25/doit-on-craindre-une-entree-des-geants-du-web-dans-le-monde-de-lassurance/
20
https://tractable.ai/products/vehicle-damage/
21
https://tractable.ai/products/disasters/
22
https://www.luko.eu/blog/garanties-assurance-maison-luko
17/97
personnalisés (« rappel pour élaguer des
arbres dangereux pour la toiture, alerte en cas d'incendie de forêt,
montée des eaux, etc23 »).
Il faut cependant tempérer l'idée selon laquelle
les assurtechs constituent une menace en termes de concurrence pour les acteurs
traditionnels. En effet, selon l'étude menée par le pôle
FinTech Innovation de l'Autorité de Contrôle Prudentiel et de
Résolution (ACPR) en 2018 sur la révolution numérique dans
le secteur de l'assurance24, les assurtechs ne sont en réalité
pas perçus comme des concurrents pour les acteurs traditionnels de
l'assurance française mais comme des partenaires, qui pourront leur
permettre de pouvoir tirer profit de l'intégration des nouvelles
technologies que les acteurs traditionnels ne peuvent développer
eux-mêmes en interne. On peut d'ailleurs souligner à titre
d'exemple Covéa25, qui s'appuie justement sur les services offerts par
Tractable pour les dommages causés aux véhicules26.
Quoiqu'il en soit, selon l'étude menée par le
pôle FinTech Innovation de l'Autorité de Contrôle Prudentiel
et de Résolution en 2018 sur la révolution numérique dans
le secteur de l'assurance27, l'Autorité souligne que l'intelligence
artificielle est perçue par les compagnies d'assurance comme un axe de
développement très prometteur qui, combinée avec les
optimisations de processus liées au numérique, pourrait avoir des
incidences sur les conditions de travail.
Il apparait donc nécessaire pour les acteurs
traditionnels du secteur de délaisser le fonctionnement en silos - qui
consiste à ce que chaque service de l'entreprise travaille sur ses
propres spécialités sans se soucier des activités et
contraintes des autres services - afin de favoriser approche transverse et
complémentaire des métiers et afin de pouvoir tirer parti de tout
le potentiel offert par l'intelligence artificielle.
En réalité, outre cette approche transverse et
complémentaire des métiers, l'intelligence artificielle doit
permettre une automatisation plus ou moins importante des tâches, afin de
gagner en productivité, et de concentrer l'activité autour de la
relation avec le client.
23
https://www.luko.eu/blog/garanties-assurance-maison-luko
24 Autorité de Contrôle Prudentiel et de
Résolution, Étude sur la révolution
numérique dans le secteur français de
l'assurance, n°87 - Mars 2018
25 Covéa est un groupe d'assurance mutualiste
français regroupant les marques MAAF, MMA et GMF. Pour plus de
détails :
https://www.covea.eu/fr
26
https://www.decisionatelier.com/Covea-pousse-le-digital-dans-le-cadre-de-la-gestion-de-sinistre,11306
27 Autorité de Contrôle Prudentiel et de
Résolution, Étude sur la révolution
numérique dans le secteur français de
l'assurance, n°87 - Mars 2018
II. L'optimisation opérationnelle par
l'automatisation des processus
18/97
D'un point de vue opérationnel, l'intelligence
artificielle constitue un axe majeur de développement, avec plus ou
moins d'opportunités selon les cas d'usage espérés.
Pour rappel, l'intelligence artificielle est un terme
générique, puisqu'on compte une grande multitude de divisions,
spécialisées sur des points précis. Ainsi, le Machine
learning constitue une division de l'intelligence artificielle visant
à faire apprendre aux machines sans avoir été
préalablement programmées à cet effet. Le Machine
Learning est explicitement lié au Big Data, étant
donné que pour apprendre et se développer, les ordinateurs ont
besoin de flux de données à analyser, et sur lesquels ils peuvent
s'entraîner28. Au sein même de cette division, il existe plusieurs
variantes du machine learning, qui peut être supervisé,
non-supervisé, ou s'appuyer sur le deep learning. Le deep
learning, ou apprentissage profond, s'appuie sur un réseau de
neurones artificiels cherchant à imiter le fonctionnement du cerveau
humain, le but étant de reproduire les fonctions cognitives et
d'interprétation propres au cerveau humain afin de pouvoir proposer des
solutions pertinentes à un problème donné. En ce sens, le
deep learning a vocation à être utilisé dans de
nombreux domaines, qu'il s'agisse de la reconnaissance d'image, de la
traduction automatique, des recommandations personnalisées, des agents
conversationnels, ou encore de la prédiction financière
automatisée29.
En marge du machine learning, plusieurs divisions de
l'intelligence artificielle visent à reproduire certaines fonctions
cognitives (voir annexe 2), que sont :
- le Natural language processing, ou
traitement automatique du langage naturel
(abrégé TALN), constituant une division de
l'intelligence artificielle. Ce procédé vise à permettre
aux ordinateurs de comprendre le langage humain, dans le but de permettre aux
machines de lire, déchiffrer, comprendre et donner sens au langage
humain30.
- la voix, avec le développement des
procédés de reconnaissance automatique de la parole
visant à retranscrire la voix humaine captée via un
microphone sous la forme d'un texte exploitable par la machine (et vice
versa).
- ou encore la vision, par les procédés de
reconnaissance et l'analyse automatique d'éléments
présents dans des images ou des vidéos.
28
https://ia-data-analytics.fr/machine-learning/
29
https://www.futura-sciences.com/tech/definitions/intelligence-artificielle-deep-learning-17262/
30
https://www.lebigdata.fr/traitement-naturel-du-langage-nlp-definition
Sans reprendre de manière exhaustive tous les cas
d'usage rendus possibles par le recours aux nouveaux procédés
d'intelligence artificielle, il convient d'en rappeler les grandes lignes. En
parcourant les différents travaux existants en la matière, force
est de constater que l'intelligence artificielle entend bousculer l'ensemble
des processus de l'assurance.
D'abord, s'agissant de l'entrée en
relation, les nouveaux procédés d'intelligence
artificielle vont permettre la création de produits et d'offres plus
personnalisés, mais également permettre le développement
des assistants intelligents pour le conseil au client et la formalisation de ce
conseil. Sur ce dernier point, des initiatives existent déjà en
pratique.
En effet, le Crédit Mutuel utilise depuis 2017 les
solutions offertes en matière d'intelligence artificielle par IBM
Watson. Plus particulièrement, le système mis en place est
composé d'un assistant virtuel disponible pour chaque client afin de les
renseigner sur des interrogations précises, mais également
d'outils spécifiques à destination des chargés de
clientèle. En ce sens, une solution cognitive vise à analyser les
mails afin d'identifier et alerter le chargé de clientèle des
demandes les plus fréquentes, des demandes urgentes ou des
recommandations d'actions à mettre en place dans le suivi de la relation
client. En plus, le système propose un second outil sous la forme d'un
assistant virtuel (via des procédés de NLP) devant aider les
conseillers commerciaux dans leur recherche d'informations sur l'intranet
concernant des produits commercialisés par l'entreprise31.
Ensuite, l'intelligence artificielle doit pouvoir
répondre aux nouveaux enjeux posés par la gestion de la
relation client. En ce sens, elle doit permettre d'analyser et
orienter plus efficacement et rapidement les correspondances des
assurés, identifier et optimiser les opportunités de vente
additionnelle en fonction du contexte et du profil de l'assuré, et
identifier les signaux faibles afin de modéliser les risques de
résiliation.
En l'état, il faut souligner que c'est dans la gestion
de la relation client que les premières initiatives ont
émergé, par le recours aux chatbots, aux
procédés OCR, ou encore à l'automatisation de certaines
tâches comme les rappels automatiques ou les recommandations.
Néanmoins, le développement du machine learning et du
deep learning doit permettre de franchir une nouvelle étape
pour répondre à deux objectifs majeurs, que sont d'une part le
besoin d'une disponibilité sans cesse plus grande afin de
répondre rapidement aux demandes
19/97
31
https://www.creditmutuel.com/fr/actualites/watson-nouvelle-solution-innovante-au-service-du-reseau-et-de-la-relation-client.html
d'assurés toujours plus exigeants, et d'autre part la
recherche d'anticipation afin de détecter au plus tôt les signaux
négatifs pouvant entacher la relation entre l'assureur et son
assuré.
Mais comme le souligne le livre blanc publié par La
Fabrique d'assurance publié en novembre 201932, « depuis toujours
dans le secteur de l'assurance, le client ne découvre réellement
la valeur de son contrat qu'au moment du sinistre ». En ce sens, la phase
de gestion des sinistres est une phase particulièrement
importante dans la relation entre l'assureur et l'assuré, puisque c'est
précisément à ce moment que l'assuré mesure la
qualité du service rendu par son assureur. C'est donc naturellement dans
ce champ que l'utilisation des outils d'intelligence artificielle
présente un intérêt tout particulier. En effet, le recours
à ces nouveaux procédés doit permettre d'une part, une
optimisation du temps de gestion, en hiérarchisant et distribuant les
dossiers en fonction de leur complexité pour faciliter leur traitement.
En ce sens, l'intelligence artificielle doit permettre d'automatiser le
contrôle de certaines pièces et la gestion de certaines
prestations ne présentant pas de difficultés particulières
afin de permettre au collaborateur de se concentrer davantage sur des dossiers
plus techniques et complexes.
En l'état des avancés en la matière, le
recours à l'intelligence artificielle pourrait être
utilisée pour automatiser une partie des dossiers en assurance
automobile ou en assurance habitation. Par exemple, dans le cadre de dommages
légers sur un véhicule suite à un accident entre deux
véhicules, l'intelligence artificielle pourrait analyser les
éléments figurant sur le constat amiable, déterminer les
responsabilités au regard des règles applicables entre assureurs
et en droit commun, estimer le montant des dommages et laisser le collaborateur
proposer ensuite le montant de cette indemnité à son
assuré. Ainsi, l'assureur gagne du temps dans la gestion de sinistre,
mais économise également des frais d'expertise.
Bien entendu, il est nécessaire de distinguer entre la
théorie et la pratique. Si la théorie laisse entrevoir de belles
perspectives en la matière, la pratique nous force à les
tempérer. D'abord, l'automatisation de la gestion des dossiers ne peut
être totale. En effet, les intelligences artificielles étant
incapables de contextualiser de manière globale les choses, les dossiers
présentant une complexité et un degré d'expertise
élevés ne peuvent être délégués
à la machine. Surtout, si elle doit permettre d'optimiser la gestion des
dossiers, l'intelligence artificielle ne doit pas conduire à
éluder la relation entre l'assuré et l'assureur, puisque c'est
justement dans la phase de sinistre que cet échange est primordial.
20/97
32 La Fabrique d'assurance, Intelligence artificielle et
éthique dans le secteur de l'assurance,
livre blanc, novembre 2019
21/97
Enfin, l'intelligence artificielle présent un
intérêt particulier s'agissant la mise en
conformité et la lutte contre les formes de fraude à
l'assurance.
D'une part, le coût de la fraude à l'assurance
serait estimé à 2,5 milliards d'euros chaque année33.
Devenu un enjeu majeur dans le secteur de l'assurance, les systèmes de
détection de fraude existant actuellement peinent à les
identifier, en raison de leur manque de flexibilité et de
complexité. Or, la fraude étant par nature sous-jacente et
dynamique, l'utilisation du deep learning « peut fournir des
outils plus performants, aider à mieux cibler les opérations
douteuses ainsi qu'améliorer la découverte des nouveaux types de
fraudes34 ».
D'autre part, le secteur de l'assurance est marqué par
une réglementation abondante et contraignante. Qu'il s'agisse des
règles de solvabilité contenues dans la paquet européen
« Solvabilité », des obligations issues de la
législation en matière de lutte et d'identification des
réseaux de fraude, de blanchiment et financement du terrorisme, des
règles applicables en matière de protection des données
à caractère personnel ou encore celles relatives au droit de la
consommation, l'intelligence artificielle doit permettre d'optimiser le respect
de ce cadre. Ainsi, par exemple, l'intelligence artificielle peut être
intégrée dans des outils de collecte des données afin de
vérifier la conformité de la collecte au Règlement
général sur la protection des données (RGPD), ou encore
être intégrée dans des outils de production de rapports et
de reporting qui, en plus de rendre compte des principaux indicateurs
nécessaires à vérifier la conformité, pourrait
proposer des axes d'amélioration sur la base de l'analyse de ces
indicateurs.
En somme, si l'intelligence artificielle entend modifier tous
les processus traditionnels des organisations du secteur, elle appelle
néanmoins quelques remarques.
D'abord, l'idée générale n'est pas,
contrairement à ce que sous-tendent les thèses alarmistes sur la
question, de remplacer l'Homme dans ses diverses tâches, mais bien de
l'assister. Dans ce contexte, l'intelligence artificielle vise à
automatiser les tâches les plus répétitives afin que le
collaborateur puisse se concentrer sur les tâches plus complexes et qui
permettent de créer de la valeur.
Ensuite, l'intelligence artificielle n'est pas ce qui
déclenche la digitalisation du secteur mais constitue un facteur
d'accélération et d'automatisation qui nécessite une
approche en termes de compétences. Le métier évolue et les
acteurs doivent donc inclure une montée en compétences de leurs
collaborateurs.
33
https://www.actuia.com/contribution/jean-cupe/la-data-science-a-la-rescousse-des-assurances/
34
https://www.actuia.com/contribution/jean-cupe/la-data-science-a-la-rescousse-des-assurances/
22/97
Enfin, l'intelligence artificielle vise avant tout à
modifier une organisation jusqu'alors trop lourde, dont les strates successives
complexifient les processus décisionnels, afin de gagner en
efficacité opérationnelle et répondre au besoin
d'instantanéité et de personnalisation.
Ainsi, outre le gain de productivité que l'intelligence
artificielle promet, cette dernière doit également permettre la
réalisation d'économies d'échelle notables par
l'automatisation des tâches répétitives.
Dans ce contexte, l'intelligence artificielle s'inscrit comme
un moteur essentiel au développement de nouvelles activités
à forte valeur ajoutée centrées sur le client.
Section 2. L'intelligence artificielle,
moteur essentiel au développement de nouvelles activités à
forte valeur ajoutée centrée sur le client
Comme nous avons pu le développer dans la
précédente section, l'intelligence artificielle s'impose comme un
outil essentiel de décloisonnement des services internes à
l'entreprise, et permet en outre de cultiver la transversalité en
remettant en cause les processus existants jusqu'alors. L'assurance (et d'une
manière plus générale le tertiaire), est un secteur dans
lequel la relation avec client occupe une place centrale. Dans ce contexte,
l'intelligence artificielle vise à apporter une réponse
concrète et efficace à l'ère de la considération
(I), étant par ailleurs souligné que c'est en matière de
prévention que l'assurance est en mesure de pouvoir tirer pleinement
bénéfice de ces nouveaux procédés (II).
I. Une réponse pertinente à l'ère de la
considération
Les clients ont parfaitement intégré les
nouveaux usages induits par le numérique, changeant ainsi leurs modes de
consommation. D'une manière générale, la relation entre le
consommateur et l'assureur est caractérisée par l'utilisation de
plusieurs canaux, cumulant l'utilisation des modes de communication
traditionnels et numériques. Ainsi, par exemple, un client s'informe sur
le site web d'un assureur et/ou utilise un comparateur en ligne, puis se rend
en agence pour contractualiser, bien que la signature du contrat soit
électronique. Pour sa déclaration de sinistre, il va se rendre en
agence pour déclarer son sinistre, mais va suivre l'évolution de
son dossier sinistre par son espace client en ligne, voire converser
directement avec son conseiller sinistre par téléphone ou par
mail.
23/97
À cet égard, les dernières statistiques
rendues publiques par HootSuite sont sans appel et confirment cette tendance.
En effet, selon le dernier Digital Report pour la France35, plus de 58
millions de français sont connectés à Internet (soit 89%
de la population), et plus de 39 millions d'internautes utilisent les
réseaux sociaux. En outre, on compte 65,53 millions d'abonnements
mobile, et plus de 94% des internautes français (16-64 ans) utilisent un
téléphone portable pour se connecter à internet.
D'ailleurs, l'étude de l'ACPR sur la révolution numérique
dans le secteur français de l'assurance faisait le même constat
s'agissant de l'importance des usages mobiles.
Historiquement, le début des années 2000 a
conduit, dans le secteur de l'assurance, au passage d'une logique
centrée sur l'offre, à une logique tournée vers la
demande, plaçant ainsi le client au coeur de l'activité. Cette
tendance est la conséquence de deux évènements.
D'une part, le développement du web
2.0, qui a entrainé une utilisation massive des réseaux
sociaux, et a conduit le consommateur à s'informer par lui-même,
à comparer, mais également à s'exprimer plus librement et
en public sur les services proposés et leur qualité.
D'autre part, l'avènement du web mobile
a favorisé la convergence entre les usages traditionnels du web
et les possibilités de mobilité offertes par les nouveaux
terminaux et les évolutions techniques et technologiques successives
concernant les infrastructures réseaux. Dans ce contexte, les usages en
mobilité se sont donc développés36.
En réponse, les stratégies des entreprises du
secteur ont nécessairement dû s'adapter, afin de proposer des
offres et services répondant à ces nouveaux usages, dits
ATAWADAC. Cet acronyme, de l'anglais « anytime, anywhere, any device,
any content », décrit la capacité d'un utilisateur de
contenu ou service en situation de mobilité à se connecter et
accéder à ces contenus ou services n'importe quand, n'importe
où, et depuis n'importe quel appareil.
Surtout, dans un contexte fortement digitalisé,
globalisé, en évolution constante et sillonné de
sollicitations commerciales permanentes, l'individu cherche à être
considéré dans sa singularité. Ainsi s'est donc
développée ces dernières années une nouvelle
économie fondée sur la considération, dans
laquelle les marchés traditionnels évoluent pour intégrer
des mécanismes conversationnels entre d'une part, les entreprises et les
consommateurs, et d'autre
35
https://wearesocial.com/fr/digital-2020-france
36
http://marketing-webmobile.fr/2011/10/histoire-du-web-mobile/
24/97
part, entre les consommateurs eux-mêmes qui ont des
attentes particulières et de plus en plus fortes.
En témoigne un sondage réalisé par
OpinionWay pour Amaguiz.com37, lequel souligne que « le
développement des smartphones et des objets connectés a rendu les
Français, tous âges confondus, considérablement plus
exigeants dans la relation client ». Plus
particulièrement, 51% des répondants en attendent plus concernant
la pertinence des informations qu'ils reçoivent, 49% concernant la
disponibilité des informations, 49% s'agissant de la simplicité
des services, et 49% s'agissant de la clarté de l'information.
Surtout, l'économie de la considération
s'inscrit comme un levier de vente. À cet égard,
l'étude réalisée par le cabinet Roland Berger est assez
intéressante puisqu'elle a permis d'établir que près de 86
% des consommateurs sont prêts à payer un supplément pour
une expérience de meilleure qualité et 66 % des consommateurs
vont recommander une marque s'ils se sentent considérés par
elle38.
Dès lors, dans un secteur où l'information
constitue la matière première de toute activité, les
assureurs doivent donc revoir toute leur stratégie. Il est donc
nécessaire pour les assureurs d'intégrer ces nouveaux usages, ce
qui suppose d'optimiser à la fois la qualité de leur service mais
également l'expérience client, par une refonte complète du
parcours de l'assuré dont le modèle traditionnel semble
épuisé et inadapté. En effet, il ne s'agit pas uniquement
de maitriser le risque et sa nature dans une logique purement statistique et
historique, mais de prendre individuellement chaque assuré (et ses
besoins particuliers) en considération. À ce titre, l'enjeu est
donc aujourd'hui de connaitre intimement chaque cas particulier, afin d'une
part, de construire avec l'assuré une relation privilégiée
et d'autre part, lui proposer une solution toujours plus personnalisée,
répondant à ses besoins. Ainsi, tout l'enjeu est donc de
trouver un équilibre entre industrialisation des traitements de masse,
distribution des produits assurantiels standardisés, et
nécessité d'individualisation des réponses.
37 Amaguiz était une marque commercialisée par
Amaline, filiale du groupe Groupama, dont le modèle économique
reposait sur une offre de produits et de garanties à la carte et
modulable. Créée en 2008, Amaline distribuait ses produits
d'assurance automobile, habitation, santé, prévoyance et
chiens/chats uniquement par internet et par téléphone. Depuis le
début de l'année 2020, la marque a cessé de commercialiser
ses produits, et le portefeuille de clients a été
redistribué entre les différentes caisses régionales de
Groupama. Pour plus de détails :
https://www.groupama.com/fr/notre-modele/marques/amaguiz/
38
https://www.forbes.fr/business/comment-le-club-med-dope-ses-ventes-grace-a-la-consideration-client/
C'est donc dans ce contexte que s'inscrit
l'intelligence artificielle, qui semble pouvoir apporter une solution
concrète à un besoin de considération de plus en plus
croissant. Elle doit permettre de mieux collecter les informations
relatives aux assurés, de mieux les traiter et surtout, d'en tirer
pleinement partie afin de valoriser l'échange et la relation avec
l'assuré. Ainsi, à titre d'exemple, l'intelligence artificielle
peut adresser au conseiller clientèle des recommandations sur des
produits d'assurance spécifiques à faire souscrire à un
assuré du portefeuille sur la base des informations concernant cet
assuré, permettant d'augmenter le sentiment de considération, la
vente additionnelle, et satisfaire le devoir de conseil omniprésent dans
le secteur assurantiel.
Mais outre permettre d'apporter une réponse au besoin
de considération des clients qui se veulent de plus en plus exigeants
s'agissant du service leur étant rendu, une autre activité semble
pouvoir tirer pleinement partie de l'intelligence artificielle : la
prévention.
II. Vers une prévention augmentée par le recours
à l'intelligence artificielle
La prévention et la culture du risque ont toujours
existé dans le domaine de l'assurance. Outil de sensibilisation, mais
également indirectement de maitrise des risques, cette
activité fait partie intégrante du rôle de l'assureur
(1). À ce titre, le recours à l'intelligence
artificielle n'entend pas supprimer cette activité traditionnellement
exercée par les assureurs, mais doit permettre sa refonte en profondeur
(2).
1. La prévention et la culture du risque,
rôles traditionnels de l'assureur
Dans sa plaquette synthétique du 13 mai 201939, la
Fédération Française de l'Assurance (FFA)
présentait l'impact de l'assurance sur l'emploi, le développement
économique, l'apport social et sociétal, ainsi que la
prévention et la culture du risque. A cet égard, la
Fédération faisait le constat suivant : «
l'assurance est un métier et un secteur économique au
coeur de la vie des Français. Les assureurs accompagnent les
ménages et les entreprises au quotidien : ils les protègent face
aux aléas de la vie et développent la prévention des
risques dans leurs activités personnelles comme professionnelles. Ce
sont aussi des investisseurs, qui financent les projets des entreprises et des
collectivités sur le long terme et qui soutiennent
25/97
39 Fédération Française de l'Assurance,
L'assurance dans les territoires, 2019
26/97
la croissance. Enfin, les assureurs sont des acteurs
majeurs du développement des territoires : ils encouragent l'emploi
local, soutiennent l'attractivité économique des villes et des
régions et renforcent la cohésion sociale grâce à
leurs actions de mécénat ». En ce sens, la
prévention et la culture du risque font partie intégrante du
rôle de l'assureur, le but étant d'éviter au maximum la
survenance d'un sinistre.
Actuellement, cette activité s'exerce par
l'éducation et la sensibilisation des assurés face à
certains risques. Elle se manifeste en outre par le développement de
partenariats spécifiques et l'organisation d'évènements
autour de thématiques précises. Mais il faut également
souligner l'action de l'association Assurance Prévention, qui regroupe
les sociétés d'assurance et de réassurance
adhérentes de la Fédération Française de
l'Assurance. L'association est chargée de concevoir et déployer
des actions de sensibilisation aux risques courants, seule ou en partenariat
avec d'autres organismes. Ainsi, à titre d'exemple, pendant la
période de confinement, l'association a publié une série
de conseils pour prévenir les risques cyber, les incendies, les
accidents domestiques, les vols et les dégâts des eaux40.
En somme, si l'activité de prévention et la
culture du risque sont des activités traditionnelles des assureurs, il
faut toutefois souligner que le recours à l'intelligence artificielle
offre des perspectives quant à la manière dont cette
activité est exercée.
2. Une approche agile et personnalisée de la
prévention par le recours à l'intelligence artificielle
S'agissant de la prévention, Jean-Pierre DIGUET,
directeur assurance de la Fédération Nationale de la
Mutualité Française (FNMF) et Jean-Charles GROLLEMUND,
Président de la Commission Innovation du Centre Technique des
Institutions de Prévoyance (CTIP), soulignaient que «
l'assureur accompagne l'usager tout au long de sa vie. Il est
incontournable lors de la réalisation du risque assuré.
Grâce au déploiement de la prévention, qui apparaît
aujourd'hui dans la majorité des contrats, l'assureur devient
prescripteur voire précepteur dans un objectif de non-réalisation
des risques41 ».
40
https://www.assurance-prevention.fr/prevenir-incendies-accidents-domestiques-cambiolage-degat-des-eaux
41 La Fabrique d'assurance, Intelligence artificielle et
éthique dans le secteur de l'assurance, livre blanc,
novembre 2019
27/97
Mais tout l'enjeu est de savoir dans quelle mesure et selon
quels moyens l'intelligence artificielle entend impacter cette activité
de prévention. À cet égard, il convient d'ores et
déjà de souligner que cette transformation ne peut se
faire par le seul recours à l'intelligence artificielle. En
effet, pour qu'une approche de prévention puisse être pertinente,
elle suppose des données suffisamment précises sur
l'assuré et son environnement, ainsi que des outils de traitement de
cette information. Ainsi, pour qu'une prévention augmentée
fondée sur la personnalisation des conseils et anticipation des risques
soit possible, il est nécessaire de s'appuyer sur une combinaison de
technologies.
La première est bien entendu celle de
l'internet des objets et des objets connectés. Ces
objets, capables de capter, stocker, traiter et transmettre des données
selon la finalité à laquelle ils sont destinés, n'a
cessé de croitre ces dernières années, et la tendance est
prévue à la hausse dans les années à venir42. Cette
tendance témoigne d'un changement de paradigme : le passage d'une
ère des ordinateurs centraux, puis personnels à celle
qualifiée de web ubiquitaire, dans laquelle le traitement de
l'information a été pleinement intégré dans tous
les objets et activités journalières43. Ainsi, l'informatique et
le web deviennent invisibles, ambiants, distribués et
intégrés, permettant de capter, analyser et valoriser les
données collectées.
La deuxième concerne le développement des
outils de traitement de l'information, et plus particulièrement
ceux rendus nécessaires par le big data, dont les
données sont par nature importantes en volume, en variété
et en vitesse. Elles requièrent donc de recourir à des
technologies de stockage de l'information et de traitement particulières
afin d'assurer leur gestion et traitement en temps réel.
Dans ce contexte, il est incontestable que l'assurance puisse
profiter de la généralisation des données
générées par l'utilisation de ces objets. Par exemple,
l'émergence des offres payas-you-drive permet une
tarification personnalisée selon l'utilisation réelle du
véhicule par recours aux données de géolocalisation
transmises à l'application mobile de l'assureur. Mais dans une logique
de prévention, peuvent également se développer les
offres dites pay-how-you-drive qui visent à analyser
les habitudes et les manières de conduite, et d'adapter le montant de la
prime d'assurance en fonction. Visant clairement à valoriser les bons
comportements, un score est attribué au conducteur sur la base des
éléments recueillis et analysés. Outre la
possibilité pour l'assuré de récupérer une partie
de la prime d'assurance versée à la fin de l'année, ce
système peut, en intégrant des algorithmes d'intelligence
42
https://www.statista.com/topics/2637/internet-of-things/
43
http://dictionnaire.sensagent.leparisien.fr/Informatique%20ubiquitaire/fr-fr/
artificielle, tendre vers une meilleure prévention. En
effet, des données recueillies sur la manière de conduire, le
système peut être capable d'étudier les pistes
d'amélioration et fournir à l'assuré des conseils
pratiques pour améliorer sa conduite.
Mais si le domaine de l'assurance automobile semble
propice à cette démarche de prévention, force est
toutefois de constater que celle-ci peut également être
déclinée dans l'ensemble des branches de l'assurance. En
effet, en matière d'assurance de personne, les
données collectées par le biais par exemple des montres
connectées peuvent permettre à l'assureur de diffuser des
conseils relatifs à l'activité physique ou au sommeil. S'agissant
des personnes plus âgées, l'internet des objets
et l'intelligence artificielle peuvent, dans une logique de
complémentarité, améliorer le suivi des patients et la
prévention des maladies, ce qui permettra une prise en charge plus
personnalisée, et renforcera la qualité des soins44. Enfin, en
matière de risques industriels, et d'analyse des
risques de plusieurs sites simultanés, le recours à
l'intelligence artificielle peut permettre de réaliser une
première analyse concernant l'emplacement des sites, leur construction,
leur gestion, mais également les facteurs de
vulnérabilités, afin de proposer dans un second temps une
démarche préventive personnalisée45.
Cependant, si l'intelligence artificielle offre de belles
perspectives aux assureurs quant à la possibilité de tendre vers
une plus grande personnalisation des offres et des services proposés aux
assurés, ce mouvement de personnalisation pose toutefois la question de
la compatibilité du recours à l'intelligence artificielle avec le
principe fondamental de la mutualisation des risques.
28/97
44
https://www.innovation-mutuelle.fr/actualite/lintelligence-artificielle-une-opportunite-pour-les-
mutuelles/#:~:text=En%20effet%2C%20l'assureur%20accompagne,de%20non%20r%C3%A9alisation%20des%20risques
45
https://axaxl.com/fr/fast-fast-forward/articles/intelligence-artificielle-prevention-des-risques
29/97
Chapitre 2 :
L'impact de l'intelligence artificielle sur le principe
de mutualisation des risques
Le modèle assurantiel repose sur un mécanisme de
partage des risques. En ce sens, la mutualisation des risques, pilier
du modèle assurantiel traditionnel (Section 1) consiste
à répartir le cout de la réalisation d'un sinistre entre
les membres d'un groupe soumis potentiellement au même risque. Dans ce
contexte, l'intelligence artificielle offre de nouvelles méthodes
d'analyse des données, de sorte qu'une utilisation dans le domaine de
l'assurance permettrait de développer de nouvelles
méthodes d'analyse des risques plus précises et dynamiques
(Section 2), le but étant de pouvoir proposer une offre
segmentée et personnalisée aux souscripteurs. Néanmoins,
si le recours à l'intelligence artificielle laisse entrevoir de
nouvelles perspectives en termes d'analyse des risques, une personnalisation
des offres poussée à l'extrême laisse craindre la
disparition de la mutualisation des risques, pourtant au coeur du
fonctionnement de l'assurance (Section 3).
Section 1. L'appréhension et la mutualisation
des risques, piliers du modèle assurantiel traditionnel
Schématiquement, suivant le principe de mutualisation
des risques (qui consiste, rappelons-le, à répartir le cout de la
réalisation d'un sinistre entre les membres d'un groupe soumis
potentiellement au même risque), l'assureur collecte les primes
de tous les assurés et utilisent ce montant pour dédommager ceux
qui auront subi un sinistre (voir annexe n° 3).
Pour pouvoir fonctionner, la mutualisation suppose donc une
analyse précise des risques. En effet, en mesurant le
niveau de risque, mais aussi les conséquences et le coût des
sinistres, l'assureur peut calculer le montant optimal de la prime à
faire payer à l'ensemble des assurés. S'il se trompe et que la
prime est trop basse, il n'aura peut-être pas assez d'argent pour payer
tous les sinistres et devra en régler une partie lui-même. Si les
revenus financiers ne compensent pas cette sous-estimation des coûts,
cela peut le mettre en péril46.
46
https://openclassrooms.com/fr/courses/6172816-environnement-de-l-assurance/6418781-le-principe-de-la-mutualisation-et-le-transfert-
des-risques#:~:text=Le%20principe%20de%20mutualisation%20des,soumis%20potentiellement%20au%20m%C3%AAme%20risque.
30/97
Dans le langage commun, le risque est défini comme la
possibilité, la probabilité d'un fait, d'un
événement considéré comme un mal ou un dommage47.
Dans une logique assurantielle, la notion de risque renvoie à deux
acceptions : le « risque objet » et le «
risque évènement ».
Le risque objet fait
référence à ce qui supporte le risque
évènement. Il correspond à une chose dans
l'assurance de biens (un bâtiment, une automobile, les animaux
ou les récoltes d'une exploitation agricole, etc.), et à
une personne dans le cadre de l'assurance de responsabilité
(auteur des dommages causés à un tiers) ou de
l'assurance vie.
Le risque évènement est
l'évènement qui affecte le risque objet. Dans
cette acception, le risque renvoie à un évènement
aléatoire, c'est-à-dire un évènement futur,
incertain et qui ne dépend pas exclusivement de la volonté des
parties. Plus concrètement, il peut s'agir par exemple de la destruction
d'un bien pour une cause déterminée, du dommage causé
engageant la responsabilité civile de l'assuré, de la disparition
de la personne ou d'une atteinte à l'intégrité
physique.
Dans le cadre de ses activités, une des tâches
les plus importantes d'une compagnie d'assurance est de gérer
efficacement les risques auxquels elle s'expose en assurant des clients48. Pour
ce faire, les critères d'assurabilité d'un risque sont
traditionnellement classés en trois catégories.
La première catégorie regroupe les
critères qui relèvent de l'activité actuarielle
des compagnies, qui vise à une gestion maitrisée du
risque. Plus particulièrement, par l'utilisation des techniques
mathématiques (probabilités, statistiques), le but est
d'identifier, de modéliser et de gérer les
conséquences financières qui découlent
d'évènements incertains49. Dans cette catégorie,
l'enjeu est de pouvoir cerner avec précision l'aléa quant
à la survenance du risque évènement, l'absence de
corrélation entre les risques, les pertes maximales qui peuvent
être évaluées et couvertes. Dans ce contexte, l'approche
actuarielle vise à non seulement à déterminer la
charge moyenne de la prestation de l'assureur en cas de réalisation du
risque évènement, mais également la prime qui devra en
contrepartie être réglée par l'assuré.
47
https://www.larousse.fr/dictionnaires/francais/risque/69557?q=risque#68805
48 Jean-Philip Dumont, Gestion des risques des
compagnies d'assurance : une revue de la littérature
récente, Assurances et gestion des risques, vol. 79
(1-2), avril-juillet 2011, 43-81
49
https://euria.univ-brest.fr/menu/menu_1/Le_Metier_d_Actuaire/Qu_est-ce-qu_un_Actuaire__/
31/97
La deuxième catégorie vise à
l'analyse du risque par une vision de
marché. Pour que le risque puisse être
mutualisé, il ne suffit pas uniquement que le risque revêt les
caractéristiques classiques exposés précédemment
(évènement futur et incertain échappant à la
volonté des parties). En effet, dans une logique de marché
guidée par l'offre et la demande, il faut naturellement qu'il
émane des particuliers, entreprises ou collectivités
exposés au risque, une demande quant à la prise en charge
de ce risque par l'assureur. Ce n'est donc qu'en contrepartie de
l'existence d'une demande des personnes et organisations directement
exposées au risque que les assureurs pourront proposer une offre
corrélée au risque, c'est-à-dire une offre
adaptée aux besoins exprimés et propres à chacune des
personnes ou organisations exposée au risque.
De la même manière, l'approche actuarielle vise
à définir de manière précise le risque, le but
étant de déterminer non seulement la charge de la prestation qui
pèsera sur la compagnie d'assurance en cas de sinistre, mais
également la prime qui devra être versée par
l'assuré. Dans une logique de maitrise des coûts, le transfert du
risque à l'assurance suppose, d'une part, que la charge pesant
sur l'assureur ne soit pas disproportionnellement élevée en cas
de sinistre, et d'autre part, que la prime payée par les assurés
ne soient pas exorbitantes.
En effet, il convient de rappeler que les assureurs
sont tenus, en vertu du cadre « Solvabilité II50 », de
garantir une marge de solvabilité suffisante en fonction des
risques, le but étant pour chaque assureur et réassureur
de comprendre les risques inhérents à son activité afin de
pouvoir allouer suffisamment de capital pour les couvrir. Il est donc
nécessaire pour chaque compagnie de déterminer avec
précision le risque pris en charge, l'idée étant
de ne pas prendre en charge un risque qui aurait un impact significatif sur la
marge de solvabilité des assureurs.
50 Directive 2009/138/CE du Parlement européen et du
Conseil du 25 novembre 2009 sur l'accès aux activités de
l'assurance et de la réassurance et leur exercice (Solvabilité
II). Le texte a été transposé en droit français par
l'Ordonnance n°2015-378 du 2 avril 2015, parue au Journal Officiel du 3
avril 2015. La directive vise à harmoniser la règlementation dans
l'Union européenne, d'accroitre la transparence de la communication
financière des assureurs et de garantir leur aptitude à honorer
les engagements pris envers les personnes garanties. L'idée principale
est donc d'assureur l'adéquation entre les risques liés à
l'activité d'assurance et le capital alloué pour couvrir ces
risques. Pour y parvenir, le dispositif repose sur trois piliers :
- Les exigences quantitatives,
c'est-à-dire les règles de valorisation des actifs et des
passifs, les exigences de capital et leur mode de
calcul ;
- Les exigences qualitatives,
c'est-à-dire les règles de gouvernance et de gestion des risques,
ainsi que les règles relatives à l'audit
(évaluation propre des risques de la solvabilité)
;
- Les informations à destination du public et des
autorités de contrôles. La directive harmonise à
cette fin les éléments qui doivent être
communiquées au public et aux autorités de
contrôle prudentielle. En France, l'Autorité de Contrôle
Prudentielle et de Résolution (ACPR), autorité adossée
à la Banque de France, est en charge de l'agrément et de la
surveillance des établissements bancaires, d'assurance et leurs
intermédiaires.
Par ailleurs, pour que ce risque puisse faire l'objet d'un
transfert à l'assureur, encore faut-il que le coût de la prime
soit raisonnable pour chacun des assurés. Cela suppose
dès lors que la prime soit jugée abordable par les prospects au
regard de la couverture offerte pour que ce risque soit transféré
à l'assurance.
Enfin, la prestation d'assurance est
matérialisée par la conclusion d'un contrat entre l'assureur et
l'assuré. Ce contrat, bien qu'il soit spécifique, est soumis aux
règles classiques du droit des contrats, qui suppose notamment que
l'objet et la cause soient licites. Ainsi, du fait de l'existence de certaines
restrictions légales à la couverture de certains risques, il est
donc vital pour une compagnie d'assurance de prendre en
considération des dispositions règlementaires en vigueur lors de
l'étude de l'assurabilité d'un risque.
C'est dans ce contexte que l'assurance peut donc profiter des
possibilités offertes par l'intelligence artificielle afin de
procéder à une analyse plus précise et surtout plus
dynamique des risques.
Section 2. L'usage de l'intelligence
artificielle, méthode d'analyse du risque plus précise et
dynamique
Le cabinet McKinsey&Company s'est intéressé
dans son rapport51 aux impacts de l'intégration du machine
learning dans douze secteurs d'activités clés de
l'économie. Ainsi, s'agissant du secteur de la finance, l'étude
conclut que le principal avantage procuré par l'utilisation de
l'intelligence artificielle est la personnalisation des produits et services,
ainsi que l'évaluation des risques. Dans ce contexte,
l'intelligence artificielle s'impose comme une réponse efficace
aux risques émergents et complexes (I) et vise à
corriger l'asymétrie d'information prévalant jusqu'alors dans les
rapports entre l'assuré et l'assureur (II).
I. Le recours à l'intelligence artificielle en
réponse aux risques émergents et complexes
32/97
51 McKinsey Global Institue, The age of analytics :
competing in a data-driven world, décembre 2016
33/97
Avant de s'intéresser à la manière dont
l'intelligence artificielle entend révolutionner l'étude des
risques, il faut nécessairement s'intéresser au contexte. Sur ce
point, il faut d'ores-déjà souligner l'existence de deux
tendances.
D'une part, les assurés, qu'il s'agisse des
particuliers, collectivités territoriales ou encore des entreprises,
sont confrontés à des risques de plus en plus complexes
ou nouveaux, qui par nature faussent la loi des nombres sur laquelle
repose la logique assurantielle. En effet, pour estimer son tarif, un assureur
se fonde sur des statistiques tant internes qu'externes. Toutefois, si l'on
prend l'exemple d'un évènement climatique catastrophique, la
logique statistique n'a plus de sens pour un phénomène qui par
nature est rare et dérogatoire. De même, l'émergence de
nouveaux risques, comme le risque cyber, sont par nature dynamique et
corrélé, rendant très complexe l'analyse du risque sur la
base de simples données statistiques. Surtout, du fait de leur
complexité, il est difficile pour les compagnies de déterminer
avec précision la charge des sinistres pouvant en découler, et
qui dès lors peuvent potentiellement coûter très cher aux
assureurs et réassureurs52.
D'autre part, comme nous l'évoquions
précédemment, la société est devenue, du fait du
développement du numérique, de plus en plus connectée,
produisant par voie de conséquence un nombre toujours plus important de
données. L'entrée dans l'ère du web ubiquitaire
a permis le développement des usages mobiles et la
généralisation des objets connectés, dont la tendance
devrait s'accentuer ces prochaines années. De ce constat, les
données collectées sont également de plus en qualitatives
et précises, ce qui en fait une opportunité de taille en termes
de valorisation de ces données. Couplé à l'intelligence
artificielle, les assureurs pourront avoir une meilleure compréhension
des risques afin de pouvoir apporter une solution personnalisée.
Mais tout l'enjeu réside dans la manière
dont le processus d'étude du risque peut être
amélioré et précisé par le recours à
l'intelligence. En ce sens, l'intelligence artificielle doit permettre
d'établir le profil de risque, et de déterminer sur cette base
les probabilités de survenance d'un dommage, et surtout, d'adapter la
prime en fonction des caractéristiques du risque objet et du risque
évènement, tenant compte de l'environnement tant internet
qu'externe.
En tout état de cause, il est pour l'heure impossible
d'établir une liste exhaustive de la manière dont l'intelligence
artificielle entend révolutionner la manière dont le risque sera
appréhendé mais il peut néanmoins être donné
quelques exemples. Ainsi, l'utilisation des technologies d'analyse de texte et
de NLP pourraient permettre de scanner l'ensemble des
52
https://www.lesechos.fr/finance-marches/banque-assurances/il-y-a-des-risques-qui-sont-trop-grands-pour-le-marche-de-la-reassurance-
1132686
34/97
dossiers sinistres d'un assuré afin de
déterminer les fraudes potentielles, mais également pouvoir
établir un profil précis des risques et de la sinistralité
afin d'adapter la prime53. De même, associé à des
mécanismes de reconnaissance vocale et de discussion automatisée,
l'intelligence artificielle pourrait permettre par le développement de
chatbots de procéder à une première étude
du risque par une discussion avec l'assuré. L'IA serait donc en mesure
de découvrir les potentielles fausses déclarations, mais
également d'obtenir des informations précieuses quant à la
nature du risque, là où l'humain ne s'y attarderait pas.
Ainsi, comme le soulignait IBM dans son rapport sur l'impact
de l'intelligence artificielle dans le secteur de l'assurance54, le machine
learning et le deep learning peuvent être appliquées
sur un ensemble de données historiques pour aider les assureurs à
identifier les clients risquant de générer des scénarios
de pertes importantes. En conséquence, l'IA s'inscrit comme un outil
permettant de tirer parti de la donnée assurantielle, et permettrait
dès lors d'identifier des scénarios de pertes importantes
jusqu'alors indétectables et imprévisibles en recourant à
des techniques traditionnelles d'analyse des données.
Ces quelques perspectives appellent néanmoins
deux remarques.
D'abord, il faut rappeler qu'afin de pouvoir établir
des modèles dynamiques et précis, il est nécessaire de se
fonder sur des données suffisamment qualitatives, et surtout
suffisamment hétérogènes. En ce sens, afin de permettre de
créer de la valeur dans le processus de modélisation des risques,
il est nécessaire d'intégrer aux sources traditionnelles
(données internes relatives au client, comme ses coordonnées, ses
antécédents, les informations relatives au risque objet, etc.)
des sources de données dites non traditionnelles ou externes.
En effet, les données internes ne pas suffisantes pour fonder une
étude du risque pertinente car elles sont par nature limitées en
taille et en pertinence et se développent à un taux très
limité. Ainsi, les données de l'assurance sont de manière
générale très pauvres, surtout en assurance non-vie. Il
est donc nécessaire de s'appuyer sur des données externes, qui
permettront une meilleure contextualisation afin d'évaluer et classer
les risques, dans la mesure où elles ont par nature une portée
plus large et un potentiel plus important.
Ensuite, il faut rappeler que l'analyse du risque ne
peut se faire uniquement par le seul recours à l'intelligence
artificielle. En effet, si elle constitue indéniablement un
outil d'aide à la décision et de modélisation des risques,
il faut cependant rappeler qu'elle nécessite une quantité
importante de données qui se doivent d'être de qualité.
Cela suppose donc d'une
53
https://axaxl.com/fr/fast-fast-forward/articles/intelligence-artificielle-prevention-des-risques
54 IBM Power Systems, Considering the impact of AI in
insurance, Becky Humphreys, Sam Jones, Mark Woolnough, 2019
35/97
part que l'organisation se dote des infrastructures
nécessaires au big data, comme les bases de données NoSQL qui
sont par nature orientées vers l'analyse des données en masse,
les serveurs et supercalculateurs qui doivent permettre le stockage et le
traitement massif en temps réel des données introduites dans le
système. D'autre part, pour recueillir un nombre important de
données, l'analyse des risques va devoir s'appuyer sur les
données collectées par les objets connectés, mais
également sur l'open data s'agissant des données dites externes.
C'est d'ailleurs ce que soulignait l'ACPR dans son étude sur la
digitalisation du secteur de l'assurance, précisant que «
l'exploitation de données plus abondantes, notamment recueillies via les
objets connectés, pourrait certainement permettre une meilleure
anticipation du risque ».
Ce ne sont qu'à ces conditions que la fonction
actuarielle pourra tirer pleinement profit des nouvelles possibilités
offertes par l'intelligence artificielle, le but étant de mieux
segmenter les tarifs afin de pouvoir les adapter au profit du client.
Les assureurs visent aussi à mieux segmenter leurs
tarifs pour mieux les adapter au profil du client. Plus
particulièrement, l'utilisation de données en temps réel
pourrait même aboutir à la mise en place de modèles de
tarification opérant également en temps réel. Tel est
notamment le cas s'agissant des offres dites pay-how-you-drive ou
pay-as-you-drive dont les données collectées par l'usage
d'objets connectés permettent à l'assurance de proposer une offre
personnalisée, sur la base des comportements de l'utilisateur.
Surtout, ces nouvelles méthodes d'étude
et d'analyse des risques présentent un intérêt tout
particulier s'agissant des nouveaux risques complexes. À cet
égard, on peut notamment citer les risques cyber, dont l'assurance
propose des garanties depuis quelques années maintenant. En la
matière, les assureurs sont confrontés à une
difficulté tenant à l'analyse de ces nouveaux risques, en raison
de plusieurs facteurs tenant à la nécessité de disposer
d'une expertise particulière que la majorité des compagnies ne
disposent pas actuellement, et le manque de recul suffisant sur les nouveaux
risques cyber. Surtout, du fait d'un contexte d'interdépendance
prégnant entre les organisations, le risque cyber s'impose comme un
risque intrinsèquement corrélé, rendant difficile
d'anticiper les conséquences d'un incident informatique, et donc de
déterminer le coût moyen d'un sinistre. Enfin, le manque de
données statistiques fiables en la matière, cumulé au flou
juridique existant quant à l'assurabilité de certains risques
rendent l'analyse du risque cyber extrêmement délicate. Dans ce
contexte, les procédés d'intelligence artificielle devraient
permettre de constituer une base de données
suffisamment fournie et précise qui puisse permettre
une étude plus précise de ces nouveaux risques. Surtout, ces
nouveaux outils pourront être utilisés pour modéliser des
projections tenant compte d'une quantité plus importante et plus
hétérogène de données afin de pouvoir cerner avec
une meilleure précision la charge finale pesant sur l'assureur, bien que
le sinistre soit corrélé.
En outre, si l'intelligence doit permettre d'établir
des modèles d'analyse des risques plus agiles et dynamiques, il faut
également souligner qu'elle entend s'imposer comme une réponse
à une situation récurrente dans l'assurance :
l'asymétrie d'information entre l'assureur et
l'assuré.
II. L'intelligence artificielle comme outil de correction
de l'asymétrie d'information
Traditionnellement, le principe de mutualisation et d'analyse
des risques visent à compenser le voile d'ignorance de la connaissance
des risques, également appelé « principe d'asymétrie
de d'information ». Conceptualisée par George Akerlof55,
économiste américain, dans son article publié en 1970,
The Market for Lemons : Quality Uncertainty and the market
Mechanism, l'asymétrie d'information permet d'analyser
des comportements et des situations courantes de l'économie de
marché. L'asymétrie d'information décrit en ce sens une
situation dans laquelle les acteurs d'un marché ne disposent pas des
mêmes informations sur les conditions d'échange. Cette situation
est par nature contraire au standard de transparence de l'information
prédominant dans un modèle de concurrence pure et parfaite. D'une
manière générale, il est nécessaire de distinguer
deux situations d'information asymétrique.
La première situation fait référence
à l'antisélection (ou sélection adverse),
lorsque les consommateurs ne disposent pas de toute l'information sur la
qualité du bien qu'ils souhaitent acquérir, contrairement aux
vendeurs. Plus particulièrement, du fait d'une asymétrie
d'information sur un marché donné, une offre faite aboutit
à des résultats inverses de ceux souhaités. Ainsi, selon
l'exemple des voitures d'occasion développé par Akerlof, «
le vendeur d'une voiture d'occasion connaît mieux les
caractéristiques de sa voiture que les acheteurs potentiels. Dans la
mesure où ces derniers savent que le marché comporte des voitures
de mauvaise qualité, ils chercheront à les payer au prix
correspondant à la qualité moyenne, ce qui conduira les
propriétaires de voitures de bonne qualité à les retirer
du marché. En contribuant à
36/97
55
https://www.universalis.fr/encyclopedie/george-a-akerlof/
37/97
réduire de proche en proche la qualité moyenne
des véhicules vendus, ce processus peut finir par entraîner la
disparition complète du marché des voitures d'occasion56 ».
Dans ce contexte, l'antisélection se déclare ex-ante,
soit au moment de la signature du contrat, et montre que le prix n'est pas
synonyme de qualité du bien (il est possible d'obtenir des
produits de qualités différentes pour un même prix),
et ne constitue plus son rôle d'information.
La seconde situation correspond à ce que George Akerlof
appelle l'aléa moral, intervenant ex-post, soit
après la conclusion du contrat. Cette situation correspond à
l'hypothèse dans laquelle l'un des contractants est amené
à changer de comportement au cours de la relation contractuelle, de
sorte qu'il est difficile d'anticiper ce comportement après la
conclusion du contrat.
Ainsi, le secteur assurantiel est fortement
marqué par l'asymétrie d'informations. En effet, les
compagnies d'assurance ne disposent que d'informations limitées quant
aux qualités intrinsèques des individus et des risques, objets de
la police d'assurance.
Plus précisément, l'asymétrie
d'information ne permettant pas à l'assureur de proposer des primes
différentes selon les types et les profils de risques, s'est donc
développé un phénomène
d'anti-sélection. En ce sens, les compagnies d'assurance fixent une
prime d'assurance supposée couvrir un risque moyen, sur la base des
éléments statistiques tirées de la surveillance du
portefeuille57. Cette prime s'appliquera donc indistinctement aux
assurés dont le risque est considéré comme faible, mais
également aux assurés dont le risque est considéré
comme élevé. Ce faisant, les risques faibles vont
considérer le montant de la prime comme étant trop
élevé, alors que ce montant sera jugé comme très
acceptable par les risques élevés. Dans un contexte où les
assureurs proposent certes des garanties plus ou moins similaires, mais
à des tarifs variant sensiblement, les risques faibles vont donc
souscrire auprès de la compagnie proposant le tarif
considéré comme le plus avantageux. Dans ce contexte, la
compagnie qui assure une grande partie des risques élevés devra
donc au final, afin de compenser la perte des risques faibles, augmenter ses
tarifs, l'excluant peu à peu du marché58. Afin de compenser ce
phénomène d'anti-sélection, s'est donc
développé les contrats assortis de franchises plus ou moins
importantes, permettant alors de moduler le montant de la prime en fonction du
niveau de franchise accepté par le souscripteur59. Ainsi, un
souscripteur dont le risque est faible optera
56 A. Bozio et J. Grenet, Économie des politiques
publiques, La Découverte, 2017
57 Par exemple, et très schématiquement,
l'assureur reprendre le nombre de déclarations de sinistre incendie
faites sur le marché des particuliers, et détermine le cout moyen
d'un sinistre incendie, lui permettant alors de déterminer le montant de
prime.
58
https://www.pwc.fr/fr/expertises/actuariat-et-finance-quantitative-rvms/assurance/anti-selection-apprehender-ce-phenomene.html
59 La situation peut être schématisée de
la manière suivante : un assuré décidant de payer une
prime faible, se verra appliquer une franchise plus ou moins importante en cas
de sinistre. À l'inverse, un assuré décidant de payer une
prime plus élevée aura à sa charge une franchise nulle ou
quasi-nulle en cas de survenance d'un sinistre.
38/97
pour une prime plus faible mais une franchise plus
élevée, alors qu'un souscripteur dont le risque est
élevé préférera payer une prime plus importante,
mais une franchise plus faible (voir nulle) en cas de sinistre. En adaptant le
montant de la prime, et en modulant la franchise, l'idée est donc de
tendre vers une tarification plus juste en fonction du risque et de son
occurrence et surtout de lutter contre ce phénomène
d'anti-sélection qui ne mènerait qu'à assurer les risques
élevés60.
Outre l'anti-sélection, l'assurance est
également marquée par l'aléa moral, dont l'enjeu
est de savoir si l'assuré prendra toutes les précautions
nécessaires après la conclusion du contrat d'assurance qu'il en
prenait avant pour éviter la survenance d'un sinistre. En ce sens,
l'aléa moral suppose, dans le domaine de l'assurance, de se questionner
sur le degré de diligence attendu après la conclusion du contrat,
et les moyens permettant d'inciter l'assuré à se protéger
de la même manière qu'il l'aurait fait s'il n'était pas
couvert. À cet égard, afin d'inciter l'assuré à
conserver un comportement prudent et diligent, les polices d'assurance
contiennent généralement des clauses de déchéance61
de garantie lorsque les dommages ont été causés par la
faute intentionnelle ou dolosive de l'assuré, résultent d'un fait
ou d'un évènement dont l'assuré avait connaissance lors de
la souscription du contrat62, ou encore plus spécifiquement dans le
cadre des catastrophes naturelles, « lorsque les mesures habituelles
à prendre pour prévenir ces dommages n'ont pu empêcher leur
survenance ou n'ont pu être prises63 ».
Néanmoins, si des mécanismes existent afin de
compenser les phénomènes d'anti-sélection et d'aléa
moral, force est toutefois de constater que ceux-ci restent imparfaits. En ce
sens, et à titre d'exemple, la preuve du caractère dolosif du
comportement de l'assuré reste difficile - voire impossible - à
rapporter, dans un secteur marqué par des règles protectrices du
consommateur assuré. De la même manière, si le
système de franchise permet une réponse au
phénomène d'anti-sélection, celle-ci n'en demeure pas
moins incomplète puisqu'elle ne permet pas une approche segmentée
et personnalisée du risque.
60
https://www.universalis.fr/encyclopedie/assurance-economie-de-l-assurance/3-antiselection/
61 Il est nécessaire de distinguer entre la
déchéance et l'exclusion qui mènent naturellement à
la même conséquence - tant la déchéance que
l'exclusion privent l'assuré d'indemnité - mais couvrent deux
champs distincts. En effet, alors que la clause d'exclusion vise à
délimiter l'objet du contrat d'assurance, la clause de
déchéance vise à sanctionner l'assuré (en le
privant de son droit à la garantie) en raison d'un manquement à
ses obligations, que ce soit avant ou après le sinistre. Ainsi, par
exemple, constitue une déchéance de garantie la clause
insérée dans une police d'assurance de responsabilité
civile décennale obligatoire qui vise à priver le constructeur de
son droit à la garantie en raison de travaux effectués selon des
techniques non courantes. En conséquence, l'assureur sera tene de verser
l'indemnité au tiers en raison des règles applicables en
matière d'assurance construction, mais demandera à son
assuré de lui rembourser l'intégralité des sommes
versées. Inversement, constitue une exclusion de garantie la clause
selon laquelle l'assureur n'interviendra pas dans les cas où
l'assuré, professionnel du bâtiment, aurait réalisé
des travaux relevant d'activités non couvertes (par exemple,
l'entrepreneur assuré au titre de son contrat pour une activité
d'électricien, qui réalise des travaux de plomberie, sources du
litige).
62 Dans ce cas, naturellement, l'idée est
d'éviter les situations dans lesquelles le souscripteur tente de faire
jouer inévitablement une garantie, privant ainsi le contrat d'assurance
d'un élément fondamental qu'est l'aléa.
63 Article L.125-1 Code des assurances
39/97
C'est donc naturellement dans ce contexte que
l'intelligence artificielle est susceptible de jouer un rôle important
dans la correction de cette asymétrie. Sans développer
l'intégralité des apports de l'intelligence artificielle dans le
champ de l'analyse du risque (qui a fait l'objet de développer plus
longs dans la partie précédente), l'intelligence artificielle
doit permettre de lutter contre l'anti-sélection par une analyse plus
précise des risques. En ce sens, les données externes et
internes, couplées au machine learning et au deep learning, doivent
permettre de procéder à une analyse plus approfondie des risques,
et donc à terme de proposer une offre personnalisée en fonction
du risque encourue. Cette situation devrait donc tendre à un
rééquilibrage des relations entre l'assureur et l'assuré,
et par voie de conséquence à une disparition à long terme
du système fondé sur la franchise par une tarification propre aux
éléments contextuels et personnels. En outre, s'agissant de
l'aléa moral, l'intelligence artificielle devrait permettre, par la
reconnaissance faciale et des expressions, mais également la
reconnaissance textuelle, de lutter contre la fraude à l'assurance et de
faciliter la preuve du comportement dolosif ou intentionnel de
l'assuré.
Cependant, s'il indéniable que l'intelligence
artificielle offre une réponse concrète à
l'asymétrie d'information prédominante jusqu'alors dans la
relation entre l'assuré et son assureur, les avancées permises
par la technologie ont fait émerger la crainte d'une
démutualisation du système assurantiel.
Section 3. La crainte d'une
démutualisation du système assurantiel par le recours à
l'intelligence artificielle
Comme le soulignait à juste titre le rapport d'OPTIC
Technology64 publié le 20 janvier 202065, « dans ce contexte de
surabondance des données issues du recoupement des bases existantes, de
collecte via des capteurs ou de traces sur les réseaux sociaux, la
tentation est grande, pour les assureurs, d'affiner à l'extrême le
profilage de leur clientèle afin de la segmenter le plus
précisément possible et d'ajuster le tarif au risque réel
». Schématiquement, sur la base de prédiction de
plus en plus fiables issues des algorithmes autoapprenants,
64 OPTIC est un réseau de recherche créé
en 2012, comptant plusieurs milliers de membres et déployant ses
activités à San Francisco, Paris, Montréal, Genève,
Rome, Oxford, Boston et Toronto. Ses activités portent sur la recherche,
l'innovation et la formation sur les thématiques relatives au
développement des technologies.
65 OPTIC Technology, Intelligence artificielle,
solidarité et assurances en Europe et au Canada - Feuille de route pour
une coopération internationale, 20 janvier 2020
40/97
émerge le risque d'une hyperpersonnalisation et
hypersegmentation des assurés, posant alors la question d'une
potentielle atteinte à la logique mutualiste propre à
l'assurance, et la probabilité d'une remise en cause totale du secteur
(ou du moins, des logiques structurantes de ce secteur).
En ce sens, comme nous l'avions développé
précédemment, l'utilisation massive des données et de l'IA
doivent permettre de compenser l'asymétrie d'informations, et donc de
supprimer l'ignorance qui existait par nature dans la relation entre
l'assuré et son assureur. Par nature, cette situation conduit à
l'émergence de nouveaux risques dans les relations entre l'assureur et
son assuré. En effet, dans sa synthèse du débat public
dans le cadre de la mission de réflexion éthique confiée
par la loi pour une République numérique publiée en
décembre 201766, la CNIL porte les craintes de
l'émergence d'un système profondément discriminatoires qui
aurait pour conséquence notable l'exclusion des individus jugés
à risque du bénéfice de l'assurance. Plus
particulièrement s'agissant de l'assurance de personnes, puisque les
informations collectées (consommation de tabac, régime
alimentaire, rythme de vie, antécédents médicaux,
antécédents familiaux et héritage génétique
etc.) permettraient d'établir une corrélation plus précise
entre le comportement de la personne et le risque de survenance d'une
pathologie.
De cette situation, émerge alors la crainte
qu'une personne, selon les informations collectées, soit
considérée comme porteuse d'un risque trop élevé du
fait de son comportement (et notamment son mode de vie ou ses
habitudes de consommation). Surtout, cette situation pose fondamentalement la
question des limites posées et surtout des critères
d'appréciation pris en considération pour qualifier une personne
à risque (Quels sont les critères pris en compte pour
caractériser une personne comme étant à risque ? Quels
sont les seuils à partir desquels une personne présente un risque
plus important ? Quelle la conséquence directe pour une personne
considérée à risque - application d'une surprime ou
exclusion de couverture ?).
Dès lors, cette situation de personnalisation et de
segmentation pourrait conduire de facto d'une logique de mutualisation
à une logique de responsabilité individuelle, et
pourrait conduire à une situation dans laquelle les assureurs ne
couvriraient que les « bons risques » avec un risque d'exclusion des
« risques inacceptables ».
66 Commission Nationale Informatiques et Libertés
(CNIL), Comment permettre à l'Homme de garder la main ? Les
enjeux des algorithmes et de l'intelligence artificielle,
Synthèse du débat public animé par la CNIL dans le cadre
de la mission de réflexion éthique confiée par la loi pour
une République numérique, décembre 2017
41/97
Bien entendu, le modèle actuel de l'assurance
de personne repose déjà sur les informations relatives à
la personne, comme le fait de savoir si une personne est fumeuse ou non, ou si
elle est affectée d'une pathologie de longue durée.
Néanmoins, le système actuel repose sur une logique
déclarative, situation dans laquelle l'assureur occupe une
place passive et se fie aux seules informations confiées par
l'assuré. Pour autant, du fait du développement technologique et
technique (et notamment l'intégration de l'intelligence artificielle),
le passage d'une logique passive à une logique active de l'assureur ne
semble plus si utopique.
Dans ce contexte, l'enjeu est donc de savoir quels
sont les moyens qui puissent permettre de concilier d'une part, le besoin de
personnalisation voulues tant par les assurés que les assureurs, et
d'autre part, la nécessité de conserver la logique de
mutualisation. À cet égard, plusieurs pistes peuvent
être évoquées.
La première consisterait à interdire
purement et simplement le recours à la collecte des données, aux
techniques de profilage et au recours à l'intelligence artificielle
à l'occasion de l'étude du risque. Cette solution,
radicale présente l'intérêt de la simplicité et
garantit l'inclusion des personnes. Toutefois, elle semble inadaptée en
l'état parce qu'elle ne permet pas de répondre aux besoins de
personnalisation voulue par les assurés, et de segmentation
recherchée par les assureurs.
La deuxième viserait à limiter la
collecte de certaines données, jugées particulièrement
sensibles. En ce sens, si la loi Kouchner de 2002 a permis
d'ériger un principe de non-discrimination en raison des
caractéristiques génétiques67, il pourrait très
bien être imaginé d'aller encore plus loin en excluant par exemple
la collecte automatisée des données liées à la
santé des individus ou les habitudes de consommation à l'occasion
de l'étude du risque. C'est d'ailleurs la solution que préconise
la CNIL dans sa synthèse, précisant que cette limitation
pourrait, à défaut d'être légale, être mise en
place de manière conventionnelle entre les acteurs de la
profession68.
Une troisième solution porterait sur
l'institution d'un cadre règlementaire spécifique
à la collecte et au traitement de ces données à l'aide
d'algorithmes d'intelligence artificielle. Ce cadre spécifique
imposerait aux acteurs du secteur des obligations particulières
67 Article L. 1110-1 du Code de la santé publique
68 Commission Nationale Informatiques et Libertés
(CNIL), Comment permettre à l'Homme de garder la main ? Les
enjeux des algorithmes et de l'intelligence artificielle,
Synthèse du débat public animé par la CNIL dans le cadre
de la mission de réflexion éthique confiée par la loi pour
une République numérique, décembre 2017
42/97
en matière de recours à l'intelligence
artificielle, prévoyant des standards de transparence et de
loyauté et qui laisserait également la possibilité pour
les personnes concernées de pouvoir choisir le procédé
utilisé pour l'analyse du risque. Si le cadre européen de la
protection des données personnelles permet déjà aux
personnes concernées de s'opposer aux décisions prises à
l'aide de procédés automatisés, il faut toutefois
souligner que ce droit d'opposition peut être mis en échec lorsque
la décision est nécessaire à la conclusion d'un contrat.
L'idée serait donc de dépasser la logique actuelle existante en
matière de protection des données afin de développer une
législation sectorielle plus aboutie, tenant compte de l'ensemble des
spécificités et logiques propres au secteur. Néanmoins,
cette situation présente deux contraintes majeures. D'une part, ce
système créerait un système à deux vitesses et
d'autre part, fait peser des obligations beaucoup trop contraignantes aux
acteurs déjà soumis à une règlementation
très lourde.
La dernière solution viserait à un
système dualiste, en distinction d'un côté
l'assurance de personne pour laquelle le recours à ces
procédés serait prohibé en raison de la nature des
données sensibles traitées, et de l'autre l'assurance de choses
pour lesquels le recours pourrait être autorisé.
Quoiqu'il en soit, le cadre actuel ne semble répondre
qu'indirectement aux nouveaux enjeux posés par le recours aux
données et à l'intelligence artificielle, pour laquelle les
contours semblent encore assez flous.
43/97
PARTIE II :
L'intelligence artificielle dans le secteur
de
l'assurance, une technologie en quête
de
repères
Dans sa Communication du 8 avril 2019 visant à
renforcer la confiance dans l'intelligence artificielle69, la Commission
européenne rappelle les orientations dégagées par le
groupe d'experts de haut niveau sur l'IA désigné afin
d'identifier les moyens nécessaires à instaurer un climat de
confiance autour de l'intelligence artificielle. À ce titre, les experts
ont souligné que, pour parvenir à une intelligence artificielle
digne de confiance, il est nécessaire que celle-ci respecte la
législation, les principes éthiques et présente des
garanties de robustesse et de sécurité. À cet
égard, sur la base de ces trois éléments structurants, le
groupe d'experts a défini sept exigences essentielles auxquelles doivent
répondre les systèmes d'intelligence artificielle pour être
considérés comme dignes de confiance (le contrôle humain,
la sécurité et la robustesse, le respect de la vie privée,
la transparence, l'équité, le bien-être sociétal et
environnemental et la responsabilisation).
Si une telle démarche ne peut qu'être
saluée et apparait pertinente, il faut toutefois préciser qu'il
en va autrement dans la pratique. En effet, le cadre juridique et
éthique applicable à l'intelligence artificielle reste pour
l'heure peu développé (Chapitre 1), constituant un frein
à l'intégration de ces nouveaux procédés. En outre,
si les possibilités offertes par l'intelligence artificielle semblent
nombreuses et permettent de se démarquer dans un secteur où la
concurrence est élevée, il faut toutefois souligner
l'importance pour les compagnies d'adopter une stratégie de la
donnée et d'intégration de ces nouveaux outils (Chapitre 2)
qui présentent un triple intérêt : planifier les
coûts liés au déploiement, susciter la confiance et
garantir la sécurité de ces nouveaux systèmes.
69 Communication de la Commission européenne du 8 avril
2019, Renforcer la confiance dans l'intelligence artificielle
axée sur le facteur humain,
COM(2019) 168 final
44/97
Chapitre 1 :
Un cadre réglementaire et éthique peu
développé en la
matière
Si la croissance économique repose sur la valeur
créée par les données, force est de constater que cette
croissance doit s'accompagner de mesures favorisant la confiance des
utilisateurs dans les technologies. C'est d'ailleurs le constat que faisait la
Commission européenne dans son livre blanc sur l'intelligence
artificielle de février 2020, soulignant qu'« étant
donné que la technologie numérique occupe une place de plus en
plus centrale dans tous les aspects de la vie des citoyens, il faut que ces
derniers puissent lui faire confiance. Elle ne pourra être adoptée
que si elle est digne de confiance70 ».
Aspect essentiel du développement de tout nouvel
écosystème, la confiance repose, dans le cadre de l'intelligence
artificielle d'une part sur l'explicabilité des algorithmes
(Section 1) et d'autre part, sur le cadre réglementaire
applicable en matière de protection des données et, plus
partiellement, sur les standards de responsabilité (Section
2).
Section 1. L'explicabilité des
algorithmes, un enjeu majeur de développement de l'intelligence
artificielle
De manière générale, l'un des grands
enjeux de ces prochains temps en matière d'intelligence artificielle
concerne la transparence et plus particulièrement
l'explicabilité des algorithmes (I). Sur ce point, s'il
existe des initiatives dans le secteur des assurances, celles-ci restent pour
l'heure limitées et disparates (II).
I. La transparence des algorithmes d'intelligence artificielle,
un principe socle
d'une intelligence artificielle soucieuse des droits humains
Selon la définition donnée par le Conseil de
l'Europe, l'intelligence artificielle fait référence à
« l'ensemble des techniques, théories et techniques dont le but est
de reproduire par une machine des capacités cognitives d'un être
humain ». Bien entendu, dans toute son
70 Livre blanc de la Commission européenne,
Intelligence artificielle : une approche européenne
axée sur l'excellence et la confiance, 19
février 2020, COM(2020) 65 final
45/97
imperfection, l'Homme est par nature sujet aux biais
cognitifs. Comportements purement naturels, les biais cognitifs sont des
schémas de pensée trompeurs et faussement logiques, qui
constituent donc des mécanismes à l'origine d'une
altération du jugement. Plus particulièrement, ces
mécanismes vont intervenir chez l'individu lorsqu'il est placé en
situation de porter un jugement, ou de prendre une décision rapidement.
Ces biais, conceptualisés dans les années 1970 par Daniel
Kahneman et Amos Tversky, fonctionnent schématiquement de la
manière suivante : face à une situation dans laquelle une
personne exposée à une quantité trop importante
d'information, à des contraintes de temps, ou à un manque de sens
doit prendre une décision, le cerveau humain va alors s'appuyer sur des
croyances subjectives et inconscientes71. Par voie de
conséquence, ces raccourcis vont conduire à une analyse
imparfaite et fausse d'une situation donnée, de son environnement et
d'autrui72.
En outre, les travaux menés en la matière ont
permis de recenser plus de 250 biais cognitifs (voir annexe 7), qui peuvent
être classés selon les catégories suivantes : les
biais sensori-moteurs, les biais attentionnels, les biais mnésiques, les
biais de jugement, les biais de raisonnement, et les biais liés à
la personnalité.
En tout état de cause, dans une logique de reproduction
des mécanismes humains, la pratique a pu montrer que les algorithmes
d'intelligence artificielle n'échappaient pas à cette tendance
aux préjugés et aux raccourcis. À cet égard, un
exemple intéressant a défrayé la chronique il y a quelques
années, lorsque Microsoft avait déployé le 23 mars 2016
sur Twitter, dans le cadre d'une expérimentation, un agent
conversationnel fondé sur l'intelligence artificielle.
Prénommée Tay, cet agent a été conçu pour
engager et divertir les utilisateurs du réseau social par le biais
d'échanges informels. Mais sous cet aspect ludique, le but de cette
expérimentation à large échelle et en conditions
réelles visait avant tout à étudier la manière dont
l'intelligence artificielle interagissait avec les humains et apprenait de ces
derniers. Néanmoins, après plus de 50 000 abonnés et 100
000 tweets, et seulement 24 heures après son lancement73, Microsoft a
précipitamment mis fin à l'expérimentation et a
retiré Tay de la plateforme. La raison de ce retrait est simple :
confrontée aux internautes (et plus
71
https://www.usabilis.com/definition-biais-cognitifs/
72
https://www.sciencesetavenir.fr/sante/cerveau-et-psy/comment-notre-cerveau-nous-manipule-t-il_135688
73
https://www.zdnet.fr/actualites/microsoft-tire-les-enseignements-de-son-experience-ratee-avec-tay-39888277.htm
46/97
particulièrement aux « trolls »),
l'intelligence artificielle a tout simplement fini par tenir des propos
racistes et négationnistes74.
Cette expérimentation a toutefois permis à
Microsoft d'apprendre du fonctionnement général de l'algorithme
et surtout des raisons ayant conduit à cette situation. À cet
égard, la firme a fait le constat selon lequel « quelle que
soit la pertinence de la conception de l'algorithme, les résultats
seront à la hauteur de la qualité des données
d'origine75 ». Ainsi, les jeux de données utilisés
par l'intelligence artificielle peuvent être biaisés par un grand
nombre de moyens. S'agissant de Tay, son comportement a été
altéré du fait d'un jeu de données alimenté
uniquement par une catégorie spécifique de la population, de
sorte que ses jugements, ses choix et ses comportements ultérieurs se
fondaient uniquement sur des pensées et propos minoritaires, qui ne
reflétaient pas et ne représentaient pas la population dans sa
globalité. En d'autres termes, c'est donc son exposition à des
courants de pensée minoritaires qui ont conduit Tay à tenir de
tels propos.
C'est dans ce contexte que se sont inscrits les travaux de
l'Union européenne et du Conseil de l'Europe s'agissant du
déploiement de l'intelligence artificielle. En ce sens, reconnaissant le
potentiel de croissance économique que représente
l'intégration des nouveaux outils, ces deux institutions
soulignent la nécessité de développer un cadre
éthique afin d'éviter que le recours à l'intelligence
artificielle conduise à des comportements d'exclusion ou de
discrimination à l'égard des personnes
concernées. Ainsi, le Comité des Ministres a, dans sa
recommandation aux États membres du 08 avril 2020 sur les impacts des
systèmes algorithmiques sur les droits de l'Homme76, souligné que
« le recours croissant aux systèmes algorithmiques dans la vie de
tous les jours ne va pas sans poser d'importants défis en matière
de droits de l'homme, tels que le droit à un procès
équitable ; le droit au respect de la vie privée et à la
protection des données ; le droit à la liberté de
pensée, de conscience et de religion ; le droit à la
liberté d'expression, le droit à la liberté de
réunion ; le droit à l'égalité de traitement, et
les droits économiques et sociaux ».
74 Tay avait notamment publié une série de tweet
le 24 mars 2016 précisant « Bush est responsable du 11 septembre et
Hitler aurait fait un meilleur boulot que le singe que nous avons actuellement.
Donald Trump est notre seul espoir », ou encore niant l'existence de
l'holocauste.
75
https://experiences.microsoft.fr/business/intelligence-artificielle-ia-business/equite-algorithmes-definition/
76 Recommandation CM/Rec(2020)1 du Comité des Ministres
aux États membres sur les impacts des systèmes algorithmiques sur
les droits de l'homme, adoptée par le Comité des Ministres le 8
avril 2020, lors de la 1373e réunion des Délégués
des Ministres
47/97
À l'étude des travaux existants en la
matière, force est de constater qu'un principe central semble guider le
déploiement de ces nouveaux outils : la transparence.
En matière d'intelligence artificielle, une telle démarche est
naturellement cohérente, puisqu'il ne peut y avoir de confiance sans
transparence, ni même de compréhension des mécanismes
décisionnels sans transparence des algorithmes. En ce sens, qu'il
s'agisse de la conception, du développement, mais également de
l'utilisation des algorithmes d'intelligence artificielle, le principe
de transparence se matérialise en pratique par la
nécessité d'expliquer les comportements de l'intelligence
artificielle.
Gage de maitrise de ces nouveaux procédés,
l'explicabilité de l'intelligence artificielle est
définie comme la capacité à expliquer le fonctionnement
des algorithmes, afin de comprendre la manière et les raisons ayant
conduit à un résultat spécifique.
L'explicabilité s'impose donc comme essentielle et consubstantielle au
développement d'une intelligence artificielle éthique, surtout
s'agissant des techniques d'apprentissage automatique qui restent très
souvent opaques. Afin de lutter contre cette opacité inhérente,
l'explicabilité repose sur plusieurs méthodes.
Les premières méthodes supposent une
intervention ex post. En ce sens, les techniques reposant sur
l'hypothèse de la « boite noire » visent à analyser les
données à l'entrée et celles à la sortie afin
d'essayer de comprendre la manière dont l'IA est arrivée à
ce résultat, sans disposer du code du système. À
l'inverse, les techniques reposant sur l'hypothèse de « la boite
blanche » visent à l'étude directe du code du système
afin de comprendre la manière dont l'IA est arrivée à un
résultat déterminé, et surtout, la manière dont
l'algorithme a pu évoluer pour parvenir à ce résultat.
En marge de ces méthodes intervenant ex post,
de nouvelles dynamiques émergent pour prendre en
considération ces besoins de transparence et d'explicabilité
dès la conception. C'est ainsi que le concept
d'explicability by design (ou explicabilité dès la
conception) a vu le jour, supposant le développement d'outils
spécifiques, sous la forme d'algorithmes intégrés à
la machine lors de la phase de développement, chargés de suivre
ses évolutions afin de pouvoir remonter le processus
décisionnel.
Une fois ces éléments exposés, tout
l'enjeu est de savoir comment le secteur de l'assurance entend transposer et
concrétiser ces principes.
II. Des initiatives pour l'heure limitées et disparates
des acteurs du secteur
48/97
En l'état, la question de
l'explicabilité de l'intelligence artificielle s'impose comme
nécessaire et vitale dans le secteur des assurances, pour notamment
trois raisons.
D'abord, comme nous avons pu l'expliquer dans le cadre des
développements précédents, l'intégration de
l'intelligence artificielle dans le secteur de l'assurance fait craindre une
dynamique de démutualisation du système au profit d'une logique
de responsabilité individuelle. En ce sens, appliquées aux
processus d'analyse des risques, les méthodes
d'explicabilité doivent permettre d'enrayer les éventuels biais
cognitifs qui conduiraient, sur la base des jeux de données internes et
externes employés, d'exclure du bénéfice de l'assurance
(ou du moins d'appliquer une surprime) un assuré sur la base
d'éléments purement subjectifs. Dans ce contexte,
l'explicabilité s'impose donc comme un garde-fou nécessaire afin
de garantir que chaque risque fait l'objet d'une étude impartiale et
objective.
Ensuite, et d'un point de vue centré sur la personne
concernée, l'intégration d'outils propres à expliquer le
processus décisionnel doit lui permettre de conserver la
maitrise dont elle dispose sur ses données, et surtout de pouvoir
comprendre la manière dont la décision a été
prise. Cette démarche vise à créer un climat de
confiance, alors nécessaire pour chacune des parties au contrat
d'assurance.
Enfin, dans un secteur où les autorités de
contrôle offrent au consommateur des voies de recours extra-judiciaires
(en témoignent les procédures de réclamations et de
médiation), l'explicabilité doit permettre à
chacune des parties de pouvoir défendre ses droits. Du
côté de l'assuré, l'explicabilité peut permettre de
mettre en exergue l'ingérence de biais cognitifs dans la prise de
position. À l'inverse, elle doit pouvoir permettre pour l'assureur, en
cas de réclamation fondée sur une décision
automatisée, de retracer la chaine décisionnelle afin d'en
mesurer la conformité.
En l'état, plusieurs initiatives existent sur
ce sujet, même si elles se situent à des degrés de
développement différents selon les acteurs.
En effet, les autorités de contrôle ont
abordé cette question de la transparence sous l'angle de groupes de
travail ou de débat public afin de mieux en cerner les
contours. En ce sens, la CNIL a lancé une réflexion sur
les algorithmes à l'heure de l'intelligence artificielle et a, à
cette occasion, appelé tous les acteurs et organismes (organismes
publics, acteurs de la société civile ou encore les entreprises)
à participer au débat. Le secteur de l'assurance a notamment
contribué au débat par le biais de la Fédération
Française de l'Assurance (FFA). À
49/97
l'issue du débat, la CNIL a notamment
détaillé les limites du cadre juridique actuel, et a
formulé un certain nombre de propositions afin de tendre à un
équilibre entre le recours à l'intelligence artificielle et le
respect des droits et libertés des personnes concernées.
En outre, s'agissant plus spécifiquement du secteur de
la finance et de l'assurance, l'ACPR a mis en place au début de
l'année 2018 une task force rassemblant non seulement les
professionnels du secteur (fédérations professionnelles, banques,
assurances, fintechs, assurtechs), mais également les autorités
publiques (AMF, CNIL, TRACFIUN, DGT) afin d'échanger sur les potentiels
offerts par l'intelligence artificielle dans le secteur, mais également
d'identifier les risques associés.
C'est dans ce contexte que l'Autorité a
publié le 1er juin 2020, un document de réflexion sur la
gouvernance des algorithmes d'intelligence artificielle dans le secteur
financier77. Le document, soumis à la consultation publique des
acteurs du secteur, identifie deux axes d'étude :
l'évaluation des algorithmes et des outils d'IA, ainsi que la
gouvernance de ces outils. En l'état, la démarche
proposée par l'ACPR est intéressante, puisqu'elle propose,
s'agissant de l'explicabilité, de procéder selon une approche
graduée en fonction des acteurs et des risques associés. Plus
particulièrement, l'ACPR souligne que l'explicabilité est
« une notion qu'il convient de replacer chaque fois dans un contexte
particulier pour en préciser la finalité. Une explication du
résultat ou du fonctionnement d'un algorithme peut s'avérer
nécessaire pour les utilisateurs finaux (clients ou utilisateurs
internes) ; dans d'autres cas, elle sera destinée aux responsables de la
conformité et de la gouvernance de ces algorithmes. L'explication
fournie peut ainsi viser à éclairer le client, à garantir
la cohérence des processus dans lesquels des humains prennent des
décisions, ou encore à faciliter la validation et la surveillance
des modèles de machine learning ».
Une telle démarche, si elle fait peser de nouvelles
obligations aux entreprises du secteur (déjà soumises à un
cadre règlementaire assez contraignant), présente toutefois
plusieurs avantages.
D'abord, elle permet de fournir un degré
d'information différent selon les destinataires, ce qui est
particulièrement pertinent s'agissant des clients, dont l'information se
doit d'être claire, concise, compréhensible et adaptée
(voir annexe 8).
77 ACP, Gouvernance des algorithmes d'intelligence
artificielle dans le secteur financier, document de
réflexion, Laurent Dupont, Olivier Fliche, Su Yang, juin 2020
50/97
Ensuite, en raisonnant par finalité,
la démarche se rapproche du cadre actuel européen en
matière de protection des données personnelles, et
présente l'avantage de segmenter les différentes activités
pour mieux cerner les risques associés.
Enfin, l'objectif, s'il n'est pas explicitement
détaillé, vise clairement à faire peser sur les acteurs du
secteur une « obligation d'explications », et plus
largement, à l'instar du cadre établi par le Règlement
général sur la protection des données personnelles (RGPD),
mettre en place une logique de responsabilisation des acteurs, qui doivent donc
adopter une démarche active afin de garantir l'explicabilité des
algorithmes.
En l'état actuel des choses, l'ACPR constate
par cette étude que seuls quelques acteurs du secteur financier ont
commencé à aborder la question de l'explicabilité, de la
détection et de la remédiation des biais pouvant
exister. Et pour cause, puisque si les assureurs intègrent
aujourd'hui des outils d'intelligence artificielle, ceux-ci restent pour
l'heure limités, de sorte que la question éthique reste peu
abordée. En ce sens, il faut souligner l'implication de certains acteurs
du secteur. Par exemple, le 11 juin 2020, le groupe CNP Assurances,
spécialisé dans l'assurance de personne, a annoncé la
nomination de Xavier Vamparys en tant que responsable de l'éthique de
l'intelligence artificielle, et la création d'un comité
pluridisciplinaire éthique chargé de fixer les grandes lignes de
conduite pour l'intégration et l'utilisation de l'intelligence
artificielle78. De la même manière, AXA semble faire figure
d'exemple en la matière. Le fonds AXA pour la recherche,
créé en 2007, s'intéresse également aux
thématiques liées à l'intelligence artificielle. Qu'il
s'agisse de travaux expérimentaux, ou de guides de réflexion,
force est de constater que la compagnie est très active sur le
sujet79.
Pour conclure, il apparait que le débat sur
cette question n'est pour l'heure pas encore achevé. En effet,
si l'intégralité des parties prenantes souligne les potentiels
dégagés par cette nouvelle technologie, et la
nécessité de garantir une transparence par l'explicabilité
des algorithmes, il n'existe pour l'heure aucun cadre contraignant sur ce
point. Les efforts fournis par l'intégralité des parties
prenantes permettent d'esquisser les contours que doit revêtir
l'utilisation de ces nouveaux outils, sans pour autant s'accorder sur les
moyens pour y parvenir.
78
https://www.actuia.com/actualite/ethique-de-lintelligence-artificielle-cnp-assurances-met-en-place-un-dispositif-de-
gouvernance/#:~:text=Etre%20vigilante%20sur%20l'%C3%A9quit%C3%A9,outils%20et%20processus%20d'IA
79
https://www.axa-research.org/fr/news/IA-research-guide
51/97
S'il n'existe pas pour le moment de cadre réglementaire
spécifique à l'intelligence artificielle, les mécanismes
juridiques existants permettent de réglementer certains aspects
liés aux procédés d'intelligence artificielle, sans pour
autant constitués une réponse satisfaisante.
Section 2. Une réglementation
partielle de l'intelligence artificielle par le cadre juridique existant
À l'étude du cadre juridique existant, il
apparait que celui-ci semble dépassé par le développement
de l'intelligence artificielle. Plus particulièrement, tant le
RGPD (I) que les régimes de responsabilité traditionnels (II)
n'offrent qu'une réponse partielle en matière de
régulation. Cette incertitude est de nature à freiner le
développement de solutions d'intelligence artificielle.
I. Le RGPD, une réponse incomplète au
développement de l'intelligence
artificielle
Entré en vigueur le 25 mai 2018, le
Règlement général sur la protection des données du
27 avril 2016 (dit RGPD)80 vise à trouver un équilibre
entre, d'une part, une économie de plus en plus digitalisée et
fondée sur la collecte et l'exploitation des données, et d'autre
part, la protection des libertés et droits fondamentaux des personnes
concernées, en particulier leur droit à la protection des
données à caractère personnel.
Afin de parvenir à cet équilibre, et
contrairement à la directive de 199581 qui imposait à tout
responsable de traitement l'obligation de procéder à des
formalités préalables auprès de l'autorité de
contrôle nationale (déclaration, demande d'autorisation), le RGPD
change fondamentalement de logique. En effet, fondé sur le principe
d'accountability, le Règlement met en place un principe
de responsabilité et de transparence à la charge de toute
organisation traitant de données à caractère
personnel. Ainsi, en contrepartie de la suppression des
formalités initialement requises sous l'empire de la directive de 1995,
les organisations doivent non seulement appliquer et respecter les obligations
du Règlement, mais
80 Règlement (HE) 2016/679 du Parlement européen
et du Conseil du 27 avril 2016 relatif à la protection des personnes
physiques à l'égard du traitement des données à
caractère personnel et à la libre circulation de ces
données, et abrogeant la directive 95/46/CE
81 Directive 95/46/CE du Parlement européen et du
Conseil, du 24 octobre 1995, relative à la protection des personnes
physiques à l'égard du traitement des données à
caractère personnel et à la libre circulation de ces
données.
également de pouvoir être en mesure de
démontrer leur conformité aux exigences du Règlement en
traçant toutes les démarches.
Ainsi, en vertu du Règlement, les responsables de
traitement, et leur sous-traitant, sont
notamment tenus aux obligations suivantes :
- la nécessité de déterminer
à l'avance les finalités de la collecte,
- fonder ces finalités sur l'une des bases
légales prévues à l'article 6 du
Règlement,
- ne collecter que les seules données nécessaires
à la finalité visée, selon le principe
de
minimisation de la collecte de
données,
- déterminer une durée de conservation
limitée des données traitées,
- assurer la confidentialité,
l'intégrité et la disponibilité des données
collectées,
- afin de garantir la transparence et la loyauté des
opérations de traitement, le responsable
de traitement doit fournir à la personne concernée
une information claire, lisible,
accessible et visible quelque soit le support
de communication utilisé concernant
l'opération de traitement de ses données,
- informer la personne concernée des droits
lui étant reconnus au titre du règlement.
En outre, afin de préserver les données
personnelles des personnes concernées et garantir les droits
associés, le cadre organisé par le Règlement repose sur
deux principes fondamentaux contenus à l'article 25.
D'une part, le Règlement impose la protection
des données dès la conception (privacy by
design), qui suppose, dès la conception de projets impliquant
la collecte et le traitement de données à caractère
personnel, l'adoption des mesures spécifiques non seulement en lien avec
une collecte et un traitement respectueux des droits des personnes
concernées, mais également en lien avec la sécurisation de
ces données82.
D'autre part, le responsable de traitement est tenu d'assurer
la protection des données par défaut
(privacy by default), qui tend à s'appliquer une fois
le produit ou service délivré au public. Dans ce cas, il suppose
que les organisations assurent, par défaut (c'est-à-dire sans
manipulation supplémentaire des personnes concernées), un niveau
maximal de protection des données à caractère
personnel.
52/97
82
https://donnees-rgpd.fr/definitions/privacy-by-design/
53/97
Dans la pratique, il est clair que ce cadre s'applique
aux assureurs, qui sont donc tenus de mettre en oeuvre ces différentes
obligations afin d'assurer leur conformité au Règlement.
En réalité, à l'étude du Règlement, force
est de constater que le cadre actuel offre une réponse quant au recours
à l'intelligence artificielle, par trois mécanismes distincts.
D'une part, si le Règlement ne fait pas
expressément référence au cas particulier de la collecte
et du traitement réalisés à l'aide de
procédés d'intelligence artificielle, il inclut ce type de
traitement sous un terme plus générique : le traitement
automatisé. Ainsi, aux termes de l'article 22 du
Règlement, « la personne concernée a le droit de ne pas
faire l'objet d'une décision fondée exclusivement sur un
traitement automatisé, y compris le profilage, produisant des effets
juridiques la concernant ou l'affectant de manière significative de
façon similaire ». Le texte encadre ces prises de
décisions automatisées dès lors qu'elles produisent des
effets juridiques ou ont des impacts significatifs sur les personnes
concernées. La décision finale devra donc être
prise par l'humain afin d'éviter que les individus ne subissent des
choix émanant uniquement d'algorithmes. Ainsi en est-il lorsque
l'assureur délègue l'analyse du risque et la détermination
de l'assurabilité de ce risque à une intelligence artificielle.
Dans ce cas, l'assuré pourrait légitimement invoquer cette
disposition afin de faire échec à la décision
découlant du recours à l'intelligence artificielle. Bien entendu,
l'assureur n'est pas privé de toute possibilité. Il pourra
légitimer le recours aux algorithmes d'intelligence artificielle,
à condition d'obtenir le consentement explicite83 de la personne
concernée, de justifier que le recours à ce procédé
automatisé est rendu nécessaire à la conclusion ou
l'exécution du contrat, ou encore que le recours soit autorisé
par une disposition légale européenne ou nationale.
Toutefois, il est nécessaire de préciser
que le Règlement est assez réticent à l'égard de ce
type de traitements. Ainsi, s'il l'autorise sous certaines conditions,
le Règlement prévoit ce que certains auteurs qualifient de «
filet de sécurité » visant à protéger les
droits des personnes concernées en la matière. Dès lors,
le responsable de traitement (dont les assureurs qui traitent des
données à grande échelle) sera notamment tenu de
procéder à des analyses d'impact en la matière afin de
déterminer le risque pesant sur les droits et libertés des
personnes concernées, mais surtout, d'établir des garanties qui
puissent permettre de limiter au maximum l'impact sur ces droits et
libertés.
83 Le terme « explicite » présente dans ce
contexte une importance particulière puisqu'à l'instar du
traitement concernant les données dites sensibles prévues
à l'article 9 du Règlement, ce consentement doit non seulement
être libre, éclairé, spécifique, univoque et
révocable, mais doit également être donné d'une
façon incontestable (soit d'une manière qui ne permettre aucune
mauvaise interprétation).
D'autre part, l'assurance de personne est susceptible
de traiter plus fréquemment de données dites sensibles.
Au sens de l'article 9 du Règlement, sont considérées
comme sensibles les données qui révèlent « l'origine
raciale ou ethnique, les opinions politiques, les convictions religieuses ou
philosophiques (...), l'appartenance syndicale », ainsi que les
données biométriques, les données concernant la
santé ou celles concernant la vie sexuelle ou l'orientation sexuelle des
personnes concernées. À cet égard, le Règlement
pose un principe d'interdiction de la collecte de ces données, avec
toutefois la possibilité pour le responsable de traitement de
déroger à cette interdiction lorsqu'il justifie de l'une des
situations exposées au même article. Sans rentrer dans le
détail de ces dispositions, le régime applicable à ces
données particulières offre naturellement à
l'assuré des garanties supplémentaires quant à
l'utilisation faite par l'assureur dans le cadre de procédés
automatisés de prise de décision.
Cependant, si le Règlement offre des moyens de
protection à la personne concernée, il faut toutefois
tempérer ces propos dans la mesure où le Règlement n'offre
qu'une réponse partielle au recours à l'intelligence artificielle
dans le secteur de l'assurance.
D'abord, il faut rappeler que le Règlement ne
concerne que les données à caractère personnel.
En ce sens, les standards fixés dans le Règlement concernent
uniquement cette catégorie de données, et établit comme
fil conducteur la protection des données dès la conception et par
défaut. Or, comme nous l'avons vu précédemment, l'un des
enjeux en matière d'intelligence artificielle reste l'éthique. Et
à cet égard, si les principes prévus par le
Règlement constituent un point de départ en matière de
régulation de l'intelligence artificielle, il est nécessaire que
ce cadre soit complété par une législation
spécifique à l'intelligence artificielle intégrant des
standards d'éthique par défaut et dès la conception.
Ensuite, se pose la question des objectifs poursuivis
au titre des politiques publiques et économiques. En effet, le
19 février dernier, la Commission européenne a
dévoilé sa nouvelle stratégie du numérique pour les
années à venir84. Pour faire de l'Europe un acteur majeur et
fiable du numérique, la stratégie entend s'appuyer sur deux axes
majeurs : la création d'un espace européen des données
(dans lequel doit prévaloir la libre circulation de ces données),
et le développement de l'intelligence artificielle d'autre part. Ainsi,
si le développement de l'intelligence artificielle constitue la pierre
angulaire de la stratégie de l'Union européenne, et que
l'intelligence artificielle doit profiter de données de qualité
pour produire des résultats probants et fournir des services à
forte valeur ajoutée, la multiplication
54/97
84
https://ec.europa.eu/commission/presscorner/detail/fr/ip_20_273
des règles visant à créer un filet de
sécurité au profit des personnes concernées pose la
question de la compatibilité des objectifs. En ce sens, pour que
l'Europe puisse s'imposer comme un acteur mondial en matière
d'intelligence artificielle, il est certes nécessaire de garantir les
droits et libertés des personnes concernées contre les intrusions
disproportionnées dans la sphère intime des individus, mais il ne
faudrait pas que l'impératif de protection des droits et des
libertés mènent à une surrèglementation qui
aboutirait à une exclusion systématique du recours aux
algorithmes d'intelligence et qui pourtant présente des perspectives de
croissance et d'opportunités économiques sur le long terme.
L'usage de l'intelligence artificielle suscite des
débats quant à la transposition des règles de la
responsabilité à l'intelligence artificielle. En matière
d'assurance, ces incertitudes s'expriment de deux façons. D'une part,
une première incertitude concerne la responsabilité de
l'assureur lorsqu'il utilise des procédés d'intelligence
artificielle causant un dommage à l'un de ses assurés.
D'autre part, se pose la question du portage risque à
l'assurance lorsqu'une intelligence artificielle est à l'origine de
dommages subis par un tiers.
II. L'intelligence artificielle à l'origine de nouvelles
logiques de responsabilité
Rappelé par le Conseil de l'Europe, le principe de
responsabilité est fondamental, tant il permet l'équilibre entre
d'une part, la liberté individuelle d'opérer selon ses propres
choix, de prendre ses propres décisions et d'effectuer ses propres
actions en toute autonomie et d'autre part, de répondre des dommages
causés aux autres du fait des actions entreprises au titre de la
liberté individuelle reconnue. Dans ce contexte, cette règle vise
à assurer le respect mutuel et la discipline collective des membres
d'une communauté85.
En l'état actuel, à l'étude du cadre
applicable, il convient d'ores et déjà de faire le constat
suivant : il n'existe actuellement aucun régime juridique propre
à l'intelligence artificielle en matière de responsabilité
civile. En ce sens, le cadre actuel n'est pas sans poser de nouvelles
interrogations quant à l'applicabilité des régimes de
responsabilités traditionnels.
En effet, suivant le principe de responsabilité civile,
chacun est tenu de réparer les dommages causés à autrui,
et on ne pourrait d'ailleurs comprendre qu'il en aille autrement
55/97
85
https://rm.coe.int/responsability-and-ai-fr/168097d9c6
56/97
s'agissant des dommages causés par recours à
l'intelligence artificielle. À l'heure actuelle, le droit ne semble
répondre que partiellement à cette question. Les réponses
apportées en ce sens semblent différer selon qu'il s'agisse d'une
IA symboliste (dite faible) ou connexionniste (dite forte), ou encore d'une IA
dite incarnée ou désincarnée.
En ce sens, s'agissant des intelligences artificielles
dites incarnées, les régimes de la responsabilité
civile du fait des choses et de la responsabilité du fait des produits
défectueux sont applicables aux dommages causés à autrui,
notamment en raison du caractère indissociable de l'IA à l'objet,
son support.
Mais les choses sont différentes s'agissant des
intelligences artificielles désincarnées, en l'absence de
support matériel. Dans ce contexte, les régimes juridiques
existants ne sont pas applicables, de sorte qu'il existe un vide juridique sur
ce point.
Afin de pallier ce vide juridique existant en la
matière, plusieurs pistes ont toutefois été
évoquées.
La première serait de s'appuyer sur la notion
de garde dans le cadre du régime commun de la responsabilité
civile. Toutefois, cette notion semble inadaptée puisque la
garde suppose que le gardien dispose du pouvoir de direction, de contrôle
et d'usage. Or, dans un contexte où les intelligences artificielles
développées visent justement à s'émanciper et
s'autodéterminer, le créateur ne dispose plus réellement
du contrôle, de l'usage et de la direction sur l'intelligence
artificielle. C'est justement ce que retient Stéphane Larrière,
DPO du groupe Essilor, précisant ainsi que « la capacité
d'auto-détermination de l'intelligence artificielle et sa marge
d'indétermination qui en découle vis-à-vis de l'homme, la
font échapper purement et simplement au champ de la
responsabilité civile, sans qu'il soit même besoin de s'interroger
plus avant sur son incorporalité... Si Siri à la question de sa
responsabilité civile bloque sur un « sans commentaires »,
c'est que par un défaut de fondement, elle n'a juridiquement aucune
réponse à apporter : sa responsabilité civile est un bogue
! ».
La deuxième piste viserait à la
création d'un statut juridique propre à l'intelligence
artificielle, à mi-chemin entre la chose et l'animal, avec un
régime de responsabilité propre. Néanmoins, on
pourrait y voir deux inconvénients sur ce point.
57/97
D'une part, la création d'un statut juridique
et d'un régime de responsabilité propres à l'intelligence
artificielle posent la question de l'applicabilité de ce nouveau
régime de responsabilité. En effet, l'intelligence
artificielle n'est pas une personne, et ne dispose donc pas d'un patrimoine.
D'un point de vue purement pragmatique, cette situation pose la question de la
charge finale de la réparation. En tout état de
cause, si un nouveau statut juridique est créé, c'est justement
pour éviter de faire peser la charge de la réparation sur le
concepteur, qui par nature ne peut être tenu pour responsable des
agissements et décisions d'une intelligence artificielle qui
s'auto-détermine. Ainsi, l'une des pistes retenues serait de soumettre
ces intelligences artificielles à un régime d'assurance
obligatoire. Cette situation conduirait donc à faire peser sur
les assureurs la prise en charge de la réparation des préjudices
causés aux tiers du fait des agissements ou décisions des
intelligences artificielles. Cette situation pose tout de même
un certain nombre de questions, s'agissant notamment de l'assurabilité
de ces risques, la charge potentielle pesant à ce titre sur les
assureurs, l'étendue des obligations des assurances en la matière
en cas de survenance d'un tel sinistre. En ce sens, ce mécanisme
questionne quant à la place que doit non seulement occuper les
intelligences artificielles autonomes dans nos sociétés, mais
également le rôle que doivent supporter les assureurs dans cette
évolution. Quoiqu'il en soit, en l'état actuel, les solutions
semblent multiples et aucune réponse n'a pour l'heure été
apportée sur ce point. Néanmoins, à l'étude du
cadre actuel, il faut souligner que des mécanismes de réassurance
et des fonds d'indemnisation spécifiques existent déjà
pour des sinistres spécifiques, comme en témoignent le fonds de
garantie des victimes des actes de terrorisme ou le fonds de prévention
des risques naturels majeurs (FPRNM), aussi appelé fonds Barnier. Dans
ce contexte, un statut spécifique pourrait être accompagné
d'un régime d'indemnisation spécifique, à l'instar des
deux précédemment cités, dont le financement serait
réparti entre plusieurs acteurs.
D'autre part, la création d'un statut juridique
autonome reconnu à l'intelligence artificielle conduirait à un
effet inverse de l'objectif recherché actuellement. En effet,
les travaux actuellement menés par la Commission européenne et le
Conseil de l'Europe tendent à retenir une logique d'accountability
qui vise à une responsabilisation accrue des développeurs
d'intelligences artificielles en matière d'éthique. Or, l'une des
interrogations s'agissant de la création d'un statut spécifique
de l'intelligence artificielle concerne justement l'effectivité d'une
logique d'accountability dans un contexte où le
développeur ou fabricant sait qu'il ne pourrait potentiellement plus
être recherché du fait des agissements ou décisions issus
de son intelligence artificielle.
Enfin, une troisième approche plus nuancée
viserait à créer un cadre de responsabilité
partagée entre le concepteur, l'utilisateur et le fabricant.
Présentant l'avantage d'inclure tous les acteurs dans le processus
d'indemnisation, il risque toutefois de faire peser sur le fabricant ou le
développeur une part de responsabilité qui pourrait être
contestable dans les cas où les défaillances résultent du
pur fait de l'intelligence artificielle, et non d'un défaut de
fabrication.
En tout état de cause, dans le cadre de la
réforme du cadre juridique de la responsabilité civile
actuellement en discussion, le projet de loi actuellement retenu ne
prévoit rien concernant ce point86, de sorte que le sujet semble loin
d'être tranché pour l'heure.
Afin de pallier les divers aléas pouvant surgir
à l'occasion de l'intégration des outils d'intelligence
artificielle, et de permettre de prendre en considération
l'intégralité des éléments nécessaires
à une intégration réussie de ces nouveaux outils, il est
nécessaire pour les acteurs du secteur de l'assurance d'adopter une
véritable gouvernance de l'intelligence artificielle,
préalablement à son déploiement.
58/97
86
https://www.actualitesdudroit.fr/browse/tech-droit/intelligence-artificielle/22571/reforme-de-la-responsabilite-et-intelligence-
artificielle-le-rapport-de-la-cour-d-appel-de-paris-refuse-de-se-prononcer
59/97
Chapitre 2 :
Une gouvernance interne primordiale
préalablement au recours à l'intelligence
artificielle
Selon l'étude réalisée conjointement par
PwC France et l'Usine Digitale concernant l'intelligence artificielle et le big
data, la moitié des entreprises sondées exploite moins de
25% de la donnée collectée et analysée. Plus
particulièrement, « les entreprises sont dans l'ensemble plus
promptes à collecter les données qu'à les exploiter. En
effet, 51% des répondants attribuent une note entre 7 et 10/10 à
la collecte des données, contre seulement 36% à l'analyse et 33%
à l'exploitation des données87 ». Ces résultats
s'expliquent en réalité par combinaison de deux facteurs.
D'abord, le recours à l'intelligence artificielle - outil de traitement
et de valorisation de la donnée - dépend de la taille de
l'entreprise en effectif. Ensuite, le recours à l'intelligence
artificielle est corrélé au chiffre d'affaire.
Néanmoins, ces résultats montrent clairement une
difficulté, non pas pour collecter les données, mais pour les
exploiter, et donc créer de la valeur. Pourtant, l'intelligence
artificielle intrigue puisque selon les dernières prédictions du
cabinet PwC, 9 dirigeants sur 10 considèrent que l'intelligence
artificielle présente plus d'opportunités que de
risques88.
Toutefois, afin de pouvoir en tirer pleinement partie, il
semble nécessaire que les acteurs de l'assurance adoptent une
véritable gouvernance de l'intelligence artificielle afin de pouvoir en
maitriser tous les aspects. Cette gouvernance nécessite en pratique
d'établir une stratégie d'entreprise (Section
1), et d'accorder une vigilance particulière à
la sécurité (Section 2).
Section 1. L'impératif d'une stratégie
de la donnée avant l'intégration des outils d'intelligence
artificielle
Comme nous l'avons précédemment vu, les
données occupent une place prépondérante dans le secteur
assurantiel. À cet égard, Salah Kamel, PDG de Semarchy, a
souligné « les données sont à l'IA ce que les
nucélotides sont à l'ADN89 », soulignant les
rapports existants
87
https://www.usine-digitale.fr/article/data-et-ia-la-moitie-des-entreprises-exploite-moins-de-25-de-la-donnee-collectee-et-analysee.N756829
88
https://www.pwc.fr/fr/publications/data/predictions-ia-2020.html
89
https://www.decideo.fr/L-Intelligence-Artificielle-l-ADN-qui-donne-vie-aux-
donnees_a11832.html#:~:text=Les%20donn%C3%A9es%20sont%20%C3%A0%20l,nucl%C3%A9otides%20sont%20%C3%A0%20l'ADN
&text=Aujourd'hui%2C%20les%20donn%C3%A9es%20ne,par%20exemple%20la%20parole%20humaine.
60/97
entre les données et l'intelligence artificielle. Dans
ce contexte, leur valorisation est impérative et s'impose comme un enjeu
stratégique, devant permettre aux organisations de créer de
valeur.
Mais pour réussir l'intégration de
l'intelligence artificielle, il est nécessaire préalablement
d'adopter une véritable stratégie fondée sur la
donnée et l'intégration de l'intelligence artificielle. Cette
démarche est nécessaire afin de délimiter le cadre
d'intervention de l'intelligence artificielle. En outre, cette stratégie
est rendue nécessaire afin de ne pas fausser les résultats de
l'intelligence artificielle et surtout, d'obtenir des résultats
pertinents. Cette stratégie peut être définie comme
l'ensemble des actions, opérations, et processus en vue d'atteindre la
vision voulue par l'entreprise. Pour ce faire, cette stratégie
se fonde sur trois étapes fondamentales et requises afin de parvenir
à l'intégration des nouveaux procédés
d'intelligence d'artificielle, qui sont la détermination d'une
vision stratégique globale, l'identification du périmètre
de la transformation, et la mise en oeuvre des initiatives
prioritaires90. Plus particulièrement, pour parvenir à
la réalisation des objectifs fixés, et surtout afin de pouvoir
développer une approche raisonnée et cohérente, il est
nécessaire de prendre en considération certains aspects
essentiels.
Le premier aspect concerne les données
nécessaires à l'intégration de l'intelligence
artificielle. D'une part, il est nécessaire de déterminer
avec précision la nature précise des données
devant être exploitées dans le déploiement de
l'intelligence artificielle. D'autre part, afin de garantir la pertinence des
résultats, il apparait nécessaire d'assurer la
qualité des données contenues sur les
systèmes d'information. S'il n'existe pas définition
légale de la qualité des données, cette notion peut
cependant être définie comme l'aptitude de l'ensemble des
données à satisfaire des exigences internes (pilotage, prise de
décision, etc.) et des exigences externes (réglementation, etc.).
Pour pouvoir assurer la qualité des données contenues dans un
système d'information, il est nécessaire de prendre en
considération plusieurs critères :
- la fraicheur, qui suppose un bref délai
entre la collecte de la donnée et son analyse ;
- la disponibilité de la
donnée, qui suppose des temps d'accès corrects aux bases
de données, du classement des données, de la présentation
claire et intelligible des données, mais également de la mise
à disposition aux utilisateurs des outils nécessaires pour
accès à ces données ;
- la cohérence des données
collectées, eu égard la finalité et les objectifs
de la collecte ;
90 McKinsey France, Accélérer la mutation
numérique des entreprises : un gisement de croissance et de
compétitivité pour la France, Septembre 2014
- la traçabilité, permettant de
suivre le cheminement de l'information de sa collecte jusqu'à sa
restitution ;
- la sécurisation des données, et
;
- l'exhaustivité des données.
Le deuxième vise à prendre en
considération l'environnement externe. À cet égard,
il est important pour les assureurs de développer une approche
respectueuse de la règlementation applicable au secteur, qu'il
des règles relatives au portage du risque, à la lutte contre le
blanchiment, mais également en matière de protection des
données personnelles.
Le troisième aspect essentiel à prendre en
considération le facteur humain. Plus spécifiquement, afin
de pouvoir mener à bien l'intégration des outils d'intelligence
artificielle dans l'organisation, il est nécessaire pour les
compagnies de prévoir les compétences requises pour y
parvenir. Comme le précise le rapport d'IBM de 201991, la
construction et le déploiement des outils d'intelligence artificielle
peuvent nécessiter une équipe de développeurs, d'analyste
business, d'architecte IT, d'analystes et d'ingénieurs data.
À cet égard, ce point appelle deux remarques.
D'abord, il apparait primordial pour les compagnies du secteur
de budgétiser dès le départ les ressources
nécessaires à l'embauche de ces nouvelles recrues issues
principalement du numérique.
Ensuite, cette nouvelle embauche doit passer par une campagne
de recrutement active des assureurs, qui doivent engager les moyens
nécessaires afin d'attirer les profils indispensables à la bonne
réalisation de la stratégie.
Aussi, outre les nouveaux recrutements induits par la
construction des nouveaux systèmes d'intelligence artificielle,
il est également nécessaire de prévoir en amont
l'acculturation et la formation des collaborateurs de l'entreprise. En
ce sens, nous avons vu précédemment que l'intelligence
artificielle doit permettre de rendre l'organisation plus agile, en
effaçant les cloisonnements traditionnels entre les métiers et en
offrant des possibilités d'automatiser une partie des tâches
répétitives. Dans ce contexte, les métiers
évoluant, il est nécessaire que cette mutation s'accompagne d'une
part, d'une réévaluation des effectifs et de la planification des
charges de travail requises, et d'autre part d'un accompagnement des
collaborateurs par la mise en place de plans de formation
personnalisés.
61/97
91 IBM Power Systems, Considering the impact of AI in
insurance, Becky Humphreys, Sam Jones, Mark Woolnough, 2019
Par ailleurs, il est crucial de prendre en
considération la structure informatique existante dans
l'entreprise. En effet, afin de pouvoir capitaliser sur les nouveaux
procédés d'intelligence artificielle, il est non seulement
nécessaire de déterminer les capacités informatiques
existantes avant l'implémentation de l'intelligence artificielle dans le
système, mais également de prévoir les besoins en terme de
réorganisation des systèmes informatiques, notamment en terme de
stockage (stockage physique, solutions cloud public ou privé,
externalisation, etc.), d'évolution des bases de données,
d'interopérabilité, de capacité de calcul et de traitement
de l'information, etc. Cette démarche est essentielle puisqu'en omettant
de définir les besoins informatiques, l'organisation s'expose à
un cloisonnement des systèmes et des utilisations, contreproductives
dans un cadre où l'intelligence artificielle vise à cultiver la
transversalité des métiers et le dé-silotage des
organisations.
Enfin, cette stratégie, pour être effective, doit
intégrer une structure de la gouvernance de la stratégie,
qui se doit d'être multidisciplinaire (des experts du management, des
achats, de la conformité, des technologies et des données, ainsi
que des responsables de processus issus de différentes fonctions),
l'idée étant de couvrir l'ensemble des fonctions de l'entreprise
pour une prise en compte de l'ensemble des problématiques des
différents métiers et une meilleure compréhension des
enjeux. En ce sens, il donc nécessaire pour les assureurs de
développer une approche conciliant stratégie métiers et
stratégie data. C'est d'ailleurs la préconisation du cabinet
Deloitte en la matière, soulignant dans son étude que « 90%
des assureurs interrogés indiquent avoir une approche data
indépendante de la stratégie métier92 », la data
étant encore trop souvent associée aux seules directions IT,
là où elle devrait alimenter l'ensemble des fonctions et
métiers.
Plus spécifiquement s'agissant de l'assurance, l'ACPR a
en substance retenu la même approche, et a pu préciser à
cet égard qu'il est primordial pour les assureurs de tenir
compte de leurs caractéristiques propres afin de conduire leur
transformation numérique. Plus particulièrement, l'ACPR
souligne que les entreprises d'assurance doivent gérer trois
héritages du passé censés permettre aux compagnies, une
fois leur transformation achevée, de pouvoir se positionner
stratégiquement sur le marché. Ces trois héritages sont
l'héritage informatique, par l'adoption de
méthodes agiles, l'héritage des ressources
humaines, par une acculturation
62/97
92 Cabinet Deloitte, A little less conversation, a lot
more action - tactics to get satisfaction from data analytics,
2017
63/97
des collaborateurs aux nouveaux outils, et un
héritage des processus de la relation client, au coeur
de l'activité et devant guider les mutations du secteur93.
En tout état de cause, cette démarche
est primordiale préalablement à toute intégration de
systèmes d'intelligence artificielle, tant elle vise à
déterminer de manière précise la situation de
départ, l'objectif à atteindre, et les moyens pour y
parvenir. De manière plus pragmatique, un assureur qui
intégrerait les nouveaux outils d'intelligence artificielle sans
préalablement en étudier les moyens pour y parvenir s'exposerait
à plusieurs risques.
D'abord, l'absence de stratégie maximise les
risques d'introduire dans le système des données peu qualitatives
ou erronées, augmentant le risque de résultats «
biaisés » par l'intelligence artificielle.
En outre, cette situation augmente le risque d'une
intelligence artificielle peu respectueuse non seulement des obligations
légales applicables aux assureurs, mais également des droits et
libertés reconnus aux individus. Par exemple, dans le champ de
l'assurance de personne, l'absence d'un cadre clair et d'une
délimitation du champ d'intervention de l'intelligence artificielle
augmente pourrait entrainer la collecte de données de santé sans
respecter les précautions particulières devant être mises
en oeuvre s'agissant de ce type de données, considérées
comme sensibles au regard du RGPD.
Surtout, en l'absence de stratégie
d'intégration, la situation pourrait conduire à un effet inverse.
En effet, s'agissant des collaborateurs, un champ d'intervention de
l'intelligence artificielle et une mauvaise intégration pourrait
conduire un cloisonnement des métiers plutôt qu'à
une transversalité et une synergie, au risque d'un abandon de ces
outils. S'agissant du client, les risques ne sont pas
négligeables. En effet, par exemple, en gestion de sinistres, une
mauvaise programmation pourrait conduire à une mauvaise collecte des
données. Sur la base de ces données, l'intelligence artificielle
pourrait mal interpréter les faits d'un sinistre et retenir un partage
de responsabilité erroné dans un sinistre automobile. Outre
l'erreur en termes de gestion du sinistre, cette situation crée de
l'insatisfaction, avec le risque que celui-ci résilie et/ou le risque
d'une mauvaise réputation sur le long terme par le partage
d'expérience sur les réseaux.
93 Autorité de Contrôle Prudentiel et de
Résolution, Étude sur la révolution
numérique dans le secteur français de
l'assurance, n°87 - Mars 2018
64/97
Si une stratégie de la donnée et
d'intégration des nouveaux outils d'intelligence artificielle est
nécessaire, la question de la sécurité des infrastructures
doit également être prise en compte en amont par les acteurs du
secteur.
Section 2. L'importance d'une prise en
considération des risques liés à la sécurité
des procédés d'intelligence artificielle
Par nature, l'environnement numérique est
caractérisé par une plus grande fragilité que le monde
physique, notamment en raison de la dématérialisation de
l'information. En effet, l'information est par nature
immatérielle, impliquant de facto une double vulnérabilité
: celle affectant le support physique (contenant) et
celle affectant la donnée, entendue comme la signification, la
représentation de l'information (contenu).
Face à la multiplication des attaques d'envergure
(Maze, Wannacry, Petya, etc), « parler de cyber résilience
aujourd'hui revient à admettre qu'il est impossible d'empêcher
l'avènement de cyber incidents, que le cyber espace est un monde
fragile, instable et potentiellement hostile. Faire de la cyber
résilience ne signifie pas se résoudre à
l'incapacité de protéger correctement les infrastructures
informationnelles, mais plutôt à reconnaître objectivement
l'insuffisante efficacité des mesures de sécurité
préventives, qu'elles soient d'ordre politique, organisationnelle,
managériale, juridique ou technique94 ».
La cyber résilience étant devenue aujourd'hui un
impératif afin de réduire les risques technologiques
inhérents à cet élan constant de numérisation, il
est nécessaire de prendre les mesures nécessaires afin de
pouvoir assurer la sécurité, tant des structures physiques, que
des données numériques possédées.
Afin de garantir la sécurité des systèmes
d'information, il existe six concepts de base que chaque
entreprise doit poursuivre lors de l'établissement d'une politique de
sécurisation des systèmes d'information et de gestion des risques
cyber. Alors que les trois premiers, référencés selon
l'acronyme anglais « CIA »
(Confidentiality, Integrity,
Availability), s'imposent
94 Solange Ghernaouti et Christian Aghroum,
Cyber-résilience, risques et dépendances : pour une
nouvelle approche de la cyber-sécurité, 2012
65/97
comme des objectifs des
sécurité, les trois autres acronymes («
AAA » pour Authentication,
Authorization, Acccounting), constituent des
fonctions de sécurité (voir annexe 9).
Si ces attaques semblent inévitables, il faut
également souligner que les conséquences de ces attaques sont
également nombreuses. Ainsi, outre une indisponibilité des
services et du site de l'entreprise pendant une période significative,
un ralentissement ou un arrêt total de la production pendant
quelques heures, mais également une perte du chiffre
d'affaires et une obligation de remplacer du matériel
endommagé. En outre, le Cabinet Deloitte,
spécialisé dans l'audit professionnel, a pu mettre avant le fait
que les estimations des conséquences d'une cyber attaque sont
généralement erronées, et se limitent à la
« partie émergée de l'iceberg »95. En effet, ces
estimations ne prennent en compte que les coûts les plus évidents.
Or, une cyberattaque entraine également des coûts beaucoup plus
diffus et difficiles à chiffrer, comme la perte de confiance
accordée par le client, l'érosion du chiffre d'affaires
liés à la perte de contrats client, ou encore
dépréciation de la valeur de marque (préjudice d'image et
atteinte à la réputation). Et les exemples foisonnent en la
matière, comme en témoigne la récente attaque informatique
commise contre l'assureur MMA au courant du mois de juillet 2020. Bien
qu'aucune donnée concernant les assurés n'ait été
dérobée, l'attaque a entrainé l'arrêt des
systèmes de l'entreprise pendant plusieurs jours, rendant indisponibles
le site web de l'entreprise, mais également l'intégralité
de l'intranet et des applicatifs nécessaires à la poursuite de
l'activité96.
En pratique, l'intelligence artificielle ne fait pas exception
à la règle et est, elle aussi, exposée au
phénomène. En effet, dans un rapport de 201997, le cabinet
Wavestone, identifie trois principaux moyens d'attaque à l'encontre des
procédés d'intelligence artificielle :
- les attaques par empoisonnement, ciblant
spécifiquement la phase d'apprentissage automatique de l'IA. En agissant
à l'occasion de cette phase, l'attaque souhaite modifier le comportement
de l'intelligence artificielle en influençant le jeu de données
utilisés par l'IA. C'est typiquement le procédé qui a
été utilisé par les utilisateurs de Twitter afin de
pousser Tay, l'intelligence artificielle déployée par Microsoft,
à tenir des propos racistes et négationnistes.
95 Cabinet Deloitte, Beneath the surface of a cyberattack,
a deeper look at business impacts, 2016
96
https://www.lemonde.fr/pixels/article/2020/07/21/l-assureur-mutualiste-mma-vise-par-une-attaque-informatique_6046824_4408996.html
97 Wavestone, Intelligence artificielle et
cybersécurité : protéger dès maintenant le monde de
demain, 2019
66/97
- les attaques par interférence, par
lesquelles l'attaquant teste successivement différentes requêtes
adressées à l'IA et étudie l'évolution de son
comportement. Par ce procédé, « l'attaquant cherche ici soit
la récupération des données utilisées par l'IA (en
apprentissage ou en production), soit le vol du modèle (ou de certains
de ses paramètres) ». C'est notamment le procédé qui
a été utilisé pour contourner le dispositif de
sécurité « Face ID » équipant les iPhone X.
Ainsi, à l'aide d'une paire de lunettes, d'un ruban adhésif, et
d'un utilisateur endormi afin de déverrouiller l'appareil. Prouvant que
le système ne teste pas la vivacité, mais simplement l'existence
de similitudes, il est donc possible de contourner l'authentification à
l'aide de masques imprimés en 3D98.
- les attaques par évasion, qui visent
à détourner le fonctionnement de l'IA par illusion, en jouant sur
les données d'entrée de l'application. Ainsi, en introduisant un
bruit à l'entrée, l'attaquant détourne le comportement de
l'IA au stade du traitement de l'information, afin que le système
produise une décision différente de celle normalement attendue
par l'application.
Plus particulièrement, l'utilisation
croisée des technologies, dont notamment les objets connectés,
augmentent les failles dans la sécurité et les risques en
découlant. En effet, en raison probablement d'une
sécurisation très faible de ces objets connectés, de la
disponibilité continue des machines, et du nombre important d'objets en
circulation facilitant les attaques de grande ampleur, les objets
connectés connaissent une augmentation des attaques les concernant
depuis 201699.
Dans ce contexte, les acteurs du secteur de l'assurance
doivent tenir compte, en amont de l'intégration de ces nouveaux outils,
des risques liés à la cybersécurité. Cette question
est d'ailleurs rendue nécessaires au regard de deux
éléments complémentaires.
D'une part, au-delà de la protection des données
de la personne concernée, le RGPD impose aux responsables de traitement
et leurs sous-traitant des standards de sécurité à mettre
en oeuvre afin de garantir la disponibilité, l'intégrité
et la confidentialité des données traitées. Ainsi, aux
termes des articles 25 et 32 du Règlement, les responsables de
traitement et leurs sous-traitants doivent prendre toutes les mesures
physiques, logiques et organisationnelles
98
https://www.forbes.com/sites/daveywinder/2019/08/10/apples-iphone-faceid-hacked-in-less-than-120-seconds/
99 ANSSI, État de la menace liée aux
botnets, version 2.0.4, novembre 2019
67/97
requises afin de garantir un niveau de sécurité
adapté au risque. En outre, l'article 33 du Règlement oblige le
responsable de traitement à notifier, dans les cas explicités par
l'article, les violations de données aux personnes concernées
et/ou à l'autorité de contrôle nationale. Plus
particulièrement, toute violation de sécurité portant sur
les données personnelles et présentant des risques pour les
personnes concernées doit faire l'objet d'une notification auprès
de l'autorité de contrôle dans les 72 heures suivant la
connaissance de la violation. Le responsable du traitement doit
également en informer les personnes concernées s'il existe un
risque élevé pour leurs droits et libertés. En outre,
cette notification doit indiquer les conséquences probables de cette
violation et les mesures prises pour y remédier, ce qui
représente un coût pour les entreprises concernées
(identification de l'incident, recherche de l'origine, frais relatifs à
l'identification des personnes concernées par la violation, frais
d'envoi des notifications, etc.). Ainsi, les assureurs,
également soumis à cette réglementation, doivent
nécessairement intégrer cette question de la
sécurité des outils d'intelligence artificielle (mais
également des objets connectés) dans leur stratégie
d'intégration, et doivent donc à ce titre adopter un comportement
actif en la matière.
D'autre part, nous avons vu précédemment que le
déploiement de l'intelligence artificielle dans le secteur de
l'assurance supposait une approche favorisant la confiance des utilisateurs. En
tout état de cause, si cette confiance passe par l'adoption d'une
approche éthique de l'intelligence artificielle, il faut cependant
souligner que la sécurité des infrastructures et
systèmes informatiques visent également à accroitre la
confiance. Ainsi, la sécurité des infrastructures doit
être pleinement prise en considération lors de
l'intégration des outils d'intelligence artificielle afin de cultiver
cette confiance, nécessaire et importante dans un secteur où la
satisfaction du client occupe une place centrale.
68/97
CONCLUSION
En étudiant les tendances numériques en lien
avec l'intelligence artificielle, il est clair que cette dernière
constitue un outil stratégique redoutable pour les organisations. Son
adoption permet de pouvoir accélérer la transformation
numérique des organisations, en offrant des possibilités de
synergies et de transversalité des métiers jusqu'alors
insoupçonnées. Surtout, elle s'inscrit comme un outil important
de compréhension et de maitrise du client. En ce sens, dans une
économie où se développe un besoin de
considération, à rebours des logiques de réseau et des
communautés pourtant centrales dans le monde numérique actuelle,
l'intelligence artificielle s'impose comme le moteur d'une personnalisation
rendue nécessaire.
Toutefois, si l'intelligence artificielle promet d'offrir de
nouvelles perspectives pour les entreprises qui font le choix de son
intégration, le cadre actuel reste encore incertain et imparfait,
rendant difficile son adoption en raison de trop nombreuses incertitudes. En
l'état actuel des choses, les différents travaux en cours et les
derniers éléments de politiques publiques témoignent d'une
période de transition, d'un passage vers un nouveau palier de transition
numérique tendant à se poser une nouvelle question : la nouvelle
ère à venir ne serait-elle pas l'expression de ce que les auteurs
qualifient de « web 3.0 » ou web sémantique, dans lequel les
données, couplées aux technologies du cloud, du big data, et de
l'intelligence artificielle sont comprises et interprétables non
seulement par la machine mais également par l'homme, le but étant
de proposer d'augmenter la pertinence et la personnalisation des
résultats.
69/97
BIBLIOGRAPHIE
Ouvrages
- Éric A. Caprioli, Droit international de
l'économie numérique : les problèmes juridiques
liés à l'internationalisation de l'économie
numérique, Lexis Nexis, 2e Édition
- Hubery Bitan, Droit et expertise du
numérique, Wolters Kluwer, 2015
Publications
- Insurance Europe, European Insurance - Key Facts,
Septembre 2019
- Accenture Research, How AI boosts industry profits and
innovation, 2017
- Autorité de Contrôle Prudentiel et de
Résolution, Étude sur la révolution
numérique dans le secteur français de
l'assurance, n°87 - Mars 2018
- La Fabrique d'assurance, Intelligence artificielle et
éthique dans le secteur de l'assurance, livre blanc,
novembre 2019
- Fédération Française de l'Assurance,
L'assurance dans les territoires, 2019
- Jean-Philip Dumont, Gestion des risques des
compagnies d'assurance : une revue de la littérature
récente, Assurances et gestion des risques, vol. 79
(1-2), avril-juillet 2011, 43-81
- McKinsey Global Institue, The age of analytics :
competing in a data-driven world, décembre 2016
- IBM Power Systems, Considering the impact of AI in
insurance, Becky Humphreys, Sam Jones, Mark Woolnough, 2019
- OPTIC Technology, Intelligence artificielle,
solidarité et assurances en Europe et au Canada - Feuille de route pour
une coopération internationale, 20 janvier 2020
- Commission Nationale Informatiques et Libertés
(CNIL), Comment permettre à l'Homme de garder la main ? Les
enjeux des algorithmes et de l'intelligence artificielle,
Synthèse du débat public animé par la CNIL dans le cadre
de la mission de réflexion éthique confiée par la loi pour
une République numérique, décembre 2017
- ACPR, Gouvernance des algorithmes d'intelligence
artificielle dans le secteur financier, document de
réflexion, Laurent Dupont, Olivier Fliche, Su Yang, juin 2020
- McKinsey France, Accélérer la mutation
numérique des entreprises : un gisement de croissance et de
compétitivité pour la France, Septembre 2014
- Cabinet Deloitte, A little less conversation, a lot more
action - tactics to get satisfaction from data analytics,
2017
- Solange Ghernaouti et Christian Aghroum,
Cyber-résilience, risques et dépendances : pour une
nouvelle approche de la cyber-sécurité, 2012
- Cabinet Deloitte, Beneath the surface of a cyberattack,
a deeper look at business impacts, 2016
- Wavestone, Intelligence artificielle et
cybersécurité : protéger dès maintenant le monde de
demain, 2019
70/97
- ANSSI, État de la menace liée aux
botnets, version 2.0.4, novembre 2019`
- FFA, L'assurance française - Données
clés 2018, septembre 2019
- A. Bozio et J. Grenet, Économie des politiques
publiques, La Découverte, 2017
- G. Dablin et M. Monin, Assurer la qualité des
données grâce à l'intelligence
artificielle, Revue banque n°836, 2019
Textes légaux
- Communication de la Commission européenne au
Parlement européen, au Conseil, au Comité économique et
social européen et au Comité des région du 6 mai 2015,
intitulé « Stratégie pour une marché unique
numérique en Europe », COM (2017) 192 Final, SWD (2015) 100
final
- Directive 2009/138/CE du Parlement européen et du
Conseil du 25 novembre 2009 sur l'accès aux activités de
l'assurance et de la réassurance et leur exercice (Solvabilité
II)
- Article L.125-1 Code des assurances
- Article L. 1110-1 du Code de la santé publique
- Communication de la Commission européenne du 8 avril
2019, Renforcer la confiance dans l'intelligence artificielle
axée sur le facteur humain, COM(2019) 168 final
- Livre blanc de la Commission européenne,
Intelligence artificielle : une approche européenne axée
sur l'excellence et la confiance, 19 février 2020,
COM(2020) 65 final
- Recommandation CM/Rec(2020)1 du Comité des Ministres
aux États membres sur les impacts des systèmes algorithmiques sur
les droits de l'homme, adoptée par le Comité des Ministres le 8
avril 2020, lors de la 1373e réunion des Délégués
des Ministres
- Règlement (UE) 2016/679 du Parlement européen
et du Conseil du 27 avril 2016 relatif à la protection des personnes
physiques à l'égard du traitement des données à
caractère personnel et à la libre circulation de ces
données, et abrogeant la directive 95/46/CE
- Directive 95/46/CE du Parlement européen et du
Conseil, du 24 octobre 1995, relative à la protection des personnes
physiques à l'égard du traitement des données à
caractère personnel et à la libre circulation de ces
données
Sites internet
-
https://www.factor-tech.com/feature/stephen-hawking-the-rise-of-powerful-ai-will-be-either-the-best-or-the-worst-thing-ever-to-happen-to-humanity/
-
https://www.gartner.com/smarterwithgartner/top-trends-on-the-gartner-hype-cycle-for-artificial-intelligence-2019/
-
https://www.journaldunet.com/economie/finance/1207903-qui-sont-les-assurtech-francaises-2019/
- https://ffa-conference-internationale.fr/
71/97
-
https://www.belfius-assurances.be/service-clients/prevention/principes-de-base-de-la-prevention/danger-risque-et-analyse-des-risques/
-
https://www.euractiv.fr/section/economie/interview/gdpr-could-obstruct-ai-development-mep-says/
-
https://websummit.com/blog/hall-of-famers
-
https://www.idc.fr/infographies
-
https://www.coe.int/fr/web/artificial-intelligence/history-of-
ai#:~:text=L'intelligence%20artificielle%20(IA),cognitives%20d'un%20%C3%AAtre%20humain
-
https://www.idc.com/getdoc.jsp?containerId=prUS46794720
-
https://www.insuranceeurope.eu/about-us
-
https://www.insuranceeurope.eu/sites/default/files/attachments/European%20insurance%20--
%20Key%20facts.pdf
-
https://arfv2.cdn.axa-contento-118412.eu/arfv2%2F44d8a534-cd54-45e6-8aab-f3e5614a4d01_axa_livreblanc-ia-vf-pdfinteractif.pdf
-
https://www.argusdelassurance.com/la-valorisation-de-la-donnee-dans-l-assurance/cloud-data-et-intelligence-artificielle-le-tierce-gagnant-des-assureurs.153659
-
https://www.reinsurancene.ws/googles-verily-launches-insurance-partnership-with-swiss-re/
-
https://www.insurancebusinessmag.com/ca/news/healthcare/amazon-and-google-the-next-generation-of-insurance-competition-in-canada-117644.aspx
-
https://www.argusdelassurance.com/a-la-une/assurance-amazon-menace-ou-opportunite.136979
-
https://bonne-assurance.com/actualites/2018/11/25/doit-on-craindre-une-entree-des-geants-du-web-dans-le-monde-de-lassurance/
-
https://tractable.ai/products/vehicle-damage/
-
https://tractable.ai/products/disasters/
-
https://www.luko.eu/blog/garanties-assurance-maison-luko
-
https://www.covea.eu/fr
-
https://www.decisionatelier.com/Covea-pousse-le-digital-dans-le-cadre-de-la-gestion-de-sinistre,11306
-
https://ia-data-analytics.fr/machine-learning/
-
https://www.futura-sciences.com/tech/definitions/intelligence-artificielle-deep-learning-17262/
-
https://www.lebigdata.fr/traitement-naturel-du-langage-nlp-definition
-
https://www.creditmutuel.com/fr/actualites/watson-nouvelle-solution-innovante-au-service-du-reseau-et-de-la-relation-client.html
-
https://www.actuia.com/contribution/jean-cupe/la-data-science-a-la-rescousse-des-assurances/
-
https://www.actuia.com/contribution/jean-cupe/la-data-science-a-la-rescousse-des-assurances/
-
https://wearesocial.com/fr/digital-2020-france
72/97
-
http://marketing-webmobile.fr/2011/10/histoire-du-web-mobile/
-
https://www.groupama.com/fr/notre-modele/marques/amaguiz/
-
https://www.forbes.fr/business/comment-le-club-med-dope-ses-ventes-grace-a-la-consideration-client/
-
https://www.assurance-prevention.fr/prevenir-incendies-accidents-domestiques-cambiolage-degat-des-eaux
-
https://www.statista.com/topics/2637/internet-of-things/
-
http://dictionnaire.sensagent.leparisien.fr/Informatique%20ubiquitaire/fr-fr/
-
https://www.innovation-mutuelle.fr/actualite/lintelligence-artificielle-une-opportunite-pour-les-mutuelles/#:~:text=En%20effet%2C%20l'assureur%20accompagne,de%20non%20r%C3%A9alisation
%20des%20risques
-
https://axaxl.com/fr/fast-fast-forward/articles/intelligence-artificielle-prevention-des-risques
-
https://openclassrooms.com/fr/courses/6172816-environnement-de-l-assurance/6418781-le-principe-de-la-mutualisation-et-le-transfert-des-risques#:~:text=Le%20principe%20de%20mutualisation%20des,soumis%20potentiellement%20au%20
m%C3%AAme%20risque
-
https://www.larousse.fr/dictionnaires/francais/risque/69557?q=risque#68805
-
https://euria.univ-brest.fr/menu/menu_1/Le_Metier_d_Actuaire/Qu_est-ce-qu_un_Actuaire__/
-
https://www.lesechos.fr/finance-marches/banque-assurances/il-y-a-des-risques-qui-sont-trop-grands-pour-le-marche-de-la-reassurance-1132686
-
https://www.universalis.fr/encyclopedie/george-a-akerlof/
-
https://www.pwc.fr/fr/expertises/actuariat-et-finance-quantitative-rvms/assurance/anti-selection-apprehender-ce-phenomene.html
-
https://www.universalis.fr/encyclopedie/assurance-economie-de-l-assurance/3-antiselection/
-
https://www.usabilis.com/definition-biais-cognitifs/
-
https://www.sciencesetavenir.fr/sante/cerveau-et-psy/comment-notre-cerveau-nous-manipule-t-il_135688
-
https://www.zdnet.fr/actualites/microsoft-tire-les-enseignements-de-son-experience-ratee-avec-tay-39888277.htm
-
https://experiences.microsoft.fr/business/intelligence-artificielle-ia-business/equite-algorithmes-
definition/
-
https://www.actuia.com/actualite/ethique-de-lintelligence-artificielle-cnp-assurances-met-en-place-un-dispositif-de-gouvernance/#:~:text=Etre%20vigilante%20sur%20l'%C3%A9quit%C3%A9,outils%20et%20processu
s%20d'IA
-
https://www.axa-research.org/fr/news/IA-research-guide
-
https://donnees-rgpd.fr/definitions/privacy-by-design/
-
https://ec.europa.eu/commission/presscorner/detail/fr/ip_20_273
-
73/97
https://rm.coe.int/responsability-and-ai-fr/168097d9c6
-
https://www.actualitesdudroit.fr/browse/tech-droit/intelligence-artificielle/22571/reforme-de-la-responsabilite-et-intelligence-artificielle-le-rapport-de-la-cour-d-appel-de-paris-refuse-de-se-prononcer
-
https://www.usine-digitale.fr/article/data-et-ia-la-moitie-des-entreprises-exploite-moins-de-25-de-la-donnee-collectee-et-analysee.N756829
-
https://www.pwc.fr/fr/publications/data/predictions-ia-2020.html
-
https://www.decideo.fr/L-Intelligence-Artificielle-l-ADN-qui-donne-vie-aux-
donnees_a11832.html#:~:text=Les%20donn%C3%A9es%20sont%20%C3%A0%20l,nucl%C3%A9otid
es%20sont%20%C3%A0%20l'ADN&text=Aujourd'hui%2C%20les%20donn%C3%A9es%20ne,par%2
0exemple%20la%20parole%20humaine
-
https://www.lemonde.fr/pixels/article/2020/07/21/l-assureur-mutualiste-mma-vise-par-une-attaque-informatique_6046824_4408996.html
-
https://www.forbes.com/sites/daveywinder/2019/08/10/apples-iphone-faceid-hacked-in-less-than-120-seconds/
-
https://www.ffa-assurance.fr/la-federation/nos-missions
74/97
ANNEXES
Annexe 1. Chiffres clés de l'assurance en
France
Selon les chiffres publiés par Insurance
Europe100, le marché de l'assurance européen
occupait en 2018 la deuxième place du marché mondial de
l'assurance, juste après l'Asie, et avant l'Amérique du
Nord. Le marché européen de l'assurance représente plus de
1 311 milliards d'euros de cotisations d'assurances sur l'année 2018, ce
chiffre étant en hausse de 6,2% par rapport à l'année
2017101. Et la France n'est pas en reste dans ce secteur. En effet,
selon l'étude, notre pays figure, aux côtés du Royaume-Uni
et de l'Allemagne, parmi les acteurs les plus importants du marché
européen.
Les entreprises d'assurance et de réassurance
opérant sur le territoire français sont regroupé au sein
d'un organisme de représentation professionnelle : la
Fédération Française de l'Assurance
(FFA)102. Regroupant près de 99% des entreprises d'assurance et
de réassurance opérant en France, l'une de ses missions consiste
à fournir les données statistiques essentielles de la
profession103. Selon les données rendues publiques par la
Fédération104, la France comptait 628 organismes
d'assurances agréés, dont 49,8% de
sociétés mutuelles au sens du Code de la mutualité, 28,8%
de sociétés d'assurance non-vie, ainsi que 13,2% de
sociétés d'assurance vie et mixtes.
100 Basée à Bruxelles, Insurance Europe est la
fédération européenne d'assurance et de
réassurance, qui représente toutes les entreprises d'assurance et
de réassurance. Ses missions sont les suivantes :
- Attirer l'attention sur les questions d'intérêt
stratégique pour tous les assureurs et réassureurs
européens de manière durable.
- Sensibiliser au rôle des assureurs et des
réassureurs dans la protection et la sécurité de la
communauté ainsi que dans la contribution à
la croissance et au développement économiques.
- Promouvoir - en tant qu'expert et représentant du
secteur de l'assurance - un marché concurrentiel et ouvert au profit du
consommateur européen ainsi que des entreprises clientes.
https://www.insuranceeurope.eu/about-us
101 Insurance Europe, European Insurance - Key Facts,
Septembre 2019.
Voir :
https://www.insuranceeurope.eu/sites/default/files/attachments/European%20insurance%20--%20Key%20facts.pdf
102 La Fédération Française de
l'Assurance (FFA) est l'organisme de représentation professionnelle des
entreprises d'assurance. Créée le 8 juillet 2016, la FFA regroupe
la Fédération Française des Sociétés
d'Assurance (FFSA) et le Groupement des Entreprises Mutuelles d'Assurances
(GEMA).
103 Plus précisément, les principales missions
de la FFA sont les suivantes : Préserver l'ensemble du champ
économique et social en relation avec les activités
assurantielles ; Représenter l'assurance auprès des pouvoirs
publics nationaux et internationaux, des institutions et des autorités
administratives ou de place ; Offrir un lieu de concertation et d'analyse des
questions financières, techniques ou juridiques ; Fournir les
données statistiques essentielles de la profession ; Informer le public
et les médias ; Promouvoir les actions de prévention ; Promouvoir
la place de l'assurance dans le monde académique et la formation. Voir
en ce sens :
https://www.ffa-assurance.fr/la-federation/nos-missions
104
https://www.ffa-assurance.fr/etudes-et-chiffres-cles/assurance-francaise-donnees-cles-2018
0.60%
1.90%
5.61%
Organismes d'assurance agréés en
France
49.85%
13.21%
28.83%
Sociétés d'assurance non vie
Sociétés d'assurance vie et mixtes
Institutions de prévoyans
Sociétés de réassurance
Succursales de pays tiers
Mutuelles au sens du Code de la mutualité
Données clés de l'Assurance
française, 2018
https://www.ffa-assurance.fr/etudes-et-chiffres-cles/assurance-francaise-donnees-cles-2018
En outre, le marché français de l'assurance
représentait en 2018 près de 219,4 milliards d'euros de
cotisations, réparties de la manière suivante :
3.89%
3.11%
1.56%
Répartition des cotisations en assurance de biens
et responsabilité
6.61%
12.45% 33.07%
39.30%
Transports Catastrophes naturelles Construction
Responsabilité civile générale Autres
Dommages aux biens Automobile
Assurances de personnes
Assurances de biens et responsabilité
Cotisations
219,4 Milliards € en 2018
25.60%
74.40%
75/97
Données clés de l'Assurance
française, 2018
https://www.ffa-assurance.fr/etudes-et-chiffres-cles/assurance-francaise-donnees-cles-2018
Si près de 219,4 milliards d'euros ont été
collectées au titre des cotisations, les prestations
d'assurance ont représenté 174,9
milliards d'euros pour l'année 2018, principalement en
assurance de personne (77,6%), puis en assurances de biens et de
responsabilité (22,4%).
4.04%
4.04%
0.90%
Répartition de la charge des prestations en
assurance de biens et responsabilité
6.73%
7.62%
31.84%
44.84%
Transports Catastrophes naturelles Construction
Responsabilité civile générale Autres
Dommages aux biens Automobile
Assurances de personnes
Assurances de biens et responsabilité
Prestations
174,9 Milliards € en 2018
22.40%
77.60%
76/97
Données clés de l'Assurance
française, 2018
https://www.ffa-assurance.fr/etudes-et-chiffres-cles/assurance-francaise-donnees-cles-2018
Annexe 2. Les différentes branches de
l'intelligence artificielle
77/97
Annexe 3. La mutualisation des risques
Source :
https://openclassrooms.com
Annexe 4. Les principaux indicateurs du
numérique en France
78/97
79/97
80/97
81/97
Source :
https://wearesocial.com/fr/digital-2020-france
82/97
Annexe 5. Les usages de l'intelligence artificielle en
assurance
Source :
Autorité de Contrôle Prudentiel et de
Résolution, Étude sur la révolution
numérique dans le secteur français de
l'assurance, n°87 - Mars 2018
83/97
Annexe 6. Classification des différentes formes
d'intelligence artificielle
Source :
https://www.coe.int/fr/web/artificial-intelligence/glossary
Nous trouvons des histoires
· et des motifs même dans des donnes eparses
|
Nous remplissons les caracteristiques
· manquantes a partir de stéréotypes, de
generalites et de nos a priori.
|
|
Pour éviter de faire des erreurs. nous
avons tendance a preserver notre autonomie et notre statut
groupe et
eviler les decisions irreversibles.
Pour accomplir nos tâches nous avons tendance a vouloir
completer celles dans lesquelles nous avons dejâ ·
investi du temps et de I-energie
Afin de rester concentre. nous favorisons ce qui nous est
immediat · proche ou autour de nous
Annexe 7. Codex des biais cognitifs humains
1 â
:4 44 d
. scents
Trop
d'information
dont nous Nous nous rappelons des choses qui sont deja
amorcées dans notre mernoirs ou qui sont souvent
repetees.
·
Les choses bizarres 1 drôles / visuellement frappantes
f anthropomorphiques sont plus
· saillantes que celles qui ne le sont pas.
On remarque lorsque
· quelque chose a change.
NOUS s[OCKons les souvenirs différemment selon la
façon avons vecu l'experience-
Nous reluisons les
De quoi devons-nous
nous rappeler? evenements et listes a leurs
element-des · 4
PPL~A Q'A
N ÿB
Nous mons e les erelitfici[eés t.` = {
et formons de généralit6s · ~ 4 G
$7yE9 q q:#11 ` ' -
·
Nous modifions et renforçons "F
certains souvenirs apres les fait. ·
|
Nous sommes attires par les
· details qui confirment nos propres croyances
preexistantes
Nous remarquons les failles
· chez les autres plus facilement que chez
nous-même.
|
|
Pte:
Nous favorisons les options qui nous
~+1~v~, a~ 4 ·i
paraissent simples ou qui ont dese..a. y
·
informations plus completes aux option ~^
plus complexes ou ambiguës. ear r.
Rin.444,
e
Pour pouvoir agir, nous devons avoir confiance en notre
capacite a avoir un impact et sentir que ce que nous faisons est
important
· Nous imaginons que les personnes que nous aimons ou que
les choses avec lequelfes nous sommes familiers sont meilleures que les choses
et les personnes qui ne le sont pas.
Pas assez de sens
·
·
·
·
·
.. ·'k-%::`,$0.+4. ·L
: u11
· 1»%y
z'effidei.- lit 101\ \
1`1 ·Nous simplifions les p[obahihtes et les
nombres
pour les rendre plus faciles et abordables a
· · notre pensée.
84/97
Nous projetons nos croyances et Nous pensons que nous savons
schemas de pensées actuels sur le passe ce que les autres
pensent et ie futur.
DESIGNHACKS.CO · CATEGORIZATION BY BUSTER BENSON '
ALGORITHMIC DESIGN BY 10HN MANOOGIAN Ill SJM31 · DATA BY W
IKI99EOI
85/97
Annexe 8. Niveaux d'explication par cas d'usage
Source :
Autorité de Contrôle Prudentiel et de
Résolution, Étude sur la révolution
numérique dans le secteur français de
l'assurance, n°87 - Mars 2018
86/97
Annexe 9. Les objectifs et fonctions de la
cybersécurité
LES OBJECTIFS DE SÉCURITÉ
Confidentiality Confidentialité
Le principe de confidentialité suppose que seules les
personnes autorisées peuvent avoir accès aux informations qui
leur sont destinées (notions de droits ou permissions), de sorte que
tout accès indésirable doit être empêché.
Selon le critère de l'intégrité, les
données ne doivent pas avoir fait l'objet de modifications lors de leur
stockage, leur traitement ou leur transfert, à l'insu de leurs
propriétaires, que ce soit de manière intentionnelle ou
accidentelle. En somme, les éléments considérés
doivent être exacts et complets (Utilisation des techniques de checksum
ou hachage).
Availability Disponibilité
|
|
La disponibilité induit l'accès aux ressources du
système d'information de manière permanente et sans faille durant
les plages de fonctionnement définies.
|
LES FONCTIONS DE SÉCURITÉ
Authentication Authentification
|
|
Pour garantir cette fonction, il est nécessaire que les
utilisateurs prouvent leur identité avant de pouvoir effectuer toute
action. À cet égard, il faut distinguer la notion
d'authentification et d'identification. En effet, l'authentification suppose de
fournir un mot de passe ou un élément qui seule la personne
connait. À l'inverse, l'identification ne fait que nommer
l'identité de la personne ; elle n'est reconnue que par son
identifiant.
|
Authorization Autorisation
|
Accounting Non-répudiation
|
Cette fonction induit qu'une action ne peut être
exécutée que si le demandeur détient les droits
d'accès, les privilèges requis. En ce sens, il ne suffit pas que
le demandeur prouve son identité : il faut également que le
demandeur ait autorité pour effectuer cette action.
Selon cette fonction, aucun utilisateur ne doit pouvoir contester
les opérations qu'il a réalisées dans le cadre de ses
actions autorisées. De plus, aucun tiers ne doit pouvoir s'attribuer les
actions d'un autre utilisateur. Pour ce faire, il est nécessaire de
suivre et conserver les accès, les tentatives d'accès et les
opérations effectuées sur le système. En effet, en cas de
problème, l'exploitation des registres de suivi des accès et des
modifications permettra de remontrer les différentes actions
effectuées afin de pouvoir identifier les responsabilités.
Annexe 10. Synthèse des
principaux moyens d'attaque spécifiques au machine
learning
87/97
Source :
Wavestone, Intelligence artificielle et
cybersécurité : protéger dès maintenant le monde de
demain, 2019
88/97
Annexe 11. Briques de fonctionnement d'une
application basée sur la machine learning
Source :
Wavestone, Intelligence artificielle et
cybersécurité : protéger dès maintenant le monde de
demain, 2019
89/97
Annexe 12. Synthèse des dispositions
applicables au titre du Règlement général sur la
protection des données personnelles
Source :
www.teachprivacy.com
Annexe 13. Synthèse des cas d'usage de
l'utilisation de l'intelligence artificielle dans le secteur de
l'assurance
90/97
91/97
Source :
Cabinet Deloitte, From mystery to mastery : Unlocking
the business valeur of Artifical Intelligence in the insurance
industry, 2017
92/97
Annexe 14. Résultats du baromètre 2020
des risques émergents
en assurance
93/97
Source :
FFA, Cartographie 2020 des risques émergents pour
la profession de l'assurance et de la réassurance,
2020
94/97
Annexe 15. Synthèse de l'approche du Conseil de
l'Europe en matière de régulation de
l'intelligence artificielle
Source :
https://rm coe
int/leaflet-artificial-intelligence-/16808af473
95/97
Annexe 16. Synthèse de la nouvelle
stratégie de l'Union européenne en matière de
numérique
Façonner l'avenir numérique de l'Europe: la
Commission présente des stratégies en matière de
données et d'intelligence artificielle
Bruxelles, le 19 février 2020
La Commission dévoile aujourd'hui ses idées et
mesures pour une transformation numérique profitable à tous,
reflétant le meilleur de ce que l'Europe offre: l'ouverture,
l'équité, la diversité, la démocratie et la
confiance. La stratégie dévoilée ce jour présente
une société européenne soutenue par des solutions
numériques qui placent les citoyens au premier plan, ouvrent de
nouvelles perspectives aux entreprises et encouragent le développement
de technologies fiables pour promouvoir une
société ouverte et démocratique et une économie
dynamique et durable. Le numérique est un élément
déterminant pour lutter contre le changement climatique et
réussir la transition écologique. La stratégie
européenne pour les données et les
possibilités d'action pour garantir le développement
d'une intelligence artificielle (IA) axée sur
le facteur humain, présentées aujourd'hui, constituent
les premières étapes vers la réalisation de ces
objectifs.
La présidente de la Commission, Mme Ursula von der
Leyen, s'est exprimée en ces termes: «Nous
présentons aujourd'hui nos ambitions en vue de façonner
l'avenir numérique de l'Europe. Notre stratégie englobe des
domaines aussi variés que la cybersécurité, les
infrastructures critiques, la formation numérique, les
compétences, la démocratie et les médias. Je tiens
à ce que cette Europe numérique reflète le meilleur de
notre continent: l'ouverture, l'équité, la diversité, la
démocratie et la confiance.»
Mme Margrethe Vestager, vice-présidente
exécutive pour une Europe adaptée à l'ère du
numérique, a déclaré: «Nous voulons que chaque
citoyen, chaque travailleur, chaque entreprise ait une possibilité
réelle de tirer parti des avantages de la numérisation. Qu'il
s'agisse de conduire en toute sécurité ou en polluant moins
grâce aux voitures connectées, ou même de sauver des vies
à l'aide d'une imagerie médicale fondée sur l'intelligence
artificielle, qui permet aux médecins de diagnostiquer des maladies plus
précocement que jamais.»
M. Thierry Breton, commissaire chargé du
marché intérieur, a fait la déclaration suivante:
«Notre société génère une masse
considérable de données industrielles et publiques, qui
transformeront notre manière de produire, de consommer et de vivre. Je
veux que les entreprises européennes et nos nombreuses PME aient
accès à ces données et créent de la valeur pour les
Européens, notamment en développant des applications
d'intelligence artificielle. L'Europe possède tous les atouts
nécessaires pour mener cette course aux mégadonnées et
préserver sa souveraineté technologique, son leadership
industriel et sa compétitivité économique, au
bénéfice des consommateurs européens.»
L'Europe en tant qu'acteur majeur et fiable du
numérique
Utilisées à bon escient, les technologies
numériques profiteront aux citoyens et aux entreprises à bien des
égards. Au cours des cinq prochaines années, la Commission se
concentrera sur trois objectifs clés en matière
numérique:
· La technologie au service des personnes;
· Une économie juste et compétitive; et
· Une société ouverte, démocratique et
durable.
L'Europe tirera parti de sa longue histoire en termes de
technologie, de recherche, d'innovation et d'ingéniosité, ainsi
que de sa solide protection des droits et des valeurs fondamentales. De
nouveaux cadres et mesures permettront à l'Europe de déployer des
technologies numériques de pointe et de renforcer ses capacités
en matière de cybersécurité. L'Europe continuera de
préserver sa société ouverte, démocratique et
durable et les outils numériques pourront soutenir ces principes. Elle
tracera et poursuivra sa propre voie pour se transformer en une économie
et une société numériques compétitives au niveau
mondial, inclusives et fondées sur des valeurs, tout en restant un
marché ouvert mais réglementé et en maintenant une
collaboration étroite avec ses partenaires
internationaux.
96/97
L'Europe en tant qu'acteur majeur d'une intelligence
artificielle digne de confiance
L'Europe possède tous les atouts nécessaires pour
devenir un chef de file mondial dans le développement de systèmes
d'intelligence artificielle propices à des utilisations et applications
sûres. Nous disposons d'excellents centres de recherche, de
systèmes numériques sûrs et d'une solide position en
matière de robotique, et nos secteurs manufacturier et de fourniture de
services sont compétitifs, dans des domaines aussi divers que
l'automobile, l'énergie, les soins de santé ou l'agriculture.
Dans son livre blanc présenté aujourd'hui,
la Commission envisage un cadre pour une intelligence artificielle digne de
confiance, s'appuyant sur l'excellence et la
confiance. Par un partenariat avec les secteurs privé
et public, l'objectif est de mobiliser des ressources tout au long de la
chaîne de valeur et de créer les incitations appropriées
pour accélérer le déploiement de de l'IA, y compris par
les petites et moyennes entreprises. Il s'agit notamment de travailler avec les
États membres et la communauté des chercheurs pour attirer et
garder les talents. Étant donné que les systèmes d'IA
peuvent être complexes et comporter des risques importants dans certains
contextes, il est essentiel d'instaurer un climat de confiance. Des
règles claires doivent régir les systèmes d'IA à
haut risque, sans faire peser de charge excessive sur les systèmes
présentant moins de risques. En outre, des règles strictes de
l'UE en matière de protection des consommateurs continueront de
s'appliquer, afin de lutter contre les pratiques commerciales déloyales
et de protéger les données à caractère personnel et
la vie privée.
Dans les domaines haut risque, comme la santé, la police
ou les transports, les systèmes d'IA devraient être transparents,
traçables et garantir un contrôle humain. Les autorités
devraient être en mesure de tester et de certifier les données
utilisées par les algorithmes, tout comme elles procèdent
à des vérifications sur les cosmétiques, les voitures ou
les jouets. Des données sans biais sont nécessaires pour
entraîner les systèmes à haut risque à fonctionner
correctement et pour garantir le respect des droits fondamentaux, notamment la
non-discrimination. Alors qu'aujourd'hui le recours à la reconnaissance
faciale aux fins d'une identification biométrique à distance est
généralement interdit et n'est autorisé que dans des cas
exceptionnels, dûment justifiés et proportionnés, sous
réserve des garanties et dans le respect du droit de l'UE ou du droit
national, la Commission souhaite lancer un vaste débat sur les
éventuelles circonstances susceptibles de justifier des exceptions.
En ce qui concerne les applications d'IA à faible risque,
la Commission envisage un système de label non obligatoire si elles
appliquent des normes plus élevées.
Le marché européen sera accessible à
l'ensemble des applications d'IA, pour autant que celles-ci soient conformes
aux règles de l'UE.
L'Europe en tant qu'acteur majeur de l'économie
des données
Les volumes de données générées par
les entreprises et les organismes publics sont en constante augmentation. Les
prochaines vagues de données industrielles transformeront notre
manière de produire, de consommer et de vivre. Leur potentiel reste
toutefois largement inexploité. L'Europe a toutes les ressources
nécessaires pour devenir un acteur majeur de cette nouvelle
économie des données: la base industrielle la plus solide au
monde, au sein de laquelle les PME constituent un segment vital du tissu
industriel; les technologies; les compétences; et, désormais, une
vision claire.
La stratégie européenne pour les
données vise à faire en sorte que l'UE
devienne un modèle et un acteur majeur d'une
société dont les moyens d'action sont renforcés par les
données. À cette fin, elle entend établir un
véritable espace européen des données, un
marché unique des données, pour mobiliser les données
inutilisées, en autorisant leur libre circulation dans l'Union et entre
les secteurs, au bénéfice des entreprises, des chercheurs et des
administrations publiques. Il convient de donner aux citoyens, aux entreprises
et aux organisations les moyens de prendre de meilleures décisions, sur
la base des informations tirées de données à
caractère non personnel. Ces données devraient être
accessibles à tous les acteurs, qu'ils soient publics ou privés,
jeunes pousses ou géants d'un secteur.
Pour y parvenir, la Commission proposera d'abord la
création d'un cadre réglementaire idoine pour la gouvernante des
données, leur accessibilité et leur réutilisation entre
entreprises, entre entreprises et administrations, et au sein des
administrations. Cela implique d'instaurer des mesures d'incitation visant
à promouvoir le partage des données, en déterminant
l'accessibilité et l'utilisation des données à l'aide de
règles pratiques, équitables et claires, qui respecteront les
valeurs et les droits européens tels que la protection des
données à caractère personnel et la protection des
consommateurs, ainsi que les règles de concurrence. Cela requiert aussi
d'accroître la disponibilité des données du secteur public
en ouvrant l'accès à des ensembles de données de grande
valeur dans l'ensemble de l'Union et en permettant leur réutilisation
aux fins d'innovations.
Ensuite, la Commission entend soutenir l'élaboration de
systèmes technologiques et d'infrastructures de nouvelle
génération, qui permettront à l'UE et à tous les
acteurs d'exploiter le potentiel de
97/97
Source :
https://ec.europa.eu/commission/presscorner/detail/fr/ip_20_273
|