L'intelligence artificielle dans le secteur de l'assurancepar Georges BERGER Université de Strasbourg - M2 Droit de l'économie numérique 2020 |
II. L'intelligence artificielle comme outil de correction de l'asymétrie d'informationTraditionnellement, le principe de mutualisation et d'analyse des risques visent à compenser le voile d'ignorance de la connaissance des risques, également appelé « principe d'asymétrie de d'information ». Conceptualisée par George Akerlof55, économiste américain, dans son article publié en 1970, The Market for Lemons : Quality Uncertainty and the market Mechanism, l'asymétrie d'information permet d'analyser des comportements et des situations courantes de l'économie de marché. L'asymétrie d'information décrit en ce sens une situation dans laquelle les acteurs d'un marché ne disposent pas des mêmes informations sur les conditions d'échange. Cette situation est par nature contraire au standard de transparence de l'information prédominant dans un modèle de concurrence pure et parfaite. D'une manière générale, il est nécessaire de distinguer deux situations d'information asymétrique. La première situation fait référence à l'antisélection (ou sélection adverse), lorsque les consommateurs ne disposent pas de toute l'information sur la qualité du bien qu'ils souhaitent acquérir, contrairement aux vendeurs. Plus particulièrement, du fait d'une asymétrie d'information sur un marché donné, une offre faite aboutit à des résultats inverses de ceux souhaités. Ainsi, selon l'exemple des voitures d'occasion développé par Akerlof, « le vendeur d'une voiture d'occasion connaît mieux les caractéristiques de sa voiture que les acheteurs potentiels. Dans la mesure où ces derniers savent que le marché comporte des voitures de mauvaise qualité, ils chercheront à les payer au prix correspondant à la qualité moyenne, ce qui conduira les propriétaires de voitures de bonne qualité à les retirer du marché. En contribuant à 36/97 55 https://www.universalis.fr/encyclopedie/george-a-akerlof/ 37/97 réduire de proche en proche la qualité moyenne des véhicules vendus, ce processus peut finir par entraîner la disparition complète du marché des voitures d'occasion56 ». Dans ce contexte, l'antisélection se déclare ex-ante, soit au moment de la signature du contrat, et montre que le prix n'est pas synonyme de qualité du bien (il est possible d'obtenir des produits de qualités différentes pour un même prix), et ne constitue plus son rôle d'information. La seconde situation correspond à ce que George Akerlof appelle l'aléa moral, intervenant ex-post, soit après la conclusion du contrat. Cette situation correspond à l'hypothèse dans laquelle l'un des contractants est amené à changer de comportement au cours de la relation contractuelle, de sorte qu'il est difficile d'anticiper ce comportement après la conclusion du contrat. Ainsi, le secteur assurantiel est fortement marqué par l'asymétrie d'informations. En effet, les compagnies d'assurance ne disposent que d'informations limitées quant aux qualités intrinsèques des individus et des risques, objets de la police d'assurance. Plus précisément, l'asymétrie d'information ne permettant pas à l'assureur de proposer des primes différentes selon les types et les profils de risques, s'est donc développé un phénomène d'anti-sélection. En ce sens, les compagnies d'assurance fixent une prime d'assurance supposée couvrir un risque moyen, sur la base des éléments statistiques tirées de la surveillance du portefeuille57. Cette prime s'appliquera donc indistinctement aux assurés dont le risque est considéré comme faible, mais également aux assurés dont le risque est considéré comme élevé. Ce faisant, les risques faibles vont considérer le montant de la prime comme étant trop élevé, alors que ce montant sera jugé comme très acceptable par les risques élevés. Dans un contexte où les assureurs proposent certes des garanties plus ou moins similaires, mais à des tarifs variant sensiblement, les risques faibles vont donc souscrire auprès de la compagnie proposant le tarif considéré comme le plus avantageux. Dans ce contexte, la compagnie qui assure une grande partie des risques élevés devra donc au final, afin de compenser la perte des risques faibles, augmenter ses tarifs, l'excluant peu à peu du marché58. Afin de compenser ce phénomène d'anti-sélection, s'est donc développé les contrats assortis de franchises plus ou moins importantes, permettant alors de moduler le montant de la prime en fonction du niveau de franchise accepté par le souscripteur59. Ainsi, un souscripteur dont le risque est faible optera 56 A. Bozio et J. Grenet, Économie des politiques publiques, La Découverte, 2017 57 Par exemple, et très schématiquement, l'assureur reprendre le nombre de déclarations de sinistre incendie faites sur le marché des particuliers, et détermine le cout moyen d'un sinistre incendie, lui permettant alors de déterminer le montant de prime. 59 La situation peut être schématisée de la manière suivante : un assuré décidant de payer une prime faible, se verra appliquer une franchise plus ou moins importante en cas de sinistre. À l'inverse, un assuré décidant de payer une prime plus élevée aura à sa charge une franchise nulle ou quasi-nulle en cas de survenance d'un sinistre. 38/97 pour une prime plus faible mais une franchise plus élevée, alors qu'un souscripteur dont le risque est élevé préférera payer une prime plus importante, mais une franchise plus faible (voir nulle) en cas de sinistre. En adaptant le montant de la prime, et en modulant la franchise, l'idée est donc de tendre vers une tarification plus juste en fonction du risque et de son occurrence et surtout de lutter contre ce phénomène d'anti-sélection qui ne mènerait qu'à assurer les risques élevés60. Outre l'anti-sélection, l'assurance est également marquée par l'aléa moral, dont l'enjeu est de savoir si l'assuré prendra toutes les précautions nécessaires après la conclusion du contrat d'assurance qu'il en prenait avant pour éviter la survenance d'un sinistre. En ce sens, l'aléa moral suppose, dans le domaine de l'assurance, de se questionner sur le degré de diligence attendu après la conclusion du contrat, et les moyens permettant d'inciter l'assuré à se protéger de la même manière qu'il l'aurait fait s'il n'était pas couvert. À cet égard, afin d'inciter l'assuré à conserver un comportement prudent et diligent, les polices d'assurance contiennent généralement des clauses de déchéance61 de garantie lorsque les dommages ont été causés par la faute intentionnelle ou dolosive de l'assuré, résultent d'un fait ou d'un évènement dont l'assuré avait connaissance lors de la souscription du contrat62, ou encore plus spécifiquement dans le cadre des catastrophes naturelles, « lorsque les mesures habituelles à prendre pour prévenir ces dommages n'ont pu empêcher leur survenance ou n'ont pu être prises63 ». Néanmoins, si des mécanismes existent afin de compenser les phénomènes d'anti-sélection et d'aléa moral, force est toutefois de constater que ceux-ci restent imparfaits. En ce sens, et à titre d'exemple, la preuve du caractère dolosif du comportement de l'assuré reste difficile - voire impossible - à rapporter, dans un secteur marqué par des règles protectrices du consommateur assuré. De la même manière, si le système de franchise permet une réponse au phénomène d'anti-sélection, celle-ci n'en demeure pas moins incomplète puisqu'elle ne permet pas une approche segmentée et personnalisée du risque. 60 https://www.universalis.fr/encyclopedie/assurance-economie-de-l-assurance/3-antiselection/ 61 Il est nécessaire de distinguer entre la déchéance et l'exclusion qui mènent naturellement à la même conséquence - tant la déchéance que l'exclusion privent l'assuré d'indemnité - mais couvrent deux champs distincts. En effet, alors que la clause d'exclusion vise à délimiter l'objet du contrat d'assurance, la clause de déchéance vise à sanctionner l'assuré (en le privant de son droit à la garantie) en raison d'un manquement à ses obligations, que ce soit avant ou après le sinistre. Ainsi, par exemple, constitue une déchéance de garantie la clause insérée dans une police d'assurance de responsabilité civile décennale obligatoire qui vise à priver le constructeur de son droit à la garantie en raison de travaux effectués selon des techniques non courantes. En conséquence, l'assureur sera tene de verser l'indemnité au tiers en raison des règles applicables en matière d'assurance construction, mais demandera à son assuré de lui rembourser l'intégralité des sommes versées. Inversement, constitue une exclusion de garantie la clause selon laquelle l'assureur n'interviendra pas dans les cas où l'assuré, professionnel du bâtiment, aurait réalisé des travaux relevant d'activités non couvertes (par exemple, l'entrepreneur assuré au titre de son contrat pour une activité d'électricien, qui réalise des travaux de plomberie, sources du litige). 62 Dans ce cas, naturellement, l'idée est d'éviter les situations dans lesquelles le souscripteur tente de faire jouer inévitablement une garantie, privant ainsi le contrat d'assurance d'un élément fondamental qu'est l'aléa. 63 Article L.125-1 Code des assurances 39/97 C'est donc naturellement dans ce contexte que l'intelligence artificielle est susceptible de jouer un rôle important dans la correction de cette asymétrie. Sans développer l'intégralité des apports de l'intelligence artificielle dans le champ de l'analyse du risque (qui a fait l'objet de développer plus longs dans la partie précédente), l'intelligence artificielle doit permettre de lutter contre l'anti-sélection par une analyse plus précise des risques. En ce sens, les données externes et internes, couplées au machine learning et au deep learning, doivent permettre de procéder à une analyse plus approfondie des risques, et donc à terme de proposer une offre personnalisée en fonction du risque encourue. Cette situation devrait donc tendre à un rééquilibrage des relations entre l'assureur et l'assuré, et par voie de conséquence à une disparition à long terme du système fondé sur la franchise par une tarification propre aux éléments contextuels et personnels. En outre, s'agissant de l'aléa moral, l'intelligence artificielle devrait permettre, par la reconnaissance faciale et des expressions, mais également la reconnaissance textuelle, de lutter contre la fraude à l'assurance et de faciliter la preuve du comportement dolosif ou intentionnel de l'assuré. Cependant, s'il indéniable que l'intelligence artificielle offre une réponse concrète à l'asymétrie d'information prédominante jusqu'alors dans la relation entre l'assuré et son assureur, les avancées permises par la technologie ont fait émerger la crainte d'une démutualisation du système assurantiel. Section 3. La crainte d'une démutualisation du système assurantiel par le recours à l'intelligence artificielle Comme le soulignait à juste titre le rapport d'OPTIC Technology64 publié le 20 janvier 202065, « dans ce contexte de surabondance des données issues du recoupement des bases existantes, de collecte via des capteurs ou de traces sur les réseaux sociaux, la tentation est grande, pour les assureurs, d'affiner à l'extrême le profilage de leur clientèle afin de la segmenter le plus précisément possible et d'ajuster le tarif au risque réel ». Schématiquement, sur la base de prédiction de plus en plus fiables issues des algorithmes autoapprenants, 64 OPTIC est un réseau de recherche créé en 2012, comptant plusieurs milliers de membres et déployant ses activités à San Francisco, Paris, Montréal, Genève, Rome, Oxford, Boston et Toronto. Ses activités portent sur la recherche, l'innovation et la formation sur les thématiques relatives au développement des technologies. 65 OPTIC Technology, Intelligence artificielle, solidarité et assurances en Europe et au Canada - Feuille de route pour une coopération internationale, 20 janvier 2020 40/97 émerge le risque d'une hyperpersonnalisation et hypersegmentation des assurés, posant alors la question d'une potentielle atteinte à la logique mutualiste propre à l'assurance, et la probabilité d'une remise en cause totale du secteur (ou du moins, des logiques structurantes de ce secteur). En ce sens, comme nous l'avions développé précédemment, l'utilisation massive des données et de l'IA doivent permettre de compenser l'asymétrie d'informations, et donc de supprimer l'ignorance qui existait par nature dans la relation entre l'assuré et son assureur. Par nature, cette situation conduit à l'émergence de nouveaux risques dans les relations entre l'assureur et son assuré. En effet, dans sa synthèse du débat public dans le cadre de la mission de réflexion éthique confiée par la loi pour une République numérique publiée en décembre 201766, la CNIL porte les craintes de l'émergence d'un système profondément discriminatoires qui aurait pour conséquence notable l'exclusion des individus jugés à risque du bénéfice de l'assurance. Plus particulièrement s'agissant de l'assurance de personnes, puisque les informations collectées (consommation de tabac, régime alimentaire, rythme de vie, antécédents médicaux, antécédents familiaux et héritage génétique etc.) permettraient d'établir une corrélation plus précise entre le comportement de la personne et le risque de survenance d'une pathologie. De cette situation, émerge alors la crainte qu'une personne, selon les informations collectées, soit considérée comme porteuse d'un risque trop élevé du fait de son comportement (et notamment son mode de vie ou ses habitudes de consommation). Surtout, cette situation pose fondamentalement la question des limites posées et surtout des critères d'appréciation pris en considération pour qualifier une personne à risque (Quels sont les critères pris en compte pour caractériser une personne comme étant à risque ? Quels sont les seuils à partir desquels une personne présente un risque plus important ? Quelle la conséquence directe pour une personne considérée à risque - application d'une surprime ou exclusion de couverture ?). Dès lors, cette situation de personnalisation et de segmentation pourrait conduire de facto d'une logique de mutualisation à une logique de responsabilité individuelle, et pourrait conduire à une situation dans laquelle les assureurs ne couvriraient que les « bons risques » avec un risque d'exclusion des « risques inacceptables ». 66 Commission Nationale Informatiques et Libertés (CNIL), Comment permettre à l'Homme de garder la main ? Les enjeux des algorithmes et de l'intelligence artificielle, Synthèse du débat public animé par la CNIL dans le cadre de la mission de réflexion éthique confiée par la loi pour une République numérique, décembre 2017 41/97 Bien entendu, le modèle actuel de l'assurance de personne repose déjà sur les informations relatives à la personne, comme le fait de savoir si une personne est fumeuse ou non, ou si elle est affectée d'une pathologie de longue durée. Néanmoins, le système actuel repose sur une logique déclarative, situation dans laquelle l'assureur occupe une place passive et se fie aux seules informations confiées par l'assuré. Pour autant, du fait du développement technologique et technique (et notamment l'intégration de l'intelligence artificielle), le passage d'une logique passive à une logique active de l'assureur ne semble plus si utopique. Dans ce contexte, l'enjeu est donc de savoir quels sont les moyens qui puissent permettre de concilier d'une part, le besoin de personnalisation voulues tant par les assurés que les assureurs, et d'autre part, la nécessité de conserver la logique de mutualisation. À cet égard, plusieurs pistes peuvent être évoquées. La première consisterait à interdire purement et simplement le recours à la collecte des données, aux techniques de profilage et au recours à l'intelligence artificielle à l'occasion de l'étude du risque. Cette solution, radicale présente l'intérêt de la simplicité et garantit l'inclusion des personnes. Toutefois, elle semble inadaptée en l'état parce qu'elle ne permet pas de répondre aux besoins de personnalisation voulue par les assurés, et de segmentation recherchée par les assureurs. La deuxième viserait à limiter la collecte de certaines données, jugées particulièrement sensibles. En ce sens, si la loi Kouchner de 2002 a permis d'ériger un principe de non-discrimination en raison des caractéristiques génétiques67, il pourrait très bien être imaginé d'aller encore plus loin en excluant par exemple la collecte automatisée des données liées à la santé des individus ou les habitudes de consommation à l'occasion de l'étude du risque. C'est d'ailleurs la solution que préconise la CNIL dans sa synthèse, précisant que cette limitation pourrait, à défaut d'être légale, être mise en place de manière conventionnelle entre les acteurs de la profession68. Une troisième solution porterait sur l'institution d'un cadre règlementaire spécifique à la collecte et au traitement de ces données à l'aide d'algorithmes d'intelligence artificielle. Ce cadre spécifique imposerait aux acteurs du secteur des obligations particulières 67 Article L. 1110-1 du Code de la santé publique 68 Commission Nationale Informatiques et Libertés (CNIL), Comment permettre à l'Homme de garder la main ? Les enjeux des algorithmes et de l'intelligence artificielle, Synthèse du débat public animé par la CNIL dans le cadre de la mission de réflexion éthique confiée par la loi pour une République numérique, décembre 2017 42/97 en matière de recours à l'intelligence artificielle, prévoyant des standards de transparence et de loyauté et qui laisserait également la possibilité pour les personnes concernées de pouvoir choisir le procédé utilisé pour l'analyse du risque. Si le cadre européen de la protection des données personnelles permet déjà aux personnes concernées de s'opposer aux décisions prises à l'aide de procédés automatisés, il faut toutefois souligner que ce droit d'opposition peut être mis en échec lorsque la décision est nécessaire à la conclusion d'un contrat. L'idée serait donc de dépasser la logique actuelle existante en matière de protection des données afin de développer une législation sectorielle plus aboutie, tenant compte de l'ensemble des spécificités et logiques propres au secteur. Néanmoins, cette situation présente deux contraintes majeures. D'une part, ce système créerait un système à deux vitesses et d'autre part, fait peser des obligations beaucoup trop contraignantes aux acteurs déjà soumis à une règlementation très lourde. La dernière solution viserait à un système dualiste, en distinction d'un côté l'assurance de personne pour laquelle le recours à ces procédés serait prohibé en raison de la nature des données sensibles traitées, et de l'autre l'assurance de choses pour lesquels le recours pourrait être autorisé. Quoiqu'il en soit, le cadre actuel ne semble répondre qu'indirectement aux nouveaux enjeux posés par le recours aux données et à l'intelligence artificielle, pour laquelle les contours semblent encore assez flous. 43/97 |
|