Une IA éthique au service du secteur de l’assurance

Amélioration du parcours clients, automatisation des processus, détection de dossiers frauduleux… l’intelligence artificielle (IA) semble trouver application dans l’ensemble de la chaîne de valeur des compagnies d’assurance. Mais l’IA pose également question pour les assureurs, notamment en termes de confiance et d’explicabilité.

Dans cette interview, Xavier Vamparys, chercheur invité au sein de chaire XAI4AML et membre de l’initiative Operational AI Ethics, récemment nommé « responsable IA éthique » chez CNP Assurances, nous explique ces nouveaux usages de l’IA chez les assureurs et les enjeux qui en découlent.

Vous venez d’être nommé « responsable IA éthique » au sein du groupe CNP Assurances. Dans quelle(s) mesure(s) l’IA est-elle utilisée dans le milieu de l’assurance ?

D’une façon globale, l’assurance est un secteur propice au développement de l’IA et donc à l’adoption par les assureurs d’outils d’IA, pour 3 raisons :

  1. Le métier d’assureur repose depuis toujours sur l’exploitation massive de données. De façon schématique, le métier d’assureur se base sur la loi des grands nombres et la mutualisation des risques : l’occurrence d’un risque pour un client est couverte par la masse des primes reçues par l’ensemble des personnes assurées.
  2. Dans le secteur de l’assurance, il existe encore des processus très répétitifs. S’agissant par exemple des gestionnaires de clients, il y a de nombreux documents traités manuellement et qui pourraient être automatisés grâce à l’IA.
  3. Enfin, il y a une marge de progrès importante en termes de satisfaction des parcours clients.

Et derrière chacun ces éléments se cachent des formes d’IA très différentes. Par exemple, la satisfaction des parcours clients implique d’être joignable 24h/24 et de pouvoir transmettre un devis ou une information à n’importe quelle heure du jour et de la nuit. Cela se traduit par la mise en place de processus d’automatisation notamment avec des chatbots. Concernant l’automatisation des processus répétitifs, nous avons mis en place des outils de reconnaissance automatique de caractères qui permettent de ne plus avoir à saisir un RIB à la main.

Votre nomination au poste de responsable IA Éthique s’accompagne de la création d’un comité pluridisciplinaire chargé de placer l’humain et l’éthique au cœur de tout usage de l’IA. Pouvez-vous nous expliquer quels sont les enjeux qu’entraîne l’éthique dans le secteur de l’assurance ?

L’assurance et l’IA font toutes deux face à une défiance de la part du public. La réputation des assureurs reste très perfectible, même si nous faisons de notre mieux pour servir nos clients au plus près de leurs intérêts. La plupart des clients font appel à nous lorsqu’ils ont un sinistre, demandent une prestation ou doivent payer une prime (donc généralement des évènements pas très heureux !).  D’une façon générale, le ressenti des clients vis-à-vis de l’assureur n’est pas optimum et mérite d’être amélioré. Pour l’IA, c’est la même chose : les consommateurs en ont généralement peur. Certains craignent même que l’IA se substitue à nous dans la sphère professionnelle, voire qu’elle se substitue à l’Homme tout court. Cette défiance explique le souhait des assureurs de créer de la confiance autour des outils de l’IA pour qu’elle puisse être pleinement déployée dans le secteur. Il faut qu’elle soit acceptée non seulement par nos clients mais aussi par nos collaborateurs et nos partenaires avec qui nous sommes susceptibles de partager des outils d’IA.

Pour créer cette confiance, il faut s’assurer que l’usage que l’on fait de ces outils est éthique. Pour ma société, CNP Assurances, l’éthique est une dimension ancrée dans son ADN. Mais au-delà de l’ADN propre au Groupe, il y a aussi un enjeu de marché : si nos clients n’ont pas confiance en nos outils, ils ne les utiliseront pas ou se méfieront de l’usage que nous en faisons. Il est donc doublement nécessaire de prendre en compte la dimension éthique de l’IA.

Il est d’ailleurs assez intéressant de voir que le Livre Blanc de la Commission Européenne[1] qui donne un avant-goût de ce que pourrait être la règlementation européenne de demain ait inscrit cette notion de confiance dans sa réflexion.

Est-ce que désormais les compagnies d’assurance ont une vision particulière de l’IA pour l’intérêt général ?

 Je ne peux parler que de CNP Assurances, la compagnie d’assurance qui m’emploie, dont les principes éthiques ont été annoncés publiquement et où un comité éthique a été mis en place autour de l’IA.

Concernant les autres assureurs, c’est une voie dans laquelle ils vont devoir s’engager, s’ils ne l’ont pas encore fait. La règlementation est encore en cours de construction. La première brique étant probablement celle du Livre Blanc publié par la Commission Européenne en février 2020 qui pose un certain nombre de principes qui, pour une bonne partie d’entre eux, sont des principes éthiques. Notre régulateur, l’ACPR, a publié il y a quelques semaines un document de réflexion[2] qui donne aussi des indications sur ce que sera la règlementation de demain en matière d’usage de l’IA dans le secteur. On sait donc qu’à court ou moyen terme une règlementation très stricte s’imposera à l’ensemble des acteurs.

Les assureurs ont donc un choix simple :

  • soit ils attendent passivement que la règlementation se mette en place, règlementation qu’ils appliqueront le moment venu,
  • soit ils ont compris qu’il est essentiel, dès aujourd’hui, de préparer la mise en œuvre d’exigences éthiques, notamment en expliquant aux collaborateurs ou aux clients ce qu’est l’intelligence artificielle et ce qu’elle n’est pas. Ces compagnies auront un temps d’avance par rapport aux autres. Il n’est d’ailleurs pas nécessaire d’attendre la venue d’une règlementation contraignante pour se comporter éthiquement si on a, dès aujourd’hui, la faculté de le faire.

Chez CNP Assurances, nous pensons aussi que la valeur éthique va être très sollicitée par les clients à l’avenir. Il faut pouvoir montrer aux assurés que l’on se comporte éthiquement, que ce soit avec leurs données ou avec l’argent qu’ils nous confient. Nous considérons que le critère éthique est non seulement un impératif lié à notre ADN, mais aussi qu’il est plus susceptible de nous faire gagner des clients que de nous faire perdre des opportunités. Il y a ainsi deux dimensions à prendre en compte : l’éthique pour l’éthique, mais aussi l’éthique pour sa valeur économique.

Aujourd’hui, certaines des compagnies d’assurances peuvent donc avoir une démarche proactive en matière d’éthique et surtout en matière de gestion de la donnée ; d’autres moins. Mais, je crois pouvoir dire qu’en terme d’éthique de l’IA, CNP Assurances doit être le seul organisme français à se doter d’une charte et d’un comité de l’éthique de l’IA. En effet, les actions mises en place par les autres compagnies d’assurance autour de la dimension éthique sont très souvent cantonnées à la donnée et non pas à l’intelligence artificielle.

En parallèle de votre activité professionnelle, vous poursuivez des recherches au sein de l’initiative Operational AI Ethics. Pouvez-vous nous expliquer le but de vos recherches ?

Ma thématique d’intérêt porte sur l’impact de l’IA sur le rôle des assureurs comme organisateurs de la solidarité entre individus.

Je conçois personnellement le rôle de l’assureur comme celui d’un organisateur de la solidarité autour de certains risques de la vie de tous les jours. Dans cette perspective l’assurance repose sur le regroupement d’individus au profil homogène qui souhaitent se protéger contre un risque donné et mettent donc des moyens en commun via un assureur qui s’engage à verser une prestation dès lors qu’un de ces individus fait face à un sinistre. Cela s’appelle la mutualisation des risques.

Bien qu’il existe un grand nombre de risques couverts par les compagnies d’assurance, on se rend compte aujourd’hui que tous les risques ne le sont pas. La pandémie se trouve d’ailleurs être un bon exemple de ces domaines dans lesquels l’assurance n’est pas présente, pour une raison technique simple, l’absence de dispersion des risques : les risques couverts ne doivent pas arriver à tout le monde au même moment, sinon les assureurs seront conduits à la faillite. Robert Shiller, prix Nobel d’économie, a écrit il y a quelques années que l’essentiel des risques courus par un particulier ne sont pas couverts par l’assurance. Cette affirmation peut être contre intuitive car, avec la multitude d’assurances proposées (prévoyance, santé, logement, crédit, etc.), on peut penser que l’essentiel de nos vies est sécurisé, à tort.

Cela ouvre une réflexion : que peut-on faire pour que les assureurs soient présents sur ces créneaux-là ? Je pars donc de cette conception de l’assureur comme organisateur de la solidarité entre personnes privées ou publiques et j’essaie d’en mesurer l’impact sur les champs qui ne sont aujourd’hui pas couverts par l’assurance, ou de façon inefficace. En affinant les prédictions ou la probabilisation de risques et en permettant l’automatisation de certaines tâches, l’IA nous invite à revisiter les pratiques d’assurance, de voir par exemple si la diminution des coûts engendrée par l’IA permet de couvrir de nouveaux risques.

En parallèle, je réfléchis d’une façon générale avec l’initiative Operational AI Ethics à l’utilisation des outils de l’IA dans le secteur financier notamment autour des thématiques d’explicabilité, d’équité, de transparence de lutte contre les discriminations.

Vos recherches au sein de la chaire XAI4AML entrent dans la nouvelle initiative de Télécom Paris et notamment dans les axes « Explicabilité » et « IA pour l’Intérêt Général ». Pourquoi est-ce important de rendre explicables les algorithmes dans la lutte contre le blanchiment d’argent et, plus spécifiquement, pour les compagnies d’assurance ?

Il y a un grand paradoxe autour de la lutte contre le blanchiment d’argent. On considère qu’environ 200 milliards d’euros sont générés chaque année en Europe par les activités criminelles. Et, face à ce chiffre astronomique, on constate qu’1% seulement du fruit de ces activités criminelles est saisi ! Depuis 30 ans, on a une règlementation de plus en plus précise et stricte sur la lutte anti-blanchiment contraignant les acteurs (assureurs et banquiers) à mettre en place des outils performants pour détecter les opérations criminelles de blanchiment d’argent.

En 2019, environ 100 000 dossiers considérés « suspects » par les assujettis aux règles de lutte contre le blanchiment (notamment les banques et assurances) ont été envoyés à Tracfin. Après analyse, si Tracfin considère qu’il y a des éléments suffisants pour soupçonner une opération de blanchiment, il les envoie au procureur de la République ou à d’autres autorités, fiscales par exemple. En 2019, sur ces 100 000 dossiers, moins de 4 000 ont finalement été transmis aux autorités judiciaires. Une grosse partie des dossiers envoyés à Tracfin s’avèrent donc ne pas être des dossiers qui lui sont utiles. Et par ailleurs on ne peut que supposer que beaucoup d’opérations de blanchiment échappent aux dispositifs mis en œuvre dans le secteur financier. C’est là qu’intervient l’IA avec sa capacité à segmenter, détecter des anomalies, générer un scoring ou un profil, etc… mais également sa capacité à traiter rapidement des dossiers dans un domaine où la rapidité est clé. L’intérêt de l’IA est aussi de détecter des dossiers qui n’ont rien de suspect. Aujourd’hui on estime que 90% des alertes de premier niveau générés par les systèmes d’analyse automatique (sans IA) sont des « faux positifs ». L’IA permettrait incontestablement d’améliorer ce pourcentage.

La particularité de la lutte contre le blanchiment est que l’Etat délègue d’une certaine façon ses pouvoirs de police à des acteurs financiers qui sont invités (en fait qui ont l’obligation) à dénoncer les opérations suspectes de leurs clients. L’explicabilité de la décision du système d’IA est essentielle ici : il faut qu’un assureur ou une banque soit en mesure d’expliquer (au régulateur mais aussi au client !) pourquoi tel ou tel dossier a fait l’objet d’une déclaration à Tracfin. Il va donc y avoir une pression très forte pour que les outils d’IA déployés, en particulier dans ce domaine très sensible, soient explicables. C’est pourquoi les recherches effectuées par l’équipe multidisciplinaire de Télécom Paris sont essentielles. Télécom Paris a la capacité de mettre autour d’une même table des acteurs du secteur financier, des régulateurs et les meilleurs spécialistes de l’IA dans toutes ses dimensions (mathématique, statistique, informatique, économique, sociale ou juridique). Les compétences des chercheurs de Télécom Paris sont fortement reconnues et sollicitées pour que l’usage de cet outil formidable qu’est l’IA se fasse au profit du bien commun.

 

 

_____________________________________________________________________

[1] Commission européenne, Livre blanc « Intelligence artificielle – Une approche européenne axée sur l’excellence et la confiance », 19 février 2020.

[2] ACPR, Document de réflexion « Gouvernance des algorithmes d’intelligence artificielle dans le secteur financier », juin 2020.