L’explicabilité des algorithmes au service de la lutte contre le blanchiment d’argent

D’après les estimations d’Europol, 200 milliards d’euros de fonds criminels circulent chaque année en Europe[1], et seulement 1% de ces flux financiers illicites sont saisis. Les systèmes de lutte anti-blanchiment actuels ont donc une grande marge de progression, notamment pour pouvoir contrer des méthodes criminelles de plus en plus sophistiquées. L’IA s’avère d’une grande aide à l’amélioration du système de lutte anti-blanchiment mais, en parallèle, elle engendre de nouvelles formes de risques pour les individus. C’est là que l’explicabilité intervient.

Un système de lutte relativement peu efficace

Actuellement, le système de lutte contre le blanchiment et le financement du terrorisme (LCB-FT) fonctionne selon le modèle suivant : les institutions financières surveillent les activités de leurs clients à l’aide d’un système de filtrage automatique des transactions qui génère des alertes sur les mouvements financiers suspects. Ces alertes sont ensuite validées ou écartées par des experts de la conformité. Les cas suspects confirmés sont consolidés sous forme de « déclaration de soupçon » et transmis à une cellule de renseignement financier (Tracfin) qui enquêtera et transmettra à son tour les dossiers pertinents aux autorités judiciaires compétentes.

Le problème de ce système ? 99% des alertes produites ont peu, voire pas d’utilité pour les autorités judiciaires. Du côté des banques, environ 90%, des alertes sont des faux positifs. Du côté de Tracfin, seulement 10 à 20% des alertes reçues sont revues, parmi lesquelles seulement une petite fraction sera finalement transmise à une autorité judiciaire[2]. Ces systèmes le lutte anti-blanchiment d’argent produisent ainsi énormément de bruit, pour afficher en fin de compte un faible taux de réussite dans la capture réelle des fonds illicites.

Comment l’IA peut-elle aider ?

L’IA peut améliorer la qualité des données collectées par les organismes financiers, élargir le spectre des données utilisées et ainsi permettre aux banques d’exploiter des données non structurées internes ou externes (actualités, réseaux sociaux).

Au niveau du système de filtrage automatique des données, l’IA peut s’infiltrer dans plusieurs étapes, que ce soit dans la segmentation clients avec des techniques d’apprentissage non supervisé, ou bien dans la phase de détection d’anomalies, en appliquant des algorithmes semi-supervisé ou non supervisés plus performants que le système à base de règles statiques actuel.

L’IA peut aussi être très utile pour la gestion des alertes que ce soit pour les prioriser par ordre de risque ou bien pour les rediriger directement au niveau de revue manuelle le plus approprié.

Enfin, il existe des techniques avancées prometteuses comme la modélisation des données sous forme de graphe, qui permettrait de mieux comprendre et de visualiser les flux d’argents et les relations entre clients. L’analyse de graphe permettrait également d’améliorer les modèles de détection d’anomalie en exploitant la complexité des relations entre les comptes bancaires de clients.

Pourquoi l’explicabilité est-elle indispensable dans ce contexte ?

La lutte contre le blanchiment d’argent est une question sociale et de droits fondamentaux. Il faudra donc être en mesure de prouver pourquoi un dossier a été identifié par l’algorithme et justifier auprès du client pourquoi son dossier a été identifié comme suspect.

D’un point de vue technologique, on voudra s’assurer que l’algorithme fonctionne correctement et surveiller les dérives de comportement dans le temps.

Enfin, il faudra s’assurer que ce modèle est conforme aux régulations de la LCB-FT (Lutte contre le blanchiment de capitaux et le financement du terrorisme).

Comment aborder ce problème d’explicabilité ?

Récemment, l’ACPR a établi des lignes directrices sur la gouvernance des algorithmes dans le secteur financier, portant notamment sur l’explicabilité des algorithmes[3].

Il définit quatre niveaux d’explicabilité du plus simple au plus exhaustif :

  • Niveau 1 : observation. Que fait l’algorithme et quelle est son utilité ? Ce niveau s’adresse à un public non initié.
  • Niveau 2 : justification. Pourquoi l’algorithme donne-t-il un tel résultat ?
  • Niveau 3 : approximation. Comment l’algorithme fonctionne-t-il ?
  • Niveau 4 : réplication. Est-ce que mon algorithme fonctionne correctement ? Ce niveau d’explication répond à un besoin d’analyse détaillée de l’algorithme et des données nécessaires à l’explication. Il s’adresse à une audience plus experte.

Le rapport de l’ACPR précise que le niveau nécessaire d’explicabilité dépend de l’audience et des risques induits par l’IA. Cela implique que pour les cas aux risques minimes, l’algorithme n’a pas besoin d’être 100% explicable. Prenons l’exemple de l’IA qui redistribue les alertes générées par le système de filtrage des transactions au bon niveau de revue d’alertes manuel. Ici, les risques sont minimes car des êtres humains revoient toutes les décisions prises par l’IA, qui intervient en parallèle du système de génération d’alertes existant. Ainsi, bien que ce système d’IA soit assez opaque et peu explicable, il pourra être mis en place car il est très peu risqué.

Les défis restant pour l’explicabilité dans le LCB-FT

Bien que l’ACPR ait détaillé ces lignes directrices de l’ACPR sur l’explicabilité dans le secteur financier, il reste malgré tout des défis à résoudre pour pouvoir réellement appliquer l’IA dans le domaine de la lutte contre le blanchiment d’argent :

  • la multitude d’audiences pour qui il faudra adapter l’explicabilité (l’agent de contrôle, le contrôleur interne, l’auditeur externe, l’ACPR, Tracfin, tout individu impacté par le modèle, la CNIL),
  • la multiplicité des cas d’usages qui complexifie grandement la tache de l’explicabilité pour les data scientists. En effet, parfois des explications agnostiques, qui ne dépendent pas du modèle, vont suffire, mais pour des explications de haut niveau il faudra des explications spécifiques au modèle,
  • l’accès aux données qui pourra soulever des problèmes de confidentialité,
  • le biais d’automatisation qui fait référence à la propension des humains à favoriser les suggestions des systèmes d’IA et à ignorer leurs intuitions personnelles contradictoires, même si elles sont correctes,
  • la difficulté de mesurer de la valeur des explications pour les utilisateurs,
  • les aspects économiques de ces explications qui ne sont pas forcément mentionnés dans les lignes directrices de l’ACPR.

_____________________________________________________________________

Par Astrid Bertrand, Télécom Paris – Institut Polytechnique de Paris

_____________________________________________________________________

Astrid Bertrand, doctorante en explicabilité de l’intelligence artificielle pour la lutte anti-blanchiment d’argent

Peux-tu nous décrire ton parcours scolaire ? Pourquoi avoir choisi ce parcours ?

À l’issue d’une prépa scientifique, j’ai intégré Centrale Lyon, une école d’ingénieur généraliste avec un programme scientifique varié et approfondi en informatique, mathématiques, économie, génie civil, sciences de l’environnement… Après une courte première expérience professionnelle, j’ai voulu faire un bilan sur mes plans professionnels, et explorer d’autres domaines avec une utilité sociale bien établie en faisant un master en innovation sociale à HEC. J’ai alors eu l’occasion de faire ma thèse de master entre HEC et Télécom Paris sur l’inclusion financière à partir de données de paiement, ainsi qu’un certificat en science des données. La combinaison de la recherche, de la data science et d’un projet d’intérêt social me plaisait beaucoup. Ensuite, un sujet de thèse s’est présenté sur l’explicabilité de l’IA pour la lutte anti-blanchiment d’argent, rassemblant beaucoup de mes intérêts : recherche d’intérêt public, IA responsable, science des données, expérience utilisateur …

Quel est ton sujet de doctorat ? Quels en sont les enjeux et les applications ?

Ma thèse porte sur l’explicabilité de l’intelligence artificielle pour la lutte anti-blanchiment d’argent. Comme expliqué dans l’article ci-dessus, l’IA est en train d’être testée pour améliorer les dispositifs de lutte anti-blanchiment. L’IA a le potentiel d’améliorer grandement l’efficacité de ces systèmes, mais elle introduit également de nouveaux risques, comme le risque d’être mal interprétée, mal implémentée, ou bien le risque de violer des libertés fondamentales comme celui du droit à l’explication, récemment introduit par l’UE en 2018.

Les enjeux de cette recherche sont très concrets : ils sont de faire progresser les algorithmes de détection d’anomalie des transactions suspectes, pour in fine bloquer le financement d’activités financières criminelles. Il s’agit également d’améliorer la prise en main de ces nouveaux algorithmes de détection de flux illicites pour que l’interaction homme-machine soit la plus efficace possible. Le sujet de l’explicabilité de l’IA dépasse le domaine de la LCB-FT : beaucoup d’applications de l’IA sont dépendantes d’une forte interaction avec l’humain, et l’explicabilité est une notion clé pour rendre utilisables ces modèles.

Quels sont tes intérêts de recherche ?

Mon sujet de thèse est à l’interface de plusieurs disciplines : économie, droit, informatique, psychologie…  ce qui le rend foisonnant, et difficile à cadrer ! Pour commencer, je vais centrer ma recherche autour de deux axes majeurs : le premier est l’utilisation de la modélisation sous forme de graphes pour détecter les cas de blanchiment. Il s’agit d’utiliser la morphologie des réseaux de transactions pour détecter les morceaux de réseaux « suspects ». Le second axe de recherche porte sur la forme des explications des modèles d’IA : comment le design des explications affecte les utilisateurs ? Est-ce que la combinaison de plusieurs formes d’explications permet aux utilisateurs de mieux interagir avec l’IA? Est-ce que les graphes peuvent aider à l’interprétabilité des modèles d’IA ?

En plus de ces deux axes concrets de recherche, je m’intéresse plus globalement aux questions sur l’équité et la régulation de l’IA, et à une question plus large sur l’économie du crime et le blanchiment d’argent : l’IA peut-elle réduire la criminalité ?

Quels sont tes plans pour l’avenir ?

Pour l’instant, je vais me concentrer sur ma thèse qui constitue mon horizon à court terme pour 3 ans. Je verrai ensuite quelles opportunités se présentent, que ce soit dans le privé ou ailleurs. J’aimerais bien par exemple travailler dans une institution internationale ou européenne.

 

 

_____________________________________________________________________

[1] Europol. 2016. ‘Does Crime Still Pay?’ Survey of statistical information.

[2] Europol. 2017. From Suspicion to Action: Converting Financial Intelligence into Greater Operational Impact. Publications Office of the European Union.

[3] Dupont, Laurent, Olivier Fliche, and Su Yang. 2020. ‘Governance of Artificial Intelligence in Finance’. Discussion document.