Actualités

Chaire XAI-4-AML : comment l’IA peut-elle aider à lutter contre le blanchiment d’argent ?

12 mai 2025 • Big Data & IA - Cybersécurité

Depuis 2020, Télécom Paris, composante de l’institut Carnot TSN, héberge la chaire de recherche XAI-4-AML. Celle-ci vise à comprendre comment l’intelligence artificielle pourrait contribuer à améliorer la lutte contre le blanchiment des capitaux et le financement du terrorisme. Ce qui implique notamment d’étudier les obstacles à son adoption, en particulier les questions autour de l’explicabilité de l’IA.

La lutte contre le blanchiment des capitaux et le financement du terrorisme (LCB-FT) impose aux établissements financiers de mettre en œuvre des systèmes permettant de repérer de potentielles transactions illégales. En cas de manquement à cette obligation, ces institutions s’exposent à de lourdes sanctions, pouvant atteindre plusieurs dizaines de millions d’euros. Par conséquent, elles mobilisent des ressources – financières et humaines – considérables pour se conformer à la loi et contribuer à la LCB-FT. Et le résultat est sans appel : ces moyens permettent de saisir… à peine 5 % des fonds liés au blanchiment d’argent et au financement du terrorisme.

Les limites des systèmes déterministes dans la LCB-FT

Comment expliquer de telles lacunes ? « La LCB-FT est un travail complexe, premièrement en raison de l’agilité des activités criminelles », remarque Winston Maxwell, professeur de droit à Télécom Paris. « Les individus impliqués dans ces transactions sont en effet capables de s’ajuster rapidement aux réglementations et aux systèmes mis en place par les établissements financiers. De plus, ils peuvent répartir leurs fonds au sein de plusieurs banques, ces dernières ne pouvant alors identifier qu’une partie du problème. »

En outre, les systèmes actuels de surveillance reposent sur une approche déterministe. Il s’agit d’une liste de plusieurs centaines de scénarios prédéfinis, auxquels sont associées de multiples règles, alimentant des algorithmes dont le but est de remonter une alerte à chaque cas considéré comme suspect. Ces alertes sont alors traitées par des opérateurs humains, à plusieurs niveaux, qui peuvent ensuite signaler un dossier à Tracfin, le service de renseignement du ministère de l’Économie et des Finances. Enfin, si les contrôles successifs confirment le doute initial, la démarche peut aboutir à une procédure judiciaire. Une chaîne de décision longue et complexe, d’autant que les opérateurs doivent traiter une quantité énorme d’alertes par jour, l’écrasante majorité d’entre elles correspondant en réalité à des faux positifs.

Dès lors, comment améliorer l’efficacité des systèmes de LCB-FT ? L’intelligence artificielle peut-elle y contribuer ? Si oui, comment et à quelles conditions ? Ces questions ont été notamment soulevées par David Cortés, alors directeur data et IA chez PwC. En 2020, il s’est rapproché de Télécom Paris, une démarche ayant abouti à la création de la chaire « Explicabilité de l’intelligence artificielle pour le blanchiment d’argent » (XAI-4-AML), portée par Winston Maxwell et David Bounie, responsable du département Sciences Économiques et Sociales (SES) de l’école. Une structure à laquelle se sont également joints l’entreprise Dataiku, spécialisée en solutions d’IA, le Crédit Agricole, ainsi que le pôle Fintech-Innovation de l’Autorité de contrôle prudentiel et de résolution (ACPR), institution de supervision des établissements financiers.

Quelle place pour l’IA dans la LCB-FT ?

« À l’origine, la chaire se focalisait sur les questions d’explicabilité de l’IA, mais nous avons rapidement compris que cette problématique ne pouvait être abordée isolément du reste », relate Winston Maxwell. L’équipe de XAI-4-AML s’est ainsi intéressée à la potentielle valeur ajoutée de l’IA dans la LCB-FT, aux défis auxquels est confrontée la technologie et aux freins limitant son adoption, parmi lesquels les impératifs d’explicabilité.

En premier lieu, les chercheurs se sont interrogés sur la place que pouvait occuper l’IA au sein des systèmes de surveillance. « Aujourd’hui, certaines banques utilisent des modèles de machine learning pour traiter une partie des alertes générées par les algorithmes traditionnels », indique Winston Maxwell. « En général, on observe donc une collaboration entre les systèmes déterministes et les outils d’IA. Ces derniers pourront-ils, à terme, se substituer totalement aux approches classiques ? Ce n’est pas certain, tant d’un point de vue technique que réglementaire. »

De même, l’intelligence artificielle intervient actuellement en renfort des opérateurs humains, afin d’accélérer l’analyse des alertes remontées. À terme, ce travail pourrait-il être entièrement pris en charge par la technologie ? « Dans un domaine aussi sensible que la LCB-FT, les décisions devront toujours être prises par des humains », juge Winston Maxwell. « Signaler un cas auprès de Tracfin peut avoir de sérieuses répercussions pour l’individu concerné. Laisser cette responsabilité à une machine serait donc contraire à des principes de droits fondamentaux. »

Qu’est-ce qu’une IA « explicable » ?

Par conséquent, l’IA doit rester confinée à un rôle d’aide à la décision. Mais même pour une telle fonction, son adoption se heurte aux contraintes imposées par le régulateur. « Les établissements financiers sont tenus de cartographier les risques associés à leur clientèle », décrit le cotitulaire de la chaire. « Ensuite, ils doivent prouver qu’ils ont prévu un scénario correspondant à chaque risque identifié, puis que leur système prend véritablement en compte tous ces cas. » Or, les modèles d’IA ne fonctionnent pas avec des règles prédéfinies, mais cherchent plutôt à identifier des comportements anormaux. À l’heure actuelle, ils ne peuvent donc pas satisfaire aux exigences précitées.

Ce n’est toutefois pas une fatalité. En effet, la chaire XAI-4-AML permettait précisément de réunir établissements financiers et régulateur afin de trouver une nouvelle approche commune. À travers les ateliers coorganisés par les différents partenaires, la problématique de l’explicabilité de l’IA apparaissait primordiale pour la confiance de tous les acteurs. Mais qu’entend-on exactement par ce terme ? « L’explicabilité d’un système de surveillance automatique implique d’associer à une alerte les raisons qui ont poussé l’algorithme à considérer le mouvement comme suspect », présente Winston Maxwell. « Par exemple, indiquer qu’une alerte a été remontée en raison d’un dépôt de 10 000 euros en espèces par un individu qui n’exerce pas une profession manipulant de grandes sommes en liquide. » Un fonctionnement différent de celui d’un modèle d’IA, qui opère généralement comme une « boîte noire ». Des travaux sont cependant en cours pour améliorer l’explicabilité de ces algorithmes, notamment par Pavlo Mozharovskyi, enseignant-chercheur à Télécom Paris.

Par ailleurs, l’ACPR souhaiterait disposer d’un niveau plus haut d’explicabilité, c’est-à-dire que les nouveaux systèmes puissent démontrer leur efficacité. Cela suffirait-il à obtenir la confiance du régulateur ? « En vérité, aujourd’hui, l’ACPR n’est pas capable de définir précisément ses exigences en matière d’IA, la problématique étant nouvelle », note Winston Maxwell. « Dans l’idéal, elle préférerait sans doute que les anciens systèmes continuent de cohabiter avec les nouveaux modèles. Mais cela induirait des coûts supplémentaires pour les banques… »

L’explicabilité de l’IA est-elle toujours bénéfique ?

Les travaux de la chaire XAI-4-AML ont également soulevé une question plus inattendue : l’explicabilité de l’IA est-elle toujours souhaitable ? Les résultats d’une thèse menée par Astrid Bertrand – alors doctorante à Télécom Paris et aujourd’hui cheffe de projet scientifique à la Commission européenne – ont apporté un regard nuancé sur le sujet. La démarche comprenait en effet une étude réalisée auprès de 256 volontaires, à qui un chatbot recommandait des produits d’assurance-vie selon leur profil, à l’issue d’un échange en langage naturel. Néanmoins, l’outil proposait parfois délibérément des offres inadaptées, tout en justifiant sa suggestion. Résultat : non seulement les explications fournies n’aidaient pas les utilisateurs à percevoir le caractère inapproprié de la proposition, mais le fait de dialoguer avec la machine augmentait la confiance des participants en l’outil, même au détriment de leur propre intérêt.

« Cette expérimentation n’était pas directement liée à la LCB-FT, mais ses résultats pourraient s’appliquer à l’explicabilité de l’IA dans ce domaine », souligne Winston Maxwell, qui dirigeait la thèse. « Si un modèle de machine learning fournit trop d’explications à un contrôleur humain, celui-ci risque d’accorder une confiance excessive à l’outil et de diminuer sa vigilance lors de son examen. » Par conséquent, afin de préserver la capacité d’analyse humaine, la thèse d’Astrid Bertrand suggère de privilégier des interfaces d’IA favorisant l’autonomie de l’utilisateur, notamment en stimulant sa curiosité et son scepticisme.

La chaire XAI-4-AML arrive à son terme au début de l’année 2025, avec la fin d’une thèse abordant l’explicabilité de l’IA sous l’angle de la philosophie des sciences. Cependant, les partenaires actuels envisagent de renouveler la structure, à laquelle pourraient s’ajouter de nouveaux acteurs financiers. « Il reste encore beaucoup à faire pour stopper le fléau du blanchiment d’argent : la problématique de l’apport de l’IA dans cette lutte est donc loin d’être épuisée », avance Winston Maxwell. « De plus, les enseignements relatifs à la LCB-FT peuvent s’appliquer à bien d’autres domaines bancaires régulés qui nécessitent des systèmes de contrôle et des analyses par des opérateurs humains. »

Dernières actualités

,

Chaire XAI-4-AML : comment l’IA peut-elle aider à lutter contre le blanchiment d’argent ?

La lutte contre le blanchiment des capitaux et le financement du terrorisme (LCB-FT) impose aux établissements financiers de mettre en œuvre des systèmes permettant de repérer de potentielles transactions illégales. Depuis 2020, Télécom Paris, composante de l'institut Carnot TSN, héberge la chaire de recherche XAI-4-AML. Celle-ci vise à comprendre comment l’intelligence artificielle pourrait contribuer à améliorer la lutte contre le blanchiment des capitaux et le financement du terrorisme.
,

SYNAPSES : comment l’IA peut-elle contribuer à un meilleur journalisme ?

À travers le laboratoire commun SYNAPSES, Ouest-France et l’IRISA – sous cotutelle d’IMT Atlantique, composante du Carnot TSN – souhaitent évaluer l’intérêt et l’impact de l’intelligence artificielle dans les médias. Une démarche qui nécessite d’explorer des problématiques d’analyse d’images, de compréhension de textes anciens, de visualisation d’informations complexes, mais également de sobriété énergétique. Découvrez notre dernière interview...
, , , , , ,

Retour sur la participation du Carnot TSN à Global Industrie 2025

Du 11 au 14 mars 2025, Eurexpo Lyon a été le cadre du salon Global Industrie, réunissant plus de 50 000 professionnels et 2 500 exposants. Placée sous le thème "L'humain au cœur de l'industrie", cette édition a mis en avant des innovations technologiques majeures, des compétitions techniques et des échanges stratégiques. Le Réseau des Carnot et ses instituts, parmi lesquels l'institut Carnot TSN, y ont tenu une place de choix.

Besoin d’informations ?