La solution actuelle de Data Quality mise en place chez notre client, une grande banque française, basée sur des systèmes de règles, est insuffisante pour détecter les erreurs et les variations financières anormales sur les contrats de prêts, titres, intérêts, tiers. D’autant plus que ces règles sont dépendantes d’un contexte Métier spécifique ou d’une règlementation sans cesse en évolution.
Nous avons donc déployé notre solution de Data Quality IA afin de mettre en place et suivre des contrôles avancés dans le cadre de la règlementation BCBS 239. En effet, l’enjeu était de reprendre la main sur la Data Quality pour le traitement de forts volumes de données et sur des erreurs complexes (cohérences des données, liées à une incompatibilité de combinaisons de critères ou à un contexte métier spécifique).
La solution a été déployée sur un environnement Big Data On-Premise : Cluster NSX avec plus de 30 Workers nodes, 90T de stockage, 512G ram & 60 cores et pris en compte plus de 30 mois d’historique basés sur 180.000.000 mouvements/jour chacun pouvant avoir 300 caractéristiques.
Notre outil a, notamment, permis de mettre en exergue que 23% des erreurs détectées étaient jusqu’alors inconnues des équipes Métier.
Après une courte période de monter en autonomie des équipes Métier, notre client a pris pleine possession de la solution grâce à une interface d’utilisation et une gestion des erreurs et des faux positifs très facile d’utilisation.
Aujourd’hui, avec les technologies d’IA et de Machine Learning, il est donc devenu possible de facilement et rapidement mettre à disposition une solution avancée, performante et user friendly.