BNP Paribas fournit du LLM as a Service à ses métiers

BNP Paribas fournit du LLM as a Service à ses métiers



Résilience dans le cloud, GPU-as-a-Service, consolidation des bases de données, mais aussi partenariat stratégique avec Mistral AI et transformation de la DSI…

L’actualité IT du groupe BNP Paribas s’intensifie depuis plus d’un an.

L’acteur bancaire se met en ordre de bataille sur l’intelligence artificielle (800 cas d’usage en production), et notamment générative. Le cap pour BNP Paribas, comme pour ses concurrents, c’est celui de l’industrialisation de la GenAI.

LLM et GPU dans les datacenters BNP

Dans cette perspective, le groupe s’est doté d’une plateforme de LLM as a Service. En clair, la banque centralise la fourniture de modèles génératifs au travers d’une plateforme mutualisée pour l’ensemble de ses métiers et entités.

Le service d’IA générative est opéré directement par les équipes IT du groupe BNP Paribas, qui en outre disposent de GPU dernière génération dans les datacenters internes, mais aussi de ressources GPU complémentaires dans le cloud via un contrat avec IBM.

Grâce à la fourniture unifiée de LLM, la banque met à disposition une sélection de modèles de langage pour des cas d’usage métiers axés sur la personnalisation de l’expérience client et la performance opérationnelle.

Modèles open source, Mistral et fine-tunés

Pour l’inférence et l’apprentissage, BNP Paribas s’appuie sur son infrastructure propre et son partenariat avec NVIDIA. En ce qui concerne les modèles fournis sur la plateforme, il s’agit de LLM Open Source et Mistral AI.

L’entreprise prévoit “prochainement” de compléter sa panoplie de LLM avec “des modèles entraînés sur des corpus internes, selon les besoins spécifiques.” Par cette approche centralisée, BNP Paribas estime combiner “puissance de traitement élevée” et limitation des coûts.

La stratégie de mutualisation annoncée par l’acteur bancaire garantit, selon lui, un déploiement sécurisé et renforce la cohérence des usages d’IA générative à l’échelle des métiers et des fonctions.

Un socle technologique commun

Bien que consommateur de cloud public (mais dédié), BNP insiste régulièrement sur l’importance de son infrastructure et de l’internalisation afin de conserver la maîtrise de ses développements et de ses données.

“Avec LLM as a Service, nous créons un socle technologique commun qui permet aux entités de se concentrer sur les cas d’usage métier, tout en s’appuyant sur une infrastructure mutualisée et sécurisée. C’est un levier commun pour innover et améliorer la performance de certains usages”, résume le DSI groupe, Marc Camus.

Quelques mois plus tôt, BNP Paribas présentait un état des lieux de ses principaux projets d’IA, et notamment génératifs. Avec Genius ou HelloiZ v2, un assistant, Hello Bank prépare l’introduction de la GenAI auprès des clients.

Déploiement progressif du LLM as a Service

Bot de type FAQ construit sur un modèle LLM de Mistral AI, HelloiZ v2 est en expérimentation depuis novembre 2024. En avril 2025, il était ouvert à 10.000 clients collaborateurs du groupe BNP Paribas, “par sécurité”. Le déploiement sera progressif avec l’ajout durant l’année de tranches successives de 200.000 clients.

Hello Bank a d’ailleurs été parmi les premiers utilisateurs du LLM as a service, tout l’inspection générale du groupe. BNP Paribas prévoit un déploiement à l’échelle progressif de sa plateforme de modèles “selon une logique d’industrialisation.”

Lors de Bank Tech 2025, Su Yang, directeur IA et innovation IT, insistait sur un autre cas d’usage majeur en GenAI : l’assistance aux développeurs. “Nous avons beaucoup expérimenté en 2024 et commencé le déploiement à l’échelle cette année. Nous avons l’ambition qu’en 2026 tous les développeurs disposent d’un assistant”, indique-t-il.

“C’est véritablement le cas d’usage sur lequel nous investissons massivement”, poursuivait Su Yang. Classiquement dans le monde bancaire, BNP Paribas investit aussi sur les applications de la GenAI pour le traitement documentaire.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.