Bilan 2025 de la GenAI en banque : doucement, mais sûrement
Depuis le début du boom de la GenAI, le secteur financier a acquis une solide expérience et expertise, à l’image de BNP Paribas, LCL ou Defacto. La tendance n’est cependant plus à la profusion.
Secrets de Data a déjà consacré une édition spéciale au déploiement de l’intelligence artificielle dans la banque et l’assurance (lire : “Mais où vont banques et assurances sur la Data & IA ?”), ainsi qu’à plusieurs acteurs du secteur comme BNP Paribas, BPCE et Covéa.
Tous mènent depuis 2023 des projets, en particulier sur l’IA générative. Leurs témoignages mettent en lumière la complexité technologique et humaine associée à ces projets. L’industrie financière parvient-elle à surmonter cette difficulté pour transformer l’essai ?
Des métiers plus facilement embarqués sur l’IA
Une table ronde réalisée lors de BankTech Day 2025 dressait un bilan (partiel forcément) des initiatives GenAI. Et premier constat : l’arrivée de l’IA générative a marqué une certaine rupture en touchant/interpellant les métiers au sein des organisations - en comparaison de l’IA plus “classique”.
Un atout certes, mais aussi un challenge compte tenu des attentes fortes exprimées par les métiers, parfois dénués d’une compréhension approfondie de ces modèles, et en particulier de leurs limites et spécificités.
“Avec l’IA générative, c’est l’ensemble de la population en entreprise qui a été embarquée. C’est véritablement une nouveauté (...) Autrefois, nous travaillions avec les équipes Data à essayer d’embarquer les métiers. Et ce n’était pas facile”, déclare Isabelle Hilali, CEO et fondatrice de datacraft.
Selon elle, les projets d’IA générative ont contribué à développer plus de transversalité, “ce qui souvent manquait dans les organisations.” Au sein du Crédit Agricole et de sa filiale LCL, l’IA générative a bien rassemblée la Tech, au travers de son IA Factory, et les métiers.
Axel Cypel, responsable projets IA chez LCL parle ainsi “de double prise de conscience.” A la factory revient la mission de comprendre et étudier technologiquement ces modèles. Quant aux métiers, leur rôle dans la banque a été de s’entendre sur l’identification d’un premier cas d’usage “adapté”.
La mise en commun des Rex accélérateur de maturité chez LCL
Pour mener ses initiatives, LCL s’intègre en outre au sein d’un dispositif groupe visant à mettre en commun, entre filiales, les retours d’expérience de chacune. “C’est un accélérateur de maturité”, considère Axel Cypel.
Du côté de BNP Paribas, et même si des particularismes sont associés à la GenAI, les initiatives s’inscrivent dans une démarche plus globale de déploiement de l’IA. Et Su Yang, directeur IA et innovation IT, de rappeler ainsi que le groupe a démarré sur l’IA avant l’émergence des LLM.
De fait, la banque comptabilise aujourd’hui 800 cas d’usage de l’IA en production et dégageant plus de 500 millions d’euros de valeur par an. Toujours sur l’IA, Su Yang précise que le groupe s’appuie sur une communauté de 4000 personnes.
Pourquoi un tel soin pris chez BNP Paribas à ne pas isoler l’IA générative ? Notamment car la GenAI est abordée à ce jour au niveau de l’innovation et de la R&D. Mais aussi car les dirigeants jugent contre-productif une focalisation sur la GenAI, préférant penser IA et IA intégrée au processus agile existant.
La banque doit “encore mûrir et continuer d’apprendre sur la bonne utilisation de l’intelligence artificielle générative. Lorsque nous serons parvenus à surmonter les challenges auxquels nous sommes confrontés aujourd’hui, très naturellement la proportion augmentera.”
La mise à l’échelle, un challenge prévient BNP Paribas
C’est ce que confiait plus tôt en 2025 Pierre Ruhlmann, le Chief Operating Officer de BCEF, la Banque Commerciale en France de BNP Paribas. Il souligne ainsi le risque à opérer du push technologique sur l’IA générative et aussi la courbe d’apprentissage associée à sa maîtrise.
“La mise à l’échelle de l’IA générative, avec des niveaux de performance adéquats, est un challenge que nous éprouvons actuellement. Mais c’est une préoccupation collective et pas seulement pour BNP Paribas”, déclarait d’ailleurs le COO.
Le groupe n’en est pas moins décidé à investir et transformer les investissements en valeur. Outre la R&D, la banque a noué des partenariats sur l’IA générative, dont Mistral AI. Mais elle a aussi internalisé et centralisé des GPU tout comme des modèles. Sur les GPU, BNP Paribas a inclus dans son contrat avec IBM Cloud du GPU-as-a-Service pour compléter ses capacités.
Par cette approche, la banque française vise une “industrialisation gouvernée, sécurisée et optimisée”, telle que la qualifie Su Yang. Comme ses concurrents, elle doit en outre composer avec un fort cadre réglementaire - auquel vient s’ajouter une régulation spécifique à l’IA au travers de l’AI Act européen.
Ce contexte impacte nécessairement le niveau d’adoption de la GenAI dans le secteur. Pour autant, Su Yang estime que les délais d’appropriation ont été “relativement courts”. Tous les cas d’usage n’avancent pas au même rythme néanmoins.
Un assistant pour chaque développeur en 2026
L’assistance aux développeurs bénéficie sans doute d’une longueur d’avance, sans être spécifique à l’industrie financière cependant. “Nous avons beaucoup expérimenté en 2024 et commencé le déploiement à l’échelle cette année. Nous avons l’ambition qu’en 2026 tous les développeurs disposent d’un assistant”, indique-t-il.
“C’est véritablement le cas d’usage sur lequel nous investissons massivement”, poursuit Su Yang. Classiquement, BNP Paribas investit aussi sur les applications de la GenAI pour le traitement documentaire. Les grandes banques de la place développent également des usages dans ce domaine, à l’image du Crédit Agricole avec CA Generative Search et de Société Générale via LACI et Charly.
Le cadre de BNP Paribas le confirme, le traitement documentaire constitue “un des cas d’usage les plus répandus dans le monde bancaire.” Les raisons : la profusion de documents dans le secteur et la multiplicité d’étapes dans leur traitement, représentant autant d’applications possibles pour l’IA.
“Ce qui est certain, c’est que l’IA générative a permis de davantage fiabiliser la partie du traitement en langage naturel”, constate-il. Chez LCL, la priorité en termes d’utilisation de la GenAI a porté sur les emails conseillers.
Aria, un assistant à la rédaction de courriel, est déployé auprès du réseau LCL, soit 12.000 conseillers bancaires, depuis maintenant plus d’un an. Dans sa V1, Aria propose une réponse rédigée à un message client depuis la messagerie sécurisée de la banque. La réponse est générée par le biais d’un prompt en entrée.
Des millions de mails conseillers générés en un an chez LCL
Depuis sa mise en production, des “millions de mails” ont ainsi été générés grâce à l’assistant. Si Aria n’est pas obligatoire pour les conseillers, il est néanmoins “extrêmement utilisé”. Pour Axel Cypel, elle constitue “la première brique du conseiller augmenté”.
Pour continuer de les augmenter, d’autres briques sont prévues avec le Speech-to-Text, qui présente l’avantage de répondre à la problématique des mots clés, inopérants pour les prompts. La formulation en langage naturel est plus automatique lors d’un usage par la voix.
LCL souhaite aussi interconnecter Aria avec sa base documentaire pour intégrer, par exemple, des informations relatives à un produit financier. Axel Cypel le reconnaît, cet usage présente plus de difficultés. C’est aussi ce dont témoignait Pierre Ruhlmann chez BCEF.
La qualité de l’information et la structuration des bases de connaissance impactent directement les résultats fournis par les modèles génératifs. Les expérimentations “mettent en évidence l’importance du sujet de knowledge management”, déclare-t-il.
“Pour améliorer la pertinence, nous devons revoir complètement notre dispositif autour de la gestion de la connaissance”, poursuit pour Mind Fintech Pierre Ruhlmann, pour qui cela passe par la constitution d’un socle commun d’informations et des assistants IA par profil utilisateur (service client, conseiller…).
Le ROI toujours un “sujet compliqué”
Les expérimentations en GenAI ont aussi été pour les banques l’opportunité de creuser la question du ROI des projets et produits IA. Chez LCL, Aria ne génère pas des euros directement, mais libère du temps. Et celui-ci doit être réinvesti en temps commercial, source lui de PNB pour la banque.
Mesurer précisément les économies globales et l’effet sur le plan commercial se révèle cependant ardu. Et toutes les banques - pas seulement elles - se frottent aujourd’hui à l’enjeu du ROI. “C’est un sujet compliqué”, confirme Isabelle Hilali de datacraft.
Mais en outre, les éléments de l’équation économique ne sont pas encore tous figés. Car sur les coûts réels des solutions d’IA du marché, de nombreuses interrogations persistent. Combien ces services coûtent-ils à leurs fournisseurs ? Quand et de quel montant les prix évolueront-ils ? Le business model des projets GenAI dépend directement de ces variables.
BNP Paribas a fait mûrir sa réflexion sur le ROI. Su Yang précise d’ailleurs que plusieurs KPI peuvent être pris en compte, dont le NPS et le taux d’usage. La GenAI ne repose pas sur une équation à une seule variable. A chaque cas d’usage, son ROI et sa méthode de mesure.
Pour une startup de la finance comme Defacto (27 collaborateurs), adoption et gains sont probablement plus simples à gérer que dans un groupe bancaire de plusieurs milliers de salariés. Son agilité est un atout, comme souvent.
8 agents IA en place dans la fintech Defacto
La GenAI n’en demeure pas moins un enjeu stratégique pour la startup. Pour le patron de la fintech, Jordane Giuly, son adoption relèverait même de la survie. Pour diffuser, Defacto dispose de différents “champions” dans ses équipes. La startup a aussi mené des hackathons pour évangéliser et identifier les cas d’usage.
La GenAI dans la fintech est exploitée pour la productivité individuelle, mais aussi au niveau produit et donc en interaction directe avec les clients - là où les banques traditionnelles demeurent prudentes. Defacto dispose de 8 agents IA en interne, soit des IA “spécialement entraînées sur un contexte particulier.”
A chaque agent, sa fonction. Les IA, dont chacune a un nom (Igor, Emma, Killian…), sont conçues pour “augmenter les salariés”, par exemple en permettant à chaque collaborateur de faire des requêtes SQL. “Tout le monde devient un Data Analyst” et peut interroger la base de données pour traiter des questions business.
La fintech exploite aussi un agent pour effectuer de l’avant-vente, en renfort de l’unique chargé-bancaire humain employé. Cette ressource est jugée indispensable pour une entreprise de cette taille “qui a accompagné 12.000 clients en trois ans.” L’agent IA avant-vente est doté de la capacité d’envoyer directement des emails.
“Cela permet d’aller très vite. L'inconvénient et la contrepartie, c’est que parfois l’IA se trompe”, reconnaît le fondateur. Pour y remédier, il importe donc après la mise en production d’une telle IA de procéder à son évaluation et à la mesure de la qualité des réponses.
Mais si l’IA peut commettre des erreurs, Jordane Giuly juge les gains au rendez-vous. Ils sont observés à plusieurs niveaux, dont la satisfaction, l’expérience client et la récurrence. La valeur est ailleurs également.
“Avec une équipe très restreinte, on est capable de servir des milliers d’entreprises de manière qualitative”, se félicite le dirigeant. Et celui-ci de se projeter vers le futur des usages de la GenAI, à commencer sa capacité à offrir “énormément de personnalisation at scale.”
Les Actus de la GenAI :
Chaque semaine, l’IA’Gora de l’IMA s’intéresse aux principales annonces et actualités de l’IA générative. Dans cette édition : Le Chat Entreprise, la sycophancy d’OpenAI, l'IA un trou noir, l'invasion des bots et Google dans le déclin.
Le Chat Entreprise de Mistral AI
Le 7 mai, la startup annonçait sur son blog la fourniture de Le Chat Entreprise. “Une bonne nouvelle a priori pour toutes les entreprises pour lesquelles le sujet de la souveraineté est important”, commente Marjory Canonne. La thématique interpelle les membres de l’IMA, mais aussi PME et ETI, témoigne la consultante de Spinalia.
Elle retient par ailleurs de cette annonce la comptabilité de l’outil conversationnel avec différents services du marché, notamment Google et Microsoft. La possibilité de développer des agents en No Code, constitue une autre fonction notable. A noter aussi un moteur de recherche pour l'exploration des données internes.
Medium 3
Le lancement de Le Chat Entreprise s’est fait conjointement avec celui d’un nouveau modèle, Medium 3. C’est en effet ce LLM qui alimente le produit conversationnel de Mistral AI. Yann Carbonne retient sa description : “Medium is the new large.”
“Un titre bien choisi”, juge-t-il en raison de ses performances élevées “tout en restant pas très cher”. Autre point d'intérêt : le volet déploiement du modèle. Le Data Scientist regrette et s’étonne en revanche du renoncement de Mistral à le proposer en open source.
“Il est néanmoins très prometteur. Ils font un peu l’erreur de se comparer à Llama 4, alors qu’il est un peu mort, mais pas à Qwen 3, le modèle qui buzz en open source actuellement. C’est un peu étrange. Je ne l’explique pas.”
La “sycophancy” d’OpenAI GPT-4o
L sujet avait suscité l’attention quelques semaines auparavant. OpenAI revient sur la question par le biais d’un article de blog. Petit rappel préalable des faits. A la suite d’une mise à jour, le modèle de l’Américain changeait de comportement en multipliant les louanges à l’attention de son utilisateur.
Une évolution mal accueillie par les utilisateurs. OpenAI remédiait très rapidement à la situation pour revenir à une attitude plus ‘naturelle’ ou au moins atténuée. Dans son billet, la startup fait un peu la transparence sur son processus de mise à jour, passant notamment par une phase beta sur des datasets labellisés.
Des salariés sont aussi responsables de tester la machine en discutant avec elle pour collecter un ressenti. Une étape considérée comme essentielle pour la réussite d’un projet d’après Yann Carbonne. Pour éviter un nouvel épisode de sycophancy, OpenAI a donc fait évoluer son processus d’évaluation sur le volet comportemental. De quoi prévenir une rechute ?
L’expert se félicite de l’exercice de transparence d’OpenAI, peu accoutumé à la pratique malgré le nom porté par la licorne américaine.
Dario Amodei (Anthropic) ignore comment l’IA fonctionne
Anthropic est l’un des principaux fournisseurs de modèles d’IA du marché. La startup est donc dirigée par Dario Amodei, a priori un fin connaisseur de l’IA ? De son propre aveu, nul ne sait véritablement comment l’intelligence artificielle fonctionne.
Un comble ? Dario observe que pour la première fois, l’humanité utilise une technologie majeure sans pour autant en comprendre le fonctionnement. “Les capacités de l’IA générative émerge en l'entrainant sur de la donnée. Mais on ne sait pas comment cela arrive”, confirme Yann Carbonne. Le CEO d’Anthropic s’intéresse à ce trou noir de l’IA et à ses conséquences en termes d’interprétabilité. Le dirigeant attend des progrès d’ici 10 ans. Mieux vaut tard que jamais ?
Reddit : l’invasion des bots !
Steve Huffman, le patron du réseau social Reddit alerte sur une invasion en cours. Les bots (basés sur des LLM) sont légion sur les forum du service en ligne. Et il y a de quoi s’inquiéter, considère le CEO pour qui l’avantage concurrentiel de Reddit est en danger mortel. La plateforme cherche un remède.
L’invasion des bots n’est pas spécifique à Reddit. Une université avait ainsi mené des recherches en diffusant des bots sur Reddit. Ces robots rédigeaient des posts sur le réseau. Et ceux-ci rencontraient un franc succès auprès des autres utilisateurs. Beaucoup de ces bots furent néanmoins détectés et bannis.
Mais nombre d’entre eux ont malgré tout été très appréciés car capables d’être plus convaincants que des humains. Problème : les contenus générés par l’IA se multiplient sur Internet. Et ces mêmes contenus sont amenés à servir à l'entraînement des IA. Demain, tout sera-t-il lissé par des moyennes statistiques ?
Adieu Google bobo ?
Eddy Cue, vice-président d'Apple, déclarait récemment (durant un procès antitrust contre Google) que sur Safari, les recherches sur Google étaient en déclin. Une première fois en 22 ans. La firme californienne est-elle sur une mauvaise pente ? Les propos de Cue ont en tout cas été mal accueillis par les marchés financiers puisque le titre de Google abandonnait plusieurs points en bourse.
L’hypothèse principale avancée pour expliquer cette tendance : l’IA, qui serait de plus en plus utilisée par les internautes en remplacement d’une requête sur un moteur de recherche traditionnel. Google a rapidement démenti toute baisse de trafic.
Se posent néanmoins la question de l’évolution du business model de la firme basé sur la publicité. Quid aussi des pratiques marketing fortement basées sur le search. Et il ne faut pas oublier enfin le coût énergétique d’une requête sur une IA générative. Un transfert d’usage sur ChatGPT ou Perplexity ne soignerait pas le bilan environnemental du numérique.
Les analyses et actualités Data & IA
Secure GPT : comment Veolia passe de l’IA générative à l’IA agentique - En à peine deux ans, Veolia a généralisé le déploiement de l’IA générative. Choix d’une architecture évolutive, formation des métiers à l’aide de champions, implication des parties prenantes… le groupe a mis toutes les chances de son côté. Et a déjà commencé à déployer ses premiers flux d’IA agentique.
Hallucinations des IA : Giskard soupçonne une fiabilité tronquée au nom de l’utilité - Après avoir évoqué son projet lors du sommet de l’IA parisien en février, Giskard a présenté les premiers résultats de son benchmark Phare. Les chercheurs du spécialiste de l’évaluation d’applications d’IA générative mettent en lumière certains mécanismes qui provoquent les hallucinations et identifient les LLM les moins risqués.
Avec la dictature du court terme : nos entreprises sacrifient-elles leur avenir technologique ? - Si l’État français assure agir en faveur de la souveraineté numérique, le secteur privé s’engage-t-il lui aussi ? Les entreprises préfèrent parler de maîtrise de la dépendance technologique. Mais le mouvement reste à initier et l’impératif de l’instant semble s’imposer à tout autre critère de décision.
Sanofi lance un 3e accélérateur digital pour embarquer l’IA dans son réseau industriel - Lyon accueillera le nouvel accélérateur digital de Sanofi dédié à son réseau industriel mondial. L’ambition : placer l’IA au cœur de sa production pharmaceutique pour tripler les lancements simultanés de traitements.
Doctolib ajoute la génération de courrier et la dictée à son assistant - Doctolib complète son assistant de consultation avec de nouvelles fonctionnalités d’IA de génération automatique de courriers et la dictée médicale. En 2025, l’entreprise proposera en outre un assistant téléphonique IA.
Le Campus IA de MGX, Bpifrance, Mistral AI et NVIDIA ouvrira en 2028 - Le partenariat avec les Émirats arabes annoncé en février se concrétise avec la création d’une joint-venture pour le développement en France de ce qui est promis comme le plus grand campus IA d’Europe.