Performante, robuste, souveraine… : quelles qualités pour une IA d’entreprise ?
Industrialiser l’IA et l’exploitation des Data (structurées et non structurées) tout en conciliant création de valeur, performances et autonomie stratégique : Chief Data & AI Officers répondent.
On enfonce une porte ouverte : l’enjeu pour les organisations ne consiste plus à adopter l’IA et l’IA générative, mais à en industrialiser les usages afin de générer une valeur durable. L’essentiel est ailleurs. Il réside dans le comment. Au pluriel même.
Parmi les prérequis, des fondations Data solides. Une évidence ? Pas tant que cela. Les fondations sont parfois (souvent ?) occultées par l’engouement autour des cas d’usage. Le rythme effréné de l’innovation technologique et le marketing des fournisseurs pourraient aussi suggérer qu’il est possible de s’affranchir de ces fondations.
Une IA réussie n’est pas une IA avec un bon taux de performance
La facilité d’utilisation de l’IA générative tend également à masquer la complexité, relève Christine Legner, professeure de systèmes d'information à Lausanne et membre du CDOIQ. La démocratisation en marche de l’IA ne rime ainsi pas nécessairement avec plus de simplicité pour les équipes Data.
Pour les entreprises traditionnelles, gare à “la comparaison avec ce qui est fourni par Google ou un autre fournisseur” de cette envergure, prévient la chercheuse. “Un véritable travail est à mener pour créer des fondations”. D’autant que pour chaque vague technologique s’ajoutent des fondations supplémentaires.
La preuve ? “La donnée non structurée est aujourd’hui un univers qui n’est souvent pas très bien géré” dans les organisations. Chafika Chettaoui, Chief Data & AI Officer d’Axa France, le confirme, l’IA ne constitue que la partie émergée de l’iceberg.
“On voit souvent peu la partie invisible, qui représente pourtant le travail le plus difficile du CDO et du DSI (...) Une IA réussie, ce n’est pas une IA avec un bon taux de performance. Non, c’est une IA adoptée, utilisée à l’intérieur d’un process et générant l’impact business attendu”, considère-t-elle.
Pour l’assureur et son Data Office, fondations Data et IA sont par conséquent réunies au sein d’un même programme : NADiA (Nouvelle Ambition Data et IA). A la partie visible, c’est-à-dire les cas d’usage IA, GenAI et agentique, s’ajoute “une grosse partie du budget” finançant trois axes que sont la culture, l’organisation (décentralisée) et la plateforme technologique.
Culture, l’organisation (décentralisée) et socles technologiques
Cette plateforme, ce sont des “socles transversaux” exploités pour pérenniser les développements et permettre le passage à l’échelle. L’industrialisation est aussi une ambition au sein de la maison Louis Vuitton (LVMH), comme a pu en témoigner lors de la table ronde Denodo ilias Charki, Global Head of Data, Analytics & GenAI CoE.
L’entreprise du luxe a investi dans ses fondations, et ce depuis plusieurs années déjà. Le CDO a ainsi été recruté à l’origine pour concevoir la plateforme Big Data. Sur ce socle, se sont ensuite déployés des usages analytics, de l’IA (classique) et de l’IA générative.
Du côté de LCL (entité du groupe Crédit Agricole) et de son département IA, dirigé par Didier Lellouche, la priorité va au traitement de la donnée non structurée (images, justificatifs, voix et texte). “En IA générative, nous disposons de cas d’usage passés à l’échelle”, parmi lesquels ArIA, un assistant de messagerie pour 12.000 conseillers bancaires.
Un pilier reste essentiel pour ces développements : “l’accès à de la donnée de qualité”. Ce patrimoine entre dans l’entraînement des modèles, notamment en matière de reconnaissance ou RAD LAD (lecture automatique de documents et reconnaissance automatique de documents).
“Oui, la qualité de la donnée est extrêmement importante pour nous”, souligne Didier Lellouche pour traduire la complexité des traitements à réaliser. Des progrès technologiques réduisent cependant le poids de cette problématique, dont les VLM (Vision language models).
“Les VLM nous permettent aujourd’hui de travailler beaucoup plus vite que par le passé”, se félicite-il. Et l’utilisation de ces VLM intervient potentiellement dans de nombreux processus bancaires nécessitant l’analyse de documents (justificatifs de domicile, pièces d’identité, etc.).
Repenser le modèle bancaire d’ici à 2030 grâce l’IA
D’ailleurs, les entreprises s’efforcent de favoriser la réutilisation et la mutualisation, par exemple en ce qui concerne les RAG. Les bases documentaires sont multiples dans la banque et l’assurance. “Nous réfléchissons à la façon de rendre les RAG génériques, pour des raisons budgétaires, mais aussi de rapidité”, témoigne le responsable IA de LCL.
Make, Buy ou Reuse servent différentes finalités, dont celle du time-to-market. Pour la banque, l’IA s’inscrit dans un vaste programme de transformation visant à repenser le modèle bancaire d’ici à 2030. “Il n’y a plus un seul projet dans lequel on n’a pas au moins réfléchi à y incorporer de l’IA. Nous essayons donc de penser les cas d’usage dans une logique de mutualisation et de réutilisation.”
La réutilisation, LCL la pratique au niveau du RAG, mais pas seulement. Depuis peu, la banque aide ses conseillers à la réalisation des comptes-rendus des rendez-vous clients. Depuis juin est entré production un outil permettant aux collaborateurs de dicter le compte-rendu, puis de générer automatiquement un document dans un format standard.
“Nous l’avons prévu d’emblée pour qu’il soit réutilisable dans de nombreux cas de figure” grâce aux modules de speech-to-text. Christine Legner évoquait l’ajout de nouvelles fondations. Le monitoring des modèles en est une. Le build n’est qu’une des facettes des développements en IA. Le Run est un autre volet majeur.
“Le Run est un énorme sujet”, reconnaît Didier Lellouche. Mais le Run, c’est notamment une organisation adaptée, dont des nouvelles responsabilités pour les Data Scientists. En concertation avec l’IT, le département IA mène donc actuellement un chantier de réorganisation des équipes pour industrialiser le run.
IA et Data Factory pour gouverner les projets et mutualiser
Une plateforme de monitoring est en outre en cours de finalisation. Industrialiser et passer à l’échelle sont également des enjeux pour Axa. Dans ce domaine, Chafika Chettaoui insiste sur un premier levier : “choisir ses combats. Nous avons tous passé l’époque où nous annoncions plus de 100 PoC ou cas d’usage.”
NADiA se veut ainsi le miroir du plan stratégique de l’assureur. A ce titre, il met l’accent sur la focalisation sur un nombre restreint d’initiatives. La CDO dénombre “cinq batailles de l’IA” au sein d’Axa, et pour lesquelles les gains ont été chiffrés (et validés par le Comex).
“Se focaliser est le meilleur moyen d’avoir un engagement de toute la société sur les cas d’usage sélectionnés”, justifie-t-elle. Autre levier d’industrialisation : se doter d’IA et Data Factory. Les factory sont considérées comme un moyen (outre le delivery) de gouverner les projets et de mutualiser des composants. “Build once, use many”, résume-t-elle.
Axa France s’appuie donc sur ces socles pour ses développements, parmi lesquels Secure GPT. Une particularité ici néanmoins : “Nous n’attendions pas de ROI”. L’outil sert avant tout des ambitions en matière d’acculturation des salariés à la GenAI.
En revanche, Smart in Axa avait clairement pour objectif des gains de productivité sur la recherche d’information produit dans les agences. Orienté client, Coach Prévention Routière fournit de l’information aux assurés via du langage naturel. Un bot RH est aussi en ligne. Axa développe en outre des applications IA dans les domaines des sinistres et du service client, indique la CDO.
Penser processus pour réussir sur l’IA
Christine Legner relève d’ailleurs une tendance dans les entreprises consistant, non plus à déployer des cas d’usage isolés de l’IA, mais à l’embarquer pour “repenser des processus et des activités de manière beaucoup plus vaste.”
Citant des travaux du MIT, la chercheuse souligne que les entreprises disposant de responsables de processus dans les métiers “sont mieux préparées à implémenter de l’IA que des organisations très silos.” Sur la mesure du ROI, elle observe par ailleurs une forte hétérogénéité entre les entreprises.
Certaines ont défini des frameworks et/ou généralisé le contrôle de gestion pour mesurer avant et après la valeur générée. Toutes n’en sont pas là. Christine Legner cite aussi les incertitudes exprimées par les CDO à l’égard des coûts et donc des prix affichés par les fournisseurs.
Cette incertitude justifie d’ailleurs une réflexion stratégique en matière de gestion des risques de dépendance - et de souveraineté technologique. Au niveau d’ArIA chez LCL, cette problématique est notamment traitée grâce à la possibilité de basculer en temps réel entre des modèles de fournisseurs distincts.
Pour Axa, l’enjeu est de sécuriser ses données et sa tech. Néanmoins, la souveraineté ne peut signifier un recul de la qualité de service rendue aux clients. Il s’agit bien, insiste Chafika Chettaoui, de concilier sécurité, qualité et performance. L’écosystème IA en France compte des startups répondant à ces exigences, poursuit-elle.
La dépendance technologique, Axa France l’a aussi intégrée comme un critère dans le développement de sa plateforme GenAI baptisée Smart Guide. “Nous avons fait le choix de faire du make”, défend la CDO. Résultat : une plateforme internalisée “permettant de générer énormément de cas d’usage à l’échelle”, de maîtriser son risque de dépendance et de choisir librement ses partenaires.
Des fondations Data à l’IA, puis l’agentic AI : quel cheminement ?
La maturité Data reste inégale sur les fondations au sein même des entreprises. Pour les experts, la couche universelle d’accès aux données est un 1er cap à franchir. IA et agentic AI bénéficieront aussi de cette couche.
On n’industrialise pas de l’IA dans l’entreprise sans des prérequis, qui peuvent être regroupés sous l’appellation de fondations Data. La Data Platform est un de ces piliers. Impossible de dire cependant qu’elle a gardé les mêmes contours au cours de ces 10 dernières années.
Sébastien Delorme, senior manager du cabinet EY, ne cantonne pas une stratégie Data à sa composante plateforme. Illustration avec le secteur de la finance. Citant une étude du BCG, il signale que 93% des institutions financières européennes ont lancé des projets de transformation Data.
GenAI et agentic remettent les fondations Data au cœur du débat
Et cette transformation comporte de multiples dimensions, notamment organisationnelle, au travers par exemple de la création de nouvelles fonctions. Parmi les plus emblématiques : le Chief Data Officer et le Data Steward, etc.
Autre dimension : la gouvernance, y compris dans une optique de mise en conformité - avec le RGPD hier et désormais avec l’AI Act. “On a vu se déployer beaucoup de projets de Data Quality, de lineage, de classification, etc.”
Sébastien Delorme n’oublie pas non plus le volet IT, où les transformations ont été largement drivées par le cloud. Les fondations sont donc là et performantes. Pas si vite. Citant toujours le BCG, Sébastien Delorme ajoute que moins de 30% des institutions financières estiment avoir atteint une maturité Data avancée.
“Nous le constatons chez nos clients, tant sur la partie technique qu'humaine.” Et si la maturité a progressé selon lui, c’est d’abord dans les métiers habitués au décisionnel et comptant ainsi déjà des spécialistes de la donnée.
“Les équipes Data sont plateformées et ont progressé. Par contre, les équipes plus opérationnelles regardent peut-être un peu plus le train passer”, analyse le consultant. Le travail n’est donc pas achevé. Or, GenAI et agentic “remettent les fondations Data au cœur du débat.”
Accélérer et faciliter l’accès à la donnée
“On constate qu’on a été vite, trop vite et qu’on a pas fini de bâtir. Il faut reconsolider si on veut être capable de faire de l’IA”, considère Sébastien Delorme. Partenaire d’EY et intégrateur Denodo, NewCo Partners rappelle que l’état des lieux n’est pas exclusif à la finance.
“Toutes les entreprises font face à la même réalité, avec des systèmes hétérogènes, des problématiques de gouvernance croissantes. Les architectures conventionnelles ne répondent pas forcément à l’ensemble des objectifs”, constate Francis Goter, son directeur général.
L’expert plaide pour des leviers technologiques permettant d’accélérer et faciliter l’accès à la donnée, sans la déplacer et indépendamment de l’environnement (cloud, SaaS, on-premise) où est hébergée la Data.
Autre caractéristique majeure : la possibilité d’exposer les données “dans une couche sémantique sécurisée et gouvernée” afin de les mettre à disposition des métiers “de façon beaucoup plus rapide”. A la clé : des améliorations en termes de time-to-market et d’accélération des projets Data.
Mick Levy, directeur Stratégie & Innovation d’Orange Business, tient néanmoins à rappeler que “les fondations Data ne seront jamais sèches”. Il reconnaît cependant que pour franchir un cap de maturité, l’accès aux données est capital.
Comment devenir des industriels de l’innovation ?
L’ESN accompagne ainsi des clients dans le déploiement de Denodo pour répondre à deux usages principaux : la mise en place en tant que plateforme Data centrale ou en tant que “couche d’accès universelle aux données” - en particulier pour concrétiser une démarche Data Mesh.
“Cette couche devient essentielle tant les modalités d’usage des données sont variées”, explique Mick Levy. Parmi ces usages, bien sûr, l’IA et les agents, qui comme des utilisateurs humains “ont besoin d’accéder aux données.”
Reynald Lemaire, VP Innovation de Jems, choisit d’ailleurs de se focaliser sur l’utilisation des données, en particulier au service de l’innovation, ainsi que sur son passage à l’échelle. “La question à résoudre, c’est comment devenir des industriels de l’innovation”, pointe-il.
En la matière, il retient “la capacité des équipes à co-créer” en réunissant des compétences métiers, tech, UX et innovation via des méthodes de type lean startup. “L’humain, c’est le facteur clé. Il faut accompagner le changement”, prévient-il en parallèle.
Innover, cela passe notamment par l’intelligence artificielle. Des utilisations de Denodo pour des besoins en IA, Cyrille Robert, Chief Data Officer de Fastcube, en a mené dans différentes industries. Il identifie ainsi trois typologies de cas d’usage.
Coupler accessibilité des données et LLM pour autonomiser
Le “classique”, le traitement et la mise à disposition des données auprès des Data Scientists, des outils d’IA type Dataiku, ou des développeurs Python. Autre cas déployé dans des entreprises, dont France Travail : tirer profit de la capacité de la plateforme en matière d’enchaînement des traitements.
“Les utilisateurs avancés sont sortis du modèle traditionnel datawarehouse consistant à publier de la donnée afin d’enchainer des traitements complets” et ainsi d’exécuter plusieurs tâches et d’alimenter différents Data Products.
Troisième cas d’usage : faciliter l’accès aux données au travers d’un chatbot et donc de l’utilisation de LLM. Francis Goter le confirme, cette combinaison entre plateforme Data et modèles de langage pourrait simplifier le self-service Data dans les entreprises.
Un acteur comme Bouygues Telecom est d’ailleurs passé par du développement sur-mesure en IA générative pour fournir un outil self-service d'analyse à destination des métiers. David Ramond, directeur Data, IA & CRM du groupe Rocher, faisait part de ses ambitions dans ce domaine de l’analytics conversationnel lors de Big Data & AI Paris 2024.
Sébastien Delorme se dit “convaincu du potentiel” d’un tel couplage entre la plateforme de virtualisation des données et les LLM. Pour les métiers, la dimension technologique passe cependant au second plan.
“Il faut réinventer le storytelling et parvenir à montrer la valeur ajoutée pour le métier”, recommande-il. En clair, il s’agit de traduire les capacités techniques d’un outil en langage business et en cas d’usage concrets.
Le chantier énorme de la Data Quality du non structuré
Mais interroger les données ne doit pas non plus se cantonner aux données structurées. Or, la qualité des données reste, après toutes ces années, un sujet d’actualité. Les entreprises doivent à présent élargir le périmètre aux données non structurées, qui peuvent représenter jusqu’à 70% de leur patrimoine Data, évalue Mick Levy.
“Le chantier qui est devant nous est énorme. Je suis étonné qu’on parle de toute la valeur qu’offre l’IA générative sans prendre conscience du travail considérable qui se profile sur la gouvernance des données non structurées.”
La Data Quality de ce patrimoine pose des questions pour des usages GenAI. Elle en posera également pour les projets en matière d’agentique, la vague à venir ou annoncée comme telle. Mais qu’est-ce au juste qu’un agent une fois débarrassé de tout vernis marketing ?
“Un agent IA, c’est le couplage de la donnée avec différents modèles d’IA, du ML jusqu’à l’IA générative, et de l’intégration. Un agent est un programme informatique qui va prendre de la donnée, utiliser N modèles de manière cascadée, et à la fin qui va opérer des actions”, répond Cyrille Robert.
L’Agentic IA pour le prévu et aussi l’imprévu
“L’agent devient un acteur d’un workflow de l’entreprise”, précise-t-il encore. Même si la focalisation est mise sur les processus métiers, le CDO de Fastcube considère la plateforme comme un accélérateur des développements en agentique.
“Les plateformes agentiques aujourd’hui n’ont pas forcément les capacités d’intégration de Denodo pour accéder aux données et aux nombreux systèmes”, justifie-t-il. Le temps réel constitue un autre atout pour le fonctionnement des agents - au même titre que l’intégration (“passer des transactions dans les systèmes, mettre à jour des bases, appeler des API, etc.).
Pour Reynald Lemaire, la valeur des agents dans l’innovation nécessite d’aller au-delà du séquençage entre agents pour traiter des imprévus en combinant un orchestrateur et des agents spécialisés, mais aussi en incluant des humains dans un mode hybride.
JEMS expérimente ainsi des agents dans le service client en assurance pour traiter des demandes, mais aussi auprès d’un distributeur de pièces. L’agentic est perçue par Reynald Lemaire à la fois comme un moyen “de soutenir et augmenter des agents humains” et “d’imaginer des solutions dans une situation imprévue”.
Reste à préparer et convaincre les décideurs d’accepter plus de complexité technologique et des coûts supplémentaires. Mais pour Mick Levy, l’argument est simple au contraire : “la valeur”, le ROI, mais aussi la valeur “transformative”.
“On empile tout un tas de PoC. C’est à chaque fois une petite valeur. Il va falloir un moment donné se faire mal et travailler sur le gros sujet qui oblige aussi l’entreprise à se transformer, mais avec à la clé une valeur beaucoup plus forte”, conclut-il.
Les Actus de la GenAI
Chaque semaine, l’IA’Gora de l’IMA s’intéresse aux principales annonces et actualités de l’IA générative. Dans cette édition : Mistral & NVIDIA pour la souveraineté, un procès blockbuster, Google qui parle, OpenAI qui tarde, Meta qui anticipe… et Zuckerberg en mode chasseur de primes.
Mistral + Nvidia = Mistral Compute
Cocorico. Mistral AI frappe un grand coup à VivaTech en annonçant Mistral Compute, une infrastructure souveraine, hébergée en France, dopée par 10 000 GPU Nvidia. Objectif : permettre aux entreprises européennes de s’entraîner et déployer leurs modèles sur sol local. Une bonne nouvelle pour la souveraineté technologique, un terrain où la France peine souvent à exister.
L'animateur de l'IA'Gora Yann Carbonne précise : "Pour l’instant, c’est encore de la promesse. Mais avec une telle puissance de calcul disponible, tout le monde observe la suite avec attention." Enfin une alternative crédible aux hyperscalers américains ?
Midjourney sous les tirs croisés de Disney & Universal
Cela pourrait ressembler à une production made in Hollywood : Disney et Universal attaquent en justice Midjourney, accusé de générer des contenus trop proches d’œuvres protégées. Ce procès pourrait faire jurisprudence : les plaignants parlent de “machines à copyright”.
Dans l’affaire, le modèle Lama est scruté à la loupe. En testant des dialogues de Star Wars, les avocats démontrent que le modèle recrache presque mot pour mot les répliques originales... Preuve, selon eux, que l’IA ingère et restitue du contenu protégé sans filtre. Un procès à suivre, d'après Yann, qui conclut que cette affaire "pourrait redessiner les frontières entre entraînement massif et pillage culturel".
Google se met à parler
Dans certains pays (pas encore en France), Google active les réponses audio générées par Gemini. Concrètement : vous posez une question dans le moteur, et au lieu d’un simple lien ou d’un snippet, vous avez une réponse vocale, façon podcast.
Un pas de plus vers l’Internet sans clic ni lecture. On ne lit plus, on écoute. On ne cherche plus, on interroge. Le moteur de recherche devient assistant, et Google expérimente encore et encore pour ne pas se laisser distancer...
L’open source fantôme d’OpenAI
Sur un ton presque sarcastique, Yann Carbonne annonce :"OpenAI avait promis de libérer un modèle de raisonnement open source ultra-puissant, histoire de répondre à la montée en puissance des DeepSeek et consorts." L’annonce date de février. La sortie, elle, est sans cesse repoussée. Avril, puis mai, puis juin, et maintenant “cet été”.
OpenAI dit préparer quelque chose de “vraiment génial”. Mais dans la communauté, le doute s’installe... Et la comparaison avec la Chine, qui elle, publie régulièrement des modèles solides en open source, commence à faire mal. Beaucoup attendent un geste. En attendant, l'attente s’éternise.
Meta lance son “world model”
Meta dévoile VGPA2, un modèle orienté robotique, capable d’anticiper visuellement les prochaines étapes d’une action. Une précision s'impose et Yann Carbonne explique "les “world models sont des IA qui ne prédisent plus seulement du texte, mais aussi des comportements dans un environnement.
On n’en est pas encore à des humanoïdes autonomes, mais VGPA2 comprend, anticipe, exécute. Un pas vers une robotique où l’on spécifie moins, et où l’IA “remplit les blancs”. Meta mise gros sur cette piste — et tente aussi de faire oublier l’échec cuisant de son modèle LAM (Large Action Model). D'après Yann : "Là, c'est un peu autre chose, mais c'est un peu la même chose. C'est basé sur du visuel, des modèles qui arrivent à comprendre des actions à faire".
Zuckerberg recrute une Dream Team… avec des salaires 9 chiffres
Si vous cherchez un job bien payé, sachez que Mark Zuckerberg recrute personnellement une équipe de 50 personnes pour développer une Super Intelligence. Avec un argument choc : des salaires à 9 chiffres (oui, neuf, vous avez bien lu). Côté OpenAI certains chercheurs auraient même reçu des offres à 100 M$ + 100 M$ de bonus...
Objectif affiché par Meta : créer une AGI — l’IA générale — avec une équipe réduite mais ultra-affutée. Mais Yann rappelle que l’IA, c’est d’abord une question de data cleaning massif, de post-traitement rigoureux…
Pas sûr que 50 personnes suffisent. Yann est sceptique : " Est-ce que c'est encore une folie de Zuckerberg, après son, Métaverse ? L'avenir nous le dira..."