Sous le thème « Faire des progrès », CBA Live 2026 a réuni plusieurs centaines de dirigeants de la banque de détail axés sur la simplification de la complexité et l'avancement de l'innovation.
Mais dans chaque session – risque, conformité, recouvrement et croissance des dépôts – le même thème sous-jacent revenait sans cesse :
L'innovation en IA ne peut pas passer à l'échelle sans une base solide de données et de gouvernance.
Sous les démos et les feuilles de route, un schéma commun a émergé. Les banques qui font de réels progrès ne sont pas celles qui ont l'IA la plus flashy.
Ce sont celles qui ont les bases de données les plus propres, les mieux gouvernées et les plus en temps réel.
Le discours d'ouverture de la présidente de la CBA, Lindsay Johnson, a décrit une expérience consommateur quasi future qui semblait simple et inévitable.
Un consommateur se réveille le jour de paie. Au moment où elle prend son téléphone, tout est déjà fait : factures payées, économies allouées, abonnements renouvelés, même un virement envoyé à l'étranger.
Pas d'applications. Pas de connexions. Pas de décisions à prendre.
Un agent IA s'est occupé de tout.
C'est l'avenir vers lequel les banques construisent.
Mais voici la question inconfortable qui n'a pas été posée sur scène :
Qu'est-ce qui devrait être en place au sein d'une banque pour que cette expérience fonctionne réellement ?
Car ce n'est pas juste une meilleure expérience numérique. C'est un modèle opérationnel fondamentalement différent. Un modèle où des agents externes interagissent avec vos systèmes en temps réel, sur tous les produits, avec un contexte complet, et une tolérance zéro pour l'incohérence ou le retard.
Et pour la plupart des institutions, c'est là que l'écart apparaît.
Pas dans l'ambition ou les modèles qu'ils construisent, mais dans la base de données nécessaire pour la concrétiser.
Dans les différentes sessions, les défis spécifiques liés aux données variaient selon la fonction, mais le thème sous-jacent était cohérent.
Des intervenants de plusieurs institutions ont parlé de la façon dont la dérive des modèles – la dégradation silencieuse d'un modèle d'IA à mesure que la population réelle sur laquelle il a été entraîné évolue – est l'un des risques les plus sous-estimés dans l'IA bancaire. Un modèle de notation de crédit entraîné sur une moyenne de 750 FICO peut échouer silencieusement lorsque le mélange de candidats passe à 650. Vous avez besoin de déclencheurs automatisés pour surveiller cela en continu. La plupart des banques ne les ont pas.
La discipline de qualité des données requise pour la gouvernance de l'IA est également plus exigeante que ce que de nombreuses équipes de conformité avaient anticipé. L'audit interne doit désormais tester indépendamment la lignée des données et ne pas se contenter d'accepter les attestations des unités commerciales. Le régulateur n'acceptera pas « le partenaire fintech détient le modèle » comme réponse.
Plusieurs sessions ont fait la même observation : les banques disposent de données plus riches sur leurs clients que presque toutes les autres institutions – plus qu'un médecin, plus qu'un conseiller financier. Elles connaissent les adhésions à la salle de sport, les paiements médicaux récurrents, la volatilité des dépenses et les habitudes de dépôt de l'employeur. Mais la plupart de ces informations sont fragmentées dans des systèmes qui ne communiquent pas entre eux en temps réel.
La friction que cela crée est réelle. Un intervenant a décrit l'objectif de connaître un client suffisamment bien pour détecter qu'il n'avait pas encore déposé sa déclaration de revenus – et de lui présenter proactivement cette information au moment précis. Ce type de personnalisation nécessite des données propres, unifiées et accessibles en temps réel. Ce n'est pas une fonctionnalité produit que l'on peut ajouter.
Une session sur l'IA dans les recouvrements a décrit ce qui est possible lorsque la base de données est correcte. Prédire, avec 85 % de précision, combien de jours un compte nouvellement défaillant mettra à se rétablir – à partir du jour 1 de la défaillance. Ce type de signal précoce change complètement la façon dont vous allouez les ressources de recouvrement.
Pour y parvenir, il faut non seulement des données de compte internes, mais aussi la capacité de relier les signaux d'engagement num érique (le client a-t-il visité le site Web sans payer ?), les données de migration du bureau de crédit, le comportement de dépôt et les modèles de résolution historiques – le tout d'une manière gouvernée et auditable. Les institutions qui réussissent bien dans ce domaine ont d'abord construit l'infrastructure de données. La capacité d'IA a suivi.
La session de Bank of America sur Erica a été une masterclass sur ce à quoi ressemble réellement l'IA en production à grande échelle. Erica a géré plus de 3,2 milliards d'interactions client depuis son lancement en 2018 et a subi des milliers de modifications en cours de route. La leçon de huit ans d'IA en production était claire : ce n'est pas une technologie que l'on configure et oublie. Elle nécessite un réglage continu des données, une surveillance continue et une équipe dont le seul travail est de lire les cas limites et de mettre à jour le modèle.
Une autre session a renforcé ce point sous un angle différent : les agents du centre de contact de la plupart des banques basculent entre 10 à 15 applications pour répondre à une seule question client. Les agents IA qui résoudront ce problème sont ceux qui sont ancrés dans les données propres de la banque. Pas sur des LLM génériques, mais des outils entraînés sur les politiques, les produits et les relations clients de la banque.
L'une des sessions les plus mémorables a été une évaluation franche du paysage des fournisseurs d'IA. Un intervenant qui avait dirigé la stratégie IA dans une grande institution a partagé une conclusion d'un audit à grande échelle de fournisseurs : parmi plusieurs milliers de fournisseurs prétendant actuellement avoir des capacités d'IA, seulement environ 5 % ont une véritable IA dans leur produit. Le reste re-étiquette l'automatisation robotisée des processus ou la logique d'automatisation standard comme de l'IA.
Le conseil pratique pour les acheteurs de technologie bancaire est d'être précis. Demandez comment le fournisseur a développé sa capacité d'IA. Demandez quelle orchestration LLM ils utilisent. Demandez s'ils ont une couverture complète des API et MCP. Demandez à quoi ressemblera leur activité dans trois ans, à mesure que l'automatisation des flux de travail deviendra banale. S'ils ne peuvent pas répondre spécifiquement à ces questions, vous avez votre réponse.
Les thèmes abordés lors de CBA Live n'étaient pas nouveaux. Ils reflètent étroitement les mêmes défis que nous rencontrons dans les conversations continues avec les clients bancaires – environnements de données fragmentés, gouvernance limitée et initiatives d'IA qui peinent à passer des phases pilotes à la production.
Cela valide un schéma qui continue d'émerger dans les institutions avec lesquelles nous interagissons quotidiennement – le facteur limitant n'est pas la capacité de l'IA, mais la base de données et de gouvernance sous-jacente nécessaire pour la supporter.
Connectons les thèmes que nous avons entendus à la manière dont Databricks les aborde :
Les banques ont du mal à faire évoluer l'IA car les données clients, de risque et de produits sont fragmentées et incohérentes. Le Lakehouse de Databricks centralise les données batch et de streaming, tandis qu'Unity Catalog ajoute une couche de gouvernance (permissions, lignée et classification) afin que chaque équipe travaille à partir de la même vue de confiance.
Avec Lakeflow, les banques peuvent ingérer et transformer de manière fiable les données en couches organisées, plutôt que de s'appuyer sur des pipelines ponctuels fragiles. Lakebase étend ensuite cette base aux charges de travail transactionnelles, en intégrant un moteur Postgres entièrement géré dans la même plateforme gouvernée, afin que les applications opérationnelles et les agents IA puissent partager des données avec l'analytique sans créer un état OLTP séparé et opaque.
Sous des directives comme SR 11-7, les régulateurs attendent désormais une gestion complète du cycle de vie du risque des modèles. Pas seulement la validation initiale, mais la surveillance continue, la détection de dérive et la re-validation périodique pour les modèles importants.
Sur Databricks, MLflow et le Model Registry suivent les expériences et les versions approuvées, tandis que Model Monitoring et Delta Lake capturent les prédictions, les entrées et les résultats au fil du temps. Cela fait de la validation de type SR 11-7 et des vérifications de performance continues une partie standard de la plateforme, plutôt qu'un patchwork de scripts et de feuilles de calcul. Pour les modèles à fort impact, tels que ceux qui pilotent les prédictions de délinquance ou la segmentation de la fraude, ces capacités deviennent rapidement des exigences de base plutôt que des fonctionnalités « avancées ».
Pour engager les clients « dans l'instant », les banques ont besoin de fonctionnalités fraîches et à faible latence, pas seulement d'agrégats nocturnes. Le Databricks Online Feature Store sert des caractéristiques pré-calculées (propension, indicateurs de risque, segments) en quelques millisecondes, tandis que Lakebase fournit le contexte opérationnel le plus récent, tel que les transactions récentes, dans la même limite de gouvernance.
Un flux typique ressemblerait à un événement (glissement de carte, connexion à l'application, appel) qui déclenche un service de décision qui lit les caractéristiques de l'Online Feature Store, joint le contexte de Lakebase, et renvoie une meilleure action suivante, de manière cohérente, sur tous les canaux. Pour le personnel de première ligne, Genie expose les mêmes données et métriques gouvernées via le langage naturel, afin que les banquiers et les agents puissent poser des questions telles que « Quelle est la tendance des dépôts sur 90 jours de ce client ? » sans tickets ni extractions ad hoc, tandis qu'Unity Catalog applique les politiques et la lignée en dessous.
L'IA agentique dans le secteur bancaire signifie des agents capables de réaliser des actions contraintes, telles que faire avancer un flux de recouvrement, lancer des étapes KYC, ou orchestrer des appels de service sous des garde-fous et une surveillance stricts.
Sur Databricks, Agent Bricks orchestre ces agents et appels d'outils. Databricks Apps héberge les interfaces utilisateur et les flux de travail sécurisés dans lesquels ils s'intègrent. Lakehouse + Unity Catalog contrôle quelles données les agents peuvent voir, avec une lignée complète et des pistes d'audit. L'Online Feature Store leur donne des signaux comportementaux et de risque en temps réel, et Lakebase sert de leur magasin d'état opérationnel pour les lectures/écritures à faible latence, le tout dans le même périmètre de sécurité et de gouvernance.
Cela permet aux banques de mettre à l'échelle les flux de travail agentiques sur une plateforme qui enregistre chaque action et reste explicable et auditable.
Les régulateurs se soucient moins de la « sophistication » d'un modèle que de la capacité de la banque à en expliquer, gouverner et prouver son utilisation.
Databricks résout ce problème en faisant de la gouvernance et de la lignée des éléments de première classe.
Unity Catalog unifie les autorisations, la lign ée et l'historique d'audit sur les artefacts de données, de caractéristiques et de modèles. Delta Lake et Databricks SQL fournissent des pipelines versionnés et reproductibles, et MLflow Model Registry + Model Monitoring capturent les versions de modèles, les approbations, ainsi que les performances/dérives au fil du temps.
Cela donne aux banques un enregistrement complet et reconstructible de la manière dont les données circulent, comment les modèles ont été construits et validés, et comment ils ont influencé les décisions, transformant l'explicabilité et la conformité en un catalyseur pour un déploiement d'IA plus rapide, plus sûr et plus responsable.
Les banques n'ont pas de problème d'IA ; elles ont un problème de plateforme de données.
Le schéma est clair : les solutions ponctuelles montrent des promesses précoces, mais sans une base de données solide et gouvernée, elles stagnent. Les institutions qui obtiennent de réels résultats sont celles qui ont d'abord investi dans la plateforme, rendant chaque cas d'utilisation d'IA plus rapide à déployer, plus facile à faire confiance, et défendable auprès des régulateurs. La plateforme n'est pas une décision ultérieure ; c'est le point de départ.
Si les réponses ne sont pas claires, le prochain investissement n'est pas un autre cas d'utilisation – c'est la fondation.
Avis de non-responsabilité : Nous avons assisté à CBA Live 2026 à San Diego. Les observations dans ce post sont les nôtres, tirées des sessions auxquelles nous avons assisté et des conversations tenues tout au long de la conférence.
(Cet article de blog a été traduit à l'aide d'outils basés sur l'intelligence artificielle) Article original
