Passa al contenuto principale

Le banche non hanno un problema di AI, hanno un problema di piattaforma dati

Perché l'AI nel settore bancario si blocca e come le piattaforme dati abilitano l'AI scalabile e governata in produzione

Blog post CBA Live recap

Pubblicato: 17 aprile 2026

Servizi finanziari9 min di lettura

Summary

  • Le banche dispongono di dati sui clienti più ricchi rispetto a quasi tutte le altre istituzioni, ma sistemi frammentati e una governance debole impediscono all'AI di passare dalle fasi pilota alla produzione.
  • CBA Live 2026 ha evidenziato un modello coerente tra rischio, recupero crediti e relationship banking: il fattore limitante non è la capacità dell'AI, ma la base di dati e governance necessaria per supportarla.
  • Il Databricks Lakehouse, Unity Catalog e Agent Bricks affrontano direttamente le sfide relative alla qualità dei dati, al monitoraggio dei modelli, alla personalizzazione in tempo reale e all'AI agentica con cui le banche stanno lottando oggi.

Con il tema “Make Headway”, CBA Live 2026 ha riunito diverse centinaia di leader del retail banking focalizzati sul superare la complessità e promuovere l'innovazione.

Ma in ogni sessione – rischio, conformità, recupero crediti e crescita dei depositi – lo stesso tema sottostante continuava a emergere:

L'innovazione dell'IA non scala senza una solida base di dati e governance.

Sotto le demo e le roadmap, è emerso un modello comune. Le banche che stanno facendo veri progressi non sono quelle con l'IA più appariscente.

Sono quelle con le basi di dati più pulite, meglio governate e più in tempo reale.

Lo Scenario Che Ha Dato il Tono:

Il keynote del Presidente CBA Lindsay Johnson ha descritto un'esperienza consumer del futuro prossimo che suonava semplice e inevitabile.

Un consumatore si sveglia il giorno di paga. Quando prende in mano il telefono, tutto è già stato fatto: bollette pagate, risparmi accantonati, abbonamenti rinnovati, persino un bonifico inviato all'estero.

Nessuna app. Nessun login. Nessuna decisione da prendere.

Un agente AI ha gestito tutto.

Questo è il futuro verso cui le banche stanno costruendo.

Ma ecco la domanda scomoda che non è stata posta sul palco:

Cosa dovrebbe essere predisposto all'interno di una banca affinché quell'esperienza funzioni davvero?

Perché questa non è solo una migliore esperienza digitale. È un modello operativo fondamentalmente diverso. Uno in cui agenti esterni interagiscono con i tuoi sistemi in tempo reale, attraverso i prodotti, con contesto completo e tolleranza zero per incoerenza o ritardi.

E per la maggior parte delle istituzioni, è qui che si manifesta il divario.

Non nell'ambizione o nei modelli che stanno costruendo, ma nella base di dati necessaria per renderla reale.

Cosa Abbiamo Sentito nelle Sessioni:

Attraverso le varie sessioni, le sfide specifiche dei dati variavano per funzione, ma il tema sottostante era coerente.

Rischio e Conformità AI: Il Divario di Governance è Reale

I relatori di diverse istituzioni hanno parlato di come il model drift – il degrado silenzioso di un modello AI man mano che la popolazione del mondo reale su cui è stato addestrato si sposta – sia uno dei rischi più sottovalutati nell'IA bancaria. Un modello di scoring del credito addestrato su un pool di richiedenti con un FICO medio di 750 può fallire silenziosamente quando il mix di richiedenti si sposta a 650. Sono necessari trigger automatici che monitorino continuamente questo aspetto. La maggior parte delle banche non li ha.

La disciplina della qualità dei dati richiesta per la governance dell'IA è anche più esigente di quanto molti team di conformità avessero previsto. L'audit interno deve ora testare in modo indipendente la lineage dei dati e non accettare semplicemente le attestazioni delle unità di business. L'ente regolatore non accetterà "il partner fintech possiede il modello" come risposta.

Relationship Banking: I Dati Più Ricchi di Qualsiasi Settore, Inutilizzati

Diverse sessioni hanno fatto la stessa osservazione: le banche hanno dati più ricchi sui propri clienti rispetto a quasi qualsiasi altra istituzione – più di un medico, più di un consulente finanziario. Sanno di abbonamenti in palestra, pagamenti medici ricorrenti, volatilità della spesa e modelli di deposito presso il datore di lavoro. Ma la maggior parte di queste informazioni è frammentata tra sistemi che non comunicano tra loro in tempo reale.

L'attrito che questo crea è reale. Un relatore ha descritto l'obiettivo di conoscere un cliente abbastanza bene da rilevare che non aveva ancora presentato la dichiarazione dei redditi – e presentare proattivamente tale informazione nel momento esatto. Questo tipo di personalizzazione richiede dati puliti, unificati e accessibili in tempo reale. Non è una funzionalità di prodotto che si può aggiungere a posteriori.

Gestione dei Default: Le Fondamenta Sono Chiave

Una sessione sull'IA nel recupero crediti ha descritto cosa è possibile quando le fondamenta dei dati sono corrette. Prevedere, con l'85% di accuratezza, quanti giorni impiegherà un conto in ritardo per essere risanato – a partire dal Giorno 1 di ritardo. Questo tipo di segnale precoce cambia completamente il modo in cui si allocano le risorse per il recupero crediti.

Per arrivarci, non sono necessari solo i dati interni del conto, ma la capacità di combinare segnali di engagement digitale (il cliente ha visitato il sito web senza pagare?), dati di migrazione del bureau di credito, comportamento dei depositi e modelli di risoluzione storici – il tutto in modo governato e verificabile. Le istituzioni che lo fanno bene hanno costruito prima l'infrastruttura dati. La capacità AI è seguita.

AI Front-Line: L'IA Costruita su Modelli Generici Decade

La sessione di Bank of America su Erica è stata una masterclass su cosa sia realmente l'IA in produzione su larga scala. Erica ha gestito oltre 3,2 miliardi di interazioni con i clienti dal lancio nel 2018 e ha apportato migliaia di modifiche lungo il percorso. La lezione di otto anni di IA in produzione è stata chiara: questa non è una tecnologia da impostare e dimenticare. Richiede un continuo affinamento dei dati, un monitoraggio continuo e un team il cui unico compito è leggere i casi limite e aggiornare il modello.

Un'altra sessione ha rafforzato questo concetto da un'altra angolazione: gli agenti del contact center della maggior parte delle banche passano da 10 a 15 applicazioni per rispondere a una singola domanda del cliente. Gli agenti AI che risolveranno questo problema sono quelli basati sui dati della banca. Non su LLM generici, ma su strumenti addestrati sulle politiche, i prodotti e le relazioni con i clienti della banca.

Report

Il playbook sull'AI agentiva per l'enterprise

Il Reality Check dei Fornitori:

Una delle sessioni più memorabili è stata una valutazione schietta del panorama dei fornitori di IA. Un relatore che aveva guidato la strategia AI in una grande istituzione ha condiviso un dato di un audit su larga scala dei fornitori: di diverse migliaia di fornitori che attualmente dichiarano capacità AI, solo circa il 5% ha una vera IA nel prodotto. Il resto sta etichettando nuovamente l'automazione robotica dei processi o la logica di automazione standard come IA.

La guida pratica per gli acquirenti di tecnologia bancaria è di essere specifici. Chiedere come il fornitore ha costruito la propria capacità AI. Chiedere quale orchestrazione LLM stanno utilizzando. Chiedere se hanno una copertura API e MCP completa. Chiedere quale sarà il loro business tra tre anni, poiché l'automazione del flusso di lavoro diventerà una commodity. Se non possono rispondere a queste domande in modo specifico, avete la vostra risposta.

Perché è Importante e Dove Lo Vediamo Funzionare:

I temi emersi da CBA Live non erano nuovi. Riflettono da vicino le stesse sfide che vediamo nelle conversazioni in corso con i clienti bancari: ambienti dati frammentati, governance limitata e iniziative AI che faticano a passare dalle fasi pilota alla produzione.

Questo convalida un modello che continua a emergere tra le istituzioni con cui interagiamo quotidianamente: il fattore limitante non è la capacità dell'IA, ma la base di dati e governance sottostante necessaria per supportarla.

Colleghiamo i temi che abbiamo sentito a come Databricks li affronta:

Il Problema della Base Dati

Le banche faticano a scalare l'IA perché i dati dei clienti, dei rischi e dei prodotti sono frammentati e incoerenti. Il Lakehouse di Databricks centralizza i dati batch e in streaming, mentre Unity Catalog aggiunge un livello di governance (permessi, lineage e classificazione) in modo che ogni team lavori dalla stessa visione fidata.

Con Lakeflow, le banche possono ingerire e trasformare in modo affidabile i dati in livelli curati, anziché fare affidamento su pipeline fragili e punto-punto. Lakebase estende quindi questa base ai carichi di lavoro transazionali, portando un motore Postgres completamente gestito nella stessa piattaforma governata, in modo che le app operative e gli agenti AI possano condividere i dati con l'analisi senza creare un'istanza OLTP separata e opaca.

Il Problema del Model Drift e del Monitoraggio

Sotto la guida di normative come la SR 11-7, gli enti regolatori ora si aspettano una gestione completa del rischio del modello nel ciclo di vita. Non solo la validazione iniziale, ma il monitoraggio continuo, il rilevamento del drift e la rivalidazione periodica per i modelli materiali.

Su Databricks, MLflow e il Model Registry tracciano esperimenti e versioni approvate, mentre Model Monitoring e Delta Lake catturano predizioni, input e risultati nel tempo. Ciò rende la validazione in stile SR 11-7 e i controlli continui delle prestazioni una parte standard della piattaforma, anziché un insieme di script e fogli di calcolo. Per i modelli ad alto impatto, come quelli che guidano le predizioni di insolvenza o la segmentazione delle frodi, queste capacità stanno diventando rapidamente requisiti fondamentali piuttosto che funzionalità "avanzate".

Il Problema della Personalizzazione in Tempo Reale

Per coinvolgere i clienti “nel momento”, le banche necessitano di funzionalità fresche e a bassa latenza, non solo di aggregati notturni. L'Online Feature Store di Databricks serve feature pre-calcolate (propensione, flag di rischio, segmenti) in millisecondi, mentre Lakebase fornisce il contesto operativo più recente, come le transazioni recenti, all'interno dello stesso confine di governance.

Un flusso tipico assomiglierebbe a un evento (swipe della carta, accesso all'app, chiamata) che attiva un servizio decisionale che legge le feature dall'Online Feature Store, unisce il contesto di Lakebase e restituisce un'azione successiva migliore, in modo coerente, attraverso i canali. Per il personale di prima linea, Genie espone gli stessi dati governati e metriche tramite linguaggio naturale, in modo che banchieri e agenti possano porre domande come “Qual è l'andamento dei depositi a 90 giorni di questo cliente?” senza ticket o estrazioni ad hoc, mentre Unity Catalog applica policy e lineage sottostanti.

Il problema dell'AI Agentica

L'AI agentica nel settore bancario significa agenti che possono intraprendere azioni vincolate, come avanzare un flusso di lavoro di riscossione, avviare passaggi KYC o orchestrare chiamate di servizio sotto rigide guardrail e supervisione.

Su Databricks, Agent Bricks orchestra questi agenti e chiamate di strumenti. Databricks Apps ospita le interfacce utente sicure e i flussi di lavoro a cui si collegano. Lakehouse + Unity Catalog controlla quali dati gli agenti possono vedere, con lineage completo e tracce di controllo. L'Online Feature Store fornisce segnali comportamentali e di rischio in tempo reale, e Lakebase funge da loro store di stato operativo per letture/scritture a bassa latenza, il tutto all'interno dello stesso perimetro di sicurezza e governance.

Ciò consente alle banche di scalare i flussi di lavoro agentici su una piattaforma che registra ogni azione e rimane spiegabile e verificabile.

Il problema della Spiegabilità e Conformità

I regolatori sono meno interessati a quanto un modello sia “avanzato” e più interessati alla capacità della banca di spiegarne, governarne e dimostrarne l'uso.

Databricks affronta questo problema rendendo la governance e il lineage di prima classe.

Unity Catalog unifica permessi, lineage e cronologia di controllo su dati, feature e artefatti del modello. Delta Lake e Databricks SQL forniscono pipeline versionate e riproducibili e MLflow Model Registry + Model Monitoring catturano versioni del modello, approvazioni e prestazioni/drift nel tempo.

Ciò fornisce alle banche un record completo e ricostruibile di come fluiscono i dati, di come i modelli sono stati costruiti e validati e di come hanno influenzato le decisioni, trasformando la spiegabilità e la conformità in un abilitatore per un'implementazione dell'AI più rapida, sicura e responsabile.

Conclusione:

Le banche non hanno un problema di AI; hanno un problema di piattaforma dati.

Il modello è chiaro: le soluzioni puntuali mostrano promesse iniziali, ma senza una solida base dati governata, si bloccano. Le istituzioni che ottengono risultati reali sono quelle che hanno investito prima nella piattaforma, rendendo ogni caso d'uso AI più veloce da implementare, più facile da fidarsi e difendibile nei confronti dei regolatori. La piattaforma non è una decisione successiva; è il punto di partenza

Domande degne di essere riportate al tuo team:

  • Abbiamo un'unica fonte di verità governata, o i team lavorano su versioni diverse dei dati?
  • Quanto velocemente rileviamo quando un modello in produzione va storto?
  • Possiamo spiegare qualsiasi decisione guidata dall'AI a un regolatore oggi, end-to-end?

Se le risposte non sono chiare, il prossimo investimento non è un altro caso d'uso, ma la fondazione.

  • Scopri come Databricks aiuta le banche a unificare dati, governance e AI su larga scala
  • Esplora casi d'uso bancari reali e architetture
  • Connettiti con il nostro team per discutere la tua strategia di piattaforma dati

Disclaimer: Abbiamo partecipato a CBA Live 2026 a San Diego. Le osservazioni in questo post sono nostre, tratte dalle sessioni a cui abbiamo partecipato e dalle conversazioni tenute durante la conferenza.

(Questo post sul blog è stato tradotto utilizzando strumenti basati sull'intelligenza artificiale) Post originale

Never miss a Databricks post

Subscribe to our blog and get the latest posts delivered to your inbox