L'AI sta rivelando ciò che il BI tradizionale mascherava: metriche frammentate, semantiche intrappolate e una governance debole ora rallentano le decisioni ed erodono la fiducia.\n* Uno strato semantico unificato, basato su lineage e standard aperti, consente AI e analytics affidabili su larga scala.\n* Le organizzazioni che impostano correttamente le basi dei dati si muovono più velocemente, riducono i costi e democratizzano gli insight senza compromessi sulla governance.
Mentre l'IA cambia il modo in cui i dirigenti interagiscono con i dati, l'analisi si sta spostando dall'era dei dashboard a un modello operativo molto più dinamico. Le interfacce in linguaggio naturale, gli insight basati sull'IA e i workflow agentici promettono un accesso più ampio all'intelligenza, ma espongono anche un problema con cui molte organizzazioni convivono da anni: definizioni frammentate, metriche incoerenti e modelli di governance mai progettati per la scalabilità dell'IA.
Per approfondire cosa ciò significhi in pratica, ho parlato con Nick Eayrs, Vice President of Field Engineering per l'Asia-Pacifico e il Giappone presso Databricks. Con quasi 25 anni di leadership in diverse regioni, Eayrs ha una visione ampia di come gli insight sui dati possano essere un acceleratore all'interno delle organizzazioni e di cosa sia necessario per avere successo nella nuova era dell'analisi agentica. Questo background gli offre una visione completa di come le strategie di dati e IA si sviluppano tra mercati, modelli operativi e livelli di maturità aziendale.
Il filo conduttore della nostra conversazione è stata la sua convinzione che l'IA non stia eliminando la necessità di semantica e governance. Le sta rendendo molto più importanti. A suo avviso, le organizzazioni non otterranno risultati IA affidabili finché non sistemeranno il livello dati sottostante: le definizioni aziendali, la lineage, i controlli di accesso e gli standard aperti che consentono all'intelligenza di scalare senza crollare sotto il peso dei costi e della complessità.
Catherine Brown: Perché l'IA esercita pressione sulla semantica e sulla governance dell'analisi in un modo che il BI tradizionale non ha mai dovuto affrontare?
Nick Eayrs: Il BI tradizionale era davvero un mondo di dashboard statici e report predefiniti. Gli utenti aziendali dovevano navigare in interfacce piuttosto complesse e, se avevano una domanda di approfondimento o volevano esplorare qualcosa più a fondo, di solito avevano bisogno di supporto specialistico. C'era pochissimo vero self-service.
Anche il livello semantico sottostante al BI tradizionale era relativamente statico e lento a cambiare. Se l'azienda aveva bisogno di una nuova definizione per ricavi, churn o valore del ciclo di vita del cliente, ciò significava di solito tornare all'IT o a team specialistici per aggiornare il livello semantico e ricostruire i report. Era un modello molto predeterminato.
L'IA cambia tutto questo completamente. Non deve più essere statica e non deve più essere puramente descrittiva. Il BI tradizionale è spesso un'analisi "dello specchietto retrovisore". Ti dice cosa è successo. Con l'IA, puoi iniziare a prevedere cosa potrebbe accadere, chiedere perché è successo e capire cosa fare dopo. Puoi ragionare su molti più dati da solo e generare insight in tempo reale.
Ma la semantica non scompare in quel mondo. Anzi, conta di più. L'IA e gli agenti sono ancora informati dai dati sottostanti. Questo riporta al vecchio principio "garbage in, garbage out" (spazzatura in ingresso, spazzatura in uscita). Più dati affidabili e di alta qualità hai, con il giusto contesto aziendale intorno ai tuoi prodotti, servizi, tassonomia e terminologia, migliore sarà l'esperienza dell'IA.
Se qualcuno chiede: “Perché non abbiamo raggiunto i nostri obiettivi del terzo trimestre?”, il sistema deve capire cosa significa “obiettivi” in quell'organizzazione, a quale periodo si riferisce l'utente e come sono definite quelle metriche. Senza quel contesto semantico, il sistema sta solo tirando a indovinare. Potrebbe produrre risposte generiche, ma non affidabili.
C'è anche un altro punto importante. Secondo Databricks, il livello semantico dovrebbe essere aperto e interoperabile. I fornitori di BI tradizionali spesso bloccano il modello semantico nel proprio strumento, il che significa che tutto deve passare attraverso quell'interfaccia. Questo diventa un vincolo importante. Se si desidera che le esperienze di IA e agentiche scalino, un forte esempio personalizzato in APJ sarebbe Takeda. Con le giuste basi di dati e i guardrail in atto, sono stati in grado di sviluppare molteplici casi d'uso dell'IA in funzioni commerciali, R&S, produzione e back office.
Catherine: Puoi parlare più specificamente della pressione sulla governance che l'IA esercita sull'analisi?
Nick: Sia dal lato BI che dal lato IA, la governance si riduce a fiducia, lineage e tracciabilità.
Se stai producendo dashboard o insight di business intelligence, devi capire come sono stati costruiti. Quali dati sottostanti sono stati utilizzati? Come sono state definite le metriche? Se non lo sai, allora non puoi fidarti di ciò che stai guardando.
Lo stesso vale per il lato IA. Non ti fiderai dell'output di un modello, di un agente o di un'applicazione agentica se non riesci a capire come è stato derivato quell'output. Da quale tabella proveniva? Quali feature sono state utilizzate? Quale modello stava servendo l'inferenza? Quella lineage end-to-end è essenziale.
C'è anche una dimensione di conformità. Nelle industrie altamente regolamentate, le organizzazioni saranno sempre più tenute a dimostrare tale tracciabilità. Se una decisione basata sull'IA viene esposta esternamente a consumatori, cittadini o pazienti, devi essere in grado di sostenerla e di verificarne la creazione. L'IA sta esercitando maggiore pressione sull'analisi perché le aspettative in termini di fiducia e tracciabilità stanno aumentando.
Catherine: Quali sono i modelli di metriche contrastanti più comuni che vedi e quanto costano alle organizzazioni?
Nick: Il problema maggiore è la frammentazione. La maggior parte delle organizzazioni ha più strumenti BI nel proprio ambiente, e ognuno di questi strumenti può avere il proprio modello semantico e la propria interpretazione delle metriche aziendali. Ciò significa che si finisce senza un'unica fonte di verità e con molta logica duplicata che potrebbe non essere allineata.
Un dashboard potrebbe definire i ricavi in un modo. Un altro strumento potrebbe definirli in modo diverso. Qualcuno in finanza potrebbe lavorare su un'altra versione in Excel. A quel punto, la fiducia inizia a erodersi molto rapidamente. Il processo decisionale rallenta perché le persone non stanno più discutendo la decisione stessa. Stanno discutendo quale numero sia corretto.
Catherine: Perché la logica dei dashboard, quando è intrappolata negli strumenti, crolla sotto la scala dell'IA?
Nick: Gli strumenti BI tradizionali spesso estraggono dati dai sistemi sorgente, li aggregano per un risultato di reporting specifico, li spostano in uno storage proprietario e poi vi sovrappongono semantiche e dashboard proprietari. Tutto viene bloccato nello strumento.
Questo diventa un vero problema in un mondo di IA perché gli utenti hanno sempre domande di approfondimento. Vogliono andare più a fondo. Vogliono esporre quella logica ad altri sistemi. Vogliono che i data scientist o i team di machine learning ci costruiscano sopra. Se tutto è intrappolato in un unico livello proprietario, non funziona bene. Devi continuare a tornare alla fonte, estrarre più dati, trasformarli di nuovo e ricostruire la logica. Diventa ripetitivo e costoso.
Se, invece, tutto è costruito su formati di dati aperti e interfacce aperte, allora i team di BI, IA, notebook, agenti e data science possono tutti lavorare dalla stessa base governata. Archivi e processi i dati una volta. Tutti possono interagire con essi in linguaggio naturale. Tutti possono costruirci sopra. Questo è un modello molto migliore per la scalabilità.
C'è anche un onere ingegneristico significativo nel vecchio modo di fare le cose. Si finisce per mantenere molte pipeline di sincronizzazione e molto codice personalizzato solo per mantenere allineati i sistemi frammentati. Quella complessità diventa molto difficile da giustificare.
Catherine: Come si presenta in pratica un livello semantico leggibile dalla macchina?
Nick: Innanzitutto, le metriche aziendali devono essere trattate come un pilastro fondamentale. Ciò significa che le definizioni di elementi come ricavi, churn o valore del ciclo di vita del cliente devono essere esplicitamente definite, certificate e riutilizzabili in tutta l'organizzazione.
In secondo luogo, queste metriche devono essere accessibili tramite linguaggi standard, principalmente SQL, e devono essere utilizzabili non solo dagli strumenti BI, ma anche dalle interfacce IA, dai notebook e dagli agenti. Se non sono accessibili e riutilizzabili, non hai realmente risolto il problema.
In terzo luogo, hai bisogno di apertura e interoperabilità. Non vuoi spingere tutta la tua logica di business in un sistema da cui non puoi più recuperarla. Gli standard aperti sono importanti perché ti offrono opzionalità e una strategia di uscita sicura se mai dovessi cambiare sistemi o fornitori.
Hai anche bisogno di governance abilitata all'IA. In un mondo agentico, potresti avere migliaia di modelli o agenti che interagiscono costantemente con il livello semantico. Mantenere aggiornati metadati, commenti e metriche aziendali è una sfida enorme se tutto viene fatto manualmente. L'IA può aiutare a generare e mantenere tali metadati in modo che il livello semantico rimanga utilizzabile su larga scala.
E poi, naturalmente, hai bisogno di intelligenza conversazionale e contestuale in cima in modo che agenti e applicazioni possano interagire con quel livello tramite API e interfacce in linguaggio naturale.
Catherine: Dove si inserisce la valutazione in tutto questo? La certificazione dei dati avviene prima, e poi il livello IA e le valutazioni vengono dopo?
Nick: Sì. Le basi dei dati vengono prima. Hai bisogno dei metadati, della logica di business, dei commenti e delle metriche di business in atto prima che l'IA possa utilizzare bene quei dati.
Poi si costruisce il livello IA o agentico sopra di esso. Dopodiché, entrano in gioco i framework di valutazione per convalidare se gli output sono allineati alle aspettative e per affinare ciò che il sistema sta facendo. Ma il livello di valutazione non è un sostituto per impostare correttamente le fondamenta. Dipende da quelle fondamenta.
Catherine: In che modo i modelli BI per posto limitano attivamente l'adozione e la creazione di valore?
Nick: L'obiettivo della democratizzazione dei dati e dell'AI dovrebbe essere quello di mettere l'intelligenza nelle mani di ogni knowledge worker dell'organizzazione. Un modello per posto va direttamente contro questo obiettivo.
Limita la democratizzazione perché costringe le organizzazioni a scegliere quali utenti, team o unità aziendali ottengono l'accesso. Limita anche l'innovazione perché ora si decide quali progetti possono andare avanti in base alla disponibilità delle licenze piuttosto che al valore aziendale.
Ciò influisce anche sulla creazione di valore. I migliori risultati si ottengono spesso quando team diversi si uniscono attorno a un problema aziendale. Se solo un sottoinsieme di questi team può accedere al sistema, si limita la collaborazione e si limita la capacità dell'organizzazione di creare valore.
L'altro problema è l'efficienza. In un modello basato sul consumo, si paga per ciò che si usa. Se l'utilizzo aumenta, si paga per l'aumento dell'utilizzo. Se scende a zero, si paga zero. Questo è un modello molto più razionale rispetto al pagamento di licenze per posto che potrebbero essere sottoutilizzate o sovra-provisionate.
Catherine: Alcune organizzazioni potrebbero sostenere che i limiti delle licenze agiscono efficacemente come un livello di governance. Cosa diresti a riguardo?
Nick: Se stai cercando di governare l'accesso ai dati limitando le licenze, fallirai. Questo è il punto di controllo sbagliato.
Una buona governance inizia a livello di piattaforma e di dati. Inizia con controlli basati sui ruoli e sugli attributi, con autenticazione e autorizzazione legate ai sistemi di identità e con una chiara segregazione e classificazione degli asset di dati. Si risolvono i problemi relativi ai diritti e all'applicazione delle policy in anticipo.
Se lo fai correttamente, puoi estendere l'accesso in modo ampio, garantendo comunque che le persone vedano solo ciò che dovrebbero vedere. L'utilizzo delle licenze per posto come meccanismo di governance non è scalabile e non è un sostituto per il lavoro di governance sottostante.
Catherine: Qual è la mossa architetturale più rapida che le organizzazioni possono fare per migliorare la fiducia e ridurre i costi di analisi allo stesso tempo?
Nick: La mossa più importante è stabilire un livello semantico unificato basato su una solida base di governance.
Ciò inizia con la decisione sul catalogo. Come governerai i tuoi asset di dati e AI? Una volta che hai un catalogo in atto, puoi definire lì la tua semantica, certificare lì le metriche aziendali e creare un'unica fonte di verità. Nel modello Databricks, questa fonte di verità è aperta e interoperabile, il che è molto importante.
Una volta fatto ciò, accadono alcune cose. Ottieni fiducia perché hai lineage, governance, auditability e definizioni certificate. Ottieni semplificazione perché eviti duplicazioni inutili e ETL ripetuti. E riduci l'onere IT perché non stai più ricostruendo la logica ogni volta che qualcuno pone una nuova domanda.
Il modello di implementazione è abbastanza chiaro. Primo, imposta correttamente le basi dei dati. Secondo, costruisci il livello semantico e certifica le metriche aziendali. Terzo, aggiungi l'AI e poi usa framework di valutazione per monitorare e perfezionare questi output. Questa sequenza è importante. NTT Docomo ne è un ottimo esempio. Avendo utilizzato Databricks Lakehouse, Unity Catalog e i workflow per automatizzare l'analisi dei log, hanno ridotto il tempo di elaborazione manuale da 66 ore al mese a 6 ore e migliorato l'efficienza dell'analisi del 90 percento. Questo è un forte esempio di governance e fondazione che consentono un processo decisionale molto più rapido.
Catherine: Cosa stanno facendo di diverso o più velocemente le aziende dell'APJ quando si tratta di monetizzare il livello dati per l'AI?
Nick: L'APJ è un mercato affascinante perché è incredibilmente diversificato. Si ha a che fare con paesi, lingue, livelli di maturità e ambienti normativi molto diversi. Ma uno dei modelli comuni è che le organizzazioni tendono a muoversi molto rapidamente sulla trasformazione digitale, e molti governi della regione hanno chiare strategie nazionali di AI in atto.
Ciò che vediamo dai clienti è che spesso iniziano con il livello di governance e fondazione dei dati, per poi passare rapidamente ad applicazioni AI-native una volta che quella base è a posto. Questa sequenza è importante.
Vediamo questo modello anche in settori come i servizi finanziari, dove i clienti stanno consolidando l'analisi su un livello dati governato e poi democratizzando l'accesso.
Un altro esempio è Net One Systems in Giappone. Una volta che avevano la base a posto, hanno costruito uno strumento di conoscenza basato sull'AI integrato con altri sistemi e hanno ottenuto una riduzione del 75 percento nel tempo di risposta per supportare le query, risparmiando 10.000 ore di lavoro all'anno.
Una delle cose particolarmente uniche nell'APJ è la dimensione multilingue. I clienti stanno costruendo capacità in giapponese, mandarino, cantonese, tailandese e altre lingue locali. Questo è potente, ma funziona solo se il livello dati sottostante è governato e strutturato abbastanza bene da supportarlo.
I clienti APJ tendono a impostare rapidamente le basi correttamente, per poi passare rapidamente allo sviluppo di applicazioni AI-first su di esse. In molti casi, si stanno muovendo più velocemente rispetto ad altre regioni.
Il punto di Nick è sia tecnico che strategico. Le organizzazioni che creano valore dall'AI non trattano analisi, semantica e governance come conversazioni separate. Le trattano come un'unica fondazione. Per i dirigenti, questo è importante perché il vantaggio non è solo una migliore architettura. È un processo decisionale più rapido, un accesso più ampio agli insight e un costo di analisi inferiore su larga scala. L'AI non risolverà un livello dati frammentato. Lo esporrà. Le aziende che passeranno più velocemente dalla sperimentazione all'intelligenza affidabile saranno quelle che definiranno chiaramente le loro metriche, le governeranno centralmente e le renderanno abbastanza aperte affinché l'analisi e l'AI possano costruire sulla stessa verità.
Per saperne di più sulla costruzione di un modello operativo efficace, scarica il Databricks AI Maturity Model.
(Questo post sul blog è stato tradotto utilizzando strumenti basati sull'intelligenza artificiale) Post originale
