Mentre le aziende passano dalla sperimentazione dell'IA alla sua applicazione su larga scala, la governance è diventata una questione di competenza del consiglio di amministrazione. La sfida per i dirigenti non è più se la governance sia importante, ma come progettarla in modo che garantisca al contempo velocità, innovazione e fiducia.
Per approfondire come questo equilibrio si manifesta nella pratica, ho incontrato David Meyer, Senior Vice President of prodotto di Databricks. Lavorando a stretto contatto con clienti di vari settori industriali e aree geografiche, David ha una visione chiara di dove le organizzazioni stanno facendo progressi reali, dove incontrano difficoltà e di come le decisioni odierne in materia di governance determinino ciò che sarà possibile domani.
Ciò che è emerso dalla nostra conversazione è stato il suo pragmatismo. Invece di trattare la governance dell'AI come qualcosa di nuovo o astratto, David è tornato costantemente ai principi fondamentali: disciplina ingegneristica, visibilità e responsabilità.
Catherine Brown: Lei trascorre molto tempo con i clienti di vari settori industriali. Cosa sta cambiando nel modo in cui i leader concepiscono la governance nella loro pianificazione per i prossimi uno o due anni?
David Meyer: Uno dei modelli più chiari che osservo è che le sfide della governance sono sia organizzative che tecniche, e le due cose sono strettamente collegate. Dal punto di vista organizzativo, i leader stanno cercando di capire come consentire ai team di muoversi rapidamente senza creare caos.
Le organizzazioni che incontrano difficoltà tendono a essere eccessivamente avverse al rischio. Centralizzano ogni decisione, aggiungono pesanti processi di approvazione e involontariamente rallentano tutto. Ironicamente, questo spesso porta a risultati peggiori, non più sicuri.
L'aspetto interessante è che una forte governance tecnica può effettivamente sbloccare la flessibilità organizzativa. Quando i leader hanno una visibilità reale su quali dati, modelli e agenti vengono utilizzati, non hanno bisogno di controllare manualmente ogni decisione. Possono dare ai team più libertà perché capiscono cosa sta succedendo nell'intero sistema. In pratica, ciò significa che i team non devono chiedere l'autorizzazione per ogni modello o caso d'uso: accesso, auditing e aggiornamenti sono gestiti a livello centrale e la governance avviene fin dalla progettazione anziché per eccezione.
Catherine Brown: Molte organizzazioni sembrano bloccate tra il procedere troppo in fretta e il bloccare tutto. In che modo, secondo te, le aziende stanno agendo nel modo giusto?
David Meyer: Di solito vedo due estremi.
Da un lato, ci sono aziende che decidono di essere "AI first" e incoraggiano tutti a sviluppare liberamente. Questo funziona per un po'. Le persone si muovono velocemente, c'è molto entusiasmo. Poi, in un batter d'occhio, ti ritrovi con migliaia di agenti, nessun inventario reale, nessuna idea dei costi e nessun quadro chiaro di ciò che è effettivamente in esecuzione in produzione.
All'altro estremo, ci sono organizzazioni che cercano di controllare tutto in anticipo. Istituiscono un unico punto di blocco per le approvazioni e il risultato è che non viene quasi mai implementato nulla di significativo. Questi team di solito sentono una pressione costante di rimanere indietro.
Le aziende che stanno ottenendo buoni risultati tendono a posizionarsi a metà strada. All'interno di ogni funzione aziendale, identificano persone con competenze in materia di AI che possono guidare la sperimentazione a livello locale. Queste persone si confrontano all'interno dell'organizzazione, condividono ciò che funziona e restringono il set di strumenti consigliati. Passare da decine di strumenti a solo due o tre fa una differenza molto più grande di quanto la gente si aspetti.
Catherine: Una cosa che ha detto prima mi ha colpito molto. Ha suggerito che gli agenti non sono così fondamentalmente diversi come molte persone presumono.
David: Esatto. Gli agenti sembrano una novità, ma molte delle loro caratteristiche sono in realtà molto familiari.
Hanno un costo continuo. Espandono la superficie di attacco. Si connettono ad altri sistemi. Sono tutte cose con cui abbiamo già avuto a che fare in passato.
Sappiamo già come governare gli asset di dati e le API, e gli stessi principi si applicano anche qui. Se non si sa dove si trova un agente, non è possibile disattivarlo. Se un agente entra in contatto con dati sensibili, qualcuno deve esserne responsabile. Molte organizzazioni presumono che i sistemi di agenti richiedano un regolamento completamente nuovo. In realtà, prendendo in prestito le comprovate pratiche di governance e del ciclo di vita dalla gestione dei dati, si è già a buon punto.
Catherine: Se un dirigente ti chiedesse un punto di partenza semplice, cosa gli diresti?
David: Io inizierei con l'osservabilità.
Un'AI significativa dipende quasi sempre da dati proprietari. È necessario sapere quali dati vengono utilizzati, quali modelli sono coinvolti e come questi elementi si uniscono per formare gli agenti.
Molte aziende utilizzano più fornitori di modelli su cloud diversi. Quando questi modelli sono gestiti in modo isolato, diventa molto difficile comprenderne i costi, la qualità o le prestazioni. Quando dati e modelli sono governati insieme, i team possono testare, confrontare e migliorare in modo molto più efficace.
Che l'osservabilità è ancora più importante perché l'ecosistema sta cambiando molto velocemente. I leader devono essere in grado di valutare nuovi modelli e approcci senza dover ricostruire il loro intero stack ogni volta che qualcosa cambia.
Catherine: In quali ambiti le organizzazioni fanno rapidi progressi e dove tendono a bloccarsi?
David: Gli agenti basati sulla conoscenza sono solitamente i più veloci da implementare. Basta indirizzarli verso una serie di documenti e improvvisamente le persone possono fare domande e ottenere risposte. È molto potente. Il problema è che le prestazioni di molti di questi sistemi peggiorano nel tempo. I contenuti cambiano. Gli indici non sono più aggiornati. La qualità cala. La maggior parte dei team non lo prevede.
Sostenere il valore significa pensare oltre l'implementazione iniziale. Sono necessari sistemi che aggiornino continuamente i dati, valutino gli output e migliorino l'accuratezza nel tempo. Senza di ciò, molte organizzazioni registrano un'ottima attività per i primi mesi, a cui fa seguito un calo dell'utilizzo e dell'impatto.
Catherine: In che modo i leader bilanciano la velocità con la fiducia e il controllo nella pratica?
David: Le organizzazioni che operano bene in questo campo trattano l'IA agentiva come un problema di ingegneria. Applicano la stessa disciplina che usano per il software: test, monitoraggio e deployment continui. I fallimenti sono previsti. L'obiettivo non è prevenire ogni problema, ma limitare il raggio d'impatto e risolvere i problemi rapidamente. Quando i team riescono a farlo, procedono più velocemente e con maggiore sicurezza. Se non va mai storto nulla, probabilmente si è troppo prudenti.
Catherine: Come si stanno evolvendo le aspettative in materia di fiducia e trasparenza?
David: La fiducia non deriva dal presupporre che i sistemi saranno perfetti. Deriva dal sapere cosa è successo dopo che qualcosa è andato storto. È necessaria la tracciabilità: quali dati sono stati utilizzati, quale modello è stato coinvolto, chi ha interagito con il sistema. Quando si dispone di questo livello di verificabilità, ci si può permettere di sperimentare di più.
È così che sono sempre stati gestiti i grandi sistemi distribuiti. Si ottimizza per il ripristino, non per l'assenza di fallimenti. Questa mentalità diventa ancora più importante man mano che i sistemi di AI acquisiscono maggiore autonomia.
Invece di considerare l'IA agentiva come una netta rottura con il passato, si tratta di un'estensione di discipline che le aziende sanno già come gestire. Per i dirigenti che riflettono su ciò che conterà davvero in futuro, emergono tre temi:
Nel complesso, queste idee portano a una chiara conclusione: il valore duraturo dell'IA non deriva dalla rincorsa agli strumenti più recenti o dal bloccare tutto, ma dalla creazione di basi che consentono alle organizzazioni di apprendere, adattarsi ed espandersi con fiducia.
Per saperne di più sulla creazione di un modello operativo efficace, download il Databricks AI Maturity Model.
(Questo post sul blog è stato tradotto utilizzando strumenti basati sull'intelligenza artificiale) Post originale
Líder de dados
January 9, 2026/5 min de leitura
Insights
January 9, 2026/6 min de leitura

