Una conversazione con il Chief Data Officer di Trinity Industries, Stephen Ecker, su come un'azienda ferroviaria di 90 anni ha creato un'IA funzionante dando priorità prima alla fondazione
di Aly McGue
Ogni azienda vuole essere guidata dall'AI. Meno sono disposte a fare il lavoro poco appariscente nel livello dei dati. Le organizzazioni che avanzano per prime creano una solida base di dati e costruiscono l'intelligenza su qualcosa di cui si fidano veramente.
Trinity Industries è uno dei maggiori produttori e locatori di vagoni ferroviari del Nord America, gestendo una flotta in leasing di oltre 141.000 vagoni ferroviari del valore di circa 8,5 miliardi di dollari. Movimentando oltre 900 commodity, l'azienda opera all'intersezione tra industria pesante e servizi finanziari. Trinity gestisce la sua piattaforma unificata di dati e AI su Databricks, avendo migrato il 95% dei suoi dati aziendali in un'unica architettura lakehouse.
Stephen Ecker è il Chief Data Officer di Trinity Industries, dove ha lavorato per 13 anni e ha fondato la funzione di analisi dell'azienda. Ha costruito il team da un gruppo di stagisti a una capacità strategica che ha generato oltre 100 milioni di dollari di impatto aziendale misurabile.
Durante la nostra conversazione, Stephen è tornato a un'unica convinzione: il livello dei dati è la strategia. Non il modello, non l'agente, non la dashboard. La fondazione.
Il costo della frammentazione
Aly McGue: I leader aziendali spesso valutano il costo della trasformazione completa della loro infrastruttura rispetto al costo del non modernizzare. Come avete affrontato questo problema e perché la frammentazione dei dati è stata alla fine così costosa?
Stephen Ecker: Non era solo un problema IT. Era un soffitto strategico per noi. Avevamo carichi di lavoro che rimbalzavano tra Azure e AWS, di nuovo on-premise. Ogni modello che implementavamo aveva la sua configurazione di serving. Nulla era standardizzato. Avevamo un data warehouse SQL on-premise dove si eseguiva una query durante la notte sui dati di localizzazione dei vagoni, si tornava la mattina dopo, ci si rendeva conto di aver commesso un errore e si doveva eseguirla di nuovo la notte successiva. Sono due giorni per rispondere a una domanda.
Ma il costo maggiore era la proliferazione delle analisi. Abbiamo iniziato con le dashboard perché nessuno aveva accesso ai dati e erano estremamente popolari. Ma nel tempo, una dashboard di tre fogli diventava una dashboard di 40 fogli, ognuna con le proprie trasformazioni integrate. Abbiamo calcolato di avere quasi 600 misure distinte in tutta l'azienda. Molte di queste partivano dalla stessa fonte dati ma avevano i propri filtri, la propria lente. E poi c'era il silo di conoscenza. Un analista impiegava due giorni per un lavoro e sei mesi dopo, qualcun altro iniziava la stessa analisi da zero. A un certo punto, sentivo che il mio maggior valore era semplicemente essere stato qui per 13 anni e sapere chi aveva già fatto cosa.
Il dibattito "quale numero è giusto"
Aly: Senza un unico livello di dati, le organizzazioni spesso affrontano il dilemma "quale numero è giusto", dove i dati di diversi dipartimenti non corrispondono. Come ha influito questa mancanza di una "singola fonte di verità" sulla fiducia della vostra leadership nei dati che vedevano?
Stephen: Era costante. Qualcuno si presentava con un numero, e poi ci voleva un esperto per scavare nel codice e dire: 'No, quel numero ha questi filtri applicati perché era quello che una persona specifica voleva tre anni fa.' Anche quando abbiamo provato a inserire avvertenze e scrittura tecnica all'interno delle dashboard, non ha funzionato. La gente non legge le note a piè di pagina. Prende solo un numero e va avanti.
Registravamo 11.000 ore al mese in queste dashboard. E continuavamo a cercare di consolidarle, ma non consolidavamo mai veramente nulla perché la domanda di un ambito di dashboard più ampio non si fermava mai. Quindi, durante la migrazione, abbiamo preso una decisione drastica. Siamo passati all'architettura Medallion, abbiamo spostato tutte le trasformazioni a monte e abbiamo iniziato a eliminare le dashboard legacy. Non dovresti avere 600 misure, nemmeno in un'azienda multi-miliardaria. Avevamo bisogno delle misure principali e poi di un canale per le persone per fare le proprie analisi su quelle.
Sbloccare l'AI attraverso il consolidamento
Aly: In che modo il consolidamento della vostra piattaforma ha sbloccato sia analisi migliori che modelli AI avanzati in un modo che prima non era possibile?
Stephen: L'angolo dell'AI generativa è importante. I dati non strutturati, cose come le email, sono diventati improvvisamente molto importanti. L'altra cosa che il consolidamento ci ha dato è l'accesso ai modelli senza l'overhead. Non dobbiamo discutere di impostare un'API separata per OpenAI o passare attraverso revisioni legali e architetturali ogni volta che vogliamo provare qualcosa. Abbiamo tutte le protezioni fornite da Databricks e possiamo accedere ai modelli di cui abbiamo bisogno sotto un unico ombrello sicuro. Questa flessibilità di sperimentare senza un processo di approvvigionamento ogni volta è enorme per noi.
Ora abbiamo anche agenti che interagiscono con oltre un miliardo di dollari nella nostra catena di approvvigionamento della produzione. Contattano i fornitori via email, sintetizzano dove si trova l'inventario nel processo di ordine di acquisto, effettuano follow-up automatici. Abbiamo visto un aumento immediato del 15% nelle consegne di materiali puntuali. Quando pensi che ogni 10 milioni di dollari di miglioramento del capitale circolante equivalgono a circa 1 milione di dollari di utile netto, la somma si accumula rapidamente.
Intelligenza in tempo reale su larga scala
Aly: Dove avete visto le informazioni in tempo reale avere il maggiore impatto strategico sulle vostre operazioni e qual è stata la sfida architetturale nel fornire tale affidabilità e intelligenza?
Stephen: Il nostro modello di previsione dell'ETA. Questa è la nostra sfida più tecnica. I vagoni ferroviari in Nord America sono tracciati da lettori di tag AEI, fondamentalmente riflettori sul lato del vagone che segnalano i pali approssimativamente ogni 10 miglia. Quindi sai che un vagone è a Dallas, ma non dove a Dallas. Il GPS offre maggiore precisione, ma è disordinato. Circa il 20% dei dati del settore viene segnalato in modo errato. Il GPS deriva.
Abbiamo dovuto costruire un algoritmo di pulizia in tempo reale e un processo di livellamento del transito che aggancia le letture GPS al binario corretto analizzando la cronologia dei viaggi recenti. Tutti questi dati in streaming sono unificati in un'unica architettura, trasformati e quindi alimentati a un modello AI che aggiorna gli ETA in pochi secondi. Il nostro modello è ora il 50% più accurato degli ETA dell'industria stessa, e noi non controlliamo nemmeno le locomotive.
Il collo di bottiglia dell'analista scompare.
Aly: Uno dei maggiori ostacoli per la leadership è il tempo di attesa tra la richiesta di una domanda e la ricezione di una risposta basata sui dati. In che modo l'interfaccia in linguaggio naturale di Databricks Genie ha aiutato il tuo team a bypassare la tradizionale "coda degli analisti"?
Stephen: I primi ad adottare Genie non sono stati i dirigenti, in realtà. È stato il mio team di analisti. Stavano svolgendo lavori operativi ripetitivi, rispondendo alle domande degli stakeholder e impiegando un giorno o due per l'analisi. Una volta che hanno iniziato a usare le stanze Genie, hanno potuto ottenere una risposta più chiara e concisa in 30 minuti. Quello è stato il segnale per noi.
Da lì, si è diffuso. Il nostro CFO sta ora ponendo domande sui dati di pianificazione finanziaria nelle stanze Genie. Il nostro CEO, che era un CTO in Caterpillar, è completamente a bordo. Abbiamo costruito un'applicazione customer 360 che estrae dati da 9 domini e sintetizza riepiloghi dei clienti. I venditori che non hanno mai toccato una dashboard la stanno usando perché è semplicemente così facile approfondire. Stiamo arrivando a oltre mille domande al mese e stiamo riarchitettando l'intero nostro livello BI attorno a questo approccio.
Dalla richiesta di dati alla conversazione con essi
Aly: In che modo fornire un'esperienza di analisi conversazionale agli utenti aziendali non tecnici sposta la vostra cultura organizzativa dal "richiedere dati" al "conversare con i dati"?
Stephen: Curiosità. Questa è la risposta onesta a ciò che è ancora difficile. A tutti piace la frutta a portata di mano. Possono ottenere una risposta, scaricare un set di dati e saltare la navigazione della dashboard. Ma vogliamo che approfondiscano, si rendano conto che ora sono capaci quanto gli analisti e inizino a porre le domande più difficili.
Ricordo una misura a livello di consiglio di amministrazione che abbiamo creato anni fa confrontando i costi di manutenzione tra diversi negozi nella nostra flotta in leasing. Ci sono volute settimane. Una delle prime cose che ho fatto con una stanza Genie è stata chiederle di fare la stessa analisi. È arrivata alla stessa risposta in cinque minuti, usando la stessa metodologia, ed è stata persino abbastanza intelligente da segnalare campioni di piccole dimensioni come anomali. Questa è un'analisi complessa che non avremmo potuto sognare otto anni fa. Ora richiede tre prompt. È come, wow, è davvero impressionante.
Siamo stati abbastanza intelligenti da iniziare presto anche sul lato dell'adozione. Abbiamo introdotto Microsoft Copilot nei primi due mesi, non perché pensassimo che avrebbe reso tutti più efficienti dall'oggi al domani, ma perché dovevamo far sì che le persone creassero prompt. Dovevamo far loro pensare a un LLM come a una persona, non a un motore di ricerca. Così, due anni dopo, non stiamo *ancora* insegnando alle persone come fare una domanda. Questo investimento precoce nell'alfabetizzazione dei prompt sta dando i suoi frutti ora.
Consigli per i leader che iniziano questo lavoro
Aly: Se avessi un consiglio per un leader C-level che cerca di rendere la propria organizzazione a prova di futuro per l'AI, quale sarebbe?
Stephen: Non costruire l'AI su una base fragile. Il livello dei dati è la strategia.
Puoi avviare rapidamente le POC con gli ultimi modelli. Ma il vincitore di tutto questo sarà chiunque abbia le basi più solide, chiunque abbia effettivamente investito nello strato dei dati. La tentazione è quella di inseguire l'entusiasmante caso d'uso dell'IA. Devi resistervi. Fai il lavoro preparatorio. La nostra migrazione è stata dolorosa. Ci è voluto quasi un anno, e poi altri sei o otto mesi per consolidare tutto. Ma l'IA è valida solo quanto i dati su cui gira. Se vuoi basarla sui tuoi dati, automatizzare flussi di lavoro reali e scalare con fiducia, tutto inizia dalle fondamenta. Non significa che non puoi ottenere alcune vittorie rapide lungo la strada. Ma se vuoi veramente accelerare il business, è nelle fondamenta.
Considerazioni finali
Ciò che risalta di più da questa conversazione è come Stephen colleghi direttamente ogni successo dell'IA alla stessa decisione: risolvere prima lo strato dei dati. Il modello ETA, gli agenti di approvvigionamento, il passaggio all'analisi conversazionale, nulla di tutto ciò sarebbe stato possibile senza l'impegno di Trinity in una migrazione dolorosa e durata un anno che la maggior parte delle organizzazioni cerca di saltare.
Le aziende che guideranno l'IA aziendale non sono quelle con i prototipi più appariscenti. Sono quelle disposte a fare il lavoro strutturale e poi costruire l'intelligenza su qualcosa che effettivamente controllano. Per questa azienda di 90 anni, che movimenta merci fisiche attraverso un continente, quella chiarezza merita attenzione.
Per saperne di più su come creare una roadmap attuabile per far progredire le tue capacità di IA, scarica il Modello di Maturità IA di Databricks.
(Questo post sul blog è stato tradotto utilizzando strumenti basati sull'intelligenza artificiale) Post originale
Iscriviti al nostro blog e ricevi gli ultimi articoli direttamente nella tua casella di posta.