Uma conversa com o Chief Data Officer da Trinity Industries, Stephen Ecker, sobre como uma empresa ferroviária de 90 anos construiu IA que funciona, priorizando primeiro a fundação
por Aly McGue
Toda empresa quer ser orientada por IA. Menos estão dispostas a fazer o trabalho pouco glamoroso na camada de dados. As organizações que avançam primeiro criam uma base de dados sólida e constroem inteligência sobre algo em que realmente confiam.
A Trinity Industries é uma das maiores fabricantes e locadoras de vagões da América do Norte, gerenciando uma frota alugada de mais de 141.000 vagões avaliada em cerca de US$ 8,5 bilhões. Transportando mais de 900 commodities, a empresa opera na interseção da indústria pesada e serviços financeiros. A Trinity opera sua plataforma unificada de dados e IA na Databricks, tendo migrado 95% de seus dados corporativos para uma única arquitetura lakehouse.
Stephen Ecker é o Chief Data Officer da Trinity Industries, onde trabalha há 13 anos e fundou a função de análise da empresa. Ele construiu a equipe de um grupo de estagiários para uma capacidade estratégica que gerou mais de US$ 100 milhões em impacto comercial mensurável.
Ao longo de nossa conversa, Stephen retornou a uma única convicção: a camada de dados é a estratégia. Não o modelo, não o agente, não o dashboard. A fundação.
O custo da fragmentação
Aly McGue: Líderes empresariais frequentemente ponderam o custo de transformar completamente sua infraestrutura contra o custo de não modernizar. Como você abordou isso e por que a fragmentação de dados foi, em última análise, tão custosa?
Stephen Ecker: Não foi apenas um problema de TI. Foi um teto estratégico para nós. Tínhamos cargas de trabalho alternando entre Azure e AWS, de volta para on-prem. Cada modelo que implantávamos tinha sua própria configuração de serviço. Nada era padronizado. Tínhamos um data warehouse SQL on-premises onde você executava uma consulta durante a noite sobre dados de localização de vagões, voltava na manhã seguinte, percebia que havia cometido um erro e tinha que executá-la novamente na noite seguinte. Isso são dois dias para responder a uma pergunta.
Mas o custo maior foi a proliferação de análises. Começamos com dashboards porque ninguém tinha acesso a nenhum dado, e eles eram extremamente populares. Mas com o tempo, um dashboard de três planilhas se tornava um dashboard de 40 planilhas, cada um com suas próprias transformações incorporadas. Calculamos que tínhamos quase 600 medidas distintas em todo o negócio. Muitas delas começaram da mesma fonte de dados, mas tinham seus próprios filtros, sua própria lente. E então havia o silo de conhecimento. Um analista passava dois dias em um trabalho, e seis meses depois, outra pessoa começava a mesma análise do zero. Em um ponto, senti que meu maior valor era apenas ter estado aqui por 13 anos e saber quem já havia feito o quê.
O debate "qual número está certo"
Aly: Sem uma única camada de dados, as organizações frequentemente enfrentam o dilema 'qual número está certo?', onde os dados de diferentes departamentos não batem. Como essa falta de uma 'única fonte de verdade' impactou a confiança de sua liderança nos dados que estavam vendo?
Stephen: Foi constante. Alguém aparecia com um número, e então era preciso um especialista para investigar o código e dizer: 'Não, esse número tem esses filtros aplicados porque foi o que uma pessoa específica quis três anos atrás.' Mesmo quando tentamos colocar ressalvas e textos técnicos dentro dos dashboards, não funcionou. As pessoas não leem notas de rodapé. Elas apenas pegam um número e seguem em frente.
Estávamos registrando 11.000 horas por mês nesses dashboards. E continuamos tentando consolidá-los, mas nunca estávamos realmente consolidando nada porque a demanda por mais escopo de dashboard nunca parava. Então, durante a migração, tomamos uma decisão difícil. Adotamos a arquitetura Medallion, movemos todas as transformações para a montante e começamos a descartar dashboards legados. Você não deveria ter 600 medidas, mesmo em um negócio de bilhões de dólares. Precisávamos das medidas principais e, em seguida, de um canal para as pessoas fazerem suas próprias análises sobre isso.
Desbloqueando IA através da consolidação
Aly: Como a consolidação de sua plataforma desbloqueou análises melhores e modelos de IA avançados de uma forma que não era possível antes?
Stephen: O ângulo de IA generativa é um grande. Dados não estruturados, coisas como e-mails, de repente se tornaram muito importantes. A outra coisa que a consolidação nos deu é acesso a modelos sem o overhead. Não precisamos debater a configuração de uma API separada para a OpenAI ou passar por revisões legais e arquiteturais toda vez que queremos tentar algo. Temos todas as proteções fornecidas pela Databricks e podemos acessar os modelos de que precisamos sob um único guarda-chuva seguro. Essa flexibilidade para experimentar sem um processo de aquisição toda vez é enorme para nós.
Também temos agora agentes interagindo com mais de um bilhão de dólares em nossa cadeia de suprimentos de fabricação e aquisição. Eles entram em contato com fornecedores por e-mail, sintetizam onde o inventário está no processo de pedidos de compra, acompanhando automaticamente. Vimos um aumento imediato de 15% na entrega de materiais no prazo. Quando você pensa que cada US$ 10 milhões de melhoria no capital de giro representam aproximadamente US$ 1 milhão no resultado final, isso se acumula rapidamente.
Inteligência em tempo real em escala
Aly: Onde você viu insights em tempo real terem o maior impacto estratégico em suas operações e qual foi o desafio arquitetônico para fornecer essa confiabilidade e inteligência?
Stephen: Nosso modelo de previsão de ETA. Esse é o nosso desafio mais técnico. Vagões na América do Norte são rastreados por leitores de tag AEI, basicamente refletores na lateral do vagão que emitem um sinal para os postes a cada 10 milhas. Então você sabe que um vagão está em Dallas, mas não onde em Dallas. O GPS oferece mais precisão, mas é confuso. Cerca de 20% dos dados da indústria são relatados incorretamente. O GPS tem desvios.
Tivemos que construir um algoritmo de limpeza em tempo real e um processo de suavização de travessia que alinha as leituras de GPS à trilha correta, analisando o histórico de viagens recente. Todos esses dados de streaming são unificados em uma única arquitetura, transformados e, em seguida, alimentados em um modelo de IA que atualiza as ETAs em segundos. Nosso modelo agora é 50% mais preciso do que as ETAs da própria indústria, e nós nem controlamos as locomotivas.
O gargalo do analista desaparece.
Aly: Um dos maiores obstáculos para a liderança é o tempo de espera entre fazer uma pergunta e obter uma resposta baseada em dados. Como a interface de linguagem natural do Databricks Genie ajudou sua equipe a contornar a tradicional 'fila de analistas'?
Stephen: Os primeiros a adotar o Genie não foram os executivos, na verdade. Foi minha própria equipe de analistas. Eles faziam trabalho operacional repetitivo, respondiam a perguntas de stakeholders e passavam um ou dois dias em análises. Assim que começaram a usar as salas Genie, eles conseguiram uma resposta mais clara e concisa em 30 minutos. Esse foi o sinal para nós.
A partir daí, se espalhou. Nosso CFO agora está fazendo perguntas sobre dados de planejamento financeiro em salas Genie. Nosso CEO, que era CTO na Caterpillar, está totalmente engajado. Construímos um aplicativo de 360 graus do cliente que extrai dados de 9 domínios e sintetiza resumos de clientes. Vendedores que nunca tocaram em um dashboard estão usando porque é simplesmente fácil de aprofundar. Estamos chegando a mais de mil perguntas por mês e estamos reestruturando toda a nossa camada de BI em torno dessa abordagem.
De solicitar dados a conversar com eles
Aly: Como fornecer uma experiência de análise conversacional para usuários de negócios não técnicos muda a cultura de sua organização de 'solicitar dados' para 'conversar com dados'?
Stephen: Curiosidade. Essa é a resposta honesta para o que ainda é difícil. Todo mundo gosta da fruta mais baixa. Eles podem obter uma resposta, extrair um conjunto de dados e pular a navegação do dashboard. Mas queremos que eles se aprofundem, percebam que agora são tão capazes quanto os analistas e comecem a fazer as perguntas mais difíceis.
Lembro-me de uma métrica em nível de diretoria que criamos anos atrás comparando custos de manutenção entre diferentes oficinas em nossa frota de leasing. Levou semanas. Uma das primeiras coisas que fiz com uma sala Genie foi pedir para fazer a mesma análise. Ela chegou à mesma resposta em cinco minutos, usando a mesma metodologia, e foi até inteligente o suficiente para sinalizar tamanhos de amostra pequenos como anômalos. Essa é uma análise complexa que não poderíamos ter sonhado há oito anos. Agora leva três prompts. É como, uau, isso é realmente impressionante.
Fomos inteligentes o suficiente para começar cedo no lado da adoção também. Trouxemos o Microsoft Copilot nos primeiros meses, não porque achávamos que tornaria todos mais eficientes da noite para o dia, mas porque tínhamos que fazer as pessoas darem prompts. Tínhamos que fazê-las pensar em um LLM como uma pessoa, não como um mecanismo de busca. Para que daqui a dois anos, não estejamos *ainda* ensinando as pessoas a fazer uma pergunta. Esse investimento precoce em alfabetização de prompts está valendo a pena agora.
Conselhos para líderes que iniciam este trabalho
Aly: Se você tivesse um conselho para um líder C-level tentando preparar sua organização para o futuro da IA, qual seria?
Stephen: Não construa IA sobre uma base quebrada. A camada de dados é a estratégia.
Você pode criar POCs bem rápido com os modelos mais recentes. Mas o vencedor de tudo isso será quem tiver as bases mais sólidas, quem realmente investiu na camada de dados. A tentação é correr atrás do caso de uso de IA empolgante. Você tem que resistir a isso. Faça o trabalho de base. Nossa migração foi dolorosa. Levou quase um ano, e depois mais seis a oito meses para consolidar tudo. Mas a IA só é tão boa quanto os dados em que roda. Se você quer baseá-la em seus próprios dados, automatizar fluxos de trabalho reais e escalar com confiança, tudo começa com a base. Isso não significa que você não possa ter algumas vitórias rápidas ao longo do caminho. Mas se você realmente quer acelerar o negócio, está na base.
Considerações Finais
O que mais se destaca nesta conversa é como Stephen conecta diretamente cada vitória de IA à mesma decisão: consertar a camada de dados primeiro. O modelo ETA, os agentes de aquisição, a mudança para análise conversacional — nada disso teria sido possível sem o compromisso da Trinity com uma migração dolorosa de um ano que a maioria das organizações tenta pular.
As empresas que liderarão em IA corporativa não são as que têm os protótipos mais chamativos. São aquelas dispostas a fazer o trabalho estrutural e, em seguida, construir inteligência sobre algo que realmente controlam. Para esta empresa de 90 anos, que move mercadorias físicas por um continente, essa clareza vale a pena prestar atenção.
Para saber mais sobre como criar um roteiro acionável para avançar suas capacidades de IA, baixe o Modelo de Maturidade de IA da Databricks.
(Esta publicação no blog foi traduzida utilizando ferramentas baseadas em inteligência artificial) Publicação original
Assine nosso blog e receba os posts mais recentes diretamente na sua caixa de entrada.