Une conversation avec le Chief Data Officer de Trinity Industries, Stephen Ecker, sur la façon dont une entreprise ferroviaire de 90 ans a développé une IA fonctionnelle en privilégiant d'abord la fondation
par Aly McGue
Chaque entreprise souhaite être axée sur l'IA. Moins sont prêtes à faire le travail peu glamour dans la couche de données. Les organisations qui prennent de l'avance créent d'abord une base de données solide et construisent l'intelligence sur quelque chose en quoi elles ont réellement confiance.
Trinity Industries est l'un des plus grands fabricants et loueurs de wagons en Amérique du Nord, gérant une flotte louée de plus de 141 000 wagons d'une valeur d'environ 8,5 milliards de dollars. Transportant plus de 900 matières premières, l'entreprise opère à l'intersection de l'industrie lourde et des services financiers. Trinity exploite sa plateforme unifiée de données et d'IA sur Databricks, ayant migré 95 % de ses données d'entreprise vers une architecture de lakehouse unique.
Stephen Ecker est le Chief Data Officer chez Trinity Industries, où il travaille depuis 13 ans et a fondé la fonction d'analyse de l'entreprise. Il a transformé l'équipe d'un groupe d'stagiaires en une capacité stratégique qui a généré plus de 100 millions de dollars d'impact commercial mesurable.
Tout au long de notre conversation, Stephen est revenu à une conviction unique : la couche de données est la stratégie. Pas le modèle, pas l'agent, pas le tableau de bord. La fondation.
Le coût de la fragmentation
Aly McGue : Les dirigeants d'entreprise pèsent souvent le coût de la transformation complète de leur infrastructure par rapport au coût de la non-modernisation. Comment avez-vous abordé cela, et pourquoi la fragmentation des données était-elle finalement si coûteuse ?
Stephen Ecker : Ce n'était pas seulement un problème informatique. C'était un plafond stratégique pour nous. Nous avions des charges de travail qui rebondissaient entre Azure et AWS, puis revenaient sur site. Chaque modèle que nous déployions avait sa propre configuration de service. Rien n'était standardisé. Nous avions un entrepôt SQL sur site où vous exécutiez une requête pendant la nuit sur les données de localisation des wagons, reveniez le lendemain matin, réalisiez que vous aviez fait une erreur, et deviez la relancer la nuit suivante. Cela fait deux jours pour répondre à une seule question.
Mais le coût le plus important était la prolifération des analyses. Nous avons commencé par des tableaux de bord parce que personne n'avait accès à aucune donnée, et ils étaient extrêmement populaires. Mais au fil du temps, un tableau de bord de trois feuilles devenait un tableau de bord de 40 feuilles, chacune avec ses propres transformations intégrées. Nous avons calculé que nous avions près de 600 mesures distinctes dans l'entreprise. Beaucoup d'entre elles partaient de la même source de données mais avaient leurs propres filtres, leur propre perspective. Et puis il y avait le silo de connaissances. Un analyste passait deux jours sur un travail, et six mois plus tard, quelqu'un d'autre recommençait la même analyse à partir de zéro. À un moment donné, j'avais l'impression que ma plus grande valeur était simplement d'être là depuis 13 ans et de savoir qui avait déjà fait quoi.
Le débat "quel chiffre est le bon"
Aly : Sans une couche de données unique, les organisations sont souvent confrontées au dilemme "quel chiffre est le bon ?", où les données de différents départements ne correspondent pas. Comment ce manque de "source unique de vérité" a-t-il affecté la confiance de votre direction dans les données qu'elle voyait ?
Stephen : C'était constant. Quelqu'un arrivait avec un chiffre, et il fallait ensuite un expert pour examiner le code et dire : « Non, ce chiffre a ces filtres appliqués parce que c'est ce qu'une personne spécifique voulait il y a trois ans. » Même lorsque nous essayions d'ajouter des avertissements et des textes techniques dans les tableaux de bord, cela ne fonctionnait pas. Les gens ne lisent pas les notes de bas de page. Ils prennent juste un chiffre et s'en servent.
Nous enregistrions 11 000 heures par mois sur ces tableaux de bord. Et nous essayions constamment de les consolider, mais nous ne consolidions jamais vraiment rien car la demande de plus de portée de tableau de bord ne s'arrêtait jamais. Donc, pendant la migration, nous avons pris une décision difficile. Nous sommes passés à l'architecture Medallion, avons ramené toutes les transformations en amont, et avons commencé à supprimer les tableaux de bord hérités. Vous ne devriez pas avoir 600 mesures, même dans une entreprise de plusieurs milliards de dollars. Nous avions besoin des mesures principales, puis d'un moyen pour que les gens fassent leurs propres analyses par-dessus.
Débloquer l'IA grâce à la consolidation
Aly : Comment la consolidation de votre plateforme a-t-elle permis d'obtenir à la fois des analyses améliorées et des modèles d'IA avancés d'une manière qui n'était pas possible auparavant ?
Stephen : L'angle de l'IA générative est important. Les données non structurées, comme les e-mails, sont soudainement devenues très importantes. L'autre chose que la consolidation nous a apportée est l'accès aux modèles sans les frais généraux. Nous n'avons pas à débattre de la mise en place d'une API séparée pour OpenAI ou à passer par des examens juridiques et architecturaux chaque fois que nous voulons essayer quelque chose. Nous avons toutes les protections fournies par Databricks, et nous pouvons accéder aux modèles dont nous avons besoin sous un seul parapluie sécurisé. Cette flexibilité d'expérimenter sans processus d'approvisionnement à chaque fois est énorme pour nous.
Nous avons également maintenant des agents interagissant avec plus d'un milliard de dollars dans notre chaîne d'approvisionnement de fabrication. Ils contactent les fournisseurs par e-mail, synthétisent l'état des stocks dans le processus de commande, et effectuent des suivis automatiques. Nous avons constaté une augmentation immédiate de 15 % de la livraison des matériaux à temps. Quand on pense que chaque amélioration de 10 millions de dollars du fonds de roulement représente environ 1 million de dollars de bénéfice net, cela s'accumule rapidement.
Intelligence en temps réel à grande échelle
Aly : Où les informations en temps réel ont-elles eu le plus grand impact stratégique sur vos opérations, et quel a été le défi architectural pour fournir cette fiabilité et cette intelligence ?
Stephen : Notre modèle de prédiction d'ETA. C'est notre défi le plus technique. Les wagons en Amérique du Nord sont suivis par des lecteurs de tags AEI, essentiellement des réflecteurs sur le côté du wagon qui émettent un signal à environ tous les 10 miles. Vous savez donc qu'un wagon est à Dallas, mais pas où à Dallas. Le GPS offre plus de précision, mais c'est compliqué. Environ 20 % des données de l'industrie sont mal rapportées. Le GPS dérive.
Nous avons dû construire un algorithme de nettoyage en temps réel et un processus de lissage de trajet qui aligne les lectures GPS sur la bonne voie en analysant l'historique de voyage récent. Toutes ces données en flux continu sont unifiées dans une architecture unique, transformées, puis alimentées dans un modèle d'IA qui met à jour les ETA en quelques secondes. Notre modèle est maintenant 50 % plus précis que les ETA de l'industrie, et nous ne contrôlons même pas les locomotives.
Le goulot d'étranglement de l'analyste disparaît.
Aly : L'un des plus grands obstacles pour la direction est le délai entre la pose d'une question et l'obtention d'une réponse basée sur des données. Comment l'interface en langage naturel de Databricks Genie a-t-elle aidé votre équipe à contourner la "file d'attente des analystes" traditionnelle ?
Stephen : Les premiers utilisateurs de Genie n'étaient pas les cadres, en fait. C'était mon équipe d'analystes. Ils effectuaient des travaux opérationnels répétitifs, répondaient aux questions des parties prenantes et passaient un jour ou deux sur l'analyse. Une fois qu'ils ont commencé à utiliser les salles Genie, ils ont pu obtenir une réponse plus claire et plus concise en 30 minutes. C'était le signal pour nous.
À partir de là, cela s'est répandu. Notre directeur financier pose maintenant des questions sur les données de planification financière dans les salles Genie. Notre PDG, qui était directeur technique chez Caterpillar, est totalement partant. Nous avons construit une application client 360 qui extrait des données de 9 domaines et synthétise des résumés clients. Les commerciaux qui n'ont jamais touché un tableau de bord l'utilisent car il est tout simplement très facile d'approfondir. Nous traitons plus d'un millier de questions par mois, et nous réarchitecturons toute notre couche de BI autour de cette approche.
Passer de la demande de données à la conversation avec les données
Aly : Comment le fait d'offrir une expérience d'analyse conversationnelle aux utilisateurs professionnels non techniques fait-il évoluer votre culture organisationnelle de la "demande de données" à la "conversation avec les données" ?
Stephen : La curiosité. C'est la réponse honnête à ce qui est encore difficile. Tout le monde aime les fruits faciles à cueillir. Ils peuvent obtenir une réponse, extraire un ensemble de données et éviter la navigation dans les tableaux de bord. Mais nous voulons qu'ils aillent plus loin, qu'ils réalisent qu'ils sont maintenant aussi capables que les analystes, et qu'ils commencent à poser des questions plus difficiles.
Je me souviens d'une mesure au niveau du conseil d'administration que nous avons créée il y a des années, comparant les coûts de maintenance entre différents ateliers de notre flotte de location. Cela nous a pris des semaines. L'une des premières choses que j'ai faites avec une salle Genie a été de lui demander de faire la même analyse. Elle est arrivée à la même réponse en cinq minutes, en utilisant la même méthodologie, et a même été assez intelligente pour signaler les faibles tailles d'échantillon comme des anomalies. C'est une analyse complexe que nous n'aurions pas pu imaginer il y a huit ans. Maintenant, cela prend trois invites. C'est comme, wow, c'est vraiment impressionnant.
Nous avons également été suffisamment intelligents pour commencer tôt du côté de l'adoption. Nous avons intégré Microsoft Copilot dans les deux premiers mois, non pas parce que nous pensions que cela rendrait tout le monde plus efficace du jour au lendemain, mais parce que nous devions amener les gens à interagir. Nous devions leur faire considérer un LLM comme une personne, pas comme un moteur de recherche. Ainsi, deux ans plus tard, nous n'enseignons pas *encore* aux gens comment poser une question. Cet investissement précoce dans la littératie des invites porte ses fruits maintenant.
Conseils pour les dirigeants qui commencent ce travail
Aly : Si vous aviez un conseil à donner à un dirigeant de niveau C qui essaie de pérenniser son organisation pour l'IA, quel serait-il ?
Stephen : Ne construisez pas l'IA sur une base fragile. La couche de données est la stratégie.
Vous pouvez lancer des POC assez rapidement avec les derniers modèles. Mais le gagnant de tout cela sera celui qui aura les fondations les plus solides, celui qui a réellement investi dans la couche de données. La tentation est de courir après le cas d'utilisation passionnant de l'IA. Vous devez y résister. Faites le travail de fond. Notre migration a été douloureuse. Elle a pris près d'un an, puis encore six à huit mois pour tout consolider. Mais l'IA n'est aussi bonne que les données sur lesquelles elle fonctionne. Si vous voulez l'ancrer dans vos propres données, automatiser de vrais flux de travail et passer à l'échelle en toute confiance, tout commence par la fondation. Cela ne veut pas dire que vous ne pouvez pas obtenir quelques gains rapides en cours de route. Mais si vous voulez vraiment accélérer l'entreprise, c'est dans la fondation.
Réflexions finales
Ce qui ressort le plus de cette conversation, c'est la façon dont Stephen relie directement chaque succès de l'IA à la même décision : d'abord, corriger la couche de données. Le modèle ETA, les agents d'approvisionnement, le passage à l'analyse conversationnelle — rien de tout cela n'aurait été possible sans l'engagement de Trinity dans une migration douloureuse d'un an que la plupart des organisations essaient d'éviter.
Les entreprises qui dirigeront l'IA d'entreprise ne sont pas celles qui ont les prototypes les plus tape-à-l'œil. Ce sont celles qui sont prêtes à faire le travail structurel, puis à construire l'intelligence sur quelque chose qu'elles contrôlent réellement. Pour cette entreprise de 90 ans, qui déplace des marchandises physiques à travers un continent, cette clarté mérite qu'on y prête attention.
Pour en savoir plus sur la façon de créer une feuille de route exploitable pour faire progresser vos capacités d'IA, téléchargez le Modèle de maturité IA de Databricks.
(Cet article de blog a été traduit à l'aide d'outils basés sur l'intelligence artificielle) Article original
Abonnez-vous à notre blog et recevez les derniers articles directement dans votre boîte mail.