Direkt zum Hauptinhalt

Unternehmen, die mit KI erfolgreich sind, haben zuerst die Datenebene aufgebaut

Ein Gespräch mit Stephen Ecker, Chief Data Officer von Trinity Industries, darüber, wie ein 90 Jahre altes Eisenbahnunternehmen KI entwickelt, die funktioniert, indem es zuerst die Grundlage priorisiert

von Aly McGue

  • Trinity verbesserte die pünktliche Materiallieferung um 15 % und entwickelte ETA-Modelle, die 50 % genauer sind als Industriestandards.
  • KI liefert nur dann im großen Maßstab, wenn die Datenbasis vereinheitlicht, gesteuert und zugänglich ist.
  • Die Konsolidierung fragmentierter Dashboards und isolierter Systeme in einer einzigen Architektur ermöglichte Echtzeit-KI, schnellere Entscheidungen und geringere Kosten.
  • Die Unternehmen, die mit agentischer KI erfolgreich sind, werden diejenigen sein, die zuerst in die Datenebene investiert haben.

Jedes Unternehmen möchte KI-gesteuert sein. Weniger sind bereit, die unglamouröse Arbeit in der Datenebene zu leisten. Die Organisationen, die zuerst vorankommen, schaffen eine starke Datenbasis und bauen Intelligenz auf etwas auf, dem sie wirklich vertrauen.

Trinity Industries ist einer der größten Hersteller und Leasinggeber von Eisenbahnwaggons in Nordamerika und verwaltet eine geleaste Flotte von über 141.000 Eisenbahnwaggons im Wert von rund 8,5 Milliarden US-Dollar. Das Unternehmen transportiert über 900 Rohstoffe und operiert an der Schnittstelle von Schwerindustrie und Finanzdienstleistungen. Trinity betreibt seine einheitliche Daten- und KI-Plattform auf Databricks und hat 95 % seiner Unternehmensdaten in eine einzige Lakehouse-Architektur migriert.

Stephen Ecker ist Chief Data Officer bei Trinity Industries, wo er 13 Jahre tätig war und die Analysefunktion des Unternehmens aufgebaut hat. Er baute das Team von einer Gruppe von Praktikanten zu einer strategischen Fähigkeit auf, die über 100 Millionen US-Dollar an messbarem Geschäftseinfluss erzielt hat.

Während unseres Gesprächs kehrte Stephen zu einer einzigen Überzeugung zurück: Die Datenebene ist die Strategie. Nicht das Modell, nicht der Agent, nicht das Dashboard. Die Grundlage.

Die Kosten der Fragmentierung

Aly McGue: Führungskräfte in Unternehmen wägen oft die Kosten für die vollständige Transformation ihrer Infrastruktur gegen die Kosten der Nicht-Modernisierung ab. Wie sind Sie dabei vorgegangen und warum war die Datenfragmentierung letztendlich so kostspielig?

Stephen Ecker: Es war nicht nur ein IT-Problem. Es war eine strategische Decke für uns. Wir hatten Workloads, die zwischen Azure und AWS und zurück zu On-Prem liefen. Jedes Modell, das wir bereitstellten, hatte seine eigene Serving-Einrichtung. Nichts war standardisiert. Wir hatten ein lokales SQL-Warehouse, in dem Sie eine Abfrage über Nacht zu Waggon-Standortdaten ausführten, am nächsten Morgen zurückkamen, feststellten, dass Sie einen Fehler gemacht hatten, und sie in der nächsten Nacht erneut ausführen mussten. Das sind zwei Tage, um eine Frage zu beantworten.

Die größeren Kosten waren jedoch die Analyse-Streuung. Wir begannen mit Dashboards, weil niemand Zugriff auf Daten hatte, und sie waren äußerst beliebt. Aber im Laufe der Zeit wurde ein Drei-Tabellen-Dashboard zu einem 40-Tabellen-Dashboard, jedes mit eigenen Transformationen. Wir haben berechnet, dass wir fast 600 verschiedene Kennzahlen im gesamten Unternehmen hatten. Viele davon gingen von derselben Datenquelle aus, hatten aber ihre eigenen Filter, ihre eigene Perspektive. Und dann gab es noch die Wissenssilos. Ein Analyst verbrachte zwei Tage mit einer Arbeit, und sechs Monate später begann jemand anderes die gleiche Analyse von Grund auf neu. Irgendwann hatte ich das Gefühl, dass mein größter Wert darin bestand, einfach 13 Jahre hier gewesen zu sein und zu wissen, wer bereits was getan hatte.

Die Debatte "Welche Zahl ist richtig"

Aly: Ohne eine einzige Datenebene stehen Organisationen oft vor dem Dilemma "Welche Zahl ist richtig?", bei dem Daten aus verschiedenen Abteilungen nicht übereinstimmen. Wie hat dieser Mangel an einer "Single Source of Truth" das Vertrauen Ihrer Führungskräfte in die Daten, die sie sahen, beeinträchtigt?

Stephen: Es war konstant. Jemand tauchte mit einer Zahl auf, und dann brauchte es einen Experten, um in den Code einzutauchen und zu sagen: 'Nein, diese Zahl hat diese Filter angewendet, weil das etwas ist, das eine bestimmte Person vor drei Jahren wollte.' Selbst als wir versuchten, Vorbehalte und technische Texte in die Dashboards einzufügen, hat es nicht funktioniert. Die Leute lesen keine Fußnoten. Sie greifen sich einfach eine Zahl und rennen damit.

Wir haben 11.000 Stunden pro Monat in diese Dashboards investiert. Und wir haben immer wieder versucht, sie zu konsolidieren, aber wir haben nie wirklich etwas konsolidiert, weil die Nachfrage nach mehr Dashboard-Umfang nie aufhörte. Also trafen wir während der Migration eine harte Entscheidung. Wir gingen zur Medallion-Architektur, verlagerten alle Transformationen nach oben und begannen, Legacy-Dashboards zu verschrotten. Sie sollten keine 600 Kennzahlen haben, selbst in einem Multi-Milliarden-Dollar-Unternehmen. Wir brauchten die Kernkennzahlen und dann einen Weg für die Leute, ihre eigenen Analysen darauf aufzubauen.

KI durch Konsolidierung freischalten

Aly: Wie hat die Konsolidierung Ihrer Plattform sowohl bessere Analysen als auch fortschrittliche KI-Modelle auf eine Weise ermöglicht, die vorher nicht möglich war?

Stephen: Der Gen-KI-Aspekt ist ein großer. Unstrukturierte Daten, Dinge wie E-Mails, wurden plötzlich sehr wichtig. Die andere Sache, die uns die Konsolidierung brachte, ist der Zugang zu Modellen ohne den Overhead. Wir müssen nicht die Einrichtung einer separaten API für OpenAI diskutieren oder jedes Mal rechtliche und architektonische Überprüfungen durchlaufen, wenn wir etwas ausprobieren wollen. Wir haben alle Schutzmaßnahmen von Databricks und können unter einem einzigen sicheren Dach auf die benötigten Modelle zugreifen. Diese Flexibilität, ohne jedes Mal einen Beschaffungsprozess zu experimentieren, ist für uns von enormer Bedeutung.

Wir haben jetzt auch Agenten, die mit über einer Milliarde Dollar in unserer Beschaffung der Lieferkette für die Fertigung interagieren. Sie kontaktieren Lieferanten per E-Mail, fassen zusammen, wo sich der Lagerbestand im Bestellprozess befindet, und verfolgen ihn automatisch. Wir verzeichneten eine sofortige Steigerung der pünktlichen Materiallieferung um 15 %. Wenn man bedenkt, dass jede Verbesserung des Betriebskapitals um 10 Millionen US-Dollar etwa 1 Million US-Dollar zum Endergebnis beiträgt, summiert sich das schnell.

Echtzeit-Intelligenz im großen Maßstab

Aly: Wo haben Echtzeit-Einblicke die größten strategischen Auswirkungen auf Ihre Betriebsabläufe gehabt und was war die architektonische Herausforderung bei der Bereitstellung dieser Zuverlässigkeit und Intelligenz?

Stephen: Unser ETA-Vorhersagemodell. Das ist unsere technischste Herausforderung. Eisenbahnwaggons in Nordamerika werden von AEI-Tag-Lesegeräten verfolgt, im Grunde Reflektoren an der Seite des Waggons, die alle 10 Meilen ein Signal senden. Sie wissen also, dass sich ein Waggon in Dallas befindet, aber nicht, wo in Dallas. GPS bietet mehr Präzision, ist aber unordentlich. Rund 20 % der Branchen-Daten werden falsch gemeldet. GPS driftet.

Wir mussten einen Echtzeit-Reinigungsalgorithmus und einen Traversal-Glättungsprozess entwickeln, der GPS-Messwerte anhand der Analyse des jüngsten Reiseverlaufs an die richtige Spur anpasst. Alle diese Streaming-Daten werden in einer einzigen Architektur vereinheitlicht, transformiert und dann einem KI-Modell zugeführt, das die ETAs innerhalb von Sekunden aktualisiert. Unser Modell ist jetzt 50 % genauer als die ETAs der Branche, und wir kontrollieren nicht einmal die Lokomotiven.

Der Analysten-Engpass verschwindet.

Aly: Eines der größten Hindernisse für die Führungskräfte ist die Verzögerung zwischen der Frage und der datengestützten Antwort. Wie hat die natürliche Sprachschnittstelle von Databricks Genie Ihrem Team geholfen, die traditionelle "Analysten-Warteschlange" zu umgehen?

Stephen: Die ersten Anwender von Genie waren nicht die Führungskräfte, tatsächlich. Es war mein eigenes Analystenteam. Sie erledigten wiederkehrende operative Arbeiten, beantworteten Stakeholder-Fragen und verbrachten ein oder zwei Tage mit Analysen. Als sie anfingen, Genie-Räume zu nutzen, konnten sie in 30 Minuten eine klarere, prägnantere Antwort erhalten. Das war das Signal für uns.

Von dort aus verbreitete es sich. Unser CFO stellt jetzt Fragen zu Finanzplanungsdaten in Genie-Räumen. Unser CEO, der CTO bei Caterpillar war, ist voll dabei. Wir haben eine Customer-360-Anwendung entwickelt, die Daten aus 9 Domänen abruft und Kundenzusammenfassungen erstellt. Vertriebsmitarbeiter, die nie ein Dashboard berührt haben, nutzen es, weil es so einfach ist, tief einzusteigen. Wir bearbeiten jetzt über tausend Fragen pro Monat und überarbeiten unsere gesamte BI-Schicht um diesen Ansatz.

Von der Datenanforderung zur Konversation mit Daten

Aly: Wie verändert die Bereitstellung einer konversationellen Analyseerfahrung für nicht-technische Geschäftsbenutzer Ihre Organisationskultur von "Daten anfordern" zu "mit Daten konversieren"?

Stephen: Neugier. Das ist die ehrliche Antwort auf das, was immer noch schwierig ist. Jeder mag die "low-hanging fruit". Sie können eine Antwort erhalten, einen Datensatz abrufen und die Dashboard-Navigation überspringen. Aber wir wollen, dass sie tiefer gehen, erkennen, dass sie jetzt genauso fähig sind wie Analysten, und anfangen, die schwierigeren Fragen zu stellen.

Ich erinnere mich an eine Kennzahl auf Vorstandsebene, die wir vor Jahren erstellt haben und die Wartungskosten zwischen verschiedenen Werkstätten in unserer Leasingflotte verglich. Das hat uns Wochen gekostet. Eines der ersten Dinge, die ich mit einem Genie-Raum tat, war, ihn zu bitten, die gleiche Analyse durchzuführen. Er kam in fünf Minuten zur gleichen Antwort, mit der gleichen Methodik, und war sogar schlau genug, um geringe Stichprobengrößen als Anomalien zu kennzeichnen. Das ist eine komplexe Analyse, die wir uns vor acht Jahren nicht hätten träumen lassen. Jetzt dauert es drei Prompts. Es ist wie, wow, das ist wirklich beeindruckend.

Wir waren auch schlau genug, frühzeitig mit der Einführung zu beginnen. Wir haben Microsoft Copilot in den ersten Monaten eingeführt, nicht weil wir dachten, dass es jeden über Nacht effizienter machen würde, sondern weil wir die Leute zum Prompten bringen mussten. Wir mussten sie dazu bringen, eine LLM als Person und nicht als Suchmaschine zu betrachten. So dass wir zwei Jahre später nicht immer noch Leute unterrichten, wie man eine Frage stellt. Diese frühe Investition in Prompt-Literacy zahlt sich jetzt aus.

Ratschläge für Führungskräfte, die mit dieser Arbeit beginnen

Aly: Wenn Sie einen Ratschlag für eine C-Level-Führungskraft hätten, die versucht, ihr Unternehmen für die KI der Zukunft zu rüsten, was wäre das?

Stephen: Bauen Sie keine KI auf einer kaputten Grundlage. Die Datenebene ist die Strategie.

Sie können POCs mit den neuesten Modellen ziemlich schnell hochfahren. Aber der Gewinner von all dem wird derjenige sein, der die stärksten Grundlagen hat, derjenige, der tatsächlich in die Datenebene investiert hat. Die Versuchung ist groß, dem aufregenden KI-Anwendungsfall nachzujagen. Dem müssen Sie widerstehen. Machen Sie die Vorarbeit. Unsere Migration war schmerzhaft. Sie dauerte fast ein Jahr, und dann noch weitere sechs bis acht Monate, um alles zu festigen. Aber KI ist nur so gut wie die Daten, auf denen sie läuft. Wenn Sie sie auf Ihren eigenen Daten verankern, reale Workflows automatisieren und mit Zuversicht skalieren möchten, beginnt es mit der Grundlage. Das bedeutet nicht, dass Sie nicht einige schnelle Erfolge erzielen können. Aber wenn Sie das Geschäft wirklich beschleunigen wollen, liegt es in der Grundlage.

Abschließende Gedanken

Was aus diesem Gespräch am meisten hervorsticht, ist, wie direkt Stephen jeden KI-Erfolg mit derselben Entscheidung in Verbindung bringt: zuerst die Datenebene reparieren. Das ETA-Modell, die Beschaffungsagenten, der Wechsel zur konversationellen Analyse – nichts davon wäre ohne Trinitys Engagement für eine schmerzhafte, einjährige Migration möglich gewesen, die die meisten Organisationen zu überspringen versuchen.

Unternehmen, die in der Enterprise AI führend sein werden, sind nicht diejenigen mit den auffälligsten Prototypen. Es sind diejenigen, die bereit sind, die strukturelle Arbeit zu leisten und dann Intelligenz auf etwas aufzubauen, das sie tatsächlich kontrollieren. Für dieses 90 Jahre alte Unternehmen, das physische Güter über einen Kontinent transportiert, ist diese Klarheit beachtenswert.

Um mehr darüber zu erfahren, wie Sie eine umsetzbare Roadmap für die Weiterentwicklung Ihrer KI-Fähigkeiten erstellen können, laden Sie das Databricks AI Maturity Model herunter.

(Dieser Blogbeitrag wurde mit KI-gestützten Tools übersetzt.) Originalbeitrag

Erhalten Sie die neuesten Beiträge in Ihrem Posteingang

Abonnieren Sie unseren Blog und erhalten Sie die neuesten Beiträge direkt in Ihren Posteingang.