Da KI die Art und Weise verändert, wie Führungskräfte mit Daten interagieren, bewegt sich die Analytik aus der Ära der Dashboards heraus in ein weitaus dynamischeres Betriebsmodell. Natürliche Sprachschnittstellen, KI-gesteuerte Erkenntnisse und agentenbasierte Workflows versprechen einen breiteren Zugang zu Intelligenz, decken aber auch ein Problem auf, mit dem viele Organisationen seit Jahren leben: fragmentierte Definitionen, inkonsistente Metriken und Governance-Modelle, die nie für KI-Skalierung ausgelegt waren.
Um zu erörtern, was das in der Praxis bedeutet, sprach ich mit Nick Eayrs, Vice President of Field Engineering für Asien-Pazifik und Japan bei Databricks. Mit fast 25 Jahren Führungserfahrung in mehreren Regionen hat Eayrs einen breiten Überblick darüber, wie Datenerkenntnisse als Beschleuniger innerhalb von Organisationen wirken können und was zum Erfolg in der neuen Ära der agentenbasierten Analytik erforderlich ist. Dieser Hintergrund gibt ihm einen breiten Einblick, wie Daten- und KI-Strategien über Märkte, Betriebsmodelle und Reifegrade von Unternehmen hinweg zum Tragen kommen.
Der rote Faden unseres Gesprächs war seine Überzeugung, dass KI die Notwendigkeit von Semantik und Governance nicht eliminiert. Sie macht sie weitaus wichtiger. Seiner Meinung nach werden Organisationen keine vertrauenswürdigen KI-Ergebnisse erzielen, bis sie die darunter liegende Datenschicht reparieren: die Geschäftsdefinitionen, die Datenherkunft (Lineage), die Zugriffssteuerungen und die offenen Standards, die es der Intelligenz ermöglichen, ohne Kollaps unter Kosten und Komplexität zu skalieren.
Catherine Brown: Warum übt KI einen semantischen und Governance-Druck auf die Analytik aus, mit dem Legacy-BI nie konfrontiert war?
Nick Eayrs: Legacy-BI war wirklich eine Welt statischer Dashboards und vordefinierter Berichte. Geschäftsbenutzer mussten sich durch ziemlich komplexe Schnittstellen navigieren, und wenn sie eine Folgefrage hatten oder etwas tiefergehend untersuchen wollten, benötigten sie normalerweise spezialisierte Unterstützung. Es gab nur sehr wenig echte Self-Service-Funktionalität.
Die semantische Schicht unterhalb von traditionellem BI war ebenfalls relativ statisch und langsam zu ändern. Wenn das Geschäft eine neue Definition für Umsatz, Abwanderung (Churn) oder Kundenlebenszeitwert benötigte, bedeutete dies normalerweise, dass man sich an die IT oder spezialisierte Teams wenden musste, um die semantische Schicht zu aktualisieren und Berichte neu zu erstellen. Es war ein sehr vorgegebenes Modell.
KI verändert das komplett. Sie muss nicht mehr statisch sein und nicht mehr rein deskriptiv. Traditionelles BI ist oft eine Rückspiegel-Analytik. Es sagt Ihnen, was passiert ist. Mit KI können Sie vorhersagen, was passieren könnte, fragen, warum es passiert ist, und verstehen, was als Nächstes zu tun ist. Sie können selbst viel mehr Daten analysieren und Erkenntnisse in Echtzeit generieren.
Aber Semantik verschwindet in dieser Welt nicht. Wenn überhaupt, sind sie wichtiger. KI und Agenten werden immer noch von den Daten gespeist, die ihnen zugrunde liegen. Das führt zurück zum alten Prinzip: Müll rein, Müll raus. Je vertrauenswürdiger und qualitativ hochwertiger Ihre Daten sind, mit dem richtigen Geschäftskontext rund um Ihre Produkte, Dienstleistungen, Taxonomie und Terminologie, desto besser wird die KI-Erfahrung sein.
Wenn jemand fragt: „Warum haben wir unsere Q3-Ziele verfehlt?“, muss das System verstehen, was „Ziele“ in dieser Organisation bedeutet, auf welchen Zeitraum sich der Benutzer bezieht und wie diese Metriken definiert sind. Ohne diesen semantischen Kontext rät das System nur. Es kann allgemeine Antworten liefern, aber keine vertrauenswürdigen.
Es gibt hier auch noch einen weiteren wichtigen Punkt. Aus Sicht von Databricks sollte die semantische Schicht offen und interoperabel sein. Traditionelle BI-Anbieter sperren das semantische Modell oft in ihr eigenes Tool ein, was bedeutet, dass alles über diese Schnittstelle laufen muss. Das wird zu einer erheblichen Einschränkung. Wenn KI- und agentenbasierte Erfahrungen skalieren sollen, wäre ein starkes kundenspezifisches Beispiel in APJ Takeda. Mit den richtigen Daten-Grundlagen und Leitplanken konnten sie mehrere KI-Anwendungsfälle in den Bereichen Vertrieb, F&E, Fertigung und Backoffice entwickeln.
Catherine: Können Sie spezifischer auf den Governance-Druck eingehen, den KI auf die Analytik ausübt?
Nick: Sowohl auf der BI- als auch auf der KI-Seite läuft die Governance auf Vertrauen, Datenherkunft (Lineage) und Nachverfolgbarkeit hinaus.
Wenn Sie Dashboards oder Business-Intelligence-Erkenntnisse erstellen, müssen Sie verstehen, wie sie erstellt wurden. Welche zugrunde liegenden Daten wurden verwendet? Wie wurden die Metriken definiert? Wenn Sie das nicht wissen, können Sie dem, was Sie sehen, nicht vertrauen.
Dasselbe gilt für die KI. Sie werden dem Ergebnis eines Modells, eines Agenten oder einer agentenbasierten Anwendung nicht vertrauen, wenn Sie nicht verstehen können, wie dieses Ergebnis zustande gekommen ist. Aus welcher Tabelle stammt es? Welche Merkmale (Features) wurden verwendet? Welches Modell lieferte die Inferenz? Diese End-to-End-Datenherkunft ist unerlässlich.
Es gibt auch eine Compliance-Dimension. In stark regulierten Branchen werden Organisationen zunehmend verpflichtet sein, diese Nachverfolgbarkeit nachzuweisen. Wenn eine KI-gesteuerte Entscheidung extern an Verbraucher, Bürger oder Patienten weitergegeben wird, müssen Sie dahinterstehen und nachvollziehen können, wie sie erstellt wurde. KI übt mehr Druck auf die Analytik aus, weil die Erwartungen an Vertrauen und Nachverfolgbarkeit steigen.
Catherine: Was sind die häufigsten widersprüchlichen Metrikmuster, die Sie sehen, und was kosten sie die Organisationen?
Nick: Das größte Problem ist die Fragmentierung. Die meisten Organisationen haben mehrere BI-Tools im Einsatz, und jedes dieser Tools kann sein eigenes semantisches Modell und seine eigene Interpretation von Geschäftsmetriken haben. Das bedeutet, dass Sie keine einzige Quelle der Wahrheit haben und viel doppelte Logik, die möglicherweise nicht übereinstimmt.
Ein Dashboard könnte Umsatz auf eine Weise definieren. Ein anderes Tool kann ihn anders definieren. Jemand aus der Finanzabteilung arbeitet möglicherweise mit einer anderen Version in Excel. Zu diesem Zeitpunkt beginnt das Vertrauen sehr schnell zu schwinden. Die Entscheidungsfindung verlangsamt sich, weil die Leute nicht mehr über die Entscheidung selbst debattieren. Sie debattieren darüber, welche Zahl die richtige ist.
Catherine: Warum bricht die Dashboard-Logik, wenn sie in Tools gefangen ist, unter KI-Skalierung zusammen?
Nick: Traditionelle BI-Tools extrahieren oft Daten aus Quellsystemen, aggregieren sie für ein bestimmtes Berichtergebnis, verschieben sie in proprietäre Speicher und legen dann proprietäre Semantiken und Dashboards darüber. Alles wird in das Tool gesperrt.
Das wird in einer KI-Welt zu einem echten Problem, weil Benutzer immer Folgefragen haben. Sie wollen tiefer gehen. Sie wollen diese Logik anderen Systemen zugänglich machen. Sie möchten, dass Data Scientists oder Machine-Learning-Teams darauf aufbauen. Wenn alles in einer proprietären Schicht gefangen ist, funktioniert das nicht gut. Sie müssen immer wieder zur Quelle zurückkehren, mehr Daten ziehen, sie erneut transformieren und die Logik neu aufbauen. Das wird repetitiv und teuer.
Wenn stattdessen alles auf offenen Datenformaten und offenen Schnittstellen aufgebaut ist, können BI, KI, Notebooks, Agenten und Data-Science-Teams alle von derselben gesteuerten Grundlage aus arbeiten. Sie speichern und verarbeiten die Daten einmal. Jeder kann mit ihnen in natürlicher Sprache interagieren. Jeder kann darauf aufbauen. Das ist ein viel besseres Modell für Skalierung.
Es gibt auch eine erhebliche technische Belastung bei der alten Vorgehensweise. Sie müssen viele Synchronisationspipelines und viel benutzerdefinierten Code pflegen, nur um fragmentierte Systeme aufeinander abzustimmen. Diese Komplexität ist sehr schwer zu rechtfertigen.
Catherine: Wie sieht eine maschinenlesbare semantische Schicht in der Praxis aus?
Nick: Erstens müssen Geschäftsmetriken als grundlegende Säule behandelt werden. Das bedeutet, dass die Definitionen von Dingen wie Umsatz, Abwanderung (Churn) oder Kundenlebenszeitwert explizit, zertifiziert und organisationsweit wiederverwendbar definiert werden müssen.
Zweitens müssen diese Metriken über Standard-Sprachen, hauptsächlich SQL, zugänglich sein und nicht nur von BI-Tools, sondern auch von KI-Schnittstellen, Notebooks und Agenten konsumiert werden können. Wenn sie nicht zugänglich und wiederverwendbar sind, haben Sie das Problem nicht wirklich gelöst.
Drittens benötigen Sie Offenheit und Interoperabilität. Sie möchten nicht Ihre gesamte Geschäftslogik in ein System verschieben, aus dem Sie sie nicht wieder herausbekommen. Offene Standards sind wichtig, weil sie Ihnen Optionen und eine sichere Exit-Strategie bieten, falls Sie jemals Systeme oder Anbieter wechseln müssen.
Sie benötigen auch KI-gestützte Governance. In einer agentenbasierten Welt können Tausende von Modellen oder Agenten ständig mit der semantischen Schicht interagieren. Die Metadaten, Kommentare und Geschäftsmetriken aktuell zu halten, ist eine riesige Herausforderung, wenn dies alles manuell geschieht. KI kann helfen, diese Metadaten zu generieren und zu pflegen, damit die semantische Schicht in großem Maßstab nutzbar bleibt.
Und dann brauchen Sie natürlich konversationelle und kontextbezogene Intelligenz, damit Agenten und Anwendungen über APIs und natürliche Sprachschnittstellen mit dieser Schicht interagieren können.
Catherine: Wo passt die Evaluierung hinein? Erfolgt die Zertifizierung der Daten zuerst, und dann kommen die KI-Schicht und die Evaluierungen?
Nick: Ja. Die Daten-Grundlagen kommen zuerst. Sie benötigen die Metadaten, die Geschäftslogik, die Kommentare und die Geschäftsmetriken, bevor die KI diese Daten gut nutzen kann.
Dann bauen Sie die KI- oder agentenbasierte Schicht darauf auf. Danach kommen die Evaluierungs-Frameworks ins Spiel, um zu validieren, ob die Ergebnisse den Erwartungen entsprechen und um zu verfeinern, was das System tut. Aber die Evaluierungsschicht ist kein Ersatz für die richtige Grundlage. Sie hängt von diesen Grundlagen ab.
Catherine: Wo schränken nutzerbasierte BI-Modelle die Einführung und Wertschöpfung aktiv ein?
Nick: Das Ziel der Demokratisierung von Daten und KI sollte sein, jedem Wissensarbeiter im Unternehmen Intelligenz zur Verfügung zu stellen. Ein nutzerbasiertes Modell arbeitet diesem Ziel direkt entgegen.
Es schränkt die Demokratisierung ein, da es Unternehmen zwingt, zu entscheiden, welche Benutzer, Teams oder Geschäftsbereiche Zugriff erhalten. Es schränkt auch die Innovation ein, da Sie nun entscheiden, welche Projekte auf der Grundlage der Lizenzverfügbarkeit und nicht des Geschäftswerts fortgesetzt werden dürfen.
Das wirkt sich auch auf die Wertschöpfung aus. Die besten Ergebnisse erzielen oft vielfältige Teams, die gemeinsam an einem Geschäftsproblem arbeiten. Wenn nur ein Teil dieser Teams auf das System zugreifen kann, schränken Sie die Zusammenarbeit ein und damit die Fähigkeit des Unternehmens, Werte zu schaffen.
Das andere Problem ist die Effizienz. In einem verbrauchsabhängigen Modell zahlen Sie für das, was Sie nutzen. Wenn die Nutzung steigt, zahlen Sie für die erhöhte Nutzung. Wenn sie auf Null sinkt, zahlen Sie Null. Das ist ein weitaus rationaleres Modell, als für Sitzlizenzen zu zahlen, die möglicherweise unter- oder überversorgt sind.
Catherine: Einige Organisationen könnten argumentieren, dass Lizenzbeschränkungen effektiv als Steuerungsebene fungieren. Was würden Sie dazu sagen?
Nick: Wenn Sie versuchen, den Zugriff auf Daten durch Lizenzbeschränkungen zu steuern, werden Sie scheitern. Das ist der falsche Kontrollpunkt.
Gute Governance beginnt auf der Plattform- und Datenebene. Sie beginnt mit rollen- und attributbasierten Kontrollen, mit Authentifizierung und Autorisierung, die mit Ihren Identitätssystemen verknüpft sind, und mit klarer Trennung und Klassifizierung von Datenbeständen. Sie lösen Berechtigungen und Richtliniendurchsetzung im Voraus.
Wenn Sie das richtig machen, können Sie den Zugriff breit einführen und gleichzeitig sicherstellen, dass die Leute nur das sehen, was sie sehen sollen. Sitzlizenzen als Steuerungsmechanismus zu verwenden, ist nicht skalierbar und kein Ersatz für die zugrunde liegende Governance-Arbeit.
Catherine: Was ist die schnellste architektonische Maßnahme, die Unternehmen ergreifen können, um das Vertrauen zu verbessern und die Kosten für Analysen gleichzeitig zu senken?
Nick: Die wichtigste Maßnahme ist die Einrichtung einer einheitlichen semantischen Ebene, die auf einer starken Governance-Grundlage aufbaut.
Das beginnt mit der Entscheidung für den Katalog. Wie werden Sie Ihre Daten- und KI-Assets verwalten? Sobald Sie einen Katalog haben, können Sie Ihre Semantik dort definieren, die Geschäftsmetriken dort zertifizieren und eine einzige Quelle der Wahrheit schaffen. Im Databricks-Modell ist diese Quelle der Wahrheit offen und interoperabel, was sehr wichtig ist.
Sobald Sie das tun, passieren einige Dinge. Sie erhalten Vertrauen, weil Sie Nachverfolgbarkeit, Governance, Auditierbarkeit und zertifizierte Definitionen haben. Sie erhalten Vereinfachung, weil Sie unnötige Duplizierung und wiederholte ETL vermeiden. Und Sie reduzieren den IT-Aufwand, da Sie die Logik nicht jedes Mal neu erstellen, wenn jemand eine neue Frage stellt.
Das Implementierungsmuster ist ziemlich klar. Erstens, die Datenfundamente richtig machen. Zweitens, die semantische Ebene aufbauen und die Geschäftsmetriken zertifizieren. Drittens, KI darauf aufbauen und dann Bewertungsframeworks verwenden, um diese Ausgaben zu überwachen und zu verfeinern. Diese Reihenfolge ist wichtig. NTT Docomo ist ein großartiges Beispiel dafür. Nach der Nutzung von Databricks Lakehouse, Unity Catalog und Workflows zur Automatisierung der Protokollanalyse reduzierten sie die manuelle Verarbeitungszeit von 66 Stunden pro Monat auf 6 Stunden und verbesserten die Analyseeffizienz um 90 Prozent. Das ist ein starkes Beispiel dafür, wie Governance und Fundament eine wesentlich schnellere Entscheidungsfindung ermöglichen.
Catherine: Was machen APJ-Unternehmen anders oder schneller, wenn es darum geht, die Datenebene für KI zu monetarisieren?
Nick: APJ ist ein faszinierender Markt, da er unglaublich vielfältig ist. Sie haben es mit sehr unterschiedlichen Ländern, Sprachen, Reifegraden und regulatorischen Umgebungen zu tun. Aber ein gemeinsames Muster ist, dass Unternehmen dazu neigen, sehr schnell bei der digitalen Transformation voranzukommen, und viele Regierungen in der Region klare nationale KI-Strategien haben.
Wir sehen bei Kunden, dass sie oft mit der Governance- und Datengrundlagenschicht beginnen und dann schnell zu KI-nativen Anwendungen übergehen, sobald diese Basis vorhanden ist. Diese Reihenfolge ist wichtig.
Wir sehen dieses Muster auch in Branchen wie dem Finanzdienstleistungssektor, wo Kunden die Analysen auf einer gesteuerten Datenebene konsolidieren und dann den Zugriff demokratisieren.
Ein weiteres Beispiel ist Net One Systems in Japan. Sobald sie die Grundlage geschaffen hatten, bauten sie ein KI-gestütztes Wissenswerkzeug, das mit anderen Systemen integriert war, und erreichten eine Reduzierung der Antwortzeit auf Supportanfragen um 75 Prozent, während sie 10.000 Arbeitsstunden pro Jahr einsparten.
Eines der besonders einzigartigen Merkmale in APJ ist die mehrsprachige Dimension. Kunden entwickeln Fähigkeiten in Japanisch, Mandarin, Kantonesisch, Thai und anderen lokalen Sprachen. Das ist leistungsstark, funktioniert aber nur, wenn die zugrunde liegende Datenebene gut genug gesteuert und strukturiert ist, um dies zu unterstützen.
APJ-Kunden legen tendenziell schnell die Grundlagen richtig, um dann schnell mit der KI-ersten Anwendungsentwicklung darauf aufzubauen. In vielen Fällen sind sie schneller als andere Regionen.
Nicks Punkt ist sowohl technisch als auch strategisch. Die Organisationen, die Werte aus KI schöpfen, behandeln Analysen, Semantik und Governance nicht als separate Gespräche. Sie behandeln sie als eine einzige Grundlage. Für Führungskräfte ist das wichtig, denn der Nutzen ist nicht nur eine bessere Architektur. Es ist schnellere Entscheidungsfindung, breiterer Zugang zu Erkenntnissen und geringere Kosten für Analysen im großen Maßstab. KI wird eine fragmentierte Datenebene nicht beheben. Sie wird sie aufdecken. Die Unternehmen, die am schnellsten von der Experimentierphase zu vertrauenswürdigen Erkenntnissen gelangen, werden diejenigen sein, die ihre Metriken klar definieren, sie zentral verwalten und sie offen genug machen, damit Analysen und KI auf derselben Wahrheit aufbauen können.
Um mehr über den Aufbau eines effektiven Betriebsmodells zu erfahren, laden Sie das Databricks AI Maturity Model herunter.
(Dieser Blogbeitrag wurde mit KI-gestützten Tools übersetzt.) Originalbeitrag
