Während Unternehmen von KI-Experimenten zur Skalierung übergehen, ist Governance zu einem Anliegen auf Vorstandsebene geworden. Die Herausforderung für Führungskräfte besteht nicht mehr darin, ob Governance wichtig ist, sondern wie sie so gestaltet werden kann, dass sie gleichzeitig Geschwindigkeit, Innovation und Vertrauen ermöglicht.
Um zu ergründen, wie sich dieses Gleichgewicht in der Praxis gestaltet, habe ich mich mit David Meyer, Senior Vice President of Product bei Databricks, unterhalten. Durch die enge Zusammenarbeit mit Kunden aus verschiedenen Branchen und Regionen hat David einen klaren Einblick darin, wo Unternehmen echte Fortschritte machen, wo sie nicht weiterkommen und wie die heutigen Governance-Entscheidungen die Möglichkeiten von morgen gestalten.
Was in unserem Gespräch auffiel, war sein Pragmatismus. Anstatt KI-Governance als etwas Neues oder Abstraktes zu behandeln, kehrte David konsequent zu den Grundprinzipien zurück: Engineering-Disziplin, Transparenz und Verantwortlichkeit.
Catherine Brown: Sie verbringen viel Zeit mit Kunden aus den verschiedensten Branchen. Was ändert sich daran, wie Führungskräfte über Governance denken, wenn sie für die nächsten ein bis zwei Jahre planen?
David Meyer: Eines der deutlichsten Muster, die ich sehe, ist, dass die Herausforderungen bei der Governance sowohl organisatorischer als auch technischer Natur sind und beide eng miteinander verbunden sind. Auf organisatorischer Seite versuchen Führungskräfte herauszufinden, wie sie es Teams ermöglichen können, schnell zu agieren, ohne Chaos zu verursachen.
Die Unternehmen, die Schwierigkeiten haben, sind tendenziell übermäßig risikoscheu. Sie zentralisieren jede Entscheidung, fügen aufwändige Genehmigungsprozesse hinzu und verlangsamen unbeabsichtigt alles. Ironischerweise führt das oft zu schlechteren Ergebnissen, nicht zu sichereren.
Interessanterweise kann eine starke technische Governance tatsächlich organisatorische Flexibilität freisetzen. Wenn Führungskräfte einen echten Einblick haben, welche Daten, Modelle und Agenten verwendet werden, müssen sie nicht jede Entscheidung manuell kontrollieren. Sie können den Teams mehr Freiheit geben, weil sie verstehen, was im gesamten System passiert. In der Praxis bedeutet das, dass Teams nicht für jedes Modell oder jeden Anwendungsfall um Erlaubnis fragen müssen – Zugriff, Auditing und Updates werden zentral verwaltet, und die Governance erfolgt planmäßig statt ausnahmsweise.
Catherine Brown: Viele Unternehmen scheinen zwischen zu schnellem Vorgehen und vollständiger Abriegelung festzustecken. Wo gelingt es Unternehmen Ihrer Meinung nach, das richtig zu machen?
David Meyer: Ich sehe normalerweise zwei Extreme.
Auf der einen Seite gibt es Unternehmen, die sich als „KI first“ bezeichnen und alle dazu ermutigen, frei zu entwickeln. Das funktioniert eine Zeit lang. Die Leute sind schnell, es herrscht große Begeisterung. Dann blinzelt man, und plötzlich hat man Tausende von Agenten, kein echtes Inventar, keine Ahnung, was sie kosten, und kein klares Bild davon, was tatsächlich in der Produktionsumgebung läuft.
Auf der anderen Seite gibt es Unternehmen, die versuchen, alles im Voraus zu kontrollieren. Sie richten einen einzigen Engpass für Genehmigungen ein, und das Ergebnis ist, dass fast nichts Sinnvolles jemals angewendet wird. Diese Teams haben normalerweise das Gefühl, ständig unter Druck zu stehen, dass sie ins Hintertreffen geraten.
Die Unternehmen, die das gut machen, landen tendenziell irgendwo in der Mitte. Innerhalb jedes Geschäftsbereichs identifizieren sie Personen, die KI-kompetent sind und Experimente vor Ort leiten können. Diese Personen tauschen sich unternehmensweit aus, teilen mit, was funktioniert, und schränken die Auswahl der empfohlenen Tools ein. Der Wechsel von Dutzenden von Tools auf nur zwei oder drei macht einen viel größeren Unterschied, als die Leute erwarten.
Catherine: Eine Sache, die Sie vorhin gesagt haben, ist mir besonders aufgefallen. Sie meinten, dass Agenten nicht so grundlegend anders sind, wie viele Leute annehmen.
David: Das ist richtig. Agenten fühlen sich neu an, aber viele ihrer Eigenschaften sind eigentlich sehr vertraut.
Sie verursachen kontinuierlich Kosten. Sie vergrößern Ihre Sicherheitsangriffsfläche. Sie stellen Verbindungen zu anderen Systemen her. Das sind alles Dinge, mit denen wir uns schon einmal befasst haben.
Wir wissen bereits, wie man Daten-Assets und APIs steuert, und dieselben Prinzipien gelten auch hier. Wenn man nicht weiß, wo ein Agent existiert, kann man ihn nicht abschalten. Wenn ein Agent auf sensible Daten zugreift, muss jemand dafür verantwortlich sein. Viele Unternehmen gehen davon aus, dass Agentensysteme ein völlig neues Regelwerk erfordern. In Wirklichkeit hat man den größten Teil schon geschafft, wenn man bewährte Lebenszyklus- und Governance-Praktiken aus der Datenverwaltung übernimmt.
Catherine: Wenn eine Führungskraft Sie nach einem einfachen Start fragen würde, was würden Sie ihr sagen?
David: Ich würde mit der Beobachtbarkeit anfangen.
Sinnvolle KI hängt fast immer von proprietären Daten ab. Man muss wissen, welche Daten verwendet werden, welche Modelle involviert sind und wie diese Komponenten zusammenwirken, um Agenten zu bilden.
Viele Unternehmen nutzen mehrere Modellanbieter in verschiedenen Clouds. Wenn diese Modelle isoliert verwaltet werden, wird es sehr schwierig, Kosten, Qualität oder Performance nachzuvollziehen. Wenn Daten und Modelle gemeinsam verwaltet werden, können Teams wesentlich effektiver testen, vergleichen und verbessern.
Diese Beobachtbarkeit ist umso wichtiger, als sich das Ökosystem so schnell verändert. Führungskräfte müssen in der Lage sein, neue Modelle und Ansätze zu bewerten, ohne bei jeder Veränderung ihren gesamten Stack neu aufbauen zu müssen.
Catherine: Wo machen Unternehmen schnelle Fortschritte und wo bleiben sie tendenziell stecken?
David: Wissensbasierte Agenten lassen sich normalerweise am schnellsten aufsetzen. Man verweist sie auf eine Reihe von Dokumenten, und plötzlich können die Leute Fragen stellen und erhalten Antworten. Das ist wirkungsvoll. Das Problem ist, dass viele dieser Systeme mit der Zeit nachlassen. Inhalte ändern sich. Indizes veralten. Die Qualität sinkt. Die meisten Teams planen das nicht ein.
Nachhaltiger Mehrwert bedeutet, über die erstmalige Bereitstellung hinaus zu denken. Man braucht Systeme, die kontinuierlich Daten refresh, Ausgaben bewerten und die Genauigkeit im Laufe der Zeit verbessern. Andernfalls verzeichnen viele Organisationen in den ersten Monaten eine hohe Aktivität, gefolgt von einer rückläufigen Nutzung und Wirkung.
Catherine: Wie bringen Führungskräfte in der Praxis Geschwindigkeit mit Vertrauen und Kontrolle in Einklang?
David: Die Unternehmen, die dies gut machen, behandeln agentenbasierte KI als ein Engineering-Problem. Sie wenden dieselbe Disziplin an wie bei Software: kontinuierliches Testen, Monitoring und Deployment. Mit Fehlern wird gerechnet. Das Ziel ist nicht, jedes Problem zu verhindern, sondern den Schadensradius zu begrenzen und Probleme schnell zu beheben. Wenn Teams dazu in der Lage sind, arbeiten sie schneller und mit mehr Zuversicht. Wenn nie etwas schiefgeht, sind Sie wahrscheinlich zu konservativ.
Catherine: Wie entwickeln sich die Erwartungen in Bezug auf Vertrauen und Transparenz?
David: Vertrauen entsteht nicht durch die Annahme, dass Systeme perfekt sein werden. Es entsteht dadurch, dass man weiß, was passiert ist, nachdem etwas schiefgegangen ist. Man braucht Nachverfolgbarkeit – welche Daten verwendet wurden, welches Modell beteiligt war, wer mit dem System interagiert hat. Wenn man dieses Maß an Überprüfbarkeit hat, kann man sich mehr Experimente leisten.
So wurden große verteilte Systeme schon immer betrieben. Man optimiert für die Wiederherstellung, nicht für die Fehlerfreiheit. Diese Denkweise wird umso wichtiger, je autonomer KI-Systeme werden.
Anstatt agentische KI als einen klaren Bruch mit der Vergangenheit zu betrachten, ist sie eine Erweiterung von Disziplinen, die Unternehmen bereits ausführen. Für Führungskräfte, die darüber nachdenken, was als Nächstes wirklich zählt, kristallisieren sich drei Themen heraus:
Zusammengenommen deuten diese Ideen auf eine klare Erkenntnis hin: Dauerhafter KI-Wert entsteht nicht durch die Jagd nach den neuesten Tools oder das Abschotten von allem, sondern durch den Aufbau von Grundlagen, die es Unternehmen ermöglichen, zu lernen, sich anzupassen und zuversichtlich zu skalieren.
Um mehr über den Aufbau eines effektiven Betriebsmodells zu erfahren, laden Sie das Databricks AI Maturity Model herunter.
(Dieser Blogbeitrag wurde mit KI-gestützten Tools übersetzt.) Originalbeitrag
Líder de dados
January 9, 2026/5 min de leitura
Insights
January 9, 2026/6 min de leitura

