Direkt zum Hauptinhalt

KI-Governance richtig umsetzen, ohne alles zu verlangsamen

David Meyer, SVP Produkt, erläutert, wie führende Unternehmen bei der Skalierung von agentischer KI Geschwindigkeit, Kontrolle und Vertrauen in Einklang bringen

Getting AI Governance Right Without Slowing Everything Down

Published: January 30, 2026

Datenstrategie6 min de leitura

Summary

  • Grundlegende Governance ermöglicht es Teams, sich schneller zu bewegen, ohne auf Sichtbarkeit oder Kontrolle zu verzichten.
  • Agenten-Governance funktioniert am besten, wenn sie etablierte Daten- und Engineering-Praktiken erweitert.
  • KI liefert nur dann einen dauerhaften Wert, wenn sie als kontinuierlich verwaltetes Produktionssystem behandelt wird.

Während Unternehmen von KI-Experimenten zur Skalierung übergehen, ist Governance zu einem Anliegen auf Vorstandsebene geworden. Die Herausforderung für Führungskräfte besteht nicht mehr darin, ob Governance wichtig ist, sondern wie sie so gestaltet werden kann, dass sie gleichzeitig Geschwindigkeit, Innovation und Vertrauen ermöglicht.

Um zu ergründen, wie sich dieses Gleichgewicht in der Praxis gestaltet, habe ich mich mit David Meyer, Senior Vice President of Product bei Databricks, unterhalten. Durch die enge Zusammenarbeit mit Kunden aus verschiedenen Branchen und Regionen hat David einen klaren Einblick darin, wo Unternehmen echte Fortschritte machen, wo sie nicht weiterkommen und wie die heutigen Governance-Entscheidungen die Möglichkeiten von morgen gestalten.

Was in unserem Gespräch auffiel, war sein Pragmatismus. Anstatt KI-Governance als etwas Neues oder Abstraktes zu behandeln, kehrte David konsequent zu den Grundprinzipien zurück: Engineering-Disziplin, Transparenz und Verantwortlichkeit.

KI-Governance als Weg, um schneller voranzukommen

Catherine Brown: Sie verbringen viel Zeit mit Kunden aus den verschiedensten Branchen. Was ändert sich daran, wie Führungskräfte über Governance denken, wenn sie für die nächsten ein bis zwei Jahre planen?

David Meyer: Eines der deutlichsten Muster, die ich sehe, ist, dass die Herausforderungen bei der Governance sowohl organisatorischer als auch technischer Natur sind und beide eng miteinander verbunden sind. Auf organisatorischer Seite versuchen Führungskräfte herauszufinden, wie sie es Teams ermöglichen können, schnell zu agieren, ohne Chaos zu verursachen.

Die Unternehmen, die Schwierigkeiten haben, sind tendenziell übermäßig risikoscheu. Sie zentralisieren jede Entscheidung, fügen aufwändige Genehmigungsprozesse hinzu und verlangsamen unbeabsichtigt alles. Ironischerweise führt das oft zu schlechteren Ergebnissen, nicht zu sichereren.

Interessanterweise kann eine starke technische Governance tatsächlich organisatorische Flexibilität freisetzen. Wenn Führungskräfte einen echten Einblick haben, welche Daten, Modelle und Agenten verwendet werden, müssen sie nicht jede Entscheidung manuell kontrollieren. Sie können den Teams mehr Freiheit geben, weil sie verstehen, was im gesamten System passiert. In der Praxis bedeutet das, dass Teams nicht für jedes Modell oder jeden Anwendungsfall um Erlaubnis fragen müssen – Zugriff, Auditing und Updates werden zentral verwaltet, und die Governance erfolgt planmäßig statt ausnahmsweise.

Catherine Brown: Viele Unternehmen scheinen zwischen zu schnellem Vorgehen und vollständiger Abriegelung festzustecken. Wo gelingt es Unternehmen Ihrer Meinung nach, das richtig zu machen?

David Meyer: Ich sehe normalerweise zwei Extreme.

Auf der einen Seite gibt es Unternehmen, die sich als „KI first“ bezeichnen und alle dazu ermutigen, frei zu entwickeln. Das funktioniert eine Zeit lang. Die Leute sind schnell, es herrscht große Begeisterung. Dann blinzelt man, und plötzlich hat man Tausende von Agenten, kein echtes Inventar, keine Ahnung, was sie kosten, und kein klares Bild davon, was tatsächlich in der Produktionsumgebung läuft.

Auf der anderen Seite gibt es Unternehmen, die versuchen, alles im Voraus zu kontrollieren. Sie richten einen einzigen Engpass für Genehmigungen ein, und das Ergebnis ist, dass fast nichts Sinnvolles jemals angewendet wird. Diese Teams haben normalerweise das Gefühl, ständig unter Druck zu stehen, dass sie ins Hintertreffen geraten.

Die Unternehmen, die das gut machen, landen tendenziell irgendwo in der Mitte. Innerhalb jedes Geschäftsbereichs identifizieren sie Personen, die KI-kompetent sind und Experimente vor Ort leiten können. Diese Personen tauschen sich unternehmensweit aus, teilen mit, was funktioniert, und schränken die Auswahl der empfohlenen Tools ein. Der Wechsel von Dutzenden von Tools auf nur zwei oder drei macht einen viel größeren Unterschied, als die Leute erwarten.

Agenten sind nicht so neu, wie sie scheinen

Catherine: Eine Sache, die Sie vorhin gesagt haben, ist mir besonders aufgefallen. Sie meinten, dass Agenten nicht so grundlegend anders sind, wie viele Leute annehmen.

David: Das ist richtig. Agenten fühlen sich neu an, aber viele ihrer Eigenschaften sind eigentlich sehr vertraut.

Sie verursachen kontinuierlich Kosten. Sie vergrößern Ihre Sicherheitsangriffsfläche. Sie stellen Verbindungen zu anderen Systemen her. Das sind alles Dinge, mit denen wir uns schon einmal befasst haben.

Wir wissen bereits, wie man Daten-Assets und APIs steuert, und dieselben Prinzipien gelten auch hier. Wenn man nicht weiß, wo ein Agent existiert, kann man ihn nicht abschalten. Wenn ein Agent auf sensible Daten zugreift, muss jemand dafür verantwortlich sein. Viele Unternehmen gehen davon aus, dass Agentensysteme ein völlig neues Regelwerk erfordern. In Wirklichkeit hat man den größten Teil schon geschafft, wenn man bewährte Lebenszyklus- und Governance-Praktiken aus der Datenverwaltung übernimmt.

Catherine: Wenn eine Führungskraft Sie nach einem einfachen Start fragen würde, was würden Sie ihr sagen?

David: Ich würde mit der Beobachtbarkeit anfangen.

Sinnvolle KI hängt fast immer von proprietären Daten ab. Man muss wissen, welche Daten verwendet werden, welche Modelle involviert sind und wie diese Komponenten zusammenwirken, um Agenten zu bilden.

Viele Unternehmen nutzen mehrere Modellanbieter in verschiedenen Clouds. Wenn diese Modelle isoliert verwaltet werden, wird es sehr schwierig, Kosten, Qualität oder Performance nachzuvollziehen. Wenn Daten und Modelle gemeinsam verwaltet werden, können Teams wesentlich effektiver testen, vergleichen und verbessern.

Diese Beobachtbarkeit ist umso wichtiger, als sich das Ökosystem so schnell verändert. Führungskräfte müssen in der Lage sein, neue Modelle und Ansätze zu bewerten, ohne bei jeder Veränderung ihren gesamten Stack neu aufbauen zu müssen.

Catherine: Wo machen Unternehmen schnelle Fortschritte und wo bleiben sie tendenziell stecken?

David: Wissensbasierte Agenten lassen sich normalerweise am schnellsten aufsetzen. Man verweist sie auf eine Reihe von Dokumenten, und plötzlich können die Leute Fragen stellen und erhalten Antworten. Das ist wirkungsvoll. Das Problem ist, dass viele dieser Systeme mit der Zeit nachlassen. Inhalte ändern sich. Indizes veralten. Die Qualität sinkt. Die meisten Teams planen das nicht ein.

Nachhaltiger Mehrwert bedeutet, über die erstmalige Bereitstellung hinaus zu denken. Man braucht Systeme, die kontinuierlich Daten refresh, Ausgaben bewerten und die Genauigkeit im Laufe der Zeit verbessern. Andernfalls verzeichnen viele Organisationen in den ersten Monaten eine hohe Aktivität, gefolgt von einer rückläufigen Nutzung und Wirkung.

Agentische KI als Engineering-Disziplin behandeln

Catherine: Wie bringen Führungskräfte in der Praxis Geschwindigkeit mit Vertrauen und Kontrolle in Einklang?

David: Die Unternehmen, die dies gut machen, behandeln agentenbasierte KI als ein Engineering-Problem. Sie wenden dieselbe Disziplin an wie bei Software: kontinuierliches Testen, Monitoring und Deployment. Mit Fehlern wird gerechnet. Das Ziel ist nicht, jedes Problem zu verhindern, sondern den Schadensradius zu begrenzen und Probleme schnell zu beheben. Wenn Teams dazu in der Lage sind, arbeiten sie schneller und mit mehr Zuversicht. Wenn nie etwas schiefgeht, sind Sie wahrscheinlich zu konservativ.

Catherine: Wie entwickeln sich die Erwartungen in Bezug auf Vertrauen und Transparenz?

David: Vertrauen entsteht nicht durch die Annahme, dass Systeme perfekt sein werden. Es entsteht dadurch, dass man weiß, was passiert ist, nachdem etwas schiefgegangen ist. Man braucht Nachverfolgbarkeit – welche Daten verwendet wurden, welches Modell beteiligt war, wer mit dem System interagiert hat. Wenn man dieses Maß an Überprüfbarkeit hat, kann man sich mehr Experimente leisten.

So wurden große verteilte Systeme schon immer betrieben. Man optimiert für die Wiederherstellung, nicht für die Fehlerfreiheit. Diese Denkweise wird umso wichtiger, je autonomer KI-Systeme werden.

Eine KI-Governance-Strategie aufbauen

Anstatt agentische KI als einen klaren Bruch mit der Vergangenheit zu betrachten, ist sie eine Erweiterung von Disziplinen, die Unternehmen bereits ausführen. Für Führungskräfte, die darüber nachdenken, was als Nächstes wirklich zählt, kristallisieren sich drei Themen heraus:

  • Nutzen Sie Governance, um Geschwindigkeit zu ermöglichen, anstatt sie einzuschränken. Die stärksten Unternehmen etablieren grundlegende Kontrollen, damit Teams schneller agieren können, ohne Transparenz oder Verantwortlichkeit einzubüßen.
  • Wenden Sie vertraute Engineering- und Datenpraktiken auf Agenten an. Inventarisierung, Lifecycle-Management und Rückverfolgbarkeit sind für Agenten genauso wichtig wie für Daten und APIs.
  • Behandeln Sie KI als ein Produktionssystem, nicht als einen einmaligen Start. Nachhaltiger Wert hängt von kontinuierlicher Bewertung, aktuellen Daten und der Fähigkeit ab, Probleme schnell zu erkennen und zu beheben.

Zusammengenommen deuten diese Ideen auf eine klare Erkenntnis hin: Dauerhafter KI-Wert entsteht nicht durch die Jagd nach den neuesten Tools oder das Abschotten von allem, sondern durch den Aufbau von Grundlagen, die es Unternehmen ermöglichen, zu lernen, sich anzupassen und zuversichtlich zu skalieren.

Um mehr über den Aufbau eines effektiven Betriebsmodells zu erfahren, laden Sie das Databricks AI Maturity Model herunter.

 

(Dieser Blogbeitrag wurde mit KI-gestützten Tools übersetzt.) Originalbeitrag

Verpassen Sie keinen Beitrag von Databricks

Abonnieren Sie unseren Blog und erhalten Sie die neuesten Beiträge direkt in Ihren Posteingang.

Was kommt als Nächstes?

Thumbtack Powering Safe, Smart Home Services on Databricks with GenAI

Líder de dados

January 9, 2026/5 min de leitura

Thumbtack impulsionando serviços domésticos seguros e inteligentes no Databricks com IA generativa

How 7‑Eleven Transformed Maintenance Technician Knowledge Access with Databricks Agent Bricks

Insights

January 9, 2026/6 min de leitura

Como a 7‑Eleven transformou o acesso ao conhecimento dos técnicos de manutenção com o Databricks Agent Bricks