KI wird in Arbeitsabläufe, Kundeninteraktionen und unternehmerische Entscheidungen in allen Organisationen eingebettet. Für Vorstände und CEOs verändert dieser Wandel das Gespräch. Die zentrale Frage lautet nicht mehr „Wie schnell können wir KI einführen?“, sondern vielmehr: „Können wir sie gut genug steuern, um ihr im großen Scale zu vertrauen?“
Lexy Kassan, eine leitende Technologieführerin, die bei Databricks für die KI-Strategie und Governance von Unternehmen verantwortlich ist, bringt umfassende Erfahrung an der Schnittstelle von Daten, KI und Geschäftstransformation mit. Ihre Perspektive basiert nicht auf Theorie, sondern auf der Realität des Einsatzes von generativen und agentenbasierten Systemen in großen Organisationen – wo Ton, Voreingenommenheit, Monitoring und Verantwortlichkeit keine abstrakten Risiken, sondern betriebliche Anforderungen sind.
Es folgt ein Gespräch darüber, warum Governance eine Voraussetzung für die Skalierung hochwertiger Unternehmens-KI ist.
Catherine Brown: Wenn Führungskräfte sagen, dass sie sich mit „KI-Governance“ beschäftigen, was missverstehen sie dann darüber, was es tatsächlich bedeutet, den Scale von KI in die Produktion zu bringen?
Lexy Kassan: Wenn ich höre, wie Unternehmen an die KI-Governance herangehen, wird es normalerweise zu einem Unterfangen wie: „Wir haben eine Richtlinie, wir haben eine Reihe von dokumentierten Prozessen und wir haben Leute, die Dinge genehmigen.“ Solange jemand die Kästchen angekreuzt und die Schritte durchlaufen hat, ist alles in Ordnung.“
Realistisch gesehen beeinflusst Governance KI-Initiativen sowohl in der Entwicklungsphase als auch beim nachhaltigen Erfolg bei Scale. Eine starke Governance führt zu einer KI in der Produktion, der vertraut wird und die sich wie vorgesehen weiter verbessert und das Unternehmen unterstützt. Scale kommt nicht durch Genehmigungen zustande. Scale entsteht durch den kontinuierlichen Betrieb von KI. Und dafür braucht es viel mehr als nur das Daten- und KI-Team.
KI-Governance für Vertrauen auf Scale erfordert drei Dinge: Kommunikation, Kollaboration und Iteration. Kommunizieren Sie Expectations sowohl aus der Perspektive von Richtlinien und Risikominderung als auch von Geschäftsabsichten und -anwendungen. Arbeiten Sie mit Fachexperten, technischen Experten, Risiko- und Sicherheitsexperten und anderen zusammen, um Bedenken auszuräumen und vertrauenswürdige Systeme zu schaffen. Und iterieren Sie im Laufe der Zeit, um KI-Systeme relevant, vertrauenswürdig und wertvoll zu halten.
Catherine: Ab welchem Punkt ist KI-Governance kein Compliance-Thema mehr, sondern wird zu einer operativen Anforderung für das Unternehmen?
Lexy: Governance hat in den letzten Jahren eine Transformation durchlaufen, insbesondere aufgrund von KI. Vor fünf oder zehn Jahren wurde Governance oft als Risikominderung und Compliance verstanden. Sie wurde fast als das Gegenteil von Innovation angesehen. Heute wird Governance besser in ihrer wahren Form verstanden: als Wegbereiter für die Wertrealisierung. Ohne Governance ist es sehr schwierig, Daten oder KI zu vertrauen. Und ohne Vertrauen nutzt sie niemand. Und aus der Nutzung entsteht der Wert.
Wenn niemand Ihrer KI vertraut, haben Sie Ressourcen investiert und keinen Nutzen daraus gezogen.
Governance ist also bereits eine Voraussetzung, wenn Sie eine breite Akzeptanz und einen Betrieb auf Scale anstreben.
Catherine: Was passiert, wenn Unternehmen KI einfach in ihre bestehenden Überprüfungsprozesse integrieren, anstatt das Betriebsmodell neu zu gestalten?
Lexy: An dieser Stelle kommt es tendenziell zu einem übermäßigen Einsatz von Prozessen.
Unternehmen sagen: „Anstatt einen reibungsloseren Weg für KI zu finden, nehmen wir einfach unsere bestehenden Prozesse – Datenschutzprüfungen, Architekturprüfungen, Sicherheitsprüfungen – und fügen ihnen noch mehr hinzu.“ Am Ende hat man unzusammenhängende Ausschüsse, die sich vielleicht einmal im Monat treffen. Man legt KI auf eine langsame Governance, anstatt die Governance für KI neu zu gestalten.
Wenn es sechs Monate dauert, bis etwas genehmigt wird, und sich die KI-Fähigkeiten monatlich weiterentwickeln, sind Sie strukturell darauf ausgelegt, ins Hintertreffen zu geraten. Governance sollte nicht mehr Overhead bedeuten. Es sollte bedeuten, einen geebneten Weg zu identifizieren – eine Architektur und ein Framework, das bereits Risiken mindert, sodass Sie nicht jedes Mal bei Null anfangen müssen.
Catherine: Wie verändert sich das Gespräch über Governance, wenn KI-Systeme von der Generierung von Erkenntnissen zur Ausführung von Aktionen durch Agenten und Anwendungen übergehen?
Lexy: Wenn wir darüber nachdenken, KI in einen Prozess zu integrieren, denken wir oft an ein Kontinuum von Kontrolle zu Vertrauen. Auf der einen Seite gibt es vollständig von Menschen kontrollierte Prozesse. Auf der anderen Seite gibt es vollständig automatisierte, agentenbasierte Systeme. Wenn KI von der Gewinnung von Erkenntnissen zur Ergreifung von Maßnahmen übergeht, ändern sich die Risiken. Man gibt mehr Kontrolle ab und muss daher in der Lage sein, dem System mehr Vertrauen zu schenken.
Um das für agentenbasiertes Handeln erforderliche Maß an Vertrauen zu erreichen, muss der größte Teil der Verantwortung für die KI-Governance auf die Fachexperten aus dem Geschäftsbereich verlagert werden. Ein gestufter Ansatz für Tests, Feedback, die Entwicklung von Leitplanken und die Evaluierung hilft dabei, Vertrauen aufzubauen, dass die Agenten in der überwiegenden Mehrheit der Fälle angemessen agieren. Und diese Verantwortung setzt sich in der Produktion fort, wo zusätzliches Feedback und Prompt-Engineering die Systeme auf Kurs halten.
Das deckt die Inhalts- und Handlungsseite ab – aber was ist mit dem technischen Teil? Hier werden System-Fallback-Mechanismen, Resilienz und Robustheit entscheidend. Was passiert, wenn die KI ausfällt? Was passiert, wenn man ein Modell neu trainieren oder eine Kette refaktorisieren muss? Governance umfasst die Planung für solche Szenarien. Worauf wird zurückgegriffen? An wen wird es übergeben? Wie sieht das aus?
Catherine: Welche Entscheidungen müssen Führungsteams im Voraus über Verantwortlichkeit, Eskalationspfade und menschliche Aufsicht treffen, bevor die KI in die Produktion geht?
Lexy: Zunehmend sehen wir, dass Unternehmen Agenten fast wie Mitarbeiter betrachten. Es gibt Unternehmen, die Agenten in Workforce-Management-Tools einsetzen, sie Managern zuweisen und die Manager für deren Performance zur Rechenschaft ziehen. Man kann das Performance-Management-Denken auf Agenten genauso anwenden wie auf einen menschlichen Mitarbeiter. Wie gut ist ihre Leistung? Bleibt sie innerhalb der Grenzen? Erzielt er die Ergebnisse, für die er entwickelt wurde? Es ist in gewisser Weise einfacher, Agenten zu korrigieren – man kann Anweisungen ändern oder Modelle neu trainieren –, aber es ist auch anders. Agenten haben nicht die gleichen Motivationen wie Menschen.
Führungsteams müssen entscheiden, wie die Performance gemessen wird, wie Vertrauen bewertet wird und was erforderlich ist, um etwas aus der Produktion zu nehmen – und was erforderlich ist, um es wieder einzusetzen. Vertrauen ist leicht zu verlieren und viel schwerer wieder aufzubauen. Das gilt für KI genauso wie für Menschen.
Catherine: Welche Muster zeichnen über die Unternehmen hinweg, mit denen Sie zusammenarbeiten, Teams aus, die verantwortungsvolle KI-Scale erreichen und sich dabei trotzdem schnell weiterentwickeln?
Lexy: Das Erste ist der gepflasterte Weg, von dem ich vorhin gesprochen habe. Sie kommen an einen Punkt, an dem sie nicht jedes Mal über die Technologie diskutieren müssen. Sie haben eine gesteuerte Architektur mit integrierter Nachverfolgbarkeit, Auditierbarkeit und Rechenschaftspflicht. Das ermöglicht es ihnen, schnell voranzukommen, da die Leitplanken bereits vorhanden sind.
Der zweite Punkt ist, Fachexperten aus dem Geschäftsbereich direkt in den Prozess einzubeziehen. Die Skalierung erfolgt am schnellsten, wenn es kein ständiges Hin und Her zwischen Geschäfts- und Technologieteams gibt, die Anforderungen übersetzen. Der Geschäftsbereich bringt den Kontext ein – wie ein gutes Ergebnis aussieht, was gültig ist und was nicht.
Bei Governance geht es nicht mehr nur um die Technologen. Es geht darum, dass Wirtschaft und Technologie unter einem gemeinsamen Rahmen zusammenkommen.
Catherine: Wie sollten Führungskräfte über Vertrauen nachdenken – als etwas, das gestaltet, gemessen und verwaltet werden muss – sowohl intern als auch gegenüber Kunden?
Lexy: Vertrauen ist schwer direkt zu messen. Also verlassen wir uns auf Näherungswerte. Wir messen Datenqualität, System-Performance, Akzeptanz und Nutzung. Wir bewerten, ob das System innerhalb definierter Grenzen bleibt und akzeptable Ergebnisse liefert.
Man kann es sich wie das Performance-Management für eine Person vorstellen. Wie sehr verlassen sich andere auf sie? Wie produktiv sind sie? Wie konstant erfüllen sie die Expectations?
Vertrauen selbst mag schwer zu quantifizieren sein, aber Performance, Konsistenz und die Einhaltung von Standards sind messbar. Im Laufe der Zeit helfen diese Messungen, Vertrauen aufzubauen.
Catherine: Wenn ein CEO Sie nach einer konkreten Änderung fragen würde, die in den nächsten 90 Tagen umgesetzt werden soll, um sicherzustellen, dass die KI-Governance tatsächlich greift, was würden Sie empfehlen?
Lexy: Stellen Sie sicher, dass es Feedback gibt – sei es bei der Nutzung oder beim Verständnis, warum etwas nicht genutzt wird. Wenn Menschen mit KI interagieren, geben sie dann Feedback zur Qualität der Ergebnisse? Bewerten sie die Ergebnisse? Und wenn niemand direkt damit interagiert, müssen wir diese Ergebnisse trotzdem bewerten. Wer ist Teil dieses Überprüfungszyklus?
Governance setzt sich durch, wenn Feedback zu sinnvollen Veränderungen führt. Wenn Menschen sehen, dass ihr Input das System und ihre eigene Arbeitsweise verbessert, bringen sie sich ein.
Und stellen Sie letztendlich sicher, dass Sie auf Wertschöpfung priorisieren. Bauen Sie, was es wert ist, gebaut zu werden. Dann etablieren Sie diesen geebneten Weg, damit es einfacher wird, zur nächsten wertvollen KI-Initiative Ja zu sagen.
KI-Governance wird oft als Kontrollmechanismus verstanden. In der Praxis ist es eine operative Disziplin. Bei der Skalierung von KI geht es nicht darum, mehr Prüfungsausschüsse oder mehr Dokumentation hinzuzufügen. Es geht darum, Leitplanken in die Architektur einzubetten, Feedbackschleifen zu etablieren und Systeme zu entwerfen, denen man langfristig vertrauen kann.
Für Führungsteams ist die Erkenntnis einfach: Governance ist nicht das, was KI verlangsamt, sondern eine schlecht konzipierte Governance tut es. Wenn Governance in die Plattform integriert, auf die Geschäftsverantwortung abgestimmt und durch Messung und Feedback verstärkt wird, wird sie zur Voraussetzung, die eine verantwortungsvolle – und nachhaltige – Scale von KI ermöglicht.
Lesen Sie den Databricks-Bericht Delivering a Secure Data and AI Strategy, um zu erfahren, wie führende Unternehmen Governance, Sicherheit und Vertrauen direkt in ihre KI-Betriebsmodelle einbetten.
(Dieser Blogbeitrag wurde mit KI-gestützten Tools übersetzt.) Originalbeitrag