Direkt zum Hauptinhalt

Banken haben kein KI-Problem – sie haben ein Datenplattform-Problem

Warum KI im Bankwesen ins Stocken gerät und wie Datenplattformen skalierbare, gesteuerte KI in der Produktion ermöglichen

Blog post CBA Live recap

Veröffentlicht: 17. April 2026

Finanzdienstleistungen8 min Lesezeit

Summary

  • Banken verfügen über reichhaltigere Kundendaten als fast jede andere Institution, aber fragmentierte Systeme und schwache Governance verhindern, dass KI über Pilotphasen hinaus in die Produktion übergeht.
  • CBA Live 2026 zeigte ein konsistentes Muster in den Bereichen Risiko, Inkasso und Kundenbeziehungsmanagement: Der limitierende Faktor ist nicht die KI-Fähigkeit, sondern die Daten- und Governance-Grundlage, die zur Unterstützung erforderlich ist.
  • Die Databricks Lakehouse, Unity Catalog und Agent Bricks adressieren direkt die Herausforderungen bei Datenqualität, Modellüberwachung, Echtzeitpersonalisierung und agentischer KI, mit denen Banken heute zu kämpfen haben.

Unter dem Motto „Fortschritte machen“, brachte die CBA Live 2026 mehrere hundert Führungskräfte aus dem Retail-Banking zusammen, die sich darauf konzentrierten, Komplexität zu durchdringen und Innovationen voranzutreiben.

Aber in jeder Sitzung – Risiko, Compliance, Inkasso und Einlagenwachstum – tauchte immer wieder das gleiche zugrunde liegende Thema auf:

KI-Innovationen skalieren nicht ohne eine starke Daten- und Governance-Grundlage.

Unter den Demos und Roadmaps zeigte sich ein gemeinsames Muster. Die Banken, die wirkliche Fortschritte machen, sind nicht diejenigen mit der glänzendsten KI.

Es sind diejenigen mit den saubersten, am besten gesteuerten und aktuellsten Datenbeständen.

Das Szenario, das den Ton angab:

Die Keynote von CBA-Präsidentin Lindsay Johnson beschrieb ein Konsumerlebnis der nahen Zukunft, das einfach und unvermeidlich klang.

Ein Konsument wacht am Zahltag auf. Bis sie nach ihrem Handy greift, ist alles bereits erledigt: Rechnungen bezahlt, Ersparnisse zugewiesen, Abonnements erneuert, sogar eine Überweisung ins Ausland getätigt.

Keine Apps. Keine Logins. Keine Entscheidungen zu treffen.

Ein KI-Agent hat alles erledigt.

Das ist die Zukunft, auf die Banken hinarbeiten.

Aber hier ist die unbequeme Frage, die auf der Bühne nicht gestellt wurde:

Was müsste in einer Bank vorhanden sein, damit dieses Erlebnis tatsächlich funktioniert?

Denn dies ist nicht nur ein besseres digitales Erlebnis. Es ist ein grundlegend anderes Betriebsmodell. Eines, bei dem externe Agenten in Echtzeit, über Produkte hinweg, mit vollem Kontext und null Toleranz für Inkonsistenz oder Verzögerungen mit Ihren Systemen interagieren.

Und für die meisten Institute zeigt sich hier die Lücke.

Nicht in der Ambition oder den Modellen, die sie bauen, sondern in der Datenbasis, die erforderlich ist, um sie zu realisieren.

Was wir in den Sitzungen gehört haben:

In den verschiedenen Sitzungen variierten die spezifischen Datenherausforderungen je nach Funktion, aber das zugrunde liegende Thema war konsistent.

KI-Risiko & Compliance: Die Governance-Lücke ist real

Referenten von mehreren Institutionen sprachen darüber, wie Modelldrift – die stille Verschlechterung eines KI-Modells, wenn sich die reale Population, auf der es trainiert wurde, verschiebt – eines der am meisten unterschätzten Risiken im Banken-KI-Bereich ist. Ein Kreditscoring-Modell, das auf einem durchschnittlichen FICO-Score von 750 trainiert wurde, kann leise versagen, wenn sich die Bewerbermischung auf 650 verschiebt. Sie benötigen automatisierte Auslöser, die dies kontinuierlich überwachen. Die meisten Banken haben diese nicht.

Die Datenqualitätsdisziplin, die für die KI-Governance erforderlich ist, ist auch anspruchsvoller, als viele Compliance-Teams erwartet haben. Die interne Revision muss nun die Datenherkunft unabhängig prüfen und nicht nur die Zusicherungen der Geschäftsbereiche akzeptieren. Die Aufsichtsbehörde wird nicht akzeptieren, dass „der Fintech-Partner das Modell besitzt“ als Antwort.

Beziehungsbanking: Die reichhaltigsten Daten der Branche, ungenutzt

Mehrere Sitzungen machten die gleiche Beobachtung: Banken verfügen über reichhaltigere Kundendaten als fast jede andere Institution – mehr als ein Arzt, mehr als ein Finanzberater. Sie wissen über Fitnessstudio-Mitgliedschaften, wiederkehrende medizinische Zahlungen, Ausgabenschwankungen und Muster bei Einzahlungen vom Arbeitgeber Bescheid. Aber die meisten dieser Erkenntnisse sind fragmentiert über Systeme verteilt, die nicht in Echtzeit miteinander kommunizieren.

Die Reibungsverluste, die dies verursacht, sind real. Ein Referent beschrieb das Ziel, einen Kunden so gut zu kennen, dass man erkennt, dass er seine Steuern noch nicht eingereicht hat – und diese Erkenntnis genau im richtigen Moment proaktiv zu vermitteln. Eine solche Personalisierung erfordert Daten, die sauber, vereinheitlicht und in Echtzeit zugänglich sind. Es ist kein Produktmerkmal, das man nachträglich anbringen kann.

Ausfallmanagement: Die Grundlage ist entscheidend

Eine Sitzung über KI im Inkasso beschrieb, was möglich ist, wenn die Datenbasis stimmt. Vorhersage mit 85%iger Genauigkeit, wie viele Tage ein neu überfälliges Konto zur Tilgung benötigt – beginnend ab Tag 1 der Überfälligkeit. Ein solches Frühsignal ändert die Art und Weise, wie Sie Inkassoressourcen zuweisen, vollständig.

Dazu sind nicht nur interne Kontodaten erforderlich, sondern auch die Fähigkeit, digitale Engagement-Signale (hat der Kunde die Website besucht, ohne zu bezahlen?), Daten zur Kreditbüro-Migration, Einzahlungsverhalten und historische Lösungs­muster zu verknüpfen – alles auf eine gesteuerte, prüfbare Weise. Die Institutionen, die dies gut machen, haben zuerst die Dateninfrastruktur aufgebaut. Die KI-Fähigkeit folgte.

Front-Line KI: KI, die auf generischen Modellen basiert, verfällt

Die Bank of America-Sitzung über Erica war eine Meisterklasse darin, wie produktive KI im großen Maßstab tatsächlich aussieht. Erica hat seit ihrer Einführung im Jahr 2018 über 3,2 Milliarden Kundeninteraktionen bearbeitet und im Laufe der Zeit Tausende von Änderungen vorgenommen. Die Lektion aus acht Jahren produktiver KI war klar: Dies ist keine Technologie, die man einmal einrichtet und vergisst. Sie erfordert kontinuierliche Datenabstimmung, kontinuierliche Überwachung und ein Team, dessen gesamte Aufgabe es ist, die Randfälle zu lesen und das Modell zu aktualisieren.

Eine andere Sitzung bekräftigte dies aus einem anderen Blickwinkel: Mitarbeiter im Kontaktzentrum der meisten Banken wechseln zwischen 10 bis 15 Anwendungen, um eine einzige Kundenfrage zu beantworten. Die KI-Agenten, die dieses Problem lösen werden, sind diejenigen, die auf den eigenen Daten der Bank basieren. Nicht auf generischen LLMs, sondern auf Tools, die auf den Richtlinien, Produkten und Kundenbeziehungen der Bank trainiert sind.

Bericht

Das Playbook für agentenbasierte KI für Unternehmen

Der Realitätscheck des Anbieters:

Eine der denkwürdigsten Sitzungen war eine offene Bewertung der KI-Anbieterlandschaft. Ein Sprecher, der die KI-Strategie bei einer großen Institution geleitet hatte, teilte eine Erkenntnis aus einer groß angelegten Anbieterprüfung mit: Von mehreren tausend Anbietern, die derzeit KI-Fähigkeiten beanspruchen, verfügen nur etwa 5 % über echte KI im Produkt. Der Rest bezeichnet Robotic Process Automation oder Standardautomatisierungslogik als KI.

Die praktische Anleitung für Käufer von Bankentechnologie lautet, spezifisch zu werden. Fragen Sie, wie der Anbieter seine KI-Fähigkeiten entwickelt hat. Fragen Sie, welche LLM-Orchestrierung sie verwenden. Fragen Sie, ob sie eine vollständige API- und MCP-Abdeckung haben. Fragen Sie, wie ihr Geschäft in drei Jahren aussehen wird, wenn die Workflow-Automatisierung zur Ware wird. Wenn sie diese Fragen nicht spezifisch beantworten können, haben Sie Ihre Antwort.

Warum das wichtig ist und wo wir es funktionieren sehen:

Die Themen, die auf der CBA Live zur Sprache kamen, waren nicht neu. Sie spiegeln die gleichen Herausforderungen wider, die wir in laufenden Gesprächen mit Bankkunden sehen – fragmentierte Datenumgebungen, eingeschränkte Governance und KI-Initiativen, die Schwierigkeiten haben, über Pilotphasen hinaus in die Produktion zu gelangen.

Dies bestätigt ein Muster, das sich in den Institutionen, mit denen wir täglich zu tun haben, immer wieder zeigt: Der limitierende Faktor ist nicht die KI-Fähigkeit, sondern die zugrunde liegende Daten- und Governance-Grundlage, die zur Unterstützung erforderlich ist.

Lassen Sie uns die gehörten Themen mit der Art und Weise verbinden, wie Databricks sie adressiert:

Das Problem der Datenbasis

Banken haben Schwierigkeiten, KI zu skalieren, weil Kunden-, Risiko- und Produktdaten fragmentiert und inkonsistent sind. Der Databricks Lakehouse zentralisiert Batch- und Streaming-Daten, während Unity Catalog eine Governance-Schicht (Berechtigungen, Herkunft und Klassifizierung) hinzufügt, sodass jedes Team von derselben vertrauenswürdigen Ansicht ausgeht.

Mit Lakeflow können Banken Daten zuverlässig in kuratierte Schichten aufnehmen und transformieren, anstatt auf brüchige Punkt-zu-Punkt-Pipelines angewiesen zu sein. Lakebase erweitert diese Grundlage dann auf transaktionale Workloads, was eine vollständig verwaltete Postgres-Engine in dieselbe gesteuerte Plattform integriert, sodass operative Anwendungen und KI-Agenten Daten mit Analysen teilen können, ohne eine separate, undurchsichtige OLTP-Umgebung zu schaffen.

Das Problem des Modelldrifts und der Überwachung

Unter Anleitungen wie SR 11-7 erwarten die Regulierungsbehörden nun ein vollständiges Lebenszyklus-Risikomanagement für Modelle. Nicht nur die anfängliche Validierung, sondern auch die kontinuierliche Überwachung, die Erkennung von Drift und die periodische Neubewertung für wesentliche Modelle.

Auf Databricks verfolgen MLflow und das Model Registry Experimente und genehmigte Versionen, während Model Monitoring und Delta Lake Vorhersagen, Eingaben und Ergebnisse im Laufe der Zeit erfassen. Dies macht die Validierung im Stil von SR 11-7 und die laufenden Leistungsprüfungen zu einem Standardbestandteil der Plattform, anstatt zu einer Sammlung von Skripten und Tabellenkalkulationen. Für Modelle mit hoher Auswirkung, wie diejenigen, die überfällige Vorhersagen oder Betrugs­segmentierungen steuern, werden diese Funktionen schnell zum Standard und nicht zu „fortgeschrittenen“ Funktionen.

Das Problem der Echtzeit-Personalisierung

Um Kunden „im Moment“ zu binden, benötigen Banken aktuelle Funktionen mit geringer Latenz, nicht nur nächtliche Aggregate. Der Databricks Online Feature Store liefert vorab berechnete Features (Affinität, Risikokennzeichen, Segmente) in Millisekunden, während Lakebase den neuesten operativen Kontext, wie z. B. aktuelle Transaktionen, innerhalb derselben Governance-Grenze bereitstellt.

Ein typischer Ablauf wäre ein Ereignis (Kartenzahlung, App-Anmeldung, Anruf), das einen Entscheidungsdienst auslöst, der Features aus dem Online Feature Store liest, den Lakebase-Kontext hinzufügt und eine nächstbeste Aktion konsistent über Kanäle hinweg zurückgibt. Für Mitarbeiter im Kundenservice Genie stellt dieselben gesteuerten Daten und Metriken über natürliche Sprache bereit, sodass Banker und Agenten Fragen stellen können wie „Wie ist der 90-Tage-Einlagentrend dieses Kunden?“ ohne Tickets oder Ad-hoc-Extraktionen, während Unity Catalog Richtlinien und Datenherkunft darunter durchsetzt.

Das Problem der Agentic AI

Agentic AI im Bankwesen bedeutet Agenten, die eingeschränkte Aktionen ausführen können, wie z. B. die Vorantreibung eines Inkassovorgangs, das Einleiten von KYC-Schritten oder die Orchestrierung von Serviceanrufen unter strengen Leitplanken und Aufsicht.

Auf Databricks orchestrieren Agent Bricks diese Agenten und Tool-Aufrufe. Databricks Apps hosten die sicheren Benutzeroberflächen und Workflows, in die sie integriert sind. Lakehouse + Unity Catalog steuert, welche Daten Agenten sehen können, mit vollständiger Datenherkunft und Audit-Protokollen. Der Online Feature Store liefert ihnen Echtzeit-Verhaltens- und Risikosignale, und Lakebase dient als ihr operativer Zustandsspeicher für Lese-/Schreibvorgänge mit geringer Latenz, alles innerhalb desselben Sicherheits- und Governance-Perimeters.

Dadurch können Banken agentic Workflows auf einer Plattform skalieren, die jede Aktion protokolliert und erklärbar und nachvollziehbar bleibt.

Das Problem der Erklärbarkeit und Compliance

Regulierungsbehörden interessiert weniger, wie „fortschrittlich“ ein Modell ist, als vielmehr, ob die Bank dessen Nutzung erklären, steuern und nachweisen kann.

Databricks löst dies, indem Governance und Datenherkunft zu erstklassigen Funktionen gemacht werden.

Unity Catalog vereinheitlicht Berechtigungen, Datenherkunft und Audit-Historie über Daten-, Feature- und Modellartefakte hinweg. Delta Lake und Databricks SQL bieten versionierte, reproduzierbare Pipelines und MLflow Model Registry + Model Monitoring erfassen Modellversionen, Genehmigungen und Leistung/Drift im Laufe der Zeit.

Dies gibt Banken eine vollständige, rekonstruierbare Aufzeichnung darüber, wie Daten fließen, wie Modelle erstellt und validiert wurden und wie sie Entscheidungen beeinflusst haben, wodurch Erklärbarkeit und Compliance zu einem Wegbereiter für eine schnellere, sicherere und verantwortungsvollere KI-Bereitstellung werden.

Fazit:

Banken haben kein KI-Problem; sie haben ein Datenplattform-Problem.

Das Muster ist klar: Punktlösungen zeigen frühe Versprechungen, aber ohne eine starke, gesteuerte Datenbasis geraten sie ins Stocken. Die Institutionen, die echte Ergebnisse erzielen, sind diejenigen, die zuerst in die Plattform investiert haben, wodurch jede KI-Anwendung schneller bereitgestellt, leichter zu vertrauen und für Regulierungsbehörden nachvollziehbar wird. Die Plattform ist keine nachfolgende Entscheidung; sie ist der Ausgangspunkt

Fragen, die es wert sind, mit Ihrem Team zu besprechen:

  • Haben wir eine einzige, gesteuerte Quelle der Wahrheit, oder arbeiten Teams mit unterschiedlichen Datenversionen?
  • Wie schnell erkennen wir, wenn ein Modell in der Produktion fehlerhaft ist?
  • Können wir heute eine KI-gesteuerte Entscheidung Ende-zu-Ende einem Regulierungsbehörde erklären?

Wenn die Antworten nicht klar sind, ist die nächste Investition nicht eine weitere Anwendung – es ist die Grundlage.

  • Erfahren Sie, wie Databricks Banken hilft, Daten, Governance und KI in großem Maßstab zu vereinheitlichen
  • Entdecken Sie reale Bankanwendungen Anwendungsfälle und Architekturen
  • Kontaktieren Sie unser Team, um Ihre Datenplattformstrategie zu besprechen

Haftungsausschluss: Wir haben an der CBA Live 2026 in San Diego teilgenommen. Die Beobachtungen in diesem Beitrag sind unsere eigenen und stammen aus besuchten Sitzungen und geführten Gesprächen während der Konferenz.

(Dieser Blogbeitrag wurde mit KI-gestützten Tools übersetzt.) Originalbeitrag

Never miss a Databricks post

Subscribe to our blog and get the latest posts delivered to your inbox