Direkt zum Hauptinhalt

Datenbankmodellierung: Ein praktischer Leitfaden zu Techniken und Best Practices

Erlernen Sie die Phasen, Modelle und Best Practices eines effektiven Datenbankdesigns

von Databricks-Mitarbeiter

  • Datenbankmodellierung ist der Prozess der Definition der Struktur, Beziehungen und Einschränkungen einer Datenbank vor Beginn der Implementierung. Sie dient als Blaupause, die Teams hilft, sich auf Anforderungen zu einigen und kostspielige Designfehler zu vermeiden.
  • Der Modellierungsprozess durchläuft drei Phasen – konzeptionell, logisch und physisch – und entwickelt sich von der High-Level-Entitätszuordnung zu einem vollständig optimierten, plattformspezifischen Schema, das für die Implementierung bereit ist.
  • Die Wahl des richtigen Datenbankmodells bedeutete früher die Wahl zwischen relationalen, NoSQL oder dimensionalen Modellen, aber moderne Lakehouse-Plattformen wie Databricks Lakebase vereinfachen diese Entscheidung, indem sie es Teams ermöglichen, transaktionale und analytische Workloads auf einer einzigen, einheitlichen Plattform auszuführen, ohne den Kompromiss erzwingen zu müssen.

Die Datenbanklandschaft verändert sich. Jahrzehntelang mussten Teams zwischen Systemen für Transaktionen, Analysen und flexible Datenstrukturen wählen. Diese Trennung prägte, wie Organisationen Anwendungen und Datenarchitekturen aufbauten.

KI-Agenten und Echtzeitanwendungen lassen die Grenzen zwischen transaktionalen und analytischen Workloads verschwimmen. Da diese Systeme immer leistungsfähiger werden, sind die Entscheidungen, die in der Modellierungsphase getroffen werden, wichtiger denn je. Ein gut strukturiertes Schema kann bestimmen, was nachgelagerte Analysen, BI und maschinelles Lernen tatsächlich mit den Daten tun können.

Datenbankmodellierung ist der Prozess der Definition von Struktur, Beziehungen und Einschränkungen, bevor eine Datenbank erstellt wird. Sie liefert den Bauplan, der Systeme kohärent hält, egal ob sie OLTP-Workloads bedienen, Dashboards betreiben oder Feature-Pipelines speisen. Modellierung ist, wie Teams sicherstellen, dass Daten konsistent, interpretierbar und skalierbar bleiben, während sich das System weiterentwickelt.

Es ist erwähnenswert, dass die Datenbankmodellierung Teil des breiteren Bereichs der Datenmodellierung ist, der konzeptionelle Domänenmodellierung, semantische Schichten, Governance und analytisches Design umfasst. (Für einen tieferen Überblick über diese breitere Disziplin siehe den Databricks-Leitfaden zur Datenmodellierung.) Dieser Blog konzentriert sich auf die wichtigsten Phasen des Datenbankmodellierungsprozesses, Best Practices und häufige Fehler sowie darauf, wie der Prozess in modernen, Cloud-nativen Umgebungen abläuft.

Der Datenbankdesignprozess

Konzeptionelles Design

Die Phase des konzeptionellen Designs für den Aufbau einer Datenbank legt deren Grundlage fest. In dieser Phase liegt der Schwerpunkt auf der Identifizierung der realen Datenpunkte, die für die Organisation wichtig sind, wie z. B. Kunden, Bestellungen, Produkte oder Konten, und der Definition, wie sie miteinander in Beziehung stehen. Diese Entitäten und Beziehungen helfen Stakeholdern aus der Wirtschaft, Analysten und technischen Teams, sich darauf zu einigen, was die Datenbank leisten muss.

Konzeptionelles Design vermeidet technische Details. Stattdessen liegt der Schwerpunkt auf Genauigkeit und Klarheit: Erfassung der wesentlichen Struktur der Geschäftsdomäne auf eine Weise, die leicht zu diskutieren und zu validieren ist. Dies macht konzeptionelle Modelle ebenso zu einem Kommunikationswerkzeug wie zu einem Designartefakt, das Teams hilft, Lücken aufzudecken, Mehrdeutigkeiten zu beseitigen und sicherzustellen, dass das Datenmodell widerspiegelt, wie das Geschäft tatsächlich funktioniert.

Das primäre Ergebnis dieser Phase ist ein konzeptionelles Entity-Relationship-Diagramm (ERD) oder eine einfache Entitätskarte. Ein starkes konzeptionelles Design liefert den Bauplan für die detailliertere Modellierungsarbeit, die folgt.

Logisches Design

Die Phase des logischen Designs fügt dem konzeptionellen Modell Struktur und Präzision hinzu, während sie unabhängig von einer bestimmten Datenbanktechnologie bleibt. In dieser Phase wird jede Entität zu einem vollständig definierten Datenobjekt erweitert, einschließlich Attributen, Datentypen und Einschränkungen. Designer identifizieren Primärschlüssel, die jeden Datensatz eindeutig identifizieren, und Fremdschlüssel, die die referentielle Integrität zwischen verwandten Entitäten herstellen. Die Kardinalität von Beziehungen – eins zu eins, eins zu viele oder viele zu viele – wird explizit abgebildet, um widerzuspiegeln, wie die Daten in der realen Welt funktionieren.

In dieser Phase beginnen auch die Normalisierungsprinzipien, das Modell zu gestalten. Redundante Attribute werden entfernt, zusammengesetzte Felder werden in ihre verschiedenen Komponenten zerlegt und Beziehungen werden neu organisiert, um Anomalien zu reduzieren und die Datenqualität zu verbessern. Ziel ist es, eine logische Struktur zu schaffen, die intern konsistent, skalierbar und auf die analytischen und operativen Bedürfnisse der Organisation abgestimmt ist.

Auch mit diesen zusätzlichen Details bleibt das logische Modell technologieunabhängig. Es geht nicht von einer bestimmten Datenbank-Engine oder einem Speichersystem aus. Stattdessen definiert es die Daten auf eine Weise, die über mehrere Systeme hinweg implementiert werden kann. Das Ergebnis ist ein detailliertes ERD – einschließlich Entitäten, Attributen, Schlüsseln und Beziehungen –, das bereit ist, in ein physisches Schema übersetzt zu werden.

Physisches Design

Physisches Design transformiert das logische Modell in eine spezifische Implementierung, die auf ein bestimmtes Datenbankmanagementsystem zugeschnitten ist. Hier werden Tabellen, Spalten, Indizes, Einschränkungen und Speicherparameter gemäß den Fähigkeiten und Konventionen der Plattform definiert. Hier kommen auch Entscheidungen über Partitionierung, Clustering, Dateiformate und Verteilungsstrategien ins Spiel.

Die Leistungsoptimierung ist hier ein wichtiger Schwerpunkt. Designer müssen Indexierungsstrategien bewerten, Denormalisierung zur Unterstützung von analytischen Abfragen mit hohem Volumen berücksichtigen und planen, wie auf Daten zugegriffen, sie aktualisiert und gespeichert werden.

Das Endergebnis des physischen Designs ist ein implementierungsbereites Schema, das typischerweise als SQL DDL oder eine gleichwertige Definition ausgedrückt wird. Dieses Schema spiegelt nicht nur die logische Struktur der Daten wider, sondern auch die operativen Realitäten der Plattform, auf der es ausgeführt wird.

Auswahl des richtigen Datenbankmodells

Relationales Modell

Das relationale Modell organisiert Daten in Tabellen, die aus Zeilen und Spalten bestehen, wobei Beziehungen durch Primär- und Fremdschlüssel erzwungen werden. SQL bietet eine leistungsstarke, deklarative Möglichkeit, diese Tabellen abzufragen und zu verknüpfen, wodurch relationale Systeme ideal für Workloads sind, die starke Konsistenz, strukturierte Schemata und gut definierte Beziehungen zwischen Entitäten erfordern.

Aufgrund ihrer Zuverlässigkeit und Reife bleiben relationale Datenbanken die am weitesten verbreitete Option in allen Branchen und treiben alles von Transaktionssystemen bis hin zu operativen Analysen an. Das relationale Modell entwickelt sich mit Cloud-nativen Funktionen, fortschrittlichen Indexierungsstrategien und immer ausgefeilteren Abfrageoptimierern weiter.

Dokumenten- und NoSQL-Modelle

Dokumentenorientierte und NoSQL-Datenbanken verfolgen einen schemaflexiblen Ansatz, der es ermöglicht, Datenstrukturen ohne starre Tabellendefinitionen zu entwickeln. Diese Systeme eignen sich hervorragend für die Verarbeitung unstrukturierter oder semistrukturierter Daten, unterstützen schnelle Iterationen und skalieren horizontal über verteilte Umgebungen. Ihre Flexibilität macht sie gut geeignet für Anwendungen mit sich häufig ändernden Datenformen, Hochgeschwindigkeitsaufnahme oder verteilten Workloads im großen Maßstab.

Diese Anpassungsfähigkeit hat jedoch Nachteile: Konsistenzgarantien können schwächer sein als in relationalen Systemen, und komplexe Abfragen, insbesondere solche, die Beziehungen zwischen mehreren Dokumenten betreffen, können schwierig sein. NoSQL-Modelle glänzen, wenn Agilität, Skalierbarkeit und Schemaentwicklung wichtiger sind als die Notwendigkeit einer strengen relationalen Struktur.

Dimensionales Modell

Das dimensionale Modell ist speziell für Analysen und Data Warehousing konzipiert und organisiert Daten in Faktentabellen, die messbare Ereignisse speichern, und Dimensionstabellen, die beschreibenden Kontext liefern. Stern- und Schneeflockenschemata vereinfachen die Datenabfrage für Analysten, indem sie die Struktur an gängige Geschäftsfragen anpassen und schnelle Aggregationen und intuitive Navigation ermöglichen.

Da dimensionale Modelle für Lese-intensive analytische Workloads optimiert sind, sind sie nicht für transaktionale Systeme gedacht, die häufige Aktualisierungen oder strenge Normalisierung erfordern. Stattdessen unterstützen sie Business Intelligence (BI)-Tools, Dashboarding und analytische Verarbeitung im großen Maßstab, bei der Klarheit, Leistung und Benutzerfreundlichkeit unerlässlich sind. In modernen Lakehouse-Architekturen spielt die dimensionale Modellierung weiterhin eine zentrale Rolle bei der Gestaltung kuratierter, analytikbereiter Datensätze.

Hierarchische und Netzwerkmodelle

Hierarchische Datenbanken folgen einer baumartigen Eltern-Kind-Struktur. Netzwerkmodelle erweitern diesen Ansatz, indem sie durch grafenähnliche Verbindungen Many-to-Many-Beziehungen ermöglichen. Obwohl beide Modelle historisch wichtig sind, sind sie heute meist von akademischem oder Legacy-Interesse. Ihre starren Traversierungswege und ihre begrenzte Flexibilität machen sie zu einer seltenen Wahl für neue Systeme, obwohl die Vertrautheit mit ihnen nützlichen Kontext für das Verständnis der Entwicklung moderner Modelle bieten kann.

Wie man das Modell auf den Anwendungsfall abstimmt

Die Auswahl des richtigen Datenbankmodells hängt von der Form Ihrer Daten, dem Workload und Ihren Konsistenzanforderungen ab. Systeme mit strukturierten, transaktionalen Daten und komplexen Beziehungen passen natürlich zum relationalen Modell. Anwendungen, die auf flexiblen Schemata, sich schnell ändernden Datenstrukturen oder dokumentenzentrierter Speicherung basieren, profitieren von dokumentenorientierten oder NoSQL-Datenbanken. Analytische Workloads, die BI-Dashboards oder Berichtsumgebungen antreiben, werden am besten von dimensionalen Modellen bedient, die für schnelle, vorhersagbare Abfragen konzipiert sind. Wenn die Kernherausforderung stark vernetzte Daten betrifft, wie z. B. soziale Netzwerke, Empfehlungsmaschinen oder Betrugserkennung, bieten Graphdatenbanken die beste Lösung.

Eine einfache Entscheidungsmatrix, die den Workload-Typ, die Datenstruktur und die Konsistenzanforderungen auf empfohlene Modelle abbildet, kann Teams helfen, die Optionen schnell einzugrenzen und den effektivsten Ansatz zu wählen.

ERDs erstellen

ERDs sind die primäre visuelle Sprache der Datenbankmodellierung und bieten eine klare Möglichkeit, darzustellen, wie Daten strukturiert sind und wie verschiedene Entitäten über die drei Designphasen hinweg miteinander in Beziehung stehen.

Im Kern verwenden ERDs eine kleine Auswahl an visuellen Elementen: Entitäten (typischerweise Rechtecke), Attribute (innerhalb der Entität aufgelistet oder je nach Notation als verbundene Ovale dargestellt) und Beziehungen (Linien, die beschreiben, wie Entitäten interagieren). Diese einfachen Komponenten machen ERDs sowohl für technische als auch für nicht-technische Stakeholder zugänglich, weshalb sie in der modernen Datenmodellierung von grundlegender Bedeutung sind.

Es gibt zwei Hauptnotationen für den Aufbau eines ERD. Die Klammernotation (Crow’s Foot Notation) ist die am weitesten verbreitete in der Industrie, da sie die Kardinalität direkt auf den Verbindungslinien visuell kodiert. Die Chen-Notation, die in akademischen Kreisen häufiger vorkommt, trennt Entitäten, Attribute und Beziehungen in verschiedene Formen, was sie für die Lehre nützlich, aber für das reale Design weniger kompakt macht.

Unabhängig vom Notationstil ist das Ziel dasselbe: eine gemeinsame, genaue Darstellung der Daten-Domäne zu erstellen. Ein einfaches E-Commerce-Beispiel veranschaulicht, wie ERDs Struktur in eine Domäne bringen. Ein Kunde tätigt viele Bestellungen, und jede Bestellung gehört zu genau einem Kunden, was eine klassische Eins-zu-viele-Beziehung bildet. Bestellungen enthalten auch mehrere Produkte, und jedes Produkt kann in vielen Bestellungen vorkommen. Diese viele-zu-viele-Beziehung wird über eine Verbindungstabelle – Order_Items – aufgelöst, die Bestellungen und Produkte verknüpft und gleichzeitig zusätzliche Details wie Menge oder Preis zum Zeitpunkt des Kaufs erfasst. Selbst in einem kleinen Modell machen ERDs diese Beziehungen explizit und leicht nachvollziehbar.

Moderne Werkzeuge machen die ERD-Erstellung schnell und kollaborativ. Eine breite Palette von Diagramm- und Modellierungswerkzeugen unterstützt gemeinsames Bearbeiten, Versionierung und Export nach SQL. Der effektivste Workflow beginnt mit einem konzeptionellen ERD, um Stakeholder auf Entitäten und Beziehungen abzustimmen, und fügt dann schrittweise Attribute, Schlüssel und Einschränkungen während der logischen und physischen Designphasen hinzu. Diese iterative Verfeinerung stellt sicher, dass das endgültige Schema sowohl technisch fundiert als auch in den realen Prozessen, die es darstellt, verankert ist.

Bericht

Das Playbook für agentenbasierte KI für Unternehmen

Normalisierung anwenden

Normalisierung ist der Prozess der Strukturierung von relationalen Tabellen, um redundante Daten zu eliminieren und die drei klassischen Anomalien zu verhindern, die im Laufe der Zeit zu Inkonsistenzen führen: Einfüge-, Update- und Lösch-Anomalien. Durch die Organisation von Daten so, dass jede Tatsache einmal gespeichert und sauber referenziert wird, verbessern normalisierte Schemata die Integrität, reduzieren Speicherplatzverschwendung und machen Schreibvorgänge vorhersagbar und sicher.

Der Prozess wird typischerweise durch eine Reihe von Normalformen beschrieben. Die erste Normalform (1NF) verlangt, dass jede Spalte atomare Werte enthält, also keine Listen, verschachtelten Strukturen oder wiederholten Gruppen innerhalb einer einzelnen Zeile. Die zweite Normalform (2NF) baut darauf auf, indem sie sicherstellt, dass jedes Nicht-Schlüsselattribut vom gesamten Primärschlüssel abhängt, und so partielle Abhängigkeiten eliminiert, die bei Tabellen mit zusammengesetzten Schlüsseln auftreten. Die dritte Normalform (3NF) geht noch einen Schritt weiter: Nicht-Schlüsselattribute dürfen nicht von anderen Nicht-Schlüsselattributen abhängen, wodurch transitive Abhängigkeiten entfernt werden, die die Grenzen zwischen Entitäten verwischen.

Hier ist, warum Normalisierung wichtig ist. Stellen Sie sich eine denormalisierte Bestell-Tabelle vor, die Kundenname, E-Mail und Adresse in jeder Zeile wiederholt. Das Aktualisieren eines Kundennamens erfordert die Berücksichtigung jeder Bestellung, die der Kunde aufgegeben hat. Außerdem könnte das Löschen seiner letzten Bestellung versehentlich seine Kontaktinformationen löschen. Die Normalisierung dieser Struktur erzeugt zwei Tabellen, Kunden und Bestellungen, die durch Customer_ID verknüpft sind. Kundendetails leben an einem Ort, Bestellungen referenzieren sie sauber, und die Anomalien verschwinden.

Normalisierung ist jedoch keine absolute Regel. In Lese-intensiven analytischen Systemen, insbesondere Data Warehouses, denormalisieren Designer oft absichtlich, um Joins zu reduzieren und Abfragen zu vereinfachen. Sternschemata zum Beispiel duplizieren beschreibende Attribute in Dimensionstabellen, um die Scan-Leistung zu optimieren.

Der Kompromiss ist klar: Normalisierung maximiert die Schreibintegrität und Speichereffizienz, während Denormalisierung die Lesegeschwindigkeit und Abfrage-Einfachheit maximiert. Die richtige Balance hängt von den Workload-Mustern und der Rolle des Systems in der breiteren Architektur ab.

Best Practices für die Datenbankmodellierung

Alle Stakeholder auf die Datenbankanforderungen abstimmen

Die zuverlässigsten Datenbankmodellierungsdesigns beginnen mit einem klaren Verständnis der Anforderungen – der Geschäftsprozesse, Zugriffsmuster und Einschränkungen, die die Datenbank unterstützen muss. Zu frühes Auswählen eines Modelltyps oder Öffnen eines Diagramm-Tools führt oft zu Strukturen, die auf dem Papier ordentlich aussehen, aber unter realen Workloads versagen. Die Verankerung des Designs in realen Anwendungsfällen stellt sicher, dass das Schema widerspiegelt, wie Daten tatsächlich durch das System fließen.

Konsistente Namenskonventionen erstellen und dokumentieren

Klare, konsistente Namenskonventionen machen ein Schema selbstdokumentierend. Tabellen und Spalten sollten ihren Zweck ohne Ratenraten kommunizieren. Zum Beispiel ist customer_id sofort verständlich, während cid es nicht ist. Namenskonsistenz verbessert auch die Lesbarkeit von Abfragen und reduziert die Einarbeitungszeit für neue Entwickler.

Einen gut definierten Primärschlüssel wählen

Surrogatschlüssel, wie z. B. automatisch inkrementierende Ganzzahlen oder UUIDs, sind oft zuverlässiger als natürliche Schlüssel, die sich im Laufe der Zeit ändern oder mehrdeutig werden können. Zusammengesetzte Schlüssel funktionieren in einigen Fällen, aber sie erschweren Joins und sollten nur verwendet werden, wenn sie eine echte Geschäftsregel widerspiegeln.

Beziehungen und Einschränkungen sollten explizit sein

Fremdschlüssel, eindeutige Einschränkungen und NICHT NULL-Regeln erzwingen die Integrität, die das Modell zu schützen bestimmt war. Wenn diese Regeln nur im Stammeswissen oder im Anwendungscode leben, schleichen sich unweigerlich Inkonsistenzen ein.

Zukünftige Anforderungen und Skalierbarkeit berücksichtigen

Ein ausgewogenes Design stimmt mit den Workload-Mustern und der Rolle des Systems überein und antizipiert gleichzeitig das Wachstum, ohne in übermäßiges Engineering abzugleiten. Übermäßige Normalisierung kann Schemata erstellen, die Dutzende von Joins für einfache Abfragen erfordern, während das Überspringen der Normalisierung zu Redundanz und Anomalien führen kann.

Die Validierung des Modells mit Beispielabfragen ist eine der effektivsten Methoden, um Designfehler frühzeitig aufzudecken. Das Testen gängiger Reporting-Abfragen, Transaktions-Lookups und Filter-Muster zeigt, ob die Struktur reale Nutzung effizient unterstützt.

Für zukünftige Schemata bauen

Denken Sie daran, dass sich Schemata weiterentwickeln. Es ist wichtig, sie wie Anwendungscode zu behandeln. Die Versionskontrolle von DDL-Änderungen, insbesondere zusammen mit Migrationen, erstellt eine zuverlässige Historie, unterstützt die Zusammenarbeit und verhindert Abweichungen zwischen Umgebungen.

Häufige Fehler bei der Datenbankmodellierung

Viele Modellierungsprobleme entstehen durch das Überspringen grundlegender Schritte oder das Treffen von Annahmen, die sich nicht bewähren, sobald das System wächst. Einige Muster wiederholen sich team- und technologieübergreifend, sodass deren frühes Erkennen helfen kann, kostspielige strukturelle Probleme später zu vermeiden.

Eine der häufigsten Fallen ist der direkte Sprung zum physischen Design, d. h. das Erstellen von Tabellen, Indizes oder Diagrammen, ohne zuerst die konzeptionellen und logischen Modelle zu definieren. Dies führt zu Schemata, die für eine einzelne Abfrage oder Funktion optimiert sind und nicht für die breitere Domäne, und kann schließlich zu brüchigen Strukturen führen, die sich dem Wandel widersetzen.

Eng damit verbunden ist das Problem fehlender oder falscher Fremdschlüssel. Wenn Beziehungen nicht explizit definiert sind, sammeln sich verwaiste Datensätze an, Joins brechen und die Datenintegrität wird von der Anwendungslogik anstatt von der Datenbank selbst abhängig.

Namenskonsistenzen können ebenfalls zu langfristigen Reibereien führen und im Laufe der Zeit Fehler und Einarbeitungsprobleme verursachen.

Mehrere Fehler ergeben sich aus dem Missverständnis der Normalisierung. Übermäßige Normalisierung von Transaktionssystemen kann einfache Operationen in Multi-Join-Ketten verwandeln und die Leistung beeinträchtigen. Unter-Normalisierung von analytischen Systemen hat den gegenteiligen Effekt: Sie zwingt nachgelagerte ETL-Jobs, Daten umzuformen, die für Lese-intensive Workloads hätten modelliert werden sollen.

Weitere wiederkehrende Probleme sind:

  • Das Ignorieren von Indizierung, bis die Leistung nachlässt – die Indexstrategie gehört zum physischen Design, nicht zur Notfall-Triage
  • Das Nicht-Berücksichtigen des NULL-Verhaltens – unklare oder inkonsistente NULL-Handhabung führt zu unvorhersehbaren Abfrageergebnissen und Anwendungsfehlern

Die Vermeidung dieser Fehler erfordert Disziplin in den frühen Designphasen und die Bereitschaft, Annahmen vor der Implementierung zu validieren.

Datenbankmodellierung in die Praxis umsetzen

Eine starke Datenbankmodellierung ist die Grundlage, die Systeme klar, konsistent und anpassungsfähig hält, wenn sie wachsen. Prinzipien wie anforderungsgesteuertes Design, Normalisierung, explizite Einschränkungen und ausgewogene physische Modellierung bleiben unabhängig von Skalierung, Workload-Typ oder Architekturmuster unerlässlich.

Was sich geändert hat, ist die Umgebung, in der diese Modelle jetzt operieren. Die langjährige Praxis, zwischen einer Transaktionsdatenbank oder einem analytischen System zu wählen, wird dank Plattformen, die beides unterstützen können, immer seltener. Moderne Anwendungen benötigen ACID-konforme Operationen und groß angelegte Analysen, und die Aufrechterhaltung separater Systeme für jeden kann erhebliche Kosten in Bezug auf Infrastruktur, Latenz und Engineering-Overhead mit sich bringen.

Databricks Lakebase wurde entwickelt, um dieser Veränderung Rechnung zu tragen. Entwickelt für die Arbeit mit den ACID-konformen Funktionen, die bereits Teil der Databricks Lakehouse-Architektur sind, fügt Lakebase eine vollwertige Transaktionsdatenbank-Engine hinzu, die für operative Workloads mit hoher Nebenläufigkeit entwickelt wurde. Dies ermöglicht es den von Ihnen entworfenen Schemata (mit den Techniken in dieser Anleitung), operative Anwendungen und analytische Workloads auf einer einzigen Plattform zu betreiben. Keine Duplizierung, keine parallelen Architekturen, keine Kompromisse.

Wenn Ihr Team separate Systeme nicht mehr verwalten und stattdessen auf einer einheitlichen Plattform aufbauen möchte, auf der ein Datenbankmodell jeden Workload bedient, ist es an der Zeit, mehr über Databricks Lakebase zu erfahren.

(Dieser Blogbeitrag wurde mit KI-gestützten Tools übersetzt.) Originalbeitrag

Erhalten Sie die neuesten Beiträge in Ihrem Posteingang

Abonnieren Sie unseren Blog und erhalten Sie die neuesten Beiträge direkt in Ihren Posteingang.