Der moderne Daten-Stack wurde entwickelt, um die Schwierigkeiten bei der Datenerfassung, -speicherung und -analyse zu bewältigen, da das Datenvolumen und die Komplexität weiter zunehmen. Da der Geschäftserfolg zunehmend von datengesteuerten Erkenntnissen und KI abhängt, ist eine effektive und zuverlässige Datenverwaltung unerlässlich.
Was ist also ein moderner Daten-Stack und wie ist er darauf ausgelegt, die Datennutzung zu optimieren? Lesen Sie weiter, um die Unterschiede zwischen modernen Daten-Stacks und ihren Vorgängern zu verstehen, die Vorteile, die sie für Unternehmen jeder Branche bringen können, und die Werkzeuge des modernen Daten-Stacks, die erforderlich sind, um mit Ihren Daten erfolgreich zu sein. Um zu erfahren, wie Sie Ihre Daten- und KI-Ziele beschleunigen können, lesen Sie unseren neuen Leitfaden für Führungskräfte hier.
Der Begriff „Daten-Stack“ bezieht sich auf eine Sammlung verschiedener Technologien, die Rohdaten verarbeiten. Ein moderner Daten-Stack besteht aus Werkzeugen, die zum Erfassen, Organisieren, Speichern und Transformieren von Daten verwendet werden.
Diese Werkzeuge sind unerlässlich, um Daten von „unverdaulichen Daten“ (Daten, mit denen nicht gearbeitet werden kann) in „verdauliche Daten“ (Daten, mit denen gearbeitet werden kann) umzuwandeln. Je schneller Daten abgerufen, vorbereitet und analysiert werden können, desto schneller können Organisationen sie für Entscheidungen nutzen. Eine effektive moderne Daten-Stack-Architektur ist daher entscheidend für jede Organisation, die Wert aus ihren Daten ziehen und schneller auf Veränderungen reagieren möchte.
Ein moderner Daten-Stack hat vier Hauptfunktionen:
Ladetechnologien sind dafür verantwortlich, Daten von einem Ort zum anderen zu verschieben. Zum Beispiel müssen Daten in eine Datenpipeline aufgenommen werden, damit sie in einen nutzbaren Zustand transformiert und auf wertvolle Erkenntnisse analysiert werden können.
Sobald Daten über eine Datenpipeline erfasst wurden, müssen sie irgendwo gespeichert werden. Data Warehouses und Data Lakes sind zwei gängige Datenspeichertechnologien, beide haben jedoch bestimmte Nachteile. Ein Unterschied besteht darin, dass Data Warehouses besser für die Speicherung strukturierter Daten geeignet sind, während Data Lakes besser für unstrukturierte Daten geeignet sind.
Data Lakehouse-Plattformen bieten eine moderne Lösung, die besser mit vielen verschiedenen Arten von strukturierten und unstrukturierten Daten umgehen kann.
Cloudbasierte Datenspeicherlösungen sind im Gegensatz zu On-Premise-Optionen für moderne Daten-Stacks unerlässlich. Sie bieten einfachen Zugriff auf Daten in hochgradig skalierbaren Plattformen, die sich leicht an veränderte Bedürfnisse anpassen lassen.
Moderne Daten-Stacks werden auch zur Transformation von Daten verwendet. Der Transformationsprozess wandelt „Rohdaten“ in „aufbereitete“ Daten um, die für Analyse-Anwendungsfälle geeignet sind. Viele Organisationen werden eine Datenaufbereitungsplattform für die Datentransformation nutzen.
Die Datentransformation kann die Konvertierung von Daten von einem Format, einer Struktur oder einem Wertesystem in ein anderes beinhalten. Es ist ein wesentlicher Prozess für die Datenanalyse und datengesteuerte Entscheidungsfindung.
Es gibt eine riesige Auswahl an Datentransformationen, die auf Daten angewendet werden können, darunter:
Sobald Daten gesammelt und vorbereitet wurden, sind sie bereit für die Analyse. Werkzeuge des modernen Daten-Stacks können auch diesen Schritt übernehmen.
Daten können mithilfe von Machine Learning (ML)-Modellen analysiert werden, um Muster und Trends zu identifizieren, die für die Planung und Entscheidungsfindung genutzt werden können. Alternativ können aufbereitete Daten als Grundlage für eine Vielzahl von Anwendungen dienen.
Der Schlüssel zum Verständnis der Auswirkungen und der Bedeutung des modernen Daten-Stacks liegt im Rückblick auf Legacy-Daten-Stacks. Frühere Daten-Stacks ebneten den Weg für die heute verwendeten Werkzeuge und Technologien, hatten aber erhebliche Einschränkungen, die moderne Daten-Stacks überwinden sollen.
Enterprise Data Warehouses (EDW) waren wohl die ersten Daten-Stacks, die von Organisationen für das Datenmanagement häufig verwendet wurden.
Sie bieten ein zentrales Repository für Daten, die aus verschiedenen Quellen gesammelt wurden. Dies macht sie nützlich für Organisationen, die Customer-Relationship-Management (CRM)-Plattformen, relationale Datenbanken oder ähnliche Systeme nutzen, die große Datenmengen ansammeln.
Ein EDW stützt sich typischerweise auf einen ETL-Mechanismus (Extract, Transform, Load) zur Datenverwaltung. In diesen Fällen werden die Daten beim Hochladen gegen ein vordefiniertes Schema (internes Datenbankformat) geprüft, was als Schema-on-Write-Ansatz bekannt ist.
Obwohl EDWs zweifellos eine Rolle bei der Optimierung des Datenmanagements und der Analyse spielten, sind sie mit dem zunehmenden Trend zu Anwendungsfällen künstlicher Intelligenz (KI) und ML etwas veraltet.
Dies liegt hauptsächlich daran, dass Data Warehouses Schwierigkeiten haben, die großen Datenmengen zu verarbeiten, die für diese Anwendungsfälle benötigt werden. Mit wachsender Datenmenge in ihnen steigen auch die Kosten und die Ineffizienz von Data Warehouses.
Data Warehouses können auch keine unstrukturierten Daten wie Audio, Video, Textdokumente oder Social-Media-Beiträge verarbeiten, die für viele Unternehmen wichtige Informationen darstellen. Darüber hinaus ist die EDW-Struktur normalerweise darauf ausgelegt, aufgabenspezifische Daten zu speichern. Dies macht sie für ML- und Data-Science-Aufgaben ungeeignet, die auf die Verfügbarkeit aller gesammelten Daten angewiesen sind.
Data Lakes wurden teilweise als Reaktion auf die Unzulänglichkeiten von Data Warehouses für KI- und ML-Aufgaben entwickelt. Diese Repositories sind darauf ausgelegt, riesige Mengen an Rohdaten in ihren nativen Formaten zu speichern. Da sie strukturierte, unstrukturierte und semi-strukturierte Daten verarbeiten können, sind sie für ML- und Data-Science-Anwendungsfälle besser geeignet als EDWs.
Im Gegensatz zu Data Warehouses erfordern Data Lakes keine Datentransformation vor dem Laden, da kein Schema vorhanden ist, in das die Daten passen müssten. Das Schema wird stattdessen beim Abfragen der Daten überprüft, was als Schema-on-Read-Ansatz bekannt ist.
Aus diesem Grund gelten Data Lakes im Allgemeinen als robuster und kostengünstiger als herkömmliche Data Warehouses. Das bedeutet jedoch nicht, dass sie keine anderen Einschränkungen haben.
Business Intelligence und Reporting können bei der Verwendung von Data Lakes eine Herausforderung darstellen, da sie zusätzliche Werkzeuge und Techniken zur Unterstützung von SQL-Abfragen erfordern.
Da Data Lakes große Datenmengen in verschiedenen Typen und Formaten speichern, sind schlechte Datenqualität, Zuverlässigkeit und Integrität ebenfalls häufig ein Problem. Die in Lakes gespeicherten Daten können leicht unorganisiert werden, was zu weiteren Problemen mit Datengenauigkeit, Sicherheit und Governance führt.
Da Data Lakes und Data Warehouses in Schlüsselbereichen Mängel aufweisen, stellen viele Organisationen fest, dass sie beide nutzen, um deren jeweilige Schwächen zu vermeiden. Ein Unternehmen könnte beispielsweise einen großen Data Lake zur Speicherung seiner unstrukturierten Daten und mehrere, zweckgebundene Data Warehouses für spezifische Anwendungsfälle nutzen.
In den meisten Fällen führt dies zu Datensilos, erhöhten Kosten und Komplexität, wobei die Notwendigkeit, Daten zwischen den beiden Systemen konsistent zu halten, eine erhebliche Herausforderung darstellt. Um dieses Problem zu lösen, ist eine einheitlichere Lösung erforderlich.
Hier kommt der moderne Daten-Stack ins Spiel. Er wurde entwickelt, um die Herausforderungen von Legacy-Daten-Stacks zu lösen, und es gibt spezifische Komponenten, die alle modernen Daten-Stacks enthalten sollten.
Der vielleicht bedeutendste Unterschied zwischen modernen und Legacy-Daten-Stacks ist, dass der moderne Daten-Stack in der Cloud gehostet wird. Anstatt auf physische Server zu setzen, setzen moderne Daten-Stacks auf Cloud Computing und werden oft unter einem SaaS-Modell (Software as a Service) angeboten.
Das bedeutet, dass sie in der Regel weniger technische Konfiguration durch den Benutzer erfordern. Stattdessen werden Sicherheit, Wartung und Updates von modernen Daten-Stack-Unternehmen als Teil ihres Service bereitgestellt. Dies macht moderne Daten-Stacks flexibler und effizienter als ihre Vorgänger.
Dies führt auch zur Förderung der Zugänglichkeit für Endbenutzer, was bedeutet, dass eine größere Anzahl von Datenexperten unabhängig vom Standort auf die Daten zugreifen kann.
Eine Cloud-basierte Lösung erhöht auch die Skalierbarkeit, da sie schnell an die sich ändernden Bedürfnisse einer Organisation angepasst werden kann, ohne die kostspieligen, langen Ausfallzeiten, die mit der Skalierung lokaler Server verbunden sind.
Moderne Tools für den Daten-Stack ermöglichen es Unternehmen, neben einer breiten Palette von Datenanwendungsfällen auch riesige Datentransaktionen zu verarbeiten. Sie bestehen aus Komponenten, die verteilte Computing-Frameworks nutzen – Technologien wie Hadoop oder Spark ermöglichen beispielsweise die Datenverarbeitung über mehrere Knoten oder Cluster hinweg, was eine parallele Verarbeitung großer Datensätze und komplexer Workloads ermöglicht.
Das bedeutet, dass Unternehmen komplexe Datentransaktionen durchführen und eine größere Vielfalt von Workloads bewältigen können, ohne ihre Infrastruktur zusätzlich zu belasten. Die Verwendung mehrerer Knoten und Cluster ermöglicht auch die Datenpartitionierung. Dies hilft bei der Verteilung der Arbeitslast und ermöglicht eine effizientere Abfrage und Verarbeitung, indem die Daten in kleinere, überschaubare Teile aufgeteilt werden.
Techniken wie Datenkomprimierung, spaltenorientierte Speicherformate und Indizierung werden ebenfalls im modernen Daten-Stack verwendet, um die Speicher- und Verarbeitungseffizienz zu optimieren. Diese Techniken reduzieren den physischen Speicherplatz, der für große Datensätze benötigt wird, und beschleunigen die Prozesse des Datenzugriffs und der Datenabfrage.
Moderne Daten-Stacks verwenden auch unglaublich effiziente Datenpipelines, einschließlich optimierter Extract, Transform, Load (ETL) oder Extract, Load, Transform (ELT)-Prozesse. Dies gewährleistet die reibungslose Datenbewegung von der Quelle zum Ziel, unabhängig vom Umfang der verarbeiteten Daten.
Moderne Daten-Stacks sind gut gerüstet, um eine breite Palette von Business-Intelligence-Anwendungsfällen zu unterstützen und Unternehmen dabei zu helfen, den größtmöglichen Wert aus ihren Daten zu ziehen. Sie bieten robuste Tools, die effiziente Datenanalyse, Datenvisualisierung und datengesteuerte Entscheidungsfindung ermöglichen.
Unternehmen können auch von einer Vielzahl von Analyse- und Berichtstools profitieren, die sich nahtlos in moderne Daten-Stacks integrieren lassen. Dies ermöglicht es BI-Plattformen, SQL-Abfragen, Datenvisualisierungstools, Dashboards und Berichtsfunktionen zu nutzen, um Erkenntnisse aus den Daten zu analysieren und darzustellen. Sie können sogar prädiktive Analysen oder ML-Modelle integrieren, um anspruchsvollere Analysen und Entscheidungen zu ermöglichen.
Einige moderne Daten-Stack-Architekturen unterstützen sogar die Echtzeit-Datenverarbeitung und -Streaming. Dies ermöglicht BI-Tools, aktuelle Erkenntnisse zu liefern und Echtzeit-Entscheidungen zu unterstützen, wodurch die Agilität und Reaktionsfähigkeit des nutzenden Unternehmens erhöht wird.
Integrierte Data Governance ist ein wesentlicher Vorteil moderner Daten-Tech-Stacks. Verschiedene Tools, Prozesse und Richtlinien werden implementiert, um Datenqualität, Compliance, Sicherheit und Zugänglichkeit in jeder Phase des Datenlebenszyklus zu gewährleisten. Sie beinhalten auch hochentwickelte Data-Cataloging-Tools, die Metadaten dokumentieren und verwalten.
Informationen über Datenquellen, Strukturen, Herkunft, Eigent ümer und Nutzung sind entscheidend für die Pflege eines aktuellen zentralen Katalogs. Dies macht Daten besser auffindbar und leichter verständlich und gewährleistet gleichzeitig Transparenz und Compliance.
Wenn es um Sicherheit geht, werden rollenbasierte Zugriffskontrollmechanismen (RBAC) verwendet, um zu verwalten und zu steuern, welche Benutzer Zugriff auf verschiedene Datensätze haben. Diese Mechanismen helfen bei der Durchsetzung der Sicherheitsrichtlinien des Unternehmens und stellen sicher, dass nur autorisiertes Personal auf sensible Daten zugreifen kann.
Dies ist besonders wichtig für Unternehmen in Branchen wie dem Bankwesen und dem Gesundheitswesen, die mit vielen sensiblen Daten umgehen. Moderne Daten-Stacks können auch bei der Einhaltung von Datenvorschriften wie der DSGVO und HIPAA helfen. Sie verfügen über Funktionen, die bei der Einhaltung helfen, indem sie Datenverschlüsselung und -prüfung ermöglichen sowie die Einhaltung von Datenschutz- und Sicherheitsvorschriften gewährleisten.
Viele moderne Daten-Stacks integrieren auch Echtzeit-Überwachungsfunktionen, die helfen, potenzielle Data-Governance-Probleme zu identifizieren. Alarmierungsmechanismen können Administratoren über verdächtige Aktivitäten oder Abweichungen von etablierten Governance-Standards informieren.
Im Allgemeinen können die Vorteile moderner Daten-Stacks in die folgenden vier Kategorien unterteilt werden.
Erstens bietet ein moderner Daten-Stack ein höheres Maß an Flexibilität. Die verschiedenen Tools können verwendet werden, um die spezifischen Bedürfnisse des Benutzers zu erfüllen, während die verfügbaren Dienste nach Bedarf hinzugefügt oder entfernt werden können. Diese Modularität ermöglicht den schichtweisen Aufbau von Stacks, um den exakten modernen Daten-Stack zu erstellen, den ein Unternehmen benötigt.
Darüber hinaus gewährleistet die Kompatibilität mit einer Vielzahl von Datenformaten, Datenbanken und Diensten von Drittanbietern Interoperabilität und Flexibilität bei der Einbindung neuer Technologien. Moderne Daten-Stacks nutzen oft Open-Source-Tools und Frameworks, was Unternehmen durch Anpassung und Community-gesteuerte Verbesserungen mehr Flexibilität bietet.
Sie bieten auch Optionen für Echtzeit- und Batch-Verarbeitung, was für Unternehmen, die verschiedene Arten von Workloads verarbeiten, mehr Flexibilität bietet, indem sie ihre Datenverarbeitung an die unterschiedlichen Bedürfnisse des Unternehmens anpassen können.
Da der moderne Daten-Stack eine cloudbasierte Lösung ist, hat sich die Geschwindigkeit, mit der Daten verarbeitet werden können, exponentiell erhöht. Große Datenmengen können in Minuten verarbeitet werden, verglichen mit Stunden in einem Legacy-Daten-Stack.
Moderne Daten-Stacks integrieren oft automatisierte Datenverarbeitungs- und Transformationstools. Diese Tools optimieren Aufgaben wie Datenbereinigung, Normalisierung und Integration und reduzieren den Bedarf an manueller Intervention. Dies macht die Datenverarbeitung nicht nur effizienter, sondern verbessert auch die Datenqualität.
Die Integration mit Datenvisualisierungs- und Berichtstools beschleunigt den Prozess der Umwandlung von Daten in aussagekräftige Erkenntnisse. Viele dieser Tools bieten auch den zusätzlichen Vorteil intuitiver Benutzeroberflächen und anpassbarer Dashboards, die eine schnellere Erfassung von Datenmustern und -trends ermöglichen.
Die Pflege großer Datenmengen kann teuer sein, aber moderne Daten-Stacks können helfen, die Betriebskosten in Unternehmen zu senken. Da sie cloudbasiert sind, ist keine Investition in Hardware oder komplizierte Infrastruktur erforderlich. Dies reduziert nicht nur die anfänglichen Investitionskosten, sondern auch die Wartungs- und Betriebskosten über die gesamte Lebensdauer des Daten-Stacks.
Viele SaaS-Unternehmen für moderne Daten-Stacks bieten verbrauchsbasierte Preismodelle an, die es Unternehmen ermöglichen, nur für die von ihnen genutzten Dienste zu bezahlen. Dienste, die nach dem Pay-as-you-go-Modell angeboten werden, müssen nur bezahlt werden, wenn sie aktiv genutzt werden, was die Kosten während Phasen geringer oder keiner Nutzung minimiert.
Moderne Daten-Stacks optimieren auch kontinuierlich die Ressourcennutzung durch Automatisierung der Datenverarbeitung, Minimierung von Ausfallzeiten und Verbesserung der Gesamteffizienz von Datenpipelines. Dies alles führt zu einer effektiveren und effizienteren Ressourcennutzung, was Leerlaufzeiten und die damit verbundenen Kosten reduziert.
Außerhalb des Stacks selbst können die verfügbaren fortschrittlichen Analyse- und ML-Funktionen Benutzern helfen, Kosteneinsparungsmöglichkeiten zu identifizieren. Durch die Prognose der Nachfrage, die Optimierung von Ressourcen und die proaktive Identifizierung von Kosteneinsparungsmöglichkeiten kann ein Unternehmen die volle Kontrolle über seine Budgets übernehmen.
Ein moderner Daten-Stack kann sogar dazu beitragen, das Risiko und die Kosten im Zusammenhang mit Datenpannen zu minimieren. Durch die Implementierung robuster Data-Governance-Maßnahmen werden die Risiken von Datenpannen reduziert, ebenso wie Fälle von Nichteinhaltung gesetzlicher Vorschriften. Dies hilft Unternehmen, Strafen oder rechtliche Probleme im Zusammenhang mit der Nichteinhaltung zu vermeiden, was weiter zu Kosteneinsparungen beiträgt.
Datenkultur ist ein Begriff, der sich auf die Verhaltensweisen, Einstellungen und Praktiken innerhalb eines Unternehmens im Umgang mit seinen Daten bezieht. Sie kann alles umfassen, von den Überzeugungen und Gewohnheiten rund um datengesteuerte Entscheidungsfindung bis hin zum Wert, der Daten beigemessen wird. Sie umfasst auch die allgemeine Integration von Daten in den täglichen Betrieb und die Entscheidungsprozesse eines Unternehmens.
Ein moderner Daten-Stack kann helfen, die Datenkultur in einem Unternehmen zu revolutionieren.
Zunächst einmal sind moderne Daten-Stack-Tools auf Benutzerfreundlichkeit ausgelegt. Dies macht Daten für Mitarbeiter aller technischen Fähigkeiten zugänglicher. Die angebotene Flexibilität bedeutet sogar, dass Benutzer nicht auf die Verwendung eines einzigen bestimmten Tools beschränkt sind, sondern das Tool auswählen können, das ihren Bedürfnissen und ihrem Fachwissen am besten entspricht.
In der Zwischenzeit tragen die robusten Data-Governance-Maßnahmen, die im modernen Daten-Stack enthalten sind, dazu bei, Vertrauen in die Genauigkeit der Daten aufzubauen. Durch die Bereitstellung zuverlässiger, gut verwalteter Daten fördern diese Stacks die Nutzung von Daten in Entscheidungsprozessen. Dies schafft eine Kultur des Vertrauens rund um die Daten eines Unternehmens.
Sobald dieses Vertrauen vorhanden ist, können die angebotene Flexibilität und Skalierbarkeit zum Tragen kommen – und den Benutzern Möglichkeiten bieten, mit neuen Datenquellen, Analysewerkzeugen und Methoden zu experimentieren. Dies trägt zur Förderung einer Kultur der Innovation und Exploration bei.
Moderne Daten-Stacks können sogar dazu beitragen, die Kommunikation und Zusammenarbeit zwischen Teams zu verbessern. Integrierte Datenkataloge, Metadatenmanagement und die enthaltenen Kollaborationsfunktionen helfen dabei. Jeder Stakeholder kann ein gemeinsames Verständnis der Datenbestände haben und seine Bemühungen auf gemeinsame datenbezogene Geschäftsziele ausrichten.
Unternehmen aus einer Vielzahl von Branchen haben moderne Daten-Stacks genutzt, um ihren Ansatz zur Datenverarbeitung zu revolutionieren. Hier sind nur einige Beispiele:
AT&T ist einer der führenden Telekommunikationsanbieter in den USA. Früher setzten sie auf eine traditionelle On-Premises-Datenarchitektur. Als jedoch die Arten und Mengen der von ihnen verarbeiteten Daten zunahmen, wurde schnell klar, dass sie eine bessere Lösung benötigten, und so migrierten sie ihre Altsystemarchitektur zu einem modernen Datenstack, der von Databricks bereitgestellt wird.
Dies half ihnen, die Echtzeit-Einblicke und Automatisierung zu erzielen, die zur Optimierung des Einsatzes ihrer Techniker erforderlich sind. Jetzt können sie die Fehlerbehebungsfähigkeiten ihrer Techniker mit dem zu lösenden Kundenproblem sowie dem Standort des Kunden abgleichen. Dies sind drei Datenpunkte, die mit ihrem Altsystem einfach nicht vereinheitlicht werden konnten.
Dieser neue, automatisierte Ansatz für den Technikereinsatz hat AT&T geholfen, ein exzellentes Kundenserviceerlebnis zu bieten und gleichzeitig die Betriebskosten durch Reduzierung der Lösungsversuche zu senken.
HSBC ist eine der größten internationalen Banken und betreut weltweit über 39 Millionen Kunden. Bei einer so großen Kundenbasis waren Skalierbarkeitseinschränkungen unvermeidlich. Oder sie wären es gewesen – bis HSBC einen modernen Datenstack einführte.
Jetzt können sie Datenanalysen und ML nach Bedarf skalieren, was ihnen die Möglichkeit gibt, eine Reihe von kundenorientierten Anwendungsfällen voranzutreiben, darunter Personalisierung, Empfehlungen, Netzwerkwissenschaft und Betrugserkennung. Und das alles in einer Geschwindigkeit, die ihren Geschäftsanforderungen entspricht.
"Wir haben erhebliche Verbesserungen bei der Geschwindigkeit festgestellt, mit der Daten für die Analyse verfügbar sind. Wir haben eine Reihe von Jobs, die früher 6 Stunden dauerten und jetzt nur noch 6 Sekunden dauern." — Alessio Basso, Chief Architect, HSBC
Ein moderner Datenstack hat USPS in die Lage versetzt, Kunden in den gesamten USA effizient zu bedienen. Der Umstieg auf eine Cloud-basierte Lakehouse-Architektur ermöglicht es ihnen, schnell auf neue Datenherausforderungen zu reagieren und bietet neue Möglichkeiten für Innovationen.
Darüber hinaus ist USPS OIG nun besser positioniert, um Postbetriebe und -programme zu untersuchen, zu prüfen und zu erforschen. Dies hilft ihnen im Kampf gegen Betrug, Verschwendung und Missbrauch und gewährleistet die Effizienz und Integrität des Postdienstes für viele Jahre.
Eine moderne Datenstack-Architektur ist der nächste Schritt in der Evolution des Datenstacks. Die Skalierbarkeit, Effizienz und verbesserte Governance, die sie bietet, ermöglicht es Unternehmen aller Branchen, den vollen Wert ihrer Daten effizient und sicher zu realisieren.
Die Databricks Data Intelligence Platform basiert auf einer Lakehouse-Architektur, die die besten Aspekte von Data Lakes und Data Warehouses kombiniert, um einen modernen Datenstack bereitzustellen, der Ihnen hilft, Kosten zu senken, die Produktivität zu steigern und Ihre Daten- und KI-Initiativen schneller umzusetzen.
Databricks hat seine Entwicklungsbemühungen darauf konzentriert, eine breite Palette branchenführender Software- und Hardwareverbesserungen zu integrieren, um die allererste Datenintelligenzplattform zu implementieren.
Unser Ansatz nutzt die Rechenfortschritte des Apache Spark™-Frameworks und die neuesten Netzwerk-, Speicher- und CPU-Technologien, um die Leistung zu liefern, die Kunden benötigen, um ihre Architektur zu vereinfachen.
Diese Innovationen kombinieren sich zu einer einzigen Architektur, die alle Datensätze innerhalb einer Organisation speichern und verarbeiten kann und eine breite Palette von Analysen für wichtige Einblicke unterstützt.
(Dieser Blogbeitrag wurde mit KI-gestützten Tools übersetzt.) Originalbeitrag
