Demo Hub

Mit diesen einfachen On-Demand-Videos erhalten Sie einen direkten Einblick in Databricks aus Sicht des Anwenders. Für alle nachstehenden Demos sind ergänzende Materialien wie Notebooks, Videos und E-Books angegeben, damit Sie sie selbst auf Databricks ausprobieren können.

Jetzt kostenfrei testen
Hintergrundbild

Produktdemos

Demo Hub

In dieser Demo geben wir einen allgemeinen Überblick über die Databricks Lakehouse-Plattform. Wir werden dabei unter anderem ansprechen, wie sich Open-Source-Projekte wie Apache Spark™, Delta Lake, MLflow und Koalas in das Databricks-Ökosystem einpassen. Erfahren Sie mehr →

In dieser Demo beschreiben wir einige für Datenanalysten zentrale Funktionen im neuen Databricks SQL. Hierzu gehören der integrierte Datenbrowser, der SQL-Abfrage-Editor mit Live-Autovervollständigung, die integrierten Datenvisualisierungstools und die flexiblen Dashboard- und Warnfunktionen. Wir zeigen Ihnen auch die auf Databricks SQL-Endpunkten verfügbaren Rechenressourcen, die sich durch ihre Leistungsfähigkeit, die SQL-Optimierung und ihre niedrige Latenz auszeichnen und Ihre bestehenden BI-Tools – wie Power BI und Tableau – unterstützen. Erfahren Sie mehr →

Databricks Workflows

Databricks Workflows ist der vollständig verwaltete Orchestrierungsdienst für all Ihre Daten, Analysen und KI. Die tiefgreifende Integration in die zugrunde liegende Lakehouse-Plattform stellt sicher, dass Sie zuverlässige Produktions-Workloads in jeder Cloud erstellen und ausführen und gleichzeitig eine umfassende und zentralisierte Überwachung mit Einfachheit für Endbenutzer bieten.
Mehr erfahren →

Unity Catalog Demo

In this brief demonstration, we give you a first look at Unity Catalog, a unified governance solution for all data and AI assets. Unity Catalog provides a single interface to centrally manage access permissions and audit controls for all data assets in your lakehouse, along with the capability to easily search, view lineage and share data. Learn more →

Delta-Freigabe

In this brief demonstration, we give you a first look at Delta Sharing, an open standard for secure sharing of data assets. You will discover how you can leverage Delta Sharing on Databricks to securely share your existing data across computing platforms, without replicating the data. Data recipients do not need to be on the Databricks platform, on the same cloud or in the cloud at all. Learn more →

Delta Lake on Databricks gestattet Ihnen die Entwicklung einer Lakehouse-Architektur, die die besten Eigenschaften von Data Lakes und Data Warehouses vereint. Diese einfache, offene Plattform speichert und verwaltet alle Ihre Daten und unterstützt sämtliche Analyse- und KI-Anwendungsfälle. In dieser Demo präsentieren wir die wichtigsten Funktionen von Delta Lake. Hierzu gehören die vereinheitlichte Verarbeitung von Batch- und Streaming-Daten, die Schemaerzwingung und -entwicklung, Zeitreisen und die Unterstützung von UPDATE-, MERGE- und DELETE-Operationen. Ferner werden wir einige Leistungsverbesserungen ansprechen, die Delta Lake auf Databricks bietet. Erfahren Sie mehr →

In dieser Demo beschreiben wir einen realen Data-Science- und Machine-Learning-Anwendungsfall auf Databricks und zeigen Ihnen, wie verschiedene Mitglieder des Datenteams auf der Databricks-Plattform interagieren und zusammenarbeiten. Wir führen ferner aus, wie sich der gesamte ML-Lebenszyklus mit MLflow on Databricks vereinfachen und rationalisieren lässt. Erfahren Sie mehr →

In dieser Demo vermitteln wir Ihnen einen ersten Einblick in Delta Live Tables, einen Cloud-Service, der zuverlässige ETL-Funktionen (Extrahieren, Transformieren, Laden) in Delta Lake ganz einfach macht. Für Data-Engineering-Teams wird die ETL-Entwicklung mit einer einfachen Benutzeroberfläche und deklarativen Tools erleichtert. Erfahren Sie mehr →

Mit Databricks Auto Loader können Sie neue Batch- und Echtzeit-Streaming-Datendateien direkt beim Empfang inkrementell und effizient in Ihre Delta Lake-Tabellen einlesen. So nutzen Sie immer die vollständigsten und aktuellsten Daten. SQL-Anwender können mit dem simplen COPY INTO-Befehl neue Daten automatisch in ihre Delta Lake-Tabellen ziehen, ohne sich Gedanken darüber machen zu müssen, welche Dateien bereits verarbeitet wurden. Erfahren Sie mehr →










Demo Hub

In dieser Demo geben wir einen allgemeinen Überblick über die Databricks Lakehouse-Plattform. Wir werden dabei unter anderem ansprechen, wie sich Open-Source-Projekte wie Apache Spark™, Delta Lake, MLflow und Koalas in das Databricks-Ökosystem einpassen. Erfahren Sie mehr →

In dieser Demo beschreiben wir einige für Datenanalysten zentrale Funktionen im neuen Databricks SQL. Hierzu gehören der integrierte Datenbrowser, der SQL-Abfrage-Editor mit Live-Autovervollständigung, die integrierten Datenvisualisierungstools und die flexiblen Dashboard- und Warnfunktionen. Wir zeigen Ihnen auch die auf Databricks SQL-Endpunkten verfügbaren Rechenressourcen, die sich durch ihre Leistungsfähigkeit, die SQL-Optimierung und ihre niedrige Latenz auszeichnen und Ihre bestehenden BI-Tools – wie Power BI und Tableau – unterstützen. Erfahren Sie mehr →

Databricks Workflows

Databricks Workflows ist der vollständig verwaltete Orchestrierungsdienst für all Ihre Daten, Analysen und KI. Die tiefgreifende Integration in die zugrunde liegende Lakehouse-Plattform stellt sicher, dass Sie zuverlässige Produktions-Workloads in jeder Cloud erstellen und ausführen und gleichzeitig eine umfassende und zentralisierte Überwachung mit Einfachheit für Endbenutzer bieten.
Mehr erfahren →

Unity Catalog Demo

In this brief demonstration, we give you a first look at Unity Catalog, a unified governance solution for all data and AI assets. Unity Catalog provides a single interface to centrally manage access permissions and audit controls for all data assets in your lakehouse, along with the capability to easily search, view lineage and share data. Learn more →

Delta-Freigabe

In this brief demonstration, we give you a first look at Delta Sharing, an open standard for secure sharing of data assets. You will discover how you can leverage Delta Sharing on Databricks to securely share your existing data across computing platforms, without replicating the data. Data recipients do not need to be on the Databricks platform, on the same cloud or in the cloud at all. Learn more →

Delta Lake on Databricks gestattet Ihnen die Entwicklung einer Lakehouse-Architektur, die die besten Eigenschaften von Data Lakes und Data Warehouses vereint. Diese einfache, offene Plattform speichert und verwaltet alle Ihre Daten und unterstützt sämtliche Analyse- und KI-Anwendungsfälle. In dieser Demo präsentieren wir die wichtigsten Funktionen von Delta Lake. Hierzu gehören die vereinheitlichte Verarbeitung von Batch- und Streaming-Daten, die Schemaerzwingung und -entwicklung, Zeitreisen und die Unterstützung von UPDATE-, MERGE- und DELETE-Operationen. Ferner werden wir einige Leistungsverbesserungen ansprechen, die Delta Lake auf Databricks bietet. Erfahren Sie mehr →

In dieser Demo beschreiben wir einen realen Data-Science- und Machine-Learning-Anwendungsfall auf Databricks und zeigen Ihnen, wie verschiedene Mitglieder des Datenteams auf der Databricks-Plattform interagieren und zusammenarbeiten. Wir führen ferner aus, wie sich der gesamte ML-Lebenszyklus mit MLflow on Databricks vereinfachen und rationalisieren lässt. Erfahren Sie mehr →

In dieser Demo vermitteln wir Ihnen einen ersten Einblick in Delta Live Tables, einen Cloud-Service, der zuverlässige ETL-Funktionen (Extrahieren, Transformieren, Laden) in Delta Lake ganz einfach macht. Für Data-Engineering-Teams wird die ETL-Entwicklung mit einer einfachen Benutzeroberfläche und deklarativen Tools erleichtert. Erfahren Sie mehr →

Mit Databricks Auto Loader können Sie neue Batch- und Echtzeit-Streaming-Datendateien direkt beim Empfang inkrementell und effizient in Ihre Delta Lake-Tabellen einlesen. So nutzen Sie immer die vollständigsten und aktuellsten Daten. SQL-Anwender können mit dem simplen COPY INTO-Befehl neue Daten automatisch in ihre Delta Lake-Tabellen ziehen, ohne sich Gedanken darüber machen zu müssen, welche Dateien bereits verarbeitet wurden. Erfahren Sie mehr →

Partnerdemos

Die Azure Databricks Lakehouse-Plattform bietet Ihnen das Beste aus Data Lakes und Data Warehouses – auf einer einfachen, offenen und kollaborativen Plattform, die sich sicher in Ihre bestehenden Azure-Services integrieren lässt. In dieser Demo skizzieren wir einige der gängigsten Azure Databricks-Integrationen, z. B. Azure Data Lake Storage (ADLS), Azure Data Factory (ADF), Azure IoT Hub, Azure Synapse Analytics oder Power BI. Erfahren Sie mehr →

Databricks läuft auf AWS und ist mit den beliebtesten Services integriert, beispielsweise S3, EC2 oder Redshift. Mit der von uns bereitgestellten Plattform können Sie alle genannten Services kombinieren und eine Lakehouse-Architektur erstellen. Wir zeigen Ihnen in dieser Demo, wie sich Databricks einfach und nahtlos in jeden dieser Services integrieren lässt. Erfahren Sie mehr →

Databricks on Google Cloud Integration Promo

Databricks auf Google Cloud ist ein gemeinsam entwickelter Service, mit dem Sie alle Ihre Daten auf einer einfachen, offenen Lakehouse-Plattform speichern können, die die Vorzüge von Data Warehouses und Data Lakes vereint. Führen Sie alle Analyse- und KI-Workloads auf einer einzigen Plattform zusammen. Dank der engen Verzahnung mit Google Cloud Storage, BigQuery und der Google Cloud AI Platform kann Databricks nahtlos mit Daten und KI-Diensten in der Google Cloud arbeiten.

Über die Databricks-Plattform können Sie nicht nur validierte Daten-, Analyse- und KI-Tools nutzen, sondern auch diejenigen Werkzeuge integrieren, die Sie bereits jetzt im täglichen Einsatz haben. Mit Partner Connect ist die Tool-Integration mit nur wenigen Klicks erledigt, und Sie haben die Funktionalität Ihres Lakehouse im Handumdrehen erweitert.
Mehr erfahren →





Die Azure Databricks Lakehouse-Plattform bietet Ihnen das Beste aus Data Lakes und Data Warehouses – auf einer einfachen, offenen und kollaborativen Plattform, die sich sicher in Ihre bestehenden Azure-Services integrieren lässt. In dieser Demo skizzieren wir einige der gängigsten Azure Databricks-Integrationen, z. B. Azure Data Lake Storage (ADLS), Azure Data Factory (ADF), Azure IoT Hub, Azure Synapse Analytics oder Power BI. Erfahren Sie mehr →

Databricks läuft auf AWS und ist mit den beliebtesten Services integriert, beispielsweise S3, EC2 oder Redshift. Mit der von uns bereitgestellten Plattform können Sie alle genannten Services kombinieren und eine Lakehouse-Architektur erstellen. Wir zeigen Ihnen in dieser Demo, wie sich Databricks einfach und nahtlos in jeden dieser Services integrieren lässt. Erfahren Sie mehr →

Databricks on Google Cloud Integration Promo

Databricks auf Google Cloud ist ein gemeinsam entwickelter Service, mit dem Sie alle Ihre Daten auf einer einfachen, offenen Lakehouse-Plattform speichern können, die die Vorzüge von Data Warehouses und Data Lakes vereint. Führen Sie alle Analyse- und KI-Workloads auf einer einzigen Plattform zusammen. Dank der engen Verzahnung mit Google Cloud Storage, BigQuery und der Google Cloud AI Platform kann Databricks nahtlos mit Daten und KI-Diensten in der Google Cloud arbeiten.

Über die Databricks-Plattform können Sie nicht nur validierte Daten-, Analyse- und KI-Tools nutzen, sondern auch diejenigen Werkzeuge integrieren, die Sie bereits jetzt im täglichen Einsatz haben. Mit Partner Connect ist die Tool-Integration mit nur wenigen Klicks erledigt, und Sie haben die Funktionalität Ihres Lakehouse im Handumdrehen erweitert.
Mehr erfahren →

Branchenlösungen

Branchenlösungen

Von der Idee zum Machbarkeitsnachweis in nur zwei Wochen

Databricks Solution Accelerators sind speziell entwickelte Leitfäden, voll funktionsfähige Notebooks und Best Practices, die Ergebnisse beschleunigen. Databricks-Kunden sparen Stunden beim Entdecken, Entwerfen, Entwickeln und Testen, wobei viele in nur zwei Wochen von der Idee zum Machbarkeitsnachweis gelangen.

Accelerators erkunden

Databricks kostenlos 14 Tage lang testen

Durch Klicken auf „Jetzt kostenlos einsteigen“ erklären Sie sich mit der Datenschutzrichtlinie und den Nutzungsbedingungen einverstanden.