Hintergrundbild

Workflows

Zuverlässige Orchestrierung von Daten, Analytics und KI

Kostenlos testen

Was ist Databricks Workflows?

Der vollständig verwaltete Lakehouse-Orchestrierungsdienst dient allen Teams zum Erstellen zuverlässiger Daten-, Analytics- und KI-Workflows in jeder Cloud.

Orchestrieren Sie eine beliebige Kombination aus Notebooks, SQL, Spark, ML-Modellen und DBT als ein Jobs-Workflow, einschließlich Aufrufen an andere Systeme. Erstellen Sie mithilfe von Delta Live Tables ETL-Pipelines, die automatisch verwaltet werden, einschließlich Aufnahme und Herkunft. Databricks Workflows ist in GCP, AWS und Azure verfügbar und bietet Ihnen volle Flexibilität und Cloud-Unabhängigkeit.

Hintergrundbild

Alles überall orchestrieren

Führen Sie verschiedene Workloads für den gesamten Daten- und KI-Lebenszyklus aus. Orchestrieren Sie Delta Live Tables und Jobs für SQL, Spark, Notebooks, DBT, ML-Modelle und mehr.

Alles überall orchestrieren

Einfaches Erstellen von Workflows

Einfaches Erstellen von Workflows

Ein einfaches Point-and-Click-Erstellungserlebnis für alle Ihre Datenteams, nicht nur für diejenigen mit speziellen Fähigkeiten.

Umfassende Plattformintegration

Entwickelt und in die Databricks Lakehouse-Plattform integriert, bietet Ihnen Databricks Workflows umfassende Überwachungsfunktionen und zentralisierte Beobachtbarkeit über alle Ihre Workflows hinweg.

Umfassende Plattformintegration

Bewährte Zuverlässigkeit

Bewährte Zuverlässigkeit

Vertrauen Sie voll und ganz auf Ihre Workflows und nutzen Sie unsere bewährte Erfahrung bei der täglichen Ausführung von zig Millionen Produktions-Workloads in AWS, Azure und GCP.

Vollständig verwaltet

Beseitigen Sie den betrieblichen Aufwand mit einem vollständig verwalteten Orchestrierungsdienst, sodass Sie sich auf Ihre Workflows und nicht auf die Verwaltung Ihrer Infrastruktur konzentrieren können.

Vollständig verwaltet

„Databricks Workflows ermöglicht es unseren Analysten, Datenpipelines einfach zu erstellen, auszuführen, zu überwachen und zu reparieren, ohne eine Infrastruktur verwalten zu müssen. Dies ermöglicht ihnen volle Autonomie bei der Gestaltung und Verbesserung von ETL-Prozessen, die für unsere Kunden unverzichtbare Einblicke liefern. Wir freuen uns, unsere Airflow-Pipelines auf Databricks Workflows umzustellen.“

— Anup Segu, Senior Software Engineer, YipitData

„Databricks Workflows hat uns Zeit gegeben, uns mit der Logistik der ausgeführten Routine-Workflows zu befassen. Mit den neu implementierten Reparatur-/Wiederholungsfunktionen konnte unsere Workflow-Zykluszeit verkürzt werden, indem die Jobdurchläufe nach Codekorrekturen fortgesetzt wurden, ohne die anderen abgeschlossenen Schritte vor der Fehlerbehebung erneut ausführen zu müssen. Zusammen mit ML-Modellen, Datenspeicher und dem SQL-Analytics-Dashboard usw. stellte es uns eine komplette Suite an Tools zur Verfügung, mit denen wir unsere Big-Data-Pipeline verwalten können.“

– Yanyan Wu, VP, Head of Unconventionals Data, Wood Mackenzie – A Verisk Business

Ressourcen

Alle Ressourcen, die Sie brauchen. Alle an einem Ort. Bild

Alle Ressourcen, die Sie brauchen. Alle an einem Ort.

In der Ressourcenbibliothek finden Sie E-Books und Videos zu den Vorteilen von Data Engineering in Databricks.