Skip to main content

Workflows

Zuverlässige Orchestrierung von Daten, Analytics und KI

Workflows

Was ist Databricks Workflows?

Der vollständig verwaltete Lakehouse-Orchestrierungsdienst dient allen Teams zum Erstellen zuverlässiger Daten-, Analytics- und KI-Workflows in jeder Cloud.

Orchestrieren Sie eine beliebige Kombination aus Notebooks, SQL, Spark, ML-Modellen und dbt als einen Jobs-Workflow, einschließlich Aufrufe an andere Systeme. Erstellen Sie mithilfe von Delta Live Tables ETL-Pipelines, die automatisch verwaltet werden, einschließlich Aufnahme und Herkunft. Databricks Workflows ist in GCP, AWS und Azure verfügbar und bietet Ihnen volle Flexibilität und Cloud-Unabhängigkeit.

workflows orchestrate

Alles überall orchestrieren

Führen Sie verschiedene Workloads für den gesamten Daten- und KI-Lebenszyklus aus. Orchestrieren Sie Delta Live Tables und Jobs für SQL, Spark, Notebooks, dbt, ML-Modelle und mehr.

Simple workflow authoring

Einfaches Erstellen von Workflows

Ein einfaches Point-and-Click-Erstellungserlebnis für alle Ihre Datenteams, nicht nur für diejenigen mit speziellen Fähigkeiten.

Deep platform integration

Umfassende Plattformintegration

Entwickelt und in die Databricks Lakehouse-Plattform integriert, bietet Ihnen Databricks Workflows umfassende Überwachungsfunktionen und zentralisierte Beobachtbarkeit über alle Ihre Workflows hinweg.

Proven reliability

Bewährte Zuverlässigkeit

Vertrauen Sie voll und ganz auf Ihre Workflows und nutzen Sie unsere bewährte Erfahrung bei der täglichen Ausführung von zig Millionen Produktions-Workloads in AWS, Azure und GCP.

Fully managed

Vollständig verwaltet

Beseitigen Sie den betrieblichen Aufwand mit einem vollständig verwalteten Orchestrierungsdienst, sodass Sie sich auf Ihre Workflows und nicht auf die Verwaltung Ihrer Infrastruktur konzentrieren können.

YipitData logo

„Databricks Workflows ermöglicht es unseren Analysten, Datenpipelines einfach zu erstellen, auszuführen, zu überwachen und zu reparieren, ohne eine Infrastruktur verwalten zu müssen. Dies ermöglicht ihnen volle Autonomie bei der Gestaltung und Verbesserung von ETL-Prozessen, die für unsere Kunden unverzichtbare Einblicke liefern. Wir freuen uns, unsere Airflow-Pipelines auf Databricks Workflows umzustellen.“

— Anup Segu, Senior Software Engineer, YipitData

„Databricks Workflows hat uns Zeit gegeben, uns mit der Logistik der ausgeführten Routine-Workflows zu befassen. Mit den neu implementierten Reparatur-/Wiederholungsfunktionen konnte unsere Workflow-Zykluszeit verkürzt werden, indem die Jobdurchläufe nach Codekorrekturen fortgesetzt wurden, ohne die anderen abgeschlossenen Schritte vor der Fehlerbehebung erneut ausführen zu müssen. Zusammen mit ML-Modellen, Datenspeicher und dem SQL-Analytics-Dashboard usw. stellte es uns eine komplette Suite an Tools zur Verfügung, mit denen wir unsere Big-Data-Pipeline verwalten können.“

– Yanyan Wu, VP, Head of Unconventionals Data, Wood Mackenzie – A Verisk Business

Ressourcen