Skip to main content

Flussi di lavoro

Orchestrazione affidabile per dati, analisi e AI

Workflows

Che cos'è Databricks Workflows?

È un servizio completamente gestito per l'orchestrazione del lakehouse con cui tutti i team possono costruire flussi di lavoro affidabili per dati, analisi e AI su qualsiasi cloud.

Orchestra qualsiasi combinazione di notebook, SQL, Spark, modelli ML e dbt come flusso di lavoro Jobs, incluse le chiamate ad altri sistemi. Costruisci pipeline ETL che vengono gestite automaticamente, incluse acquisizione e provenienza dei dati, utilizzando Delta Live Tables. Databricks Workflows è disponibile su GCP, AWS e Azure, per offrire massima flessibilità e indipendenza dal cloud.

workflows orchestrate

Orchestrare tutto ovunque

Esegui diversi carichi di lavoro per tutto il ciclo di vita di dati e AI su qualsiasi cloud. Orchestra Delta Live Tables e Jobs per SQL, Spark, notebook, dbt, modelli di ML e altro.

Simple workflow authoring

Creazione semplice di flussi di lavoro

Un'esperienza di creazione "punta e clicca" facile per tutti i team di gestione dei dati, anche quelli senza competenze specifiche.

Deep platform integration

Stretta integrazione con la piattaforma

Progettata e costruita sulla Databricks Lakehouse Platform per offrire funzionalità di monitoraggio approfondite e osservabilità centralizzata su tutti i flussi di lavoro.

Proven reliability

Affidabilità comprovata

Acquista piena fiducia nei flussi di lavoro grazie alla nostra esperienza consolidata che deriva dall'esecuzione di decine di milioni di carichi di lavoro in produzione ogni giorno su AWS, Azure e GCP.

Fully managed

Completamente gestito

Elimina i costi di gestione con un servizio di orchestrazione completamente gestito, concentrandoti sui flussi di lavoro e non sulla gestione dell'infrastruttura.

YipitData logo

“Con Databricks Workflows i nostri analisti possono facilmente creare, eseguire, monitorare e riparare pipeline di dati senza gestire alcuna infrastruttura. Questo garantisce loro piena autonomia nel progettare e migliorare processi ETL che producono informazioni imprescindibili per i nostri clienti. Non vediamo l'ora di trasferire le nostre pipeline da Airflow a Databricks Workflows.”

— Anup Segu, Senior Software Engineer, YipitData

“Databricks Workflows ci ha fatto risparmiare tempo liberandoci dalla gestione logistica dei flussi di lavoro di routine. Grazie alle funzionalità di riparazione/riesecuzione appena implementate, la soluzione ci ha aiutato ad abbattere i tempi di ciclo del flusso di lavoro grazie alla possibilità di proseguire l'esecuzione dopo le correzioni del codice, senza dover ripetere le fasi già completate prima della correzione. Insieme a modelli ML, data store, dashboard di analisi SQL ecc., abbiamo a disposizione una suite completa di strumenti per gestire la nostra grande pipeline di dati".

— Yanyan Wu, VP, Head of Unconventionals Data, Wood Mackenzie – A Verisk Business

Risorse