Passa al contenuto principale

Databricks Workflows

Orchestrazione unificata per dati, analitiche e AI sulla Data Intelligence Platform

Databricks Workflows è un servizio di orchestrazione gestito, pienamente integrato con la Databricks Data Intelligence Platform. Workflows consente di definire, gestire e monitorare facilmente flussi di lavoro multitasking per pipeline di ETL, analitiche e machine learning. Grazie a un'ampia gamma di tipologie di task supportati, funzioni di osservabilità approfondita e alta affidabilità, i team di gestione dei dati saranno in grado di automatizzare e orchestrare meglio qualsiasi pipeline e diventare più produttivi.

Simple Authoring

Whether you’re a data engineer, a data analyst or a data scientist, easily define workflows with just a few clicks or use your favorite IDE.

Actionable Insights

Get full visibility into each task running in every workflow and get notified immediately on issues that require troubleshooting.

Proven Reliability

Having a fully managed orchestration service means having the peace of mind that your production workflows are up and running. With 99.95% uptime, Databricks Workflows is trusted by thousands of organizations.

Come funziona?

Workflows Marketecture

Unificato con la Databricks Data Intelligence Platform

Affidabilità in produzione

Monitoraggio e osservabilità approfonditi

Batch e streaming

Calcolo efficiente

Esperienza utente fluida

workflows

Unificato con la Databricks Data Intelligence Platform

A differenza degli strumenti di orchestrazione esterni, Databricks Workflows è pienamente integrato con la Databricks Data Intelligence Platform. Questo significa che è possibile creare flussi di lavoro nativi nel proprio wrokspace e automatizzare qualsiasi funzionalità della piattaforma, incluse pipeline di Delta Live Table, notebook di Databricks e query di Databricks SQL. Unity Catalog automatizza la provenienza dei dati per ogni flusso di lavoro, assicurando all'utente il controllo su tutte le risorse di dati nell'intera l'organizzazione.  

reliability at scale

Affidabilità su larga scala

Ogni giorno migliaia di organizzazioni si affidano a Databricks Workflows per eseguire milioni di carichi di lavoro in produzione su AWS, Azure e GCP con un'operatività del 99,95%. Avere uno strumento di orchestrazione pienamente gestito integrato nella Data Intelligence Platform elimina la necessità di mantenere, aggiornare o riparare un altro strumento separato.

deep monitoring and observability

Monitoraggio e osservabilità approfonditi

Grazie alla piena integrazione con la Data Intelligence Platform, Databricks Workflows offre un'osservabilità migliore di qualsiasi altro strumento di orchestrazione esterno. Mantieni il controllo grazie alla vista completa di ogni flusso di lavoro eseguito e imposta le notifiche in caso di errori per avvisare il team via mail, Slack, PagerDuty o un webhook custom, per anticipare i problemi e risolverli prima che vadano a impattare sui consumatori di dati.

batch and streaming

Batch e streaming

Databricks Workflows offre un'unica soluzione per orchestrare attività in qualsiasi scenario sulla Data Intelligence Platform. Utilizza un flusso di lavoro programmato per lavori ricorrenti che effettuano l'acquisizione di dati in batch a orari predefiniti, oppure implementa pipeline di dati in tempo reale eseguite in modo continuo. Si può inoltre impostare un flusso di lavoro affinché venga eseguito quando sono disponibili nuovi dati, utilizzando trigger di arrivo dei file.

efficient compute

Calcolo efficiente

L'orchestrazione con Databricks Workflows offre un migliore rapporto prezzo/prestazioni per i carichi di lavoro automatizzati in produzione. I costi possono essere ridotti sensibilmente utilizzando job cluster automatizzati che hanno un costo inferiore e funzionano solo quando un lavoro è programmato, evitando così di pagare per risorse inutilizzate. Inoltre, i job cluster condivisi consentono di riutilizzare le risorse di calcolo per molteplici attività, in modo da ottimizzare l'utilizzo delle risorse.

workflows

Esperienza utente fluida

Definisci i flussi di lavoro nel tuo ambiente preferito e crea facilmente flussi di lavoro direttamente nell'interfaccia utente dello spazio di lavoro di Databricks oppure utilizzando il tuo IDE preferito. Definisci attività che usano un notebook con controllo delle versioni in un Databricks Repo o in un repository Git remoto, e rispetta le best practice DevOps come CI/CD.

Integrazioni

Domande frequenti

Discover more

Delta Live Tables

Delta Live Tables
Data Streaming

Data Streaming
Unity Catalog

Unity Catalog
Notebooks

Notebooks
Machine Learning

Machine Learning
Databricks SQL

Databricks SQL

Pronto per cominciare?