image d'arrière-plan

Workflows

Une orchestration fiable pour les données, l'analytique et l'IA

Essai gratuit

Qu'est-ce que Databricks Workflows ?

Le service d'orchestration de lakehouse entièrement managé permet à toutes vos équipes d'élaborer des workflows fiables de données, d'analytique et d'IA, quel que soit votre cloud.

Combinez et orchestrez librement notebooks, SQL, Spark, dbt et modèles ML au sein de workflows de tâches pouvant même inclure des appels à d'autres systèmes. Avec les Delta Live Tables, créez des pipelines ETL automatiquement gérés, ingestion et traçabilité incluses. Databricks Workflows est disponible sur GCP, AWS et Azure, pour vous offrir un maximum de flexibilité et une indépendance totale.

image d'arrière-plan

Orchestrez tout ce que vous voulez

Exécutez un large éventail de charges de travail sur l'intégralité du cycle de vie des données et de l'IA, quel que soit votre cloud. Orchestrez Delta Live Tables et des tâches utilisant SQL, Spark, des notebooks, dbt, des modèles ML et plus encore.

Orchestrez tout ce que vous voulez

Création de workflows simplifiée

Création de workflows simplifiée

Une expérience de création facile en pointer-cliquer pour toutes vos équipes de données, avec ou sans compétences spécialisées.

Intégration approfondie à la plateforme

Conçu pour la plateforme lakehouse Databricks et parfaitement intégré, pour vous offrir des capacités de monitoring en profondeur et d'observabilité centralisée sur l'ensemble de vos workflows.

Intégration approfondie à la plateforme

Une fiabilité éprouvée

Une fiabilité éprouvée

Nous exécutons quotidiennement des dizaines de millions de charges de travail en production sur AWS, Azure et GCP. Appuyez-vous sur notre expérience éprouvée et ayez pleinement confiance en vos workflows.

Entièrement géré

Éliminez les efforts opérationnels inutiles avec un service d'orchestration entièrement managé. Et concentrez-vous sur vos workflows plutôt que sur la gestion de votre infrastructure.

Entièrement géré

« Avec les workflows Databricks, nos analystes créent, exécutent, supervisent et corrigent aisément les pipelines de données sans avoir à gérer aucune infrastructure. Ils ont ainsi une autonomie totale sur la conception et l'amélioration des processus ETL qui génèrent des insights indispensables pour nos clients. Nous sommes ravis de convertir nos pipelines Airflow en workflows Databricks. »

— Anup Segu, Senior Software Engineer, YipitData

« Databricks Workflows nous fait gagner un temps considérable en gérant la logistique des flux de routine. Grâce aux nouvelles capacités de réparation / réexécution, nous avons réduit la durée de notre workflow en poursuivant l'exécution des tâches directement après la correction du code, sans avoir à repasser par les étapes précédentes. Combinées aux modèles ML, au data store et aux tableaux de bord d'analytique SQL, elles nous donnent une suite complète d'outils pour gérer notre pipeline big data. »

— Yanyan Wu, VP, Head of Unconventionals Data, Wood Mackenzie – une entreprise Verisk

Ressources

Toutes les ressources dont vous avez besoin. Réunies au même endroit. Image

Toutes les ressources dont vous avez besoin. Réunies au même endroit.

Explorez notre bibliothèque de ressources : vous y trouverez des ebooks et des vidéos sur les atouts du data engineering sur Databricks.