Revenir au contenu principal
LAKEFLOW CONNECT

Une ingestion de données efficace dans votre lakehouse

Faites le premier pas pour débloquer l'innovation avec l'intelligence des données.
Lakeflow Connect
Avantages

Débloquez la valeur de vos données en quelques étapes simples

Des connecteurs de données intégrés sont disponibles pour les applications d'entreprise populaires, les sources de fichiers et les bases de données.

Flexible et facile

Les connecteurs entièrement gérés offrent une interface utilisateur simple et une API pour une configuration facile et démocratisent l'accès aux données. Les fonctionnalités automatisées aident également à simplifier la maintenance du pipeline avec un minimum de surcharge.

Connecteurs intégrés

L'ingestion de données est entièrement intégrée à la Plateforme d'Intelligence de Données. Créez des pipelines d'ingestion avec une gouvernance depuis Unity Catalog, une observabilité depuis Lakehouse Monitoring, et une orchestration sans faille avec des workflows pour l'analytique, l'apprentissage automatique et le BI.

Efficacité de l'ingestion

Augmentez l'efficacité et accélérez le temps pour obtenir de la valeur. Les lectures et écritures incrémentales optimisées et la transformation des données aident à améliorer les performances et la fiabilité de vos pipelines, à réduire les goulets d'étranglement et à réduire l'impact sur les données sources pour la scalabilité.

Fonctionnalités

Capacités d'ingestion robustes pour les sources de données populaires

Rassembler toutes vos données dans la Plateforme d'Intelligence de Données est la première étape pour extraire de la valeur et aider à résoudre les problèmes de données les plus difficiles de votre organisation.

L'interface utilisateur sans code (UI) ou une API simple permet aux professionnels de la data de s'autonomiser, économisant des heures de programmation.

Faites un tour de l'interface utilisateur de Lakeflow Connect
A screenshot of the Databricks UI and API interface, showcasing dashboard thumbnails and improved performance features.

N'apportez que de nouvelles données ou des mises à jour de table, rendant l'ingestion de données rapide, évolutive et opérationnellement efficace.

Plus sur les lectures et écritures incrémentales
Incremental Reads and Writes

Intégrez des données dans un environnement 100% sans serveur qui offre un démarrage rapide et une mise à l'échelle automatique de l'infrastructure.

Plus sur les connecteurs entièrement gérés
Fully Managed

Une intégration profonde avec le Catalogue Unity de Databricks offre des capacités robustes, y compris la lignée et la qualité des données.

En savoir plus sur la gouvernance unifiée avec Unity Catalog
Unified Governance

L'ingestion de données avec Databricks

Connecteur Salesforce

Connecteur de données qui prend en charge Salesforce Sales Cloud.

Ingestion de données depuis Salesforce

Connecteur Microsoft SQL Server

Connecteur de données qui prend en charge Azure SQL Database et Amazon RDS pour SQL Server.

Ingestez des données depuis SQL Server

Connecteur Google Analytics

Connecteur de données qui prend en charge les données Google Analytics 4 (GA4) au niveau de l'événement, avec tous les champs pris en charge.

Ingestez des données de Google Analytics

Connecteur ServiceNow

Connecteur de données qui ingère les données ServiceNow pour une gamme de cas d'utilisation, y compris l'analytique et la planification des ressources.

Ingérer des données de ServiceNow

Connecteur Workday

Connecteur de données qui ingère les rapports Workday pour les charger directement dans Databricks.

Ingestion de données depuis Workday

Connecteur SharePoint

Connecteur de données qui prend en charge les données SharePoint (non structurées). Intégrations faciles avec Vector Search et d'autres outils d'IA.

Ingestion de données à partir de SharePoint

Auto Loader

Ingestion incrémentale et traitement efficace des nouveaux fichiers de données à mesure qu'ils arrivent dans les sources de stockage cloud prises en charge (S3, ADLS, GCS).

Ingestion de données avec Auto Loader

Sources de données en streaming

Ingestez des enregistrements à partir de sources prises en charge comme Apache Kafka avec une infrastructure toujours active et un traitement de données quasi en temps réel.

Ingestion de données à partir de sources en streaming

Support SQL natif

Les utilisateurs SQL peuvent utiliser la commande COPY INTO pour charger les données de manière idempotente et incrémentielle à partir d'un emplacement de fichier dans Databricks SQL, Databricks Notebooks et Databricks Jobs.

Ingestez des données en utilisant COPY INTO

Téléchargement de fichier manuel

Téléchargez des fichiers locaux directement dans Databricks pour créer une table Delta ou stocker des données dans des volumes.

Téléchargez des fichiers sur Databricks
Cas d’utilisation

Résoudre les problèmes des clients dans une variété d'industries

Tarifs

Les tarifs basés sur l'utilisation permettent de maîtriser les dépenses

Ne payez que les produits que vous utilisez, à la seconde près.
Produits connexes

En savoir plus

Explorez d'autres offres intelligentes et intégrées sur la Data Intelligence Platform.

Tâches Lakeflow

Donnez aux équipes les moyens de mieux automatiser et orchestrer tous les workflows d'ETL, d'analytique et d'IA grâce à une observabilité approfondie, une haute fiabilité et la prise en charge d'un large éventail de tâches.

Pipelines déclaratifs Lakeflow

Simplifiez l'ETL par batch et en streaming grâce à la qualité de données automatisée, la change data capture (CDC), l'acquisition et la transformation des données, ainsi que la gouvernance unifiée.

Unity Catalog

Encadrez sans problème tous vos assets de données avec la seule solution de gouvernance unifiée et ouverte de l'industrie pour les données et l'IA, intégrée à la Databricks Data Intelligence Platform

Delta Lake

Unifiez les données du lakehouse, quels que soient leur format et leur type, pour les mettre à disposition de toutes vos charges d'analytique et d'IA.

Démarrer

FAQ sur l'ingestion de données

Prêts à devenir une entreprise 
axée sur les données et l'IA ?

Faites le premier pas de votre transformation data