Création d'une application de données avec Lakeflow

Qu'allez-vous apprendre ?

Cette vidéo présente une approche complète pour créer des applications de données à l'aide de Lakeflow, en mettant l'accent sur des concepts clés tels que l'ingestion de données, la transformation et l'hyperpersonnalisation. Elle illustre comment intégrer des données provenant de systèmes hétérogènes, notamment Salesforce, Microsoft SQL Server et des mainframes hérités, dans un lakehouse unifié. De plus, vous verrez l'utilisation de pipelines déclaratifs pour un traitement efficace des données, illustrant comment créer des recommandations par client et surveiller les performances des jobs, le coût et la qualité des données dans un environnement de production.

 

Remarque : Databricks Lakeflow unifie l'ingénierie des données avec Lakeflow Connect, Lakeflow Spark Declarative Pipelines (anciennement DLT) et Lakeflow Jobs (anciennement Workflows).

Prêt à vous lancer ?