Obtenez des données dans Databricks à partir de Kafka

Qu'allez-vous apprendre ?

La vidéo démontre comment nous pouvons intégrer les clusters Databricks avec Kafka et le registre de schémas Confluent.

Remarque : Databricks Lakeflow unifie l’ingénierie des données avec Lakeflow Connect, Lakeflow Spark Declarative Pipelines (anciennement connu sous le nom de DLT) et Lakeflow Jobs (anciennement connus sous le nom de Workflows).

Recommandations

<p>Automated Data Lineage with Unity Catalog</p>

Vidéo à la demande

Automated Data Lineage with Unity Catalog

<p>Obtenir des données dans Databricks à partir de SQL / Oracle</p>

Vidéo à la demande

Obtenir des données dans Databricks à partir de SQL / Oracle

<p>Ingestion de données en utilisant Auto Loader</p>

Vidéo à la demande

Ingestion de données en utilisant Auto Loader

Prêt à vous lancer ?