Presentación de los pipelines declarativos de Lakeflow Spark

Lo que aprenderás

En este recorrido del producto, le ofrecemos una descripción general de los pipelines declarativos de Lakeflow Spark.

Spark Declarative Pipelines facilita la creación y administración de canalizaciones de datos por lotes y de streaming confiables que entregan datos de alta calidad en la Databricks Data Intelligence Platform. Ayuda a los equipos de ingeniería de datos a simplificar el desarrollo y la administración de ETL con el desarrollo de canalizaciones declarativas, pruebas de datos automáticas y una visibilidad profunda para el monitoreo y la recuperación.

Iniciar recorrido del producto

Recomendado

<p>Pipelines declarativos de Lakeflow Spark (Presentación principal de DAIS 2025)</p>

Video a demanda

Pipelines declarativos de Lakeflow Spark (Presentación principal de DAIS 2025)

<p>DLT with Apache Kafka</p>

Video a demanda

DLT with Apache Kafka

<p>Streaming Data With DLT and Databricks Workflows</p>

Video a demanda

Streaming Data With DLT and Databricks Workflows

¿Listo para empezar?