Simplificación de los pipelines de datos confiables
Simplifica el ETL por lotes y de transmisión con confiabilidad automatizada y calidad de datos i
LOS MEJORES EQUIPOS TRIUNFAN CON PIPELINES DE DATOS INTELIGENTESMejores prácticas de pipelines de datos codificadas
Solo tienes que declarar las transformaciones de datos que necesitas, y deja que Spark Declarative Pipelines se encargue del resto.Diseñado para simplificar el pipeline de datos
Diseñar y operar pipelines de datos puede ser difícil, pero no tiene por qué serlo. Spark Declarative Pipelines está diseñado para ofrecer una simplicidad poderosa, de modo que puedas realizar un ETL robusto con tan solo unas pocas líneas de código.Al aprovechar la API unificada de Spark para el procesamiento por lotes y de transmisión, Spark Declarative Pipelines te permite alternar fácilmente entre los modos de procesamiento.






Más características
Optimiza tus pipelines de datos

Garantiza con facilidad la integridad y consistencia de los datos
Simplifica la captura de datos de cambio con las API de APPLY CHANGES para fuentes de datos de cambio e instantáneas de bases de datos. Spark Declarative Pipelines maneja automáticamente los registros fuera de secuencia para SCD Tipo 1 y 2, al simplificar las partes más difíciles de CDC.

Desbloquea poderosos casos de uso en tiempo real sin herramientas adicionales
Crea y ejecuta tus pipelines de datos por lotes y de transmisión en un solo lugar con configuraciones de actualización controlables y automatizadas, lo que ahorra tiempo y reduce la complejidad operativa. Operacionaliza los datos de transmisión para mejorar de inmediato la precisión y la capacidad de acción de tu analítica e IA.

Integra sin problemas las mejores prácticas de ingeniería de datos en el mundo del almacenamiento de datos
Con Spark Declarative Pipelines, los usuarios de almacenes de datos tienen todo el poder del ETL declarativo mediante una interfaz SQL accesible. Empodera a tus analistas de SQL con pipelines de datos de bajo código y sin infraestructura, al liberar datos actualizados para la empresa con una configuración o dependencias mínimas.
Explorar demostraciones de Spark Declarative Pipelines
Los precios basados en el uso mantienen el gasto bajo control
Paga solo por los productos que usas, con granularidad por segundo.Descubre más
Explora otras ofertas integradas e inteligentes en la plataforma de inteligencia de datos.Lakeflow Connect
Los conectores de ingesta de datos eficientes de cualquier fuente y la integración nativa con la plataforma de inteligencia de datos desbloquean un fácil acceso a la analítica y la IA, con una gobernanza unificada.
Trabajos de Lakeflow
Define, gestiona y supervisa fácilmente flujos de trabajo multitarea para pipelines de ETL, analítica y aprendizaje automático. Con una amplia gama de tipos de tareas compatibles, capacidades de observabilidad profundas y alta confiabilidad, tus equipos de datos están capacitados para automatizar y orquestar mejor cualquier pipeline y ser más productivos.
Almacenamiento en lakehouse
Unifica los datos en tu lakehouse, en todos los formatos y tipos, para todas tus cargas de trabajo de analítica e IA.
Unity Catalog
Controla sin problemas todos tus activos de datos con la única solución de gobernanza abierta y unificada de la industria para datos e IA, integrada en la plataforma de inteligencia de datos de Databricks.
La plataforma de inteligencia de datos
Descubre cómo Databricks Data Intelligence Platform habilita tus cargas de trabajo de datos e IA.
Da el siguiente paso
Contenido relacionado
Preguntas frecuentes de Spark Declarative Pipelines
¿Estás listo para convertirte en una empresa de datos e IA?
Da los primeros pasos en tu transformación













