Ir al contenido principal
DLT

Simplificación de los pipelines de datos confiables

Simplifica el ETL por lotes y de transmisión con confiabilidad automatizada y calidad de datos i
DLT Header Image
LOS MEJORES EQUIPOS TRIUNFAN CON PIPELINES DE DATOS INTELIGENTES
Beneficios

Mejores prácticas de pipelines de datos codificadas

Solo tienes que declarar las transformaciones de datos que necesitas, y los pipelines DLT gestionarán lo demás.

Ingesta eficiente

La creación de pipelines ETL listas para producción comienza con la ingesta. DLT permite una ingesta eficiente para ingenieros de datos, desarrolladores de Python, científicos de datos y analistas de SQL. Carga datos desde cualquier fuente compatible con Apache Spark™ en Databricks, ya sea por lotes, transmisión o CDC.

Transformación inteligente

A partir de unas pocas líneas de código, DLT determina la manera más eficiente de construir y ejecutar tus pipelines de datos por lotes o de transmisión, al optimizar automáticamente el costo o el rendimiento, al tiempo que se minimiza la complejidad.

Operaciones automatizadas

Los pipelines DLT simplifican el desarrollo de ETL al codificar las mejores prácticas de forma inmediata y automatizar la complejidad operativa inherente. Con los pipelines DLT, los ingenieros pueden centrarse en proporcionar datos de alta calidad en lugar de operar y mantener la infraestructura de los pipelines.

CARACTERÍSTICAS

Diseñado para simplificar el pipeline de datos

Diseñar y operar pipelines de datos puede ser difícil, pero no tiene por qué serlo. DLT está diseñado para ofrecer una simplicidad potente, permitiéndote realizar ETL robusto con solo unas pocas líneas de código.

Al aprovechar la API unificada de Spark para el procesamiento por lotes y de transmisión, los pipelines DLT te permiten alternar fácilmente entre los modos de procesamiento.

databricks processing

DLT facilita la optimización del rendimiento del pipeline al declarar un pipeline de datos incremental completo con tablas de transmisión y vistas materializadas.

End to end incremental processing

Los pipelines DLT admiten un amplio ecosistema de fuentes y destinos. Carga datos desde cualquier origen compatible con Apache Spark™ en Databricks, incluidos el almacenamiento en la nube, los buses de mensajes, las fuentes de datos modificados y los sistemas externos.

Load data from anywhere

Las expectativas te permiten garantizar que los datos que llegan a las tablas cumplen con los requisitos de calidad de los datos y, a la vez, proporcionan insights sobre la calidad de los datos en cada actualización del pipeline.

Data quality

Desarrolla pipelines en documentos interactivos sin necesidad de cambiar de contexto. Visualiza el DAG, el registro de eventos y el código en una sola IU, y desarrolla fácilmente con autocompletado de código, errores en línea y diagnóstico.

Integrated notebook development

Más características

Gobernanza y almacenamiento unificados

Construido sobre los estándares fundamentales de la arquitectura lakehouse de Unity Catalog y formatos de tabla abiertos.

Más información

Cómputo sin servidor

Hasta 5 veces mejor precio/rendimiento para la ingesta de datos y un 98 % de ahorro en costos para transformaciones complejas.

Más información

Orquestación de tareas

En lugar de definir manualmente una serie de tareas de Spark por separado, defines las transformaciones, y DLT garantiza que se ejecuten en la secuencia correcta.

Más información

Manejo de errores y recuperación de fallos

Recuperación sin problemas de los errores que se producen durante la ejecución de pipelines de datos.

Más información

CI/CD y control de versiones

Especifica fácilmente las configuraciones para aislar pipelines en entornos de desarrollo, prueba y producción.

Más información

Monitoreo y observabilidad de pipelines

Funciones integradas de monitoreo y observabilidad, lo que incluye linaje de datos, historial de actualizaciones e informes de calidad de datos.

Más información

Programación de actualización flexible

Optimiza fácilmente el tiempo de respuesta o el costo según las necesidades de tu pipeline.

Más información
CASOS DE USO

Optimiza tus pipelines de datos

Precios

Los precios basados en el uso mantienen el gasto bajo control

Paga solo por los productos que usas, con granularidad por segundo.
Productos relacionados

Descubre más

Explora otras ofertas integradas e inteligentes en la plataforma de inteligencia de datos.

Lakeflow Connect

Los conectores de ingesta de datos eficientes de cualquier fuente y la integración nativa con la plataforma de inteligencia de datos desbloquean un fácil acceso a la analítica y la IA, con una gobernanza unificada.

Flujos de trabajo

Define, gestiona y supervisa fácilmente flujos de trabajo multitarea para pipelines de ETL, analítica y aprendizaje automático. Con una amplia gama de tipos de tareas compatibles, capacidades de observabilidad profundas y alta confiabilidad, tus equipos de datos están capacitados para automatizar y orquestar mejor cualquier pipeline y ser más productivos.

Almacenamiento en lakehouse

Unifica los datos en tu lakehouse, en todos los formatos y tipos, para todas tus cargas de trabajo de analítica e IA.

Unity Catalog

Controla sin problemas todos tus activos de datos con la única solución de gobernanza abierta y unificada de la industria para datos e IA, integrada en la plataforma de inteligencia de datos de Databricks.

La plataforma de inteligencia de datos

Descubre cómo Databricks Data Intelligence Platform habilita tus cargas de trabajo de datos e IA.

Da el siguiente paso

Preguntas frecuentes sobre DLT

¿Estás listo para convertirte en una
empresa de datos e IA?

Da los primeros pasos en tu transformación