Ir para o conteúdo principal

Começando com DLT

Sabemos que você adorou nosso guia original do DLT, mas era hora de uma atualização. Substituímos por algo ainda melhor: um tutorial totalmente novo que apresenta o avanço mais recente em engenharia de dados do Databricks: Lakeflow Spark Declarative Pipelines (SDP).

Com base no DLT, o Lakeflow SDP representa nossa visão para a engenharia de dados moderna. Agora totalmente integrado ao ecossistema Lakeflow, ele oferece recursos de pipeline de ponta a ponta — conectando ingestão de dados, transformações e orquestração por meio de uma única plataforma inteligente que escala facilmente com o seu negócio.

Para os pipelines de dados existentes, você não precisa mudar nada: todos os pipelines de DLT continuam em execução perfeitamente no Lakeflow, sem necessidade de atualização ou modificações de código. Todos os recursos do DLT — incluindo tabelas de transmissão, views materializadas e expectativas de qualidade de dados — permanecem disponíveis, e os pipelines agora estão ainda mais integrados ao lakehouse.

Nosso novo tutorial prático de SDP coloca você no comando com um exemplo real de aviônica. Você vai criar um pipeline pronto para produção que processa dados de IoT de milhares de aeronaves. Pronto para elevar suas habilidades de engenharia de dados? 

Confira o novo tutorial Lakeflow Spark Declarative Pipelines hoje.