Lakeflow Declarative Pipelines agora está Disponível para Todos, e o momentum não diminuiu desde o DAIS. Este post resume tudo o que aconteceu nas últimas semanas - para que você esteja totalmente atualizado sobre o que está aqui, o que vem a seguir e como começar a usá-lo.
No Data + AI Summit 2025, anunciamos que contribuímos com nossa tecnologia central de pipeline declarativo para o projeto Apache Spark™ como Spark Declarative Pipelines. Essa contribuição estende o modelo declarativo do Spark de consultas individuais para pipelines completos, permitindo que os desenvolvedores definam o que seus pipelines devem fazer enquanto o Spark cuida de como fazer. Já comprovado em milhares de cargas de trabalho em produção, agora é um padrão aberto para toda a comunidade Spark.
Também anunciamos a Disponibilidade Geral do Lakeflow, a solução unificada da Databricks para ingestão de dados, transformação e orquestração na Plataforma de Inteligência de Dados. O marco GA também marcou uma grande evolução para o desenvolvimento de pipelines. DLT agora é Lakeflow Declarative Pipelines, com os mesmos benefícios centrais e total compatibilidade retroativa com seus pipelines existentes. Também introduzimos o novo IDE para engenharia de dados dos Pipelines Declarativos do Lakeflow (mostrado acima), construído do zero para simplificar o desenvolvimento de pipeline com recursos como emparelhamento de código-DAG, visualizações contextuais e autoria assistida por IA.
Finalmente, anunciamos o Lakeflow Designer, uma experiência sem código para construção de pipelines de dados. Torna o ETL acessível a mais usuários - sem comprometer a prontidão para produção ou governança - gerando pipelines Lakeflow reais por trás das cenas. Prévia em breve.
Juntos, esses anúncios representam um novo capítulo na engenharia de dados - mais simples, mais escalável e mais aberto. E nas semanas desde o DAIS, mantivemos o ritmo.
Fizemos melhorias significativas no backend para ajudar o Lakeflow Declarative Pipelines a funcionar de forma mais rápida e econômica. Em geral, os pipelines serverless agora oferecem melhor relação custo-benefício graças às melhorias no motor do Photon, Enzyme, autoscaling e recursos avançados como AutoCDC e Expectativas de Qualidade de Dados.
Aqui estão os principais pontos a serem lembrados:
Essas mudanças reforçam nosso compromisso contínuo de tornar o Lakeflow Declarative Pipelines a opção mais eficiente para ETL em produção em grande escala.
Desde o Data + AI Summit, entregamos uma série de atualizações que tornam os pipelines mais modulares, prontos para produção e mais fáceis de operar - sem a necessidade de configuração adicional ou código de cola.
Gerenciar a saúde da tabela agora é mais fácil e mais econômico:
Novas capacidades dão às equipes maior flexibilidade em como estruturam e gerenciam pipelines, tudo sem qualquer reprocessamento de dados:
Após executar o comando e mover a definição da tabela da origem para o pipeline de destino, o pipeline de destino assume as atualizações para a tabela.
Uma nova tabela de sistema de pipeline agora está em Visualização Pública, dando a você uma visão completa e consultável de todos os pipelines em seu espaço de trabalho. Inclui metadados como criador, tags e eventos de ciclo de vida (como exclusões ou alterações de configuração), e pode ser unido a logs de faturamento para atribuição de custos e relatórios. Isso é especialmente útil para equipes que gerenciam muitos pipelines e procuram acompanhar os custos em ambientes ou unidades de negócios.
Uma segunda tabela de sistema para atualizações de pipeline - cobrindo histórico de atualização, desempenho e falhas - está planejada para o final deste verão.
Novo no Lakeflow ou procurando aprofundar suas habilidades? Lançamos três cursos de treinamento gratuitos e autoinstrucionais para ajudá-lo a começar:
Todos os três cursos estão disponíveis agora sem custo na Databricks Academy.
(This blog post has been translated using AI-powered tools) Original Post