Os clientes do Azure Data Factory agora podem acionar os Fluxos de Trabalho do Databricks usando a nova atividade nativa de Job do Databricks, desbloqueando uma integração mais profunda entre as duas plataformas. Esta melhor prática ajuda os clientes a aproveitar totalmente a Plataforma de Inteligência de Dados do Databricks, incluindo recursos avançados como Databricks SQL, DLT e publicação no Power BI. Ao migrar das atividades do Notebook para os Fluxos de Trabalho, os clientes podem melhorar o desempenho, reduzir custos e simplificar as operações em seus pipelines de dados e IA.
Azure Databricks é um serviço da Microsoft de primeira linha, integrado nativamente ao ecossistema Azure para unificar dados e IA com análises de alto desempenho e suporte profundo a ferramentas. Essa integração agora inclui uma atividade nativa de trabalho do Databricks no Azure Data Factory (ADF), tornando mais fácil do que nunca acionar fluxos de trabalho do Databricks diretamente dentro do ADF.
Esta nova atividade no ADF é uma prática recomendada imediata, e todos os usuários de ADF e Azure Databricks devem considerar a adoção deste padrão.
A nova atividade de trabalho do Databricks é muito simples de usar:
3. Na aba de configurações, selecione um Fluxo de Trabalho do Databricks para executar na lista suspensa de Jobs (você só verá os Jobs aos quais seu principal autenticado tem acesso). Na seção Parâmetros do Job abaixo, configure os Parâmetros do Job (se houver) para enviar ao Fluxo de Trabalho do Databricks. Para saber mais sobre os Parâmetros do Job do Databricks, por favor, verifique os documentos.
É só isso. O ADF iniciará seu Fluxo de Trabalho Databricks e fornecerá o ID e URL da Execução do Job. O ADF então verificará a conclusão da Execução do Job. Leia mais abaixo para entender por que esse novo padrão é um clássico instantâneo.
Usar o Azure Data Factory e o Azure Databricks juntos tem sido um padrão GA desde 2018, quando foi lançado com este post de blog. Desde então, a integração tem sido um padrão para os clientes Azure que têm seguido principalmente este padrão simples:
Embora este padrão tenha sido extremamente valioso ao longo do tempo, ele limitou os clientes aos seguintes modos de operação, que os privam do valor total do Databricks:
Embora este padrão seja escalável e nativo do Azure Data Factory e Azure Databricks, as ferramentas e capacidades que oferece permaneceram as mesmas desde seu lançamento em 2018, mesmo que o Databricks tenha crescido e se destacado como a principal Plataforma de Inteligência de Dados em todas as nuvens.
O Azure Databricks vai além das análises tradicionais para entregar uma Plataforma de Inteligência de Dados unificada no Azure. Combina a arquitetura Lakehouse líder do setor com IA integrada e governança avançada para ajudar os clientes a desbloquear insights mais rapidamente, a um custo menor e com segurança de nível empresarial. As principais capacidades incluem:
Com o lançamento da atividade nativa de trabalho do Databricks no Azure Data Factory, os clientes agora podem executar fluxos de trabalho do Databricks e passar parâmetros para as execuções de trabalhos. Este novo padrão não só resolve as restrições destacadas acima, mas também permite o uso das seguintes funcionalidades no Databricks que não estavam disponíveis anteriormente no ADF como:
Acima de tudo, os clientes agora podem usar a atividade de trabalho do ADF Databricks para aproveitar o Publicar para Tarefas do Power BI em Fluxos de Trabalho do Databricks, que publicará automaticamente Modelos Semânticos para o Serviço Power BI a partir de esquemas no Catálogo Unity e acionará uma Importação se houver tabelas com modos de armazenamento usando Importação ou Dual (instruções de configuração documentação). Uma demonstração sobre Tarefas do Power BI em Fluxos de Trabalho do Databricks pode ser encontrada aqui. Para complementar isso, confira a Folha de Dicas de Melhores Práticas do Power BI no Databricks - um guia conciso e prático que ajuda as equipes a configurar e otimizar seus relatórios para desempenho, custo e experiência do usuário desde o início.
A atividade Job Databricks no ADF é a Nova Melhor Prática
Usar a atividade de trabalho do Databricks no Azure Data Factory para iniciar fluxos de trabalho do Databricks é a nova melhor prática de integração ao usar as duas ferramentas. Os clientes podem começar imediatamente a usar este padrão paraaproveitar todas as capacidades da Plataforma de Inteligência de Dados do Databricks. Para os clientes que usam o ADF, o uso da atividade de trabalho do Databricks no ADF resultará em valor de negócio imediato e economia de custos. Os clientes com frameworks ETL que estão usando atividades de Notebook devem migrar seus frameworks para usar fluxos de trabalho do Databricks e a nova atividade de trabalho do Databricks no ADF e priorizar esta iniciativa em seu roadmap.
Comece com um Teste Gratuito de 14 dias do Azure Databricks.
(This blog post has been translated using AI-powered tools) Original Post