Ir para o conteúdo principal

Deploy Workloads with Lakeflow Jobs - Portuguese BR

O curso Implante cargas de trabalho com Lakeflow Jobs ensina como orquestrar e automatizar fluxos de trabalho de dados, análises e IA usando o Lakeflow Jobs como uma plataforma de orquestração unificada dentro do ecossistema Databricks. 

⇾ Você aprenderá a projetar e implementar cargas de trabalho de dados usando gráficos acíclicos direcionados (DAGs), configurar várias opções de agendamento e implementar recursos avançados de fluxo de trabalho, como execução condicional de tarefas, dependências run-if e loops for each. 

⇾ O curso aborda as melhores práticas para criar pipelines robustos e prontos para produção com seleção adequada de computação, orquestração modular, técnicas de tratamento de erros e design tolerante a falhas, tudo integrado nativamente à plataforma de inteligência de dados Databricks.


Languages Available: English | 日本語 | Português BR | 한국어 | Español | française

Skill Level
Associate
Duration
4h
Prerequisites
  • ⇾ Conclusão do curso “Introdução ao Databricks para engenharia de dados” ou sólido conhecimento da plataforma de inteligência de dados Databricks.

⇾ Conhecimento básico de tópicos como navegação no Databricks Workspace, Apache Spark, Delta Lake, arquitetura Medallion e Unity Catalog.

⇾ Familiaridade com python/pyspark.

⇾ Experiência na escrita de consultas SQL de nível intermediário.

Outline

Introdução à engenharia de dados no Databricks

⇾ Engenharia de dados no Databricks

⇾ O que são tarefas do Lakeflow?


Conceitos básicos das tarefas do Lakeflow

⇾ Componentes básicos das tarefas do Lakeflow

⇾ Orquestração de tarefas

⇾ Criação de uma tarefa usando a interface do usuário das tarefas do Lakeflow


Criação e programação de Jobs

⇾ Opções comuns de configuração de tarefas

⇾ Programação e acionadores de Jobs

⇾ Demonstração - Explorando as opções de programação


Recursos avançados do Lakeflow Jobs

⇾ Tarefas condicionais e iterativas

⇾ Tratamento de falhas nas tarefas

⇾ Lakeflow Jobs em produção

⇾ Práticas recomendadas

Public Class Registration

If your company has purchased success credits or has a learning subscription, please fill out the Training Request form. Otherwise, you can register below.

Private Class Request

If your company is interested in private training, please submit a request.

See all our registration options

Registration options

Databricks has a delivery method for wherever you are on your learning journey

Runtime

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

Registre-se agora

Instructors

Instructor-Led

Public and private courses taught by expert instructors across half-day to two-day courses

Registre-se agora

Learning

Blended Learning

Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase

Purchase now

Scale

Skills@Scale

Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details

Upcoming Public Classes

Data Engineer

Automated Deployment with Databricks Asset Bundles - Portuguese BR

Este curso oferece uma revisão abrangente dos princípios de DevOps e sua aplicação em projetos Databricks. Ele começa com uma visão geral dos principais conceitos de DevOps, DataOps, continuous integration (CI), continuous deployment (CD) e testes, e explora como esses princípios podem ser aplicados a pipelines de engenharia de dados.

Em seguida, o curso se concentra na continuous deployment dentro do processo de CI/CD, examinando ferramentas como a Databricks REST API, o SDK e a CLI para a implantação de projetos. Você aprenderá sobre os Databricks Asset Bundles (DABs) e como eles se encaixam no processo de CI/CD. Você se aprofundará em seus principais componentes, estrutura de pastas e como eles otimizam a implantação em vários ambientes de destino na Databricks. Você também aprenderá como adicionar variáveis, modificar, validar, implantar e executar Databricks Asset Bundles para vários ambientes com diferentes configurações usando a Databricks CLI.

Por fim, o curso apresenta o Visual Studio Code como um Interactive Development Environment (IDE) para criar, testar e implantar Databricks Asset Bundles localmente, otimizando seu processo de desenvolvimento. O curso conclui com uma introdução à automação de pipelines de implantação usando o GitHub Actions para aprimorar o fluxo de trabalho de CI/CD com Databricks Asset Bundles.

Ao final deste curso, você estará apto a automatizar implantações de projetos Databricks com Databricks Asset Bundles, melhorando a eficiência por meio de práticas de DevOps.

Languages Available: English | 日本語 | Português BR | 한국어

Paid
4h
Lab
instructor-led
Professional

Questions?

If you have any questions, please refer to our Frequently Asked Questions page.