Ir para o conteúdo principal

Get Started with Databricks for Data Engineering - Portuguese BR

Neste curso, você aprenderá habilidades básicas que permitirão que você use a Databricks Data Intelligence Platform para executar um fluxo de trabalho simples de engenharia de dados e dar suporte a empreendimentos de data warehousing. Você fará um tour pelo workspace e aprenderá a trabalhar com objetos em Databricks como catálogos, esquemas, volumes, tabelas, clusters de compute e Notebooks. Em seguida, você seguirá um fluxo de trabalho básico de engenharia de dados para executar tarefas como criar e trabalhar com tabelas, ingerir dados em Delta Lake, transformar dados por meio da arquitetura medallion e usar Databricks Workflows para orquestrar tarefas de engenharia de dados. Você também aprenderá como a Databricks dá suporte às necessidades de data warehousing por meio do uso de Databricks SQL, Pipelines Declarativos do Lakeflow e Unity Catalog. 


Com a compra de uma assinatura Databricks Labs, o curso também se encerra com um exercício de laboratório abrangente para praticar o que você aprendeu em um ambiente Databricks Workspace ao vivo.


Languages Available: English | 日本語 | Português BR | 한국어 | Español française

Skill Level
Onboarding
Duration
2h
Prerequisites

Uma compreensão básica dos princípios e tópicos de engenharia de dados, como coleção, extração, ingestão e transformação de dados.

Upcoming Public Classes

Date
Time
Language
Price
Sep 24
09 AM - 11 AM (America/Sao_Paulo)
Portuguese - BR
Free
Oct 23
09 AM - 11 AM (America/Sao_Paulo)
Portuguese - BR
Free

Public Class Registration

If your company has purchased success credits or has a learning subscription, please fill out the Training Request form. Otherwise, you can register below.

Private Class Request

If your company is interested in private training, please submit a request.

See all our registration options

Registration options

Databricks has a delivery method for wherever you are on your learning journey

Runtime

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

Register now

Instructors

Instructor-Led

Public and private courses taught by expert instructors across half-day to two-day courses

Register now

Learning

Blended Learning

Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase

Purchase now

Scale

Skills@Scale

Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details

Upcoming Public Classes

Data Engineer

Automated Deployment with Databricks Asset Bundles - Portuguese BR

Este curso fornece uma revisão abrangente dos princípios de DevOps e sua aplicação em projetos Databricks. Ele começa com uma visão geral dos principais DevOps, DataOps, integração contínua (CI), implantação contínua (CD) e testes, e explora como esses princípios podem ser aplicados a pipelines de engenharia de dados.

Em seguida, o curso se concentra na implantação contínua dentro do processo de CI/CD, examinando ferramentas como a API REST do Databricks, o SDK e a CLI para implantação de projetos. Você aprenderá sobre os DABs (Asset Bundles, pacotes de ativos do Databricks) e como eles se encaixam no processo de CI/CD. Você se aprofundará em seus principais componentes, na estrutura de pastas e em como eles simplificam a implantação em vários ambientes de destino no Databricks. Você também aprenderá a adicionar variáveis, modificar, validar, implantar e executar Databricks Asset Bundles para vários ambientes com configurações diferentes usando a CLI do Databricks.

Por fim, o curso apresenta o Visual Studio Code como um ambiente de desenvolvimento interativo (IDE) para criar, testar e implantar Databricks Asset Bundles localmente, otimizando seu processo de desenvolvimento. O curso termina com uma introdução à automação de pipelines de implantação usando ações do GitHub para aprimorar o fluxo de trabalho de CI/CD com Databricks Asset Bundles.

Ao final deste curso, você estará equipado para automatizar as implantações de projetos do Databricks com os Databricks Asset Bundles, melhorando a eficiência por meio de práticas de DevOps.

Nota: Este curso é o quarto da série “Engenharia de dados avançada com Databricks”.

Languages Available: English | 日本語 | Português BR | 한국어 

Free
2h
Professional
Data Engineer

Build Data Pipelines with Lakeflow Declarative Pipelines - Portuguese BR

Este curso apresenta aos usuários os conceitos e habilidades essenciais necessários para criar pipelines de dados usando pipelines declarativos do Lakeflow em Databricks para ingestão e processamento incrementais em lote ou transmissão por meio de várias streaming tables e materialized views. Projetado para engenheiros de dados novos em pipelines declarativos Lakeflow, o curso fornece uma visão geral abrangente dos principais componentes, como processamento incremental de dados, streaming tables, materialized views e views temporárias, destacando suas finalidades e diferenças específicas.

Os tópicos abordados incluem:

- Desenvolvimento e depuração de pipelines ETL com o editor de vários arquivos no Lakeflow usando SQL (com exemplos de código Python fornecidos)

- Como os pipelines declarativos do Lakeflow acompanham dependências de dados em um pipeline através do gráfico de pipeline

- Configuração de recursos de computação do pipeline, ativos de dados, modos de gatilho e outras opções avançadas.

 Em seguida, o curso apresenta as expectativas de qualidade de dados no Lakeflow, orientando os usuários pelo processo de integração de expectativas em pipelines para validar e impor a integridade dos dados. Em seguida, os alunos explorarão como colocar um pipeline em produção, incluindo opções de agendamento, modo de produção e habilitação do log de eventos do pipeline para monitorar o desempenho e a integridade do pipeline.

 Finalmente, o curso aborda como implementar a captura de dados de alterações (CDC) usando a sintaxe APPLY CHANGES INTO dentro dos Pipelines Declarativos do Lakeflow para gerenciar dimensões que mudam lentamente (SCD Tipo 1 e Tipo 2), preparando os usuários para integrar CDC em seus próprios pipelines.

Languages Available: English | 日本語 | Português BR | 한국어

Free
4h
Associate

Questions?

If you have any questions, please refer to our Frequently Asked Questions page.