Data Engineering with Databricks - Portuguese BR
Este é um curso introdutório que serve como um ponto de partida adequado para aprender Engenharia de Dados com o Databricks.
Abaixo, descrevemos cada um dos quatro módulos de quatro horas incluídos neste curso.
1. Data Ingestion with Lakeflow Connect
Este curso oferece uma introdução abrangente ao Lakeflow Connect como uma solução escalável e simplificada para ingestão de dados no Databricks a partir de uma variedade de fontes de dados. Você começará explorando os diferentes tipos de conectores no Lakeflow Connect (padrão e gerenciado), aprenderá sobre várias técnicas de ingestão, incluindo em lote, em lote incremental e streaming, e então revisará os principais benefícios das tabelas Delta e da arquitetura Medallion.
A partir daí, você adquirirá habilidades práticas para importar dados de forma eficiente do armazenamento de objetos em nuvem usando conectores padrão do Lakeflow Connect com métodos como CREATE TABLE AS (CTAS), COPY INTO e Auto Loader, juntamente com os benefícios e considerações de cada abordagem. Em seguida, você aprenderá como anexar colunas de metadados às suas tabelas de nível bronze durante a ingestão na plataforma de inteligência de dados Databricks. Em seguida, você trabalhará com a coluna de dados resgatados, que lida com registros que não correspondem ao esquema da sua tabela bronze, incluindo estratégias para gerenciar esses dados resgatados.
O curso também apresenta técnicas para ingestão e achatamento de dados JSON semiestruturados, bem como ingestão de dados de nível empresarial usando conectores gerenciados do Lakeflow Connect.
Por fim, os alunos explorarão estratégias alternativas de ingestão, incluindo operações MERGE INTO e aproveitando o Databricks Marketplace, equipando-os com conhecimentos básicos para dar suporte à ingestão de engenharia de dados moderna.
2. Deploy Workloads with Lakeflow Jobs
O curso Implante cargas de trabalho com Lakeflow Jobs ensina como orquestrar e automatizar fluxos de trabalho de dados, análises e IA usando Lakeflow Jobs. Você aprenderá a criar pipelines robustos e prontos para produção com agendamento flexível, orquestração avançada e práticas recomendadas para confiabilidade e eficiência, tudo integrado nativamente à plataforma de inteligência de dados Databricks. É recomendável ter experiência prévia com Databricks, Python e SQL.
3. Build Data Pipelines with Lakeflow Declarative Pipelines
Este curso apresenta aos usuários os conceitos e habilidades essenciais necessários para criar pipelines de dados usando Lakeflow Spark Declarative Pipelines em Databricks para ingestão e processamento incrementais em lote ou transmissão por meio de várias streaming tables e materialized views. Projetado para engenheiros de dados novos em Spark Declarative Pipelines, o curso fornece uma visão geral abrangente dos principais componentes, como processamento incremental de dados, streaming tables, materialized views e views temporárias, destacando suas finalidades e diferenças específicas.
Os tópicos abordados incluem:
- Desenvolvimento e depuração de pipelines ETL com o editor de vários arquivos no Lakeflow usando SQL (com exemplos de código Python fornecidos)
- Como os Lakeflow Spark Declarative Pipelines acompanham dependências de dados em um pipeline através do gráfico de pipeline
- Configuração de recursos de compute do pipeline, ativos de dados, modos de gatilho e outras opções avançadas.
Em seguida, o curso apresenta as expectativas de qualidade de dados no Spark Declarative Pipelines, orientando os usuários pelo processo de integração de expectativas em pipelines para validar e impor a integridade dos dados. Em seguida, os alunos explorarão como colocar um pipeline em produção, incluindo opções de agendamento, modo de produção e habilitação do log de eventos do pipeline para monitorar o desempenho e a integridade do pipeline.
Finalmente, o curso aborda como implementar a captura de dados de alterações (CDC) usando a sintaxe AUTO CDC INTO dentro dos Spark Declarative Pipelines para gerenciar dimensões que mudam lentamente (SCD Tipo 1 e Tipo 2), preparando os usuários para integrar CDC em seus próprios pipelines.
4. Essenciais de DevOps para Engenharia de Dados
Este curso explora as melhores práticas de engenharia de software e os princípios de DevOps, projetados especificamente para engenheiros de dados que trabalham com Databricks. Os participantes construirão uma base sólida em tópicos-chave, como qualidade de código, controle de versão, documentação e testes. O curso enfatiza o DevOps, abordando os principais componentes, os benefícios e o papel da continuous integration e delivery (CI/CD) na otimização dos fluxos de trabalho de engenharia de dados.
Você aprenderá a aplicar princípios de modularidade no PySpark para criar componentes reutilizáveis e estruturar código de forma eficiente. A experiência prática inclui o projeto e a implementação de testes unitários para funções do PySpark usando a estrutura pytest, seguidos por testes de integração para pipelines de dados Databricks com DLT (Delta Live Tables) e fluxos de trabalho para garantir a confiabilidade.
O curso também aborda operações essenciais do Git no Databricks, incluindo o uso de pastas Git do Databricks para integrar práticas de integração contínua. Por fim, você examinará de alto nível vários métodos de implantação de ativos do Databricks, como REST API, CLI, SDK e DABs (Databricks Asset Bundles), fornecendo o conhecimento de técnicas para implantar e gerenciar seus pipelines.
Ao final do curso, você será proficiente em software engineering e práticas recomendadas de DevOps, permitindo que você crie soluções de engenharia de dados escaláveis, sustentáveis e eficientes.
Languages Available: English | 日本語 | Português BR | 한국어 | Español
1. Data Ingestion with Lakeflow Connect
⇾ Conhecimento básico da plataforma de inteligência de dados Databricks, incluindo Databricks Workspaces, Apache Spark, Delta Lake, Medallion Architecture e Unity Catalog.
⇾ Experiência com vários formatos de arquivo (por exemplo, Parquet, CSV, JSON, TXT).
⇾ Proficiência em SQL e Python.
⇾ Familiaridade com a execução de código em notebooks Databricks.
2. Deploy Workloads with Lakeflow Jobs
⇾ Familiaridade básica com conceitos básicos de nuvem (máquinas virtuais, armazenamento de objetos, gerenciamento de identidade)
⇾ Capacidade de realizar tarefas básicas de desenvolvimento de código (criar computação, executar código em notebooks, usar operações básicas de notebook, importar repositórios do git, etc.)
⇾ Familiaridade intermediária com conceitos básicos de SQL (CREATE, SELECT, INSERT, UPDATE, DELETE, WHILE, GROUP BY, JOIN, etc.)
3. Build Data Pipelines with Lakeflow Declarative Pipelines
⇾ Noções básicas sobre a Databricks Data Intelligence Platform, incluindo Databricks Workspaces, Apache Spark, Delta Lake, Medallion Architecture e Unity Catalog.
⇾ Experiência na ingestão de dados brutos em tabelas Delta, incluindo o uso da read_files função SQL para carregar formatos como CSV, JSON, TXT e Parquet.
⇾ Proficiência na transformação de dados usando SQL, incluindo escrever queries de nível intermediário e uma compreensão básica de joins SQL.
4. Essenciais de DevOps para Engenharia de Dados
⇾ Conhecimento proficiente da plataforma Databricks, incluindo experiência com Databricks Workspaces, Apache Spark, Delta Lake e Medallion Architecture, Unity Catalog, Delta Live Tables e fluxos de trabalho. Uma compreensão básica do controle de versão Git também é necessária.
⇾ Experiência em ingestão e transformação de dados, com proficiência em PySpark para processamento de dados e manipulações de DataFrame. Além disso, os candidatos devem ter experiência em escrever queries SQL de nível intermediário para análise e transformação de dados.
⇾ Conhecimento de programação Python, com proficiência em escrever código Python de nível intermediário, incluindo a capacidade de projetar e implementar funções e classes. Os usuários também devem ser hábeis em criar, importar e utilizar efetivamente pacotes Python.
Outline
1. Data Ingestion with Lakeflow Connect
⇾ Introdução à engenharia de dados no Databricks
⇾ Ingestão de armazenamento em nuvem com o conector padrão LakeFlow Connect
⇾ Ingestão de dados empresariais com conectores gerenciados LakeFlow Connect
⇾ Alternativas de ingestão
2. Deploy Workloads with Lakeflow Jobs
⇾ Introdução à engenharia de dados no Databricks
⇾ Conceitos básicos do Lakeflow Jobs
⇾ Criação e agendamento de tarefas
⇾ Recursos avançados do Lakeflow Jobs
3. Build Data Pipelines with Lakeflow Declarative Pipelines
⇾ Introdução à engenharia de dados no Databricks
⇾ Fundamentos do pipeline declarativo do Lakeflow
⇾ Criação de pipelines declarativos do Lakeflow
4. Essenciais de DevOps para Engenharia de Dados
Software Engineering, DevOps e Fundamentos de CI/CD
⇾ Introdução às práticas recomendadas de Software Engineering (SWE)
⇾ Introdução a Modularizando Código em PySpark
⇾ Modularizar o Código PySpark
⇾ Fundamentos de DevOps
⇾ O papel da CI/CD na DevOps
⇾ Verificação de Conhecimento/Discussão
Continuous Integration
⇾ Planejando do Projeto
⇾ Exploração de configuração do projeto
⇾ Introdução aos testes de unidade para PySpark
⇾ Criando e executando testes unitários
⇾ Executando testes de integração com DLT e Fluxos de trabalho
⇾ Realização de Testes de integração com DLT e Fluxos de trabalho
⇾ Version Control with Git Overview
Introdução a Continuous Deployment
⇾ Visão geral da implantação de ativos do Databricks (slides)
⇾ Implantação do projeto Databricks
Upcoming Public Classes
Date | Time | Language | Price |
|---|---|---|---|
Jan 08 - 09 | 09 AM - 05 PM (America/Sao_Paulo) | Portuguese - BR | $1500.00 |
Public Class Registration
If your company has purchased success credits or has a learning subscription, please fill out the Training Request form. Otherwise, you can register below.
Private Class Request
If your company is interested in private training, please submit a request.
Registration options
Databricks has a delivery method for wherever you are on your learning journey
Self-Paced
Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos
Register nowInstructor-Led
Public and private courses taught by expert instructors across half-day to two-day courses
Register nowBlended Learning
Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase
Purchase nowSkills@Scale
Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details

