Ir para o conteúdo principal

Data Engineering with Databricks - Portuguese BR

Este é um curso introdutório que serve como um ponto de partida adequado para aprender Engenharia de Dados com o Databricks.

Abaixo, descrevemos cada um dos quatro módulos de quatro horas incluídos neste curso.


1. Data Ingestion with Lakeflow Connect 

Este curso oferece uma introdução abrangente ao Lakeflow Connect como uma solução escalável e simplificada para ingestão de dados no Databricks a partir de uma variedade de fontes de dados. Você começará explorando os diferentes tipos de conectores no Lakeflow Connect (padrão e gerenciado), aprenderá sobre várias técnicas de ingestão, incluindo em lote, em lote incremental e streaming, e então revisará os principais benefícios das tabelas Delta e da arquitetura Medallion.


A partir daí, você adquirirá habilidades práticas para importar dados de forma eficiente do armazenamento de objetos em nuvem usando conectores padrão do Lakeflow Connect com métodos como CREATE TABLE AS (CTAS), COPY INTO e Auto Loader, juntamente com os benefícios e considerações de cada abordagem. Em seguida, você aprenderá como anexar colunas de metadados às suas tabelas de nível bronze durante a ingestão na plataforma de inteligência de dados Databricks. Em seguida, você trabalhará com a coluna de dados resgatados, que lida com registros que não correspondem ao esquema da sua tabela bronze, incluindo estratégias para gerenciar esses dados resgatados.


O curso também apresenta técnicas para ingestão e achatamento de dados JSON semiestruturados, bem como ingestão de dados de nível empresarial usando conectores gerenciados do Lakeflow Connect.


Por fim, os alunos explorarão estratégias alternativas de ingestão, incluindo operações MERGE INTO e aproveitando o Databricks Marketplace, equipando-os com conhecimentos básicos para dar suporte à ingestão de engenharia de dados moderna.


2. Deploy Workloads with Lakeflow Jobs

O curso Implante cargas de trabalho com Lakeflow Jobs ensina como orquestrar e automatizar fluxos de trabalho de dados, análises e IA usando Lakeflow Jobs. Você aprenderá a criar pipelines robustos e prontos para produção com agendamento flexível, orquestração avançada e práticas recomendadas para confiabilidade e eficiência, tudo integrado nativamente à plataforma de inteligência de dados Databricks. É recomendável ter experiência prévia com Databricks, Python e SQL.


3. Build Data Pipelines with Lakeflow Declarative Pipelines

Este curso apresenta aos usuários os conceitos e habilidades essenciais necessários para construir pipelines de dados usando Lakeflow Declarative Pipelines no Databricks para ingestão e processamento incremental em lote ou streaming por meio de várias tabelas de streaming e visualizações materializadas. Projetado para engenheiros de dados novos no Lakeflow Declarative Pipelines, o curso oferece uma visão geral abrangente dos componentes principais, como processamento incremental de dados, tabelas de streaming, visualizações materializadas e visualizações temporárias, destacando suas finalidades específicas e diferenças.


Os tópicos abordados incluem:

⇾ Desenvolvimento e depuração de pipelines ETL com o editor de vários arquivos no Lakeflow usando SQL (com exemplos de código Python fornecidos)

⇾ Como o Lakeflow Declarative Pipelines rastreia as dependências de dados em um pipeline por meio do gráfico do pipeline

⇾ Configuração de recursos de computação do pipeline, ativos de dados, modos de acionamento e outras opções avançadas


Em seguida, o curso apresenta as expectativas de qualidade de dados no Lakeflow, orientando os usuários através do processo de integração das expectativas nos pipelines para validar e garantir a integridade dos dados. Os alunos explorarão então como colocar um pipeline em produção, incluindo opções de agendamento, modo de produção e ativação do registro de eventos do pipeline para monitorar o desempenho e a integridade do pipeline.


Por fim, o curso aborda como implementar a Captura de Dados Alterados (CDC) usando a sintaxe APPLY CHANGES INTO no Lakeflow Declarative Pipelines para gerenciar dimensões que mudam lentamente (SCD Tipo 1 e Tipo 2), preparando os usuários para integrar o CDC em seus próprios pipelines.


4. Data Management and Governance with Unity Catalog

Neste curso, você aprenderá sobre gerenciamento e governança de dados usando o Databricks Unity Catalog. Ele abrange conceitos básicos de governança de dados, complexidades no gerenciamento de data lakes, arquitetura do Unity Catalog, segurança, administração e tópicos avançados, como controle de acesso refinado, segregação de dados e gerenciamento de privilégios.


* Este curso tem como objetivo preparar os alunos para a realização do exame de certificação Associate Data Engineering e fornece o conhecimento necessário para fazer o curso Advanced Data Engineering with Databricks.


Languages Available: English | 日本語 | Português BR | 한국어 | Español

Skill Level
Associate
Duration
16h
Prerequisites

1. Data Ingestion with Lakeflow Connect

⇾ Conhecimento básico da plataforma de inteligência de dados Databricks, incluindo Databricks Workspaces, Apache Spark, Delta Lake, Medallion Architecture e Unity Catalog.

⇾ Experiência com vários formatos de arquivo (por exemplo, Parquet, CSV, JSON, TXT).

⇾ Proficiência em SQL e Python.

⇾ Familiaridade com a execução de código em notebooks Databricks.


2. Deploy Workloads with Lakeflow Jobs

⇾ Familiaridade básica com conceitos básicos de nuvem (máquinas virtuais, armazenamento de objetos, gerenciamento de identidade)

⇾ Capacidade de realizar tarefas básicas de desenvolvimento de código (criar computação, executar código em notebooks, usar operações básicas de notebook, importar repositórios do git, etc.)

⇾ Familiaridade intermediária com conceitos básicos de SQL (CREATE, SELECT, INSERT, UPDATE, DELETE, WHILE, GROUP BY, JOIN, etc.)


3. Build Data Pipelines with Lakeflow Declarative Pipelines

⇾ Conhecimento básico da plataforma de inteligência de dados Databricks, incluindo Databricks Workspaces, Apache Spark, Delta Lake, Medallion Architecture e Unity Catalog.

⇾ Experiência na ingestão de dados brutos em tabelas Delta, incluindo o uso da função SQL read_files para carregar formatos como CSV, JSON, TXT e Parquet.

⇾ Proficiência na transformação de dados usando SQL, incluindo a escrita de consultas de nível intermediário e um conhecimento básico de junções SQL.


4. Data Management and Governance with Unity Catalog

⇾ Familiaridade básica com conceitos de computação em nuvem (máquinas virtuais, armazenamento de objetos, etc.)

⇾ Experiência intermediária com conceitos básicos de SQL, como comandos SQL, funções agregadas, filtros e classificação, índices, tabelas e visualizações.

⇾ Conhecimento básico de programação Python, interface Jupyter Notebook e fundamentos do PySpark.

Outline

1. Data Ingestion with Lakeflow Connect

⇾ Introdução à engenharia de dados no Databricks

⇾ Ingestão de armazenamento em nuvem com o conector padrão LakeFlow Connect

⇾ Ingestão de dados empresariais com conectores gerenciados LakeFlow Connect

⇾ Alternativas de ingestão


2. Deploy Workloads with Lakeflow Jobs

⇾ Introdução à engenharia de dados no Databricks

⇾ Conceitos básicos do Lakeflow Jobs

⇾ Criação e agendamento de tarefas

⇾ Recursos avançados do Lakeflow Jobs


3. Build Data Pipelines with Lakeflow Declarative Pipelines

⇾ Introdução à engenharia de dados no Databricks

⇾ Fundamentos do pipeline declarativo do Lakeflow

⇾ Criação de pipelines declarativos do Lakeflow



4. Data Management and Governance with Unity Catalog

⇾ Visão geral da governança de dados

⇾ Demonstração: preenchimento do Metastore

⇾ Laboratório: navegação no Metastore

⇾ Padrões de organização e acesso

⇾ Demonstração: atualização de tabelas para o Unity Catalog

⇾ Segurança e administração no Unity Catalog

⇾ Visão geral do Databricks Marketplace

⇾ Privilégios no Unity Catalog

⇾ Demonstração: controle de acesso aos dados

⇾ Controle de acesso refinado

⇾ Laboratório: migração e gerenciamento de dados no Unity Catalog

Upcoming Public Classes

Date
Time
Language
Price
Dec 15 - 16
09 AM - 05 PM (America/Sao_Paulo)
Portuguese - BR
$1500.00
Jan 08 - 09
09 AM - 05 PM (America/Sao_Paulo)
Portuguese - BR
$1500.00

Public Class Registration

If your company has purchased success credits or has a learning subscription, please fill out the Training Request form. Otherwise, you can register below.

Private Class Request

If your company is interested in private training, please submit a request.

See all our registration options

Registration options

Databricks has a delivery method for wherever you are on your learning journey

Runtime

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

Register now

Instructors

Instructor-Led

Public and private courses taught by expert instructors across half-day to two-day courses

Register now

Learning

Blended Learning

Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase

Purchase now

Scale

Skills@Scale

Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details

Upcoming Public Classes

Questions?

If you have any questions, please refer to our Frequently Asked Questions page.