Este é um curso introdutório que serve como um ponto de partida adequado para aprender Engenharia de Dados com o Databricks.
Abaixo, descrevemos cada um dos quatro módulos de quatro horas incluídos neste curso.
1. Data Ingestion with Lakeflow Connect
Este curso oferece uma introdução abrangente ao Lakeflow Connect como uma solução escalável e simplificada para ingestão de dados no Databricks a partir de uma variedade de fontes de dados. Você começará explorando os diferentes tipos de conectores no Lakeflow Connect (padrão e gerenciado), aprenderá sobre várias técnicas de ingestão, incluindo em lote, em lote incremental e streaming, e então revisará os principais benefícios das tabelas Delta e da arquitetura Medallion.
A partir daí, você adquirirá habilidades práticas para importar dados de forma eficiente do armazenamento de objetos em nuvem usando conectores padrão do Lakeflow Connect com métodos como CREATE TABLE AS (CTAS), COPY INTO e Auto Loader, juntamente com os benefícios e considerações de cada abordagem. Em seguida, você aprenderá como anexar colunas de metadados às suas tabelas de nível bronze durante a ingestão na plataforma de inteligência de dados Databricks. Em seguida, você trabalhará com a coluna de dados resgatados, que lida com registros que não correspondem ao esquema da sua tabela bronze, incluindo estratégias para gerenciar esses dados resgatados.
O curso também apresenta técnicas para ingestão e achatamento de dados JSON semiestruturados, bem como ingestão de dados de nível empresarial usando conectores gerenciados do Lakeflow Connect.
Por fim, os alunos explorarão estratégias alternativas de ingestão, incluindo operações MERGE INTO e aproveitando o Databricks Marketplace, equipando-os com conhecimentos básicos para dar suporte à ingestão de engenharia de dados moderna.
2. Deploy Workloads with Lakeflow Jobs
O curso Implante cargas de trabalho com Lakeflow Jobs ensina como orquestrar e automatizar fluxos de trabalho de dados, análises e IA usando Lakeflow Jobs. Você aprenderá a criar pipelines robustos e prontos para produção com agendamento flexível, orquestração avançada e práticas recomendadas para confiabilidade e eficiência, tudo integrado nativamente à plataforma de inteligência de dados Databricks. É recomendável ter experiência prévia com Databricks, Python e SQL.
3. Build Data Pipelines with Lakeflow Declarative Pipelines
Este curso apresenta aos usuários os conceitos e habilidades essenciais necessários para criar pipelines de dados usando Lakeflow Spark Declarative Pipelines em Databricks para ingestão e processamento incrementais em lote ou transmissão por meio de várias streaming tables e materialized views. Projetado para engenheiros de dados novos em Spark Declarative Pipelines, o curso fornece uma visão geral abrangente dos principais componentes, como processamento incremental de dados, streaming tables, materialized views e views temporárias, destacando suas finalidades e diferenças específicas.
Os tópicos abordados incluem:
- Desenvolvimento e depuração de pipelines ETL com o editor de vários arquivos no Lakeflow usando SQL (com exemplos de código Python fornecidos)
- Como os Lakeflow Spark Declarative Pipelines acompanham dependências de dados em um pipeline através do gráfico de pipeline
- Configuração de recursos de compute do pipeline, ativos de dados, modos de gatilho e outras opções avançadas.
Em seguida, o curso apresenta as expectativas de qualidade de dados no Spark Declarative Pipelines, orientando os usuários pelo processo de integração de expectativas em pipelines para validar e impor a integridade dos dados. Em seguida, os alunos explorarão como colocar um pipeline em produção, incluindo opções de agendamento, modo de produção e habilitação do log de eventos do pipeline para monitorar o desempenho e a integridade do pipeline.
Finalmente, o curso aborda como implementar a captura de dados de alterações (CDC) usando a sintaxe AUTO CDC INTO dentro dos Spark Declarative Pipelines para gerenciar dimensões que mudam lentamente (SCD Tipo 1 e Tipo 2), preparando os usuários para integrar CDC em seus próprios pipelines.
4. Essenciais de DevOps para Engenharia de Dados
Este curso explora as melhores práticas de engenharia de software e os princípios de DevOps, projetados especificamente para engenheiros de dados que trabalham com Databricks. Os participantes construirão uma base sólida em tópicos-chave, como qualidade de código, controle de versão, documentação e testes. O curso enfatiza o DevOps, abordando os principais componentes, os benefícios e o papel da continuous integration e delivery (CI/CD) na otimização dos fluxos de trabalho de engenharia de dados.
Você aprenderá a aplicar princípios de modularidade no PySpark para criar componentes reutilizáveis e estruturar código de forma eficiente. A experiência prática inclui o projeto e a implementação de testes unitários para funções do PySpark usando a estrutura pytest, seguidos por testes de integração para pipelines de dados Databricks com DLT (Delta Live Tables) e fluxos de trabalho para garantir a confiabilidade.
O curso também aborda operações essenciais do Git no Databricks, incluindo o uso de pastas Git do Databricks para integrar práticas de integração contínua. Por fim, você examinará de alto nível vários métodos de implantação de ativos do Databricks, como REST API, CLI, SDK e DABs (Databricks Asset Bundles), fornecendo o conhecimento de técnicas para implantar e gerenciar seus pipelines.
Ao final do curso, você será proficiente em software engineering e práticas recomendadas de DevOps, permitindo que você crie soluções de engenharia de dados escaláveis, sustentáveis e eficientes.
Languages Available: English | 日本語 | Português BR | 한국어 | Español | française