Ir para o conteúdo principal

Data Engineering with Databricks - Portuguese BR

Este curso prepara profissionais de dados para utilizar a Plataforma Databricks Lakehouse para produtizar pipelines de ETL. Os alunos usarão Delta Live Tables para definir e programar pipelines que processam de forma incremental novos dados de uma variedade de fontes de dados no lakehouse. Os alunos também orquestrarão tarefas com o Databricks Workflows e promoverão código com o Databricks Repos.


Languages Available: English | 日本語 | Português BR | 한국어

Skill Level
Associate
Duration
16h
Prerequisites

Pré-requisitos

Pré-requisitos para as duas versões deste curso (Spark SQL e PySpark):

  • Familiaridade elementar com conceitos de computação em cloud (máquinas virtuais, armazenamento de objetos etc.)

  • Experiência de produção trabalhando com data warehouses e data lakes

  • Familiaridade com conceitos básicos de SQL (select, filter, groupby, join etc)


Pré-requisitos adicionais para a versão Python deste curso (PySpark):

  • Experiência inicial em programação com Python (sintaxe, condições, loops, funções)

  • Experiência inicial em programação com a API DataFrame do Spark:

  • Configurar o DataFrameReader e o DataFrameWriter para ler e gravar dados

  • Expressar transformações de query usando métodos do DataFrame e expressões de coluna

  • Navegar na documentação do Spark para identificar funções integradas (built-in functions) para várias transformações e tipos de dados

As habilidades de programação PySpark necessárias para a versão Python deste curso podem ser aprendidas no curso Get Started with PySpark Programming (Introdução à programação PySpark) da Databricks Academy.

Upcoming Public Classes

Date
Time
Language
Price
Jun 16 - 17
09 AM - 05 PM (America/Sao_Paulo)
Portuguese - BR
$1500.00
Jul 14 - 15
09 AM - 05 PM (America/Sao_Paulo)
Portuguese - BR
$1500.00
Aug 18 - 19
09 AM - 05 PM (America/Sao_Paulo)
Portuguese - BR
$1500.00
Sep 22 - 23
09 AM - 05 PM (America/Sao_Paulo)
Portuguese - BR
$1500.00
Oct 27 - 28
09 AM - 05 PM (America/Sao_Paulo)
Portuguese - BR
$1500.00

Public Class Registration

If your company has purchased success credits or has a learning subscription, please fill out the Training Request form. Otherwise, you can register below.

Private Class Request

If your company is interested in private training, please submit a request.

See all our registration options

Registration options

Databricks has a delivery method for wherever you are on your learning journey

Runtime

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

Register now

Instructors

Instructor-Led

Public and private courses taught by expert instructors across half-day to two-day courses

Register now

Learning

Blended Learning

Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase

Purchase now

Scale

Skills@Scale

Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details

Upcoming Public Classes

Data Engineer

Advanced Data Engineering with Databricks - Portuguese BR

Este curso serve como um ponto de entrada apropriado para aprender Engenharia de Dados Avançada com Databricks. Abaixo, descreveremos cada um dos quatro módulos de quatro horas incluídos neste curso.

Databricks Streaming and Delta Live Tables

O curso Databricks Streaming and Delta Live Tables (DSDLT) foi desenvolvido para preparar os alunos para o exame de certificação Databricks Certified Professional Data Engineer. O conteúdo deste curso consiste nos módulos de nível profissional do roteiro de aprendizagem para engenharia de dados e pode ser ministrado como treinamento conduzido por instrutor (ILT).

Databricks Data Privacy

Este conteúdo fornece um guia abrangente sobre o gerenciamento da privacidade de dados na Databricks. Ele aborda tópicos importantes, como arquitetura Delta Lake, isolamento de dados regional, compliance com GDPR/CCPA e uso de Change Data Feed (CDF). Por meio de demonstrações práticas e laboratórios práticos, os participantes aprendem a usar os recursos do Unity Catalog para proteger dados confidenciais e garantir a compliance, capacitando-os a proteger a integridade dos dados de forma eficaz.

Databricks Performance Optimization

Neste curso, você aprenderá a otimizar cargas de trabalho e disposições com Spark e Delta Lake e analisar o Spark UI para avaliar desempenho e depurar aplicativos. Abordaremos tópicos como transmissão, clustering líquido, omissão de dados, cache, fótons e muito mais.

Automated Deployment with Databricks Asset Bundles

Este curso fornece uma revisão abrangente dos princípios de DevOps e sua aplicação em projetos Databricks. Ele começa com uma visão geral dos principais DevOps, DataOps, integração contínua (CI), implantação contínua (CD) e testes, e explora como esses princípios podem ser aplicados a pipelines de engenharia de dados.

Em seguida, o curso se concentra na implantação contínua dentro do processo de CI/CD, examinando ferramentas como a API REST do Databricks, o SDK e a CLI para implantação de projetos. Você aprenderá sobre os DABs (Asset Bundles, pacotes de ativos do Databricks) e como eles se encaixam no processo de CI/CD. Você se aprofundará em seus principais componentes, na estrutura de pastas e em como eles simplificam a implantação em vários ambientes de destino no Databricks. Você também aprenderá a adicionar variáveis, modificar, validar, implantar e executar Databricks Asset Bundles para vários ambientes com configurações diferentes usando a CLI do Databricks.

Por fim, o curso apresenta o Visual Studio Code como um ambiente de desenvolvimento interativo (IDE) para criar, testar e implantar Databricks Asset Bundles localmente, otimizando seu processo de desenvolvimento. O curso termina com uma introdução à automação de pipelines de implantação usando ações do GitHub para aprimorar o fluxo de trabalho de CI/CD com Databricks Asset Bundles.

Ao final deste curso, você estará equipado para automatizar as implantações de projetos do Databricks com os Databricks Asset Bundles, melhorando a eficiência por meio de práticas de DevOps.

Languages Available: English | 日本語 | Português BR | 한국어

Paid
16h
Lab
instructor-led
Professional
Data Engineer

Automated Deployment with Databricks Asset Bundles - Portuguese BR

Este curso fornece uma revisão abrangente dos princípios de DevOps e sua aplicação em projetos Databricks. Ele começa com uma visão geral dos principais DevOps, DataOps, integração contínua (CI), implantação contínua (CD) e testes, e explora como esses princípios podem ser aplicados a pipelines de engenharia de dados.

Em seguida, o curso se concentra na implantação contínua dentro do processo de CI/CD, examinando ferramentas como a API REST do Databricks, o SDK e a CLI para implantação de projetos. Você aprenderá sobre os DABs (Asset Bundles, pacotes de ativos do Databricks) e como eles se encaixam no processo de CI/CD. Você se aprofundará em seus principais componentes, na estrutura de pastas e em como eles simplificam a implantação em vários ambientes de destino no Databricks. Você também aprenderá a adicionar variáveis, modificar, validar, implantar e executar Databricks Asset Bundles para vários ambientes com configurações diferentes usando a CLI do Databricks.

Por fim, o curso apresenta o Visual Studio Code como um ambiente de desenvolvimento interativo (IDE) para criar, testar e implantar Databricks Asset Bundles localmente, otimizando seu processo de desenvolvimento. O curso termina com uma introdução à automação de pipelines de implantação usando ações do GitHub para aprimorar o fluxo de trabalho de CI/CD com Databricks Asset Bundles.

Ao final deste curso, você estará equipado para automatizar as implantações de projetos do Databricks com os Databricks Asset Bundles, melhorando a eficiência por meio de práticas de DevOps.

Languages Available: English | 日本語 | Português BR | 한국어

Paid
4h
Lab
Professional

Questions?

If you have any questions, please refer to our Frequently Asked Questions page.