Automated Deployment with Databricks Asset Bundles - Portuguese BR
Este curso fornece uma revisão abrangente dos princípios de DevOps e sua aplicação em projetos Databricks. Ele começa com uma visão geral dos principais DevOps, DataOps, integração contínua (CI), implantação contínua (CD) e testes, e explora como esses princípios podem ser aplicados a pipelines de engenharia de dados.
Em seguida, o curso se concentra na implantação contínua dentro do processo de CI/CD, examinando ferramentas como a API REST do Databricks, o SDK e a CLI para implantação de projetos. Você aprenderá sobre os DABs (Asset Bundles, pacotes de ativos do Databricks) e como eles se encaixam no processo de CI/CD. Você se aprofundará em seus principais componentes, na estrutura de pastas e em como eles simplificam a implantação em vários ambientes de destino no Databricks. Você também aprenderá a adicionar variáveis, modificar, validar, implantar e executar Databricks Asset Bundles para vários ambientes com configurações diferentes usando a CLI do Databricks.
Por fim, o curso apresenta o Visual Studio Code como um ambiente de desenvolvimento interativo (IDE) para criar, testar e implantar Databricks Asset Bundles localmente, otimizando seu processo de desenvolvimento. O curso termina com uma introdução à automação de pipelines de implantação usando ações do GitHub para aprimorar o fluxo de trabalho de CI/CD com Databricks Asset Bundles.
Ao final deste curso, você estará equipado para automatizar as implantações de projetos do Databricks com os Databricks Asset Bundles, melhorando a eficiência por meio de práticas de DevOps.
Nota: Este curso é o quarto da série “Engenharia de dados avançada com Databricks”.
- Forte conhecimento da plataforma Databricks, incluindo experiência com Databricks Workspaces, Apache Spark, Delta Lake, Medallion Architecture, Unity Catalog, Delta Live Tables e Workflows. Em particular, conhecimento do uso de Expectativas com DLTs.
- Experiência em ingestão e transformação de dados, com proficiência em PySpark para processamento de dados e manipulação de DataFrame. Os candidatos também devem ter experiência em escrever consultas SQL de nível intermediário para análise e transformação de dados.
- Proficiência em programação Python, incluindo a capacidade de projetar e implementar funções e classes, e experiência com criação, importação e utilização de pacotes Python.
- Familiaridade com práticas de DevOps, particularmente integração contínua e princípios de entrega/implantação contínua (CI/CD).
- Uma compreensão básica do controle de versão Git.
- Pré-requisito do curso: DevOps Essentials para o curso de Engenharia de Dados
Self-Paced
Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos
Registration options
Databricks has a delivery method for wherever you are on your learning journey
Self-Paced
Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos
Register nowInstructor-Led
Public and private courses taught by expert instructors across half-day to two-day courses
Register nowBlended Learning
Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase
Purchase nowSkills@Scale
Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details